Universidad Fidélitas San Pedro, Costa Rica Computación y Sociedad “Regulación y políticas públicas para la IA: Desafíos y propuestas” Integrantes: Axel Quirós Cordero Milagro Monge Ramírez Johel Fabricio Mena Brizuela Anthony Font Soto 2024 Abstract: Actualmente, la inteligencia artificial (IA) se encuentra en cada rincón. Desde asistirnos en la predicción de enfermedades hasta la automatización de procesos empresariales, esta tecnología se ha convertido en esencial en numerosos aspectos de nuestra existencia. No obstante, a medida que progresamos, surgen también desafíos que no podemos pasar por alto. Por ejemplo, los sistemas de inteligencia artificial pueden incurrir en fallos que discriminan a determinados individuos o recolectar datos privados sin que nos percatemos. El problema radica en que, a pesar de que reconocemos que estas situaciones están sucediendo, en numerosos países no existen normas claras para gestionarlas. Esto genera un hueco en el que los derechos de las personas pueden ser perjudicados y las compañías no siempre poseen restricciones definidas sobre sus acciones. A la vez, si restringimos excesivamente la IA, podemos obstaculizar el progreso. Este proyecto busca encontrar un equilibrio. Analizamos los problemas que trae la IA y proponemos soluciones para que se use de manera ética y responsable. La idea es asegurarnos de que todos podamos beneficiarnos de esta tecnología sin que se pierdan valores fundamentales como la justicia, la igualdad y el respeto por la privacidad. CAPITULO I. INTRODUCCION La inteligencia artificial se ha definido como una de las tecnologías más disruptivas de la sociedad, transformando la manera en que interactuamos con la tecnología y redefiniendo las dinámicas sociales, económicas y políticas a nivel global. Desde la década de 1950, cuando se comprendía como una disciplina limitada a la simulación de procesos de pensamiento humanizado, la IA ha logrado evolucionar hasta poder convertirse en una herramienta esencial en áreas como la salud, transporte, educación y seguridad. Actualmente, la IA impulsa grandes innovaciones en diferentes sectores críticos para poder procesar grandes cantidades de datos, aprendiendo de manera autónoma y tomando decisiones complejas en tiempo real. Sin embargo, este avance acelerado también llegó a tener sus repercusiones de desafíos éticos y sociales que requieren atención. Entre estos pueden destacar los riesgos asociados con el sesgo algorítmico, discriminación en sistemas automatizaos y vulneración de la privacidad. A pesar de los esfuerzos internacionales para poder regular la IA, existe un vacío normativo en la mayoría de las jurisdicciones. La falta de políticas coherentes que aborden las implicaciones éticas, sociales y económicas de dicha tecnología plantea riesgos que no solo afectan los derechos fundamentales, sino también la estabilidad democrática y desarrollo inclusivo. La importancia de dicha investigación radica principalmente en poder analizar los desafíos asociados con la regulación de la IA y proponer soluciones que puedan llegar a equilibrar la innovación tecnológica con la protección de los derechos humanos y sus valores democráticos. Dicho enfoque no solo busca mitigar los riesgos de la IA, sino también maximizar sus beneficios, donde se podrá contar con lineamientos para el desarrollo y la implementación de la IA de manera ética y sostenible. 1.1. ANTECEDENTES DEL PROBLEMA DE INVESTIGACION. La inteligencia artificial ha sido una de las tecnologías más innovadoras del siglo XXI, impactando de forma significativa los distintos sectores como la salud, la educación, la seguridad y el comercio. Desde la década de 1950, la IA ha evolucionado de manera significativa pasando de ser una disciplina “teórica” a un componente esencial en el sistema de toma de decisiones. En los años 70 y 80, el enfoque principal estaba en los sistemas expertos, que llegaban a imitar el razonamiento humano basado en reglas. Sin embargo, el simple hecho de la falta de datos y la limitación de capacidad computacional restringen su alcance. En el año 2010, cuando la IA llegó a experimentar un renacimiento gracias al acceso masivo a grandes cantidades de datos, lo que hoy se conoce como big data, el desarrollo de algoritmos mucho más sofisticados como el aprendizaje profundo y el aumento considerable de la capacidad de procesamiento computacional. Actualmente, la IA es utilizada para distintas tareas según su nivel de priorización, como la predicción de enfermedades, automatización de diferentes procesos industriales y sociales. Con el pasar de los años se fueron realizando distintas investigaciones donde estas relevan casos de sesgos algorítmicos, discriminación en sistemas de contratación automatizada y vulneraciones a la privacidad a través de sistemas de vigilancia. [1] Investigaciones previas, como el informe de “The Ethics of IA” de la UNESCO 2021, han identificado la necesidad de establecer regulaciones que mitiguen estos riesgos. Sin embargo, persiste un problema normativo de los países a la discusión, proponiendo un marco regulatorio adaptado a los desafíos actuales. JUSTIFICACION DEL PROBLEMA DE INVESTIGACION. La regulación de la inteligencia artificial es un tema importante en el mundo, debido al gran impacto masivo de dicha tecnología. La falta de políticas públicas adecuadas no solo pone en riesgo los derechos de las personas, sino que también puede limitar la innovación y la competitividad de las economías emergentes. [2] Según los datos de Statista (2023), el mercado global de IA alcanzará los 1,5 billones de dólares para el 2030. Este crecimiento exponencial destaca la alta necesidad de establecer normativas claras que aseguren un desarrollo ético. Además, el Instituto de Estándares y Tecnología (NIST) ha señalado que el 85% de las diferentes organizaciones que utilizan IA no comprenden en su totalidad los riesgos asociados a este y su implementación. Los beneficiarios directos son: 1. Gobiernos: Estas organizaciones podrán diseñar políticas efectivas para superar el uso de la IA. 2. Empresas tecnológicas: Encontrarán en dichas regulaciones la guía necesaria para poder garantizar que sus desarrollos sean éticos y seguros. 3. Sociedad general: El objetivo de este es confiar en sistemas que sean transparentes y responsables. El impacto de dicho estudio radica principalmente en poder fomentar un equilibrio entre la innovación y protección de la tecnología anteponiendo los derechos fundamentales, sentando bases para un desarrollo inclusivo y sostenible de la inteligencia artificial. FORMULACION DEL PROBLEMA DE INVESTIGACION. ¿Qué estrategias regulatorias y políticas públicas pueden ser implementadas para poder abordar de manera general los desafíos éticos, sociales y económicos de la inteligencia artificial, garantizando así un uso más responsable y equitativo de esta tecnología en la sociedad? OBJETIVOS OBJETIVO GENERAL Analizar los desafíos asociados con la regulación de la inteligencia artificial y proponer políticas públicas que promuevan su uso ético y responsable, garantizando beneficios equitativos para todos los sectores de la sociedad. OBJETIVOS ESPECIFICOS 1. Identificar los principales desafíos éticos y sociales derivados del uso de la inteligencia artificial. 2. Evaluar las políticas públicas y regulaciones actuales relacionadas con la IA en diferentes contextos internacionales. 3. Establecer estrategias que promuevan una mayor conciencia sobre los riesgos y beneficios de la IA. CAPITULO II. MARCO TEORICO O CONCEPTUAL. ¿Qué es la IA? La inteligencia artificial, o IA, es tecnología capaz de permitir que las máquinas emulen la inteligencia y las habilidades humanas de resolución de problemas. La IA puede llevar a cabo por sí sola o en combinación con otras tecnologías, como sensores, geolocalización o robótica, una tarea que normalmente requeriría inteligencia o intervención humana. La IA se presenta de múltiples maneras en nuestras vidas y en los medios de comunicación, tales como asistentes digitales, guía por GPS, vehículos autónomos y herramientas de IA generativa. La inteligencia artificial, como disciplina de la informática abarca el desarrollo de algoritmos de IA, diseñados a partir de los procesos de toma de decisiones del cerebro humano, que pueden aprender en función de los datos disponibles, produciendo clasificaciones o predicciones en situaciones cada vez más precisas. Machine Learning supervisado El aprendizaje supervisado, también llamado machine learning supervisado, se define por su uso de conjuntos de datos etiquetados para entrenar algoritmos desde los cuáles se pueden clasificar datos o predecir resultados de estas. A medida que se introducen datos de entrada en el modelo, este va ajustando sus pesos hasta que se ha ajustado «de» manera adecuada, como parte del proceso de validación cruzada para asegurarse que el modelo evite sobre ajustarse o infra ajustarse . El machine learning supervisado ayuda a las organizaciones a resolver varios problemas de forma masiva en el mundo real como el ejemplo de clasificar el spam en una carpeta separada de su bandeja de entrada. Aprendizaje no supervisado El aprendizaje no supervisado, un tipo de machine learning no supervisado, consiste en la aplicación de un conjunto de algoritmos de machine learning a un conjunto de datos no etiquetado. Estos algoritmos buscan patrones ocultos o agrupaciones que aparecen en los datos sin intervención humana. La fuerza del aprendizaje no supervisado para revelar aspectos y diferencias presentes en la información que se analiza lo hacen apropiado para el análisis exploratorio de los datos, para estrategias de ventas cruzadas, para la segmentación de los clientes o la búsqueda de imágenes y patrones. Aprendizaje semisupervisado El aprendizaje semisupervisado es el término intermedio entre el aprendizaje supervisado y el aprendizaje no supervisado; utiliza un conjunto de datos etiquetados pequeño a lo largo del periodo de entrenamiento para algorítmicamente guiar la clasificación y la extracción de características de un conjunto de datos más grande no etiquetado. El aprendizaje semisupervisado puede ser beneficioso ante el problema de no contar con datos suficientes para una clase que requiera algoritmos de aprendizaje supervisado. También es útil si la etiquetación de los datos suficientes supone un coste elevado. El sesgo algorítmico se da cuando los modelos de IA, basados en unos datos de entrenamiento que resulten limitados o sesgados, presentan resultados discriminatorios o equivocados lo cual puede dar lugar a desigualdades sociales y económicas. La gobernanza de la IA consiste en diseñar e implementar normas, principios y mecanismos de control que aseguren que la misma cumpla con unos parámetros éticos de funcionamiento y responsables. El principio de transparencia señala que los sistemas de IA sean explicativos en el sentido de que se pueda explicar cómo y por qué se han llegado a unas decisiones. Este principio resulta fundamental para garantizar la confianza en las nuevas tecnologías. Bases conceptuales para la regulación de la IA Floridi sostiene que las tecnologías emergentes, como la IA, deben ser diseñadas de acuerdo con unos principios éticos que promuevan el bienestar social y la sostenibilidad y la justicia. Responsabilidad y evaluación de cuentas Las organizaciones que crean o ponen en funcionamiento IA han de ser responsables de las consecuencias de sus tecnologías. Gobernanza evolutiva Las políticas públicas para las tecnologías disruptivas deben ser flexibles, es decir, deben permitirlos cambios a medida que evolucionen las potencialidades tecnológicas este enfoque sostenía la responsabilidad de los gobiernos, empresas y la sociedad civil de alcanzarla. El enfoque de derechos humanos Las regulaciones han de centrarse en la defensa de derechos fundamentales, para asegurar que la IA se ase la utilidad de toda la sociedad. Estudios existentes sobre la regulación de la IA Vacíos legislativos: Cath advierte que, a nivel mundial, la regulación de la IA es inconsistente y fragmentada. En la gran mayoría de países no existen normativas concretas para hacer frente a los riesgos éticos y sociales implicados por la IA. Ello ha permitido la utilización de datos como un mecanismo para la explotación personal sin la autorización correspondiente. Propuestas internacionales: o Unión Europea: En 2021 la comunidad europea hizo pública la Propuesta de Reglamento de la IA, disponiendo que su objetivo era establecer un marco normativo que regulase el uso conforme la categorización de sus riesgos. o OCDE: Los Principios de AI adoptados en 2019 preconizan una IA inclusiva, centrada en la persona humana y alineada con los valores de la democracia. o UNESCO: En 2021 tenía lugar la publicación de un marco ético internacional de la IA, destacando la necesidad de inclusión, sostenibilidad y derechos humanos. La regulación de la IA se enfrenta a varios problemas éticos y sociales que requieren atención inmediata La IA depende de grandes volúmenes de datos, lo que supone un importante riesgo para la privacidad de las personas. Muchos sistemas de IA funcionan como cajas negras donde los procesos de decisión son oscuros. Esto hace que se vuelva altamente complicado identificar errores o sesgos en los resultados y, así, establecer pautas para la rendición de cuentas. La aplicación de la IA puede acentuar desigualdades entre países y grupos sociales, en particular los países en desarrollo, que encuentran obstáculos para acceder a tecnologías avanzadas hay una delgada línea entre la promoción de la innovación tecnológica y la regulación para establecer límites. Propuestas de políticas públicas sobre IA Es necesario que se elaboren estándares internacionales que tracen el desarrollo y el uso de la IA. La creación de organismos reguladores sobre la IA puede poner en marcha mecanismos que garanticen de forma constante la evaluación de los sistemas implementados, especialmente en sectores críticos como la salud, la justicia y la seguridad. Fomento de la innovación responsable Los gobiernos deben ofrecer incentivos para que las empresas desarrollen IA ética y transparente, promoviendo la investigación en sistemas explicables, libres de sesgos. Educación y concienciación Se deben promover los programas educativos que sensibilicen a los desarrolladores, a los legisladores y a la ciudadanía sobre los riesgos y beneficios de la IA. Participación inclusiva La regulación de la IA debe ser un proceso de participación que incluya las voces de los grupos tradicionalmente marginados, para garantizar que haya soluciones que sean inclusivas y no discriminatorias. CAPITULO III. MARCO METODOLOGICO 1.1. TIPO DE INVESTIGACIÓN Dicho estudio es de tipo descriptivo y exploratorio, ya que busca analizar los desafíos relacionados con la regulación de la inteligencia artificial y proponer políticas públicas que promuevan su uso ético y responsable. La investigación se centra en explorar y describir las percepciones de diferentes grupos sociales sobre la temática. 1.2. POBLACION O MUESTRA. La población objetivo se limitará a personas en general y estudiantes, quienes podrán ofrecer perspectivas variadas sobre el impacto social y ético de la inteligencia artificial. La muestra estará compuesta por participantes seleccionados de forma no probabilística, basándose en su disponibilidad y disposición para responder la encuesta. 1.3. DESCRIPCION DEL O DE LOS INTRUMENTOS Se utilizarán encuestas estructuradas creadas en Google Forms como instrumento principal para la recolección de datos. Estas encuestas contienen preguntas cerradas y escalas de opinión para recopilar información cuantitativa sobre el conocimiento, las percepciones y las opiniones relacionadas con la regulación de la inteligencia artificial. 3.6. TRATAMIENTO DE LA INFORMACION. Los datos recopilados serán analizados mediante las herramientas estadísticas integradas en Google Forms. Los gráficos y resúmenes automáticos generados por la plataforma permitirán identificar tendencias, patrones y conclusiones clave, que se utilizarán para fundamentar las propuestas del estudio. CAPITULO IV. INTERPRETACION Y ANALISIS DE RESULTADOS. 4.1. RESULTADOS GENERALES DE LAS ENCUESTAS 1. Nivel de conocimiento sobre la inteligencia artificial: a) Un 66.7% de los encuestados indicó tener un nivel de conocimiento "regular" sobre la inteligencia artificial. b) Un 8.3% afirmó tener un conocimiento avanzado, mientras que un 25% indicó tener poco conocimiento. Interpretación: A pesar del creciente impacto de la IA en la vida cotidiana, existe una parte de la población en el conocimiento especializado o especifico, lo que evidencia la necesidad de fortalecer la educación sobre dicho tema. 2. Uso de aplicaciones basadas en IA: a) El 91.7% de las personas que llenaron el formulario afirmaron haber interactuado con aplicaciones basadas en IA, como asistentes virtuales, un ejemplo de estas podría ser ChatGPT o Compilot. Interpretación: El alto uso de las herramientas de IA resalta su integración en la vida diaria, lo que refuerza la importancia de su regulación. 3. Importancia de la IA en la vida cotidiana: a) Un 50% considera que la IA es moderadamente importante, mientras que un 33.3% la califica como muy importante. Interpretación: Las personas que participaron reconocen lo rápido que avanza la IA, lo que sugiere una percepción positiva de su impacto en la sociedad. 4. Preocupaciones sobre la privacidad: a) El 50% considera que el impacto de la IA en la privacidad es poco preocupante, mientras que un 33.3% lo considera moderadamente preocupante. Interpretación: Aunque existe preocupación sobre la privacidad, no es categorizada como un problema crítico por la mayoría de los encuestados, lo que podría deberse a la falta de conciencia sobre los riesgos de dicho tema. 5. Beneficios de la IA en sectores clave: a) El 75% cree que la IA es moderadamente beneficiosa para sectores como la salud, la educación, la seguridad y el transporte. b) Un 25% la considera indispensable en estos sectores. Interpretación: La mayoría de las personas reconocen los beneficios potenciales de la IA, lo que refuerza la necesidad de fomentar su desarrollo en sectores importantes. 6. Regulación de la IA: a) Un 83.3% está de acuerdo en que la IA debe estar regulada por políticas públicas claras. Interpretación: Existe un debate sobre la importancia de establecer regularidades para garantizar un uso ético y responsable de la IA. 7. Actores clave en la regulación: a) El 83.3% considera que las empresas tecnológicas deben participar en la regulación. b) El 58.3% cree que las organizaciones internacionales también deberían involucrarse. c) Solo un 41.7% señaló a los gobiernos como actores principales. Interpretación: Los participantes valoran el rol de las distintas empresas tecnológicas y las organizaciones internacionales en la regulación, reflejando una posible desconfianza hacia la capacidad de los gobiernos para liderar estos distintos procesos. 8. Impacto de la IA en la calidad de vida: El 83.3% de los encuestados cree que la IA puede mejorar la calidad de vida. Interpretación: Existe una percepción positiva sobre el potencial de la IA para generar un impacto positivo en la sociedad. 4.2. ANÁLISIS DE RESULTADOS Los resultados de las encuestas evidencian una percepción positiva sobre el impacto de la inteligencia artificial en la vida cotidiana y los sectores clave. Sin embargo, también se destacan preocupaciones éticas y sociales. La mayoría de las personas que participaron de esta encuesta, coinciden en la necesidad de regulación, especialmente por parte de actores tecnológicos e internacionales. Toda esta información fue analizada detalladamente de los cuadros y gráficos estadísticos que se encuentran en el apartado de “Anexos”. CAPITULO V. CONCLUSIONES Y RECOMENDACIONES. 5.1. CONCLUSIONES Regular la inteligencia artificial (IA) es una tarea urgente, pero también una gran oportunidad para garantizar que esta tecnología beneficie a todos de forma justa y responsable. Durante este análisis quedó claro que, aunque la IA nos aporta enormes avances en áreas como la salud, la educación y la economía, también puede generar riesgos graves si no se regula adecuadamente. Como conclusiones clave tenemos: 1. Necesidad de reglas claras y globales Muchas de las normas coherentes a nivel mundial deja a las personas expuestas a problemas como la invasión de su privacidad, decisiones injustas por parte de algoritmos y el uso indebido de sus datos. Hace falta un marco global que proteja los derechos fundamentales y asegure que la IA sea usada de forma ética. 2. Transparencia y responsabilidad Muchos sistemas de IA funcionan como “cajas negras”, donde no queda claro cómo se toman las decisiones. Esto puede ser peligroso porque no permite identificar errores. Las políticas deben garantizar que estos sistemas sean comprensibles y responsables. 3. Impulso a la innovación ética La regulación no debe frenar el desarrollo tecnológico, sino mejor asegurarse de que las empresas creen soluciones éticas y libres de sesgos. Incentivar la innovación responsable ayudará a que la IA sea de mejor beneficio para las personas. 5.2. RECOMENDACIONES 1. Regulación para la IA Autoridades, entidades globales y especialistas en tecnología deberían colaborar para instaurar directrices explícitas, a nivel mundial, que protejan la privacidad, opten por la equidad y supervisen la utilización de datos. "Este plan necesita ser flexible y capaz de afrontar nuevos desafíos morales y legales con la IA." 2. Exigir transparencia y responsabilidad en los sistemas de IA Las empresas y los desarrolladores tienen que seguir normas que hagan que sus sistemas inteligentes sean fáciles de entender, verificar y de los que se pueda ser responsable. Esto implica registrar las decisiones tomadas, detectar posibles prejuicios y establecer sistemas de supervisión para garantizar el cumplimiento de estas normas. 3. Promover la innovación responsable con incentivos Los gobiernos y agencias deberían animar a empresas y creadores que desarrollen tecnologías imparciales, inclusivas y éticas. Esto podría significar obtener devoluciones de impuestos, ayuda para financiar buenas investigaciones y premios para proyectos que beneficien a la comunidad. CAPITULO VI. BIBLIOGRAFIA Y ANEXOS. 6.1. BIBLIOGRAFIA 1. Ibm. (2024, junio 14). ¿Qué es la inteligencia artificial (IA)? https://www.ibm.com/mx-es/topics/artificial-intelligence 2. Ibm. (2024, noviembre 8). Machine Learning. ¿Qué es el machine learning (ML)? https://www.ibm.com/es-es/topics/machine-learning 3. Ibm. (2024, octubre 22). Procesamiento del lenguaje natural. ¿Qué es el PLN (procesamiento del lenguaje natural)? https://www.ibm.com/eses/topics/natural-language-processing Statista - El portal de estadísticas. (s/f). Statista. Recuperado el 1 de diciembre de 2024, de https://es.statista.com 4. Unesco.org. (s/f). Recuperado el 25 de noviembre de 2024, de https://www.unesco.org/en/artificial-intelligence/recommendationethics#:~:text=The%20use%20of%20AI%20systems,may%20result%20from %20such%20uses.&text=Unwanted%20harms%20(safety%20risks)%20as,a nd%20addressed%20by%20AI%20actors 6.2. ANEXOS Basado en la pregunta anterior justifique su respuesta. ● Porque mejora la rapidez de procesos ● Puede ser útil para complementar procesos creativos, obtener consejos, guías e información de diferentes ambitos que se involucran en las actividades de los deres humanos ● Uso la IA para muchas cosas, el tiempo que ahorro es bastante y aprendo mucho ● Si se puede considerar porque ayuda en tareas básicas o tareas ● Ayuda a irnos desarrollando poco a poco ● Si, por qué desde que lleno nos a ayudado bastante en la vida cotidiana como también en el trabajo y en las materias académicas, siendo como un apoyo a las personas que les cuesta más entender la materia o simplemente es una ayuda para tareas o proyectos ● En muchas áreas de empresas puede facilitar algunos trabajos automatizándolos y haciéndolos más eficientes ● La IA es una herramienta muy buena para la vida cotidiana si se usa adecuadamente, puede ser de ayuda para preguntas o para trabajos que uno no puede llegar a entender ● Si por los avances tecnologicos. Necesitamos mas para poder curar enfermedades y asistir a los doctores ● La verdad no estoy segura ● Puede ayudar a tareas diarias o información ● Se deberia analizar el impacto que tenga en la vida cotidiana para ver si puede haber un mejoramiento en la vida diaria