Armas autónomas y la Ausencia y necesidad de regulaciones Autor: Benjamin Scaffidi Objetivos En este escrito, se buscará presentar una aproximación del impacto ético que el surgimiento del desarrollo de los sistemas de armas autónomas letales (LAWS, por sus siglas en inglés) tuvo en la escena internacional. Trataremos un número de éstas presentadas por varias de las entidades más influyentes respecto al tema. Cabe aclarar que este escrito no pretende ser una lista exhaustiva de las problemáticas que presentan o que podrán llegar a presentar estos sistemas, que seguramente surgirán a medida que la tecnología avanza. Introducción Las armas autónomas han generado crecientes preocupaciones éticas y legales en el ámbito internacional, como declara el Comité Internacional de la Cruz Roja (CICR, 2020): “Las discusiones internacionales sobre las preocupaciones humanitarias, legales y éticas planteadas por los sistemas de armas autónomos se han extendido durante la última década.”1. Estas armas, impulsadas por la inteligencia artificial y capaces de tomar decisiones sin la intervención humana directa, plantean interrogantes fundamentales sobre el uso de la tecnología en el campo de la guerra. A medida que la autonomía de estas armas aumenta, surge la necesidad de abordar las cuestiones éticas y legales relacionadas con su desarrollo, despliegue y uso. Comité Internacional de la Cruz Roja (CICR). (2020) Posición del CICR sobre los sistemas de armas autónomos (p. 3). 1 Sesgo y discriminación La inteligencia artificial no está exenta de sesgos y discriminación. Los sistemas de IA se entrenan utilizando grandes cantidades de datos, que pueden contener sesgos inherentes de la sociedad en la que se recopilan. Respecto a esto, (Muñoz, Díaz) (2020) plantean: “el riesgo de que las armas autónomas reflejen sesgos, y por lo tanto tengan un impacto desproporcionado en ciertas poblaciones [...] es muy alto”2 . Si estos sesgos se trasladan a las armas autónomas, podríamos enfrentarnos a situaciones en las que la toma de decisiones esté influenciada por prejuicios raciales, de género u otras formas de discriminación. Esto plantea serias preocupaciones éticas, ya que las armas autónomas podrían llevar a una amplificación de los prejuicios y la discriminación en situaciones de conflicto. LAWS y los pilares del DIH Otra preocupación que surge en torno a la problemática es en torno a la adherencia de estas armas al Derecho Internacional Humanitario (DIH). El despliegue y uso de estas armas en un campo de batalla podría manifestar un vacío en la aplicación de algunos de los principios del DIH, afectando así los derechos de aquellos protegidos bajo el mismo durante el combate. En primer lugar se encuentra el principio de distinción, obligando a todo actor en el combate a distinguir entre civiles y combatientes durante el conflicto. Debido a que las maneras en las que un combatiente puede demostrar hostilidad son extremadamente diversas, como lo son las maneras en las que pueden rendirse y retirarse del combate, se teme que las armas autónomas se vean incapaces de poder distinguir entre aquellos que están participando activamente en combate, de civiles o aquellos que ya no presentan intenciones hostiles3. Por otra parte, surge el cuestionamiento a la capacidad de estos sistemas para respetar el principio de proporcionalidad, que prohíbe lanzar un ataque militar que se espera cause la muerte de civiles o aquellos fuera de combate, y que estos daños excedan la ventaja militar que se prevee obtener mediante dicha acción . Esta problemática también viene vinculada con la anterior, si un contexto es demasiado complicado como para que el programa distinga entre aliados y enemigos, ¿Es siquiera posible que pueda evaluar correctamente la situación y las Muñoz, W. Díaz, M. (2020) Los riesgos de las armas autónomas: una perspectiva interseccional latinoamericana (p.12) 3 Comité Internacional de la Cruz Roja (CICR). (2020) Posición del CICR sobre los sistemas de armas autónomos (p. 9) 2 ventajas que aportarían tomar una determinada decisión, cuando ni siquiera es capaz de distinguir entre civiles y combatientes? Como menciona Boogard: “Pareciese que, en particular, si las AWS operasen en un entorno complejo y que cambia rápidamente, las AWS carecerían de la capacidad holística de la mente humana para tener en cuenta el contexto completo.”.4 Por último, las armas autónomas plantean un desafío crucial en cuanto a la aplicación del principio de responsabilidad. A medida que estas armas son capaces de tomar decisiones y llevar a cabo operaciones sin intervención humana directa, se vuelve complicado determinar quién debe asumir la responsabilidad por las consecuencias de sus acciones. Esto podría terminar en un vacío en la atribución de la responsabilidad en caso de crímenes causados por el sistema, llevando así a un clima de impunidad5. Como plantea la UNIDIR (2017), debido a la naturaleza de las LAWS y la cantidad de decisiones complejas que toman, se vuelve menos directa la asociación de la acción que el arma termine tomando, con la intención original del comandante que emitió la orden en un primer lugar6. Impacto en la escena internacional La proliferación de armas basadas en IA también plantea desafíos éticos en el ámbito internacional. La posibilidad de una carrera armamentista en la que los países compitan por desarrollar y desplegar armas autónomas crea una situación peligrosa7, y la falta de acuerdos internacionales y regulaciones efectivas podría llevar a una escalada de conflictos y aumentar la posibilidad de guerras impulsadas por IA. También surge la preocupación que aquellos agentes que lideren el desarrollo de estas armas tiendan más al uso de la guerra. Cuando el costo de participar en la guerra es tan bajo, tanto que el único costo percibido es el monetario ¿Qué ha de impedir a los estados y agentes internacionales de hacer la política agresivamente, y ver a la guerra como una herramienta más que solo presenta pérdidas significativas para el otro lado?8 4 Boogard, J. (2016) Proportionality and Autonomous Weapons Systems. Docherty, B ( 09 de abril de 2015).Cuidado con el vacío, La falta de responsabilidad con respecto a los robots asesinos. 6 UNIDIR. (2017) The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics and Definitional Approaches. 7 Docherty, B (06 de marzo de 2020) Construyendo el caso. Los peligros de los robots asesinos y la necesidad de una prohibición preventiva 8 Lin, P. Bekey, G. Abney, K.(2008). Autonomous Military Robotics: Risk, Ethics, and Design (p. 75) 5 Además, existe el riesgo de que los grupos no estatales o actores irresponsables obtengan acceso a estas armas, lo que aumentaría la inestabilidad y la amenaza para la seguridad global. Como desarrollan (Muñoz, Díaz) (2020), se expresa el temor que las armas autónomas podrían ser utilizadas por regímenes autoritarios o grupos terroristas, lo que aumentaría el riesgo de violaciones masivas de derechos humanos. Por ejemplo, en medidas discriminatorias frente a grupos de riesgo, como pueden ser su uso en las fronteras para impedir la migración9. También es posible que sean la “herramienta perfecta”10 para que dictadores repriman a su población, al no tener que temer la posibilidad de que sus fuerzas se resistan a ser desplegadas contra ciertos objetivos. Pérdida del elemento humano Debajo de todas estas problemáticas, también se presenta un sentimiento innato de rechazo a la idea de que una máquina sea capaz de tomar la vida de una persona. La noción de permitir que una máquina sea capaz de por sí misma de tomar la vida de un humano, de poder reducir todo lo que representa ser a una serie de ceros y unos son causas de preocupación y repugnancia para muchos11. Acerca de esta problemática, la UNIDIR (2015) plantea: Quizás en el centro de las preocupaciones planteadas sobre las armas completamente autónomas, hay algo menos definitivo que la ley[...]. Este algo podría describirse como una repulsión instintiva contra la idea de que las máquinas "decidan" matar humanos. En otros términos, esta repugnancia podría considerarse una reacción a una posible violación de la dignidad humana. 12 Conclusiones El desarrollo de armas basadas en inteligencia artificial plantea desafíos éticos significativos en términos de autonomía, responsabilidad, derechos humanos y seguridad internacional. La Wanda Muñoz, Ingrid Sada - Los riesgos de las armas autónomas: una perspectiva interseccional latinoamericana 10 Docherty, B (06 de marzo de 2020) Construyendo el caso. Los peligros de los robots asesinos y la necesidad de una prohibición preventiva. 11 Véase https://www.stopkillerrobots.org/ 12 UNIDIR (2015). The Weaponization of Increasingly Autonomous Technologies: Considering Ethics and Social Values (p. 7) 9 sociedad debe reflexionar y tomar decisiones fundamentadas para evitar consecuencias no deseadas. Es esencial que se promueva un debate amplio y transparente en el que participen expertos, académicos, gobiernos y sociedad civil para abordar las cuestiones éticas que surgen del uso de IA en armas. Además, se deben establecer normas y regulaciones internacionales que eviten la proliferación incontrolada de armas autónomas y que garanticen su uso responsable y respetuoso con los derechos humanos. Solo a través de un enfoque ético y responsable podremos aprovechar los beneficios de la inteligencia artificial sin poner en peligro la humanidad y la estabilidad mundial. Referencias Comité Internacional de la Cruz Roja (CICR). (2020) Posición del CICR sobre los sistemas de armas autónomos https://www.icrc.org/en/publication/4550-icrc-position-autonomous-weapon-systems Muñoz, W. Díaz, M. (2020) Los riesgos de las armas autónomas: una perspectiva interseccional latinoamericana.https://www.stopkillerrobots.org/wp-content/uploads/2020/09/Los-riesgos-de-las-armasautonomas-una-perspec-min.pdf UNIDIR (2015). The Weaponization of Increasingly Autonomous Technologies: Considering Ethics and Social Values https://www.unidir.org/sites/default/files/publication/pdfs/considering-ethics-and-socialvalues-en-624.pdf Docherty, B (06 de marzo de 2020) Construyendo el caso. Los peligros de los robots asesinos y la necesidad de una prohibición preventiva https://www.hrw.org/es/report/2020/03/06/construyendo-el- caso/los-peligros-de-los-robots-asesinos-y-la-necesidad-de-una#_ftn10 Wanda Muñoz, Ingrid Sada - Los riesgos de las armas autónomas: una perspectiva interseccional latinoamericana:https://www.stopkillerrobots.org/wp-content/uploads/2020/09/Los-riesgos-de-las-armasautonomas-una-perspec-min.pdf Lin, P. Bekey, G. Abney, K.(2008). Autonomous Military Robotics: Risk, Ethics, and Design. https://digitalcommons.calpoly.edu/cgi/viewcontent.cgi?article=1001&context=phil_fac UNIDIR. (2017) The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics and Definitional Approaches. https://unidir.org/sites/default/files/publication/pdfs//the-weaponization-ofincreasingly-autonomous-technologies-concerns-characteristics-and-definitional-approaches-en-689.pdf Docherty, B ( 09 de abril de 2015).Cuidado con el vacío, La falta de responsabilidad con respecto a los robots asesinos. https://www.hrw.org/es/report/2015/04/09/cuidado-con-el-vacio/la-falta-de-responsabilidad-con-respectolos-robots-asesinos#_ftn17 Boogard, J. (2016) Proportionality and Autonomous Weapons Systems http://opiniojuris.org/2016/03/23/proportionality-and-autonomous-weapons-systems/