Uploaded by notificationbot22

Etica

advertisement
Armas autónomas y la
Ausencia y necesidad de
regulaciones
Autor: Benjamin Scaffidi
Objetivos
En este escrito, se buscará presentar una aproximación del impacto ético que el
surgimiento del desarrollo de los sistemas de armas autónomas letales (LAWS, por sus siglas en
inglés) tuvo en la escena internacional. Trataremos un número de éstas presentadas por varias de
las entidades más influyentes respecto al tema. Cabe aclarar que este escrito no pretende ser una
lista exhaustiva de las problemáticas que presentan o que podrán llegar a presentar estos
sistemas, que seguramente surgirán a medida que la tecnología avanza.
Introducción
Las armas autónomas han generado crecientes preocupaciones éticas y legales en el
ámbito internacional, como declara el Comité Internacional de la Cruz Roja (CICR, 2020): “Las
discusiones internacionales sobre las preocupaciones humanitarias, legales y éticas planteadas
por los sistemas de armas autónomos se han extendido durante la última década.”1. Estas armas,
impulsadas por la inteligencia artificial y capaces de tomar decisiones sin la intervención humana
directa, plantean interrogantes fundamentales sobre el uso de la tecnología en el campo de la
guerra. A medida que la autonomía de estas armas aumenta, surge la necesidad de abordar las
cuestiones éticas y legales relacionadas con su desarrollo, despliegue y uso.
Comité Internacional de la Cruz Roja (CICR). (2020) Posición del CICR sobre los sistemas de armas
autónomos (p. 3).
1
Sesgo y discriminación
La inteligencia artificial no está exenta de sesgos y discriminación. Los sistemas de IA se
entrenan utilizando grandes cantidades de datos, que pueden contener sesgos inherentes de la
sociedad en la que se recopilan. Respecto a esto, (Muñoz, Díaz) (2020) plantean:
“el riesgo de que las armas autónomas reflejen sesgos, y por lo tanto tengan un impacto
desproporcionado en ciertas poblaciones [...] es muy alto”2 . Si estos sesgos se trasladan a las
armas autónomas, podríamos enfrentarnos a situaciones en las que la toma de decisiones esté
influenciada por prejuicios raciales, de género u otras formas de discriminación. Esto plantea
serias preocupaciones éticas, ya que las armas autónomas podrían llevar a una amplificación de
los prejuicios y la discriminación en situaciones de conflicto.
LAWS y los pilares del DIH
Otra preocupación que surge en torno a la problemática es en torno a la adherencia de
estas armas al Derecho Internacional Humanitario (DIH). El despliegue y uso de estas armas en
un campo de batalla podría manifestar un vacío en la aplicación de algunos de los principios del
DIH, afectando así los derechos de aquellos protegidos bajo el mismo durante el combate.
En primer lugar se encuentra el principio de distinción, obligando a todo actor en el
combate a distinguir entre civiles y combatientes durante el conflicto. Debido a que las maneras
en las que un combatiente puede demostrar hostilidad son extremadamente diversas, como lo son
las maneras en las que pueden rendirse y retirarse del combate, se teme que las armas autónomas
se vean incapaces de poder distinguir entre aquellos que están participando activamente en
combate, de civiles o aquellos que ya no presentan intenciones hostiles3.
Por otra parte, surge el cuestionamiento a la capacidad de estos sistemas para respetar el
principio de proporcionalidad, que prohíbe lanzar un ataque militar que se espera cause la muerte
de civiles o aquellos fuera de combate, y que estos daños excedan la ventaja militar que se
prevee obtener mediante dicha acción . Esta problemática también viene vinculada con la
anterior, si un contexto es demasiado complicado como para que el programa distinga entre
aliados y enemigos, ¿Es siquiera posible que pueda evaluar correctamente la situación y las
Muñoz, W. Díaz, M. (2020) Los riesgos de las armas autónomas: una perspectiva interseccional
latinoamericana (p.12)
3
Comité Internacional de la Cruz Roja (CICR). (2020) Posición del CICR sobre los sistemas de armas
autónomos (p. 9)
2
ventajas que aportarían tomar una determinada decisión, cuando ni siquiera es capaz de
distinguir entre civiles y combatientes? Como menciona Boogard: “Pareciese que, en particular,
si las AWS operasen en un entorno complejo y que cambia rápidamente, las AWS carecerían de
la capacidad holística de la mente humana para tener en cuenta el contexto completo.”.4
Por último, las armas autónomas plantean un desafío crucial en cuanto a la aplicación del
principio de responsabilidad. A medida que estas armas son capaces de tomar decisiones y llevar
a cabo operaciones sin intervención humana directa, se vuelve complicado determinar quién
debe asumir la responsabilidad por las consecuencias de sus acciones. Esto podría terminar en un
vacío en la atribución de la responsabilidad en caso de crímenes causados por el sistema,
llevando así a un clima de impunidad5. Como plantea la UNIDIR (2017), debido a la naturaleza
de las LAWS y la cantidad de decisiones complejas que toman, se vuelve menos directa la
asociación de la acción que el arma termine tomando, con la intención original del comandante
que emitió la orden en un primer lugar6.
Impacto en la escena internacional
La proliferación de armas basadas en IA también plantea desafíos éticos en el ámbito
internacional. La posibilidad de una carrera armamentista en la que los países compitan por
desarrollar y desplegar armas autónomas crea una situación peligrosa7, y la falta de acuerdos
internacionales y regulaciones efectivas podría llevar a una escalada de conflictos y aumentar la
posibilidad de guerras impulsadas por IA.
También surge la preocupación que aquellos agentes que lideren el desarrollo de estas
armas tiendan más al uso de la guerra. Cuando el costo de participar en la guerra es tan bajo,
tanto que el único costo percibido es el monetario ¿Qué ha de impedir a los estados y agentes
internacionales de hacer la política agresivamente, y ver a la guerra como una herramienta más
que solo presenta pérdidas significativas para el otro lado?8
4
Boogard, J. (2016) Proportionality and Autonomous Weapons Systems.
Docherty, B ( 09 de abril de 2015).Cuidado con el vacío, La falta de responsabilidad con respecto a los
robots asesinos.
6
UNIDIR. (2017) The Weaponization of Increasingly Autonomous Technologies: Concerns,
Characteristics and Definitional Approaches.
7
Docherty, B (06 de marzo de 2020) Construyendo el caso. Los peligros de los robots asesinos y la
necesidad de una prohibición preventiva
8
Lin, P. Bekey, G. Abney, K.(2008). Autonomous Military Robotics: Risk, Ethics, and Design (p. 75)
5
Además, existe el riesgo de que los grupos no estatales o actores irresponsables obtengan
acceso a estas armas, lo que aumentaría la inestabilidad y la amenaza para la seguridad global.
Como desarrollan (Muñoz, Díaz) (2020), se expresa el temor que las armas autónomas podrían
ser utilizadas por regímenes autoritarios o grupos terroristas, lo que aumentaría el riesgo de
violaciones masivas de derechos humanos. Por ejemplo, en medidas discriminatorias frente a
grupos de riesgo, como pueden ser su uso en las fronteras para impedir la migración9. También
es posible que sean la “herramienta perfecta”10 para que dictadores repriman a su población, al
no tener que temer la posibilidad de que sus fuerzas se resistan a ser desplegadas contra ciertos
objetivos.
Pérdida del elemento humano
Debajo de todas estas problemáticas, también se presenta un sentimiento innato de
rechazo a la idea de que una máquina sea capaz de tomar la vida de una persona. La noción de
permitir que una máquina sea capaz de por sí misma de tomar la vida de un humano, de poder
reducir todo lo que representa ser a una serie de ceros y unos son causas de preocupación y
repugnancia para muchos11. Acerca de esta problemática, la UNIDIR (2015) plantea:
Quizás en el centro de las preocupaciones planteadas sobre las armas
completamente autónomas, hay algo menos definitivo que la ley[...]. Este algo podría
describirse como una repulsión instintiva contra la idea de que las máquinas "decidan"
matar humanos. En otros términos, esta repugnancia podría considerarse una reacción a
una posible violación de la dignidad humana. 12
Conclusiones
El desarrollo de armas basadas en inteligencia artificial plantea desafíos éticos significativos en
términos de autonomía, responsabilidad, derechos humanos y seguridad internacional. La
Wanda Muñoz, Ingrid Sada - Los riesgos de las armas autónomas: una perspectiva interseccional
latinoamericana
10
Docherty, B (06 de marzo de 2020) Construyendo el caso. Los peligros de los robots asesinos y la
necesidad de una prohibición preventiva.
11
Véase https://www.stopkillerrobots.org/
12
UNIDIR (2015). The Weaponization of Increasingly Autonomous Technologies: Considering Ethics and
Social Values (p. 7)
9
sociedad debe reflexionar y tomar decisiones fundamentadas para evitar consecuencias no
deseadas. Es esencial que se promueva un debate amplio y transparente en el que participen
expertos, académicos, gobiernos y sociedad civil para abordar las cuestiones éticas que surgen
del uso de IA en armas. Además, se deben establecer normas y regulaciones internacionales que
eviten la proliferación incontrolada de armas autónomas y que garanticen su uso responsable y
respetuoso con los derechos humanos. Solo a través de un enfoque ético y responsable podremos
aprovechar los beneficios de la inteligencia artificial sin poner en peligro la humanidad y la
estabilidad mundial.
Referencias
Comité Internacional de la Cruz Roja (CICR). (2020) Posición del CICR sobre los sistemas de armas
autónomos https://www.icrc.org/en/publication/4550-icrc-position-autonomous-weapon-systems
Muñoz, W. Díaz, M. (2020) Los riesgos de las armas autónomas: una perspectiva interseccional
latinoamericana.https://www.stopkillerrobots.org/wp-content/uploads/2020/09/Los-riesgos-de-las-armasautonomas-una-perspec-min.pdf
UNIDIR (2015). The Weaponization of Increasingly Autonomous Technologies: Considering Ethics and
Social Values https://www.unidir.org/sites/default/files/publication/pdfs/considering-ethics-and-socialvalues-en-624.pdf
Docherty, B (06 de marzo de 2020) Construyendo el caso. Los peligros de los robots asesinos y la
necesidad de una prohibición preventiva https://www.hrw.org/es/report/2020/03/06/construyendo-el-
caso/los-peligros-de-los-robots-asesinos-y-la-necesidad-de-una#_ftn10
Wanda Muñoz, Ingrid Sada - Los riesgos de las armas autónomas: una perspectiva interseccional
latinoamericana:https://www.stopkillerrobots.org/wp-content/uploads/2020/09/Los-riesgos-de-las-armasautonomas-una-perspec-min.pdf
Lin, P. Bekey, G. Abney, K.(2008). Autonomous Military Robotics: Risk, Ethics, and Design.
https://digitalcommons.calpoly.edu/cgi/viewcontent.cgi?article=1001&context=phil_fac
UNIDIR. (2017) The Weaponization of Increasingly Autonomous Technologies: Concerns, Characteristics
and Definitional Approaches. https://unidir.org/sites/default/files/publication/pdfs//the-weaponization-ofincreasingly-autonomous-technologies-concerns-characteristics-and-definitional-approaches-en-689.pdf
Docherty, B ( 09 de abril de 2015).Cuidado con el vacío, La falta de responsabilidad con respecto a los
robots asesinos.
https://www.hrw.org/es/report/2015/04/09/cuidado-con-el-vacio/la-falta-de-responsabilidad-con-respectolos-robots-asesinos#_ftn17
Boogard, J. (2016) Proportionality and Autonomous Weapons Systems
http://opiniojuris.org/2016/03/23/proportionality-and-autonomous-weapons-systems/
Download