La Santa Sede ha reiterado el llamado del papa Francisco para prohibir los sistemas de armas autónomas letales (LAWS), diciendo que el progreso tecnológico debe usarse para mejorar la vida humana, no permitir que la quite.
(vaticannews.va/).-El arzobispo Ettore Balestrero habló recientemente en un foro de la ONU en Ginebra sobre la necesidad de seguir de cerca el desarrollo de los Sistemas de Armas Autónomas Letales (LAWS), coloquialmente llamados «robots asesinos».
El Observador Permanente de la Santa Sede ante la ONU y otras organizaciones internacionales en Ginebra se dirigió a la segunda sesión del grupo de expertos gubernamentales sobre tecnologías emergentes de 2024 en LAWS el 26 de agosto.
Al abrir su discurso, el arzobispo Balestrero repitió las palabras del Papa Francisco a los líderes del G7 en junio de 2024 sobre la necesidad de prohibir las LAWS.
En esa ocasión, el Papa dijo que los seres humanos siempre deben mantener el control de cualquier sistema de armas, y agregó: «Ninguna máquina debería elegir tomar la vida de un ser humano».
El arzobispo dijo que la Santa Sede busca un acuerdo legalmente vinculante para regular la investigación sobre la militarización de la inteligencia artificial (IA) y una moratoria sobre su desarrollo y uso.
Lamentó que los países estén utilizando los teatros de guerra para poner a prueba las LAWS.
«Es profundamente penoso -dijo- que, además del sufrimiento causado por los conflictos armados, los campos de batalla se estén convirtiendo también en campos de pruebas para armas cada vez más sofisticadas».
El arzobispo Balestrero dijo que la Santa Sede apoya los esfuerzos de la ONU para analizar las «funciones potenciales y los aspectos tecnológicos de los sistemas de armas automáticas» con el fin de evaluar correctamente si se ajustan a las normas existentes y a las regulaciones internacionales.
El arzobispo agregó que la Santa Sede sostiene que los LAWS nunca pueden ser considerados «entidades moralmente responsables».
«La persona humana, dotada de razón, posee una capacidad única para el juicio moral y la toma de decisiones éticas que no puede ser replicada por ningún conjunto de algoritmos, por complejos que sean», dijo.
El arzobispo Balestrero señaló la diferencia ética entre una «elección» y una «decisión».
Una decisión, dijo, requiere una evaluación práctica que vaya más allá de una simple elección e implique la consideración de valores y deberes.
«Al tiempo que señalaba que las máquinas se limitan a producir elecciones algorítmicas técnicas», dijo, «el Papa Francisco recordó que ‘los seres humanos, sin embargo, no sólo eligen, sino que en su corazón son capaces de decidir'».
Por lo tanto, señaló el arzobispo Balestrero, la Santa Sede pide un lenguaje deliberado que se refiera a la dignidad humana y a las consideraciones éticas.
Dijo que los acuerdos internacionales deben «garantizar y salvaguardar un espacio para el control humano adecuado sobre las decisiones tomadas por los programas de inteligencia artificial: la dignidad humana misma depende de ello».
Para concluir, el representante de la Santa Sede en Ginebra dijo que el desarrollo de armas más sofisticadas no es la solución a los problemas del mundo.
«Los indudables beneficios que la humanidad podrá sacar de los progresos tecnológicos actuales -dijo- dependerán del grado en que dichos progresos vayan acompañados de un adecuado desarrollo de la responsabilidad y de los valores que pongan los avances tecnológicos al servicio del desarrollo humano integral y del bien común».