1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

Opinión: Hay que prohibir los robots asesinos

Nina Werkhäuser Kommentarbild App
Nina Werkhäuser
27 de agosto de 2018

Las guerras del futuro se librarán con armas autónomas: robots, drones o submarinos no tripulados. Pero antes de que las máquinas decidan sobre la vida o la muerte, se deberían prohibir tales armas, dice Nina Werkhäuser.

https://p.dw.com/p/33rGA
"Taranis", avión de guerra no tripulado
"Taranis", avión de guerra no tripulado Imagen: picture-alliance/AP Photo/BAE Systems

"Creemos que Google no debería participar en el negocio de la guerra": así reza el encabezamiento de una carta de protesta firmada por miles de empleados de Google en la primavera pasada. Una acción sin precedentes: los miembros de dicha multinacional exigieron que su director ejecutivo, Sundar Pichai, dejara de cooperar inmediatamente con el Pentágono en el proyecto "Maven”. Estos son programas basados en inteligencia artificial (IA) que analizan imágenes de video en detalle.

¿Por qué el Ejército de EE. UU. está tan interesado en el trabajo de gigantes de software como Google o Microsoft? Porque los militares mismos no pueden producir programas de tan alta calidad, y quieren poseerlos, cueste lo que cueste. Gracias a que estas armas son alimentadas con algoritmos, pueden identificar sus objetivos de forma independiente y atacar por su cuenta. Las guerras del futuro se pelearán con pocos soldados y muchas armas inteligentes. Los logros de la inteligencia artificial están siendo militarizados desde hace mucho tiempo.

Nina Werkhäuser, de DW
Nina Werkhäuser, de DW

La inteligencia artificial está revolucionando el mundo militar

Los empleados de Google rechazan dicha militarización de su conocimiento, con razón. Su carta aborda uno de los principales problemas éticos de nuestro tiempo. Las computadoras son cada vez más capaces de aprender e imitan cada vez mejor el cerebro humano. Esto ofrece enormes oportunidades, pero también grandes peligros. Las fuerzas militares más grandes del mundo están buscando con mayor avidez algoritmos para programar sus armas robóticas.

El resultado son cohetes, drones o torpedos que, una vez enviados, "hacen su trabajo" sin intervención humana. Hay los que persiguen su objetivo durante días o semanas de forma independiente y luego lo destruyen. Ya ningún soldado dará el comando de fuego. Actualmente ya se están empleando sistemas semiautónomos.

Es un problema mayor. Nunca se debería delegar la decisión sobre la vida y la muerte a una máquina. A diferencia de un soldado, un robot no puede distinguir entre combatientes y civiles, no tiene conocimiento de leyes internacionales y no puede actuar según las normas de la ética. Con demasiada facilidad, tales armas pueden ser mal utilizadas por dictadores para eliminar a sus críticos, evaden todo control y pueden llegar a manos de terroristas.

El tiempo apremia

Por lo tanto, es imperativo prohibir los sistemas autónomos de armas. Es bueno que la conferencia de la ONU en Ginebra esté tratando este tema. Pero es de temer que nada salga de eso. Una decisión sobre prohibición de armas tiene que votarse unánimemente, y esto no será posible mientras se esté discutiendo sobre definiciones, y Estados Unidos y otros países solo elogien las ventajas de los sistemas autónomos de armas. Tampoco sirve de nada una declaración no vinculante, como lo exige Alemania. El tiempo para la regulación apremia: la comunidad internacional no debe dejar pasar esta oportunidad.

Nica Werkhäuser (JOV/CP)

Deutsche Welle es la emisora internacional de Alemania y produce periodismo independiente en 30 idiomas. Síganos en Facebook | Twitter | YouTube |