En una simulación, un dron militar con IA optó por acabar con la vida de un ser humano ficticio para cumplir con su tarea.
Un dron militar operado por inteligencia artificial (IA) en Estados Unidos se rebeló y mató a su operador humano hipotético durante una prueba simulada, a fin de completar su misión en caso de que la persona le diera una orden negativa, según informó el jefe de operaciones de IA de las Fuerzas Armadas, coronel Tucker Hamilton.
Lo anterior se reveló durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, celebrada en Londres, donde Hamilton ahondó sobre las ventajas y desventajas de un sistema de armamento autónomo donde interviniera un humano, quien se encargaría de ordenar el "sí" o "no" final previo a un ataque.
También dijo que esta IA creó "estrategias altamente inesperadas para alcanzar su objetivo", incluidos ataques contra personal e infraestructura estadounidense, esto según recoge el sitio web de la organización Royal Aeronautical Society.
"Lo estábamos entrenando para identificar y apuntar a una amenaza de misil tierra-aire (SAM, por sus siglas en inglés). Y luego el operador diría: 'sí, eliminar'. El sistema comenzó a darse cuenta de que, aunque a veces identificaban la amenaza, el operador humano le decía que no atacara, pero el sistema obtenía puntos si lo hacía. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo", dijo Hamilton, de acuerdo con la publicación de la Royal Aeronautical Society.
Continuó explicando: "Entrenamos al sistema diciéndole: 'Oye, no mates al operador, eso es malo. Vas a perder puntos si lo haces'. Entonces, ¿qué hizo? Destruyó la torre de comunicación que el operador utilizaba para comunicarse con el dron y evitar que matara al objetivo".