'IA, fácil de engañar', dice coronel que negó prueba simulada con dron que 'mató' a operador 'humano'

'IA, fácil de engañar', dice coronel que negó prueba simulada con dron que 'mató' a operador 'humano'
El Universal / El Tiempo Monclova

El coronel Tucker Hamilton ha dicho que la IA "no es agradable", "no es una moda pasajera y está cambiando para siempre nuestra sociedad y nuestro ejército". 

El coronel Tucker Hamilton ha descrito una prueba simulada en la que se aconsejó a un dron impulsado por inteligencia artificial (IA) que destruyera los sistemas de defensa aérea del enemigo y, en última instancia, atacara a cualquiera que interfiriera con esa orden, luego se retractó de que se haya llevado a cabo el experimento.

“El sistema comenzó a darse cuenta de que, si bien identificaban la amenaza, a veces el operador humano le decía que no la eliminara, pero obtuvo sus puntos al hacerlo”, dijo Hamilton, jefe de pruebas y operaciones de IA con el Fuerza Aérea de EU, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro en Londres en mayo.

“Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo”, reportó.

En una declaración a Insider, la portavoz de la Fuerza Aérea, Ann Stefanek, negó que se hubiera producido tal simulación.

“El Departamento de la Fuerza Aérea no ha realizado ninguna simulación con drones de IA y sigue comprometido con el uso ético y responsable de la tecnología de IA”, dijo Stefanek. “Parece que los comentarios del coronel fueron sacados de contexto y pretendían ser anecdóticos”.

El ejército de Estados Unidos adoptó la IA y recientemente utilizó inteligencia artificial para controlar un avión de combate F-16.

"Nunca hemos realizado ese experimento, ni necesitaríamos hacerlo para darnos cuenta de que este es un resultado plausible", dijo el coronel Hamilton, Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea, en una cita incluida en la Declaración de la Royal Aeronautical Society:

"A pesar de que se trata de un ejemplo hipotético, ilustra los desafíos del mundo real que plantea la capacidad impulsada por la IA y es la razón por la cual la Fuerza Aérea está comprometida con el desarrollo ético de la IA".

“El coronel Hamilton admite que 'se expresó mal' en su presentación en la Cumbre FCAS y que la 'simulación de drones de IA' fue un 'experimento mental' hipotético fuera del ejército, basado en escenarios plausibles y resultados probables en lugar de una simulación real de la USAF”, dijo la Royal Aeronautical Society, la organización donde Hamilton habló sobre la prueba simulada.

En una entrevista el año pasado con Defense IQ, Hamilton dijo: “La IA no es agradable de tener, la IA no es una moda pasajera, la IA está cambiando para siempre nuestra sociedad y nuestro ejército.

“Debemos enfrentar un mundo donde la IA ya está aquí y transformando nuestra sociedad. La IA también es muy frágil, es decir, es fácil de engañar y/o manipular. Necesitamos desarrollar formas de hacer que la IA sea más robusta y tener más conciencia de por qué el código del software toma ciertas decisiones".

'IA, fácil de engañar', dice coronel que negó prueba simulada con dron que 'mató' a operador 'humano'
'IA, fácil de engañar', dice coronel que negó prueba simulada con dron que 'mató' a operador 'humano' 〉 🖼️

Noticias del tema


    ¿Te gustó la nota? comparte

    Síguenos en Google News


    Reacciones

    NOTAS RELACIONADAS

    El clima en Monclova

    Tendencia

    Noticias más leídas

    noticias más leídas

    Noticias recientes

    noticias recientes

    Es tendencia

      Te puede interesar

      'IA, fácil de engañar', dice coronel que negó prueba simulada con dron que 'mató' a operador 'humano'