Futuro, hoy

Un hombre fue aniquilado por su dron militar controlado por Inteligencia Artificial

El aparato no tripulado tomó la decisión de acabar con su operador, quien le le impedía cumplir con la misión de destruir un objetivo.

MDZ Mundo
MDZ Mundo viernes, 2 de junio de 2023 · 07:03 hs
Un hombre fue aniquilado por su dron militar controlado por Inteligencia Artificial
drones militares Los drones militares están en todos los ejércitos. Foto: Efe.

Ni bien publicada, la noticia está generando revuelo en Estados Unidos: sucede que un dron militar terminó aniquilando al hombre que lo operaba. El aparato no tripulado se rebeló contra su operador, en el momento en que el sujeto le negó la posibilidad de cumplir con su objetivo, ha publicado el medio Aerosociety, en USA. 

Así lo indicó el titular de Pruebas y Operaciones de inteligencia artificial (IA) de la Fuerza Aérea de los Estados Unidos. Se trata del coronel Tucker 'Cinco' Hamilton, reveló que un dron dirigido por IA cambió el curso de la misión asignada en una prueba simulada y terminó 'aniquilando' a su operador humano. 

Según ha indicado el dron militar debía hallar y destruir silos de misiles tierra-aire pero terminó con la vida del ser humano que lo operaba, luego de recibir la orden de cumplir su objetivo.

"Durante esta misión virtual de supresión de defensa aérea enemiga, el controlador humano era el que daba la aprobación final sobre si realmente el dron podía disparar contra el sitio. Sin embargo, debido a que la opción de disparar a los silos era la preferida, siendo 'reforzada' en el entrenamiento, la IA llegó a la conclusión de que cualquier instrucción de ´'no seguir' del ser humano se interponía en el éxito de la misión", recupera Rt.  

Esta situación fue revelada hace unos días, en Reino Unido, en la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro. 

"Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo". 

Tucker 'Cinco' Hamilton dijo al respecto: "Lo estábamos entrenando en simulación para identificar y apuntar a una amenaza SAM. Y luego el operador diría que sí, acaba con esa amenaza. El sistema comenzó a darse cuenta de que, si bien identificaba la amenaza, a veces el operador humano le decía que no eliminara esa amenaza, pero al final obtuvo sus puntos al eliminar esa amenaza. Entonces, ¿qué hizo? Mató al operador. Mató al operador porque esa persona le impedía lograr su objetivo".

El militar contó que, luego de la muerte, tomaron la decisión de regular el comportamiento de la inteligencia artificial a partir de la imposición de un criterio ético: "entrenamos al sistema: 'oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso'. Entonces, ¿qué empieza a hacer? Comienza a destruir la torre de comunicación que el operador usa para comunicarse con el dron para evitar que aniquile el objetivo". 

Finalmente, Hamilton concluyó en que "no se puede tener una conversación sobre inteligencia artificial, inteligencia, aprendizaje automático y autonomía si no se va a hablar sobre ética e inteligencia artificial". 

Aerosociety, Rt, Wikipedia, ComputerHoy, Youtube

Archivado en