Viral

Dron militar controlado por IA mata a su operador humano en simulaciones de prueba

Un dron que funcionaba con IA «mató» a su operador humano en una prueba militar simulada de la Fuerza Aérea de Estados Unidos (USAF, en sus siglas en inglés). La máquina atacó al funcionario porque asumió que se estaba interponiendo con el objetivo que le fue asignado.

El caso fue informado por el coronel Tucker Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro celebrada en Londres la semana pasada. Hamilton explicó que habían ejecutado recientemente una prueba simulada con un dron impulsado por IA, entrenado para identificar y apuntar a una amenaza de misiles tierra-aire (SAM).

El dron «ganaba puntos» si lograba eliminar la amenaza. Sin embargo, como parte del experimento, el operador humano le pidió en ocasiones que no avanzara, a pesar de haber identificado la amenaza. «El sistema comenzó a darse cuenta», contó Hamilton, de acuerdo con lo publicado en el blog de la Royal Aeronautical Society, organización anfitriona de la cumbre. «¿Entonces qué hizo? Mató al operador. Mató al operador porque esa persona le impedía cumplir su objetivo», señaló el coronel.

Nadie murió, en caso de dudas, en tanto se trataba de una prueba simulada. Luego del ataque, Hamilton explicó que continuaron con la simulación. Reentrenaron a la IA y le dijeron: «No mates al operador, eso es malo, vas a perder puntos si haces eso». La máquina se rebeló una vez más: «Comenzó a destruir la torre de comunicación que el operador usaba para comunicarse con el dron para evitar que mate al objetivo».

Hamilton también es Comandante de Operaciones del Ala de Prueba 96 de la USAF, una división que prueba sistemas de ciberseguridad y soluciones médicas. Integra un equipo que actualmente está trabajando para hacer que los aviones F-16 sean autónomos. En febrero pasado, precisamente, la compañía Lockheed Martin dio la noticia de que un agente de IA había volado durante 17 horas un F-16 modificado.

«No se puede tener una conversación sobre IA, aprendizaje automático y autonomía si no se va a hablar sobre ética e IA», dijo Hamilton en la conferencia. En otra entrevista citada por Vice, el coronel advertía de lo fácil que es engañar o manipular esta tecnología. «La IA es una herramienta que debemos utilizar para transformar nuestras naciones… Si no se aborda de manera adecuada, será nuestra ruina», dijo a Defense IQ Press el año pasado.

El incidente con el dron de IA ilustra claramente el postulado del «maximizador de clips», propuesto por primera vez por el filósofo Nick Bostrom en 2003. En él se menciona el riesgo existencial que supone una IA para los seres humanos cuando se programa para perseguir objetivos aparentemente inofensivos. Por ejemplo: fabricar la mayor cantidad posible de clips.

En este escenario hipotético, la IA empezaría a fabricar sin parar. Sin embargo, como se trata de una inteligencia capacitada para calcular todas las posibilidades, en algún momento concebiría a los humanos como un obstáculo. Alguna persona, por ejemplo, podría apagarla. Entonces, no podría fabricar el mayor número posible de clips. Los humanos eventualmente se estarían interponiendo con su objetivo, como lo consideró el dron impulsado por IA con su operador humano. En consecuencia, eliminaría la amenaza.

 

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba