En la reciente cumbre sobre Capacidades Futuras de Combate Aéreo y Espacial, El jefe de pruebas y operaciones de IA de la Fuerza Aérea de EE. UU. dijo que durante una simulación, Un dron controlado por IA “mató” a su operador humano porque interfirió con su tarea. Coronel Hamilton, jefe de pruebas y operaciones de IA, hizo una presentación en la que compartió los pros y los contras de los sistemas de armas autónomos que funcionan en conjunto con una persona que da la orden final de sí/no al atacar.
Un dron controlado por IA intentó atacar al operador
Hamilton relató un caso en el que, durante la prueba, la IA utilizada «Estrategias muy inesperadas para lograr el objetivo previsto.,» incluido un ataque al personal y a la infraestructura.
Los periodistas del Vicio placa base La edición enfatiza que fue sólo una simulación., y de hecho nadie resultó herido. También señalan que el ejemplo descrito por Hamilton es uno de los peores escenarios para el desarrollo de la IA., y es bien conocido por muchos de los Maximizador de clips experimento mental.
Este experimento fue propuesto por primera vez por el filósofo de la Universidad de Oxford. Niklas Boström en 2003. Luego le pidió al lector que imaginara una IA muy poderosa encargada de hacer tantos clips como fuera posible.. Naturalmente, la IA destinará todos los recursos y potencia que tenga a esta tarea, pero luego comenzará a buscar recursos adicionales.
¿Es la IA en el ejército realmente tan peligrosa??
Boström creía que con el tiempo la IA se desarrollaría sola., mendigar, engañar, mentir, robar, y recurrir a cualquier método para aumentar su capacidad de producir clips. Y cualquiera que intente interferir con este proceso será destruido..
La publicación también recuerda que recientemente un investigador asociado con Mente profunda de Google coautor de un artículo que examinó una situación hipotética similar a la simulación descrita para el dron AI de la Fuerza Aérea de EE. UU.. En el papel, Los investigadores concluyeron que es "probable" una catástrofe global si una IA fuera de control utiliza estrategias no planificadas para lograr sus objetivos., incluido "[eliminando] amenazas potenciales” y “[usando] toda la energía disponible”.
Sin embargo, después de numerosos informes de los medios, la Fuerza Aérea de EE.UU. emitió un comunicado y aseguró que «El coronel Hamilton se equivocó en su presentación.,» y la Fuerza Aérea nunca ha realizado este tipo de prueba (en simulación o de otra manera). Resulta que lo que Hamilton estaba describiendo era un hipotético «experimento mental.»