Muchos expertos temen que la utilización militar de naves no tripuladas degenere en una catástrofe humanitaria.
(Agencia N+1 / Daniel Meza). Los drones pueden ser herramientas muy útiles para infinidad tareas como el reconocimiento territorial, la investigación científica o hasta la entrega de paquetes o compras a distancia, pero no olvidemos que sus primeras versiones fueron empleadas con fines bélicos. Hoy, muchos temen justificadamente, que la utilización militar de naves no tripuladas degenere en una catástrofe humanitaria.
Es por ello que, como previa a la realización del Acuerdo de la ONU sobre Armas Convencionales en Ginebra, Suiza, el Future of Life Institute (FLI), una organización pacifista contra los riesgos para la humanidad de la inteligencia artificial avanzada, acaba de lanzar un cortometraje de ciencia ficción que muestra lo que podría pasar si los humanos no le dan una moratoria internacional a las máquinas autónomas de guerra.
Los peligros potenciales de la IA. Actualmente, los drones empleados por el ejército estadounidense requieren de humanos para controlarlos, pero con los avances en la inteligencia artificial (IA), pronto podría ser posible quitarle el ingrediente humano y tener entes robóticas completamente autónomas para realizar matanzas. Una corriente de opinión creciente, especialmente de expertos que han trabajado con inteligencia artificial, indicó que esto no debe ser permitido nunca, ya que esta nueva generación de armas podría hacer más fácil la guerra, restarle valor a la vida e incluso darle poder a los terroristas.
El referido acuerdo tiene por objetivo prohibir o restringir el uso de armas específicas que son consideradas causantes de sufrimiento y daños innecesarios o injustificables a combatientes o víctimas civiles de forma indiscriminada. Todas las prohibiciones o restricciones en el uso de armas específicas o sistemas armamentísticos se tratan en los protocolos anexos.
Lanzan alerta. Para alertar a la comunidad internacional hacia un baneo preventivo, la campaña Campaign to Stop Killer Robots patrocina un evento en la celebración del encuentro esta semana. Uno de los grupos invitados es FLI, organización que planea mostrar este corto, llamado Slaughterbots.
Stuart Russell, investigador de IA de la Universidad de California, Berkeley (EEUU), quien participó del filme como asesor científico de la FLI, explicó que lo motivó el hecho de que, mientras el gobierno y sus consultores militares están “estancados en 1950, la tecnología de destrucción masiva avanza”.
“Discuten sobre si las máquinas podrían ser en algún momento realmente autónomas o si tomarían decisiones en el sentido humano; aunque estas distinciones filosóficas son irrelevantes ante los efectos catastróficos para la humanidad”, dijo a Gizmodo.
La historia. El filme recuerda a la serie Black Mirror, y ocurre en un futuro cercano. Una compañía llamada StratoEnergetics lanza su nuevo producto: pequeños drones asesinos, pero las cosas empiezan a adoptar un giro oscuro. El arma llega a manos equivocadas, y es usada como una herramienta de asesinato, apuntando a políticos, activistas y estudiantes. Se muestra qué tan fácil sería construir estas armas, y lo difícil que sería defendernos de ellas. La historia de Terminator y sus máquinas asesinas humanoides palidece ante la de estos drones totalmente autónomos: más baratos, más pequeños y efectivos. Stuart los define como la próxima arma de destrucción masiva en potencia.
La urgencia y continuidad de estos esfuerzos, incluyendo la reunión en Ginebra, demuestran qué tan cerca estamos de una realidad similar a la del cortometraje. La tentación de ciertos países en usar este tipo de armas es, con seguridad, altísima. Recientemente, reportamos en este portal cómo incluso los cárteles de la droga en México han sido descubiertos empleando drones equipados con artefactos explosivos. El año pasado, informamos de cómo Estado Islámico utilizó drones bomba atacando a soldados franceses al norte de Iraq.
Comparte esta noticia