Un ingeniero demostró el poder letal de la IA al crear una torreta controlada por voz. OpenAI respondió cortando su acceso de inmediato.
La línea entre la innovación que trae la inteligencia artificial y su peligro potencial volvió a desdibujarse cuando un desarrollador, conocido en línea como STS 3D, logró crear un dispositivo que combina la potencia de ChatGPT con un rifle automático. El incidente, que se viralizó a través de un video en Reddit, provocó la inmediata intervención de OpenAI, quien canceló el acceso del creador a sus servicios.
En el polémico video se observa cómo el desarrollador da comandos de voz como "ChatGPT, estamos bajo ataque desde el frente izquierdo y derecho", ante lo cual el rifle responde con precisión y velocidad inquietantes, disparando hacia las paredes señaladas. El sistema utiliza la API en tiempo real de OpenAI para interpretar los comandos verbales y convertirlos en instrucciones mecánicas precisas.
OpenAI respondió
La respuesta de OpenAI fue contundente. En declaraciones a Futurism, la compañía afirmó: "Identificamos proactivamente esta violación de nuestras políticas y notificamos al desarrollador que cesara esta actividad". La empresa destacó que sus políticas de uso prohíben explícitamente el desarrollo o uso de armas, así como la automatización de sistemas que puedan afectar la seguridad personal.
Este incidente se produce en un momento particularmente sensible para la industria de la IA. Recientemente, OpenAI anunció una controversia colaboración con Anduril, una empresa de tecnología de defensa especializada en drones y misiles con IA, para desarrollar sistemas de defensa contra ataques con drones. Esta aparente contradicción en sus políticas ha generado debate en la comunidad tecnológica.
El caso resalta preocupaciones más amplias sobre el uso de la inteligencia artificial en contextos militares. Un reciente informe del Washington Post reveló que Israel ya está utilizando IA para seleccionar objetivos de bombardeo, en ocasiones de manera indiscriminada. Además, el desarrollo de drones autónomos capaces de identificar y atacar objetivos sin intervención humana plantea serias cuestiones éticas y legales.
El panorama se complica aún más considerando la disponibilidad de modelos de IA de código abierto y la creciente accesibilidad a la impresión 3D de componentes de armas. Esta combinación de tecnologías hace posible que individuos puedan construir sistemas autónomos letales desde sus hogares.
Comparte esta noticia