OpenAI y Anduril unen fuerzas para desarrollar sistemas de defensa con IA avanzada.
OpenAI, la empresa creadora de ChatGPT, anunció una controvertida alianza estratégica con Anduril Industries, una prominente empresa de tecnología de defensa militar, para desarrollar soluciones avanzadas de inteligencia artificial destinadas a misiones de seguridad nacional estadounidense.
La colaboración, que marca un punto de inflexión en la trayectoria de OpenAI, se centrará principalmente en mejorar los sistemas de defensa contra aeronaves no tripuladas (CUAS) y su capacidad para detectar, evaluar y responder a amenazas aéreas en tiempo real.
Sam Altman, CEO de OpenAI, defendió la decisión argumentando que la empresa "construye IA para beneficiar a la mayor cantidad de personas posible y apoya los esfuerzos liderados por Estados Unidos para garantizar que la tecnología defienda los valores democráticos". Sin embargo, esta movida ha generado controversia, considerando que OpenAI se fundó originalmente con principios estrictos sobre el uso ético de la IA.
Brian Schimpf, cofundador y CEO de Anduril, señaló que la asociación permitirá abordar "urgentes brechas de capacidad en la Defensa Aérea en todo el mundo". La colaboración integrará los modelos avanzados de OpenAI con la plataforma de software Lattice de Anduril, utilizada en sistemas de defensa de alto rendimiento.
La IA llega al terreno militar
Esta alianza se produce en un momento crítico de la carrera tecnológica entre Estados Unidos y China por el liderazgo mundial en IA. Según los documentos oficiales, la partnership busca garantizar que el Departamento de Defensa y la Comunidad de Inteligencia de EE.UU. tengan acceso a las tecnologías más avanzadas disponibles.
El acuerdo ha generado preocupación entre expertos en ética tecnológica, especialmente considerando que Anduril es conocida por desarrollar drones con capacidades letales, como el Bolt-M, diseñado para impactar estructuras y explotar. La empresa también está desarrollando "enjambres de drones" para misiones navales estadounidenses.
Esta asociación forma parte de una tendencia más amplia en Silicon Valley, donde grandes empresas tecnológicas están estableciendo vínculos más estrechos con la industria de defensa. Recientemente, Meta y Anthropic han realizado anuncios similares, marcando un cambio significativo respecto a la resistencia que existía hace algunos años para colaborar con proyectos militares.
Ambas empresas aseguran que la colaboración estará sujeta a una supervisión robusta y se guiará por protocolos técnicamente informados que enfatizan la confianza y la responsabilidad en el desarrollo y empleo de IA avanzada para misiones de seguridad nacional. Sin embargo, el debate sobre los límites éticos en el uso militar de la IA apenas comienza.
Comparte esta noticia