El cambio en las directrices éticas de Google abre la puerta a contratos militares y sistemas de vigilancia basados en inteligencia artificial.
Google dio un giro radical en su política sobre el uso de la inteligencia artificial al eliminar su histórica promesa de no utilizar esta tecnología en el desarrollo de armamento y sistemas de vigilancia. Esta decisión, anunciada el martes 4 de febrero de 2025, marca un punto de inflexión en la trayectoria ética de la compañía y ha generado controversia tanto dentro como fuera de la organización.
La modificación de las directrices éticas de IA de Google elimina específicamente el compromiso establecido en 2018 que prohibía el uso de esta tecnología para "construir armas, herramientas de vigilancia o tecnologías que causen o puedan causar daño general". Este cambio representa un alejamiento significativo de la postura que la empresa adoptó hace siete años, cuando abandonó un contrato con el Pentágono tras las protestas de sus empleados.
¿Qué dicen los empleados de Google?
La reacción interna no se hizo esperar. En Memegen, el tablón de mensajes interno de la compañía, varios empleados expresaron su descontento mediante memes y comentarios críticos, como pudo conocer Insider a través de capturas de pantalla.
Uno de ellos mostraba al CEO Sundar Pichai buscando en Google "cómo convertirse en contratista de armas".
Otra publicación hacía referencia a un sketch cómico sobre soldados nazis con la pregunta "¿Somos los malos?".
Estas manifestaciones, aunque provienen de una fracción de los más de 180,000 empleados de Google, reflejan una preocupación significativa sobre el nuevo rumbo de la empresa.
Demis Hassabis, CEO de Google DeepMind, y James Manyika, vicepresidente senior de tecnología y sociedad, justificaron el cambio en el blog oficial de la compañía, argumentando que el "paisaje geopolítico cada vez más complejo" requiere una colaboración más estrecha entre empresas y gobiernos en materia de seguridad nacional. "Creemos que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto a los derechos humanos", escribieron.
Este cambio de postura se produce en un contexto de creciente competencia global en el campo de la IA, especialmente entre Estados Unidos y China. Mientras otras gigantes tecnológicas como Amazon y Microsoft han estado firmando contratos militares significativos, Google se había mantenido al margen debido a sus anteriores restricciones éticas. Los avances exponenciales en IA desde 2018 han intensificado la carrera por la supremacía tecnológica, presionando a las empresas a reconsiderar sus posiciones.
En 2018, se dio a conocer el controversial Proyecto Maven,, cuando Google se retiró de un programa del Pentágono que utilizaba IA para analizar imágenes de drones tras las protestas masivas de sus empleados. La diferencia es que ahora, la empresa parece estar preparada para enfrentar las críticas internas.
Comparte esta noticia