La ley SB 1047 causó polémica. Mientras OpenAI se oponía a ella, Elon Musk la apoyó.
El gobernador de California, Gavin Newsom, ha vetado el proyecto de ley SB 1047, que se habría convertido en una de las políticas más completas que regulan la seguridad de la inteligencia artificial en los Estados Unidos.
La ley habría sido una de las primeras en responsabilizar a los desarrolladores de IA por cualquier daño grave causado por sus tecnologías,
Críticas de demócratas prominentes y empresas tecnológicas
El proyecto de ley recibió fuertes críticas por parte de algunos demócratas prominentes y grandes empresas tecnológicas, incluido el creador de ChatGPT, OpenAI, y la firma de capital de riesgo Andreessen Horowitz, quienes advirtieron que podría frenar la innovación en el estado.
Newsom describió la legislación como "bien intencionada", pero dijo que habría aplicado "estándares estrictos incluso a las funciones más básicas".
Desafío para los legisladores en el control de riesgos de IA
El debate en torno al proyecto de ley SB 1047 de California destaca el desafío que enfrentan los legisladores de todo el mundo para controlar los riesgos de la inteligencia artificial y, al mismo tiempo, apoyar la tecnología emergente.
Los legisladores estadounidenses aún no han aprobado ninguna legislación integral en torno a la tecnología desde el lanzamiento de ChatGPT hace dos años, que desencadenó un auge global de la IA generativa.
El senador demócrata de California Scott Wiener, quien presentó el proyecto de ley, calificó el veto de Newsom como un "revés para todos los que creen en la supervisión de las grandes corporaciones".
En un comunicado publicado en X, Wiener dijo: "Todos estamos menos seguros como resultado".
Opiniones divididas: OpenAI Vs. Elon Musk (de nuevo)
Mientras que algunos partidarios argumentaron que la legislación habría creado estándares legales de sentido común, inversores de capital de riesgo, líderes de startups y empresas como OpenAI advirtieron que ralentizaría la innovación y expulsaría a las empresas de IA del estado.
Por otro lado, el proyecto de ley obtuvo el respaldo de algunos nombres notables en tecnología, como Elon Musk, quien inesperadamente expresó su apoyo a pesar de reconocer que era una "decisión difícil".
Anthropic, rival de OpenAI con reputación de estar orientada a la seguridad, dijo que los "beneficios probablemente superan sus costos", aunque señaló que algunos aspectos seguían siendo "preocupantes o ambiguos".
Al anunciar su veto, Newsom dijo que consultará con expertos externos, incluida la académica y empresaria de IA Fei-Fei Li, para "desarrollar barreras viables" sobre la tecnología y continuar trabajando con la legislatura estatal en el tema.
El gobernador también firmó un proyecto de ley el domingo, SB 896, que regula cómo las agencias estatales usan la IA.
¿Qué medidas comprendía la ley SB 1047?
Requisitos de pruebas y seguridad
- Obligar a los desarrolladores de IA a realizar evaluaciones de seguridad antes del lanzamiento público de sistemas de IA sustanciales.
- Requerir la implementación de un "interruptor de apagado" para desactivar los sistemas de IA en escenarios que involucren guerra biológica, muertes masivas o daños significativos a la propiedad.
- Establecer protocolos de prueba para mitigar riesgos asociados con eventos catastróficos, incluidos ciberataques o pandemias.
Autoridad de aplicación
- Facultar al Fiscal General del estado para iniciar demandas contra las empresas por las graves repercusiones resultantes de sus tecnologías, como muertes o daños a la propiedad.
- Otorgar al Fiscal General la autoridad para buscar daños resultantes de incidentes relacionados con la seguridad.
- Permitir sanciones civiles solo cuando haya ocurrido un daño real o existan amenazas inminentes para la seguridad pública.
Protecciones para denunciantes
- Proteger a los denunciantes que informen sobre violaciones a la ley.
Umbrales para la cobertura
- Aplicarse a desarrolladores de IA que ofrezcan sus servicios en California, independientemente de si tienen su sede en el estado.
- Cubrir modelos de IA entrenados con una potencia de cómputo superior a 10^26 operaciones de punto flotante o entero (FLOP) que cuesten más de $100 millones para desarrollar, o modelos ajustados con una potencia de cómputo de tres veces 10^25 FLOP que cuesten más de $10 millones, antes de 2027.
- Después de 2027, mantener los umbrales de costo ajustados por inflación, pero los umbrales de potencia de cómputo serían determinados por la Agencia de Operaciones del Gobierno federal.
Comparte esta noticia