Sundar Pichai, líder de Alphabet, también está desarrollando su propia inteligencia artificial llamada Bard. Desde Google pide un marco regulatorio global similar al nuclear.
El director ejecutivo de Google y CEO de Alphabet, Sundar Pichai, ha mostrado sus preocupaciones sobre el desarrollo de la inteligencia artificial sin marco regulatorio.
De acuerdo con el líder de la tecnológica, que también está desarrollando su propia IA llamada Bard, esta tecnología puede ser “muy dañina” si se implementa incorrectamente.
Pichai está preocupado
En medio de una entrevista con CBS, Pichai aseguró que las consecuencias negativas que puede traer la inteligencia artificial lo “mantienen despierto por la noche”.
“Puede ser muy dañino si se implementa incorrectamente y todavía no tenemos todas las respuestas, y la tecnología avanza rápidamente. Entonces, ¿eso me mantiene despierto por la noche? Absolutamente”, dijo.
El CEO señaló que los gobiernos necesitan marcos globales para regular la inteligencia artificial mientras se desarrolla. Para él, este marco regulatorio debe ser similar al de las armas nucleares.
Pichai agregó que la IA podría causar daño a través de su capacidad para producir desinformación. “Será posible con AI crear, ya sabes, un video fácilmente. Donde podría ser Scott [Pelley, el entrevistador de CBS] diciendo algo, o yo diciendo algo, y nunca dijimos eso. Y podría parecer exacto. Pero ya sabes, a escala social, ya sabes, puede causar mucho daño”.
Google desarrolla su propia IA
La empresa matriz de Google, Alphabet, es propietaria de la empresa de inteligencia artificial DeepMind con sede en el Reino Unido y ha lanzado un chatbot impulsado por esta tecnología, Bard, en respuesta a ChatGPT.
El jefe de Google agregó que la versión de su tecnología que ahora está disponible para el público “es segura”. Agregó que la empresa estaba siendo responsable al retener versiones más avanzadas de Bard para probar.
Pichai admitió que la sociedad no parecía estar preparada para los rápidos avances en inteligencia artificial. Dijo que "parece haber un desajuste" entre el ritmo al que la sociedad piensa y se adapta al cambio en comparación con el ritmo al que evoluciona la IA. Sin embargo, agregó que al menos las personas se han alertado más rápidamente sobre sus peligros potenciales.
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.
Comparte esta noticia