Sam Altman, cofundador de OpenAI, considera que, pese a los beneficios de productividad que productos como ChatGPT ofrecen a los usuarios, muchos trabajos “desaparecerán definitivamente”.
El cofundador de OpenAI y creador de ChatGPT, Sam Altman, ha dado qué hablar al señalar que la tecnología que desarrolla "no será siempre beneficiosa y eliminará trabajos definitivamente".
Altman, quien también impulsa una propia criptomoneda llamada Worldcoin, asegura que incluso los propios defensores de la inteligencia artificial “se engañan a sí mismos”, pero están muy equivocados.
No será todo beneficioso
En una entrevista con The Atlantic, Altman rechazó la idea de que el campo de la IA “solo será positivo” para los trabajadores.
"Muchas personas que trabajan en inteligencia artificial pretenden que solo será bueno, solo será un complemento, nadie será reemplazado", dijo. "Los trabajos definitivamente van a desaparecer, punto final".
Estas declaraciones van también contra los propios economistas que señalan que la inteligencia artificial podría servir como un asistente valioso para los trabajadores, ayudándolos a ser más productivos y dedicar menos tiempo a tareas aburridas.
Algunos expertos expresaron su optimismo de que la IA no resultaría en el desplazamiento laboral generalizado que muchos estadounidenses temen y dijeron que deberían estar más preocupados de que sus compañeros de trabajo usen estas tecnologías para suplantarlos.
Pero los comentarios de Altman hablan de una dura realidad: incluso si la mayoría de los trabajos no son desplazados, es probable que algunos se queden en el camino. En marzo, Goldman Sachs dijo que la IA podría interrumpir 300 millones de empleos de tiempo completo en todo el mundo.
Para Altman, es más probable que se creen “mejores puestos de trabajo” en vez de los que se eliminaron.
Preocupación propia
El hecho de que el creador del chatbot de inteligencia artificial tenga en claro que esta tecnología tiene sus riesgos, debe ponernos en la cabeza la importancia de regulaciones en este campo.
De acuerdo con el Center for AI Safety, debe ser “una prioridad mundial” como las pandemias y la guerra nuclear.
En marzo, fueron Elon Musk, Steve Wozniak y más de 1000 científicos más quienes pidieron una pausa de 6 meses en el desarrollo de la tecnología para poder generar una legislación que la regule y se expanda a la población.
Desde OpenAI, Altman se ha unido a Microsoft, Google y Anthropic para impulsar un foro que supervise el desarrollo seguro de la IA de frontera, modelos avanzados que se consideran lo suficientemente peligrosos como para plantear "graves riesgos para la seguridad pública".
Te recomendamos
Comparte esta noticia