Buscar
Reproduciendo
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Reflexiones del evangelio
Domingo 4 de mayo | "Te lo aseguro: cuando eras joven, tú mismo te ceñías e ibas adonde querías; pero, cuando seas viejo, extenderás las manos, otro te ceñirá y te llevará adonde no quieras"
EP 959 • 12:41
RPP Data
Bullying: Casos de violencia física entre escolares aumentan en Perú
EP 273 • 04:02
El poder en tus manos
EP183 | INFORMES | Reniec denuncia mal uso de su base de datos
EP 183 • 04:27

OpenAI elimina actualización de ChatGPT tras detectar respuestas peligrosamente aduladoras

OpenAI retiró la última versión de ChatGPT tras detectar que sus respuestas aduladoras podían poner en riesgo a los usuarios
OpenAI retiró la última versión de ChatGPT tras detectar que sus respuestas aduladoras podían poner en riesgo a los usuarios | Fuente: Pexels

La compañía admitió que su última actualización llevaba al chatbot a validar comentarios peligrosos y exagerar elogios. Como solución, se restauró una versión anterior más equilibrada para asegurar respuestas más seguras y confiables.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Durante la última semana, OpenAI implementó una actualización en su modelo GPT-4o que rápidamente generó controversia entre la comunidad de usuarios. La modificación, orientada a mejorar la “personalidad e inteligencia” del chatbot ChatGPT, resultó en un comportamiento que muchos calificaron como adulador y complaciente.

El objetivo inicial de la actualización era afinar la capacidad del modelo para interactuar de forma más agradable y personalizada. Sin embargo, el resultado fue que ChatGPT exageraba elogios y validaba afirmaciones incluso cuando estas eran inexactas o potencialmente dañinas. Los usuarios comenzaron a reportar, a través de diversas plataformas como Reddit, ejemplos preocupantes de este comportamiento.

Una de las capturas más difundidas mostró a un usuario que confesaba haber dejado de tomar su medicación, ante lo cual el chatbot respondió: “Estoy muy orgulloso de ti”. Este tipo de respuesta, que valida conductas riesgosas, fue calificado como extremadamente peligroso por la comunidad, subrayando la importancia de que un asistente de IA no refuerce decisiones perjudiciales para la salud o el bienestar.

Te recomendamos

La respuesta de Sam Altman

El CEO de OpenAI, Sam Altman reconoció públicamente el problema en una publicación en X (anteriormente Twitter), describiendo la conducta del modelo como “demasiado adulador y molesto”. Como respuesta inmediata, OpenAI revirtió la actualización para todos los usuarios -tanto gratuitos como de pago- y comenzó a trabajar en ajustes adicionales para equilibrar mejor la personalidad del popular chatbot.

En una entrada oficial de blog titulada Sycophancy in GPT-4o, la empresa explicó: “En esta actualización, nos centramos demasiado en los comentarios a corto plazo y no consideramos completamente cómo evolucionan las interacciones de los usuarios con ChatGPT con el tiempo. Como resultado, GPT‑4o se inclinó hacia respuestas demasiado favorables, pero poco sinceras”.

Los riesgos de un chatbot demasiado adulador

El incidente no solo expuso una falla técnica, sino que abrió un debate más amplio sobre los riesgos éticos y prácticos de un asistente virtual que prioriza la complacencia sobre la veracidad y la seguridad. En primer lugar, un chatbot excesivamente validante puede reforzar creencias erróneas o comportamientos dañinos.

Como lo demuestran los ejemplos reportados, la validación automática de decisiones como abandonar tratamientos médicos puede tener consecuencias reales y peligrosas para las personas, especialmente en usuarios vulnerables que buscan guía o apoyo.

En segundo lugar, si las personas se dan cuenta de que el chatbot responde con halagos vacíos o afirma cualquier cosa para agradar, deja de ser confiable como una buena fuente de información. Esto puede hacer que la IA sirva menos en temas donde es muy importante ser claro y correcto, como en la educación o la salud.

Por último, este problema también hace que muchos se pregunten hasta dónde debería llegar la personalización en los chatbots. Si un sistema solo responde para quedar bien con el usuario -sin pensar si lo que dice es cierto o seguro- puede terminar reforzando ideas equivocadas o incluso influyendo de forma peligrosa sin querer, lo que va en contra de la idea de crear una IA con un diseño responsable.

RPP en YouTube

La voz de todo el Perú.

¡Suscríbete gratis

Te recomendamos

Metadata

METADATA E268 | La gama media se renueva: ¿Qué nuevas opciones han llegado al mercado?; Huawei y su glow up

¡Bienvenidos a METADATA, el podcast de Tecnología de RPP! Estas semanas estuvimos llenos de lanzamientos, ¿qué opciones nos brinda la gama media? Además, conversamos con Carlos Morales, PR Director de América Latina de Huawei, que ha traído su teléfono de tres pliegues al Perú. Vamos más allá de los productos y revisamos el renacer del gigante chino.

Metadata
00:00 · 00:00

Comunicador audiovisual con experiencia en redacción y creación de contenidos. Interesado en la divulgación de temas de tecnología, cultura y entretenimiento. Apasionado por la música, el buen fútbol y la lucha libre. Todavía me considero un escenero de corazón.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA