La compañía admitió que su última actualización llevaba al chatbot a validar comentarios peligrosos y exagerar elogios. Como solución, se restauró una versión anterior más equilibrada para asegurar respuestas más seguras y confiables.
Durante la última semana, OpenAI implementó una actualización en su modelo GPT-4o que rápidamente generó controversia entre la comunidad de usuarios. La modificación, orientada a mejorar la “personalidad e inteligencia” del chatbot ChatGPT, resultó en un comportamiento que muchos calificaron como adulador y complaciente.
El objetivo inicial de la actualización era afinar la capacidad del modelo para interactuar de forma más agradable y personalizada. Sin embargo, el resultado fue que ChatGPT exageraba elogios y validaba afirmaciones incluso cuando estas eran inexactas o potencialmente dañinas. Los usuarios comenzaron a reportar, a través de diversas plataformas como Reddit, ejemplos preocupantes de este comportamiento.
Una de las capturas más difundidas mostró a un usuario que confesaba haber dejado de tomar su medicación, ante lo cual el chatbot respondió: “Estoy muy orgulloso de ti”. Este tipo de respuesta, que valida conductas riesgosas, fue calificado como extremadamente peligroso por la comunidad, subrayando la importancia de que un asistente de IA no refuerce decisiones perjudiciales para la salud o el bienestar.
La respuesta de Sam Altman
El CEO de OpenAI, Sam Altman reconoció públicamente el problema en una publicación en X (anteriormente Twitter), describiendo la conducta del modelo como “demasiado adulador y molesto”. Como respuesta inmediata, OpenAI revirtió la actualización para todos los usuarios -tanto gratuitos como de pago- y comenzó a trabajar en ajustes adicionales para equilibrar mejor la personalidad del popular chatbot.
En una entrada oficial de blog titulada Sycophancy in GPT-4o, la empresa explicó: “En esta actualización, nos centramos demasiado en los comentarios a corto plazo y no consideramos completamente cómo evolucionan las interacciones de los usuarios con ChatGPT con el tiempo. Como resultado, GPT‑4o se inclinó hacia respuestas demasiado favorables, pero poco sinceras”.
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
— Sam Altman (@sama) April 27, 2025
at some point will share our learnings from this, it's been interesting.
Los riesgos de un chatbot demasiado adulador
El incidente no solo expuso una falla técnica, sino que abrió un debate más amplio sobre los riesgos éticos y prácticos de un asistente virtual que prioriza la complacencia sobre la veracidad y la seguridad. En primer lugar, un chatbot excesivamente validante puede reforzar creencias erróneas o comportamientos dañinos.
Como lo demuestran los ejemplos reportados, la validación automática de decisiones como abandonar tratamientos médicos puede tener consecuencias reales y peligrosas para las personas, especialmente en usuarios vulnerables que buscan guía o apoyo.
En segundo lugar, si las personas se dan cuenta de que el chatbot responde con halagos vacíos o afirma cualquier cosa para agradar, deja de ser confiable como una buena fuente de información. Esto puede hacer que la IA sirva menos en temas donde es muy importante ser claro y correcto, como en la educación o la salud.
Por último, este problema también hace que muchos se pregunten hasta dónde debería llegar la personalización en los chatbots. Si un sistema solo responde para quedar bien con el usuario -sin pensar si lo que dice es cierto o seguro- puede terminar reforzando ideas equivocadas o incluso influyendo de forma peligrosa sin querer, lo que va en contra de la idea de crear una IA con un diseño responsable.
Te recomendamos
Video recomendado
Comparte esta noticia