Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Informes RPP
De Palacio a Palacio: los juicios acechan a los expresidentes en 2025
EP 1238 • 06:12
RPP Data
2024: El año del aumento de la inseguridad alimentaria en el Perú
EP 246 • 03:31
El poder en tus manos
EP139 | INFORMES | ¿Qué reformas electorales quedaron pendientes en el Congreso de la República?
EP 139 • 03:13

Microsoft pondrá límites a las preguntas que los usuarios pueden hacerle al chatbot de Bing por sesión

El chatbot de Bing ha presentado múltiples errores en los últimos días durante las sesiones largas.
El chatbot de Bing ha presentado múltiples errores en los últimos días durante las sesiones largas. | Fuente: Microsoft/Unsplash | Fotógrafo: OM SIVA PRAKASH

Microsoft ha decidido aplicar algunos cambios a su versión de ChatGPT incluida en Bing para evitar problemas de procesamiento con el chatbot.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Microsoft ha notado la plétora de errores que se han reportado en los últimos días con el chatbot que ha incluido en su buscador Bing, por lo que ha anunciado que establecerá ciertos límites a la cantidad de preguntas que se le pueden hacer al chatbot por sesión. La firma tecnológica resalta que si bien los usuarios podrán entablar conversaciones con la IA, no podrán ser excesivamente largas para evitar “confundirla”.

Tal como ha mencionado el equipo de la compañía encargado de Bing en su blog oficial, los usuarios que ya cuenten con acceso a la versión de ChatGPT incluida en el buscador no podrán alargar demasiado sus conversaciones ya que esto podría provocar que la inteligencia artificial comience a generar respuestas repetitivas o poco útiles. Por ello, las preguntas se han reducido a un número determinado de veces por cada sesión.

Microsoft cambia las reglas de su IA para evitar fallos

Según lo que indicó la firma, "a partir de hoy la experiencia de chat tendrá un límite de 50 turnos por día y cinco por sesión". Microsoft Bing entiende que un “turno” es una interacción completa con el modelo de lenguaje integrado en su buscador, es decir, una pregunta del usuario y una respuesta del chatbot.

Este número de turnos no ha sido establecido aleatoriamente. La firma tecnológica menciona que, acorde a los datos que maneja, la mayoría de los usuarios encuentran las respuestas que están buscando en tan solo cinco turnos y solo cerca del 1% de las conversaciones exceden los 50 mensajes. "Las sesiones de chat muy largas pueden confundir el modelo subyacente en el nuevo Bing", dijo Microsoft.

Una vez que el usuario haya realizado sus cinco preguntas y el chatbot las haya contestado, la plataforma solicitará que se inicie un nuevo tema. “Al final de cada sesión deberá aclarar el contexto para que el modelo no se confunda. Simplemente haga clic en el icono de la escoba a la izquierda del cuadro de búsqueda para comenzar de nuevo”, aclaró la empresa que también está abierta a extender su uso en el futuro de ser necesario.

"A medida que sigamos recibiendo comentarios, exploraremos la posibilidad de ampliar los límites de las sesiones de chat para mejorar aún más las experiencias de búsqueda y descubrimiento", sentenció.

Una situación inesperada para el chatbot de Microsoft Bing

El anuncio llega días después de que Microsoft revelara que el 71% de los usuarios del chatbot de Bing afirmaron estar satisfechos con las respuestas generadas. Sin embargo, se han detectado ciertos puntos a mejorar y, por supuesto, algunos errores en ciertos casos. “Hemos descubierto que en sesiones de chat largas y extendidas de 15 o más preguntas, Bing puede volverse repetitivo o puede ser incitado a dar respuestas que no son necesariamente útiles o acordes con el tono que hemos diseñado”, admitió la empresa.

La compañía destacó que las sesiones muy largas y el hecho de que el modelo “trata de responder o reflejar el tono en el que se le pide que proporcione respuestas” son los factores que provocan que la IA se 'confunda'. “Es posible que debamos agregar una herramienta para que pueda actualizar el contexto con mayor facilidad o comenzar desde cero", dijo hace unos días.

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA