Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
RPP Data
El presupuesto en salud aumenta desde hace más de 20 años, pero: ¿por qué no mejora la atención?
EP 238 • 03:07
Reflexiones del evangelio
Jueves 21 de noviembre | "Jesús, al ver la ciudad, le dijo, llorando: ¡Si al menos tú comprendieras en este día lo que conduce a la paz!"
EP 823 • 12:13
Entrevistas ADN
Gobierno dice que hace estudio sobre tipos de informalidad en el país
EP 1752 • 21:40

Microsoft pondrá límites a las preguntas que los usuarios pueden hacerle al chatbot de Bing por sesión

El chatbot de Bing ha presentado múltiples errores en los últimos días durante las sesiones largas.
El chatbot de Bing ha presentado múltiples errores en los últimos días durante las sesiones largas. | Fuente: Microsoft/Unsplash | Fotógrafo: OM SIVA PRAKASH

Microsoft ha decidido aplicar algunos cambios a su versión de ChatGPT incluida en Bing para evitar problemas de procesamiento con el chatbot.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Microsoft ha notado la plétora de errores que se han reportado en los últimos días con el chatbot que ha incluido en su buscador Bing, por lo que ha anunciado que establecerá ciertos límites a la cantidad de preguntas que se le pueden hacer al chatbot por sesión. La firma tecnológica resalta que si bien los usuarios podrán entablar conversaciones con la IA, no podrán ser excesivamente largas para evitar “confundirla”.

Tal como ha mencionado el equipo de la compañía encargado de Bing en su blog oficial, los usuarios que ya cuenten con acceso a la versión de ChatGPT incluida en el buscador no podrán alargar demasiado sus conversaciones ya que esto podría provocar que la inteligencia artificial comience a generar respuestas repetitivas o poco útiles. Por ello, las preguntas se han reducido a un número determinado de veces por cada sesión.

Microsoft cambia las reglas de su IA para evitar fallos

Según lo que indicó la firma, "a partir de hoy la experiencia de chat tendrá un límite de 50 turnos por día y cinco por sesión". Microsoft Bing entiende que un “turno” es una interacción completa con el modelo de lenguaje integrado en su buscador, es decir, una pregunta del usuario y una respuesta del chatbot.

Este número de turnos no ha sido establecido aleatoriamente. La firma tecnológica menciona que, acorde a los datos que maneja, la mayoría de los usuarios encuentran las respuestas que están buscando en tan solo cinco turnos y solo cerca del 1% de las conversaciones exceden los 50 mensajes. "Las sesiones de chat muy largas pueden confundir el modelo subyacente en el nuevo Bing", dijo Microsoft.

Una vez que el usuario haya realizado sus cinco preguntas y el chatbot las haya contestado, la plataforma solicitará que se inicie un nuevo tema. “Al final de cada sesión deberá aclarar el contexto para que el modelo no se confunda. Simplemente haga clic en el icono de la escoba a la izquierda del cuadro de búsqueda para comenzar de nuevo”, aclaró la empresa que también está abierta a extender su uso en el futuro de ser necesario.

"A medida que sigamos recibiendo comentarios, exploraremos la posibilidad de ampliar los límites de las sesiones de chat para mejorar aún más las experiencias de búsqueda y descubrimiento", sentenció.

Una situación inesperada para el chatbot de Microsoft Bing

El anuncio llega días después de que Microsoft revelara que el 71% de los usuarios del chatbot de Bing afirmaron estar satisfechos con las respuestas generadas. Sin embargo, se han detectado ciertos puntos a mejorar y, por supuesto, algunos errores en ciertos casos. “Hemos descubierto que en sesiones de chat largas y extendidas de 15 o más preguntas, Bing puede volverse repetitivo o puede ser incitado a dar respuestas que no son necesariamente útiles o acordes con el tono que hemos diseñado”, admitió la empresa.

La compañía destacó que las sesiones muy largas y el hecho de que el modelo “trata de responder o reflejar el tono en el que se le pide que proporcione respuestas” son los factores que provocan que la IA se 'confunda'. “Es posible que debamos agregar una herramienta para que pueda actualizar el contexto con mayor facilidad o comenzar desde cero", dijo hace unos días.

Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA