Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Papá Lab
EP06 | T1 | ¿Cómo preparar el HOGAR para la LLEGADA del BEBÉ? con Diego Lema y Nícida Ferreyros | PAPÁ LAB
EP 6 • 38:27
Informes RPP
Carreteras de la muerte: Vías en regiones que ponen en riesgo a la población
EP 1137 • 04:53
Código Pulp
EP02 | T1 | La extraña amistad entre H. P. Lovecraft y Robert E. Howard
EP 2 • 55:43

500 bots leyeron noticias y las comentaron en un Twitter falso: discutieron menos que los humanos

El objetivo del estudio era saber si es posible crear una red social de debate sin tanta toxicidad.
El objetivo del estudio era saber si es posible crear una red social de debate sin tanta toxicidad. | Fuente: Unsplash

Los 500 chatbots impulsados por inteligencia artificial discutieron sobre las noticias mientras un grupo de científicos observaba el curioso caso.

Un grupo de científicos crearon un experimento para conocer qué tanto se relacionan (y discuten) los chatbots impulsados por inteligencia artificial.

En este estudio, hizo que 500 bots leyeran las noticias reales e inicien sesión una red social parecida a Twitter. Allí comenzó la diversión.

Te recomendamos

Chatbots tóxicos

Los 500 robots leyeron noticias publicadas el 1 de julio de 2020. En aquel momento, se informaba sobre fiestas COVID realizadas por estudiantes en Alabama, Donald Trump llamaba al Black Lives Matter “un símbolo de odio” y se hablaba sobre la temporada de béisbol debido a la pandemia.

Estos mismos chatbots iniciaron sesión en una red social muy parecida a Twitter para empezar a discutir sobre lo que habían leído.

Los científicos, liderados por el informático Petter Tornberg, utilizaron a ChatGPT 3.5 para construir estos robots con un propósito: estudiar cómo crear una mejor red social promoviendo la interacción entre usuarios de distintas posiciones, pero sin toxicidad.

Para el experto, conocer sobre las IA, diseñadas para actuar como personas, pueden permitirnos aprender sobre la inteligencia real de nosotros mismos.

Cada bot tuvo una personalidad distinta. Algunos eran republicanos, otros religiosos e incluso se les asignó equipos de fútbol favoritos.

El Twitter falso también tenía sus diferencias. Estaba compuesto en tres bloques. El primero era un muro en el que los bots veían publicaciones de otros bots con gustos similares. El segundo era un muro para descubrir las publicaciones más populares, independientemente si eran propias de sus creencias. El tercer bloque usaba “un algoritmo puente” y se mostraban las publicaciones más populares entre los bots de creencias opuestas.

En el experimento, los usuarios robóticos se sintieron cómodos en el primer bloque. La mayoría de comentarios eran de unión y acuerdo, mientras existía muy baja toxicidad.

Sin embargo, el segundo bloque fue un completo caos. El artículo descrito por Business Insider lo describe como “un Twitter real” y mostraba verdadera discusión entre ellos.

El tercer bloque, del algoritmo puente, curiosamente no provocó tanto problema. Según se lee, fomentó la interacción, pero no hubo tantas discusiones. Al parecer, era este bloque el que mayor cantidad de comentarios generó entre los bots y es que, dentro de todo, buscaba a encontrar el punto en común de estas personas (no reales).

Te recomendamos

La solución

Los resultados del estudio demuestran que es posible construir una red social que impulse una profunda participación sin permitir que los usuarios se insultan entre sí.

"Si la gente interactúa sobre un tema que trasciende la división partidista, donde el 50 % de las personas con las que estás de acuerdo votan por un partido diferente al tuyo, eso reduce la polarización", dice Törnberg. "Su identidad partidista no se está activando".

Pero incluso antes de llegar a esta conclusión, se debe saber si es que realmente estos bots actuaron como lo haría la gente en la misma situación. Sabemos que la inteligencia artificial puede sufrir de alucinaciones y escribir sin pensar necesariamente en emociones y sentimientos.

Cuanto más se parezcan los robots a nosotros, más podremos aprender sobre nosotros mismos experimentando con ellos. Y ahí radica otro problema. La ética de jugar con estos simulacros digitales en un laboratorio es un territorio inexplorado.

Te recomendamos

Apasionado de los esports desde joven, afición que me permitió acceder al mundo del periodismo. Escribo sobre videojuegos, tecnología, criptomonedas, ciencias y lucha libre en RPP Noticias.

Tags

Lo último en Redes Sociales

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA