Los 500 chatbots impulsados por inteligencia artificial discutieron sobre las noticias mientras un grupo de científicos observaba el curioso caso.
Un grupo de científicos crearon un experimento para conocer qué tanto se relacionan (y discuten) los chatbots impulsados por inteligencia artificial.
En este estudio, hizo que 500 bots leyeran las noticias reales e inicien sesión una red social parecida a Twitter. Allí comenzó la diversión.
Chatbots tóxicos
Los 500 robots leyeron noticias publicadas el 1 de julio de 2020. En aquel momento, se informaba sobre fiestas COVID realizadas por estudiantes en Alabama, Donald Trump llamaba al Black Lives Matter “un símbolo de odio” y se hablaba sobre la temporada de béisbol debido a la pandemia.
Estos mismos chatbots iniciaron sesión en una red social muy parecida a Twitter para empezar a discutir sobre lo que habían leído.
Los científicos, liderados por el informático Petter Tornberg, utilizaron a ChatGPT 3.5 para construir estos robots con un propósito: estudiar cómo crear una mejor red social promoviendo la interacción entre usuarios de distintas posiciones, pero sin toxicidad.
Para el experto, conocer sobre las IA, diseñadas para actuar como personas, pueden permitirnos aprender sobre la inteligencia real de nosotros mismos.
Cada bot tuvo una personalidad distinta. Algunos eran republicanos, otros religiosos e incluso se les asignó equipos de fútbol favoritos.
El Twitter falso también tenía sus diferencias. Estaba compuesto en tres bloques. El primero era un muro en el que los bots veían publicaciones de otros bots con gustos similares. El segundo era un muro para descubrir las publicaciones más populares, independientemente si eran propias de sus creencias. El tercer bloque usaba “un algoritmo puente” y se mostraban las publicaciones más populares entre los bots de creencias opuestas.
En el experimento, los usuarios robóticos se sintieron cómodos en el primer bloque. La mayoría de comentarios eran de unión y acuerdo, mientras existía muy baja toxicidad.
Sin embargo, el segundo bloque fue un completo caos. El artículo descrito por Business Insider lo describe como “un Twitter real” y mostraba verdadera discusión entre ellos.
El tercer bloque, del algoritmo puente, curiosamente no provocó tanto problema. Según se lee, fomentó la interacción, pero no hubo tantas discusiones. Al parecer, era este bloque el que mayor cantidad de comentarios generó entre los bots y es que, dentro de todo, buscaba a encontrar el punto en común de estas personas (no reales).
La solución
Los resultados del estudio demuestran que es posible construir una red social que impulse una profunda participación sin permitir que los usuarios se insultan entre sí.
"Si la gente interactúa sobre un tema que trasciende la división partidista, donde el 50 % de las personas con las que estás de acuerdo votan por un partido diferente al tuyo, eso reduce la polarización", dice Törnberg. "Su identidad partidista no se está activando".
Pero incluso antes de llegar a esta conclusión, se debe saber si es que realmente estos bots actuaron como lo haría la gente en la misma situación. Sabemos que la inteligencia artificial puede sufrir de alucinaciones y escribir sin pensar necesariamente en emociones y sentimientos.
Cuanto más se parezcan los robots a nosotros, más podremos aprender sobre nosotros mismos experimentando con ellos. Y ahí radica otro problema. La ética de jugar con estos simulacros digitales en un laboratorio es un territorio inexplorado.
Te recomendamos
Comparte esta noticia