Microsoft enfrenta críticas tras encuesta generada por IA junto a artículo de The Guardian sobre la muerte de una deportista, planteando preocupaciones sobre automatización en noticias sensibles.
A veces, la automatización de la Inteligencia Artificial en todo tipo de productos genera problemas difíciles de pasar por alto. La editora de prensa “The Guardian” ha acusado a Microsoft de dañar su reputación después de que una encuesta generada por inteligencia artificial (IA) apareciera junto a uno de sus artículos en una plataforma de agregación. El incidente se centra en la trágica muerte de Lilie James, una entrenadora de waterpolo de 21 años encontrada sin vida con graves lesiones en la cabeza en una escuela secundaria en Sídney, Australia.
La encuesta, que consultaba a los lectores sobre su opinión acerca de si la mujer había fallecido por asesinato, suicidio o accidente, se mostró junto al artículo de The Guardian en la plataforma Microsoft Start.
La aparición de esta encuesta provocó confusión entre los lectores, muchos de los cuales asumieron erróneamente que había sido creada por el propio periódico. Esto desató una ola de indignación y críticas hacia el escritor del artículo. Anna Bateson, directora ejecutiva del Grupo de Medios de The Guardian, expresó su consternación y responsabilizó a Microsoft por el "daño significativo a la reputación" causado al editor y a los periodistas involucrados en la historia.
Bateson envió una carta al presidente de Microsoft, Brad Smith, exigiendo que la empresa dejara de utilizar IA experimental junto a las noticias de The Guardian. A pesar de que la encuesta fue retirada posteriormente, Bateson instó a Smith a asumir "plena responsabilidad" por el incidente.
En respuesta, Microsoft emitió un comunicado a The Guardian en el que anunciaba una investigación exhaustiva de las circunstancias. La empresa aseguró haber desactivado las encuestas generadas automáticamente para todas las noticias y declaró: "Una encuesta de esta naturaleza no debería haberse mostrado junto a un artículo, y estamos tomando medidas para evitar futuros errores similares".
Este incidente ha avivado las preocupaciones sobre la dependencia de la automatización en contextos sensibles. Microsoft, que previamente había reducido su equipo editorial en favor de un sistema de agregación de noticias impulsado por IA, se encuentra ahora bajo críticas renovadas por su manejo de esta situación. Mientras los expertos se preparan para participar en una cumbre sobre seguridad en la IA en el Reino Unido este jueves, este episodio sirve como un ejemplo más de los riesgos asociados con la automatización en situaciones delicadas.
Te recomendamos
Comparte esta noticia