Un reporte de The Guardian muestra documentos de Apple en donde se videncia un nuevo proceso de respuesta de Siri cuando se le pregunta sobre el “feminismo”, de manera que nunca use esa palabra.
Un proyecto interno para sobrescribir las respuestas de Siri, el asistente virtual de Apple, ha sido expuesto a través de una investigación del medio The Guardan, en el que señalan que el programa de la manzana ha sido desarrollado para “evadir temas sensibles” y responder de manera genérica a tópicos como la campaña #MeToo. Esta implementación busca establecer un criterio único en la respuesta de “Siri” al ponerse a favor de la igualdad de género, pero sin usar la palabra “feminismo”.
Una rápida consulta al asistente de Apple nos entrega esta respuesta:
Sin embargo, al preguntar a Google Assistant obtenemos una posición más marcada:
De acuerdo con un ex empleado del proyecto “Siri” que filtró documentos al medio, la reprogramación de Siri para temas sensibles comenzó en junio de 2018 y concluyó en agosto de este 2019. De acuerdo con la firma tecnológica, "Siri debe ser cauteloso cuando se trata de contenido potencialmente controvertido".
Hasta antes de esta actualización, el asistente virtual de Apple solo atinaba a responder: “lo siento, no sé cómo responder a esa pregunta”, y ahora articula ideas como las mencionadas además de mencionar que “todos los seres humanos deben ser tratados de manera equitativa”, o “creo que todas las voces son creadas igual y merecen el mismo respeto”.
Incluso Apple se ha preocupado por dotar a Siri de mecanismos de defensa contra usuarios transgresores. Ante ofensas como “slut” (“mujerzuela” en inglés), Siri solía contestar “me sonrojaría si pudiera”. Ahora, las respuestas son menos evasivas y son más parecidas a “No responderé a eso”.
Un comunicado de Apple hace referencia a estos cambios: “Siri es un asistente digital diseñado para ayudar a los usuarios a hacer las cosas. El equipo trabaja duro para garantizar que las respuestas de Siri sean relevantes para todos los clientes. Nuestro enfoque es ser real con respuestas inclusivas en lugar de ofrecer opiniones”.
Sam Smethers, directora ejecutiva para la defensa de los derechos de las mujeres en la Sociedad Fawcett, dijo: “El problema con Siri, Alexa y todas estas herramientas de IA es que han sido diseñadas por hombres con un defecto masculino en mente. Esto no cambiará hasta que recluten significativamente más mujeres para el desarrollo y diseño de estas tecnologías”.
Comparte esta noticia