La Comisión Federal de Comercio de EE. UU. (FTC) cree que las respuestas que brinda la inteligencia artificial a sus usuarios pueden “ser dañinas, despectivas o falsas”.
La Comisión Federal de Comercio de EE. UU. (FTC) ha iniciado una investigación contra OpenAI por posibles violaciones de la ley de protección al consumidor con el trabajo de su inteligencia artificial ChatGPT.
En los documentos vistos por The Washington Post, se puede apreciar las decenas de solicitudes que hace la entidad a OpenAI para determinar una serie de factores detrás del chatbot, desde cómo entrena a la inteligencia hasta descripciones de cómo se formulan las respuestas que ofrece.
FTC vs. OpenAI
La FTC le ha pedido a OpenAI que, primero, responda cómo obtiene la gran cantidad de información que usa para entrenar su gran modelo de lenguaje GPT-4.
Pero más allá de este funcionamiento, también está buscando saber sobre las quejas de los usuarios. El ente le ha pedido a la compañía que proporcione descripciones detalladas de cada vez que alguien haya presentado una queja sobre productos por motivos de respuestas “falsas, engañosas, despectivas o dañinas”.
Según la oficina, el hábito de que una inteligencia artificial diga falsedades “puede haber causado injustamente un daño a la reputación de los consumidores”, por lo que está en conflicto con las leyes de proyección al consumidor.
En un ejemplo, ChatGPT dijo que un abogado (real) había intentado tocar indebidamente a un estudiante en un viaje escolar, noticia que había “leído en el Washington Post”. Sin embargo, el artículo no existía y el viaje nunca había ocurrido.
La FTC también está investigando si la empresa participó en prácticas desleales o engañosas.
La Comisión también solicitó a la empresa que proporcione registros relacionados con un incidente de seguridad que la empresa reveló en marzo cuando un error en sus sistemas permitió a algunos usuarios ver información relacionada con el pago, así como algunos datos del historial de chat de otros usuarios.
Por última, también se ha pedido a OpenAI que explique cómo trabaja contra las “alucinaciones”, problemas que presentan los chatbots al mostrar respuestas que son estructuralmente correctas, pero con información completamente falsa.
Regulación y sanciones
La FTC, que precisamente ha perdido un juicio mediático ante Microsoft por la compra de Activision Blizzard, quiere dar un indicio de cómo quiere hacer cumplir sus normativas.
En el caso de encontrar pruebas suficientes, puede castigar a OpenAI con grandes multas o someter a una empresa a un decreto de consentimiento, que puede dictar cómo la empresa maneja los datos.
Adam Kovacevich, fundador y director ejecutivo de la Cámara de Comercio de la coalición de la industria, dijo que está claro que la FTC supervisa la seguridad de los datos y la tergiversación. Pero dijo que no está claro si la agencia tiene la autoridad para "vigilar la difamación o el contenido de los resultados de ChatGPT".
"AI está en los titulares en este momento, y la FTC continúa poniendo casos llamativos en lugar de obtener resultados", dijo.
La agencia ha advertido en múltiples ocasiones que tomará medidas sobre la inteligencia artificial, intentando ser “ágil” para adelantarse a las amenazas emergentes.
“La FTC da la bienvenida a la innovación, pero ser innovador no es una licencia para ser imprudente”, dijo Samuel Levine, directo de la Oficina de Protección al Consumidor. “Estamos preparados para usar todas nuestras herramientas, incluida la aplicación, para desafiar las prácticas dañinas en esta área”.
Te recomendamos
Comparte esta noticia