Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
Entrevistas ADN
Estados Unidos mantendrá TLC pese a ola proteccionista, dice Brian Nichols
EP 1749 • 12:17
El Club de la Green Card
¿Quiénes pueden recibir la pensión de un familiar fallecido en EE.UU.?
EP 124 • 01:30
RPP Data
¿Qué hacer para que Lima Metropolitana no siga creciendo de forma desordenada?
EP 237 • 02:58

Facebook e Instagram etiquetarán las imágenes generadas por IA

Meta toma medidas para combatir la desinformación de cara a un año donde casi la mitad de la población mundial celebrará elecciones.
Meta toma medidas para combatir la desinformación de cara a un año donde casi la mitad de la población mundial celebrará elecciones. | Fuente: Unsplash

Meta identificará imágenes generadas por servicios de Google, OpenAI, Microsoft, Adobe, entre otros.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

Meta anunció que identificará "en los próximos meses" cualquier imagen generada por inteligencia artificial (IA) que aparezca en sus redes sociales Facebook, Instagram y Threads.

"En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA" anunció Nick Clegg, el responsable de asuntos internacionales de Meta, en un blog.

La compañía ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, que fue lanzada en diciembre.

De ahora en adelante "queremos poder hacer lo mismo con contenidos creados con herramientas de otras empresas" como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock, añadió el responsable de Meta.

"Estamos construyendo esta herramienta en estos momentos, y en los próximos meses comenzaremos a aplicar etiquetas en todos los idiomas compatibles con cada aplicación", subrayó el líder.

El auge de la IA generativa suscita temores de que las personas utilicen estas herramientas para sembrar el caos político, especialmente a través de la desinformación.

Casi la mitad de la población mundial celebrará elecciones este año.

Además del riesgo político, el desarrollo de programas de IA generativa podría producir un flujo incontrolable de contenidos degradantes, según numerosos activistas y reguladores, como las imágenes falsas ("deepfakes") pornográficas de mujeres famosas, un fenómeno que también afecta a muchas personas anónimas.

Por ejemplo, una imagen falsa de la estrella estadounidense Taylor Swift fue vista 47 millones de veces en la red social X a finales de enero antes de ser eliminada. Según la prensa estadounidense, la publicación permaneció en línea en la plataforma durante aproximadamente 17 horas.

Minimizando, no eliminando el riesgo

Si bien Nick Clegg admite que este etiquetado a gran escala, a través de marcadores invisibles, "no eliminará" totalmente el riesgo de producción de imágenes falsas, "ciertamente minimizará" su proliferación "dentro de los límites de lo que la tecnología permite actualmente".

"No es perfecto, la tecnología aún no está completamente desarrollada, pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa a miles de millones de personas en todo el mundo", dijo Clegg a la AFP.

"Espero sinceramente que al hacer esto y liderar el camino, alentemos al resto de la industria a trabajar juntos y tratar de desarrollar los estándares técnicos comunes que necesitamos", agregó el líder de Meta, que está dispuesto a "compartir" su tecnología abierta "tan ampliamente como sea posible".

La empresa californiana OpenAI, creadora de ChatGPT, también anunció a mediados de enero el lanzamiento de herramientas para combatir la desinformación, y afirmó su voluntad de no permitir el uso de sus herramientas tecnológicas con fines políticos.

"Queremos asegurarnos de que nuestra tecnología no se utilice de manera que perjudique" al proceso democrático, explicó OpenAI, que señaló que su generador de imágenes DALL-E 3 contiene "salvaguardas" para evitar que los usuarios generen imágenes de personas reales, especialmente candidatos.

AFP

Te recomendamos

Alberto Nishiyama

Alberto Nishiyama Periodista de tecnología

Maestro en Marketing y Comunicación Digital en la UPC y Bachiller en Ciencias de la Comunicación en la USMP. Especialista en temas de tecnología, innovación y videojuegos. Más de 10 años de experiencia profesional.

Tags

Lo último en Facebook

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA