Private Detector, la inteligencia artificial que usa Bumble para cubrir fotos de desnudos, se convertirá en un software libre para que cualquiera pueda usarlo.
Bumble, popular aplicación de citas, pondrá a disposición de todos los desarrolladores interesados la inteligencia artificial que utiliza en su plataforma para censurar las fotos de desnudos y otras temáticas explícitas con un 98% de precisión. La empresa detrás de esta app convertirá esta eficaz IA en un software de uso libre para mejorar la experiencia de los usuarios en otras redes de interacción social en línea.
Desde 2019, Bumble ha usado una inteligencia artificial conocida como Private Detector que, unida al aprendizaje automático, tiene la capacidad de proteger a los usuarios de imágenes subidas de tono que no ha solicitado. Dado que el recibir fotos de desnudos es sumamente común en este tipo de apps y hasta en otras redes sociales, la empresa espera poder contribuir en la mitigación de este problema gracias a su tecnología.
Private Detector de Bumble disponible para todos
Lo que hace Private Detector es examinar las imágenes enviadas por los usuarios para analizar si efectivamente muestra un contenido inapropiado u obsceno. La principal razón por la que fue diseñada son aquellas personas que suelen enviar fotografías de sus partes íntimas, principalmente a mujeres.
Cuando la inteligencia artificial detecta algún contenido indeseado, incluyendo partes del cuerpo humano o incluso armas, la plataforma difumina la imagen en cuestión y le permite al usuario decidir si quiere verla o bloquear y denunciar al usuario que envió este material.
Desgraciadamente, este tipo de situaciones forman parte de una realidad frecuente para millones de mujeres en apps de citas o redes sociales en general. Una investigación realizada en Reino Unido en 2020 reveló que el 76 % de las chicas de entre 12 y 18 años han recibido imágenes de desnudos no solicitadas y otro 70% afirma que se le solicitó que se envíen desnudos mediante intercambios de fotos no solicitadas.
Bumble quiere contribuir en la lucha contra el acoso sexual por redes
Bumble quiere que con la liberación de su inteligencia artificial a disposición de todos los interesados en ella, las plataformas de interacción social o cualquiera en general la puedan implementar para reducir las situaciones adversas para los usuarios. Esta medida se focaliza en los usuarios de Github y busca proteger a las personas de este tipo de contenido obsceno.
“Esperamos que la función sea adoptada por la comunidad tecnológica en general, ya que trabajamos juntos para hacer de Internet un lugar más seguro”, dijo la aplicación de citas para celulares.
Te recomendamos METADATA, el podcast de tecnología de RPP. Noticias, análisis, reseñas, recomendaciones y todo lo que debes saber sobre el mundo tecnológico.
Comparte esta noticia