Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Por la causa
EP36 | Día del Campesino
EP 36 • 09:14
Las cosas como son
Abuso de niños y adolescentes awajún: abominación e impunidad
EP 440 • 02:17
El Club de la Green Card
5 Reglas para No Perder tu Green Card
EP 61 • 02:07

Microsoft, Google y OpenAI se unen para crear un ente que supervisará el desarrollo seguro de IA

El Foro define los modelos de frontera como modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas.
El Foro define los modelos de frontera como modelos de aprendizaje automático a gran escala que superan las capacidades actualmente presentes en los modelos existentes más avanzados y pueden realizar una amplia variedad de tareas. | Fuente: Microsoft

Las compañías líderes en el campo de la inteligencia artificial han creado el Frontier Model Forum, un cuerpo que se centrará en la creación 'segura y responsable' de nuevos modelos.

Las empresas más grandes de inteligencia artificial se han unido para formar un nuevo organismo llamado Frontier Model Forum diseñado para intentar garantizar el “desarrollo seguro y responsable” del llamado “IA de frontera”.

Desarrolladores de Microsoft, Google, OpenAI y Anthropic se unieron en esta coalición que se basa en la experiencia de las empresas miembros para desarrollar evaluaciones técnicas y puntos de referencia, y promover las mejores prácticas y estándares.

Te recomendamos

IA de frontera

Para entender este proyecto, debemos saber inicialmente qué es una inteligencia artificial de frontera.

Este tipo de IA son modelos avanzados que se consideran lo suficientemente peligrosos como para plantear "graves riesgos para la seguridad pública".

Las compañías de argumentan que tales modelos plantean un desafío regulatorio único, ya que "las capacidades peligrosas pueden surgir inesperadamente", lo que dificulta evitar la apropiación indebida de los modelos.

“Las empresas que crean tecnología de IA tienen la responsabilidad de garantizar que sea segura y permanezca bajo control humano”, dijo Brad Smith, presidente de Microsoft. “Esta iniciativa es un paso vital para unir al sector tecnológico en el avance de la IA de manera responsable y abordar los desafíos para que beneficie a toda la humanidad”.

Los miembros del foro dijeron que sus principales objetivos eran promover la investigación en seguridad de inteligencia artificial, como el desarrollo de estándares para evaluar modelos; alentar el despliegue responsable de modelos avanzados; discutir los riesgos de confianza y seguridad en la IA con políticos y académicos; y ayudar a desarrollar usos positivos para la IA, como combatir la crisis climática y detectar el cáncer.

En el plazo inmediato, los miembros fundadores dicen que los primeros pasos serán establecer un consejo asesor para dirigir su estrategia, junto con una estructura de constitución, gobierno y financiación.

Te recomendamos

Empiezan las regulaciones

Esta iniciativa propia de las compañías más grandes de esta industria llega luego de múltiples pedidos de regulación por parte de actores sociales y de la propia división tecnológica.

Europa está avanzando con lo que será el primer libro de reglas de inteligencia artificial, diseñado para consagrar la seguridad, la privacidad, la transparencia y la lucha contra la discriminación en el corazón del espíritu de desarrollo de IA de las empresas.

China ya ha presentado su propio listado y las empresas que operen en el país deberán tener una aprobación oficial de los ministerios correspondientes.

La semana pasada, el presidente Biden se reunió con siete empresas de inteligencia artificial en la Casa Blanca, incluidos los cuatro miembros fundadores del Frontier Model Forum, para acordar salvaguardas voluntarias contra la floreciente revolución de la inteligencia artificial.

Recordemos también que personalidades como Elon Musk firmaron cartas pidiendo una pausa en el desarrollo de la IA con el que se buscaría solicitar regulación oficial hacia ellos en bien de la sociedad global.

Te recomendamos

Apasionado de los esports desde joven, afición que me permitió acceder al mundo del periodismo. Escribo sobre videojuegos, tecnología, criptomonedas, ciencias y lucha libre en RPP Noticias.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA