Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La información más relevante de la actualidad al momento
Actualizado hace 0 minutos
RPP Data
El presupuesto en salud aumenta desde hace más de 20 años, pero: ¿por qué no mejora la atención?
EP 238 • 03:07
Reflexiones del evangelio
Jueves 21 de noviembre | "Jesús, al ver la ciudad, le dijo, llorando: ¡Si al menos tú comprendieras en este día lo que conduce a la paz!"
EP 823 • 12:13
Entrevistas ADN
Gobierno dice que hace estudio sobre tipos de informalidad en el país
EP 1752 • 21:40

IA contra IA: OpenAI crea herramienta con GPT-4 para entender cómo funciona GPT-2

OpenAI usa GPT-4 para descifrar el proceso neuronal de GPT-2
OpenAI usa GPT-4 para descifrar el proceso neuronal de GPT-2 | Fuente: Adobe Firefly

La tecnología más reciente GPT-4 es usada por la empresa OpenAI para tratar de entender el proceso neural de la versión previa GPT-2, añadiendo un mecanismo inteligente de control para la investigación.

Todas las noticias en tu celular
¡Únete aquí a nuestro canal de WhatsApp!

ChatGPT es una herramienta de inteligencia artificial desarrollada por OpenAI que ha causado mucho revuelo en el mundo digital. Aunque muchos expertos han hablado sobre las capacidades de los chatbots de IA, hay aspectos que se escapan de la comprensión humana. Por ello, la empresa responsable del desarrollo de esta IA generativa ha lanzado una herramienta que permite entender mejor el funcionamiento de los modelos de lenguaje, con el objetivo de aumentar la transparencia en su uso.

Para comprender mejor el funcionamiento de los chatbots, OpenAI ha lanzado una herramienta basada en ChatGPT-4, la última versión de su IA de lenguaje de gran tamaño. La herramienta permite producir y puntuar explicaciones en lenguaje natural del comportamiento de las neuronas del modelo GPT-2, con el objetivo de mejorar su transparencia.

Los modelos de lenguaje de gran tamaño como ChatGPT están compuestos por neuronas que detectan patrones específicos en el texto que escribe el usuario. A partir de estos patrones, crean una respuesta siguiendo una serie de pasos. En el caso de GPT-2, primero se genera una explicación sobre el tema, mostrando secuencias de texto relevantes del modelo. Luego, la herramienta analiza cada vez que una neurona se activa y, gracias a la ayuda de GPT-4, explica y predice el comportamiento de las neuronas.

Posteriormente, la herramienta vuelve a emplear GPT-4 para comprobar que la neurona simulada antes y la neurona real de GPT-2 son similares. De esta forma, se puede comparar cuánto coincide la explicación del comportamiento de la herramienta con el comportamiento real de la IA.

Con esta herramienta, William Sanders, uno de los responsables del proyecto, pretende "anticipar cuáles serán los problemas con un sistema de IA". En un momento en el que la Unión Europea está regulando el uso de la IA, esta herramienta podría ayudar a cumplir con las normas y evitar la prohibición en el continente.

La IA generativa y las preocupaciones que acarrea

La preocupación por la inteligencia artificial se ha visto reflejada en numerosas películas que muestran un futuro distópico en el que la tecnología se revela contra la humanidad. Esto ha llevado a muchos a temer que la llegada de chatbots como ChatGPT pueda desencadenar esta situación. Por lo tanto, OpenAI ha desarrollado una herramienta que permita comprender mejor el funcionamiento de los modelos de lenguaje.

En los últimos meses, los chatbots han estado en boca de todos, ya que han demostrado ser capaces de responder preguntas y mantener conversaciones como lo haría una persona. Sin embargo, detrás de estos sistemas hay un equipo de expertos que se dedica a entrenar a los chatbots para que mejoren su conocimiento y no tengan sesgos o información errónea.

Aunque se ha explicado cómo funcionan los chatbots, aún hay detalles que escapan a la comprensión humana. En una entrevista, James Manyika, vicepresidente senior de tecnología y sociedad de Google, habló sobre un sistema de IA que aprendió un idioma sin haber sido capacitado para ello. Este fenómeno se conoce como 'la caja negra' porque no se puede explicar cómo ocurre.

Te recomendamos

Soy Editor de Tecnología en RPP Noticias. Conduzco #FamiliaPuntoCom los sábados a las 10:30 de la mañana via RPP Radio. Reseño dispositivos, estoy en contacto con la industria de la innovación, y desarrollo contenido para NIUSGEEK y METADATA, el podcast de tecnología de RPP.

Tags

Lo último en Más Tecnología

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA