Buscar
RPP Noticias
Estás escuchando En vivo
 
00:00 / 00:00
Lima
89.7 FM /730 AM
Arequipa
102.3 FM / 1170 AM
Chiclayo
96.7 FM / 870 AM
Huancayo
97.3 FM / 1140 AM
Trujillo
90.9 FM / 790 AM
Piura
103.3 FM / 920 AM
Cusco
93.3 FM
Cajamarca
100.7 FM / 1130 AM
La informacion mas relevante de la actuaidad al momento
Actualizado hace 0 minutos
Papá Lab
EP06 | T1 | ¿Cómo preparar el HOGAR para la LLEGADA del BEBÉ? con Diego Lema y Nícida Ferreyros | PAPÁ LAB
EP 6 • 38:27
Informes RPP
Carreteras de la muerte: Vías en regiones que ponen en riesgo a la población
EP 1137 • 04:53
Código Pulp
EP02 | T1 | La extraña amistad entre H. P. Lovecraft y Robert E. Howard
EP 2 • 55:43

El avance de Apple en IA anuncia una nueva era para los iPhones: todo desde el chip

Apple busca integrar IA en sus chips de manera nativa
Apple busca integrar IA en sus chips de manera nativa | Fuente: Unsplash

La investigación de Apple, 'LLM in a Flash', presenta una técnica innovadora para ejecutar eficientemente modelos de lenguaje grande en dispositivos con memoria limitada.

En un año dominado por los gigantes tecnológicos que exhiben su destreza en IA, Apple ha emergido silenciosamente con una investigación revolucionaria que podría redefinir las capacidades de los iPhones. En medio de la carrera armamentística de IA protagonizada por Google, Meta y Microsoft, el discreto enfoque de Apple ha dejado a muchos cuestionando su papel en esta carrera tecnológica. Sin embargo, los últimos desarrollos sugieren que Apple se está preparando para dar un salto significativo hacia adelante.

Mientras Google, Meta y Microsoft han desvelado sus visiones para la IA a través de diversas líneas de productos, el silencio de Apple ha despertado la curiosidad por sus contribuciones al panorama de la IA. Contrariamente a la percepción pública, Apple ha estado involucrada activamente en la investigación de IA durante años. La reciente revelación se presenta en forma de un artículo de investigación que muestra una técnica innovadora que puede potencialmente revolucionar la experiencia del iPhone al integrar a la perfección capacidades avanzadas de IA.

El artículo de investigación, titulado "LLM in a Flash: Efficient Large Language Model Inference with Limited Memory" (Inferencia eficiente de modelos de lenguaje grande con memoria limitada), fue publicado el 12 de diciembre y revela el enfoque de Apple para ejecutar eficientemente modelos de lenguaje grande (LLM) en dispositivos con capacidad limitada de Memoria de Acceso Aleatorio Dinámico (DRAM). La técnica innovadora implica optimizar el uso del almacenamiento flash, un componente clave en los iPhones, para simplificar los LLMs voluminosos.

Puntos clave de la investigación de Apple:

  • Transferencias de datos eficientes: La investigación aborda el desafío de ejecutar LLMs que exceden la DRAM disponible almacenando los parámetros del modelo en la memoria flash y transfiriéndolos a la DRAM a pedido. Un modelo de costo de inferencia optimiza las transferencias de datos desde la memoria flash, teniendo en cuenta las características de ambas memorias.
  • Técnicas avanzadas: El documento introduce técnicas innovadoras como "Windowing", que reduce la transferencia de datos reutilizando neuronas previamente activadas, y "Row-Column Bundling", que aumenta el tamaño de los fragmentos de datos para lecturas eficientes de la memoria flash.
  • Explotación de la escasez: Los investigadores de Apple aprovechan la escasez en las capas de la red de avance de alimentación (FFN) para cargar parámetros de forma selectiva, mejorando la eficiencia.
  • Gestión de la memoria: La investigación describe estrategias para gestionar eficazmente los datos cargados en la DRAM para minimizar la sobrecarga, garantizando un rendimiento óptimo.
  • Resultados: Utilizando modelos como OPT 6.7B y Falcon 7B, los investigadores demostraron un notable aumento de velocidad de 4-5x y 20-25x en CPU y GPU, respectivamente, en comparación con los métodos tradicionales. Este aumento de eficiencia en la ejecución de LLMs en entornos con limitaciones de hardware abre nuevas vías para la IA en el dispositivo y las experiencias de usuario de próxima generación.

Implicaciones para los usuarios de iPhone:

Desde la perspectiva del usuario, la investigación significa un salto significativo para Apple y los usuarios de iPhone. Los hallazgos sobre la inferencia eficiente de LLM con memoria limitada tienen el potencial de ofrecer capacidades de IA mejoradas al alcance de los usuarios. Esto incluye un procesamiento de lenguaje mejorado, asistentes de voz más sofisticados, funciones de privacidad mejoradas, posibles reducciones en el uso de ancho de banda de Internet y, lo más importante, haciendo que la IA avanzada sea accesible y receptiva para todos los usuarios de iPhone.

Si bien los avances de Apple en la investigación de IA demuestran su compromiso con la innovación, los expertos advierten sobre una implementación responsable. La protección de la privacidad, la mitigación del posible uso indebido y una consideración integral del impacto general son cruciales a medida que Apple avanza hacia la integración de estos hallazgos de investigación en aplicaciones del mundo real.

Te recomendamos

Soy Editor de Tecnología en RPP Noticias. Conduzco #FamiliaPuntoCom los sábados a las 10:30 de la mañana via RPP Radio. Reseño dispositivos, estoy en contacto con la industria de la innovación, y desarrollo contenido para NIUSGEEK y METADATA, el podcast de tecnología de RPP.

Tags

Lo último en Móviles

Lo más leído

Suscribirte al boletín de tus noticias preferidas

Suscríbete a nuestros boletines y actualiza tus preferencias

Buzon
Al suscribirte, aceptas nuestras políticas de privacidad

Contenido promocionado

Taboola
SIGUIENTE NOTA