Actualmente se encuentran disponibles diferentes modelos de IA, pero todos se ejecutan en servidores remotos, es decir, en la nube. Por otro lado, Apple espera lograr un avance revolucionario al incorporar inteligencia artificial directamente en el iPhone.

Ya sea que hablemos con ChatGPT o con Bard, necesitamos saber que su “conocimiento” existe en algún lugar lejos de nosotros, pero, por supuesto, gracias a Internet, esto es casi imperceptible. Apple, en cambio, está preparando algo completamente diferente: pondrá la inteligencia artificial en el bolsillo del usuario. escriben los investigadores de IA de la compañía MacRumors Al desarrollar una tecnología innovadora para utilizar la memoria flash, lograron la capacidad de instalar modelos de lenguaje grande (LLM) directamente en iPhones y otros dispositivos Apple con memoria limitada.

READ  PlayStation está de vuelta con múltiples misiones, desafíos y obsequios

Como sé, los chatbots basados ​​en LLM requieren una gran cantidad de datos y memoria, lo que puede ser un problema, por ejemplo, para el iPhone, que no tiene memoria infinita. En otras palabras: los modelos de alto rendimiento requieren mucha memoria para el almacenamiento, y los teléfonos inteligentes tradicionales, como el iPhone 15 con 8 GB de memoria, tienen dificultades para satisfacer las necesidades de modelos con cientos de miles de millones de parámetros, razón por la cual los investigadores de Apple pensaron Para innovar en el frente de la memoria, el desarrollo de tecnología New utiliza la memoria flash para almacenar datos del modelo de IA. Su método supera inteligentemente esta limitación con dos técnicas clave que minimizan la transferencia de datos y maximizan el rendimiento de la memoria flash.

En nuestro artículo de investigación, los autores mencionan dos tipos de enfoques. El «rebobinado» es una especie de método de reciclaje. En lugar de cargar nuevos datos cada vez, el modelo de IA reutiliza algunos de los datos que ya ha procesado. Esto reduce la necesidad de recuperar memoria constantemente, lo que hace que el proceso sea más rápido y fluido.

El apilamiento de fila a columna es una técnica similar a leer un libro en partes más grandes en lugar de una palabra a la vez. A través de una recopilación más eficiente, los datos se pueden leer más rápido desde la memoria flash, lo que acelera la capacidad de la IA para comprender y generar lenguaje.

La combinación de estos enfoques permite que los modelos de IA se ejecuten con hasta el doble de la memoria disponible del iPhone. Esto representa un aumento de velocidad de 4 a 5 veces con respecto a los procesadores estándar y de 20 a 25 veces más rápido en las GPU. «Este avance es particularmente importante para difundir los MBA avanzados en entornos con recursos limitados, ampliando así su aplicación y accesibilidad», escribieron los investigadores.

READ  Se dice que Apple está usando un chatbot interno para ayudar a los empleados con su trabajo

Este avance en la eficiencia de la IA abre nuevas posibilidades para los futuros iPhone, como capacidades Siri más avanzadas, traducción de idiomas en tiempo real y funciones de vanguardia impulsadas por la IA en fotografía y realidad aumentada. Esta tecnología también sienta las bases para que los iPhone ejecuten asistentes de inteligencia artificial complejos y chatbots en el mismo dispositivo.

Si quieres saber de cosas similares en otros momentos dale me gusta Página de Facebook del Departamento Técnico de HVG.