Hace un año que nuestros móviles cuentan con funciones de IA. Google las ofrece con Gemini y Apple (más o menos) con Apple Intelligence, pero por ahora esas funciones son limitadas y se reducen a tareas algo modestas.
Sin embargo estamos viendo cómo nuestros PCs cada vez tienen acceso a modelos más llamativos. La comparativa reciente que realizamos de DeepSeek R1-14b con modelos como Llama 3.1-8b o Phi 4-14b demostró que estos desarrollos podían correr realmente bien en un Mac mini M4 con 16 GB de RAM.
Sin embargo, lo que ocurre por ejemplo en los Pixel es que Google ofrece su modelo Gemini Nano, que cuenta con dos versiones: una 1.8B y otra 3.25B. Son modelos decentes, pero aun así están claramente por debajo de las prestaciones de modelos como DeepSeek-R1-14B y otros como los citados.
El problema es que esos modelos, sobre todo cuando comenzamos a subir el tamaño y el número de parámetros (14B, por ejemplo), necesitan memoria. Y bastante. Un LLM de siete mil millones de parámetros (7B) suele necesitar unos 8 GB de memoria, aunque aquí disponer de algo más de margen de maniobra (por ejemplo, 12 GB) es recomendable.
Los fabricantes lo saben, y de hecho hasta Apple ha hecho ahí un pequeño esfuerzo. En los iPhone 16 se ha dado el salto de los 6 a los 8 GB en gran parte por esto, y los Pixel 9 de Google ofrecen hasta 16 GB de RAM precisamente por la misma razón: eso da margen de maniobra para que las funciones de IA ejecutadas en local puedan funcionar de forma fluida.
Pero puede que ese salto en memoria pronto vaya a más. No parece descabellado pensar que más pronto que tarde veamos móviles con al menos 32 GB de RAM precisamente para poder ejecutar modelos de IA de mayor tamaño y así ofrecer a los usuarios opciones más potentes en este sentido.
Por supuesto, no solo importa la cantidad de memoria. Nuestros móviles no tienen una GPU dedicada que pueda acelerar estas tareas, pero se está avanzando mucho en el desarrollo de NPU cada vez más potentes. La combinación de ambos elementos parece hacer posible un cambio importante a la hora de ofrecer modelos locales de IA cada vez más versátiles.
A estas mejoras hardware en nuestros móviles también se unen posibles técnicas de optimización y "compresión" de los modelos de IA. La cuantización, una especie de "redondeo", permite que grandes modelos de lenguaje (LLM) vean reducido su tamaño a costa, eso sí, de la pérdida de cierto nivel de precisión.
La cuantización es un proceso ya muy popular a la hora de poder usar modelos de IA grandes en máquinas más modestas, y además de reducir los requisitos hardware permite también ganar en eficiencia.
Todo ello hace pensar en un futuro no muy lejano en el que tendremos modelos de IA mucho más potente en nuestro bolsillo. Modelos que podremos ejecutar en local, que podremos usar incluso sin conexión a internet y que además mantendrán toda la conversación en privado.
Son muchas ventajas interesantes. Demasiadas para no pensar en que puede que pronto veamos cómo los fabricantes de móviles presumen de móviles de 32 GB. O quién sabe si incluso de más.
En Xataka | El nuevo Gemini demuestra una ambición de Google: que hablemos sin parar con nuestro móvil
Ver 10 comentarios
10 comentarios
cortomal
A mi me encantaría que alguién me explicara para tontos que puede hacer la IA localmente en un teléfono y casos prácticos reales más allá de editar fotos o preguntarle cosas de información que puedo hacer en la app o en el navegador...
No paro de ver cosas, dispositivos y servicios "enriquecidas con IA" y todavía no tengo claro cual es exactamente la mejora y por qué se considera "IA" y antes no lo era...
Creo que vamos a tener IA hasta en los sobres de Avecrem y ya cansa que abusen de ese marketing barato en la mayoría de los casos.
Este artículo mismamente habla de modelos, recursos que usaría...pero ni una pista de para que sirve para el usuario promedio.
sanamarcar
Pues con 6GB a mi no me va el 4,5GB porque Android se come 4GB. Iba probar con el de 8GB de un alumno pero en el proceso de instalación y compilación quedó preocupado por su batería. La verdad que entiendo tener el control de tus datos en local, pero computacionalmente es una locura hacerlo en un movil, no sé tampoco si usa las NPU, la GPU o solo CPU. Es más ahora mismo la versión que he probado sobre Ollama da warnings por cuda xD. En fin queda mucho por hacer pero los que podrían hacerlo en Europa estarán a cosas más estúpidas xD.
reiizumi
Mira, nos está costando dios y la madre convencer a las empresas de que una PC portátil tienen que tener 32 GiB de RAM, que 16 hoy en día es poco hasta para el navegador (o precisamente por su culpa).
Aun seguimos a tortas y nos alegan que eso es absurdamente caro e innecesario, que 8 para ofimática y 16 para alto rendimiento.
¿Y ahora los móviles van a tener más RAM que portátiles porque así lo necesita la IA? Pues se va a pegar otro para conseguir que alguien los pague, y si tira adelante, habrá que plantear seriamente enchufarles una pantalla, teclado y ratón, para trabajar directamente desde esos monstruos.
reyang
Por la poca innovacion que vemos año tras año y que la potencia de los procesadores de los moviles gama media y alta van mas que sobrados para todas las tareas que el usuario ejecuta en su telefono, este tema de la IA no es mas que una justificación para aumentar mas ram, subir los precios o mantener los precios altos de los moviles de gama alta y premium.
Yo la verdad teniendo un Pixel 7 y que desde que lo compre tiene funciones de inteligencia artificial, pero que casi nunca utilizo y no me han parecido necesarias para el uso diario. Algun dia quizas, pero para mi actualmente este tema es mas marketing que una necesidad real.
fomlimalma
Apple con la mitad de RAM podrá ejecutar esos modelos y mas con la integración hardware/software que ningún pobrephone chino podrá superar