Noticias
04/02/25, 21:00:11
La IA plantea un cambio enorme en nuestros móviles. Uno que hará que tengan (al menos) 32 GB de RAM
https://static.htcmania.com/2023-09-126-09-01-19-04022025-46917-htcmania.webp
Leemos en xataka.com
"Hace un año que nuestros móviles cuentan con funciones de IA. Google las ofrece con Gemini y Apple (más o menos) con Apple Intelligence, pero por ahora esas funciones son limitadas y se reducen a tareas algo modestas. Sin embargo estamos viendo cómo nuestros PCs cada vez tienen acceso a modelos más llamativos. La comparativa reciente que realizamos de DeepSeek R1-14b con modelos como Llama 3.1-8b o Phi 4-14b demostró que estos desarrollos podían correr realmente bien en un Mac mini M4 con 16 GB de RAM. Sin embargo, lo que ocurre por ejemplo en los Pixel es que Google ofrece su modelo Gemini Nano, que cuenta con dos versiones: una 1.8B y otra 3.25B. Son modelos decentes, pero aun así están claramente por debajo de las prestaciones de modelos como DeepSeek-R1-14B y otros como los citados. El problema es que esos modelos, sobre todo cuando comenzamos a subir el tamaño y el número de parámetros (14B, por ejemplo), necesitan memoria. Y bastante. Un LLM de siete mil millones de parámetros (7B) suele necesitar unos 8 GB de memoria, aunque aquí disponer de algo más de margen de maniobra (por ejemplo, 12 GB) es recomendable. Los fabricantes lo saben, y de hecho hasta Apple ha hecho ahí un pequeño esfuerzo. En los iPhone 16 se ha dado el salto de los 6 a los 8 GB en gran parte por esto, y los Pixel 9 de Google ofrecen hasta 16 GB de RAM precisamente por la misma razón: eso da margen de maniobra para que las funciones de IA ejecutadas en local puedan funcionar de forma fluida."
Seguir leyendo: xataka.com (https://www.xataka.com/robotica-e-ia/ia-plantea-cambio-enorme-nuestros-moviles-uno-que-hara-que-tengan-al-32-gb-ram)
https://static.htcmania.com/2023-09-126-09-01-19-04022025-46917-htcmania.webp
Leemos en xataka.com
"Hace un año que nuestros móviles cuentan con funciones de IA. Google las ofrece con Gemini y Apple (más o menos) con Apple Intelligence, pero por ahora esas funciones son limitadas y se reducen a tareas algo modestas. Sin embargo estamos viendo cómo nuestros PCs cada vez tienen acceso a modelos más llamativos. La comparativa reciente que realizamos de DeepSeek R1-14b con modelos como Llama 3.1-8b o Phi 4-14b demostró que estos desarrollos podían correr realmente bien en un Mac mini M4 con 16 GB de RAM. Sin embargo, lo que ocurre por ejemplo en los Pixel es que Google ofrece su modelo Gemini Nano, que cuenta con dos versiones: una 1.8B y otra 3.25B. Son modelos decentes, pero aun así están claramente por debajo de las prestaciones de modelos como DeepSeek-R1-14B y otros como los citados. El problema es que esos modelos, sobre todo cuando comenzamos a subir el tamaño y el número de parámetros (14B, por ejemplo), necesitan memoria. Y bastante. Un LLM de siete mil millones de parámetros (7B) suele necesitar unos 8 GB de memoria, aunque aquí disponer de algo más de margen de maniobra (por ejemplo, 12 GB) es recomendable. Los fabricantes lo saben, y de hecho hasta Apple ha hecho ahí un pequeño esfuerzo. En los iPhone 16 se ha dado el salto de los 6 a los 8 GB en gran parte por esto, y los Pixel 9 de Google ofrecen hasta 16 GB de RAM precisamente por la misma razón: eso da margen de maniobra para que las funciones de IA ejecutadas en local puedan funcionar de forma fluida."
Seguir leyendo: xataka.com (https://www.xataka.com/robotica-e-ia/ia-plantea-cambio-enorme-nuestros-moviles-uno-que-hara-que-tengan-al-32-gb-ram)