|
||
|
![]() |
![]() |
Noticias del portal de temática general Sólo el staff puede publicar aquí |
![]() |
|
Herramientas |
#1
|
||||
|
||||
![]() La IA plantea un cambio enorme en nuestros móviles. Uno que hará que tengan (al menos) 32 GB de RAM ![]() Leemos en xataka.com "Hace un año que nuestros móviles cuentan con funciones de IA. Google las ofrece con Gemini y Apple (más o menos) con Apple Intelligence, pero por ahora esas funciones son limitadas y se reducen a tareas algo modestas. Sin embargo estamos viendo cómo nuestros PCs cada vez tienen acceso a modelos más llamativos. La comparativa reciente que realizamos de DeepSeek R1-14b con modelos como Llama 3.1-8b o Phi 4-14b demostró que estos desarrollos podían correr realmente bien en un Mac mini M4 con 16 GB de RAM. Sin embargo, lo que ocurre por ejemplo en los Pixel es que Google ofrece su modelo Gemini Nano, que cuenta con dos versiones: una 1.8B y otra 3.25B. Son modelos decentes, pero aun así están claramente por debajo de las prestaciones de modelos como DeepSeek-R1-14B y otros como los citados. El problema es que esos modelos, sobre todo cuando comenzamos a subir el tamaño y el número de parámetros (14B, por ejemplo), necesitan memoria. Y bastante. Un LLM de siete mil millones de parámetros (7B) suele necesitar unos 8 GB de memoria, aunque aquí disponer de algo más de margen de maniobra (por ejemplo, 12 GB) es recomendable. Los fabricantes lo saben, y de hecho hasta Apple ha hecho ahí un pequeño esfuerzo. En los iPhone 16 se ha dado el salto de los 6 a los 8 GB en gran parte por esto, y los Pixel 9 de Google ofrecen hasta 16 GB de RAM precisamente por la misma razón: eso da margen de maniobra para que las funciones de IA ejecutadas en local puedan funcionar de forma fluida." Seguir leyendo: xataka.com |
|
#2
|
||||
|
||||
Que se necesitará más RAM para esa IA en local, lógico, y que lo ideal es que la IA esté en local todo lo que se pueda, para respetar la privacidad, mejor que mejor.
Pero a ver cuando el retocar fotos, video y hacer "monigotes" no es lo más destacado, sino controlar todo el teléfono, como si hablases con otro ser humano, y te entendiese como tal.
__________________
Excusatio non petita, accusatio manifesta
|
#3
|
||||
|
||||
Que se necesitará más RAM para esa IA en local, lógico, y que lo ideal es que la IA esté en local todo lo que se pueda, para respetar la privacidad, mejor que mejor.
Pero a ver cuando el retocar fotos, video y hacer "monigotes" no es lo más destacado, sino controlar todo el teléfono, como si hablases con otro ser humano, y te entendiese como tal. ![]() |
#4
|
||||
|
||||
Y una rtx 5090
__________________
![]() ![]() |
Gracias de parte de: | ||
![]() |
![]() |
||||||
|
Herramientas | |