Ver Mensaje Individual
  #11  
Viejo 22/04/24, 21:21:38
Array

[xs_avatar]
nicogarcia1229 nicogarcia1229 no está en línea
Usuario muy activo
 
Fecha de registro: jun 2013
Mensajes: 1,094
Modelo de smartphone: iPhone 14 Pro
Tu operador: Personal
 Cita: Originalmente Escrito por Juanro49 Ver Mensaje
Instalate llama2 en local, que es open source y cualquiera puede montarse una instancia, y monitoriza los recursos que usa, tanto de CPU como de almacenamiento según va aprendiendo, y ahÃ* tienes las "suposiciones".

Si un simple traductor en local creado con Machine Learning tira bien de CPU cuando se usa, imaginate una IA que está 24/7 en "stand by" (recopilando datos) y luego mientras se ejecuta.

Que ojo, yo no lo veo mal, una IA en local en cuanto a privacidad es lo mejor pero, ¿Realmente es necesario?

Eso es lo mismo que les he comentado a Jolla en el betatest que participo de su IA, de hecho parece que han descartado esa opción precisamente por el consumo y han tirado por otra de las vias que habÃ*a abiertas
Es que nuevamente son suposiciones, ya que no es ni Llama2 ni Llama3 el LLM que se va a utilizar.

Siri, tambien esta escuchando y recopilando datos permanentemente para luego ofrecer x resultado al usuario, segun post procesado de informacion...y sin embargo, no es algo para alarmarse en cuanto a consumo de bateria.

En fin, no lo sabemos, podemos suponer y suponer no es espcifico...por lo tanto no tiene sentido, mas cuando de trata de algo tangible, como mediciones.
Responder Con Cita