Instalate llama2 en local, que es open source y cualquiera puede montarse una instancia, y monitoriza los recursos que usa, tanto de CPU como de almacenamiento según va aprendiendo, y ahÃ* tienes las "suposiciones".
Si un simple traductor en local creado con Machine Learning tira bien de CPU cuando se usa, imaginate una IA que está 24/7 en "stand by" (recopilando datos) y luego mientras se ejecuta.
Que ojo, yo no lo veo mal, una IA en local en cuanto a privacidad es lo mejor pero, ¿Realmente es necesario?
Eso es lo mismo que les he comentado a Jolla en el betatest que participo de su IA, de hecho parece que han descartado esa opción precisamente por el consumo y han tirado por otra de las vias que habÃ*a abiertas