En este caso creo que hay una confusión, el teléfono tiene que hacer una conversión en este caso a una resolución menor que la nativa (1440p), con el consiguiente uso de recursos que eso conlleva, que en vez de escalar a una resolución mayor lo haga a una menor no significa que no se tenga que hacer, da lo mismo que sea de 2K a FHD que de 2K a 4K por poner un ejemplo, y eso consume recursos, todo lo que no sea trabajar a su resolución nativa conlleva un proceso, otra cosa sería entrar en si compensa, en esto yo creo que si, por que a la larga los recursos que va a necesitar hacer el terminal para hacer downscale a 1080p no es tanto como el consiguiente extra de rendimiento que se va a conseguir al jugar y usar apps a esa resolución inferior, me explico?
pongamos unos ejemplos sencillos:
LG G4 con su resolución nativa 2K jugando x juego que consume un 100% de CPU/GPU.
LG G4 con resolución a FullHD jugando al mismo juego que de esta forma consume un pongamos 50% de CPU/GPU y le sumamos un vamos a poner 5% del downscale a la resolución inferior, lo que nos da un total del 55%, aquí tenemos un 45% sobrante.
Esto se traduce en que la pantalla obviamente por mucho que reescales a una resolución menor o mayor va a consumir lo mismo el panel en si, de eso no hay duda.
Pero teniendo en cuenta que apps sean juegos o otras aplicaciones van a reducir el consumo de CPU/GPU a un porcentaje de uso menor... obviamente no va a consumir lo mismo estando al 55% que al 100%, con lo cual sí se ahorra energía y se aumenta el rendimiento a consta de una perdida de resolución (otra cosa es que sea mas o menos apreciable esa perdida).
En definitiva, la pantalla no va a ahorrar energía por si misma, pero va a hacer que ahorremos energía bajando la resolución a una inferior haciendo que otros componentes como CPU/GPU tengan que trabajar a un % menor del que lo harían si trabajase a su resolución nativa.
Un saludo y ahí dejo mi opinión, perfectamente rebatible eh!