|
|
Herramientas |
#21
|
||||
|
||||
Por la resolución no debería aumentar el consumo en el uso habitual ya que será dinámica y solo debería estar a 4K en realidad virtual que es donde los 2K se quedan cortos.
Para ver netflix en realidad virtual como si estuvieras en el cine se agradecerá, ahora mismo con las gear VR se aprecian los píxeles con pantallas 2K. Última edición por DarKelP Día 18/11/18 a las 16:57:47. |
|
#22
|
||||
|
||||
Por la resolución no debería aumentar el consumo en el uso habitual ya que será dinámica y solo debería estar a 4K en realidad virtual que es donde los 2K se quedan cortos.
Para ver netflix en realidad virtual como si estuvieras en el cine se agradecerá, ahora mismo con las gear VR se aprecian los píxeles con pantallas 2K. |
#23
|
||||
|
||||
Eso no es cierto, o no tiene porqué serlo. Y como ejemplo el último aumento de resolución de pantalla, fue del S5 (1080p) al S6 (2K). La pantalla del S6 consumía menos que la del S5.
Lo que aumenta el consumo es la mayor carga de GPU, que se soluciona bajando la resolución cuando no se necesita. Y el tamaño de pantalla también claro. Última edición por DarKelP Día 18/11/18 a las 20:02:13. |
#25
|
||||
|
||||
Eso no es cierto, o no tiene porqué serlo. Y como ejemplo el último aumento de resolución de pantalla, fue del S5 (1080p) al S6 (2K). La pantalla del S6 consumía menos que la del S5.
Lo que aumenta el consumo es la mayor carga de GPU, que se soluciona bajando la resolución cuando no se necesita. Y el tamaño de pantalla también claro. Lo que aumenta el consumo es la gpu y el número de pixels. Reducir la resolución via software no apaga ningún pixel, por lo que esa parte del consumo no varía. Por lo que a más resolución, más consumo siempre en todas las situaciones. |
Gracias de parte de: | ||
#26
|
||||
|
||||
Eso no es cierto, o no tiene porqué serlo. Y como ejemplo el último aumento de resolución de pantalla, fue del S5 (1080p) al S6 (2K). La pantalla del S6 consumía menos que la del S5.
Lo que aumenta el consumo es la mayor carga de GPU, que se soluciona bajando la resolución cuando no se necesita. Y el tamaño de pantalla también claro. Esa comparación no sirve porque cambian más cosas de una pantalla a otra aparte de la resolución.
Lo que aumenta el consumo es la gpu y el número de pixels. Reducir la resolución via software no apaga ningún pixel, por lo que esa parte del consumo no varía. Por lo que a más resolución, más consumo siempre en todas las situaciones. Como dice mas o menos @blackhawk_LA En una pantalla Oled que los pixeles se iluminan por si solos cuantos mas pixeles tenga la pantalla mas energía gastara independientemente de si tiene la opción de emitir constantemente la señal a menor resolución de la nativa de la pantalla. En este ejemplo en concreto la pantalla es una 4K con mas de 8 millones de pixeles, si la pones a 1080p al igual que si pones en una TV 4K una peli en 1080p lo que hace es reescalar esos 1080p a 4K que no es otra cosa que doblar-clonar cada pixel de la imagen 1080p( perdiendo calidad obviamente) para rellenar esos pixeles que le falta para llegar esos mas de 8 millones de pixeles del 4k por lo que sigue gastando lo mismo y en 720p igual solo que en vez de doblarse esos pixeles en el reescalado se cuadriplican cada uno de ellos para llegar a 4K. Ahora bien evidentemente una señal constante de 1080p o 720p no fuerza tanto la GPU como lo hace el 4K en su forma nativa y por eso también hay un menor gasto de energía también pero los mas de 8 millones de pixeles de la pantalla 4K siguen estando encendidos. Como añadido en este caso también influye el tamaño de pantalla pues los mas de 8 millones de pixeles del 4K a mayor tamaño de pantalla pues mas grandes serán los propios pixeles y mas grande sera su área de retroiluminacion individual. Es como te dan 2 cajas, una de 1m cuadrado y otra de 2m cuadrados y te dicen que en las 2 tienen que haber 100 bombillas encendidas que usen la misma tecnología y que esas 100 bombillas tienen que llenar ambas cajas, evidentemente en la de 2 metros cuadrados tendras que poner 100 bombillas mas grandes para llenar la caja y gastaran mas que las 100 bombillas menos pequeñas que han llenado la de 1m cuadrado. |
Gracias de parte de: | ||
#29
|
||||
|
||||
Esa comparación no sirve porque cambian más cosas de una pantalla a otra aparte de la resolución.
Lo que aumenta el consumo es la gpu y el número de pixels. Reducir la resolución via software no apaga ningún pixel, por lo que esa parte del consumo no varía. Por lo que a más resolución, más consumo siempre en todas las situaciones. En parte tenéis los 2 razón aunque el compi @blackhawk_LA esta algo mas encaminado.
Como dice mas o menos @blackhawk_LA En una pantalla Oled que los pixeles se iluminan por si solos cuantos mas pixeles tenga la pantalla mas energía gastara independientemente de si tiene la opción de emitir constantemente la señal a menor resolución de la nativa de la pantalla. En este ejemplo en concreto la pantalla es una 4K con mas de 8 millones de pixeles, si la pones a 1080p al igual que si pones en una TV 4K una peli en 1080p lo que hace es reescalar esos 1080p a 4K que no es otra cosa que doblar-clonar cada pixel de la imagen 1080p( perdiendo calidad obviamente) para rellenar esos pixeles que le falta para llegar esos mas de 8 millones de pixeles del 4k por lo que sigue gastando lo mismo y en 720p igual solo que en vez de doblarse esos pixeles en el reescalado se cuadriplican cada uno de ellos para llegar a 4K. Ahora bien evidentemente una señal constante de 1080p o 720p no fuerza tanto la GPU como lo hace el 4K en su forma nativa y por eso también hay un menor gasto de energía también pero los mas de 8 millones de pixeles de la pantalla 4K siguen estando encendidos. Como añadido en este caso también influye el tamaño de pantalla pues los mas de 8 millones de pixeles del 4K a mayor tamaño de pantalla pues mas grandes serán los propios pixeles y mas grande sera su área de retroiluminacion individual. Es como te dan 2 cajas, una de 1m cuadrado y otra de 2m cuadrados y te dicen que en las 2 tienen que haber 100 bombillas encendidas que usen la misma tecnología y que esas 100 bombillas tienen que llenar ambas cajas, evidentemente en la de 2 metros cuadrados tendras que poner 100 bombillas mas grandes para llenar la caja y gastaran mas que las 100 bombillas menos pequeñas que han llenado la de 1m cuadrado. Por lo que es posible aumentar de un año a otro la eficiencia de la pantalla para que aun aumentando píxeles consuma menos. Aquí la prueba: |
#30
|
||||
|
||||
Entiendo vuestro razonamiento pero si fuera cierto no pasaría lo que comento entre el S5 y S6 cuando se aumentó la resolución, ambas pantallas con 5.1 pulgadas para que el tamaño no influya. La pantalla del S6 a pesar de tener más píxeles consume menos que la pantalla del S5 que tiene mucho menor número de píxeles, ambas pantallas AMOLED (hablamos del consumo exclusivo de la pantalla, separada del resto del hardware, el consumo de tener todos los píxeles encendidos).
Por lo que es posible aumentar de un año a otro la eficiencia de la pantalla para que aun aumentando píxeles consuma menos. Aquí la prueba: Que se pueda compensar por otro lado puede ser. Pero esa misma pantalla con menor resolución consumiría menos. Y a todo esto, el límite de resolución del ojo humano está en torno a 0,1 mm. Si no me equivoco los píxeles están alcanzando ya tamaños más pequeños que eso por lo que es imposible que se note la diferencia |
#31
|
||||
|
||||
Los que usamos gafas de realidad virtual con el móvil somos muy conscientes de que la llamada resolución 2K se queda muy corta. Incluso quizás el 4K no acabe de llegar de todo, pero va a ser un paso muy importante y seguramente ya se aproxime a la resolución óptima para VR. |
#32
|
||||
|
||||
Claro, porque el 4K en móviles no está pensando para el uso habitual, para eso ya nos llegaba con las pantallas 1080. Está pensado para realidad virtual.
Los que usamos gafas de realidad virtual con el móvil somos muy conscientes de que la llamada resolución 2K se queda muy corta. Incluso quizás el 4K no acabe de llegar de todo, pero va a ser un paso muy importante y seguramente ya se aproxime a la resolución óptima para VR. |
#34
|
||||
|
||||
Pero el límite de resolución de tus ojos es el mismo, sea a la distancia que sea. Si los píxeles son más pequeños (es lo que no estoy seguro) es imposible que se distingan.
|
#35
|
||||
|
||||
Nop. Las gafas de RV usan un par de lentes a modo de lupa por lo que los pixeles se aprecian más cuanto menor sea la resolución (y por tanto mayor sea el tamaño del píxel).
|
Estás aquí | ||||||
|