Ver Mensaje Individual
  #5  
Viejo 12/08/19, 14:48:23
Array

[xs_avatar]
Zippy Zippy no está en línea
Usuario muy activo
 
Fecha de registro: jun 2009
Localización: Salamanca
Mensajes: 2,173
Modelo de smartphone: Elephone Soldier / Samsung Galaxy Note 3
Tu operador: Movistar
A los que definen esas frecuencias de refresco:

¿Habéis medido cuántos FPS diferentes puede generar vuestro terminal en la aplicación (seguramente un juego) que os interesa? ¿25? ¿45? ¿60? Pues os sobra todo lo demás: pintar "blanco sobre blanco" (es decir, pintar nuevamente lo que ya está pintado con lo mismo que ya estaba pintado) no produce ningún cambio.

Y es que a muchos les están vendiendo la moto cuando lo que realmente importa son otros detalles que sí son apreciables, como la frecuencia de los ciclos de apagado / iluminación (especialmente si la pantalla emplea PWM en vez de DC-dimming).

Hay que tener en cuenta que en pantallas que no emplean fósforo (CRT) ni proyectores (salas de cine) la imagen no es regenerada sino sólo actualizada: por eso no existe el parpadeo asociado con las tasas de refresco al no haber "límite de persistencia" ni un "shutter". Sin embargo, los apagados que realiza un teléfono para ajustar el nivel de brillo sí que influyen, no en la calidad de la imagen pero sí en la sensación de quien la esté visionando.

Por mucho fantasma que insista en que distingue más fotogramas por segundo, lo que realmente se puede distinguir es que "ha pasado algo", pero sin ver ese "algo". Lo que importa es la calidad de la imagen emitida, no el cambio en el contenido de cada "frame" individual, pero para entenderlo bien hay que diferenciar 2 conceptos: la duración mínima de un estímulo visual para que pueda ser detectado y la capacidad para distinguir cambios en 2 imágenes. A menudo esos conceptos se entremezclan para confundir deliberadamente y no pocos blogs mienten o tergiversan para favorecer la opinión del móvil que los patrocina:
  • El primero, esa duración mínima para detectar un estímulo visual, puede ser tremendamente breve gracias a la "persistencia de la visión". De hecho, gracias a eso podemos ver luces de muchos más colores cuando realmente la gama de emisión es limitada: el truco es regular el tiempo que permanece encendida cada una para que nuestro cerebro "mezcle" esas imágenes. Esos estímulos pueden llegar a ser de 1 centésima de segundo. Si pusiéramos un fotograma falso (por ejemplo, todo rojo o verde) en mitad de una proyección a 100 fps, casi todos podríamos notar "algo raro" pero casi nadie podría apreciar si fue rojo o verde.
  • El segundo, la capacidad para distinguir cambios entre 2 imágenes consecutivas, está en torno a 12 imágenes diferenciables por segundo por la "fusión del movimiento". ¿Y cómo escogemos una velocidad? científicamente debería ser el doble (del mismo modo que se escogió una frecuencia de 44 KHz para el audio porque no podemos oir frecuencias por encima de 22 KHz)... pero la historia es diferente: la elección de la frecuencia de 24 fps no obedeció a la ciencia. Como las salas de cine mudo eran operadas de manera diferente, no había estándar, hasta que la llegada del cine sonoro obligó a estandarizarlo: como lo habitual era mostrar entre 22 y 26 fotogramas por segundo y se estableció la norma salomónicamente en 24. Pero coincidió con lo que resultaba necesario: al ser el doble de lo que teóricamente puede diferenciarse, es suficiente para que nadie, absolutamente NADIE pueda diferenciar los cambios en fotogramas individuales.
Cuando Peter Jackson rodó "el Hobbit" a 48 fps (acabamos de ver que el estándar de cine son 24 por razones históricas, no por limitaciones técnicas) ¿alguien de los que la visionó en los pocos cines adaptados notó la diferencia? NO, pero se hizo la pregunta-trampa y algunos decían haber notado la diferenca... a pesar de visionarla en un cine no-adaptado (vamos, que la vieron a 24 fps, como casi todos). De hecho, toda la industria (y los expertos saben más que los foreros) acusó al Sr. Jackson de "vendehumos".

Entonces, ¿vale la pena o no? Pues claro que vale la pena una buena pantalla: una que emplee DC-dimming en vez de PWM, que ofrezca una buena fidelidad de color... y que debajo tenga una buena CPU+GPU que pueda generar suficientes fps en escenarios complejos: si "falta" un fotograma de esos 24 mínimos sí que lo notaremos, mucho más que el número de veces que la pantalla sea actualizada.

Lo único bueno de todo esto es que las mejores pantallas suelen estar bien acompañadas por buenos SoC, por lo que no se dará el desatino de tener una buena pantalla incapaz de generar el número adecuado de fps (a no ser que se trate de un juego chapucero o demasiado ambicioso). Quien compre un teléfono con esas pantallas no quedará defraudado y obtendrá una sensación de fluidez acorde con lo que espera... a pesar de que el argumento comercial sea más falso que un billete de escayola.

Perdón por extenderme tanto, pero estoy tan hastiado de las pantallas a tropecientos Hz como de los tierra-planistas y quería que quien leyera el comentario se tomara la molestia de investigar de verdad, en consultar a verdaderos expertos, no a blogueros ni foreros que defienden "lo que tienen".
Responder Con Cita
Los siguientes 2 usuarios han agradecido a Zippy su comentario: