|
||
|
|
|
|||||||
| Noticias del portal de temática general Sólo el staff puede publicar aquí |
![]() |
|
|
Herramientas |
|
#22
|
||||
|
||||
|
Por ejemplo un zoom x1 con procesado puede dar (mucho) mejores resultados que un zoom óptico x2 (por decir algo) sin procesado y luego superior a veces e inferior otras que un óptico x4 sin procesado. Y por "mejores" recalco que no me refiero a fieles sino a subjetivamente mejor apreciados. Y claro, una foto del óptico x4 también podría ser procesada pero depende (igual que en el caso anterior) bastante de la foto y de como haya sido entrenada la AI. Por ejemplo una foto macro tomada desde muy cerca no obtendría buenos resultados si en el entrenamiento no han usado samples de gran detalle, e incluso en ese caso es posible que diese resultados aparentemente excelentes pero en realidad bastante alejados de lo fotografiado. Este tipo de procesado es una herramienta más que puede ser muy útil y que debería complementar al uso de una variedad de objetivos, pero por otro lado es comprensible que google haga uso de ella, aprovechando su punto fuerte. No me extrañaría que varios niveles de zoom óptico nativo hagan más costoso el procesado y que puestos a elegir barran para casa, del mismo modo que tampoco me extrañaría que algunos tipos de fotos no diesen buen resultado, todo depende de cómo sea la implementación y cómo se haya hecho el entrenamiento. O sea, no sería tan consistente ni (sobre todo) predecible como un zoom óptico. |
|
#23
|
||||
|
||||
|
La aplicación de la GCam hace milagros con las fotos y creo que uso la del Pixel 1.
Se inventará algunos píxeles, Pero lo hace para clavar la realidad en la foto. Salen perfectas. |
|
#24
|
||||
|
||||
|
|
| Gracias de parte de: | ||
|
#25
|
||||
|
||||
|
No digo que vaya a ser mejor esta vez pero si se le acerca habrán conseguido hacer algo bueno sin tener un zoom óptico. |
|
#26
|
||||
|
||||
|
No sé si la implementación usada en el móvil será la misma pero para hacerse una idea de lo que es posible:
https://arstechnica.com/information-...-zoom-enhance |
|
#27
|
||||
|
||||
|
Los iPhone, Samsung, etc, con doble cámara se supone que usa el zoom óptico x2 para la profundidad de campo de hecho hace zoom en ese modo con la segunda cámara en cambio el Pixel es por software y lo hace mejor.
No digo que vaya a ser mejor esta vez pero si se le acerca habrán conseguido hacer algo bueno sin tener un zoom óptico. ![]() Google lo hace haciendote mover la cámara hacia arriba. El zoom real es imposible hacerlo de otra manera que de forma óptica |
|
#28
|
||||
|
||||
|
Todos lo hacen por soft... eso funciona detectando objetos lejanos y cercanos, que se puede hacer de varias maneras, y luego la parte lejana se difumina por software.
Google lo hace haciendote mover la cámara hacia arriba. El zoom real es imposible hacerlo de otra manera que de forma óptica ![]() ¿Por que el s9 normal tienen un modo retrato chusta en comparación al del plus? El modo de retrato de Apple requiere dos lentes porque cada lente es diferente: una es una lente de gran angular de 12 megapíxeles, mientras que la otra es un teleobjetivo también de 12 megapíxeles. Al tomar una foto en modo retrato, las dos lentes*sirven para propósitos diferentes. El teleobjetivo es lo que realmente captura la imagen. Mientras lo hace, el objetivo gran angular está ocupado capturando datos sobre cuán lejos está el sujeto, que*luego usa para crear un mapa de profundidad de nueve capas Última edición por Falcon_ Día 09/10/18 a las 23:32:52. |
|
#29
|
||||
|
||||
|
¿Cómo que Google te hace mover la cámara hacia arriba?. Confundes con el Pixel primera generación si fuera verdad lo que dices entonces ¿por que usan la doble cámara para el retrato y no la principal?.
¿Por que el s9 normal tienen un modo retrato chusta en comparación al del plus? El modo de retrato de Apple requiere dos lentes porque cada lente es diferente: una es una lente de gran angular de 12 megapíxeles, mientras que la otra es un teleobjetivo también de 12 megapíxeles. Al tomar una foto en modo retrato, las dos lentes*sirven para propósitos diferentes. El teleobjetivo es lo que realmente captura la imagen. Mientras lo hace, el objetivo gran angular está ocupado capturando datos sobre cuán lejos está el sujeto, que*luego usa para crear un mapa de profundidad de nueve capas ![]() Luego con la información se procede a hacer el recorte difuminado. Vamos, que alguno lo hacen mejor o peor pero todos son de forma artificial a través de soft. Ese efecto se puede hacer en unos minutos con photoshop |
|
#30
|
||||
|
||||
|
No sé si la implementación usada en el móvil será la misma pero para hacerse una idea de lo que es posible:
https://arstechnica.com/information-...-zoom-enhance ![]() |
|
#31
|
||||
|
||||
|
Ese artículo no va sobre el pixel pero me imagino que por ahí van los tiros, y qué quieres que te diga, si realmente produce resultados similares a mi sí me parece espectacular, aunque con los matices expresados anteriormente, de un amasijo de pixels que ni está claro que sea un rostro a rostros que se parecen al original, a veces bastante:
|
|
#32
|
||||
|
||||
|
Ese artículo no va sobre el pixel pero me imagino que por ahí van los tiros, y qué quieres que te diga, si realmente produce resultados similares a mi sí me parece espectacular, aunque con los matices expresados anteriormente, de un amasijo de pixels que ni está claro que sea un rostro a rostros que se parecen al original, a veces bastante:
![]() "Ours" es la visión de AI, "G Truth" es la imagen real
|
|
#33
|
||||
|
||||
|
Los iphone no tiene gran angular y las fotos modo retrato se hacen con la cámara normal, y el teleobjetivo determina la profundidad para hacer el recorte.
Luego con la información se procede a hacer el recorte difuminado. Vamos, que alguno lo hacen mejor o peor pero todos son de forma artificial a través de soft. Ese efecto se puede hacer en unos minutos con photoshop ![]() |
|
#34
|
||||
|
||||
|
Ten en cuenta que aquí conoces de antemano cual es el original, pero si no, no sería tan fácil. Las de la fila 1, 2, 3, 5, y 7 parecen describir algo real pero distinto al de la imagen original. La 4 chirría bastante por los ángulos rectos de arriba y en la 6 no es un buen resultado pero la original tampoco queda muy claro qué es. Y otra cosa, todas las fotos finales de móvil tienen pixels inventados durante el postproceso. Decisiones son tomadas intentando interpretar el tipo de foto que se quiere tomar y obrando en consecuencia. Además de que durante el revelado de una fotografía digital (antes del postproceso) también se inventan pixels (bueno, subpixels más bien) en el dominio de la resolución, ya que para cada pixel final solo tienes info original de uno de los canales de color. Debes "inventarte" los otros. Es el mismo motivo por el que una foto en b/n nativo contiene más detalle real que si es a color con la misma resolución final. |
![]() |
Estás aquí
|
||||||
|
||||||