![]() |
|
| Noticias del portal de temática general Sólo el staff puede publicar aquí |
«
Tema Anterior
|
Siguiente tema
»
|
|
Herramientas |
|
#21
|
||||
|
||||
|
Bastante que ver es un ejemplo antes se decía que sin doble cámara por software seria un truño y una vez más Google la volvió a hacer un zasca.
|
|
|
|
#22
|
||||
|
||||
|
Cita:
Por ejemplo un zoom x1 con procesado puede dar (mucho) mejores resultados que un zoom óptico x2 (por decir algo) sin procesado y luego superior a veces e inferior otras que un óptico x4 sin procesado. Y por "mejores" recalco que no me refiero a fieles sino a subjetivamente mejor apreciados. Y claro, una foto del óptico x4 también podría ser procesada pero depende (igual que en el caso anterior) bastante de la foto y de como haya sido entrenada la AI. Por ejemplo una foto macro tomada desde muy cerca no obtendría buenos resultados si en el entrenamiento no han usado samples de gran detalle, e incluso en ese caso es posible que diese resultados aparentemente excelentes pero en realidad bastante alejados de lo fotografiado. Este tipo de procesado es una herramienta más que puede ser muy útil y que debería complementar al uso de una variedad de objetivos, pero por otro lado es comprensible que google haga uso de ella, aprovechando su punto fuerte. No me extrañaría que varios niveles de zoom óptico nativo hagan más costoso el procesado y que puestos a elegir barran para casa, del mismo modo que tampoco me extrañaría que algunos tipos de fotos no diesen buen resultado, todo depende de cómo sea la implementación y cómo se haya hecho el entrenamiento. O sea, no sería tan consistente ni (sobre todo) predecible como un zoom óptico. |
|
#23
|
|
La aplicación de la GCam hace milagros con las fotos y creo que uso la del Pixel 1.
Se inventará algunos píxeles, Pero lo hace para clavar la realidad en la foto. Salen perfectas. |
|
#24
|
|
Esque no tiene nada que ver, estas comparando tocino y velocidad. Lo del modo retrato es puro software.
|
| Gracias de parte de: | ||
|
#25
|
||||
|
||||
|
Cita:
No digo que vaya a ser mejor esta vez pero si se le acerca habrán conseguido hacer algo bueno sin tener un zoom óptico. |
|
#26
|
||||
|
||||
|
No sé si la implementación usada en el móvil será la misma pero para hacerse una idea de lo que es posible:
https://arstechnica.com/information-...-zoom-enhance |
|
#27
|
|
|
Cita:
Google lo hace haciendote mover la cámara hacia arriba. El zoom real es imposible hacerlo de otra manera que de forma óptica |
|
#28
|
||||
|
||||
|
Cita:
¿Por que el s9 normal tienen un modo retrato chusta en comparación al del plus? El modo de retrato de Apple requiere dos lentes porque cada lente es diferente: una es una lente de gran angular de 12 megapíxeles, mientras que la otra es un teleobjetivo también de 12 megapíxeles. Al tomar una foto en modo retrato, las dos lentes*sirven para propósitos diferentes. El teleobjetivo es lo que realmente captura la imagen. Mientras lo hace, el objetivo gran angular está ocupado capturando datos sobre cuán lejos está el sujeto, que*luego usa para crear un mapa de profundidad de nueve capas Última edición por Falcon_ Día 09/10/18 a las 23:32:52 |
|
#29
|
|
|
Cita:
Luego con la información se procede a hacer el recorte difuminado. Vamos, que alguno lo hacen mejor o peor pero todos son de forma artificial a través de soft. Ese efecto se puede hacer en unos minutos con photoshop |
|
#30
|
|
|
Cita:
|
|
#31
|
||||
|
||||
|
Ese artículo no va sobre el pixel pero me imagino que por ahí van los tiros, y qué quieres que te diga, si realmente produce resultados similares a mi sí me parece espectacular, aunque con los matices expresados anteriormente, de un amasijo de pixels que ni está claro que sea un rostro a rostros que se parecen al original, a veces bastante:
|
|
#32
|
|
|
Cita:
"Ours" es la visión de AI, "G Truth" es la imagen real
|
|
#33
|
||||
|
||||
|
Cita:
|
|
#34
|
||||
|
||||
|
Cita:
Ten en cuenta que aquí conoces de antemano cual es el original, pero si no, no sería tan fácil. Las de la fila 1, 2, 3, 5, y 7 parecen describir algo real pero distinto al de la imagen original. La 4 chirría bastante por los ángulos rectos de arriba y en la 6 no es un buen resultado pero la original tampoco queda muy claro qué es. Y otra cosa, todas las fotos finales de móvil tienen pixels inventados durante el postproceso. Decisiones son tomadas intentando interpretar el tipo de foto que se quiere tomar y obrando en consecuencia. Además de que durante el revelado de una fotografía digital (antes del postproceso) también se inventan pixels (bueno, subpixels más bien) en el dominio de la resolución, ya que para cada pixel final solo tienes info original de uno de los canales de color. Debes "inventarte" los otros. Es el mismo motivo por el que una foto en b/n nativo contiene más detalle real que si es a color con la misma resolución final. |
| Respuesta |
Estás aquí
|
||||||
|
||||||
«
Tema Anterior
|
Siguiente tema
»
|
|
Hora actual: 23:33:43 (GMT +1)
HTCMania: líderes desde el 2007






