PDA

Ver la Versión Completa : Captura inteligente, superzoom y más: nuevas funciones para la cámara del Pixel 3 mediante inteligencia artificial


jorge_kai
09/10/18, 10:19:24
Captura inteligente, superzoom y más: nuevas funciones para la cámara del Pixel 3 mediante inteligencia artificial

https://static.htcmania.com/1366_2000-09102018-11610-htcmania.jpg

Leemos en xatakandroid.com
"Hoy 9 de octubre se presentan los nuevos Google Pixel 3 y Pixel 3 XL. Hasta la fecha se han ido filtrando una cantidad enorme de detalles, desde sus componentes internos, el diseño y hasta tenemos imágenes reales y primeras impresiones. La marca todavía juega en las redes sociales con lo que sabemos y deja entrever que se guarda alguna sorpresa, pero difícilmente será en forma de nuevo móvil que podamos ver próximamente. Entre los aspectos más destacados de estos nuevos Pixel 3 está la cámara trasera. Google apuesta un año más por un único sensor potenciado por el Pixel Visual Core, un chipset dedicado para mejorar sus capacidades de inteligencia artificial y aplicar algoritmos que mejoran la imagen. A nivel técnico la cámara del Pixel 3 se parecerá a la de su antecesor, pero como leemos en 9to5Google se añadirán nuevas funciones de inteligencia artificial."

fuente: xatakandroid.com (https://www.xatakandroid.com/moviles-android/captura-inteligente-superzoom-nuevas-funciones-para-camara-pixel-3-mediante-inteligencia-artificial?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Xatakandroid+%28Xatakandroid% 29)

jorge_kai
09/10/18, 10:19:35
https://www.xatakandroid.com/moviles-android/captura-inteligente-superzoom-nuevas-funciones-para-camara-pixel-3-mediante-inteligencia-artificial?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Xatakandroid+%28Xatakandroid% 29


https://www.xatakandroid.com/moviles-android/captura-inteligente-superzoom-nuevas-funciones-para-camara-pixel-3-mediante-inteligencia-artificial?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+Xatakandroid+%28Xatakandroid% 29

Miguelgas
09/10/18, 10:35:18
Veo innecesarias tantas funciones

javitorito
09/10/18, 11:28:44
Cuanto mas azucar mas dulce,pero no veo que sean grandes funciones...ya veremos que resultado dan.

NixxxoN
09/10/18, 11:32:30
......
Inteligencia artificial para "inventarse" zoom, creo que lo del humo con la IA se les está yendo de las manos. No se puede igualar el zoom óptico de ninguna manera.

BreoganN
09/10/18, 11:36:25
Estoy impaciente , mas por los accesorios que por los pixel a no ser que salga un Pixel SE

santinhos
09/10/18, 12:16:37
Zoom?. Pero si eso no hace falta según algunos! :silbando:

Metzen83
09/10/18, 12:41:08
......
Inteligencia artificial para "inventarse" zoom, creo que lo del humo con la IA se les está yendo de las manos. No se puede igualar el zoom óptico de ninguna manera.


tu no has visto CSI donde amplian una foto hasta lo impensable aunque este terriblemente pixelada? son capaces de ver hasta la matrícula de un coche viendo una foto de la tierra desde el espacio jajajaa

NixxxoN
09/10/18, 12:52:56
tu no has visto CSI donde amplian una foto hasta lo impensable aunque este terriblemente pixelada? son capaces de ver hasta la matrícula de un coche viendo una foto de la tierra desde el espacio jajajaa
Todo muy realista y creíble :sisi1:

txen84
09/10/18, 13:07:55
Esperemos que parte de ese software se traslade al pixel 2.

pe46
09/10/18, 13:09:39
Tiene que ser impresionante si consigue hacer un zoom tan bueno como el óptico con una sola lente.

quim135
09/10/18, 13:46:38
Estas 4 CHORRADAS no son suficiente para dejar de lado ese diseño nefando, ese notch descomunal y esos 4gb de ram...a no ser que salga muy bien de precio, cosa que dudo.

Que pena de pixels este año :(

Darchful
09/10/18, 14:13:59
Esto es del plan de Michael Jackson, se volvió "ário" con tanta medicación.

danko9696
09/10/18, 18:51:31
......
Inteligencia artificial para "inventarse" zoom, creo que lo del humo con la IA se les está yendo de las manos. No se puede igualar el zoom óptico de ninguna manera.
No es necesario IA para ello. Algoritmos de procesado de imagen para hacer "zoom" sin ella existen desde hace mucho. Su problema es que aparte de no sustituir a un zoom óptico no siempre funcionan bien, depende mucho de la imagen. Y claro, obviamente cuanto más elevada sea la resolución de salida mejor será el resultado.

La cosa es que las nuevas IAs de procesado neuronal son excelentes para procesado de imágenes y resulta que google posee el mejor software y hardware disponible para ello, así que es un buen movimiento por su parte implementar algo de esto en sus móviles. Pero para un aparato con precio premium debería ir complementado con la adición de objetivos ópticos adicionales.

Hay que tener en cuenta que la información que se maneja no es solo la de la foto tomada sino miles o puede que millones de otras fotos procesadas mediante entrenamiento de AI. El detalle extra que se consigue no es real pero puede dar el pego gracias a la similitud de la foto con otras fotos con las que ha sido entrenado. O sea, si lo que buscamos es un resultado veraz (sin inventarse pixels) mejor buscar en otro sitio pero si lo que se desea es algo que se vea bien, con detalle extra gracias a pixels inventados pero lo suficientemente parecido al original entonces el resultado puede ser realmente bueno.

Es un poco como las técnicas de reconstrucción de rostros a partir de restos forenses. Aparte de contar con información objetiva también requieren inventarse información y realizar extrapolaciones basadas en experiencia previa que pueden ser o no ser correctas pero el resultado puede ser a menudo muy bueno y aunque no sea exacto sí ayudar a identificaciones que serían imposibles de otro modo.

Y en último término esto es algo que hacen todos los móviles cuando muestran una imagen final (no raw), todos se inventan información. Este nuevo tipo de técnicas simplemente lo lleva mucho más lejos. Para el aficionado a fotografía que guste de revelar los raw en su pc después de tomadas las fotos seguramente estas técnicas carezcan de interés pero posiblemente sí lo tengan para aquellos que busquen sacar fotos resultonas y efectivas con poco esfuerzo.

NixxxoN
09/10/18, 19:33:26
No es necesario IA para ello. Algoritmos de procesado de imagen para hacer "zoom" sin ella existen desde hace mucho. Su problema es que aparte de no sustituir a un zoom óptico no siempre funcionan bien, depende mucho de la imagen. Y claro, obviamente cuanto más elevada sea la resolución de salida mejor será el resultado.

La cosa es que las nuevas IAs de procesado neuronal son excelentes para procesado de imágenes y resulta que google posee el mejor software y hardware disponible para ello, así que es un buen movimiento por su parte implementar algo de esto en sus móviles. Pero para un aparato con precio premium debería ir complementado con la adición de objetivos ópticos adicionales.

Hay que tener en cuenta que la información que se maneja no es solo la de la foto tomada sino miles o puede que millones de otras fotos procesadas mediante entrenamiento de AI. El detalle extra que se consigue no es real pero puede dar el pego gracias a la similitud de la foto con otras fotos con las que ha sido entrenado. O sea, si lo que buscamos es un resultado veraz (sin inventarse pixels) mejor buscar en otro sitio pero si lo que se desea es algo que se vea bien, con detalle extra gracias a pixels inventados pero lo suficientemente parecido al original entonces el resultado puede ser realmente bueno.

Es un poco como las técnicas de reconstrucción de rostros a partir de restos forenses. Aparte de contar con información objetiva también requieren inventarse información y realizar extrapolaciones basadas en experiencia previa que pueden ser o no ser correctas pero el resultado puede ser a menudo muy bueno y aunque no sea exacto sí ayudar a identificaciones que serían imposibles de otro modo.

Y en último término esto es algo que hacen todos los móviles cuando muestran una imagen final (no raw), todos se inventan información. Este nuevo tipo de técnicas simplemente lo lleva mucho más lejos. Para el aficionado a fotografía que guste de revelar los raw en su pc después de tomadas las fotos seguramente estas técnicas carezcan de interés pero posiblemente sí lo tengan para aquellos que busquen sacar fotos resultonas y efectivas con poco esfuerzo.
Total, que lo que hacen es "inventar" a partir de algorismos, eso nunca puede ser igual de bueno que un zoom óptico real. Al final el hardware de las minicámaras de movil tiene sus límites y por mucho software que metas no vas a hacer milagros

manolito86
09/10/18, 19:39:37
al final van a tener que meter mas camaras eh, que por mucho que sean los mejores con un objetivo...no se pueden pedir milagros

danko9696
09/10/18, 19:49:40
Total, que lo que hacen es "inventar" a partir de algorismos, eso nunca puede ser igual de bueno que un zoom óptico real. Al final el hardware de las minicámaras de movil tiene sus límites y por mucho software que metas no vas a hacer milagros
En realidad sí que pueden hacer "milagros", porque esa información "inventada" no está totalmente inventada, proviene de procesar muchísimas imágenes aparte de la que acabas de tomar, así que el resultado puede no ser real y exacto pero sí muy creible. Y como he dicho antes todo depende de lo que se busque, porque las fotos procesadas así van a tener ciertos sesgos dependiendo del entrenamiento recibido por la IA. No es sustituto para un zoom óptico pero puede superarle dependiendo del uso que se le quiera dar a la imagen final y del nivel de zoom óptico original.

Es como las fotos HDR usando varias fotos con distinta exposición y combinadas, tampoco son lo mismo que una única foto que se tomase con auténtico elevado rango dinámico. Tienen sus pegas pero funcionan y también se inventan pixels.

NixxxoN
09/10/18, 21:35:15
En realidad sí que pueden hacer "milagros", porque esa información "inventada" no está totalmente inventada, proviene de procesar muchísimas imágenes aparte de la que acabas de tomar, así que el resultado puede no ser real y exacto pero sí muy creible. Y como he dicho antes todo depende de lo que se busque, porque las fotos procesadas así van a tener ciertos sesgos dependiendo del entrenamiento recibido por la IA. No es sustituto para un zoom óptico pero puede superarle dependiendo del uso que se le quiera dar a la imagen final y del nivel de zoom óptico original.

Es como las fotos HDR usando varias fotos con distinta exposición y combinadas, tampoco son lo mismo que una única foto que se tomase con auténtico elevado rango dinámico. Tienen sus pegas pero funcionan y también se inventan pixels.
No, es imposible igualar o superar el zoom óptico, porque luego también se podría aplicar lo mismo con la cámara con zoom :nusenuse:
Llega un momento en el que dices vale, hasta quí hemos llegado con el software, intentemos mejorar el hard (de las cámaras)

Falcon_
09/10/18, 21:49:09
No, es imposible igualar o superar el zoom óptico, porque luego también se podría aplicar lo mismo con la cámara con zoom :nusenuse:
Llega un momento en el que dices vale, hasta quí hemos llegado con el software, intentemos mejorar el hard (de las cámaras)
Lo mismo se decía del modo retrato qué hacían falta dos cámaras con zoom óptico y luego el Pixel Xl 2 lo hacía mejor qué ninguno con tan solo una.

NixxxoN
09/10/18, 21:57:18
Lo mismo se decía del modo retrato qué hacían falta dos cámaras con zoom óptico y luego el Pixel Xl 2 lo hacía mejor qué ninguno con tan solo una.
Nada que ver tiene una cosa con la otra......

Falcon_
09/10/18, 21:58:41
Nada que ver tiene una cosa con la otra......
Bastante que ver es un ejemplo antes se decía que sin doble cámara por software seria un truño y una vez más Google la volvió a hacer un zasca.

danko9696
09/10/18, 22:27:01
No, es imposible igualar o superar el zoom óptico, porque luego también se podría aplicar lo mismo con la cámara con zoom
Llega un momento en el que dices vale, hasta quí hemos llegado con el software, intentemos mejorar el hard (de las cámaras)
Por eso mismo digo que no sustituye a un zoom óptico y que depende el uso que quiera dar y del nivel de zoom óptico original. Hay un compromiso, el resultado no es necesariamente filedigno pero puede ser efectivo.

Por ejemplo un zoom x1 con procesado puede dar (mucho) mejores resultados que un zoom óptico x2 (por decir algo) sin procesado y luego superior a veces e inferior otras que un óptico x4 sin procesado. Y por "mejores" recalco que no me refiero a fieles sino a subjetivamente mejor apreciados.

Y claro, una foto del óptico x4 también podría ser procesada pero depende (igual que en el caso anterior) bastante de la foto y de como haya sido entrenada la AI. Por ejemplo una foto macro tomada desde muy cerca no obtendría buenos resultados si en el entrenamiento no han usado samples de gran detalle, e incluso en ese caso es posible que diese resultados aparentemente excelentes pero en realidad bastante alejados de lo fotografiado.

Este tipo de procesado es una herramienta más que puede ser muy útil y que debería complementar al uso de una variedad de objetivos, pero por otro lado es comprensible que google haga uso de ella, aprovechando su punto fuerte. No me extrañaría que varios niveles de zoom óptico nativo hagan más costoso el procesado y que puestos a elegir barran para casa, del mismo modo que tampoco me extrañaría que algunos tipos de fotos no diesen buen resultado, todo depende de cómo sea la implementación y cómo se haya hecho el entrenamiento. O sea, no sería tan consistente ni (sobre todo) predecible como un zoom óptico.

mikel0654
09/10/18, 22:28:47
La aplicación de la GCam hace milagros con las fotos y creo que uso la del Pixel 1.
Se inventará algunos píxeles, Pero lo hace para clavar la realidad en la foto. Salen perfectas.

NixxxoN
09/10/18, 22:38:22
Bastante que ver es un ejemplo antes se decía que sin doble cámara por software seria un truño y una vez más Google la volvió a hacer un zasca.
Esque no tiene nada que ver, estas comparando tocino y velocidad. Lo del modo retrato es puro software.

Falcon_
09/10/18, 22:46:41
Esque no tiene nada que ver, estas comparando tocino y velocidad. Lo del modo retrato es puro software.
Los iPhone, Samsung, etc, con doble cámara se supone que usa el zoom óptico x2 para la profundidad de campo de hecho hace zoom en ese modo con la segunda cámara en cambio el Pixel es por software y lo hace mejor.

No digo que vaya a ser mejor esta vez pero si se le acerca habrán conseguido hacer algo bueno sin tener un zoom óptico.

danko9696
09/10/18, 22:53:13
No sé si la implementación usada en el móvil será la misma pero para hacerse una idea de lo que es posible:
https://arstechnica.com/information-technology/2017/02/google-brain-super-resolution-zoom-enhance/

NixxxoN
09/10/18, 23:02:15
Los iPhone, Samsung, etc, con doble cámara se supone que usa el zoom óptico x2 para la profundidad de campo de hecho hace zoom en ese modo con la segunda cámara en cambio el Pixel es por software y lo hace mejor.

No digo que vaya a ser mejor esta vez pero si se le acerca habrán conseguido hacer algo bueno sin tener un zoom óptico.

Todos lo hacen por soft... eso funciona detectando objetos lejanos y cercanos, que se puede hacer de varias maneras, y luego la parte lejana se difumina por software.
Google lo hace haciendote mover la cámara hacia arriba.
El zoom real es imposible hacerlo de otra manera que de forma óptica

Falcon_
09/10/18, 23:08:24
Todos lo hacen por soft... eso funciona detectando objetos lejanos y cercanos, que se puede hacer de varias maneras, y luego la parte lejana se difumina por software.
Google lo hace haciendote mover la cámara hacia arriba.
El zoom real es imposible hacerlo de otra manera que de forma óptica
¿Cómo que Google te hace mover la cámara hacia arriba?. Confundes con el Pixel primera generación si fuera verdad lo que dices entonces ¿por que usan la doble cámara para el retrato y no la principal?.

¿Por que el s9 normal tienen un modo retrato chusta en comparación al del plus?



El modo de retrato de Apple requiere dos lentes porque cada lente es diferente: una es una lente de gran angular de 12 megapíxeles, mientras que la otra es un teleobjetivo también de 12 megapíxeles. Al tomar una foto en modo retrato, las dos lentes*sirven para propósitos diferentes.

El teleobjetivo es lo que realmente captura la imagen. Mientras lo hace, el objetivo gran angular está ocupado capturando datos sobre cuán lejos está el sujeto, que*luego usa para crear un mapa de profundidad de nueve capas

NixxxoN
09/10/18, 23:53:32
¿Cómo que Google te hace mover la cámara hacia arriba?. Confundes con el Pixel primera generación si fuera verdad lo que dices entonces ¿por que usan la doble cámara para el retrato y no la principal?.

¿Por que el s9 normal tienen un modo retrato chusta en comparación al del plus?



El modo de retrato de Apple requiere dos lentes porque cada lente es diferente: una es una lente de gran angular de 12 megapíxeles, mientras que la otra es un teleobjetivo también de 12 megapíxeles. Al tomar una foto en modo retrato, las dos lentes*sirven para propósitos diferentes.

El teleobjetivo es lo que realmente captura la imagen. Mientras lo hace, el objetivo gran angular está ocupado capturando datos sobre cuán lejos está el sujeto, que*luego usa para crear un mapa de profundidad de nueve capas

Los iphone no tiene gran angular y las fotos modo retrato se hacen con la cámara normal, y el teleobjetivo determina la profundidad para hacer el recorte.
Luego con la información se procede a hacer el recorte difuminado. Vamos, que alguno lo hacen mejor o peor pero todos son de forma artificial a través de soft.
Ese efecto se puede hacer en unos minutos con photoshop

NixxxoN
10/10/18, 00:01:41
No sé si la implementación usada en el móvil será la misma pero para hacerse una idea de lo que es posible:
https://arstechnica.com/information-technology/2017/02/google-brain-super-resolution-zoom-enhance/

Vamos, que se inventa imágenes falsas a boleo. Y esos ejemplos seran de lo mejor que gabran sacado. A mi esto no me sirve. Antes me quedo sin zoom. Alguien mas?

danko9696
10/10/18, 00:11:50
Vamos, que se inventa imágenes falsas a boleo. Y esos ejemplos seran de lo mejor que gabran sacado. A mi esto no me sirve. Antes me quedo sin zoom. Alguien mas?
Ese artículo no va sobre el pixel pero me imagino que por ahí van los tiros, y qué quieres que te diga, si realmente produce resultados similares a mi sí me parece espectacular, aunque con los matices expresados anteriormente, de un amasijo de pixels que ni está claro que sea un rostro a rostros que se parecen al original, a veces bastante:

NixxxoN
10/10/18, 00:17:30
Ese artículo no va sobre el pixel pero me imagino que por ahí van los tiros, y qué quieres que te diga, si realmente produce resultados similares a mi sí me parece espectacular, aunque con los matices expresados anteriormente, de un amasijo de pixels que ni está claro que sea un rostro a rostros que se parecen al original, a veces bastante:
Cuando se trata de otra cosa que no sean rostros, los resultados pueden ser de risa... fiajte en eso
"Ours" es la visión de AI, "G Truth" es la imagen real



https://cdn.arstechnica.net/wp-content/uploads/sites/3/2017/02/super-resolution-other-techniques.jpg

Falcon_
10/10/18, 00:25:55
Los iphone no tiene gran angular y las fotos modo retrato se hacen con la cámara normal, y el teleobjetivo determina la profundidad para hacer el recorte.
Luego con la información se procede a hacer el recorte difuminado. Vamos, que alguno lo hacen mejor o peor pero todos son de forma artificial a través de soft.
Ese efecto se puede hacer en unos minutos con photoshop
No, el iPhone usa el teleobjetivo para el retrato el gran angular se refieren a la cámara principal qué es mucho más angular qué la otra con zoom evidentemente.

danko9696
10/10/18, 01:41:08
Cuando se trata de otra cosa que no sean rostros, los resultados pueden ser de risa... fiajte en eso
"Ours" es la visión de AI, "G Truth" es la imagen real

A mi no me parecen de risa, quitando la de la fila 4 el resto me parecen bastante resultonas, mucho mejor que el amasijo de pixels de la imagen fuente 8x8, aunque en algunos casos sí parecen definir escenas distintas a la de la imagen original. De hecho según el paper ante la pregunta de cual de las dos imágenes (Ours y G.Truth) está hecha con una cámara, las fotos de dormitorio engañaron mucho más a menudo en un test con humanos que las de rostros.

Ten en cuenta que aquí conoces de antemano cual es el original, pero si no, no sería tan fácil. Las de la fila 1, 2, 3, 5, y 7 parecen describir algo real pero distinto al de la imagen original. La 4 chirría bastante por los ángulos rectos de arriba y en la 6 no es un buen resultado pero la original tampoco queda muy claro qué es.

Y otra cosa, todas las fotos finales de móvil tienen pixels inventados durante el postproceso. Decisiones son tomadas intentando interpretar el tipo de foto que se quiere tomar y obrando en consecuencia. Además de que durante el revelado de una fotografía digital (antes del postproceso) también se inventan pixels (bueno, subpixels más bien) en el dominio de la resolución, ya que para cada pixel final solo tienes info original de uno de los canales de color. Debes "inventarte" los otros. Es el mismo motivo por el que una foto en b/n nativo contiene más detalle real que si es a color con la misma resolución final.