Acceder

Ver la Versión Completa : [ RECOPILACION ] ToF, el arma de los móviles de 2019, lo mejor y lo peor de Time of Fligh


caraconejo
13/05/19, 21:54:06
Qué es TOF, el arma de los móviles de 2019 de "computerhoy.com" (https://computerhoy.com/reportajes/tecnologia/tof-3d-apunta-nombre-porque-cada-vez-moviles-traeran-camaras-371933)

Time of Flight tecnología que, como su nombre indica, mapea una zona para crear modelos tridimensionales.

VR; realidad virtual (RV) es un entorno de escenas u objetos de apariencia real. La acepción más común refiere a un entorno generado mediante tecnología informática, que crea en el usuario la sensación de estar inmerso en él.

¿Volveremos a una sola cámara gracias al TOF? (https://computerhoy.com/reportajes/tecnologia/tof-3d-apunta-nombre-porque-cada-vez-moviles-traeran-camaras-371933) nos dice la teoría, el trabajo de dos cámaras no sería tan efectivo como el de una sola cámara y el TOF. Por lo que, sí, podemos imaginar un futuro en el que una sola cámara y el TOF estuvieran en un elevado número de dispositivos.

El gran problema del TOF
El TOF es una gran solución para crear un efecto bokeh preciso, pero tiene un gran problema. El primero es obvio: hay que hacerle hueco al sensor, ya que es algo completamente independiente de la cámara.

Sin embargo, hay otro problema añadido. Y es que, el sensor TOF manda mucha, muchísima información que debe procesar, y actualmente, y hasta que haya un procesador dentro del SoC que calcule e interprete los datos del TOF; es tarea de la CPU calcular los datos del TOF y, en milésimas de segundo, ‘’juntar’’ esa información con la de la cámara.

Y es que, en el momento que disparamos, o un segundo después gracias a la inteligencia artificial, los cálculos de la cámara y el TOF deberían haberse ‘’puesto en común’’ para crear la fotografía. O eso o permitir, en todos los casos, ajustar la imagen y el desenfoque de fondo a posteriori.

De la manera que sea, está claro que el procesador debe calcular mucha información en tiempo real para una sola foto, y aunque los procesadores actuales están capacitados para ello, los de gama alta, está claro que debe haber un software que esté igualmente preparado.

Y aquí la GALLINA de los HUEVOS de oro

ToF y Google, o mejor dicho Android que es el OS por el que corre el soft del terminal (sea de la marca que sea)

En 2009, han sacado varios Smartphone´s con el sensor ToF, no solo el Huawei P30 Pro, esta el Nokia 9 PV (que dispone en Modo Pro de 120 capas de datos y desenfoque post-edición de foto) y de hecho tarda en procesar cada foto de 10 a 30 segundos, con un SnapdDragon 845 y 6 gigas de RAM que no es poco...
* Y que sucede, que hay quejas, por este retardo

Sobre la balanza, datos (120 capas de datos) definición de imagen = detalle, experiencia de usuario (desesperación y quejas) o un sensor "inactivo"

De hecho ¿que sabemos del OS Android Pie y los servicios ToF... pues que en los pocos casos que hay (y los hay) están más orientados a la VR que a la Fotografía propiamente dicho, de hecho esta incluso con mas sentido comercial (anuncios y spot comerciales) que a echar fotos (que causa retardo y consumo de batería a tutiplen)

¿El TOF solo tiene usos en fotografía? (https://computerhoy.com/reportajes/tecnologia/tof-3d-apunta-nombre-porque-cada-vez-moviles-traeran-camaras-371933)
Ya hemos visto las ventajas del TOF en fotografía móvil, pero… ¿un solo sensor para eso? No. Y es que, Vivo, que ya implementó el TOF en el Vivo Apex que nos dejó sorprendidos en el Mobile World Congress 2019, anunció hace unos meses que su tecnología TOF en un sensor frontal superaría al FaceID de Apple introducido en el iPhone X.

Y es que, el sensor TOF podría realizar 300.000 puntos de luz sobre nuestro rostro a una distancia de tres metros, muy superior, en todos los sentidos, a FaceID. El objetivo sería crear un molde 3D de nuestro rostro para generar una imagen única y, así, desbloquear el teléfono.

Sin embargo, el TOF puede tener otros usos, cómo mejorar la experiencia de la realidad aumentada o permitir controlar el móvil con gestos ‘’en el aire’’. ¿Será esa la sorpresa ‘’mágica’’ que tiene preparada LG para el MWC 2019?

Está claro que el TOF traerá a los móviles una serie de ventajas, pero ahora falta que se pula el software y que los procesadores, sean capaces de realizar todas las operaciones necesarias en el menor tiempo posible.

Todas las ALARMAS se disparón cuando en el Foro de XDA un usuario ALERTO de que el Sensor ToF de Huawei en P30 Pro "no estaba activo" de hecho, en la WEB oficial de Huawei, ya estaba avisado (o sea que tampoco es una labor de investigación ni de I+D que en numeros romanos para algunos suma 501) y ya ni te cuento, la rayada en foros, que pese a que el Fabricante = Huawei, los YoUtuber´s, los Hater y los Fanboy´s se han lanzado en una Santa Cruzada a espadazos, con pruebas de tapar objetivos negar/afirmar que si/no funciona... y todo sin tener muy claro ¿que es ToF y para que es ToF? y que pasa cuando funciona...

¿Es ToF el TOP de la vanguardia fotográfica en 2019?
Pues va a ser que no, que ya lleva al menos 5 años dando guerra

Corría el año 2017;
Cómo funciona Google Tango: Probamos la cámara ToF del Lenovo Phab 2 Pro (https://www.androidpit.es/google-tango-camara-time-of-flight-lenovo-phab-2-pro)
Lenovo ha lanzado el Phab 2 Pro, el primer smartphone del mercado certificado con Google Tango, una cámara Time-of-Flight que registra un mapa de profundidad. Hemos echado un vistazo a las posibilidades de esta tecnología y a algunas de las aplicaciones que se pueden utilizar.

La primera señal de vida del proyecto Tango ya existía a principios de 2014, cuando Google presentó su Peanut Phone y luego su Yellowstone Tablet, aunque ambos estaban dirigidos solo a desarrolladores.

Marketing
La miniaturización ha permitido llevar la cámara TOF a smartphones como el Huawei P30 Pro o el Honor View 20. Huawei usa propio el término TOF en su marketing (https://www.elgrupoinformatico.com/que-como-funciona-camara-tof-los-smartphones-t73416.html), mientras Samsung prefiere emplear "sensor 3D" y LG opta por "cámara Z", pero tecnología básica funciona igual en todos ellos.
Ahora sabemos qué es una cámara TOF, pero queda detallar cómo funciona el proceso por el que mide la profundidad y permite crear un mapa 3D del entorno. Estos son los pasos básicos:

Un emisor de infrarrojos (LED o láser) envía un pulso de luz no visible, que impacta en los objetos a fotografiar.
La luz infrarroja "rebota" y vuelve a la cámara, pero no lo hace al mismo tiempo, los objetos más lejanos tardan un poco más que los cercanos.
Una óptica y un sensor similares a los de una cámara estándar reciben la luz emitida.
El retraso entre los objetos más lejanos y cercanos permite procesar la imagen para calcular la profundidad de cada elemento.
En el caso de los smartphones, se puede combinar este mapa 3D de la escena con la imagen de otra cámara, y aplicar efectos sobre ella.

¿Para qué sirve la cámara TOF?
Ya sabemos qué es sensor 3D time-of-flight y cómo funciona, pero su utilidad resulta poco clara si no la ponemos un contexto. En realidad, los posibles usos son muchos, veamos algunos:

Fotografías con fondo difuminado, para mejorar el efecto bokeh.
Hacer mediciones con el móvil (el largo de una mesa, la estatura de una persona...)
Reconocimiento facial más preciso.
Controlar la pantalla por gestos en el aire como en el LG G8 ThinQ.
Juegos por control de movimiento, al estilo de Kinect o la antigua Nintendo Wii.
Diversas funciones de realidad aumentada.

Huawei P30 Pro y ToF por el elandroidelibre (https://elandroidelibre.elespanol.com/2019/04/trucos-camara-huawei-p30-pro.html)
Lo más llamativo del Huawei P30 Pro es que incorpora un sensor ToF que, en teoría, hace que el desenfoque sea mejor que en modelos anteriores. Algunos usuarios han recriminado a Huawei que este sensor no funcione, habiendo hecho las pruebas en modo retrato.

En efecto, si usamos este modo en la aplicación de cámara de este terminal no se activa el ToF, pero sí que lo hace cuando usamos el modo Apertura. Nosotros hemos probado a tapar el ToF y hacer una foto y luego hacer la misma sin taparlo y hemos visto cómo en el primer caso no hay mapa de profundidad, por lo que el terminal, por ejemplo no puede reenfocar. Además, en el modo Apertura, si tapamos el ToF nos salta un aviso para que no cubramos la lente.

Así pues, si queréis un bokeh más natural usad el modo Apertura, y si queréis modo belleza y desenfoque a la vez, usad el modo Retrato.

Si optamos por la primera opción tenéis que saber que podemos irnos a la galería, seleccionar una foto tomada con modo Apertura y pulsar en el icono del obturador. Eso nos permitirá tocar en cualquier punto de la foto para que sea esa la zona a enfocar, dejando el resto con bokeh.

Lo_ko80
14/05/19, 09:38:40
Muchísimas gracias por el curro que te has pegado, para darnos info sobre este sistema.

Vdap18
14/05/19, 10:46:23
Estimado, estuve haciendo pruebas, en mi caso tengo la actualizacion 153, y al tapar el tof, no aparece en ningun lado la leyenda de que la lente esta tapada y segundo, no hay diferencia en el modo apertura con tof y con tof tapado....

jcontanaya
14/05/19, 15:57:35
En el p20pro creo recordar que si hacía una foto en el modo retrato tampoco podía "reenfocar" y en el modo apertura sí... así que no creo que eso implique que el dispositivo esté usando el TOF (el p20pro no tiene jijiji).

ll0r3nt3
14/05/19, 20:24:12
ha puesto 2009 en vez de 2019

Lonytony
14/05/19, 22:16:17
Esto lo esta usando el iPhone xs desde ya.... medición de objetos mas precisa, apps que te crean un reader de tu cara en segundos incluso puedes aplicarles fotos de luz..gratuita, y en el modo retrato las múltiples capas que ya hace tiempo cuelgas en Facebook fotos en 3d con el iPhone se nota que ni se acerca al modo retrato del iPhone, con diversas apps en el iPhone puedes ver crea millones de puntos para indicarte la precisión del enfoque manual, algo increíble.

Con esto quiero decir, que esta tecnología esta ya madura en iPhone y en iOS desde hace tiempo, simplemente no se comenta tanto... va incluida en el sensor de la propia cámara pero en vez de infrarrojos que a plena luz no son nada buenos, usa láser, que es mucho mas efectivo.

Conclusion, debido a la moda de los nuevos sensores, que con el cuento del "modo noche. nos están colando sensores que interpolan pixeles como antaño, con otro uso eso si.. pero debido al pequeño tamaño de los fotodiodos se ven obligados a incluirlo a parte vendiéndolo como una camara mas..

No va a suponer ninguna novedad, no la esta suponiendo ahora, y no la supondrá una vez mas en este maravilloso sistema operativo sin padre ni madre, yo no me haría, pajas mentales el modo retrato del p30 es igual que cualquier otro por software, nada que ver con el del iPhone.

kohai
15/05/19, 07:35:35
Unos comentarios:

-no se entiende nada de tu primer párrafo.
-estás mezclando cosas que no son lo mismo: el autofocus que es de lo que tú hablas con un sensor de profundidad de campo. La cámara frontal del faceid con el sensor tof trasero del p30 pro.

Si lo que vienes es a decir que el iPhone es lo mejor y el resto caca... Pues dilo directamente y menos rollo y así metes menos la pata.

Lonytony
15/05/19, 13:39:07
Unos comentarios:

-no se entiende nada de tu primer párrafo.
-estás mezclando cosas que no son lo mismo: el autofocus que es de lo que tú hablas con un sensor de profundidad de campo. La cámara frontal del faceid con el sensor tof trasero del p30 pro.

Si lo que vienes es a decir que el iPhone es lo mejor y el resto caca... Pues dilo directamente y menos rollo y así metes menos la pata.

Si lees bien vengo a decir que en apple hace mucho desde que salió el modo retrato que usa el sensor de l cámara con el llamado focus pixel que es exactamente lo mismo pero en el caso del iPhone sobre la escena dividiendo en capas... también usa un sensor de profundidad utilizando los propios píxeles del sensor y usando luz láser que es más efectiva y moderna, so defecto los reflejos..

Luego en la cámara delantera eso que comentan de renderizar un rostro en 3d para aplicar diferentes efectos o el mismo desbloqueo hay una app gratuita en la store donde renderizas tu cara en 3d y con más de 300 mil puntos... donde ves cómo funciona un reconocimiento facial en 3d... es decir lo que pone ahí lo hace el iPhone ya... y perfecto vamos.. que con bellus 3d te hace un tender en segundo con más resolución que muchas cámaras delanteras.. usando un sensor igual más la cámara más un excelente software que difilcente veras en android ya que cada fabricante se va inventando la solución y poniéndole nombres raros...

Lonytony
15/05/19, 13:57:16
Vamos que están vendiendo la tecnología del iPhone 6 meses después como si fuese algo nueva, y repito en la trasera igual.. aquí un ejemplo de cómo tendería Liza una cara el Face ID del iPhone incluso lo de los 300.000 puntos está sacado de la información de apple, vamos que es una información que da la risa... y más cuando el sensor está a parte... de ahí el problema de que no funcione como debiera..

Esto lo he echo yo en una habitación con poca luz y tirado en la cama, evidentemente está a baja resolución en el móvil se ven hasta los poros de la piel, es lo mismo que aquí se explica solo que ya está funcionando y también... determina el modo retrato.

https://youtu.be/qlNdIkzMbyQ

Para probar las capas que capta el sensor para simular una óptica con diferentes distancias focales, es muy sencillo.... se cogen unas 10 latas de refresco se ponen en fila india pero que no se tapen unas con otra se saca una foto o se comprueba variando la profundidad de campo en sus diferentes valores, y se observa si va enfocando lata tras lata o va por distancias predefinidas lo que indica que no mide las capas por distancia si no que aplica un algoritmo para simular el resultado.

No obstante un sensor tof es un apaño para algo que debería de hacer el principal, y menos preciso estando desplazado.

edgararjona
16/05/19, 16:11:57
Hoy recibí la actualización 153 desde la 123 porque nunca me llegó la 140 entonces al terminar de actualizar lo primero que fui a revisar era el lente TOF y tomé una foto en modo apertura una con el tof tapado y otro sin tapar y la foto sale identica y no me sale ningun mensaje sobre de que tengo el lente tapado.
Entonces en que versión de firmware es que activarán el lente tof?

kohai
16/05/19, 16:14:14
Vamos que están vendiendo la tecnología del iPhone 6 meses después como si fuese algo nueva, y repito en la trasera igual.. aquí un ejemplo de cómo tendería Liza una cara el Face ID del iPhone incluso lo de los 300.000 puntos está sacado de la información de apple, vamos que es una información que da la risa... y más cuando el sensor está a parte... de ahí el problema de que no funcione como debiera..

Esto lo he echo yo en una habitación con poca luz y tirado en la cama, evidentemente está a baja resolución en el móvil se ven hasta los poros de la piel, es lo mismo que aquí se explica solo que ya está funcionando y también... determina el modo retrato.

https://youtu.be/qlNdIkzMbyQ

Para probar las capas que capta el sensor para simular una óptica con diferentes distancias focales, es muy sencillo.... se cogen unas 10 latas de refresco se ponen en fila india pero que no se tapen unas con otra se saca una foto o se comprueba variando la profundidad de campo en sus diferentes valores, y se observa si va enfocando lata tras lata o va por distancias predefinidas lo que indica que no mide las capas por distancia si no que aplica un algoritmo para simular el resultado.

No obstante un sensor tof es un apaño para algo que debería de hacer el principal, y menos preciso estando desplazado.

Hola de nuevo:

Te cuento, el P30 PRO también tiene "focus pixels" (todo el resto del mundo lo llama PDAF pero Apple tiene que darle su nombre) y también tiene enfoque asistido por laser...así que por ahí no van los tiros.

El FaceId y el ToF son cosas/tecnologías muy distintas, con usos diferentes y te empeñas en compararlas. A ver como usas el FaceId para hacer una foto de una habitación...lo haces y nos lo cuentas (y no, con el ToF no se hacen renders de caras como se hace con el FaceId, insisto: son cosas distintas con finalidades distintas).

Insistes en criticar algo que no tiene el Iphone, comparándolo con otras cosas que tiene el Iphone y creo que sin tener muy claro que es lo que estás criticando.

Lonytony
16/05/19, 17:49:02
Hola de nuevo:

Te cuento, el P30 PRO también tiene "focus pixels" (todo el resto del mundo lo llama PDAF pero Apple tiene que darle su nombre) y también tiene enfoque asistido por laser...así que por ahí no van los tiros.

El FaceId y el ToF son cosas/tecnologías muy distintas, con usos diferentes y te empeñas en compararlas. A ver como usas el FaceId para hacer una foto de una habitación...lo haces y nos lo cuentas (y no, con el ToF no se hacen renders de caras como se hace con el FaceId, insisto: son cosas distintas con finalidades distintas).

Insistes en criticar algo que no tiene el Iphone, comparándolo con otras cosas que tiene el Iphone y creo que sin tener muy claro que es lo que estás criticando.

No, no lo critico, simplemente especulo que estas soluciones para android tienen que llegar a un consenso entre fabricantes para que se hagan estándar y se les saque partido, por otro lado, usar un sensor para detección de capas basado en infrarrojos es un poco estupido, ya que son vulnerables a La Luz.. en situaciones de poca Luz son lo suyo, y con Luz de día solo actuarían a una muy corta distancia, por lo tanto en la cámara trasera el iPhone que incorpora esa tecnología y no hablo del enfoque por pixel aunque está relacionado, es decir lo que captan los píxeles esa información el DSP lo puede traducir en diferente información, cantidad de Luz distancia etc... y el iPhone que ya la usa tiene una peculiaridad con su modo retrato debido precisamente a lo que comento, y es la distancia... el móvil te avisa de que distancia es necesaria para un modo retrato, mínima y máxima... si no la respetas simplemente no te deja manipular la profundidad de campo....

Al margen de iPhones y haweys, quiero decir que cuando ese sensor se utilice para ese fin adecuadamente el móvil detectará la distancia e indicará al usuario si está muy cerca... o muy lejos... ya que para el uso de esa tecnología tiene que tener en cuenta el motivo a retratar y la distancia.

Y especuló, no sé exactamente qué sistema usa apple pero infrarrojos no, en la cámara trasera... quizás el propio focus pixels... el iPhone hay que tener en cuenta que solo utiliza un SO y un hardware es posible que el DSP que lleve esté pensado para interpretar esa información y dividir por capas la imagen.... la doble óptica influirá.... pero no tanto pienso yo....especuló porque apple es muy cerrada para dar specs... ellos solo hablan de resultados que por otro lado está bien.