Ver Mensaje Individual
  #12  
Viejo 06/04/20, 13:48:39
Array

[xs_avatar]
Areatza Areatza no está en línea
Usuario muy activo
 
Fecha de registro: abr 2019
Mensajes: 1,943
Modelo de smartphone: Galaxy Z Flip/ Ultra SD
Tu operador: Lowi
NOTICIAS Sensores LiDAR vs. 3D ToF — Cómo Apple está haciendo que la realidad aumentada sea mejor para los teléfonos inteligentes
Apple ha implementado un nuevo sensor en la cámara trasera de su iPad Pro de cuarta generación,y es bastante emocionante. Se llama el escáner LiDAR, un sensor de escaneo "detección de luz y rango", y es muy posible que esté familiarizado con él si sigue cualquier noticia del coche sin conductor. También lo conseguiremos en el próximo iPhone 12 Pro?

En primer lugar, un LiDAR es un sensor que utiliza láseres para crear un radar que examina el medio ambiente y mide con precisión la distancia. Y si eso suena familiar, es porque los teléfonos Android en los últimos años han estado incluyendo sensores de tiempo de vuelo 3D en sus cámaras, un tipo de LiDAR sin escáner.

Tanto los escáneres LiDAR como los LiDAR sin escáneres como los sensores 3D ToF utilizan la luz y la técnica de tiempo de vuelo para medir la distancia. Aún así, el tipo de escáner será más preciso ya que utiliza múltiples pulsos láser en comparación con un pulso láser flash grande.

Compra en Amazon para la 4a generación de iPad Pro de 12,9" y iPad Pro 11"
Para los teléfonos Android con el componente 3D ToF, han visto mejoras considerables en las fotos en modo vertical de realidad aumentada (AR) y estilo bokeh. Samsung ha hecho un enorme empujón para incluir estos sensores en sus teléfonos inteligentes, y el Galaxy Note 10+, Galaxy S20+ y Galaxy S20 Ultra todos tienen uno.

Mientras que el iPhone 12 Pro y 12 Pro Max probablemente incluirán un escáner LiDAR, ¿por qué Apple opta por un componente más caro? Bueno, las tecnologías son muy similares, pero la forma en que capturan información 3D es diferente. TLDR: El método de Apple es mejor.

LiDAR Scanning vs. Scannerless 3D ToF

Un escáner LiDAR y un sensor de tiempo de vuelo 3D, en su núcleo, son lo mismo. Ambos son sensores basados en láser que utilizan el tiempo de vuelo para determinar las distancias de objetos lejanos. Usando láseres infrarrojos (IR), miden el tiempo que tarda la luz en rebotar de los objetos en el entorno capturado.

Con algoritmos sofisticados, estos sensores pueden ayudar a crear una nube de puntos 3D del área circundante. A continuación, el smartphone puede transmitir la información a aplicaciones de primera y de terceros. Esos datos pueden ayudar a determinar mejor la profundidad de campo en las fotos, por ejemplo. ¿Otro? Ayuda a crear una experiencia de realidad aumentada más precisa e inmersiva, que coloca y gestiona objetos artificiales en cualquier escenario del mundo real al que apunte la lente de la cámara.

Las diferencias están en la forma en que ambos sensores capturan información 3D.

Los teléfonos Android utilizan sistemas LiDAR sin escáner basados en flash. Estos sistemas, como DepthVision de Samsung, iluminan el área con un solo pulso de luz IR (por lo que no la ves). Todos los reflejos rebotados en objetos de la escena vuelven al sensor donde se analizan y se crea un mapa 3D. Los sensores que utilizan este método son más baratos de fabricar, por lo que ha visto el reciente aumento de su inclusión en los teléfonos inteligentes.


Samsung Galaxy S20 Ultra y Galaxy Note 10+. Imagen de Jon Knight/Gadget Hacks
El nuevo iPad Pro 2020 (y con suerte, los próximos modelos de iPhone 12 Pro) utilizan un sistema LiDAR de escaneo. En lugar de un solo pulso de flash, envía un pulso más pequeño en un área y utiliza el tiempo de vuelo para determinar la distancia. A continuación, mueve la luz alrededor del resto del entorno a "velocidades de nanosegundos" para capturar el resto del entorno.

Dado que los LiDAR giratorios son voluminosos y vulnerables a las vibraciones externas, Apple utiliza un LiDAR de estado sólido, un tipo sin piezas móviles. Actualmente hay dos métodos que Apple puede utilizar: MEMS (sistemas microelectromecánicos) u OPA (matriz por fases ópticas).

Los escáneres basados en MEMS utilizan microespejos para controlar la dirección de la emisión y el enfoque. Los basados en OPA utilizan emisores ópticos para enviar ráfagas de partículas de luz en un patrón específico para crear emisiones direccionales. El tamaño y el enfoque de la emisión pueden ser modificados por el sistema para obtener cada punto del entorno.

No sabemos qué método utiliza Apple ya que no liberó información sobre eso, pero por el bien de compararlo con el sensor 3D ToF, las ventajas son casi las mismas.


Faruk �� ᴵᴾᴴᴼᴺᴱᴰᴼ @iphonedo
Here is iPad Pro’s LiDAR under infrared.
Embedded video

4,310
9:03 AM - Mar 26, 2020 · Los Angeles, CA
Twitter Ads info and privacy

937 people are talking about this

Ventajas del método de Apple

Cuando se emite la luz, no son sólo los reflejos previstos los que llegan de vuelta. En su lugar, los sensores recibirán reflejos indirectos, reflejos fuera de ángulo y múltiples reflejos causados por el medio ambiente.

Mientras que los algoritmos ayudan a minimizar la relación señal-ruido de la luz reflejada, estas complicaciones se vuelven más difíciles de calcular, especialmente cuando se utiliza un solo destello de luz que recibe todas las reflexiones al mismo tiempo. El resultado con un solo pulso láser flash es que las distancias se pueden medir erróneamente, a menudo a una mayor profundidad de lo que realmente son, perturbando la inmersión de AR y alterando la precisión de los efectos bokeh en fotos y videos.

Es por eso que un síntoma LiDAR de escaneo, como el escáner LiDAR de Apple, es una mejora con respecto a los sensores 3D ToF. El escáner LiDAR mapea el área punto por punto, minimizando el ruido recibido y, por lo tanto, dando como resultado una lectura más precisa y una nube de puntos 3D.


Imagen a través de Apple
Los sensores 3D ToF utilizados en teléfonos inteligentes Android también son vulnerables a la luz reflejada desde una superficie especular, una superficie plana que crea un reflejo similar a un espejo.

Otra cosa a considerar con LiDAR es hasta dónde puede medir. El lanzamiento inicial de la tecnología de Apple está limitado a cinco metros, el mismo que la mayoría de los sensores 3D ToF. Sin embargo, los LiDAR basados en puntos pueden alcanzar distancias aún mayores que los LIDAR sin escáner, por lo que en el futuro, podríamos ver a Apple superando a su competencia en el rango.
Responder Con Cita