Que es y como funciona el sensor LiDAR en el nuevo iPhone 12 Pro
Con el reciente anuncio de los nuevos iPhones, obtuvimos una gran cantidad de novedades fotográficas, específicamente los modelos Pro, que incluyen ópticas mejoradas y software multifunción para los fotógrafos más dedicados.
Sin embargo, de todas estas novedades, probablemente una de las más llamativas sea el sensor LiDAR (o Lidar) que viene en estos equipos. Ahora bien, a priori puede parecer una forma más de potenciar el modo retrato del teléfono, pero lo cierto es que es un sistema bastante interesante.
Por ello, a continuación veremos cómo funciona y cómo el nuevo iPhone aprovechará este sensor para el área de la fotografía. Empecemos:
¿Qué es LiDAR?
Para empezar, quizás sea importante mencionar que el Lidar tiene diversas aplicaciones en otras industrias o áreas de trabajo, por ejemplo, para realizar estudios topológicos, estudios geológicos, vehículos autónomos e incluso en videojuegos, donde en ocasiones es utilizado por los estudios para poder recrear con mayor fidelidad los diferentes circuitos que componen un juego de carreras.
Pero bueno, ahora vayamos al grano.
El nombre Lidar es bastante curioso, porque en un principio se tomaba como una mezcla de las palabras light y radar en inglés, pero ahora se entiende como un acrónimo de Detección y rango de luz los Imágenes, detección y rango láser. Lo importante de esto es que por su nombre podemos saber exactamente qué hace esta tecnología.
En palabras simples, Lidar es un dispositivo que se utiliza para medir distancias mediante el uso de un rayo de luz o láser. El funcionamiento es relativamente sencillo, ya que consiste en la emisión de este láser, y la medición se realiza en función del tiempo que tarda en volver a su origen.
La medición, por supuesto, es extremadamente rápida. Tanto es así que, para nosotros, es prácticamente instantáneo, gracias a que estamos trabajando con luz, que es la partícula más rápida del universo. Se sabe que se mueve a una velocidad relativamente constante de aproximadamente 300.000 kilómetros por segundo.
Son varios láseres disparados al mismo tiempo, de forma continua o varias veces por segundo, para cubrir la mayor superficie posible, y obviamente también funciona cuando tenemos poca o ninguna luz disponible.
Ahora, ¿Es lo mismo que un sensor de tiempo de vuelo (ToF) que usan algunos teléfonos? No, Los ToF normalmente usan un solo haz de luz para realizar la medición, por lo tanto, se usa para capturar o medir algo más generalizado y no es tan preciso como un Lidar.
Además, el verdadero potencial de Lidar, y para el que se utiliza en muchas áreas e industrias, es que permite construir un mapa tridimensional de la superficie que se mide.
Este láser no es visible para el ojo humano y tiene una cantidad de energía suficiente para que no cause daño a los ojos por su exposición (como si pudiera ocurrir con los láseres rojos o verdes). Las longitudes de onda utilizadas son del orden de 1500 nanómetros aproximadamente, es decir, se acercan más al infrarrojo.
Obviamente, Lidar es mucho más complejo de lo que se explica aquí, pero para el propósito de este artículo, es suficiente. Ahora, veamos cómo Apple planea usarlo en los nuevos iPhones.
¿Cómo funciona en iPhones?
El iPhone 12 Pro no es el primer dispositivo de Apple que tiene este sensor, de hecho, el título lo toma la versión más reciente del iPad Pro, presentada hace unos años. muchos años hace 6 meses.
El propósito de LiDAR en el iPad Pro fue principalmente para mejorar aún más el ecosistema de realidad aumentada – ARKit – que Apple ha estado construyendo durante los últimos años. Desde aplicaciones para realizar mediciones, pasando por servicios de RA para ver cómo se ve un determinado mueble que queremos comprar, incluso videojuegos, como es el caso de Minecraft Earth.
Para el iPhone 12 Pro, Lidar tendrá el trabajo adicional de soportar la cámara en diversas situaciones que lo requieran.
El ejemplo más obvio es el modo retrato. Con la precisión que ofrece el Lidar, el teléfono podrá detectar mejor los bordes, lo que dará como resultado un efecto de desenfoque / bokeh mucho más similar a lo que puede ofrecer una cámara réflex con una lente ideal para capturar retratos.
Otro beneficiario es la fotografía nocturna. Además de que el modo retrato ahora puede funcionar junto con el modo nocturno, el Lidar también servirá como soporte para el sistema de enfoque automático, que, según Apple, ahora hasta seis veces más rápido en situaciones de poca luz. Estas mejoras, por supuesto, se mejoran en parte gracias al nuevo procesador A14 Bionic y a iOS 14.
Habiendo dicho ésto, de momento solo queda ver cómo funciona este sensor en el nuevo iPhone 12 Proy compruebe si realmente marca la diferencia en comparación con los modelos anteriores. Este, en cualquier caso, será uno de los principales focos que tendremos en cuenta a la hora de analizar estos dispositivos.