Los ingenieros de Apple revelan más detalles del diseño de la cámara del iPhone 12 en una nueva entrevista

En una nueva entrevista con PetaPíxeles, La gerente de línea de productos de Apple, iPhone Francesca Sweet y el vicepresidente de ingeniería de software de cámaras, Jon McCormack, compartieron cómo Apple ha abordado el diseño de las cámaras del iPhone. Una entrevista en la que revela la visión de la empresa sobre el diseño y la filosofía detrás del desarrollo de las cámaras de los cuales los del nuevo iPhone 12 Pro Max son su máximo exponente.

Más que la suma de sus partes

Lo primero que hay que reseñar de la entrevista es que ambos ejecutivos coinciden en que Apple ve la cámara como algo holístico. No son solo vasos. Junto con el procesador, el chip neuronal, el SiP (procesamiento de imagen de señal) y el software detrás de la fotografía computacional todos los elementos forman una unidad que trabaja en conjunto para ofrecer las mejores imágenes posibles.

Para Apple, el objetivo último de las cámaras es que podamos capturar esos momentos de nuestras vidas que nos importan sin tener que distraerse con la tecnología. McCormack lo expresa así:

Como fotógrafos, tendemos a pensar mucho en cosas como ISO, movimiento del sujeto, etc. Y Apple quiere eliminar eso para permitir que la gente permanezca en el momento, tome una gran foto y vuelva a lo que está haciendo. .

Captura de pantalla 2020 11 10 At 9 02 10

Los fotógrafos profesionales, en general, querrán tomar la foto y luego editarla convenientemente. Según McCormack, Apple quiere reducir este proceso a una sola acción, la de tomar la fotografía.

Reproducimos tanto como podemos lo que haría el fotógrafo. Hay dos lados para tomar una foto: la exposición y cómo la revelas después. Usamos mucho la fotografía computacional en exhibición, pero cada vez más en postproducción y lo hacemos automáticamente por ti. El objetivo de esto es hacer fotografías que parezcan más fieles a la vida, para replicar cómo era estar realmente allí.

El nuevo iPhone 12s duplica la cantidad de núcleos en el chip neuronal. Así, el A14 Bionic permite a Apple aplicar el aprendizaje automático para interpretar la escena y separarla en partes que se comprendan mejor.

El fondo, el primer plano, los ojos, los labios, el cabello, la piel, la ropa, el cielo. Procesamos todo esto de forma independiente como lo haría en Lightroom con un montón de ajustes locales. Ajustamos todo, desde la exposición, el contraste y la saturación, y los combinamos todos.

Captura de pantalla 2020 11 10 At 9 01 42

Un exponente de esta tecnología es el Smart HDR que con el iPhone 12 llega a la versión 3. En esta versión, como hemos visto en algunos análisis, los cielos son notablemente mejores ya que se aíslan y se tratan de forma independiente y luego se vuelven a colocar en su lugar. El resultado es un cielo mucho más cercano a la realidad.

Otro es la capacidad de comprender la comida. Cuando tomamos una foto de un plato nuestro iPhone es capaz de entender de qué se trata y saber cómo debería verse es capaz de optimizar el color y la saturación para que sean lo más realistas posible.

JustStream, transmisión de contenido llevada a otro nivel: la aplicación de la semana

En los últimos años parece que todos llevamos una cámara profesional en el bolsillo. Profesional entre comillas, porque las limitaciones físicas de espacio, apertura, componentes, hacen que las cámaras móviles prácticamente hayan alcanzado su techo, pero el software, por así decirlo, aún está comenzando. El enfoque de Apple hacia la fotografía computacional, junto con el rendimiento del A14 Bionic del iPhone 12, describe hacia dónde apunta la fotografía móvil: una gran foto con un clic.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *