La "fotografía computacional" ha sido la palabra de moda para las cámaras de los teléfonos inteligentes en los últimos años, y cada vez se oye decir más a los colegas de los medios tecnológicos que el software de la cámara es rotundamente más importante que el hardware en la fotografía móvil.
Aunque no pretendemos desestimar la importancia del software en la fotografía móvil, ni siquiera argumentar que el software es menos importante, sí vamos a defender que el hardware de la cámara sigue siendo muy importante a la hora de separar las cámaras realmente buenas de las que simplemente son muy buenas.
¿Quién inició la tendencia?
La expresión "fotografía computacional" existe desde antes de la era de los smartphones se refiere a capturar imágenes digitalmente en lugar de usar película, pero realmente se convirtió en una frase de moda en los últimos cinco años, más o menos cuando el Google Pixel empezó a acaparar titulares por la destreza de su cámara. Utilizando técnicas como las imágenes multipila (que Google bautizó como HDR+) y el aprendizaje automático en tiempo real, los primeros teléfonos Pixel fueron capaces de capturar fotos con un rango dinámico asombroso, generar prácticamente luz en escenas demasiado oscuras para el ojo humano y un bokeh artificial convincente en comparación con sus homólogos.
Muestras fotográficas de Google que muestran el rendimiento de la fotografía nocturna del Pixel 3 (derecha) frente a, supuestamente, el iPhone Xs (izquierda).Sin embargo, no debemos pensar erróneamente que Google inventó la fotografía computacional en los smartphones. Todos y cada uno de los smartphones con cámara de la historia utilizaban algún tipo de fotografía computacional por definición, porque producían imágenes digitales. De hecho, en 2015, muchos especialistas en fotografía digital ya se habían planteado si el hardware o el software de la cámara era más importante; en aquel momento, el debate era el enfoque de software de Samsung frente a la búsqueda de hardware de LG.
Google, por supuesto, llevaría ese debate a la corriente dominante un año más tarde, y encabezaría el argumento de que el software era más importante. Y durante unos años, eso fue probablemente cierto, ya que los tres primeros Pixel fueron por consenso los teléfonos con mejor cámara del mercado.
El auge del aprendizaje automático y una diferencia de filosofía
Aunque los primeros teléfonos Pixel no vendieron muchas unidades en relación con los iPhones y los Samsung Galaxy del mundo, los elogios unánimes a las cámaras de los Pixel llamaron la atención de todo el mundo, y en los años siguientes, el lanzamiento de teléfonos de todas las marcas comenzó a dedicar más tiempo a promocionar sus proezas fotográficas computacionales. Es interesante volver a ver los eventos de lanzamiento de las series iPhone 6 y 6S de 2014 y 2015 y ver cómo Phil Schiller, ejecutivo de Apple, dedica solo unos segundos de discurso al procesamiento de imágenes por software de esos teléfonos. El tiempo dedicado a hablar sobre el procesamiento de imágenes del iPhone aumentaría significativamente en 2016 y 2017. En el lanzamiento de la serie iPhone 11 de 2019, Schiller dedicó más de cinco minutos a hablar de la tecnología de fotografía computacional "DeepFusion" de Apple.
Mientras que Samsung y marcas chinas como Huawei, Xiaomi y OnePlus también trabajaron en, y comercializaron, su destreza de software de procesamiento de imágenes, estas marcas generalmente estaban ansiosas por perseguir el nuevo hardware que Apple o Google. Si esto fue una pura coincidencia o una declaración sobre las diferencias entre la cultura oriental y occidental es un debate para otro día. Pero a finales de la década pasada surgió una narrativa: Las marcas asiáticas están ansiosas por conseguir hardware llamativo, como más cámaras y más píxeles. Por el contrario, las marcas occidentales (Apple y Google) se centraron en optimizar la experiencia de software y utilizar el aprendizaje automático para superar cualquier deficiencia en la óptica.
Esta división en la filosofía fue quizás más notable entre 2018 y 2019, cuando las marcas de teléfonos asiáticas estaban introduciendo terceras e incluso cuartas cámaras traseras y participando en una carrera armamentística de megapíxeles, mientras que Google se quedó famosamente con una sola cámara en el Pixel 3 de 2018. Tanto Google como Apple también se aferraron a las cámaras de 12MP hasta bien entrada esta década, mientras que las marcas de teléfonos asiáticas flexionaban con cámaras de 48MP, 64MP e incluso 108MP.
El Samsung Galaxy S20 Ultra fue uno de los primeros teléfonos en utilizar una cámara principal de 108MP y un objetivo zoom Periscope.El Pixel se quedó atrás, hasta que el hardware agarró el trono de vuelta
Pero aquí está la cosa, mientras que el Pixel 1 y 2 eran claramente la mejor cámara indiscutible en el mercado, para el lanzamiento del Pixel 3 y 4 a finales de 2018 y 2019, había al menos un debate sólido para tener si los rivales asiáticos como el Huawei Mate 20 Pro y P30 Pro tenían la mejor cámara. Esto fue en un momento en que Huawei perseguía ópticas con más píxeles, y sensores más grandes junto con el lanzamiento de la primera lente de zoom Periscope del mundo (Oppo había bromeado con la tecnología antes, pero Huawei se adelantó a la producción en masa).
Para cuando el Pixel 5 llegó en 2020 (utilizando el mismo hardware de cámara principal que los Pixel 3 y 4), quedó claro que utilizar un hardware de cámara tan anticuado era demasiado incluso para el todopoderoso software de Google. En comparación con los mejores teléfonos insignia de 2020 de Samsung, Huawei y Xiaomi, las fotos del Pixel 5 eran más ruidosas con poca luz, menos detalladas al hacer pixel peeping a escala del 100% y no podían hacer zoom ni de lejos.
Esto significa que, a pesar de todas las maravillas que puede hacer la fotografía computacional, en última instancia sigues necesitando un hardware de cámara relevante. Google se recuperaría y volvería a ocupar el trono de las cámaras en 2021 con la serie Pixel 6, y parte de ello tuvo que ver con el Tensor ISP personalizado. Quizás el factor más importante fue que Google actualizó significativamente el hardware de su cámara. Los teléfonos Pixel 6 adoptaron el sensor GN1 de 50MP que había sido utilizado con gran efecto por Vivo, y el modelo Pro implementó la tecnología de zoom Periscope pionera de Oppo y Huawei.
Apple, al igual que Google, también actualizó significativamente el hardware de la cámara de los iPhones de primer nivel en los últimos dos años, incluido el cambio a una cámara principal de 48MP.
Se puede seguir apostando por el hardware sin descuidar el software
Las marcas asiáticas no cejan en su empeño de mejorar el hardware de sus cámaras. El verano pasado, Xiaomi y Sony presentaron un sensor de cámara de "1 pulgada" llamado IMX989. Aunque el tamaño del sensor en realidad no mide exactamente 1 pulgada (la denominación proviene de antiguas convenciones sobre cámaras), sigue siendo 2,7 veces mayor que el sensor utilizado en el iPhone 13 Pro, que era el iPhone más nuevo disponible para comparar en el momento del evento.
Un sensor de imagen más grande puede captar más información de la imagen y producir una profundidad de campo más realista. El primer teléfono con el IMX989, el Xiaomi 12S Ultra, podía producir imágenes que eran claramente más detalladas, con un rango dinámico más fuerte, que cualquier otro teléfono. Tuvimos el privilegio de probar prácticamente todos los teléfonos insignia lanzados en 2022, y descubrimos al 12S Ultra el teléfono con la mejor cámara de 2022 basándonos en la fuerza de ese sensor de 1 pulgada. No somos el único que piensa así, ya que varios críticos técnicos, conocidos por sus conocimientos sobre cámaras, como Vlad Savov, de Bloomberg, o medios técnicos centrados en las cámaras, como PetaPixel y Digital Camera World, lo aclamaron también como el teléfono con la mejor cámara que han utilizado.
El sensor de imagen no es el único componente de hardware importante. El uso de un conjunto superior de lentes también puede mejorar las imágenes, lo que no debería ser una sorpresa. Los últimos buques insignia de Vivo, por ejemplo, utilizan una lente con revestimiento T de Zeiss, que reduce notablemente los destellos o las zonas brillantes en comparación con otras lentes.
Samsung y la empresa de semiconductores Omnivision, por su parte, han presentado sendos sensores de imagen de 200 megapíxeles que pueden hacer un insano binning de píxeles de 16 en 1. Según rumores fiables, el próximo Galaxy S23 Ultra utilizará un sensor con esta densidad de píxeles.
Sin embargo, sería inexacto decir que las marcas asiáticas se limitan a perseguir ciegamente las especificaciones. Es cierto que siguen superando los límites del hardware, pero Samsung, Xiaomi, Oppo y Vivo también han invertido millones en la fotografía computacional a través de sus propios ISP personalizados. Ese sensor de 200 MP, por ejemplo, requerirá mucha fotografía computacional para poder renderizar una imagen de 12,5 MP en tiempo real. Desde el MariSilicon X de Oppo hasta los chips V de Vivo, estas marcas no se limitan a buscar el hardware para conseguir unas especificaciones espectaculares, sino que también se centran en crear un software excelente.
Tal vez dentro de unos años, la importancia del software vuelva a tomar la delantera, ya que las limitaciones físicas del cuerpo de los teléfonos inteligentes acabarán por limitar el tamaño de los componentes de la cámara. Sin embargo, ahora mismo, en 2023, el hardware de la cámara sigue siendo igual de importante.