¿QUÉ ES LA FOTOGRAFÍA COMPUTACIONAL?
Esta se refiere a la creación de imágenes desde la cámara a través de computación digital con software/algoritmos e inteligencia artificial. Es un proceso que se realiza antes, durante y después de tomar una fotografía.
Antes*: desde el momento en el que abrimos la aplicación de la cámara nuestro celular ya está tomando fotografías/video para darnos una vista previa en la pantalla. Esta información es utilizada para generar la imagen final.
Durante: el celular obviamente no puede generar información donde no existe y por lo tanto la base para la fotografía computacional son las fotografías que tomamos.
Después*: el celular continúa guardando información (fotografías) después de haber tomado una fotografía, y posteriormente utiliza toda la información generada para mejorar la imagen a partir de algoritmos y así ofrecer el producto final.
*Los iPhone aprovechan la información generada antes y después de la toma de una fotografía para ofrecer la opción de Live Photos.
El término excluye procesos básicos que todas cámaras deben realizar en fotografías individuales, tales como la interpolación cromática para obtener una imagen a color, manejo de color, cambios en las dimensiones de la fotografía y la conversión de la información a un archivo JPEG entre otros.
FOTOGRAFÍA ÉPSILON
Dentro de la fotografía computacional existe una subcategoría denominada épsilon, que es la que utiliza varias imágenes (cada una con pequeñas variaciones llamadas épsilon de parámetros como tiempo, exposición, enfoque, posición y/o iluminación) para generar información desde diferentes perspectivas (algo así como armar un rompecabezas) para así reconstruir la escena en tiempo real y ofrecer una imagen final. Algunos de los resultados* que podemos obtener a través de este tipo de fotografía son los panoramas, HDR, reducciones de ruido y de movimiento, así como la creación de fotografías con mayor resolución, mejor latitud/rango dinámico y menor profundidad de campo.
*Uno de los más famosos es la reciente imagen del agujero negro de la galaxia M87. Aunque en este caso no es una fotografía propiamente dicha (los telescopios no registraron luz visible sino ondas de radio), los principios detrás de su creación se clasifican dentro de la fotografía computacional (“computational imaging” de una manera más adecuada, pero el término es un poco difícil de traducir).
Aunque el corazón de la fotografía épsilon está en el software, los resultados son posibles gracias a la presencia de varias cámaras y sensores en los celulares. Algunos ejemplos son las cámaras con distintas longitudes focales, cámaras/sensores monocromáticos que mejoran la calidad de las fotografías en situaciones de poca luz y los sensores llamados “tiempos de vuelo” (o ToF por sus siglas en inglés), los cuales generan la información necesaria para simular efectos de poca profundidad de campo.
Por cierto, la fotografía de la izquierda en la entrada anterior fue tomada con un iPhone 8 Plus, mientras que la de la derecha fue tomada con una Nikon D300s. Aunque hay una clave que las diferencia (profundidad de campo), en general la calidad de ambas es prácticamente igual a la resolución presentada. Ciertamente las condiciones bajo las cuales se tomaron las fotografías no son extremas, pero aún así podemos apreciar la eficacia de la fotografía computacional, aun con tecnología del 2017 (el año en el que salió esa versión del iPhone).