Latitud de exposición (rango dinámico)

De Wikipedia, la enciclopedia libre
Saltar a: navegación, búsqueda

El rango dinámico de una imagen está determinado por la capacidad de recuperar información de luminosidad que tiene el dispositivo de captura, sea éste un sensor digital o una película fotosensible.

La calidad potencial de una imagen fotográfica no sólo depende de variables como la resolución y el contraste. La resolución tonal y el rango dinámico son también variables determinantes para la calidad de la imagen fotográfica.

Rango dinámico digital[editar]

El factor "espacio entre fotositios" en el sensor[editar]

Es más correcto hablar de espaciado entre ‘píxeles’ que de tamaño porque el tamaño real de las celdillas que capturan luz depende de la superficie del sensor que queda ocupada por dispositivos –circuitos- que procesan la señal luminosa y transportan la carga eléctrica resultante hacia los bordes del mismo. El término fill factor alude precisamente a la proporción efectivamente sensible a la luz del sensor. Tradicionalmente han sido los sensores CCD de tipo “full-frame” (o los “frame-transfer”, muy similares, empleados en cámaras de cine digitales) los que ofrecían mayor superficie sensible a la luz (con un fill factor muy cercano al 100%), si bien los sensores CCD de tipo “interline transfer” y los CMOS han experimentado grandes mejoras en este apartado (los CMOS tienen un fill factor típico de en torno al 60%, con ayuda de microlentes). El progreso de estos dos tipos de sensores está condicionado por los avances en la tecnología de litografía aplicada en su producción, que determina el tamaño de los circuitos, pero también por límites físicos: una reducción del tamaño de los circuitos plantea problemas de recolección y medición de la carga eléctrica generada por las fotocélulas.

La superficie perdida con circuitos puede tratar de recuperarse mediante el uso de microlentes. Las microlentes son microscópicas lupas que corrigen el ángulo de incidencia de la luz, concentrándola en un punto. Permiten recoger luz que caería en las zonas “insensibles” del sensor y redirigirla hacia las zonas sensibles. Además ayudan a resolver otro problema: entre la superficie del sensor y el lugar que ocupa el fotodiodo –que recibe luz y genera una carga eléctrica– hay una distancia (el problema es más serio en los CMOS debido a la presencia de 3, 4 o incluso 5 transistores en cada ‘píxel’). Por decirlo de algún modo, los fotodiodos están en el fondo de un pozo tapado por gruesas capas de filtros translúcidos. La consecuencia es que si la luz incide con un ángulo demasiado inclinado acabará desviándose, perdiéndose entre los filtros o chocando con la pared lateral del pozo. Una forma de aliviar este problema es reducir la gruesa capa de filtros. Pero otra es concentrar y dirigir la luz hacia el fotodiodo.

El problema de las microlentes es que no se adaptan al ángulo de entrada de la luz cuando éste varía, pues son fijas. La abertura del diafragma y la longitud focal, entre otras cosas, modifican aquel ángulo, por lo que microlentes eficientes bajo ciertas condiciones pueden dejar de serlo en otras. Pero la tecnología de microlentes también ha mejorado, permitiendo una reducción del espacio entre ellas y modificando su orientación en función de la posición que ocupan en el sensor (el caso del sensor CCD Kodak de la Leica M8).

La proporción entre señal falsa (ruido) y señal real mejora no sólo reduciendo las causas del ruido, sino también mejorando la eficiencia cuántica y aumentando la cantidad de señal por ‘píxel’ mediante mejores filtros, microlentes y un fill factor mayor (celdas más grandes). Es por tanto lógico que, en efecto, se hayan observado mejoras en la razón señal-ruido (signal-to-noise ratio, SNR), incluso si el espaciado entre los ‘píxeles’ disminuye. Estos avances en la SNR han permitido, entre otras cosas, mejorar la “resolución tonal” (o “variedad tonal”) y el “rango dinámico” (o “latitud de exposición”) de las cámaras digitales, a la vez que se incrementaba la resolución. Este progreso tiene, lógicamente, un límite, pues hay restricciones puramente físicas que no se pueden burlar.

Gamma lineal en la imagen digital[editar]

El rango dinámico es la razón entre el máximo nivel de luminosidad que el sensor puede medir antes de saturarse y el mínimo nivel descontado el ruido de lectura (->). Fuera de ese rango la cámara percibe un negro o un blanco absolutos. Depende, fundamentalmente, del tamaño real de las fotocélulas y de la capacidad de diferenciar matices del conversor analógico-digital. Este rango dinámico se mide, en términos fotográficos, en “pasos” (stops), en una escala logarítmica en la que cada “paso” implica doblar la cantidad de luz del paso anterior (2x2x2…x2 = 2n donde n es el número total de pasos). Las mejores cámaras digitales tienen un rango dinámico de unos 8 ó 9 pasos, y excepcionalmente hasta 10 pasos (->), mientras que los negativos químicos se mueven dentro de un rango de hasta 15 pasos y las diapositivas en uno más limitado. Con rápidos ajustes de la pupila el ojo humano puede abarcar hasta 24 pasos de rango dinámico, y con una abertura constante entre 10 y 14 pasos.

Existe un problema importante debido al carácter lineal del soporte digital que almacena la información fotográfica (los famosos 12, 14 o 16 bits de variantes tonales por ‘píxel’), frente al carácter logarítmico de la información luminosa.

Si colocamos una vela delante de una cámara un terminado tiempo, cada ‘píxel’ del sensor recogerá una determinada cantidad de luz y generará una carga eléctrica. Si colocamos dos velas, la carga eléctrica será doble en el mismo tiempo. Triple si son tres velas, etc. La escala es lineal (1, 2, 3, 4…). Sin embargo, el ojo humano percibe una duplicación de la intensidad luminosa si pasamos de una vela a dos, pero no si pasamos de dos velas a tres. Aquí las diferencias se miden logarítmicamente, en una escala en la que cada valor duplica al anterior (1, 2, 4, 8, 16, 32…). Con este ajuste logarítmico nos protegemos de una posible sobredosis luminosa (al pasar de 16 velas a 32 el efecto percibido es similar al de pasar de 1 a 2). La película responde a la luz de forma similar al ojo humano, es decir, no linealmente, y esta es una de las grandes diferencias entre el medio químico y el digital (el único sensor que se aproxima a esta respuesta no lineal es el SuperCCD de Fuji).

Cada fotocélula transforma el estímulo luminoso en una carga eléctrica, es decir, responde al impacto de los fotones generando electrones. Los CCDs transportan esta carga eléctrica secuencialmente hacia los bordes del sensor, de ‘píxel’ a ‘píxel’, y un colector la transforma en un determinado voltaje. Los CMOS hacen la transformación de la carga eléctrica en voltaje en el propio ‘píxel’ y la transportan en paralelo (de forma más rápida). El conversor analógico-digital (A/D converter) hace una lectura de esos voltajes y genera una secuencia de números digitales, siguiendo una escala lineal.

Sin embargo, al superponer una escala logarítmica a la escala lineal, el paso más alto de luz se queda con el 50% de esas 212, 214 ó 216 variantes tonales en las que el conversor analógico-digital “traduce” su lectura de la carga eléctrica (los famosos 12, 14 o 16 bits). El siguiente paso, más bajo, se queda con la mitad del sobrante (0,5*0,5=0,25 o el 25% de las tonalidades alternativas), el siguiente paso más bajo se queda con el 50% del sobrante (0,5*0,5*0,5=0,125 que es el 12,5%), etc. Es obvio que los pasos más bajos apenas se quedan con variantes que describan sus matices (véase la siguiente tabla). Se puede observar cómo 8 bits de variantes tonales limitan el máximo rango dinámico teóricamente posible (sin considerar las limitaciones del ruido) a 8 pasos, 12 bits a 12 pasos, 14 bits a 14 pasos, etc. A partir de ese punto, las variantes tonales se agotan. Por tanto, la precisión del conversor analógico-digital limita el rango dinámico máximo teórico reproducible. Hay que tener en cuenta además que el ruido inutiliza o degrada apreciablemente un buen número de variantes tonales en las sombras, ya que ahí la señal por ‘píxel’ es (lógicamente) pequeña. Por ello el rango dinámico es siempre inferior al máximo que teóricamente puede manejar el conversor analógico-digital (una regla orientativa es restar al menos dos pasos).

En general, los sensores CCDs de tipo “full-frame” y “frame-transfer” tienen una razón señal-ruido más alta que los CMOS, y eso les permite “salvar” más pasos de luz y ofrecer un mayor rango dinámico. Una forma muy común de reducir el ruido que el usuario ve en la imagen final obtenida consiste en, simplemente, sacrificar rango dinámico, descartando las zonas de sombras “contaminadas”. Una conclusión interesante es que un mayor rango dinámico tiene que estar acompañado de una mayor profundidad de bits, aunque ésta no garantice aquél, debido en parte al ruido. Por otro lado, la reducción del ruido mediante avances en electrónica, permite “rescatar” información en las sombras y ganar rango dinámico. Esto es lo que hace Canon en sus CMOS, mediante la incorporación transistores especializados en cada ‘píxel’ que consiguen reducir una de las fuentes de ruido (el ‘reset noise’), aunque por otro lado afectan al fill factor.

El rango dinámico es como la longitud total de una escalera, donde la profundidad de bits viene a ser el número de escalones, si bien la altura de estos escalones no es la misma. En la parte baja de la escalera (sombras) los escalones son escasos en número y muy altos, y conforme vamos subiendo (luces altas) estos se hacen más numerosos y más bajos. Si queremos una escalera más alta tendremos que añadir escalones. Pero no es posible incrementarlos sólo en la parte baja, donde se agradecería un mayor número de ellos. Los nuevos escalones tienen que distribuirse desigualmente a lo largo de toda la escalera, acumulándose preferentemente en la parte alta, ¡donde menos falta hacen!

Variantes tonales y su distribución por pasos[editar]

Las zonas sombreadas están más afectadas por el ruido.

8 bits, 2^8 = 256 12 bits, 2^12 = 4.096 14 bits, 2^14 = 16.384 16 bits, 2^16 = 65.536 16bits, Gamma 2.2
% paso variantes tonales variantes tonales variantes tonales variantes tonales variantes tonales
50,00 n 128 2.048 8.192 32.768 17.712
25,00 n-1 64 1.024 4.096 16.384 12.925
12,50 n-2 32 512 2.048 8.192 9.415
6,25 n-3 16 256 1.024 4.096 6.883
3,13 n-4 8 128 512 2.048 5.023
1,57 n-5 4 64 256 1.024 3.665
0,78 n-6 2 32 128 512 2.675
0,39 n-7 1 16 64 256 1.952
0,20 n-8 - 8 32 128 1.425
0,10 n-9 - 4 16 64 1.039
0,05 n-10 - 2 8 32 758


Debe distinguirse entre las variantes que maneja el conversor analógico-digital de las empleadas finalmente para el “almacenaje” de la información en el archivo final, que pueden comprimirse a 8 bits por canal o quedar sin comprimir a 16 bits. Sin embargo, también es posible aplicar un algoritmo de compresión no lineal que reduzca el número de “escalones”, uniendo muchos de los pequeños (que captan pequeñísimas variaciones allí donde el ojo humano no diferencia muy bien, en las luces altas) y dejando intactos los grandes. Es lo que hace Leica con los archivos DNG de la M8 (a 256 variantes tonales) o Nikon con los NEF (a 683 variantes). Esta compresión no lineal sólo es posible en el almanacenamiento de la información. Todos los programas informáticos trabajan linealmente, por lo que al “leer” el archivo hay que pasar de nuevo a un espacio lineal donde, una vez más, las luces altas tendrán reservada en principio una cantidad desproporcionada del total de variantes tonales posibles.

Durante el tratamiento de la imagen es conveniente trabajar siempre en el mayor espacio posible, de 16 bits o superior. Podemos pensar que cada variante tonal que es capaz de separar un conversor A/D es un “cajón”, y la información luminosa captada serían “documentos”. Cuando alteramos una imagen digital, tocando los niveles o la curva de contraste, movemos esos documentos de un cajón a otro, uniéndolos a los que allí se encontraban originalmente. Una vez hecho esto ya no hay vuelta atrás. No hay manera de saber de qué cajón vienen los documentos que nos encontramos en cualquiera de ellos en un momento dado. Cuantos más movimientos de documentos hacemos, más tienden a mezclarse y agruparse éstos en unos pocos cajones, especialmente en las luces bajas. Esto provoca una acumulación de información indiferenciada dentro de un estrecho rango tonal, que se muestra como desagradables empastes o apelmazamientos en la imagen (posterización). No hay que olvidar que cuando se “lee” un archivo RAW siempre se aplica una curva de contraste que corrige la distribución excesivamente desigual de variantes tonales entre pasos. Hemos mostrado en la tabla el resultado de un ajuste a una gamma 2,2.

Referencias[editar]