High dynamic range

De Wikipedia, la enciclopedia libre
(Redirigido desde «High Dynamic Range»)
Saltar a: navegación, búsqueda
Ejemplo de fotografía HDR con mapa de tonos.
HDR del municipio de Albarracín (Teruel).
HDR de la Sierra de Albarracín (Teruel).

En procesamiento de imágenes, gráficos por ordenador y fotografía, las imágenes de alto rango dinámico (HDR) son un conjunto de técnicas que permiten un mejor rango dinámico de luminancias entre las zonas más claras y las más oscuras de una imagen del que las técnicas de imagen digital estándar o métodos fotográficos pueden ofrecer. La fotografía de alto rango dinámico permite obtener imágenes más acorde a las visualizadas por el ojo humano, que cuando observa el mundo que nos rodea es capaz de distinguir detalles en zonas con una diferencia de iluminación muy superior a la soportada por otros formatos como la película o los formatos de imágenes comprimidas. Este rango dinámico más extenso permite a las imágenes HDR representar con más exactitud el extenso rango de niveles de intensidad encontrados en escenas reales, que van desde luz solar directa hasta la débil luz de las estrellas.[1]

Los dos principales orígenes de las imágenes HDR son el renderizado por ordenador y la mezcla de múltiples fotografías, que a su vez son conocidas como fotografías de bajo rango dinámico (LDR),[2] también llamadas de rango dinámico estándar (SDR).[3]

Las técnicas de mapeo tonal (mapeo de tonos), que reducen todo el contraste para facilitar que dispositivos con menos rango dinámico muestren imágenes HDR, pueden aplicarse para producir imágenes conservando o exagerando el contraste localmente para realizar un efecto artístico.

Fotografía[editar]

En fotografía, el rango dinámico se mide en diferencias de valor de exposición EV (medido por puntos de diafragma, del inglés f/stops) entre las partes de la imagen más claras y más oscuras que muestran detalle. Un incremento de un EV o una parada es una duplicación de la cantidad de luz.

Rango dinámico de algunos dispositivos
Dispositivo Puntos Contraste
Pantalla LCD 9.5 700:1
Cámara DSLR (1Dmk2) 11[4] 2048:1
Película de impresión 7[4] 128:1

Las fotografías HDR se consiguen en general capturando varias fotografías estándar, usando a menudo bracketing de exposiciones, y después combinándolas en una imagen HDR. Las fotografías digitales con frecuencia se codifican en formato RAW, propio de la cámara para imágenes, porque la codificación JPEG de 8 bits no ofrece valores suficientes para permitir una transición correcta (además de introducir efectos indeseados debido a la compresión con pérdida).

Cualquier cámara que permita un ajuste manual de la exposición de una foto puede usarse para crear imágenes HDR. Algunas cámaras tienen bracketing de exposiciones automático (AEB) con un rango dinámico mucho mejor que otras, desde los 3 EV de la Canon EOS 40D, a los 18 EV de la Canon EOS-1D Mark II.[5]

La Pentax K-7 DSLR tiene un modo HDR que captura una imagen HDR y después devuelve (sólo) un archivo JPEG con mapeado de tonos.[6]

Rango dinámico para cada configuración ISO de la 1Dmk2[7]
ISO Rango dinámico (Puntos de Luz)
50 11.3
100 11.6
200 11.5
400 11.2
800 10.7
1600 9.7
3200 8.7

Matemáticas[editar]

Proporción de contraste = 2(Diferencia de EV)

Diferencia de EV = log2(Proporción de contraste)

El hecho de que un incremento de un EV indique una duplicación de luz significa que el EV se represente con frecuencia en una escala logarítmica de base 2.

La percepción humana del brillo está bastante aproximada por la función potencial de Stevens,[8] que dice que a lo largo de un rango razonable se aproxima a logarítmica, como se describe por la ley de Weber-Fechner. Esta es la razón por la que se suelan utilizar medidas logarítmicas para la intensidad de la luz.[9] [10]

Representar imágenes HDR en pantallas LDR[editar]

Reducción de contraste[editar]

Las imágenes HDR se pueden representar fácilmente en dispositivos LDR comunes, como monitores de ordenador o impresoras fotográficas, simplemente reduciendo el contraste, como todo software de edición de imágenes es capaz de hacer.

Recortando y comprimiendo rango dinámico[editar]

A menudo las escenas con alto rango dinámico se representan en dispositivos LDR recortando el rango dinámico, eliminando los detalles más oscuros y más claros, o alternativamente mediante una curva de conversión S que comprima el contraste progresivamente y más agresivamente en los puntos más luminosos o más ensombrecidos mientras deja las porciones intermedias de contraste relativamente ilesas.

Mapeado de tonos[editar]

El mapeado de tonos reduce el rango dinámico, o proporción de contraste, de la imagen completa, mientras mantiene el contraste localizado (entre píxeles vecinos), recurriendo a la investigación de cómo el ojo humano y la corteza visual perciben una escena, tratando de representar todo el rango dinámico mientras se mantiene un color realista y el contraste.

Las imágenes con una gran transformación de mapeado de tonos tienen su rango muy comprimido, creando un renderizado de bajo rango dinámico irreal de una escena HDR.

Comparación con imágenes digitales tradicionales[editar]

La información almacenada en imágenes HDR se corresponde típicamente con los valores físicos de luminancia o radiancia que pueden ser observados en el mundo real. Esto las diferencia de las imágenes digitales tradicionales, que representan colores que deberían aparecer en un monitor o impresos en un papel. Por lo tanto, los formatos de imagen HDR se llaman a menudo “referidos a escena”, al contrario que las imágenes digitales tradicionales, que son “referidas a dispositivos” o “referidas a salida”. Además, las imágenes tradicionales se codifican por lo general hacia el sistema visual (maximizando la información visual almacenada en un número fijo de bits), que normalmente se llaman “codificación gamma” o “corrección gamma”. Los valores almacenados para las imágenes HDR tienen normalmente una corrección gamma (función potencial), o una codificación logarítmica, o valores lineales de coma flotante, dado que las codificaciones lineales de punto fijo son cada vez menos eficientes a medida que aumentan los rangos dinámicos.[11] [12] [13]

Las imágenes HDR suelen utilizar un número de bits mayor que las imágenes tradicionales por canal de color para representar muchos más colores sobre un rango dinámico mucho mayor. Normalmente se utilizan números de coma flotante de 16 o 32 bits para representar píxeles HDR. Sin embargo, cuando se usa una función de transferencia apropiada, los píxeles HDR se pueden representar para algunas aplicaciones con 10 ó 12 bits para luminancia y 8 bits para crominancia sin introducir ningún artefacto de cuantificación visible.[11] [14]

HDR en videojuegos[editar]

Este realismo se aplica a las animaciones en 3D o a los videojuegos. Los primeros videojuegos en utilizar esta tecnología fueron Far Cry y Half-Life 2: Lost Coast. Un ejemplo bastante interesante son las imágenes HDR que caracterizan a Tom Clancy's Rainbow Six: Vegas.

Hoy en día existen varios videojuegos con esta característica para dar mayor "realismo" gráfico, particularmente a videojuegos con un tema de juego donde aparezcan elementos detallados y muy definidos, como personas, animales, ambientes naturales, etcétera, y a su vez para aumentar la calidad de gráficos del sistema, y por otro lado, busca llamar la atención y satisfacer al jugador en lo que a calidad de gráficos se refiere.

Historia de la fotografía HDR[editar]

1850[editar]

La idea de utilizar varias exposiciones para reparar un rango demasiado grande de luminancia fue pionera sobre 1850 por Gustave Le Gray para renderizar vistas marinas mostrando a la vez el mar y el cielo. Tal renderizado fue imposible en esa época dado que usando técnicas estándar el rango de luminancia era demasiado grande. Le Gray utilizó un negativo para el cielo, y otro con una exposición mayor para el mar, posteriormente combinando ambos en una sola imagen en positivo.[15]

1930[editar]

Las técnicas de realización de imágenes HDR fueron realizadas originalmente en las décadas 1930 y 1940 por Charles Wyckoff.

Sus imágenes detalladas sobre explosiones nucleares aparecieron en la portada de la revista Life a mediados de los 40. Wyckoff implementó el remapeado de tonos vecinos local para combinar de diferente forma las capas de película expuestas en una sola imagen de un rango dinámico superior.

1980[editar]

La conveniencia del HDR ha sido reconocida durante décadas, pero su mayor uso fue, hasta hace poco, excluida por las limitaciones impuestas por la capacidad de proceso de los ordenadores actual. Probablemente la primera aplicación práctica de HDR fue la industria de cine a finales de los 80 y, en 1985, Gregory Ward creó el formato de archivos de imagen RGBE de radiancia, que fue el primer (y aun el más utilizado) formato de imagen HDR.

El concepto de vecindad de mapeado de tonos de Wyckoff fue aplicado a las cámaras de vídeo por un equipo del instituto Technion de Israel liderado por el profesor Y. Y. Zeevi, que solicitó una patente de su concepto en 1988. En 1993 se presentó la primera cámara médica comercial, que realizaba capturas de múltiples imágenes con distintas exposiciones en tiempo real, y producía imagen de vídeo HDR.[16]

Las técnicas de imagen HDR modernas utilizan una aproximación completamente diferente, basada en la realización de una luminancia o mapa de luz de gran rango dinámico, utilizando únicamente operaciones globales sobre imágenes (sobre la imagen completa), y posteriormente realizando un mapeado de tonos sobre el resultado. El HDR global fue introducido primeramente en 1993,[17] dando resultado a una teoría matemática sobre varias imágenes expuestas diferentes que trataban de la misma materia que fue publicada en 1995 por Steve Mann y Rosalind Picard.[18] En 1997 esta técnica del HDR global de combinar varias imágenes expuestas de manera diferente para producir una única imagen HDR fue presentada a la comunidad de gráficos por ordenador por Paul Debevec.

Este método fue desarrollado para producir una imagen de gran rango dinámico desde un conjunto de fotografías tomadas con un rango de exposiciones. Con la creciente popularidad de las cámaras digitales y el software de escritorio de fácil uso, el término HDR pasa a ser utilizado popularmente para referir a este proceso. Esta técnica de composición es diferente de (y puede ser de mucha menor o mayor calidad que) la producción de una imagen desde una única exposición de un sensor con un gran rango dinámico. El mapeado de tonos también es usado para mostrar imágenes HDR en dispositivos con un rango dinámico menor, como una pantalla de ordenador.

1996[editar]

Steve Mann desarrolló y patentó el método HDR global para producir imágenes digitales teniendo un amplio rango dinámico en el Laboratorio de Medios MIT. El método de Mann incluía un procedimiento de dos pasos: (1) generar un único array de imagen de coma flotante sólo mediante operaciones globales (operaciones que afectan a todos los pixeles por igual, sin fijarse en sus alrededores); (2) convertir este array imagen, utilizando un procesamiento local de zonas (remapeado de tonos, etc.), en una imagen HDR. El array imagen generado por el primer paso del proceso de Mann se llama una “imagen de poco espacio” o “mapa de radiancia”. Otro beneficio del proceso de creación de imágenes HDR global es que proporciona acceso a la luz intermedia o al mapa de radiancia, que ha sido utilizado para visión por ordenador, y otras operaciones de procesamiento de imágenes.

1997[editar]

En el año 1997 esta técnica de combinar varias imágenes expuestas de manera diferente para producir una única imagen HDR fue presentada al público por Paul Debevec.

2005[editar]

El Photoshop CS2 introdujo la función combinar a HDR.[19]

En muchos aspectos, la función HDR del Photoshop CS2 es el santo grial del rango dinámico. Con una fotografía acertada y archivos procesados permite a los fotógrafos crear imágenes fácilmente que antes hubieran sido imposibles, o por lo menos muy difíciles de realizar. Pero, con lo bueno que es, al igual que un arma o la energía nuclear, puede ser igual de malo que bueno.

No todas las imágenes necesitan tener de 10 a 15 paradas de rango dinámico. De hecho, muchas fotografías quedan bastante bien con las 5-7 pasos de rango dinámico a las que estamos acostumbrados. Espero ver algunas imágenes tontas o francamente feas en los meses venideros, a medida que los fotógrafos obtengan sus copias de Photoshop CS2 y empiecen a descubrir de lo que es capaz la función HDR.

Pero, como con toda herramienta, en las manos de artistas sensibles o artesanos competentes, estoy seguro de que empezaremos a mostrar el mundo de nuevas y emocionantes formas.


Michael Reichmann, Luminous Landscape[19]

Vídeo[editar]

Hasta hace poco no había ejemplos “puros” de cinematografía basada en HDR, dado que los efectos eran comúnmente usados en secuencias mezcladas en películas. Sin embargo con la venida del bajo coste en consumo de las cámaras digitales, muchos aficionados han empezado a colgar vídeos HDR muy cortos con mapeado de tonos en Internet. En 2008 las películas Mobius/Quark publicaron “Sillicon Valley Timelapse”, que dicen que soporta hasta 1,1 millones de frames de HDR con mapeado de tonos, haciendo de él la mayor fuente única de HDR con mapeado de tonos disponible hasta la fecha.

Galería de imágenes[editar]

Véase también[editar]

Métodos[editar]

Formatos[editar]

Software HDR[editar]

Referencias[editar]

  1. Reinhard, Erik; Ward, Greg; Pattanaik, Sumanta; Debevec, Paul (2006). High dynamic range imaging: acquisition, display, and image-based lighting. Amsterdam: Elsevier/Morgan Kaufmann. p. 7. ISBN 978-0-12-585263-0. «Images that store a depiction of the scene in a range of intensities commensurate with the scene are what we call HDR, or 'radiance maps.' On the other hand, we call images suitable for display with current display technology LDR.» 
  2. Cohen, Jonathan and Tchou, Chris and Hawkins, Tim and Debevec, Paul E. (2001). Steven Jacob Gortler and Karol Myszkowski. ed. «Real-Time High Dynammic Range Texture Mapping». Proceedings of the 12th Eurographics Workshop on Rendering Techniques (Springer):  p. 313–320. ISBN 3-211-83709-4. 
  3. Vassilios Vonikakis and Ioannis Andreadis (2008). «Fast Automatic Compensation of Under/Over-Exposured Image Regions». En Domingo Mery and Luis Rueda. Advances in image and video technology: Second pacific rim symposium, PSIVT 2007, Santiago, Chile, December 17-19, 2007. p. 510. ISBN 9783540771289. http://books.google.com/books?id=vkNfw8SsU3oC&pg=PA510&dq=hdr+sdr+%22standard+dynamic+range%22&ei=gqe6Svq0IZfGM7KehMYP#v=onepage&q=hdr%20sdr%20%22standard%20dynamic%20range%22&f=false. 
  4. a b R. N. Clark. «Film versus Digital Summary». Consultado el 28-02-2010.
  5. «Auto Exposure Bracketing by camera model». Consultado el 18 de agosto de 2009.
  6. «The Pentax K-7: The era of in-camera High Dynamic Range Imaging has arrived!». Consultado el 18 de agosto de 2009.
  7. R. N. Clark. «Procedures for Evaluating Digital Camera Sensor Noise, Dynamic Range, and Full Well Capacities; Canon 1D Mark II Analysis». Consultado el 21-08-2009.
  8. Stanley Smith Stevens and Geraldine Stevens (1986). Psychophysics: Introduction to its Perceptual, Neural, and Social Prospects. Transaction Publishers. pp. 208–209. ISBN 9780887386435. http://books.google.com/books?id=r5JOHlXX8bgC&pg=PA208&dq=eye+logarithmic+power-law&lr=&as_brr=3&ei=TSyOSqTWHIuWlQS2sZG5Bw#v=onepage&q=eye%20logarithmic%20power-law&f=false. 
  9. Vernon B. Mountcastle (2005). The Sensory Hand: Neural Mechanisms of Somatic Sensation. Harvard University Press. pp. 16–17. ISBN 9780674019744. http://books.google.com/books?id=WOmqKSheygYC&pg=PA17&dq=logarithmic+weber-fechner&lr=&as_brr=3&ei=9DKOSrTaHJCqkASHxZShBw#v=onepage&q=logarithmic%20weber-fechner&f=false. 
  10. Leslie Stroebel and Richard D. Zakia (1995). The Focal Encyclopedia of Photography (3rd edición). Focal Press. p. 465. ISBN 9780240514178. http://books.google.com/books?id=CU7-2ZLGFpYC&pg=PA465&dq=logarithmically+light+nearly&lr=&as_brr=3&ei=UjSOSouBEKWQkAT12-GmBw#v=onepage&q=logarithmically%20light%20nearly&f=false. 
  11. a b Greg Ward, Anyhere Software. «High Dynamic Range Image Encodings».
  12. «The RADIANCE Picture File Format». Consultado el 21-08-2009.
  13. Fernando, Randima (2004). «26.5 Linear Pixel Values». Gpu Gems. Boston: Addison-Wesley. ISBN 0321228324. http://http.developer.nvidia.com/GPUGems/gpugems_ch26.html. 
  14. Max Planck Institute for Computer Science. «Perception-motivated High Dynamic Range Video Encoding».
  15. J. Paul Getty Museum. Gustave Le Gray, Photographer. July 9 – September 29, 2002. Retrieved September 14, 2008.
  16. Technion - Israel Institute of Technology (1993). Adaptive Sensitivity. http://visl.technion.ac.il/research/isight/AS/. 
  17. "Compositing Multiple Pictures of the Same Scene", by Steve Mann, in IS&T's 46th Annual Conference, Cambridge, Massachusetts, May 9-14, 1993
  18. S. Mann and R. W. Picard. «On Being ‘Undigital’ With Digital Cameras: Extending Dynamic Range By Combining Differently Exposed Pictures».
  19. a b «Merge to HDR in Photoshop CS2». Consultado el 27-08-2009.

Enlaces externos[editar]