Fotografía computacional

De Wikipedia, la enciclopedia libre
Ir a la navegación Ir a la búsqueda
La fotografía computacional (no digital) proporciona múltiples capacidades nuevas. Este ejemplo combina HDR (Gama Dinámica Alta) Imágenes con panorámicas (costura de imágenes), al combinar de manera óptima información de múltiples imágenes expuestas de objetos superpuestos[1][2][3][4][5]

Fotografía computacional o la imagen computacional refiere a la captura de imagen digital y el procesando de técnicas que usa la computación digital en lugar de procesos ópticos. La fotografía computacional puede mejorar las capacidades de un cámara, o introducir características que no fueron posibles de obtener con la fotografía basada en películas, o reducir el costo o el tamaño de los elementos de la cámara. Los ejemplos de fotografía computacional incluyen computación en la cámara de panoramas digitales, imágenes de alto rango dinámico, y cámaras de campo ligero.[6]​ Las cámaras de campo ligero utilizan elementos ópticos noveles para capturar información de escenas tri-dimensionales, las cuales pueden ser usadas para producir imágenes en 3D, profundidad de campo mejorada , y desenfoque selectivo (o "post-enfoque"). La profundidad de campo mejorada reduce la necesidad de sistemas de enfoque mecánico. Todas estas características utilizan técnicas de imagen computacional.

La definición de fotografía computacional ha evolucionado para cubrir un número de áreas relacionadas con la computación gráfica, la visión por computadoras, y la óptica aplicada. Estas áreas son mencionadas posteriormente, organizadas según una taxonomía propuesta por Shree K. Nayar. Dentro de cada área se encuentra una lista de técnicas, y para cada técnica un o dos artículos representativos o los libros donde están citados. Deliberadamente se han omitido de la taxonomía las técnicas de procesamiento de imágenes (véase también el procesamiento de imágenes digitales) aplicadas a imágenes tradicionalmente capturadas para producir mejores imágenes.Los ejemplos de tales técnicas son escalado de imágenes, compresión de rango dinámico (es decir, mapeo de tonos), gestión de color, finalización de imagen (más conocido como inpainting o relleno de agujeros), compresión de imágenes, marca de agua digital y efectos de imagen artística. También se omiten las técnicas que producen datos de rango, datos de volumen, modelos 3D, campos de luz 4D, BRDF 4D, 6D u 8D, u otras representaciones basadas en imágenes de alta dimensión. Epsilon Photography es un subcampo de la fotografía computacional.

Iluminación computacional[editar]

Esto controla la iluminación fotográfica de una manera estructurada y luego procesa las imágenes capturadas para crear nuevas imágenes. Las aplicaciones incluyen iluminación basada en imágenes, mejora de imagen, eliminación de imágenes, recuperación de geometría / material, etc.

Las imágenes de rango dinámico alto utilizan imágenes expuestas de forma diferente de la misma escena para ampliar el rango dinámico.[7]​ Otros ejemplos incluyen el procesamiento y la fusión de imágenes iluminadas de forma diferente de la misma materia ("espacio de luces").

Óptica computacional[editar]

Esta es una captura de imágenes ópticamente codificadas, seguida de una decodificación computacional para producir nuevas imágenes. La imagen de apertura codificada se aplicó principalmente en astronomía o imágenes por rayos X para mejorar la calidad de la imagen. En lugar de un único agujero de alfiler, se aplica un patrón de agujero de alfiler en las imágenes, y se lleva a cabo deconvolución para recuperar la imagen.[8]​ En las imágenes de exposición codificadas, el estado de encendido / apagado del obturador está codificado para modificar el núcleo del desenfoque de movimiento.[9]​ De esta manera, la eliminación de movimiento se convierte en un problema bien condicionado. De forma similar, en una abertura codificada basada en lente, la abertura puede modificarse insertando una máscara de banda ancha.[10]​ Por lo tanto, desenfocar se convierte en un problema bien condicionado. La apertura codificada también puede mejorar la calidad en la adquisición de campo de luz usando la óptica de transformación Hadamard.

Los diagramas de apertura codificados también pueden diseñarse utilizando filtros de color, para aplicar diferentes códigos a diferentes longitudes de onda. Esto permite aumentar la cantidad de luz que llega al sensor de la cámara, en comparación con las máscaras binarias.

Imagen Computacional[editar]

Las imágenes computacionales son un conjunto de técnicas de imágenes que combinan la adquisición de datos y el procesamiento de datos para crear la imagen de un objeto a través de medios indirectos para obtener una resolución mejorada, información adicional como la fase óptica o la reconstrucción en 3D. La información a menudo se registra sin utilizar una configuración convencional de microscopio óptico o con conjuntos de datos limitados.

Las imágenes computacionales permiten ir más allá de las limitaciones físicas de los sistemas ópticos, como la apertura numérica,[11]​ o incluso anulan la necesidad de elementos ópticos.

Para partes del espectro óptico donde los elementos de imagen tales como los objetivos son difíciles de fabricar o los sensores de imagen no pueden ser miniaturizados, las imágenes computacionales proporcionan alternativas útiles, en campos tales como las radiaciones de Rayos X y THz.

Técnicas comunes[editar]

Entre las técnicas de imágenes computacionales más comunes se encuentran las imágenes sin lente, las imágenes por puntos computacionales,[12]​ la pitografía y la pitografía de Fourier.

La técnica de imagen computacional a menudo se basa en la detección de compresión o técnicas de recuperación de fase, donde el espectro angular del objeto se está reconstruyendo. Otras técnicas están relacionadas con el campo de las imágenes computacionales, como la holografía digital, la visión por computadora y los problemas inversos, como la tomografía.

Procesamiento computacional[editar]

Esto es el procesamiento de imágenes no codificadas ópticamente para producir nuevas imágenes.

Sensores computacionales[editar]

Estos son detectores que combinan detección y procesamiento, generalmente en hardware, como el sensor de imagen binaria sobremuestreado.

Primeros trabajos en visión por computadoras[editar]

Aunque la fotografía computacional es una palabra de moda actualmente en gráficos por computadora, muchas de sus técnicas aparecieron por primera vez en la literatura de visión por computadora, ya sea bajo otros nombres o en documentos destinados al análisis de formas 3D.

Véase también[editar]

Referencias[editar]

  1. Steve Mann. "Compositing Multiple Pictures of the Same Scene", Proceedings of the 46th Annual Imaging Science & Technology Conference, May 9–14, Cambridge, Massachusetts, 1993
  2. S. Mann, C. Manders, and J. Fung, "The Lightspace Change Constraint Equation (LCCE) with practical application to estimation of the projectivity+gain transformation between multiple pictures of the same subject matter" IEEE International Conference on Acoustics, Speech, and Signal Processing, 6–10 April 2003, pp III - 481-4 vol.3.
  3. joint parameter estimation in both domain and range of functions in same orbit of the projective-Wyckoff group" ", IEEE International Conference on Image Processing,Vol.3, 16-19,pp.193-196 September 1996
  4. Frank M. Candocia: Jointly registering images in domain and range by piecewise linear comparametric analysis. IEEE Transactions on Image Processing 12(4): 409-419 (2003)
  5. Frank M. Candocia: Simultaneous homographic and comparametric alignment of multiple exposure-adjusted pictures of the same scene. IEEE Transactions on Image Processing 12(12): 1485-1494 (2003)
  6. Steve Mann and R. W. Picard. "Virtual bellows: constructing high-quality images from video.", In Proceedings of the IEEE First International Conference on Image ProcessingAustin, Texas, November 13–16, 1994
  7. ON BEING `UNDIGITAL' WITH DIGITAL CAMERAS: EXTENDING DYNAMIC RANGE BY COMBINING DIFFERENTLY EXPOSED PICTURES, IS&T's (Society for Imaging Science and Technology's) 48th annual conference, Cambridge, Massachusetts, May 1995, pages 422-428
  8. Martinello, Manuel. «Coded Aperture Imaging». 
  9. Raskar, Ramesh; Agrawal, Amit; Tumblin, Jack (2006). «Coded Exposure Photography: Motion Deblurring using Fluttered Shutter». Consultado el 29 de noviembre de 2010. 
  10. Veeraraghavan, Ashok; Raskar, Ramesh; Agrawal, Amit; Mohan, Ankit; Tumblin, Jack (2007). «Dappled Photography: Mask Enhanced Cameras for Heterodyned Light Fields and Coded Aperture Refocusing». Consultado el 29 de noviembre de 2010. 
  11. Ou et al., "High numerical aperture Fourier ptychography: principle, implementation and characterization"Optics Express 23, 3 (2015)
  12. Katz et al., "Non-invasive single-shot imaging through scattering layers and around corners via speckle correlations", Nature Photonics 8, 784–790 (2014)

Enlaces externos[editar]

  • Nayar, Shree K. (2007). "Cámaras computacionales", Conferencia encima Aplicaciones de Visión de la Máquina.
  • Fotografía computacional (Raskar, R., Tumblin, J.,), Un.K. Peters. En prensas.
  • Asunto especial en Fotografía Computacional, Ordenador de IEEE, agosto 2006.
  • Cultura de cámara y Periodismo Computacional: Capturando y Compartiendo Experiencias Visuales, IEEE CG&Un Asunto Especial, Feb 2011.
  • Rick Szeliski (2010), Visión de Ordenador: Algoritmos y Aplicaciones, Salmer.
  • Fotografía computacional: Métodos y Aplicaciones (Ed. Rastislav Lukac), CRC Prensa, 2010.