Ir al contenido

Cámara de Google

De Wikipedia, la enciclopedia libre
(Redirigido desde «Google Cámara»)
Cámara Pixel
Información general
Tipo de programa aplicación móvil
Autor X Development
Desarrollador Google
Lanzamiento inicial 16 de abril de 2014 (10 años, 6 meses y 27 días)
Licencia Propiedad
Estado actual Activo
Información técnica
Plataformas admitidas Android
Versiones
Última versión estable 8.2.204 ( 22 de noviembre de 2021 (2 años, 11 meses y 21 días))

Cámara Pixel o Cámara de Google es una aplicación de teléfono con cámara desarrollada por Google para el sistema operativo Android. El desarrollo de la aplicación comenzó en 2011 en la incubadora de investigación Google X dirigida por Marc Levoy, que estaba desarrollando tecnología de fusión de imágenes para Google Glass.[1]​ Inicialmente, se admitía en todos los dispositivos con Android 4.4 KitKat y superior, pero ahora solo se admite oficialmente en dispositivos Google Pixel. Se lanzó públicamente para Android 4.4 + en Google Play Store el 16 de abril de 2014.[2]

Características

[editar]

Google Cámara contiene una serie de funciones que se pueden activar en la página Configuración o en la fila de iconos en la parte superior de la aplicación.

Pixel Visual/Núcleo Neural

[editar]

Comenzando con los dispositivos Pixel, la aplicación de la cámara se ha ayudado con aceleradores de hardware para realizar su procesamiento de imágenes. La primera generación de teléfonos Pixel utilizó los DSP Hexagon de Qualcomm y las GPU Adreno para acelerar el procesamiento de imágenes. El Pixel 2 y el Pixel 3 (pero no el Pixel 3a ) incluyen Pixel Visual Core para ayudar con el procesamiento de imágenes. El Pixel 4 presentó el Pixel Neural Core.[3]

HDR+

[editar]

A diferencia de las versiones anteriores de imágenes de alto rango dinámico (HDR), HDR+, también conocido como HDR+ activado, utiliza técnicas de fotografía computacional para lograr un mayor rango dinámico. HDR+ toma fotografías en ráfaga continuas con exposiciones cortas. Cuando se presiona el obturador, se analizan los últimos 5 a 15 fotogramas para elegir las tomas más nítidas (usando imágenes de la suerte), que se alinean de forma selectiva y se combinan con el promedio de imágenes. HDR+ también utiliza la segmentación semántica para detectar rostros para iluminarlos con flash de relleno sintético y oscurecer y eliminar el ruido de los cielos. HDR+ también reduce el ruido de las tomas y mejora los colores, al tiempo que evita las luces altas y el desenfoque de movimiento. HDR+ se introdujo en el Nexus 6 y traído de vuelta al Nexus 5.[4][5][6]

  • HDR+ mejorado

A diferencia de HDR+/HDR+ activado, el modo 'HDR+ mejorado' no utiliza Zero Shutter Lag (ZSL). Al igual que Night Sight, las funciones mejoradas de HDR+ tienen un retardo de obturación positivo (PSL): captura imágenes después de presionar el obturador. HDR+ mejorado es similar al HDR+ de Nexus 5, Nexus 6, Nexus 5X y Nexus 6P. Se cree que utiliza marcos subexpuestos y sobreexpuestos como Smart HDR de Apple. Las capturas mejoradas HDR+ aumentan el rango dinámico en comparación con HDR+ activado. HDR+ mejorado en el Pixel 3 utiliza el algoritmo AWB basado en el aprendizaje de Night Sight.[7][8]

  • HDR+ en vivo

A partir del Pixel 4, Live HDR+ reemplazó a HDR+, con un visor WYSIWYG con una vista previa en tiempo real de HDR+.[9]​ HDR+ en vivo utiliza el algoritmo AWB basado en el aprendizaje de Night Sight y promedia hasta nueve imágenes subexpuestas.[10]

  • Controles de exposición dual

El modo 'Live HDR+' usa controles de exposición dual, con controles deslizantes separados para el brillo (captura de exposición) y para las sombras (mapeo de tonos). Esta función estuvo disponible para Pixel 4 y no se ha actualizado en dispositivos Pixel más antiguos debido a limitaciones de hardware.[10][9]

  • Con horquillado

En abril de 2021, Google Camera v8.2 introdujo HDR+ con Bracketing, Night Sight con Bracketing y Portrait Mode con Bracketing. Google actualizó su algoritmo de horquillado de exposición para HDR+ para incluir un cuadro de exposición larga adicional y Night Sight para incluir 3 cuadros de exposición larga. El algoritmo de fusión espacial también se rediseñó para decidir si se fusionó o no por píxel (como Super Res Zoom) y se actualizó para manejar exposiciones prolongadas (iluminación recortada, más desenfoque de movimiento y diferentes características de ruido). con horquillado permite reducir aún más el ruido de lectura, detalles/textura mejorados y colores más naturales. Con Horquillado se habilita automáticamente según el rango dinámico y el movimiento. El horquillado es compatible con todos los modos para Pixel 4a (5G) y 5. El horquillado es compatible con Night Sight para Pixel 4 y 4a.[11]

Fotos en movimiento

[editar]

El modo de fotografía en movimiento de Google Camera es similar a Zoe de HTC y Live Photo de iOS . Cuando está habilitado, un clip de video corto y silencioso de resolución relativamente baja se empareja con la foto original. Si RAW está habilitado, solo se crea un archivo DNG de 0,8 MP, no el DNG sin movimiento de 12,2 MP. Motion Photos se introdujo en el Pixel 2. Motion Photo está deshabilitado en el modo mejorado HDR+.[12][13][14]

Estabilización de video

[editar]

La estabilización de video fusionada, una técnica que combina la estabilización de imagen óptica y la estabilización de imagen electrónica/digital, se puede habilitar para obtener un video significativamente más suave. Esta técnica también corrige la distorsión del obturador rodante y la respiración de enfoque, entre varios otros problemas. La estabilización de video fusionada se introdujo en el Pixel 2.[15][16]

Super Res Zoom

[editar]

Super Res Zoom es una técnica de superresolución de múltiples fotogramas introducida con Pixel 3 que cambia el sensor de imagen para lograr una resolución más alta, que según Google es equivalente a un zoom óptico de 2-3x. Es similar al procesamiento de imágenes de llovizna. Super Res Zoom también se puede usar con teleobjetivos, por ejemplo, Google afirma que Pixel 4 puede capturar un zoom de 8x con una calidad casi óptica.[17][18]

Smartburst

[editar]

Smartburst se activa manteniendo presionado el botón del obturador. Mientras se mantiene presionado el botón, se capturan hasta 10 disparos por segundo. Una vez liberadas, las mejores imágenes capturadas se resaltan automáticamente.

Se pueden producir diferentes 'creaciones' a partir de las imágenes capturadas:

  • GIF - un GIF animado para capturar acciones o imágenes que contienen una gran cantidad de movimiento.
  • 'All-smile': una sola foto en la que todos sonríen y no parpadean; producido tomando diferentes partes de cada foto en la ráfaga.
  • Collage: al tomar 'selfies', se genera un collage similar al de una cabina de fotos.

Top Shot

[editar]

Cuando Motion Photos está habilitado, Top Shot analiza hasta 90 fotogramas adicionales desde 1,5 segundos antes y después de presionar el obturador. Pixel Visual Core se utiliza para acelerar el análisis mediante técnicas de visión por computadora y los clasifica según el movimiento del objeto, el desenfoque de movimiento, la exposición automática, el enfoque automático y el balance de blancos automático. Se guardan unas diez fotos adicionales, incluida una foto HDR+ adicional de hasta 3 MP. Top Shot se introdujo en el Pixel 3.[19]

Otras funciones

[editar]
  • Raw computacional: Google Camera admite la captura de archivos JPEG y DNG simultáneamente. Los archivos DNG también se procesan con la fotografía computacional HDR+ de Google. Computational Raw se introdujo en el Pixel 3.[6]
  • Enfoque automático de movimiento: mantiene el enfoque en cualquier sujeto/objeto en el marco. Motion Auto Focus se introdujo en el Pixel 3.[20]
  • Rostros frecuentes: permite que la cámara recuerde rostros. La cámara intentará asegurarse de que esas caras estén enfocadas, sonriendo y sin parpadear.[18]
  • Ubicación: la información de ubicación obtenida a través de GPS y/o el servicio de ubicación de Google se puede agregar a fotos y videos cuando está habilitado.

Funciones

[editar]

Como la mayoría de las aplicaciones de cámara, Google Cámara ofrece diferentes modos de uso que permiten al usuario tomar diferentes tipos de fotos o videos.[21]

Cámara lenta

[editar]

El video en cámara lenta se puede capturar en Google Cámara a 120 o, en dispositivos compatibles, a 240 cuadros por segundo.[22]

Panorámica

[editar]

La fotografía panorámica también es posible con Google Cámara. Se admiten cuatro tipos de fotos panorámicas; Horizontal, Vertical, Gran angular y Ojo de pez. Una vez que se selecciona la función Panorama, se puede seleccionar uno de estos cuatro modos a la vez desde una fila de iconos en la parte superior de la pantalla.[23]

Foto esférica

[editar]

Google Cámara le permite al usuario crear una 'Photo Sphere', una foto panorámica de 360 grados, agregada originalmente en Android 4.2 en 2012.[24]​ Estas fotos se pueden incrustar en una página web con código HTML personalizado o cargar en varios Servicios de Google.[25]

Retrato

[editar]

El modo de retrato (llamado Lens Blur antes del lanzamiento de la línea Pixel) ofrece una manera fácil para que los usuarios tomen 'selfies' o retratos con un efecto Bokeh, en el que el sujeto de la foto está enfocado y el fondo está ligeramente borroso. Este efecto se logra a través de la información de paralaje de los sensores de doble píxel cuando están disponibles (como Pixel 2 y Pixel 3) y la aplicación de aprendizaje automático para identificar qué debe mantenerse enfocado y qué debe desenfocarse. El modo retrato se introdujo en el Pixel 2.[26][27][28]

Además, se puede activar una función de "retoque facial" que limpia las manchas y otras imperfecciones de la piel del sujeto.[29]

El Pixel 4 presentaba un modo de retrato mejorado, el algoritmo de aprendizaje automático utiliza información de paralaje del teleobjetivo y los píxeles duales, y la diferencia entre la cámara de teleobjetivo y la cámara ancha para crear mapas de profundidad más precisos.[30]​ Para la cámara frontal, utiliza la información de paralaje de la cámara frontal y las cámaras IR.[31]​ El efecto de desenfoque se aplica en la etapa Raw antes de la etapa de mapeo de tonos para obtener un efecto bokeh similar a una SLR más realista.[10][30]

Patio de juegos

[editar]

A fines de 2017, con el debut de Pixel 2 y Pixel 2 XL, Google presentó AR Stickers, una función que, utilizando la nueva plataforma ARCore de Google, permitía al usuario superponer objetos animados de realidad aumentada en sus fotos y videos. Con el lanzamiento del Pixel 3, AR Stickers se renombró como Playground.[32][33]

Google Lens

[editar]

La cámara ofrece una funcionalidad impulsada por Google Lens, que permite que la cámara copie el texto que ve, identifique productos, libros y películas y busque similares, identifique animales y plantas, y escanee códigos de barras y códigos QR, entre otras cosas.

Fotomatón

[editar]

El modo Fotomatón permite al usuario automatizar la captura de selfies. La IA es capaz de detectar la sonrisa o las caras graciosas del usuario y tomar la foto en el mejor momento sin ninguna acción por parte del usuario, similar a Google Clips. Este modo también presenta un procesamiento de IA de dos niveles de la cara del sujeto que se puede habilitar o deshabilitar para suavizar su piel. La funcionalidad de fotos en movimiento también está disponible en este modo. El balance de blancos también se puede ajustar a preajustes definidos.[34]​ En octubre de 2019, Photobooth se eliminó como modo independiente, convirtiéndose en una opción "Auto" en las opciones del obturador,[35]​ luego se eliminó por completo.

Visión nocturna

[editar]

La visión nocturna se basa en un principio similar al apilamiento de exposición, utilizado en astrofotografía. La Visión Nocturna utiliza algoritmos HDR+ o Super Res Zoom modificados. Una vez que el usuario presiona el gatillo, se toman varias tomas de larga exposición, hasta 15x 1/15 de segundo de exposición o 6x de 1 segundo de exposición, para crear una exposición de hasta 6 segundos. La medición de movimiento y el procesamiento de la imagen basado en mosaicos permiten reducir, si no cancelar, el movimiento de la cámara, lo que da como resultado una toma nítida y correctamente expuesta. Google afirma que puede manejar hasta ~ 8% de desplazamiento cuadro a cuadro. Y cada cuadro se divide en alrededor de 12.000 mosaicos. También introdujo un algoritmo AWB basado en el aprendizaje para un balance de blancos más preciso en condiciones de poca luz.[36][37][10]

La Vision Nocturna también funciona bien a la luz del día, mejorando el balance de blancos, los detalles y la nitidez. Al igual que HDR+ mejorado, la visión nocturna presenta un retardo de obturación positivo (PSL). La Visión Nocturna también admite un temporizador de retardo, así como un selector asistido para el enfoque que presenta tres opciones (lejos, cerca y enfoque automático). La Visión Nocturna se introdujo con Pixel 3, todos los teléfonos Pixel más antiguos se actualizaron con soporte.[38][39][40][41]

Astrofotografía

[editar]

El modo de astrofotografía se activa automáticamente cuando el modo de vista nocturna está habilitado y el teléfono detecta que está en un soporte estable, como un trípode. En este modo, la cámara promedia hasta quince exposiciones de 16 segundos, para crear una exposición de 4 minutos para mejorar significativamente el ruido de disparo. Al dividir la toma en varias exposiciones más cortas, la cámara logra capturar la luz de una exposición larga sin tener que lidiar con los rastros de estrellas, que de otro modo requerirían mover el teléfono con mucha precisión durante la exposición para compensar la rotación de la tierra. El modo de astrofotografía también incluye algoritmos mejorados para eliminar los píxeles calientes y los píxeles cálidos causados por la red neuronal convolucional y la corriente oscura para detectar cielos para la reducción de ruido[42]​ específica del cielo. El modo de astrofotografía se introdujo con Pixel 4 y se adaptó a Pixel 3 y Pixel 3a.[15][43][10]

Retrato de luz

[editar]

El Retrato de Luz es una función de posprocesamiento que permite agregar una fuente de luz a los retratos. Simula la direccionalidad y la intensidad para complementar la iluminación de la fotografía original utilizando modelos de aprendizaje automático. El Retrato de Luz se introdujo con Pixel 5 y se adaptó a Pixel 4, Pixel 4a y Pixel 4a 5G. Cuando se usa el modo predeterminado o el modo Night Sight, se aplica automáticamente si hay una persona o personas. El retrato de luz o del inglés Portrait Light fue una colaboración entre los equipos de Google Research, Google Daydream, Google Pixel y Google Fotos.[44]

Puertos no oficiales

[editar]

Muchos desarrolladores han lanzado puertos no oficiales que permiten su uso en teléfonos que no son de Google o implementan sus funciones premium en teléfonos Google más antiguos. Estas aplicaciones no oficiales a menudo solucionan la falta de ciertas funciones de hardware presentes en los dispositivos de nivel superior de Google y, a veces, incluso llegan a habilitar funciones que no están expuestas en la versión oficial de la aplicación. Existen numerosas versiones diferentes, dirigidas a diferentes teléfonos Android.[45][46][47]

Aunque muchas de las funciones están disponibles en las versiones portadas, no es inusual que algunas funciones no estén disponibles o no funcionen correctamente en teléfonos sin soporte API adecuado[48]​ o hardware incompatible.[49]​ También se requiere Google Play Services o un reemplazo como MicroG para que la aplicación funcione.[50]

En 2016, una versión modificada incorporó HDR+ con Zero Shutter Lag (ZSL) al Nexus 5X y al Nexus 6P.[51]​ A mediados de 2017, se creó una versión modificada de Google Cámara para cualquier teléfono inteligente equipado con un procesador Snapdragon 820, 821 u 835.[52]​ En 2018, los desarrolladores lanzaron versiones modificadas que permiten Night Sight en teléfonos que no son Pixel.[53]​ En agosto de 2020, se introdujo una nueva forma de acceder a cámaras adicionales,[54]​ eliminando la necesidad de usar la raíz en teléfonos que no exponen todas las cámaras para aplicaciones de terceros.[55]

Referencias

[editar]
  1. X, The Team at (6 de junio de 2017). «Meet Gcam: The X graduate that gave us a whole new point of view». Medium (en inglés). Consultado el 31 de marzo de 2022. 
  2. Kellen. «Video: Google Camera Quick Look and Tour». www.droid-life.com (en inglés estadounidense). Consultado el 31 de marzo de 2022. 
  3. «Introducing the HDR+ Burst Photography Dataset». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  4. Shankland, Stephen. «How Google's Pixel phone builds a better photo». CNET (en inglés). Consultado el 1 de abril de 2022. 
  5. «HDR+: Low Light and High Dynamic Range photography in the Google Camera App». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  6. a b «5 ways Google Pixel 3 camera pushes the boundaries of computational photography». DPReview. Consultado el 1 de abril de 2022. 
  7. «HDR+ on vs HDR+ Enhanced?». XDA Forums (en inglés estadounidense). Consultado el 1 de abril de 2022. 
  8. «These are the Best Pixel Phones to buy in 2022». xda-developers (en inglés estadounidense). 27 de diciembre de 2021. Consultado el 1 de abril de 2022. 
  9. a b «Live HDR+ and Dual Exposure Controls on Pixel 4 and 4a». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  10. a b c d e «These are the most important Google Pixel 4 camera updates». DPReview. Consultado el 1 de abril de 2022. 
  11. «HDR+ with Bracketing on Pixel Phones». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  12. «Behind the Motion Photos Technology in Pixel 2». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  13. «Motion Stills – Create beautiful GIFs from Live Photos». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  14. «How Apple's 'Live Photos' Can Win Where HTC's Zoe Lost». PCMAG (en inglés). Consultado el 1 de abril de 2022. 
  15. a b Made by Google '19, consultado el 1 de abril de 2022 .
  16. «Fused Video Stabilization on the Pixel 2 and Pixel 2 XL». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  17. «See Better and Further with Super Res Zoom on the Pixel 3». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  18. a b «Google Pixel 4 Promises 'Studio-Like Photos Without the Studio'». PetaPixel (en inglés). 15 de octubre de 2019. Consultado el 1 de abril de 2022. 
  19. «Top Shot on Pixel 3». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  20. «10 Best Google Pixel 3 Camera Features». Beebom (en inglés estadounidense). 12 de octubre de 2018. Consultado el 1 de abril de 2022. 
  21. «English Community». ZenTalk (en inglés). Consultado el 1 de abril de 2022. 
  22. «Google Camera - Apps on Google Play». play.google.com (en inglés). Consultado el 1 de abril de 2022. 
  23. Biersdorfer, J. D. (23 de mayo de 2016). «Going Wide With Google Camera». The New York Times (en inglés estadounidense). ISSN 0362-4331. Consultado el 5 de abril de 2018. 
  24. «Android 4.2 Jelly Bean Has Arrived: Photo Sphere Panoramic Camera, Gesture Typing, Wireless HDTV Streaming». TechCrunch (en inglés estadounidense). Consultado el 1 de abril de 2022. 
  25. updated, AC Staff last (26 de abril de 2016). «Photo Sphere». Android Central (en inglés). Archivado desde el original el 1 de diciembre de 2020. Consultado el 1 de abril de 2022. 
  26. «Portrait mode on the Pixel 2 and Pixel 2 XL smartphones». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  27. «Learning to Predict Depth on the Pixel 3 Phones». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  28. «How to Use Portrait Mode in Google Pixel 2: Cool Tips». Guiding Tech (en inglés estadounidense). 26 de diciembre de 2017. Consultado el 1 de abril de 2022. 
  29. «Download Google Camera App with Motion Photo + Face Retouching on the Google Pixel». xda-developers (en inglés estadounidense). 13 de octubre de 2017. Consultado el 1 de abril de 2022. 
  30. a b «Improvements to Portrait Mode on the Google Pixel 4 and Pixel 4 XL». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  31. «uDepth: Real-time 3D Depth Sensing on the Pixel 4». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  32. «How to use AR stickers on the Google Pixel or Pixel 2». Android Authority (en inglés). 12 de diciembre de 2017. Consultado el 1 de abril de 2022. 
  33. «See your world differently with Playground and Google Lens on Pixel 3». Google (en inglés estadounidense). 9 de octubre de 2018. Consultado el 1 de abril de 2022. 
  34. «Take Your Best Selfie Automatically, with Photobooth on Pixel 3». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  35. Bradshaw, Kyle (12 de octubre de 2019). «This week's top stories: Google Camera 7.1, Pixelbook Go hands-on, and more». 9to5Google (en inglés estadounidense). Consultado el 1 de abril de 2022. 
  36. «Night Sight: Seeing in the Dark on Pixel Phones». Google AI Blog (en inglés). Consultado el 1 de abril de 2022. 
  37. «See the light with Night Sight». Google (en inglés estadounidense). 14 de noviembre de 2018. Consultado el 1 de abril de 2022. 
  38. Savov, Vlad (14 de noviembre de 2018). «Google gives the Pixel camera superhuman night vision». The Verge (en inglés). Consultado el 1 de abril de 2022. 
  39. «Pixel Night Sight also works in daylight, reducing noise and boosting resolution». Android Police (en inglés estadounidense). 14 de noviembre de 2018. Consultado el 1 de abril de 2022. 
  40. «Behind the scenes: Google's Pixel cameras aren't trying to be cameras at all». Android Authority (en inglés estadounidense). 15 de octubre de 2019. Consultado el 16 de octubre de 2019. 
  41. Savov, Vlad (26 de noviembre de 2018). «Google’s Night Sight is subtly awesome in the daytime, too». The Verge (en inglés). Consultado el 1 de abril de 2022. 
  42. «Astrophotography with Night Sight on Pixel Phones». Google AI Blog (en inglés). Consultado el 18 de abril de 2022. 
  43. «Behind the scenes: Google's Pixel cameras aren't trying to be cameras at all». Android Authority (en inglés). 15 de octubre de 2019. Consultado el 18 de abril de 2022. 
  44. «Portrait Light: Enhancing Portrait Lighting with Machine Learning». Google AI Blog (en inglés). Consultado el 18 de abril de 2022. 
  45. «Google Camera Ports Download». www.gcamports.com. Consultado el 18 de abril de 2022. 
  46. «Google Camera Port Hub: Get the Best GCam APK for Samsung, Xiaomi, Redmi, and other phones!». xda-developers (en inglés estadounidense). 4 de marzo de 2022. Consultado el 18 de abril de 2022. 
  47. «Google Camera – GCam APK Port by BSG, Arnova8G2, Shamim». GCam APK (en inglés estadounidense). 10 de febrero de 2023. Consultado el 18 de abril de 2022. 
  48. «Will the pixel dual exposure slider be coming to google pixel 3a in a future update??». reddit. Consultado el 18 de abril de 2022. 
  49. «How To Install and Use the Google Camera Port». www.celsoazevedo.com (en inglés). Consultado el 18 de abril de 2022. 
  50. «Google Camera Port: FAQ and Troubleshooting». www.celsoazevedo.com (en inglés). Consultado el 18 de abril de 2022. 
  51. «Chow, Charles (2016-11-05). "Camera NX V4 Bring ZSL Photo Shooting with HDR+ on Nexus, Same as Pixel Phone's Way (Update for N6P)". ChromLoop. Retrieved 2019-10-15.». Archivado desde el original el 17 de septiembre de 2021. Consultado el 18 de abril de 2022. 
  52. Liptak, Andrew (12 de agosto de 2017). «Google's Pixel camera software has been made to work on other recent Android phones». The Verge (en inglés). Consultado el 18 de abril de 2022. 
  53. «Get Google Camera port with Night Sight for Xiaomi Mi 5, Essential Phone». xda-developers (en inglés estadounidense). 27 de octubre de 2018. Consultado el 18 de abril de 2022. 
  54. «New Google Camera mod enables auxiliary camera support on many devices without root». xda-developers (en inglés estadounidense). 27 de agosto de 2020. Consultado el 18 de abril de 2022. 
  55. «AUX Cameras Enabler Module». Android Pages (en inglés británico). 7 de abril de 2020. Consultado el 18 de abril de 2022. 

Enlaces externos

[editar]