Google explica el funcionamiento del software del Pixel para capturar fotografías impresionantes sin estabilización óptica

💿 ¡Oferta especial de Pascua! ¡Windows 11 por solo 13,45€ y Office 2021 Pro por 25,25€! [ Saber más ]

Hoy han comenzado a aparecer los primeros análisis del Pixel en medios internacionales, y en general la cámara de 12.3MP está siendo la estrella gracias a su velocidad y a la calidad de las imágenes que captura.

» Te interesa: La calidad de estas 100 fotografías tomadas con el Pixel no te decepcionarán

TE INTERESA:
Google anuncia las novedades de marzo para el ecosistema Pixel

Marc Levoy, responsable del equipo de fotografía computacional en Google Research, ha estado charlando con The Verge sobre el papel del software en la calidad de la cámara del Pixel.

Levoy afirma que la clave del éxito es el modo HDR+ del Pixel, que en su opinión debería estar activo todo el tiempo.

Uno de los principales problemas del modo HDR tradicional es su lentitud – por ejemplo, con el Nexus 6P y 5X, el modo HDR producía un retraso de unos pocos segundos a la hora de tomar fotografías. Sin embargo, el modo HDR+ de Pixel es instantáneo, y esta es la explicación de Levoy:

El momento en el que pulsas el disparador no es realmente el momento en el que capturas la fotografía – la fotografía ya se había tomado. ¡De hecho se habían tomado ya muchas fotografías! Lo que ocurre cuando pulsas el botón de disparo es que se marca el momento en el que has pulsado, y se combinan las imágenes que ya se habían capturado.

30094424556_a73d224c98_z1

Ejemplo de fotografía tomada con Pixel

Las imágenes HDR se generan normalmente combinando varios disparos tomados con diferentes exposiciones, pero la manera en la que Pixel usa el HDR es completamente diferente:

En lugar de tomar fotografías con diferentes exposiciones, lo que hace Pixel es sub-exponer cada disparo y combinarlos gracias al uso de las matemáticas.

Matemáticamente hablando, piensa en una zona que esté en sombra en una fotografía – tiene el color correcto, simplemente presenta demasiado ruido porque han aterrizado pocos fotones en esos píxeles.

Pero gracias a las matemáticas, si tomo nueve disparos, el ruido se reduce por un factor de tres – de acuerdo a la raíz cuadrada del número de disparos. Y por eso basta con tomar más disparos para que la fotografía se empiece a ver bien. Quizás todavía esté oscura, quizás quieras mejorar con mapeo de tonos, pero ya no tendrá ruido.

Uno de los objetivos que queríamos conseguir era que no hubiera doble imagen nunca. Todos los disparos son iguales excepto por el movimiento de objetos. No hay una zona que esté quemada en un disparo y no en otro. Eso hace que el alineamiento de los disparos sea muy robusto.

Cuando se le ha preguntado sobre la falta de estabilización óptica de Pixel, Levoy ha explicado que con HDR+ no hace falta, ya que el modo HDR+ de Pixel emplea tiempos de disparo más cortos, por lo que el riesgo de que la foto salga movida es muy bajo.

La creencia de Levoy es que la calidad de la fotografía dependerá cada vez más del software. Si el Pixel ya puede hacer todo esto, no podemos imaginar lo que podrán hacer las cámaras de los smartphones de los próximos años.

💿 ¡Oferta especial de Pascua! ¡Windows 11 por solo 13,45€ y Office 2021 Pro por 25,25€! [ Saber más ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario