Primero ganaba el que tenía más megapixeles, ahora, parece que es el que tenga más cámaras –incluso hay quienes ya colocaron tres–. Sin embargo, el combo ganador según Google, se encuentra en el software. Pues aceptan abiertamente que en hardware es casi imposible igualar lo que puedes lograr con una cámara convencional o “profesional”.

Los smartphones Pixel de Google tienen una sola cámara, sin embargo, el algoritmo que utilizan para el modo de retrato es bastante avanzado y a Google le ha parecido una buena idea explicar cómo funciona en el más mínimo detalle.

Normalmente al usuario final no le interesan estas cosas, pero he revisado el documento y me parece muy interesante la tecnología empleada. Te explico a detalle y de forma simple, cómo logra Google simular los retratos como si fueran hechos con una cámara “réflex” o DSLR.

Google explica cómo funciona el modo retrato en smartphones

Para el modo retrato, la clave es lograr poca profundidad de campo. Es decir, existe un plano en foco, donde los objetos que estén lejos de él, se verán borrosos. De esta forma, se busca llamar la atención de quien mira una foto. O simplemente sirve para suprimir el fondo de una imagen. Ésto se logra en una cámara convencional con aperturas grandes en el lente, por ejemplo f/2.0 f/1.8 f 1/4.

Lograr este efecto en un smartphone, y con una sola cámara es complicado, casi imposible. Pero Google lo ha logrado gracias a la implementación de software. A través de segmentación semántica de imágenes. Es decir, separando los pixeles de una imagen en dos capas, para aislar el primer plano y posteriormente difuminar los pixeles restantes.

Cuando tomas una foto con el modo retrato de Google, se realizan 4 procesos: 

1.- Captura una imagen nítida: para ello, se utiliza tecnología HDR +. Que consiste en capturar varias imágenes, en diferentes exposiciones (mediciones de luz) para lograr sacar cada uno de los detalles perfectos de la escena. Es decir, buenas luces, buenas sombras, buena nitidez y buenos colores.

2.- Segmentar la foto: aquí comienza la magia de Google. A través de inteligencia artificial, se analiza la imagen y se decide qué objetos o elementos pertenecen al fondo y quién es el protagonista de la fotografía.

3.- Más algoritmos para crear el mapa de profundidad: es necesario conocer la profundidad de cada punto en la escena. Para ello, se utiliza el algoritmo estéreo y es aquí donde entran las cámaras dobles. Sin embargo, Google lo ha logrado con una sola cámara, a través de software. La tecnología de Google es llamada píxeles de detección automática de fase (PDAF). Esto consiste en dividir la diminuta lente en dos, el lado izquierdo y derecho. Como si se tratara de nuestra visión. Se utilizan únicamente los pixeles verdes para hacer esta medición.

4.- La imagen final: El último paso es combinar la máscara de segmentación del paso 2 con el mapa de profundidad que calculamos del paso 3. En este paso el software decide cuánto difuminar cada píxel en la imagen HDR + tomada inicialmente.

Las ventajas de usar una sola cámara

El propósito de Google ha sido claro, al utilizar una sola cámara, se evita utilizar espacio crucial en el hardware del smartphone. Es decir, el módulo dedicado a la cámara es más pequeño. Por lo que hay más espacio para otros componentes, se reduce más el consumo de batería y por supuesto, se reduce –aunque de forma mínima– el costo de los componentes utilizados.

¿Pero debería dejar mi cámara DSLR por un smartphone?

La respuesta es simple, a pesar de esta tecnología tan increíble. Las imágenes logradas con el modo de retrato aún se ven un poco falsas –para mi gusto–. No importa si hablamos de Google o de Apple o de otro fabricante. No es tan natural el efecto de profundidad de campo. Sin embargo, para muchos usuarios, un smartphone podría cubrir las necesidades básicas de hacer foto.

Debo reconocer que si existen smartphones que pueden permitir hacer fotos en la mayoría de las situaciones. Puedes documentar un viaje completo, por ejemplo, sin necesidad de llevar una cámara contigo. Pero la experiencia que brinda hacer fotos con una cámara normal, nunca la ofrecerá un smartphone.

Y con esto me refiero no solo a la calidad, sino a la experiencia de mirar a través de un visor y tener un control completo sobre apertura, ISO y velocidad de obturación. Sin embargo, es increíble lo que se puede lograr a través de inteligencia artificial y hardware.

¿Necesitas más ayuda?

yo soy luisgyg luis gygSi tienes alguna duda déjala en YouTube o Facebook y trataremos de responderte en el siguiente programa de Geeks y Gadgets, el jueves a las 7 pm (tiempo del centro de México).

Desde hace casi 20 años me dedico a hablar de tendencias tecnológicas, marca personal, electrónica de consumo y entretenimiento digital.

Además, ofrezco asesoría al C-Suite en temas relacionados con posicionamiento digital y creación de contenidos.

Si estás interesada o interesado en conferencias, asesorías personalizadas o contenidos corporativos visita mi nueva página web.


BUSCAR

RECOMENDADOS



data-matched-content-ui-type=”image_card_stacked”