Google utiliza el Machine Learning para mejorar el Modo Retrato de los Pixel 3

Google publicó en su blog de Inteligencia Artificial un artículo que explica cómo sus recientemente lanzados Google Pixel 3 predicen la profundidad en el Modo Retrato con algoritmos de Aprendizaje Automático (Machine Learning).

La función Modo Retrato en los smartphones Pixel 3 (y otros smartphones) crea un desenfoque del fondo que depende de la profundidad para llamar la atención sobre el sujeto para unos selfies perfectos.

Al utilizar el código abierto de IA de Google, conocido como TensorFlow, los ingenieros de software de Google pudieron entrenar una red neuronal convolucional para recopilar información de los píxeles del enfoque PDAF y luego aprender a predecir la profundidad. Este nuevo y mejorado método de estimación de profundidad basado en Machine Learning es lo que da vida al Modo Retrato en los Google Pixel 3.

Imagen comparativa de un Pixel 3 en modo normal y modo retrato

“Para capacitar a la red neuronal, se necesitan muchísimas imágenes del enfoque PDAF y los correspondientes mapas de profundidad de alta calidad. Y como queremos que nuestra profundidad predicha sea útil para el Modo Retrato, también necesitamos que los datos de entrenamiento sean similares a las imágenes que los usuarios toman con sus teléfonos inteligentes.

Para lograr esto, creamos nuestra propia plataforma personalizada, el “Frankenphone“, que contiene cinco teléfonos Pixel 3, junto con una solución basada en WiFi que nos permitió capturar imágenes de todos los teléfonos de forma simultánea (dentro de una tolerancia de ~2 milisegundos). Con esta plataforma, calculamos la profundidad de alta calidad de las fotos mediante el uso de una estructura de movimiento y estéreo de vista múltiple”, dice Google en su blog oficial.

El Frankenphone, varios Pixel 3 para mejorar el Modo Retrato

vía: HOCP

Artículos relacionados