A día de hoy extraño es el móvil no compatible con modo retrato o con efectos de realidad aumentada. Cada dispositivo dispone de un hardware distinto, pero las distintas plataformas de desarrollo que se ponen a disposición de los developers facilitan el trabajo. Google, en una nueva publicación, ha hecho oficial una nueva herramienta para estos procesos.
La compañía comenta que el seguimiento del iris en tiempo real es una de las claves para mejorar la fotografía computacional y la realidad aumentada. Esto tiene sentido ya que, si el móvil es capaz de estimar en tiempo real la posición del iris, lo tendrá más fácil para estimar la posición del resto de elementos.
MediaPiPe Iris: la tecnología de Google para mejorar la cámara de nuestros moviles
Google cuenta que el seguimiento del iris en tiempo real es una tarea difícil para los teléfonos móviles, debido a los recursos disponibles, las condiciones de luz variables y la presencia de distintas oclusiones, como ojos entrecerrados, algún pelo u objeto que tape los ojos y demás. Para mejorar esto han lanzado MediaPipe Iris, un nuevo modelo de aprendizaje automático que viene para lograr una estimación más precisa del iris.
El nuevo modelo de Google abre muchas puertas, al funcionar con un solo sensor RGB sin necesidad de hardware especializado en el móvil
Este modelo, según explica la compañía, es capaz de rastrear distintos puntos de referencia que involucran tanto al iris, la pupila y el propio contorno del ojo. El mejor punto aquí es que el modelo es capaz de trabajar sobre una sola cámara RGB, por lo que no es necesario hardware especializado como sensores 3D, dobles cámaras y demás. Así, cualquier teléfono con cámara selfie podría valerse del modelo. Google promete que con este modelo se puede determinar la distancia entre sujeto y cámara con error relativo inferior al 10%, un nivel de precisión bastante bueno.
La estimación de profundidad del iris se hace a partir de una sola imagen, a partir de la propia distancia focal de la cámara. Esto es especialmente útil, ya que permite al móvil saber a qué distancia exacta estamos de él, lo que abre muchas puertas tanto a nivel de accesibilidad como a nivel de realidad aumentada.
Para comprobar la efectividad de esta herramienta, Google la ha comparado con el sensor de profundidad del iPhone 11. Cuentan que con el dispositivo de Apple el margen de error es de menos de un 2% para distancias de menos de 2 metros, mientras que el de Google tiene un error relativo medio del 4,3%. Como se puede ver, el error es bastante bajo para no teener hardware especializado, y permite obtener datos fiables sobre la profundidad métrica y posición del iris.
Vía | Google