Usted está aquí

NOTA DE PRENSA EMBARGADA POR LA REVISTA NATURE HASTA LAS 17:00H DE HOY LUNES 5 DE AGOSTO DE 2019

Científicos de la Universidad de Zaragoza desarrollan un método para “ver a través de esquinas”

El nuevo método, que acaba de ser publicado en Nature, transforma las paredes en lentes virtuales

Diego Gutiérrez, Adrián Jarabo e Ibón Guillén, investigadores del Graphics and Imaging Lab del I3A, han desarrollado esta novedosa técnica de imagen computacional en colaboración con la University of Wisconsin – Madison

El trabajo permite por primera vez reconstruir escenas no visibles complejas y de gran tamaño y abre la puerta al uso de esta tecnología en aplicaciones del mundo real en seguridad, misiones de rescate o vehículos autónomos

Esta novedosa tecnología se está probando ahora incluso en la inspección lejana de cráteres en la luna por la NASA

(Zaragoza, lunes, 5 de agosto de 2019). Una nueva técnica de imagen computacional, que combina hardware de imagen ultra-rápida a un billón de fotogramas por segundo con novedosas técnicas computacionales, permite por primera vez ver a través de esquinas en escenas del mundo real no controladas en un laboratorio, incluyendo geometría y materiales complejos.
 
Esta técnica ha sido publicada en la prestigiosa revista Nature, considerada la más importante en investigación científica, y ha sido desarrollada gracias a la colaboración de los científicos Diego Gutiérrez, Adrián Jarabo e Ibón Guillén del grupo Graphics and Imaging Lab del Instituto de Investigación en Ingeniería de Aragón (I3A) de la Universidad de Zaragoza, con investigadores de la University of Wisconsin - Madison, liderados por Andreas Velten. 
 
Desde que Gutiérrez y su equipo, en colaboración con el MIT (EEUU) desarrollaron en 2013 una cámara capaz de capturar luz a un billón de frames por segundo, la idea de usar esta tecnología para ver a través de esquinas ha sido explorada por varios grupos a nivel mundial, pero hasta ahora se limitaba a objetos sencillos en condiciones ideales  laboratorio: "Esencialmente, a un billón de fotogramas por segundo podemos aproximar qué camino ha recorrido cada fotón al viajar por la escena, para luego invertir matemáticamente el camino de millones de fotones y reconstruir una escena", señala Adrián Jarabo. "Sin embargo, invertir este camino resulta poco robusto, haciendo esta técnica impracticable salvo en situaciones sencillas en condiciones muy controladas", añade. Esas limitaciones hacían que esta prometedora tecnología no pudiese ser aplicada en condiciones realistas. 
 
Según explica Diego Gutiérrez, para tratar de superar estas limitaciones, fue necesario adoptar un enfoque radicalmente nuevo: "Nos dimos cuenta de que las cámaras tradicionales no requieren modelos matemáticos complejos para capturar una imagen. De hecho, su funcionamiento básico es conocido desde hace unos 200 años. De modo que nos replantemos el problema de cero, y desarrollamos un modelo computacional que nos permite transformar una pared en una cámara virtual que captura directamente la escena oculta".
 
Estas cámaras virtuales poseen las mismas capacidades que los sistemas ópticos existentes (incluyendo también microscopios o telescopios), y es muy robusta a señales degradadas por ruido, rango, iluminación ambiental, e incluso a exposiciones muy cortas, necesarias para llevar esta tecnología al mundo real: "Ahora mismo capturamos escenas no visibles en medio minuto, pero para mitad del año que viene esperamos ser capaces de realizar la captura en uno o dos segundos, o incluso menos", comenta Ibón Guillén. 
 
Este nuevo modelo no solo permite superar las limitaciones de los modelos previos, sino que "describe una nueva clase de algoritmos que a su vez abren la puerta a multitud de aplicaciones en campos como la seguridad, robótica, vehículos autónomos, o situaciones de rescate en situaciones de catástrofes, donde los miembros de equipos de rescate podrían evaluar riesgos al entrar en zonas peligrosas sin necesidad de exponerse", comenta Gutiérrez.
 
Prueba del futurible impacto de esta tecnología está en el interés por parte del Departamento de Defensa de EEUU, que ha cofinanciado esta investigación (junto con, entre otros, una Beca Leonardo de la Fundación BBVA a Adrián Jarabo) dentro del programa REVEAL. A medio plazo, la NASA está en proceso de pruebas para incorporar esta tecnología para la exploración remota de cuevas lunares
 
Fuente: Nature
 
Trayectoria de los tres investigadores del I3A:
 
Diego Gutiérrez es fundador y director del Graphics and Imaging Lab del Instituto de Investigación en Ingeniería de Aragón (I3A) y Catedrático en el Departamento de Informática e Ingeniería de Sistemas de la Universidad de Zaragoza. Ha publicado más de 120 artículos en temas de informática gráfica e imagen computacional. En 2016 obtuvo una ERC Consolidator Grant de la Comisión Europea. 
 
Adrián Jarabo es investigador post-doctoral en el Graphics and Imaging Lab. Ha publicado 25 artículos en revistas científicas, en el campo de la simulación y análisis de transporte de luz. En 2017 obtuvo el Eurographics PhD Award a la mejor tesis del año en Europa en su campo, y en 2018 consiguió una Beca Leonardo de la Fundación BBVA. 
 
Ibón Guillén es investigador pre-doctoral en el Graphics and Imaging Lab, supervisado por Prof. Gutiérrez y Dr. Jarabo, en simulación del transporte de luz a escala de picosegundos.  
 
 
 
En la imagen aparecen, de izquierda a derecha, Adrián Jarabo, Diego Gutiérrez e Ibón Guillén.