Un algoritmo permite encontrar el lugar donde fue tomada una fotografía

Analiza las imágenes y luego las compara con otras en Flickr


Informáticos de la universidad de Carnegie Mellon, en los Estados Unidos, han ideado un algoritmo que permite analizar una fotografía y después identificar el lugar del mundo donde fue tomada. Según sus creadores, esta herramienta no identifica objetos, sino áreas geográficas. Para hacer su trabajo, el sistema analiza la composición de la foto (textura, orientación etc.) y después busca instantáneas similares en el portal de Internet Flickr. El algoritmo aprovecha al mismo tiempo la información proporcionada por los pies de foto y por las etiquetas GPS que ya muchas de ellas incorporan para geolocalizar más de 6 millones de fotografías. Por Raúl Morales.


Raúl Morales
25/06/2008

La herramienta analiza la fotografía de la Ópera de Sidney y buscó su equivalente.
Investigadores de la universidad norteamericana Carnegie Mellon han desarrollado un método informático para analizar una fotografía y determinar en qué parte del mundo fue tomada. Para ello, busca entre millones de fotografías en la colección online Flickr.

El algoritmo, llamado IM2GPS, es una idea de los informáticos James Hays y Alexei A. Efros. IM2GPS no rastrea detalles, como el tipo de ropa o el idioma que se ve en los letreros de las calles, hasta dar con la localización exacta, como haría una persona. La nueva herramienta analiza la composición de la foto, anota cómo están distribuidos sus texturas y colores y graba el número y la orientación de la fotografía que analiza. Después, busca en Flickr fotos con características similares.

“No pedimos al ordenador que nos diga lo que representa la foto, sino que encuentre otras que se parezcan a ella”, comenta Efros en un comunicado. “Nos ha sorprendido mucho comprobar la efectividad de este desarrollo. ¿Cómo podíamos esperar que las similitudes tuviesen un correlato con una proximidad geográfica”

Hays y Efros han descubierto que pueden geolocalizar las imágenes en un radio de 200 kilómetros con un nivel de acierto del 16% entre más de 200 fotos. Incluso si el algoritmo falla en la localización exacta, éste les muestra en muchas ocasiones posibilidades y pistas muy valiosas.

“La verdad es que no hay tanta ambigüedad en el mundo visual como cabía esperar”, dice Hays, que ha presentado esta semana su investigación en el IEEE Computer Society Conference on Computer Vision and Pattern Recognition, celebrado en Alaska.

Identificar la localización de una foto puede mejorar las técnicas de búsqueda de imágenes, haciendo que las herramientas sean menos dependientes de los pies de foto o de los textos asociados a ellas, como ocurre en la actualidad. Un sistema informático para geolocalizar fotos puede ser muy útil para encontrar las fotos familiares de un viaje, pero también para ciertos trabajos de investigación forense, dicen sus creadores. Así, determinar la localización de las fotos ayuda también a combinarlas con bases de datos relacionadas con el clima, la densidad de población, la vegetación, la topografía o el uso del suelo.

Tareas de identificación

Por otro lado, la localización geográfica también puede ser muy valiosa para el ordenador en ciertas tareas de identificación. Por ejemplo, si un ordenador reconoce que una foto ha sido tomada probablemente en Japón, éste tendrá una idea más aproximada de qué aspecto tendría un taxi en aquel país.

Muchas fotos online tienen ya etiquetas de su localización geográfica, pero estas descripciones humanas son en muchas ocasiones incorrectas, como cuando encontramos una foto de la Alambra de Granada etiquetada como “España”. Cada vez más fotografías tienen etiquetas GPS, o sea que no tienen ningún tipo de ambigüedad, incluso cuando se traba de instantáneas que no tienen función de localización (como la fotografía de una fiesta de cumpleaños).

Usando fotografías con descripciones geográficas y con coordenadas de GPS, Hays y Efros han sido capaces de encontrar la localización de más de seis millones de fotografías con un nivel de cierto considerable.

No reconoce objetos

El algoritmo localiza fotografías de lugares tan emblemáticos como la Catedral de Notre Dame, en París. Pero también hace cosas más sorprendentes. Por ejemplo, es capaz de reconocer una calle de Barcelona como típica de una ciudad del Mediterráneo y no de los Estados Unidos.

Durante las pruebas, también se dieron emparejamientos curiosos. Así, la arquitectura única de la Opera House de Sydney le pareció al ordenador una construcción muy similar a un hotel en Mississippi o a un puente de Londres. En otra ocasión, el algoritmo identificó una instantánea de la Torre Eiffel con la torre Coint, en San Francisco, y con la Estatua de la Libertad, en Nueva York.

Una de las razones de esta confusión, dice Hays, es que el algoritmo no está diseñado para reconocer objetos específicos, sino áreas geográficas. Por ejemplo, el IM2GPS es capaz de coger una imagen del Monument Valley, en el estado norteamericano de Utah, y casarla con otras imágenes del mismo sitio o de un paisaje del suroeste norteamericano.

Hace unos meses, Tendencias21 se hacía eco de una investigación del mismo grupo de informáticos. En aquella ocasión anunciaron la creación de un programa de edición de fotografías capaz de cambiar o completar imágenes usando segmentos de imágenes encontradas en Internet. El sistema analizaba el ángulo y las condiciones de luz con que fue tomada la foto original y buscaba en la web aquella imagen que se adaptaba tanto a esos criterios como al contexto general. Este software también era capaz de encontrar texturas y colores que casaban con el original para rellenar huecos.



Raúl Morales
Artículo leído 29025 veces



Más contenidos