Fuente: Photoxpress.
Las fotografías de objetos en movimiento resultan casi siempre un poco borrosas (o mucho si los objetos se están moviendo demasiado rápido). Para hacer que el trabajo de los animadores de películas y videojuegos se parezca lo más posible a la imagen del cine convencional, un grupo profesionales trata de reproducir la falta de definición.
Pero, al contrario de lo que pueda parecer, diseñar por ordenador imágenes borrosas es en realidad más complejo que la producción de formas absolutamente perfectas.
El próximo mes de agosto, en la conferencia Siggraph de este año - la primera conferencia de gráficos por ordenador - los investigadores del Grupo de Computación Gráfica del Laboratorio de Inteligencia Artificial e Informática del MIT (el Instituto Tecnológico de Massachusetts), en colaboración con científicos de la Universidad de Lund en Suecia, presentarán un par de documentos que describen nuevas técnicas para el cálculo del desenfoque de forma mucho más eficiente, publica el MIT en un comunicado.
El resultado podría resultar muy atractivo para los diseñadores de videojuegos e imágenes digitales, que cambiarían las horas que invierten en hacer esta parte de su trabajo por tan sólo unos minutos.
La dificultad de representar imágenes borrosas
El sensor de imagen en una cámara digital, e incluso la película en una cámara convencional, puede ser entendido como una red de detectores de color, donde cada uno de ellos corresponde a un píxel en la imagen final. Si los objetos que fotografiamos se mantienen quietos durante una exposición única, cada detector registra el color de un solo punto de la superficie de un objeto.
Pero si los objetos están en movimiento, la luz que proviene de diferentes puntos de un objeto, e incluso de diferentes objetos, será registrada por un solo detector, que realizará un promedio de los colores de todos los puntos, por lo que el resultado final será una imagen borrosa.
Pero, al contrario de lo que pueda parecer, diseñar por ordenador imágenes borrosas es en realidad más complejo que la producción de formas absolutamente perfectas.
El próximo mes de agosto, en la conferencia Siggraph de este año - la primera conferencia de gráficos por ordenador - los investigadores del Grupo de Computación Gráfica del Laboratorio de Inteligencia Artificial e Informática del MIT (el Instituto Tecnológico de Massachusetts), en colaboración con científicos de la Universidad de Lund en Suecia, presentarán un par de documentos que describen nuevas técnicas para el cálculo del desenfoque de forma mucho más eficiente, publica el MIT en un comunicado.
El resultado podría resultar muy atractivo para los diseñadores de videojuegos e imágenes digitales, que cambiarían las horas que invierten en hacer esta parte de su trabajo por tan sólo unos minutos.
La dificultad de representar imágenes borrosas
El sensor de imagen en una cámara digital, e incluso la película en una cámara convencional, puede ser entendido como una red de detectores de color, donde cada uno de ellos corresponde a un píxel en la imagen final. Si los objetos que fotografiamos se mantienen quietos durante una exposición única, cada detector registra el color de un solo punto de la superficie de un objeto.
Pero si los objetos están en movimiento, la luz que proviene de diferentes puntos de un objeto, e incluso de diferentes objetos, será registrada por un solo detector, que realizará un promedio de los colores de todos los puntos, por lo que el resultado final será una imagen borrosa.
Por otra parte, la representación digital de video es un proceso computacionalmente intensivo, que tiene varias etapas. En primer lugar, el equipo tiene que determinar cómo se mueven los objetos en la escena.
A continuación, debe calcular la cantidad de rayos de luz de una fuente imaginada que se refleja en los objetos. Y por último, tiene que determinar que los rayos de luz realmente llegan a un objetivo imaginado. Si los objetos en el vídeo se están moviendo demasiado despacio el equipo tiene que pasar por ese proceso una sola vez por fotograma. Por el contrario, si los objetos se están moviendo rápidamente, puede tener que pasar por este sistema decenas o incluso cientos de veces.
Teniendo en cuenta lo difícil que es representar una imagen borrosa, se podría pensar que los animadores simplemente la ignoran. Pero si fuese así, el resultado sería un vídeo muy poco convincente, como señala Jaakko Lehtinen, investigador del grupo del MIT que ahora presta sus servicios al fabricante de chips gráficos Nvidia: "El movimiento no se ve fluido en absoluto".
Para hacerse una idea de lo que significa un vídeo sin desenfoque de movimiento, el investigador pone como ejemplo a la película de animación "Rudolph, el reno de la nariz roja". "El film no tiene el desenfoque de movimiento, debido a que la escena es en realidad inmóvil cuando se toma la foto. Sólo se ve entrecortada por lo que el movimiento no resulta natural", señala Lehtinen.
Dos nuevas soluciones
Los investigadores del MIT llevaron a cabo dos enfoques diferentes para simplificar el cálculo del desenfoque, que corresponden a dos etapas diferentes en la representación de gráficos. El estudiante de postgrado Jonathan Ragan-Kelley es el autor principal de uno de los documentos que se presentará en Siggraph, junto con el profesor asociado Frédo Durand, quien dirige el Grupo de Informática Gráfica en el que también colabora Jaakko Lehtinen. Junto a ellos, participan en el estudio los investigadores de la Universidad de Lund en Suecia Jiawen Chen y Michael Doggett.
A continuación, debe calcular la cantidad de rayos de luz de una fuente imaginada que se refleja en los objetos. Y por último, tiene que determinar que los rayos de luz realmente llegan a un objetivo imaginado. Si los objetos en el vídeo se están moviendo demasiado despacio el equipo tiene que pasar por ese proceso una sola vez por fotograma. Por el contrario, si los objetos se están moviendo rápidamente, puede tener que pasar por este sistema decenas o incluso cientos de veces.
Teniendo en cuenta lo difícil que es representar una imagen borrosa, se podría pensar que los animadores simplemente la ignoran. Pero si fuese así, el resultado sería un vídeo muy poco convincente, como señala Jaakko Lehtinen, investigador del grupo del MIT que ahora presta sus servicios al fabricante de chips gráficos Nvidia: "El movimiento no se ve fluido en absoluto".
Para hacerse una idea de lo que significa un vídeo sin desenfoque de movimiento, el investigador pone como ejemplo a la película de animación "Rudolph, el reno de la nariz roja". "El film no tiene el desenfoque de movimiento, debido a que la escena es en realidad inmóvil cuando se toma la foto. Sólo se ve entrecortada por lo que el movimiento no resulta natural", señala Lehtinen.
Dos nuevas soluciones
Los investigadores del MIT llevaron a cabo dos enfoques diferentes para simplificar el cálculo del desenfoque, que corresponden a dos etapas diferentes en la representación de gráficos. El estudiante de postgrado Jonathan Ragan-Kelley es el autor principal de uno de los documentos que se presentará en Siggraph, junto con el profesor asociado Frédo Durand, quien dirige el Grupo de Informática Gráfica en el que también colabora Jaakko Lehtinen. Junto a ellos, participan en el estudio los investigadores de la Universidad de Lund en Suecia Jiawen Chen y Michael Doggett.
Imágenes borrosas mejoradas. Fuente: Jaakko Lehtinen (MIT).
En ese documento, el equipo parte del supuesto simplificador de que la forma en que la luz se refleja en un objeto en movimiento no cambia en el transcurso de un solo fotograma. Para cada píxel en la imagen final, el algoritmo hace un promedio de los colores de varios puntos en las superficies de los objetos, pero calcula esos colores de una sola vez.
Los investigadores encontraron una forma de representar la relación entre los cálculos de color y las formas de los objetos asociados como entradas de una tabla. Para cada píxel en la imagen final, el algoritmo simplemente busca los valores correspondientes en la tabla, lo que simplifica drásticamente el cálculo, pero tiene poco efecto sobre la imagen final.
El segundo de los documentos del grupo reduce la carga computacional que supone determinar la cantidad de rayos de luz que llegan a una lente imaginada. Para producir un movimiento borroso convincente, los animadores digitales normalmente considerarían las contribuciones que más de 100 puntos discretos sobre las superficies de los objetos en movimiento aportan al valor del color de un solo píxel.
Reducción del tiempo de producción de las imágenes
El nuevo algoritmo de Lehtinen y sus colegas, sin embargo, se centra en un número menor de puntos (tal vez 16 o menos) y hace una conjetura acerca de los valores de color del resto de puntos. El resultado es que un fotograma de vídeo digital cuya representación normalmente llevaría alrededor de una hora con esta técnica podría tardar tan solo unos diez minutos.
Ambas técnicas no sólo se aplican en el desenfoque del movimiento, sino también en el tipo de desenfoque que se produce, por ejemplo, en el fondo de una imagen cuando la cámara se centra en un objeto en primer plano.
Eso también es algo que los animadores tratan de reproducir fielmente. "Cuando el director y el director de fotografía optan por un enfoque determinado de la lente, están dirigiendo su atención hacia un punto en concreto de forma sutil. Si una película de animación no tiene “fallos” en el enfoque hay algo malo en ello. No se parece a una película" afirma Lehtinen. A pesar de que el documento aún no se ha presentado, varias grandes empresas de efectos especiales ya se han puesto en contacto con los investigadores para interesarse por su trabajo.
Los investigadores encontraron una forma de representar la relación entre los cálculos de color y las formas de los objetos asociados como entradas de una tabla. Para cada píxel en la imagen final, el algoritmo simplemente busca los valores correspondientes en la tabla, lo que simplifica drásticamente el cálculo, pero tiene poco efecto sobre la imagen final.
El segundo de los documentos del grupo reduce la carga computacional que supone determinar la cantidad de rayos de luz que llegan a una lente imaginada. Para producir un movimiento borroso convincente, los animadores digitales normalmente considerarían las contribuciones que más de 100 puntos discretos sobre las superficies de los objetos en movimiento aportan al valor del color de un solo píxel.
Reducción del tiempo de producción de las imágenes
El nuevo algoritmo de Lehtinen y sus colegas, sin embargo, se centra en un número menor de puntos (tal vez 16 o menos) y hace una conjetura acerca de los valores de color del resto de puntos. El resultado es que un fotograma de vídeo digital cuya representación normalmente llevaría alrededor de una hora con esta técnica podría tardar tan solo unos diez minutos.
Ambas técnicas no sólo se aplican en el desenfoque del movimiento, sino también en el tipo de desenfoque que se produce, por ejemplo, en el fondo de una imagen cuando la cámara se centra en un objeto en primer plano.
Eso también es algo que los animadores tratan de reproducir fielmente. "Cuando el director y el director de fotografía optan por un enfoque determinado de la lente, están dirigiendo su atención hacia un punto en concreto de forma sutil. Si una película de animación no tiene “fallos” en el enfoque hay algo malo en ello. No se parece a una película" afirma Lehtinen. A pesar de que el documento aún no se ha presentado, varias grandes empresas de efectos especiales ya se han puesto en contacto con los investigadores para interesarse por su trabajo.