DeepStereo: Animaciones completas a partir de un puñado de imágenes

La Web adoptó casi de inmediato a DeepDream y sus imágenes surrealistas. Una enorme cantidad de s exprimió sin piedad a la «imaginación» de las redes neurales, sin embargo, no debemos perder de vista el hecho de que fueron creadas con funciones aún más complejas en mente. Una buena prueba de ello es DeepStereo, otro sistema de Mountain View capaz de desarrollar animaciones a partir de una serie de imágenes, calculando y llenando los «vacíos digitales» con una precisión más que aceptable.
Con diez o veinte imágenes en su poder, el no puede ir mucho más allá de la clásica diapositiva para presentarlas en forma animada. El vídeo se postula como una excelente alternativa, pero a menos que sea sometido a una buena cantidad de post-procesamiento, el resultado filmado con un dispositivo móvil será inestable y caótico. Ahora… existe la posibilidad de obtener más información de esas imágenes. Las herramientas tradicionales se quedan en el camino, pero cuando son analizadas con la asistencia de una red neural, es posible producir datos que no están allí. Desde cierto punto de vista, esa es la forma en que trabaja DeepDream, cuyas imágenes poseen animales y estructuras salidas de la nada. DeepStereo es aún más robusto.
En vez de ahogar al sistema con múltiples fases de procesamiento y ajustes a medida, DeepStereo fue entrenado por Google de un extremo al otro con un objetivo específico: Al cargar varias imágenes, el sistema obtiene píxeles de diferentes ángulos, y a partir de esa información genera los píxeles que no se observan en primer lugar. El resultado al recorrer las imágenes es una animación con transiciones completas y errores mínimos, detectados principalmente en las diferencias de luz. DeepStereo también toma en consideración el color y los detalles sobre profundidad, de modo tal que una lámpara no queda atrapada dentro de una columna, o incrustada en la pared.
De más está decirlo, el trabajo de DeepStereo no es perfecto. Si la diferencia de tiempo e iluminación entre las imágenes es demasiado amplia, surgen errores durante el proceso de transformación, pero eso no erosiona su enorme potencial. Imagina una versión de Street View con transiciones suaves, o por qué no, cosas como proyectos cinematográficos y de realidad virtual respaldados por esta tecnología. Al igual que sucedió con DeepDream, no estaría mal que Google libere el código de DeepStereo, pero algo me dice que será necesario esperar un poco...
no se yo pero creo que grabar un video es mas facil que tirar 20 fotos caminando por toda la casa no?
Parece un videojuego donde se estuviese cargando el contenido segundo a segundo. Sorprendente
Como experimento me fascina ya que ahora mismo me planteo "esto parece un videojuego hecho con un engine poderoso, ¿Qué es lo que hace que un diseño de escenarios se vea realista o no?"
Muy parecido a lo que logró Micosoft con Photosynth https://photosynth.net/preview en su nueva versión. No entiendo porqué no está disponible DeepStereo
Me pregunto que potencia de computadora se necesitará para crear el efecto de video?.
Hay que recordar que los videos actuales usan codecs en los que se toma una foto y el siguiente fotograma retiene la informacion nueva y evita reusar la informacionn igual, por ejemplo, las imagenes en movimiento puede ocupar mas... Aunque pensandolo bien un video de 2 h de una camara estatica deberia pesar mas o menos 2 MB o no? Que opinan?
El usar IA pare reemplazar pixeles polr similares me parece bastante bueno, aunque le hace falta entender los componentes de la foto, para dar mas forma de rostro a las personas y pixelar a profundidad a modo ue no se distinga la gente de cerca, pero si de lejos, o incluso hacer estatica a la gente, para que aunque el video se mueva, la cara de las personas este intacta aunque inmovil.
Debes iniciar sesión para publicar un comentario.