Imagen futura
Lev Manovich
Animation 2006; 1; 25
Versión on line: http://anm.sagepub.com/cgi/content/abstract/1/1/25
Abstract: Hoy las técnicas de la animación tradicional, la cinematografía y la computación gráfica
son a menudo usadas en combinación para crear nuevos formas híbridas de imágenes en
movimiento. Este articulo tematiza este proceso usando el ejemplo de un hibrido particularmente
intrincado –el método de la Universal Capture usado en el segundo y el tercero de los filmes de la
trilogía Matrix. Más que esperar que alguna de las formas “puras” actuales dominará a cultura
visual y la cultura de la imagen en movimiento, se sugiere que el futuro pertenece a tales híbridos.
Palabras clave: animación, cine, animación por computadora, gráficas de computadora, captura
de movimiento, gráficas de movimiento, cinematografía virtual.
Para la mayor parte del siglo XX, las diferentes áreas de la cultura de la imagen en movimiento
comercial mantuvieron sus distintos métodos de producción y sus distintas estéticas. Las películas
y los dibujos animados se produjeron de manera completamente diferente y era fácil distinguir
sus lenguajes visuales. Hoy la situación es diferente, La computarización de las distintas áreas de
la producción de la imagen en movimiento creó un conjunto común de técnicas, que pueden ser
usadas independientemente de si uno está creando gráficos en movimiento para la televisión, un
largometraje de ficción, una película de dibujos animados o un video musical. La capacidad de
componer varias capas de imágenes con transparencia variada , de color elementos fijos y en
movimiento en un espacio virtual compartido de 3 D y después mover una cámara virtual a través
de ese espacio, para aplicar desenfoque de movimiento (motion blur) simulado y efecto de
profundidad de campo, para cambiar a lo largo del tiempo cualquier parámetro de un cuadro –
todos estos pueden ahora ser aplicados por igual a cualquier imagen, sin tener en cuenta si han
sido capturadas vía una grabación basada en una lente, dibujada a mano , creada con software
3D, etc.
La existencia de este vocabulario común de técnicas basadas en la computación no significa que
todas las películas tengan ahora el mismo aspecto. Significa, sin embargo, que si la mayoría de las
películas de acción y las animadas tienen un aspecto bastante distinto es porque es el resultado de
elecciones deliberadas antes de que una consecuencia inevitable de las diferencias en los métodos
de producción y la tecnología. Al mismo tiempo, fuera del reino de las películas de acción y las de
animación, la estética de la cultura de la imagen en movimiento cambió radicalmente durante los
años 90.
Lo que sucedió puede resumirse de la siguiente manera. A mediados de la década de 1990 , los
medios para simular movimiento y la post producción de la imagen (cine, animación, diseño
gráfico, tipografía),los nuevos medios computacionales (la animación 3D), y las nuevas técnicas de
computación (composición, múltiples niveles de transparencia) empezaron a interactuar dentro de
un mismo entorno computacional – ya sea una computadora personal o un relativamente barato
dispositivo de gráficos accesible para pequeñas compañías e incluso para particulares. El resultado
fue la emergencia de una nueva estética híbrida que rápidamente se convirtió en la norma. Hoy
esta estética opera en prácticamente todas las formas cortas de imagen en movimiento: la
publicidad televisiva, las gráficas de televisión, los videos musicales, las animaciones cortas, los
títulos de películas, las páginas de inicio en la web. También define un nuevo campo delos medios
de producción – los motion graphics- pero es importante resaltar que la estética híbrida no está
confinada a este campo sino que puede ser encontrada operando en todas partes.
Esta estética existe con infinitas variaciones pero su lógica es la misma: yuxtaposición de
lenguajes visuales anteriormente diferenciados o de distintos medios en la misma secuencia y,
bastante a menudo, dentro del mismo marco. Elementos dibujados a mano, tomas fotográficas,
video, tipografía, elementos 3 D, no están simplemente colocados uno al lado de otro sino
entrelazados. El lenguaje visual resultante es un híbrido, También puede ser llamado metalenguaje
en tanto combina el lenguaje del diseño, la tipografía, la animación tradicional, la animación en 3D
por computadora, la pintura y el cine.
Además de las características de los efectos especiales, la estética híbrida (o meta) de la gran
mayoría de las secuencias cortas de imágenes en movimiento que hoy nos rodean es el efecto más
visible de la computarización de la producción de imágenes en movimiento. En este caso, la
animación aparece con frecuencia como un elemento de una secuencia o incluso de un único
cuadro. Pero esta es solo uno, el más obvio, de los papeles de la animación en el paisaje visual
post-digital contemporáneo. En este artículo voy a hablar de su otra función: en tanto técnica
generalizada que puede ser aplica a cualquier imagen, incluyendo películas y videos. Aquí, la
animación no funciona como un medio sino como un conjunto de técnicas de uso general –
utilizada junto a otra técnicas del fondo común de opciones disponibles para un cineasta o un
diseñador.
He elegido un ejemplo particular para mi exposición que pienso que ilustra bien el nuevo papel
de la animación. Es un método relativamente nuevo de combinar acción en vivo y gráfica
computarizada. Llamada “Universal Capture” (U-cap) por sus creadores, fue en principio usada
sistemáticamente a gran escala por ESC Entertainment en Matrix 2 (2003) y Matrix 3 (2003),
películas de la trilogía Matrix. Tematizaré cómo este método es difeente de las técnicas que son
ahora comunes y de las técnicas más antiguas de integración de la acción en vivo y los elementos
gráficos computarizados. La Universal Capture también crea híbridos visuales – pero son bastante
diferentes de los híbridos que se encuentran en los gráficos de movimiento y en las otras formas
cortas de imágenes en movimientos de hoy. En el caso de la U-cap los diferentes tipos de
imágenes no se mezclan sino que más bien se fusionan para crear una nueva clase de imagen. Esta
imagen combina “lo mejor” de las cualidades de los dos tipos de imágenes que nosotros
normalmente entendemos como opuestas ontológicamente: las tomas de acción en vivo y la
animación computarizada en 3D. Voy a sugerir que tales híbridos de imagenes es probable que
desempeñen un gran papel en la cultura visual del futuro mientras el lugar de las imágenes
“puras” que no se fusionan o mezclan con algo probablemente disminuirá.
Desarrollo desigual
¿Qué clases de imágenes es probable que dominen la cultura visual unas décadas a partir de
ahora? ¿Seguirán siendo similares a la imagen típica que nos rodea hoy – fotografías que son
manipuladas digitalmente y a menudo combinadas con varios elementos gráficos y tipografías? ¿O
las imágenes futuras serán completamente diferentes? ¿El código fotográfico desaparecerá en
favor de algo distinto?
Hay buenas razones para presumir que las imágenes futuras probablemente sean similares a las
fotografías. Como un virus, la fotografía resultó ser un código figurativo increíblemente resistente:
sobrevivió oleadas de cambios tecnológicos, que incluyeron la computarización de todas las
etapas de la producción y distribución de la cultura. La razón de la persistencia del código
fotográfico reside en su flexibilidad: las fotografías pueden ser mezcladas fácilmente con otras
formas visuales –dibujos, diseño en 2D y en 3D, diagramas lineales y tipografías. Como resultado,
si bien las fotografías realmente dominan la cultura visual contemporánea, la mayoría de ellas no
son fotografías puras sino mutaciones e híbridos: fotografías que pasaron por diversos filtros y
ajuste manuales para lograr una apariencia más estilizada, una apariencia más plenamente gráfica,
un color más saturado, etc.; fotografías mezcladas con elementos de diseño y tipografías;
fotografías que o se limitan a la parte del espectro visible a un ojo humano (visión nocturna, rayos
X); fotografías simuladas hechas con gráficos computarizados en 3D; etc. Por lo tanto, si bien
podemos decir que hoy vivimos en una “cultura fotográfica” , también necesitamos empezar a leer
la palabra “fotografía” de una nueva manera. “Fotografía” hoy es realmente foto-GRÁFICA, la foto
que provee solo un estrato inicial para la mezcla gráfica en general. (En el ámbito de las imágenes
en movimiento, el término “gráficos en movimiento” captura perfectamente el mismo desarrollo:
la subordinación de la acción en vivo cinematográfica al código gráfico.)
Una manera en la que el cambio se produce en la naturaleza, la sociedad y la cultura es desde
adentro hacia afuera. La estructura interna cambia primero, y este cambio sólo después afecta la
piel visible. Por ejemplo, de acuerdo a la teoría marxista del desarrollo histórico, la infraestructura
(es decir, el modo de producción de una sociedad dada – también llamada “base”) cambia mucho
antes que la superestructura (la ideología y la cultura de esa sociedad). En un ejemplo diferente,
piénsese en el diseño tecnológico del siglo XX: por lo general un nuevo tipo de máquina fue
encajada en un principio dentro de una piel vieja, familiar: por ejemplo, los coches de principios
del siglo XX emulaban la forma de los carruajes de caballos. La familiar idea de McLuhan de que
los nuevos medios en principio emularon a los viejos medios es otro ejemplo de este tipo de
cambio. En este caso, un nuevo modo de producción de medios, por decirlo así, es en principio
usado para soportar la vieja estructura de la organización de los medios, antes de que la nueva
estructura emerja. Por ejemplo, los primeros libros impresos con tipos fueron diseñados para
emular los libros escritos a mano; el cine en principio emuló al teatro; etc.
Este concepto de desarrollo desigual puede ser útil para pensar los cambios en la cultura visual
contemporánea. Desde que este proceso comenzó hace cincuenta años, la computarización de la
fotografía (y el cine) ha cambiado ya completamente la estructura interna de la imagen
fotográfica, Todavía su “piel”, es decir, la manera en que una fotografía típica se ve, en gran parte
sigue siendo la misma. Es sin embargo posible que en algún punto del futuro la “piel” de una
imagen sea completamente diferente, pero esto no sucede todavía. Así, podemos decir en la
actualidad que nuestra cultura visual se caracteriza por una nueva “base” computarizada y una
vieja “superestructura” fotográfica.
La trilogía de Matrix nos proporciona una amplia gama de ejemplos que son perfectos para
pensar más a fondo estas cuestiones; es una alegoría acerca de cómo se construye su universo
visual. Es decir, la película nos dice cómo la Matrix, el universo virtual que se mantiene gracias a
las computadoras – y, por supuesto, visualmente las imágenes de la Matrix que nosotros los
espectadores vemos en las películas, fueron todas ensambladas en efecto con la ayuda del
software (los animadores a veces usaron Maya pero sobre todo se basaron en programas escritos
especialmente). Así hay una perfecta simetría entre nosotros, los espectadores del film, y la gente
que vive dentro de la Matrix –salvo que mientras que las computadoras que dirigen la Matrix son
capaces de hacerlo en tiempo real, la mayoría de las escenas en cada una de las películas de
Matrix llevó meses e incluso años para ser ensambladas. (Así la Matrix puede ser también
interpretada como una visión futurista de los juegos de computadora en el momento del futuro en
que se vuelva posible realizar los efectos visuales al estilo de Matrix entiempo real.)
La clave del universo visual de Matrix es la nueva batería de técnicas gráficas computacionales
que en estos años fueron desarrolladas por gente tanto de la academia como de la industria de
efectos especiales, que incluye a Georgi Borshukov y John Gaeta1. Los inventores acuñaron un
conjunto de nombres para estas técnicas: “virtual cinema”, “virtual humain”, “virtual
cinematography”, “universal capture”. Juntas, estas técnicas representan un verdadero hito en la
historia de los efectos especiales originados por computadora. Llevan a su lógica conclusión los
desarrollos de la década de 1990, tales como la captura del movimiento y, simultáneamente,
abren una nueva etapa. Podemos decir que con Matrix (199), la vieja “base” de la fotografía ha
sido finalmente reemplazada por completo por una nueva dirigida por computadora, Lo que
queda por ver es cómo la “superestructura” de la imagen fotográfica –qué representa y cómo-
cambiará para acomodarse a esta “base”.
1 .- Para detalles técnicos del método, ver las publicaciones de Georgi Borshukov. [www.virtualcinematography.org/publications.html].
Simulación de la realidad versus muestreo de la realidad
Antes de continuar, tengo que señalar que no todos los efectos especiales de Matrix dependen
de la U.cap. y , por supuesto otras películas de Hollywood ya usan algunas de las mismas
estrategias. Sin embargo, en este artículo me concentro en el uso de este proceso en Matrix
porque la U.cap. fue desarrollada realmente para el segundo y el tercero de los filmes de la
trilogía. Y si bien los créditos completos de los involucrados en el desarrollo del proceso llevarían
varias líneas, en este texto los voy a identificar con Gaeta. La razón no es porque, en tanto
supervisor de efectos especiales de The Matrix reloaded (2003) y The Matrix Revolutions (2003),
obtuviese más publicidad. Más importante aún, en contraste con muchos otros de la industria de
los efectos especiales, es que Gaeta ha reflexionado ampliamente en las técnicas que él y sus
colegas han desarrollado, presentándola como un nuevo paradigma para el cine y el
entretenimiento, y acuñado términos y conceptos útiles para entenderla.
A fin de entender mejor la importancia del método de Gaeta, vamos a pasar brevemente por la
historia de la síntesis de la foto realista en 3D y su uso en la industria fílmica. En 1963, Lawrence G.
Roberts (un estudiante de posgrado en el MIT) se convirtió en una de las personas clave del
desarrollo de Arpanet y publicó una descripción de in algoritmo computacional para construir
imágenes en perspectiva lineal. Estas imagines representaban los bordes de los objetos como
líneas; en el lenguaje contemporáneo de la computación gráfica, pueden ser llamados “wire
frames”. Aproximadamente diez años después, los científicos del ares de computación diseñaron
algoritmos que permitieron la creación de imágenes sombreadas ( llamados sombreado Gouraud
y sombreado Phong, con el nombre de los científicos que crearon los algoritmos
correspondientes). Desde mediados de la década de 1970 hasta el final de la de 1980, el campo
de la computación gráfica logró un rápido desarrollo. Cada año se crearon nuevas técnicas
fundamentales: transparencia, sombras, mapeo de imágenes, texturado topológico, sistema de
partículas, composición, trazado de rayos, radiosidad, etc. 2 Hacia finales de este creativo y
fructífero período de la historia del campo, era posible usar una combinación de estas técnicas
para sintetizar imágenes de casi cualquier tema que no eran fácilmente distinguibles de las del
cine tradicional.
Toda esta investigación se basaba en un presupuesto fundamental: con el fin de recrear una
imagen de la realidad idéntica a la capturada por una cámara cinematográfica, necesitamos
simular sistemáticamente la física real involucrada en la construcción de esta imagen. Esto
significa simular las complejas interacciones entre las fuentes de luz, las propiedades de los
2 .- Aunque pueda no todo el mundo esté de acuerdo con este análisis, creo que después de finales de la década de 1980, el campo redujo la velocidad significativamente: por otro lado, todas las técnicas claves que pueden ser usadas para crear imágenes en 3 D foto-realísticas ya han sido descubiertas. El rápido desarrollo del hardware de las computadoras en los `90 significó que los científicos informáticos ya no tenían que desarrollar nuevas técnicas para hacer más rápida la generación de imágenes, ya que los algoritmos anteriormente desarrollados eran ahora lo suficientemente rápidos.
diferentes materiales (tela, metal, vidrio, etc.), y las propiedades físicas de las cámaras
cinematográficas, incluyendo todas sus limitaciones tales como la profundidad del campo y el
motion blur. Ya que era obvio para los científicos que si ellos simulaban exactamente todos estos
aspectos físicos, una computadora tardaría una eternidad para calcular tan solo una imagen,
pusieron su energía en inventar varios atajos que crearían imágenes lo bastante realistas si bien
involucraran menos etapas de cálculo. Así, en efecto, cada una de las técnicas para sintetizar
imágenes que he mencionado en el parágrafo previo es un hack [reconfiguración /
reprogramación] tal –una particular aproximación a un particular subconjunto de todas las
posibles interacciones entre fuentes de luz, materiales y cámaras. Este presupuesto también
significa que ustedes están recreando la realidad paso a paso a partir de cero. Cada vez que
ustedes quieran hacer una imagen fija o una animación de algún objeto o escena, la historia de la
creación de la Biblia vuelve a desarrollarse.
(Me imagino a Dios al crear el mundo pasando por los numerosos menús de un programa
profesional de modelización en 3 D, animación y renderización como el Maya. Primero tiene que
hacer toda la geometría: manipular splines, extraer contornos, añadir biseles… después, para cada
objeto y creatura tiene que elegir las propiedades materiales: color especular, nivel de
transparencia, imagen, mapas topológicos y de reflexión, etc. Termina una serie de parámetros,
se limpia la frente y empieza a trabajar en la nueva serie. Ahora prosigue definiendo las luces: otra
vez, docenas de opciones del menú tienen que ser seleccionadas. Genera la escena, mira el
resultado y admira su creación. Pero está lejos de haberlo hecho: el universo que tiene en mente
no es una imagen fija sino una animación, lo que significa que el agua tiene que fluir, el pasto y las
hojas tienen que moverse bajo el soplo del viento, y todas las creaturas también tienen que
moverse. Suspira y abre otra serie de menús donde tiene que definir los parámetros de
algoritmos que simulen la física del movimiento. Y sigue, y sigue y sigue. Finalmente el mundo
mismo es terminado y se ve bien; pero ahora Dios quiere crear al Hombre para que pueda admirar
su creación. Dios suspira de nuevo, y saca un manual particular de Maya del estante donde toda la
colección ocupa toda la estantería…)
Por supuesto que estamos en cierto modo en una mejor posición que aquella en la que estaba
Dios. Él estaba creando todo por primera vez, por lo tanto no podía tomar prestadas cosas de
cualquier lugar. Por lo tanto, todo tuvo que ser construido y definido desde cero. Pero nosotros
no estamos creando un universo nuevo sino simulando visualmente un universo que ya existe, es
decir, la realidad física. Por lo tanto los científicos que trabajan en técnicas de computación
gráfica en 3D obtenidas anteriormente, además de la aproximación física involucrada, pueden
también a veces tomar otro atajo. En vez de definir algo desde cero por medio de algoritmos,
pueden simplemente dar una muestra de ella desde la realidad existente e incorporar estas
muestras en el proceso de construcción.
Los ejemplos de la aplicación de esta idea son las técnicas de mapeo de textura y bump mapping
que fueron introducidas en la segunda mitad de la década de 1970. Con el mapeo de textura,
cualquier imagen digital en 2 D –que puede ser un primer plano de alguna textura como el grano
de la madera o ladrillos, pero que también puede ser cualquier otra cosa, por ejemplo un logo, una
fotografía de una cara o de nubes- está matemáticamente abarcada por un modelo en 3D. Es una
manera muy efectiva de añadir la riqueza visual del mundo real a la escena virtual. El mapeado
topológico actúa de manera similar, pero en este caso la imagen en 2D se usa como una manera
de añadir complejidad rápidamente a la geometría misma. Por ejemplo, en vez de tener que
modelar manualmente todas las pequeñas grietas y hendijas que forman la textura 2 D de un
muro de hormigón, un artista puede simplemente sacar una fotografía de una pared existente,
convertirla en una imagen en una escala de grises y después proveer esta imagen al algoritmo de
renderización. El algoritmo trata la imagen de la escala de grises como un mapa de profundidad,
es decir, el valor de cada pixel es interpretado como como la altura relativa de la superficie. Así,
en el ejemplo, los pixeles de luz se vuelven puntos que están un poco detrás. El resultado es un
ahorro enorme en la cantidad de tiempo necesario para recrear un particular pero muy
importante aspecto de nuestra realidad física: una textura ligera y usualmente regular en 3D que
se encuentra en la mayoría de las superficies naturales y algunas hechas por el hombre, desde la
corteza de un árbol a una tela tejida.
Otras técnicas de computación gráfica basadas en la idea de la muestra de la realidad existente
incluyen el reflection mapping y la digitalización en 3D. Pese al hecho de que todas estas técnicas
fueron ampliamente usadas tan pronto como fueron inventadas, alguna gente en el campo de la
computación gráfica (hasta donde puedo ver) sintió siempre que estaban haciendo trampa. ¿Por
qué? Pienso que es porque el paradigma conceptual global para crear gráficos de computadora
foto-realísticos era simular todo desde cero a través de algoritmos. Así pues, si tenían que usar
las técnicas basadas en el muestreo directo de la realidad, de alguna manera sintieron que esto
era nada más que temporario, porque los algoritmos apropiados no estaban todavía desarrollados
o porque las máquinas eran demasiado lentas. También tenían ese sentimiento porque una vez
que se empezó con el muestreo manual de la realidad y después se trató de incluir esas muestras
en sus imágenes perfectamente definidas algorítmicamente, las cosas rara vez encajaban
exactamente, y se necesitaban ajustes manuales meticulosos. Por ejemplo, el texture mapping
funcionaba perfectamente si se aplicaba a una superficie recta pero si la superficie era curva, se
produciría una inevitable distorsión.
A lo largo delos años 1970 y 1980, el paradigma de “simulación de realidad” y los de “muestreo
de la realidad” coexistieron uno al lado del otro. Más precisamente, como sugerí anteriormente,
un paradigma de muestreo fue “incrustado” en un paradigma de simulación de realidad. Era de
sentido común que la manera correcta de crear imágenes foto-realistas de la realidad era
simulando sus características físicas tan precisamente como se pudiera. Las muestras de realidad
que existían entonces y después y posteriormente la adición de esas muestras a una escena virtual
era un truco, un atajo en un juego de simulación por lo demás honesto.
Construyendo la Matrix
Hasta ahora hemos analizado los paradigmas de campo de la computación gráfica en 2D sin
considerar los usos de las imágenes simuladas. ¿Qué pasa, entonces, si se quieren incorporar
imágenes foto-realistas a una película? Esto introduce una nueva restricción. No solo cada una de
las imágenes simuladas tiene que ser consistente internamente, con las sombras proyectadas que
corresponden a las fuentes de luz, etc., sino que ahora también tenía que ser consistente con la
cinematografía de una película. El universo simulado y el universo de la acción en vivo tenían que
coincidir exactamente. (Estoy hablando aquí del uso “normal” de la computación en los filmes y no
de la estética híbrida de las gráficas de televisión, los videos musicales, etc., que deliberadamente
yuxtaponen los diversos códigos.) Como se puede ver en retrospectiva, esta nueva restricción
cambió a la larga la relación éntrelos dos paradigmas a favor de un paradigma de muestreo. Pero
esto solo es visible ahora, después de que las películas de Matrix hicieran del paradigma de
muestreo la base se su universo virtual3.
Al principio, cuando los cineastas empezaron a incorporar imágenes sintéticas en 3D en los
filmes, esto no tuvo ningún efecto en cómo los científicos del área pensaron las gráficas por
computadora. Las gráficas por computadora en 3D aparecieron por primera vez brevemente en
una película de largometraje en 1980- Looker. A lo largo de la década de 1980, se hicieron varios
filmes que usaron imagen generadas por computadora pero siempre solo como un elemento
menor en la narrativa general de la película. (Lanzada en1982, Tron, puede ser comparada a
Matrix en tanto su universo narrativo se sitúa dentro de una computadora y es creado mediante
gráficas de computadora- pero esta fue una excepción.) Por ejemplo, una de las películas de Star
Trek contenía una escena de un planeta cobrando vida; fue creada usando el primer sistema de
partículas. Pero era una única escena y no tenía interacción con ninguna otra escena del film.
A comienzos de la década de 1990 la situación empezó a cambiar. Con películas pioneras como
The Abyss (James Cameron, 1989), Terminator 2 (James Cameron, 1991), y Jurassic Park (Steven
Spìelberg, 1993), los personajes generados por computadora se volvieron los protagonistas clave
de los largometrajes. Esto significaba que iban a aparecer en docenas o incluso cientos de tomas
a lo largo del film y que en la mayoría de esas tomas los personajes generados por computadora
tendrían que ser integrados con entornos reales y actores humanos capturados vía fotografía de
acción en vivo (llamada en el ámbito de la industria “live plate”). Son ejemplos de esto el cyborg T-
100 de Terminator 2: Judgment Day, o los dinosaurios de Jurassic Park. Estos personajes
generados por computadora se situaban dentro del universo de la acción en vivo que es el
resultado de muestras de la realidad física vía una cámara fílmica de 35 mm. El mundo simulado
se localiza dentro del mundo capturado, y los dos tienen que coincidir perfectamente.
Como se señaló en The Language of New Media (Manovich, 2001), al discutir la composición,
alinear perfectamente los elementos que provienen de distintas fuentes es uno de los desafíos
fundamentales del realismo basado en las computadoras. A lo largo de la década de 1990, los
cineastas y artistas de efectos especiales han lidiado con este desafío usando una variedad de
técnicas y métodos. De lo que Gaeta se dio cuenta antes que los otros es que la mejor manera de
3 .- Los términos “simulación de la realidad” y “maestro de la realidad” fueron inventados para este artículo; los términos “virtual cinema”, “virtual human” “universal capture” y “virtual cinematography” viene de John Gaeta. El término “renderización basada en imagen” apareció por primera vez en 1990.
alinear los dos universos de la acción en vivo y las gráficas de computadora en 3D es construir un
único nuevo universo4.
En lugar de tratar la muestra de realidad como solo una técnica para ser usada con muchas otras
técnicas algorítmicas “apropiadas” de la síntesis de imágenes, Gaeta y sus colegas la convirtieron
en el fundamento clave del proceso de Universal Capture. El proceso tomaba por separado
sistemáticamente la realidad física y después sistemáticamente re-ensamblaba los elementos en
una representación virtual generada por computadora. El resultado es una nueva clase de imagen
que tiene una apariencia fotográfica /cinematográfica y el nivel de detalle está estructurado
internamente todavía de una manera completamente diferente.
La “Universal capture” fue desarrollada y refinada durante un período de tres años desde el 2000
al 2003 (Borshukov, 2004). ¿Cómo funciona el proceso? Realmente hay más etapas y detalles
involucrados pero el procedimiento básico es el siguiente (para más detalles, ver Borshukov et al.,
2003): se registra la actuación de un actor con iluminación ambiental usando cinco cámaras de
video de alta resolución sincronizadas. “Actuación” en este caso incluye todo lo que un actor dice
en una película y todas las posibles expresiones faciales5. (Durante la producción capturaba más
de cinco terabytes de datos por día.) A continuación, los algoritmos especiales se usaban para
rastrear el movimiento de cada pixel conforme pasaba el tiempo en cada cuadro. Esta información
se combina con un modelo en 3D de una expresión neutral del actor creada usando un escáner
Cyberscan. El resultado es una forma animada en 3D que representa con precisión la geometría
de la cabeza del actor a medida que cambia durante la actuación particular. La forma es mapeada
con información en color extraída de las secuencias capturadas en video. Un escaneado de alta
resolución tomado por separado de la cara del actor se usa para crear el mapa de los detalles de
superficie de pequeña escala como poros y las arrugas, y este mapa se añade también al modelo.
Después de que todos los datos han sido extraídos, alineados y combinados, el resultado es lo
que Gaeta llama un “virtual human” –una reconstrucción muy exacta de la actuación captada,
ahora disponible como datos de computación gráfica en 3D- con todas las ventajas que provienen
de una representación tal. Por ejemplo, porque la actuación del actor ahora existe como un
objeto de 3D en un espacio virtual, el cineasta puede animar una cámara virtual y hacer
“funcionar” la actuación reconstruida desde un ángulo arbitrario. De la misma manera, la cabeza
virtual también puede ser iluminada de la manera que se desee y unida a un cuerpo construido
por computadora (Borshukov et al., 2004). Por ejemplo, todos los personajes que aparecen en la
escena de lucha entre Neo y los agentes (the Bury Brawl scene) en Matrix 2 fueron creadas al
combinar las cabezas construidas por medio de la Universal Capture hecha en los actores
principales con cuerpos CG que usaban datos de captura de movimiento de un grupo distinto de
4 .- Por consiguiente, aunque el artículo de Wired que posicionó a Gaeta como un a pionero de las
innovaciones y como un rebelde que trabajaba fuera de Hollywood contenía las típicas exageraciones periodísticas, no estaba lejos de la verdad (Silberman, 2003). 5 .- El método captura solo la geometría e imágenes de la cabeza de un actor; los movimientos del cuerpo son registrados por separado usando captura de movimiento.
ejecutantes. Porque todos los personajes tanto como el set fueron generados por computadora,
esto permitió que los directores de escena coreografiaran la cámara virtual, haciéndola volar
alrededor de la escena de una manera que no es posible con una cámara real en un set real.
El proceso recibió el apropiado nombre de Captura Total porque captura toda la información
posible de un objeto o escena usando una serie de métodos de grabación -o, por lo menos, todo
lo que es pasible de ser captado usando las tecnologías actuales. Diferentes dimensiones -color,
geometría 3D, reflectividad y textura- son capturadas por separado y después se vuelven a unir
para crear una representación más detallada y realista.
La Captura Total es significativamente diferente de los métodos comúnmente aceptados que se
usan para crear efectos especiales basados en la computación tales como la animación mediante
key frames [cuadros claves] y el modelado basado en la física. En el primero de los métodos, un
animador especifica las posiciones claves de un modelo en 3D y la computadora calcula lo que hay
entre ellas. Con el segundo método, toda la animación se crea automáticamente gracias a un
software que simula la física que subyace al movimiento. (Este método, por lo tanto, representa
un particular ejemplo del paradigma de “simulación de realidad” del que se habló anteriormente.)
Por ejemplo, para crear una animación realista de una criatura que se mueve, los programadores
modelan su esqueleto, músculos y piel, y especifican los algoritmos que simulan la física real
involucrada. A menudo los dos modelos se combinan: por ejemplo, el modela basado en la física
puede ser usado para animar un dinosauro que corre mientras la animación manual puede usarse
para algunas tomas donde el dinosauro interactúa con personajes humanos.
En los años recientes el logro más impresionante del modelado basado en la física fue la batalla
de El señor de los anillos: el retorno del rey (Peter Jackson, 2003), que involucra decenas de miles
de soldados virtuales, todos resueltos por el software Massive ( ver www.massivesoftware.com).
De manera similar a los jugadores no humanos ( o bots) en los juegos de computadora, a cada
soldado virtual le fue dada la capacidad de “ver” el terreno y a los otros soldados, un conjunto de
prioridades y un “cerebro” independiente, es decir, un programa de inteligencia artificial que
dirige las acciones del personaje basado en inputs y prioridades perceptuales. Sin embargo, en
contraste con los juegos de IA, el software Massive no tiene que funcionar en tiempo real. Por lo
tanto puede crear escenas con decenas e incluso cientos de miles de agentes que se comportan
realistamente (un aviso publicitario creado con la ayuda de Massive contaba con 146.000
personajes virtuales).
El método de Universal Capture no usa ni la animación manual ni la simulación de la física
subyacente. En su lugar, directamente toma muestras de la realidad física, incluyendo el color, la
textura y el movimiento de los actores. Secuencias cortas de las actuaciones del actor son
codificadas como animaciones de computadora en 3D; estas animaciones forman una biblioteca a
partir de la cual los cineastas después pueden servirse para componer una escena. La analogía con
el sampling musical es evidente aquí. Como Gaeta señaló, su equipo nunca uso animación
manual para tratar de ajustar el movimiento de la cara de un personaje; sin embargo, de igual
manera que en la música, a menudo “atrapaban” una expresión particular antes de pasar a la
siguiente (Gaeta, 32003). Esto sugiere otra analogía –la edición de video. Pero esta es edición de
segunda instancia, para decirlo así: en vez de capturar simplemente segmentos de realidad de u
video y después reunirlos, el método de Gaeta produce recreaciones completamete virtual de un
fenómeno particular –que contiene en sí mismo micro-mundos- que pueden después ser editados
e integrados en un espacio simulado en 3D más amplio.
La animación como idea
Este breve resumen de los métodos de la computación grafica que aquí se presenta para explicar
la Captura Universal ofrece buenos ejemplos de la multiplicidad de modos en los que la animación
se usa en la cultura de la imagen en movimiento contemporánea. Si consideramos esta
multiplicidad es posible llegar a la conclusión de que la “animación” en tanto medio separado casi
ya no existe de hecho. Al mismo tiempo, los principios generales y técnicas de poner en
movimiento objetos e imágenes desarrollados en la animación de los siglos XIX y XX son usados
mucho más frecuentemente ahora que antes de las computadoras. Pero casi nunca se usan de
manera aislada –se suelen combinar con otras técnicas sacadas de la acción en vivo
cinematográfica y las gráficas de computadora.
Entonces, ¿dónde empieza y dónde termina hoy la animación? Cuando ustedes ven una película
animada de Disney o un corto de gráficos en movimiento es obvio que están viendo “animación”.
Independientemente de si el proceso involucra imágenes dibujadas a mano o usando un software
de 3D, el principio es el mismo: alguien crea los dibujos u objetos 3D, configura los keyframes y
después las posiciones entre cada uno de ellos. (Por supuesto, en el caso de los filmes comerciales
no se trata de una sola persona sino de grandes equipos.) Los objetos pueden ser creados de
múltiples maneras y en las etapas intermedias pueden ser hechos manual o automáticamente, vía
el software, pero esto no cambia la lógica básica. El movimiento, o cualquier otro cambio en el
tiempo, se define manualmente – se suele hacer mediante keyframes, pero no siempre. En
retrospectiva, la definición del movimiento vía keys fue probablemente la esencia de la animación
del siglo XX. Fue usado en la tradicional animación en celuloide por Disney y otros, en las
animaciones en stop motion [cuadro a cuadro] de Starevich y Trnka , en los cortos animados en 3D
de Pixar y sigue siendo usado hoy en películas animadas que combinan el método tradicional con
la animación por computadora en 3D. Y aunque los animadores experimentales como Norman
McLaren rechazaron los sistemas claves / cuadros intermedios en favor de dibujar cada cuadro del
film a mano sin definir explícitamente las claves, esto no cambia la lógica global: el movimiento se
creó a mano. No es sorprendente que la mayoría de los artistas de la animación explotaran esta
característica clave de la animación de diferentes maneras, convirtiéndola en una estética: por
ejemplo, aplastamientos y estiramientos exagerados en Disney, o los saltos discontinuos entre
cuadros de McLaren.
¿Qué se puede decir acerca de las otras maneras en que las imágenes y los objetos pueden ser
puestos en movimiento? Considérese, por ejemplo, los métodos desarrollados en las gráficas de
computadora: el modelado basado en la física, el sistema de partículas, las gramáticas formales, la
vida artificial y la animación comportamental [behavioral animation]. En todos estos métodos el
animador no crea directamente el movimiento. En vez de eso, éste es creado por el software que
usa algún tipo de modelo matemático. Por ejemplo, en el caso de del modelado basado en la
física el animador puede establecer los parámetros de un modelo en computadora que simule una
fuerza física como un viento que va a deformar una pieza de tela en varios cuadros. O bien el
animador puede dar las instrucciones para que la pelota caiga al piso, y dejar que el modelo físico
controle cómo rebota la pelota después de que golpea en el suelo. En el caso de los sistemas de
partículas que se usan para modelar cualquier cosa desde fuegos artificiales, explosiones, agua y
gas hasta bandadas y enjambres de animales, el animador solo tiene que definir las condiciones
iniciales: el número de partículas, su velocidad, su vida útil, etc.
A diferencia del cine de acción en vivo, estos métodos de computación grafica no capturan el
movimiento físico real. ¿Significa entonces que pertenecen a la animación? Si aceptamos que la
característica definitoria de la animación tradicional era la creación manual de movimiento, la
respuesta sería no. Pero las cosas no son tan simples. Con todos estos métodos, los animadores
definen los parámetros iniciales, aplican el modelo, ajustan los parámetros y repiten este ciclo de
producción hasta que están satisfechos con el resultado. Así mientras el movimiento real no se
produce a mano sino mediante un modelo matemático, los animadores mantienen un significativo
control. De alguna manera, los animadores actúan como directores de películas- solo que en este
caso no están dirigiendo actores sino a un modelo computacional hasta que produce una
actuación satisfactoria. O podemos también comparar a los animadores con los editores de
películas cuando están seleccionando las mejores actuaciones del modelo computacional.
James Blinn, un científico del área responsable de crear muchas técnicas fundamentales de la
computación gráfica, hizo alguna vez una interesante analogía para explicar la diferencia entre el
método manual de los cuadros claves y el modelado de base física6. Le dijo a la audiencia de un
panel de SIGGRAPH que la diferencia entre los dos métodos era análoga a la diferencia entre la
pintura y la fotografía. En palabras de Blinn, un animador que crea movimiento mediante
keyframes definidos manualmente y dibuja en los cuadros intermedios es como un pintor que
observa el mundo y después hace una pintura de él. La semejanza entre una pintura y el mundo
depende de las habilidades del pintor, su imaginación y sus intenciones, mientras un animador
que usa el modelado de base física es como un fotógrafo que captura el mundo real tal como
realmente es. Blinn quería enfatizar que las técnicas matemáticas pueden crear una simulación
realista del movimiento en el mundo físico y un animador solo tiene que capturar lo que es creado
por simulación. Aunque la analogía se útil, pienso que no es completamente exacta. Obviamente,
el fotógrafo tradicional que Blinn tenía en mente (es decir, el de antes del Photoshop) elige la
composición, el contraste, la profundidad de campo y muchos otros parámetros. De manera
similar, los animadores que están usando el modelado de base física también tienen el control de
6.- No estoy seguro del año exacto de la conferencia de SIGGRAPH en la que Blinn hizo su presentación, pero pienso que fue a finales de la década de 1980 cuando el modelado de base física era todavía un concepto nuevo.
un gran número de parámetros y depende de sus habilidades y perseverancia que el modelo
produzca una animación satisfactoria. Considérese el siguiente ejemplo de un área relacionada, la
del arte del software, que usa algunos de los mismos métodos matemáticos. Casey Reas, un artista
que es bien conocido tanto por su entorno de programación Processing como por sus propias
imágenes fijas y animaciones, me dijo recientemente que él sólo puede pasar un par de horas
escribiendo un programa de software para crear un nuevo mundo- y después otros dos años
trabajando con los diferentes parámetros del mismo programa y produciendo infinitas imágenes
de prueba hasta que esté satisfecho con los resultados (comunicación personal, abril de 2005). Así,
mientras en primera instancia, el modelado de base física parece ser lo opuesto a la animación
tradicional en tanto el movimiento es creado por la computadora, de hecho tendría que ser
entendido como un híbrido entre animación y simulación por computadora. Aunque los
animadores ya no dibujan directamente cada fase del movimiento, están trabajando dentro de los
parámetros del modelo matemático que “dibuja” el movimiento real.
¿Y qué pasa con el método de Captura Universal tal como es usado en Matrix? Gaeta y sus
colegas también han desterrado la animación de cuadros claves –pero tampoco usaron ningún
modelo matemático para generar automáticamente el movimiento. Como vimos, su solución fue
capturar las actuaciones reales de un actor (es decir, los movimientos de la cara del actor) y
después reconstruirlas como una secuencia en 3D. Juntas, estas secuencias reconstruidas
conforman una biblioteca de expresiones faciales. El cineasta puede entonces sacar de esta
biblioteca, editar en conjunto una secuencia de expresiones) pero no interferir con ningún
parámetro de secuencias separadas). Es importante destacar que un modelo en 3D no tiene
músculos ni otros controles tradicionalmente usados en las gráficas computadas de animación de
caras- se usa “como es”.
Como en el caso de los animadores que emplean modelos matemáticos, este método evita
dibujar movimientos individuales a mano. Y, sin embargo, s lógica es la de la animación más que la
del cine. El cineasta elife secuencias individuales de las actuaciones de los actores, las edita, las
combina si es necesario, y las coloca en un orden particular para crear una escena. En resumen, la
escena es realmente construida a mano incluso aunque sus componentes no lo sean. Así mientras
en la animación tradicional el animador dibuja cada cuadro para crear una secuencia corta (por
ejemplo, un personaje que da vuelta la cabeza), aquí el cineasta “dibuja” en un nivel más alto, al
manipular secuencias enteras en vez de sus cuadros individuales.
Para crear las escenas definitivas de las películas, la Universal Capture se combina con
Cinematografía virtual, organizando la iluminación, las posiciones y movimientos de una cámara
virtual que está “filmando” las actuaciones virtuales. ¿Que hace que esta cinematografía virtual se
oponga a la simp0le computación grafica? La razón es que el mundo tal como es visto por una
cámara virtual es diferente del mundo normal de las gráficas de computadora. Consiste en
reconstrucciones del set real y las reales actuaciones de los actores creados por Captura Universal.
El objetivo es evitar los procesos más manuales que se solían usar para crear modelos y juegos en
3D. En vez de eso, los datos relativos al mundo físico son capturados y después usados para crear
una réplica virtual precisa.
En última instancia, el método de producción de ESC como es usado en Matrix no es ni
animación “pura” ni cinematografía, ni los efectos especiales tradicionales, ni la tradicional
animación por computadora. Y esto es típico de la cultura de la imagen en movimiento de hoy.
Cuando las técnicas extraídas de estas tradiciones diferentes se fusionan en un entorno
computacional, el resultado no es la suma de los componentes sino una variedad de métodos
híbridos tales como la Captura Universal. Creo que así es cómo funcionan ahora en general las
diferentes técnicas de las imágenes en movimiento. Después de que la computación las virtualice
–“extrayéndolas de su particular medio físico para convertirlas en algoritmos- empiezan a
interactuar y crear híbridos. Lo que significa que, en la mayoría de los casos, no encontraremos ya
ninguna de esas técnicas en su estado original puro.
Por ejemplo, ¿qué significa cuando vemos efectos de profundidad de campo en las gráficas en
movimiento, los filmes y los programas de televisión que no usan ni el rodaje de acciones en vivo
ni gráficas foto-realistas en 3D pero tienen un aspecto más estilizado? Originalmente un artefacto
de grabación basado en lentes, la profundidad de campo era simulada en una computadora
cuando la principal meta del campo de las gráficas de computadora en 3D era crear el máximo
“foto-realismo”, es decir, las escenas sintetizadas eran indistinguibles de la acción en vivo
cinematográfica7. Pero una vez que esta técnica estuvo disponible, los artistas de imágenes en
movimiento se dieron cuenta gradualmente de que podía ser usada independientemente de cuan
realista o abstracto fuera el estilo visual –siempre y cuando haya una sugestión de espacio en 3D.
Tipografías que se mueven en perspectiva a través de un espacio vacío, caracteres dibujados en 2D
posicionados en diferentes estratos en un espacio de 3D, un campo de partículas animadas –
cualquier composición puede someterse a la profundidad de campo simulada.
El hecho de que este efecto sea simulada y sacada de su medio original físico significa que un
diseñador puede manipularlo de varias maneras. Los parámetros que definen qué parte del
espacio está en foco puede ser animada independientemente, es decir, está lista para cambiar con
el tiempo, porque son simplemente los números que controlan el algoritmo y no algo construido
dentro de la óptica de las lentes físicas. Así mientras la profundidad de campo simulada se puede
decir que mantiene la memoria de los medios físicos particulares (la foto basada en lentes y el
rodaje de películas) de los que proviene, se volvió una técnica esencialmente nueva que funciona
como un “personaje” por derecho propio. Tiene la fluidez y la versatilidad que previamente no
estaban disponible. Su conexión con el mundo físico es en el mejor de los casos ambigua. Por un
lado, sólo tiene sentido usar profundidad de campo si se está construyendo un espacio en 3D –
incluso si está definido de una manera mínima al usar sólo unos pocos o incluso sólo un único
indicio de profundidad, tales como líneas que convergen hacia el punto de fuga o en escorzo. Por
otro lado, puede decirse que el diseñador “dibuja” este efecto de cualquier manera que desee. El
eje que controla la profundidad de campo no necesita ser perpendicular a la imagen plana, el área
7 .- Para ampliar acerca de este proceso, ver el capítulo “Synthetic Realism and its Discontents”, en Manovich (2001).
enfocada puede ser cualquiera en el espacio, puede también moverse rápidamente alrededor del
espacio, etc.
Volviendo a la Captura Universal, vale la pena citar a Gaeta quien tiene muy claro que lo que él y
sus colegas han creado es un nuevo híbrido. En una entrevista de 2004, dijo: “Si tuviera que
definir el cine virtual, tendría que decir que está en algún lugar entre una película de acción en
vivo y una de animación generada por computadora. Se genera por computadora, pero se deriva
de la gente, los lugares y las cosas del mundo real (Feeny2004). Aunque la Captura Universal
ofrece un ejemplo particularmente sorprendente del “algún lugar entre” de Gaeta, la mayoría de
las formas de las imágenes en movimiento creadas hoy están del mismo modo en “algún lugar
entre”, siendo la animación uno de los ejes de las coordenadas este nuevo espacio de hibridez.
‘Universal Capture’: realidad re-ensamblada
El método que se dio en llamar “Universal Capture” combina lo mejor de los dos mundos:
realidad física tal como es capturada por cámaras basadas en lentes y graficas en 3D sintetizadas
por computadora. Si bien es posible recrear la riqueza del mundo visible mediante la pintura y la
animación manuales, tanto como mediante varias técnicas de computación gráfica (mapeado de
texturas, mapeo topológico, modelado físico, etc.), es caro en términos del trabajo que implica.
Incluso con las técnicas del modelado de base física, los infinitos parámetros tienen que ser
ajustados antes de que la animación se vea bien. En cambio, capturar la realdad visible mediante
las lentes en película, cinta, DVD-R, disco duro, u otros medios, es barato: sólo hay que dirigir la
cámara y apretar el botón “grabar”.
La desventaja de tales grabaciones es que carecen de la flexibilidad exigida por la cultura
contemporánea del remix. Esta cultura no exige objetos estéticos auto-contenidos ni registros
auto-contenidos de la realidad sino unidades más pequeñas- partes que puedan ser fácilmente
cambiadas y combinadas con otras partes en un sinfín de combinaciones. Sin embargo, un proceso
de grabación basado en lentes aplana la estructura semántica de la realidad –es decir, los
diferentes objetos que ocupan distintas áreas de un espacio físico en 3D. Convierte un espacio
ocupado con objetos discretos en un campo plano de granos de imágenes o pixeles que no
conllevan ninguna información acerca de dónde vienen (es decir, a qué objetos corresponden).
Por lo tanto cualquier clase de operación de edición – borrar objetos, añadir nuevos, componer,
etc.- se vuelve bastante difícil. Antes de que se pueda hacer algo con un objeto en imagen, tiene
que ser aislado manualmente mediante la creación de una máscara. Y, a menos que una imagen
muestre un objeto que esté apropiadamente iluminado y sea filmado contra un fondo especial
azul o verde, es imposible enmascarar el objeto con precisión.
Los objetos se definen por puntos descriptos como coordenadas XYZ ; otras propiedades de los
objetos, como el color, la transparencia y la reflectividad se describen de manera similar en
términos de números discretos. Esto significa que la estructura semántica de la escena se preserva
por completo y es fácilmente accesible en cualquier momento. Para duplicar un objeto cien veces
solo se necesita de unos pocos clics del mouse o de teclear un corto comando, de manera similar,
todas las otras propiedades de un mundo pueden ser fácilmente cambiadas. Y en tanto cada
objeto en sí mismo está formado de componentes discretos ( polígonos planos o parches de
superficie [surface patches] definidos por splines), es de la misma manera bastante fácil cambiar
su forma 3D al seleccionar y manipular sus componentes. Además, de la misma manera que unas
secuencia de genes contiene el código que se expande en un organismo complejo, una descripción
compacta de un mundo en 3D que contenga sólo las coordenadas de los objetos puede ser
rápidamente transmitido a través de la red, con la computadora del cliente reconstruyendo el
mundo por completo (así es como funcionan los juegos de computación on line con múltiples
participantes y los simuladores).
A partir de finales de la década de 1970, cuando James Blin (1978) introdujo el mapeo de
texturas, los científicos del área de la computación, los diseñadores y los animadores expandieron
gradualmente la gama de información que podía ser registrado en el mundo real y después lo
incorporaron en un modelo de computadora. Hasta principios de la década de 1990, esta
información implicaba mayormente la apariencia de los objetos: color, textura, efectos de luz. El
siguiente paso significativo fue el desarrollo de la captura de movimiento. Durante la primera
mitad de la década de 1990, fue rápidamente adoptada en la industria del cine y en la de los
juegos. Ahora, los mundos sintetizados por computadora no dependían solamente del muestre de
la apariencia visual del mundo real sino también de un muestreo de los movimientos de los
animales y los hombres en este mundo. Basándose en todas estas técnicas, el método de Gaeta las
llevó a una nueva etapa: la captura de casi todo lo que en la actualidad puede ser capturado, y,
después el re-ensamblaje de las muestras para crear una recreación digital ( y en tanto tal
completamente maleable). Puesto en un contexto más amplio, el resultado de la representación
híbrida 2D/3D encaja perfectamente con las tendencias más progresistas de la cultura
contemporánea que están basadas en la idea de híbrido.
El nuevo híbrido
Tengo una fuerte confianza en que la “estética informacional” emergente (es decir, las
características específicas de la nueva cultura de la sociedad de la información) tiene o tendrá una
lógica muy diferente a la modernidad*. Esta última fue impulsado por un fuerte deseo de borrar lo
viejo -visible tanto en las declaraciones de los artistas de vanguardia (especialmente en los
futuristas) que decían que había que incendiar los museos , como en la dramática destrucción de
las realidades sociales y espirituales de mucha gente, en Rusia después de la revolución de 1917, y
en otros países cuando se volvieron satélites de la URSS después de 1945. Cultural e
ideológicamente , quienes pertenecían a este movimiento querían empezar con una tabula rasa,
distanciándose radicalmente del pasado. Fue solamente en la década de 1960 que este
movimiento comenzó a experimentarse como inapropiado, tal como se manifiesta en el
* .- Dice Modernism, apunta a los movimiento artísticos y políticos de las vanguardias de fines del siglo XIX y principios del siglo XX. El modernismo en español corresponde a otra cosa. Modernidad también remite en español a la Ilustración, que no es el caso aquí, pero sí tiene en común con las vanguardias del siglo XX que hay un intento fuerte de desechar lo viejo.
debilitamiento de la ideología en los países comunistas y los comienzos de una nueva sensibilidad
postmoderna en Occidente. Para citar el título de un famoso libro escrito por Robert Venturi et al.
(19977 [1972]), Learning from Las Vegas [Aprendiendo de Las Vegas] ( la primera manifestación
sistemática de la nueva sensibilidad), significaba admitir que las culturas vernáculas que se
desarrollaban orgánicamente implicaban el bricolaje y la hibridez antes que la pureza – que se
veía, por ejemplo en el estilo internacional que todavía era practicado en esos tiempos por los
arquitectos de todo el mundo. Impulsado menos por el deseo de imitar las culturas vernáculas y
más por la nueva disponibilidad de artefactos culturales previos almacenados en medios
magnéticos y después digitales, la cultura comercial de Occidente en la década de 1980 sustituyó
sistemáticamente la pureza por la heterogeneidad estilística. Finalmente, cuando colapsó el
Imperio soviético, la postmodernidad había ganado en todo el mundo.
Hoy corremos un muy real peligro de ser prisioneros de un nuevo “estilo internacional” – algo
que puede ser llamado “global internacional”. La globalización cultural, de la cual los vuelos en
aerolíneas baratas e internet son los dos representantes más visibles, borra una cierta
especificidad cultural con la energía y la rapidez que la modernidad no podía emular. Además
somos testigos hoy del funcionamiento de una lógica diferente: el deseo de reunir creativamente
lo viejo y lo nuevo-lo local y lo transnacional- en combinaciones variadas. Es esta lógica, por
ejemplo, la que ha hecho de una ciudad como Barcelona (donde he hablado con John Gaeta en el
contexto del festival Art Futura de 2003 que condujo a este artículo) un lugar tan “hip” e “in” hoy.
En toda Barcelona, los estilos arquitectónicos de hace muchos siglos coexisten conlos nuevos
espacios “cool” de bares, hoteles, museos, etc. Lo medieval se encuentra con lo multinacional,
Gaudí se encuentra con Dolce y Gabanna. Los tiempos del Mediterráneo con los de internet. El
resultado es el increíble sentimiento de energía que uno siente físicamente con solo caminar por
la calle. Es esta energía híbrida la que caracteriza, desde mi punto de vista, los fenómenos
culturales más interesantes de hoy8. La imagen híbrida 2D/3D de Matrix es un ejemplo de esa
índole.
Los historiadores del cine a menudo proponen un contraste entre los hermanos Lumière y
Marey. Junto a varios inventores de otros países, que trabajaban todos independientemente unos
de otros, los hermanos Lumière crearon lo que hoy conocemos como cine con su efecto visual de
movimiento continuo basado en la síntesis perceptiva de imágenes discretas. Anteriormente,
Muybridge había desarrollado ya un modo de tomar fotografías sucesivas de un objeto en
movimiento, tal como un caballo; finalmente los hermanos Lumière y otros encontraron la manera
de tomar bastantes muestras, de modo que, cuando eran proyectadas, se fusionaban
perceptualmente en movimiento continuo. Al ser un científico, Marey era impulsado por un deseo
opuesto: no crear una ilusión perfecta del mundo visible sino más bien ser capaz de entender su
estructura al mantener discretas las muestras subsecuentes. Dado que él quería ser capaz de
8 .- Visto desde esta perspectiva, mi libro anterior, The Language of New Media (2001) [El lenguaje de los nuevos medios] puede ser visto como una investigación sistemática de una parte de la cultura contemporánea impulsada por esta estética híbrida: la parte en que la lógica de la computadora digital en red se intersecta con las numerosas lógicas de las formas culturales ya establecidas.
comparar fácilmente estas muestras, perfeccionó un método en el que las imágenes
subsecuentes de los objetos en movimiento se superponían en una sola imagen, y así hacía
claramente visibles los cambios.
La imagen híbrida de Matrix de alguna manera puede ser entendida como la síntesis de estos
dos enfoques que durante una centena de años permanecieron como opuestos. Como los
hermanos Lumière, el objetivo de Gaeta es crear una ilusión perfecta de movimiento continuo. Al
mismo tiempo, como Marey, también quiere ser capaz de editar y hacer secuencias de los
registros individuales.
Al comienzo de este artículo evoqué la noción de desarrollo desigual, señalando que a menudo
la estructura interna (“infraestructura”) cambia completamente antes que la superficie (“la
superestructura”) se ponga al día. ¿Qué implica esta idea para el futuro de las imágenes y, en
particular, de las híbridas 2D/3D tal como fueron desarrolladas por Gaeta y otros? Como señaló
Gaeta (2003), aunque su método pueda ser usado para hacer toda clase de imágenes, hasta ahora
ha sido usado al servicio del realismo tal como es definido en el cine, es decir, cualquier cosa que
el espectador ve tiene que obedecer las leyes de la física (Gaeta, 2003). Así, en el caso de Matrix,
sus imagines todavía tienen una apariencia “realista” tradicional mientras están estructuradas
internamente de una manera completamente nueva. En resumen, vemos la vieja
“superestructura” que todavía se encuentra encima de la “nueva” infraestructura. ¿Qué clase de
imágenes veremos cuando la superestructura se empareje con la infraestructura?
Por supuesto que aunque todas las imágenes corrientes de las películas con efectos especiales
de Hollywood han seguido hasta ahora bajo la coacción del realismo, es decir, obedeciendo las
leyes de la física, también se da que no son exactamente las mismas que antes. Para vender
entradas de cine, DVDs y todas las demás mercancías, toda nueva película con efectos especiales
trata de superar a la anterior,al mostrar algo que nadie haya visto antes, En Matrix era el “tiempo
de la bala”; en Matrix 2, era la escena de la lucha (Burly Brawl) donde docenas de clones idénticos
luchan contra Neo; en Matrix 3 era el Superpunch (Borshukov, 2004). El hecho de que la
construcción interna de las imágenes sea diferente permite toda clase de nuevos efectos;
escuchando a Gaeta, es claro que para él la ventaja clave de tales imágenes son las posibilidades
que ellas ofrecen para la cinematografía virtual. Esto es, si previamente el movimiento de la
cámara se limitaba a un pequeño y bien definido conjunto de movimientos – paneo,
desplazamiento, inclinación- ahora puede moverse e cualquier trayectoria imaginable todo el
tiempo que el director quiera. Gaeta habla de la escena de la Burly Brawl en términos de
coreografía virtual: esto implica coreografiar los intrincados y largos movimientos de la cámara,
cosa que sería imposible en el mundo real tanto como hacerlo con los cuerpos que participan en
la lucha (todos ellos recreaciones digitales ensambladas siguiendo el método de Gaeta que se
describió anteriormente).
Según Gaeta, crear solamente esta escena llevó cerca de tres años. Así mientras, en principio, el
método de Gaeta representa la manera más flexible de recrear la realidad visible en una
computadora hasta el momento, pasarán años antes de que este método sea lo suficientemente
ágil y estandarizado para que estas ventajas sean evidentes. Pero cuando esto pase, los artistas
tendrán a su disposición un medio híbrido extremadamente flexible: el cine completamente
computarizado. Más que esperar que cualquiera de las formas actuales dominará el futuro de la
cultura visual, pienso que este futuro pertenece a tales híbridos. Dicho de otra manera, las
imágenes futuras probablemente sigan siendo todavía fotográficas –aunque solo
superficialmente.
¿Y qué pasara con la animación? ¿Cuál será su futuro? Como trate de explicar , además de las
películas de animación puras y las secuencias animadas usadas como partes de otros proyectos
con imágenes en movimiento, la animación se ha vuelto un conjunto de principios y técnicas que
animadores y cineastas emplean hoy para crear nuevos métodos y nuevos estilos visuales. Por lo
tanto, pienso que no vale la pena preguntarse si este o aquel estilo visual o método para crear
imágenes en movimiento que emergió después de la computarización es “animación” o no. Es más
constructivo decir que la mayoría de estos métodos nacieron de la animación y tienen ADN de
animación –mezclado con ADN de otros media. Pienso que una perspectiva tal, que considera a
“la animación como campo ampliado” es un modo más productivo de pensar acerca de la
animación hoy, especialmente si queremos que nuestras reflexiones sean relevantes para todo
aquel que esté interesado en la cultura visual y la cultura mediática contemporáneas.
Referencias
Blinn, J.F. (1978) ‘Simulation of Wrinkled Surfaces’, Computer Graphics, agosto, pp. 286–92.
Borshukov, Georgi (2004) ‘Making of the Superpunch’, presentación en Imagina 2004, disponible en [ww.virtualcinematography.org/publications/acrobat/ Superpunch.pdf].
Borshukov, Georgi, Piponi, Dan, Larsen, Oystein, Lewis, J.P. y Tempelaar-Lietz, Christina (2003) ‘Universal Capture – Image-Based Facial Animation for “The Matrix Reloaded”’, SIGGRAPH 2003 Sketches and Applications Program, Disponible en [http://www.virtualcinematography.org/publications/acrobat/ UCap-s2003.pdf]. Feeny, Catherine (2004) ‘“The Matrix” Revealed: An Interview with John Gaeta’, VFXPro, 9 de mayo [www.uemedia.net/CPC/vfxpro/article_7062.shtml] Gaeta, John (2003) Presentación durante un workshop sobre la realización de The Matrix, Festival Art Futura 2003, Barcelona, 12 de octubre.
Manovich, Lev (2001) The Language of New Media, Cambridge (Ma.) MIT Press.
Silberman, Steve (2003) ‘Matrix 2’, Wired, 11 de mayo [http://www.wired.com/wired/archive/11.05/matrix2.html]
Venturi, Robert, Izenour, Steven and Scott Brown, Denise (1977[1972]) Learning from Las Vegas: The Forgotten Symbol of Architectural Form, ed. Revisada, Cambridge (Ma.), MIT Press.
Lev Manovich es profesor del Departamento de New Media, Visual Arts, y director del Laboratorio
de Análisis Cultural, CAL-IT2, de la Universidad de California, San Diego.
Dirección : University of California, San Diego, Visual Arts Department, 9500 Gilman Drive MC 0084, La Jolla, CA 92093–0084, USA. [email: [email protected]]
Top Related