capítulo 5 - el software toma el mando (manovich)
Post on 23-Oct-2015
198 Views
Preview:
DESCRIPTION
TRANSCRIPT
Manovich. Capítulo 5 – El Software Toma el Mando 1 / 55
Capítulo 5. Diseño de medios1
Lev Manovich
“Primero moldeamos nuestras herramientas, después ellas nos moldean a nosotros” Marshall
McLuhan, Understanding Media (1964).
After Effects y la revolución invisible
Los híbridos de medios no se limitan a tipos particulares de aplicaciones software, interfaces de
usuario, proyectos artísticos o el web. Si estamos en lo correcto al sostener que la hibridación
representa la siguiente etapa lógica en el desarrollo de los medios computacionales (después de la
primera etapa que fue la simulación de medios físicos en la computadora), entonces debemos
encontrarla en varias áreas de las producción de medios de nuestros días. Y así es el caso. En esta
capítulo describiremos cómo la producción y estética de la las imágenes en movimiento cambió
dramáticamente en los 90’s.
A mediados de ésta década, los medios físicos simulados para la producción de imágenes fijas y
animadas (cinematografía, animación, diseño gráfico, tipografía), el nuevo medio computaciones
(animación 3D) y las nuevas técnicas computacionales (composición, múltiples niveles de
transparencia) se encontraron en un mismo ambiente de software (es decir, un número de programas
de software, compatibles y que corrían en la misma estación de trabajo computacional). Cineastas,
animadores y diseñadores empezaron a trabajar sistemáticamente en este ambiente, usando
software para generar elementos individuales y para ensamblarlos. El resultado fue el surgimiento
de una nueva estética híbrida que rápidamente se volvió la norma.
Hoy, este lenguaje domina la cultura visual de decenas de países. Lo vemos a diario en comerciales,
video musicales, gráficos animados (motion graphics), gráficos de TV, diseño de créditos, interfaces
interactivas de teléfono móviles y otros aparatos, menús dinámicos, páginas web animadas, gráficos
para móviles y en todo tipo de narrativas, interfaces y contenidos que son producidos por
profesionales (tanto compañías como diseñadores y artistas independientes) y por estudiantes. Con
todo, estimamos que por lo menos un 50 por ciento de las imágenes en movimiento de corta duración
siguen este lenguaje. En este capítulo analizaremos lo que percibo como sus características
esenciales: nueva estética de híbridos visuales; integración sistemática de técnicas de medios
1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.
Manovich. Capítulo 5 – El Software Toma el Mando 2 / 55
previamente incompatibles; uso del espacio 3D como plataforma común de diseño de medios;
cambio constante en cada dimensión visual; y amplificación de técnicas cinematográficas.
La nueva estética de los híbridos existe en innumerables variaciones pero el principio básico es el
mismo: sobreponer diferentes lenguajes visuales de diferentes medios en una misma imagen. Este es
un ejemplo de cómo la lógica de la remezcla de medios reestructura una gran parte de la cultura
como todo. Los lenguajes del diseño, tipografía, animación, pintura y cinematografía se reúnen en la
computadora. Por lo tanto, además de ser un metamedio, como lo formuló Kay, también podemos
llamar a la computadora una plataforma de metalenguaje: el lugar en donde muchos lenguajes
culturales del periodo moderno vienen y crean nuevos híbridos.
¿Cómo se dio este lenguaje? Considero que estudiar el software involucrado en la producción de
imágenes en movimiento es determinante para explicar porqué se ven como se ven. Sin este análisis
no podremos salir de las generalidades de la cultura contemporánea (post-moderno, global, remix,
etc.) para describir los lenguajes particulares de las diferentes áreas del diseño; para entender las
causas detrás de ellos y su evolución en el tiempo. (En otras palabras, creo que la “teoría del
software”, que este libro trata de definir y poner en práctica, no es un lujo sino una necesidad).
Aunque las transformaciones que discutiremos incluyen muchos desarrollos tecnológicos y sociales
(hardware, software, prácticas de producción, flujos de trabajo, nuevos puestos y campos
profesionales), es apropiado resaltar un software en particular que ha estado al centro de estos
eventos. Esta aplicación es After Effects. En este capítulo haremos un acercamiento a su interfaz, sus
herramientas y su uso típico en el diseño de medios. Introducido en 1993, After Effects fue el primer
software diseñado para hacer animación, composición y efectos especiales en la computadora
personal2. Su efecto general en la producción de imágenes en movimiento puede ser comparado con
el efecto de Photoshop e Illustrator en la fotografía, la ilustración y el diseño gráfico.
Claro que After Effects tiene su competencia. En los 90’s, la compañías también usaban fuertemente
otros software “de alta calidad” como Flame, Inferno o Paintbox que corrían en estaciones gráficas de
trabajo especializadas… y se siguen usando. En los 2000’s, otros programas en la misma categoría de
precios que After Effects, como Motion de Apple, Combustion de Autodesk y Flash de Adobe, también
2 El Video Toaster de NewTek, lanzado en 1990, fue el primer sistema de producción de video para la
computadora que incluía un switcher de video, generación de caracteres, manipulación de imágenes y
animación. Debido a su bajo precio, los sistemas Video Toaster fueron muy populares en los 90’s. En el contexto
de este libro, After Effects es más importante porque, como veremos, introdujo un nuevo paradigma de diseño de
imágenes en movimiento que era diferente al paradigma familiar de edición de video soportado por sistemas
como el Toaster o Avid.
Manovich. Capítulo 5 – El Software Toma el Mando 3 / 55
pusieron en riesgo el dominio de After Effects. Pero debido a su asequibilidad y su tiempo en el
mercado, After Effects sigue siendo el más popular, el más usado y el mejor conocido. Por esto, After
Effects tendrá un rol preferente en mi estudio, tanto como símbolo como material preponderante que
hizo posible la transformación de la cultura de la imagen en movimiento a gran escala. (Cuando
buscamos “mejores software de motion graphics” en el web y verificamos la respuesta en diversos
foros, el primer programa que se menciona siempre es After Effects. Una de las personas de estos
foros dijo: “Es el estándar por default. Apréndelo. Ámalo”3. Otro ejemplo: cuando en 2012 Imaginary
Forces, la compañía más relacionada con el nacimiento de los gráficos animados en los 90’s, publicó
descripciones de puestos en sus oficinas de Los Angeles y NYC para diseñadores y animadores, sólo
enumeró un software para la producción de imágenes animadas 2D: After Effects4).
Como veremos, la interfaz de usuario y las herramientas de After Effects reúnen técnicas
fundamentales, métodos de trabajo y supuesto de áreas previamente separadas del cine, la
animación y el diseño gráfico. Este ambiente de producción híbrido, encapsulado en un mismo
software, tiene una influencia directa en el lenguaje visual que habilita, específicamente su enfoque
en la exploración de posibilidades estéticas, narrativas y afectivas de la hibridación.
El giro hacia las herramientas basadas en software en los 90’s no solo afectó a la cultura de la
imagen en movimiento sino todas las demás áreas del diseño. Todas adoptaron el mismo flujo de
trabajo de producción. (Cuando el proyecto es grande e involucra mucha gente y muchos elementos
de medios, el flujo de trabajo de la producción se llama “tubería” o “pipeline”). En este proceso de
producción los usuarios generalmente combinan elementos creados en diferentes software, o
mueven sus proyectos completos de una aplicación a otra con la intención de tomar ventaja de sus
funciones particulares. Aunque cada área del diseño tiene sus aplicaciones especializadas (por
ejemplo, los diseñadores web usan Dreamweaver, mientras que los arquitectos usan Revit y los
artistas de efectos visual usan Nuke y Fusion), también usan varias aplicaciones comunes. Éstas son
Photoshop, Illustrator, Final Cut, After Effects, Maya, 3ds Max y otras más. (Si usas software libre
como Gimp o Cinepaint en lugar de las aplicaciones comerciales, tu lista de aplicaciones clave puede
variar pero los principios siguen siendo los mismos).
La adopción de este ambiente de producción, que consiste en varias aplicaciones compatibles de
diferentes áreas de las industrias creativas, tiene muchos efectos fundamentales. Las fronteras
profesionales entre las áreas del diseño se vuelven menos importantes. Un diseñador o un pequeño
estudio pueden trabajar hoy en un video musical, en el diseño de un producto mañana y en un
3 John Waskey, http://www.quora.com/What-is-the-best-software-for-creatingmotion-graphics (marzo 4, 2001). 4 http://www.imaginaryforces.com/jobs/los-angeles/designer/, http://www.imaginaryforces.com/jobs/new-
york/2d-animator/ (octubre 31, 2012).
Manovich. Capítulo 5 – El Software Toma el Mando 4 / 55
proyecto de arquitectura o sitio web pasado mañana, etc. Otra distinción que antes era fundamental
(la escala del proyecto) también importa cada vez menos. Hoy podemos encontrar exactamente las
mismas formas y figuras en proyectos de pequeña escala (como las joyas), en medianos (diseño de
muebles, sillas, mesas) y de gran escala (edificios, diseños urbanos). Como ejemplo, podemos referir
a los proyectos de Zaha Hadid, que cubren precisamente este abanico5.
Un estudio detallado de estos y otros efectos de la adopción del software tomaría más de un libro. Por
eso, en este capítulo sólo me enfocaré en el impacto del flujo de trabajo, basado en software, en el
diseño de medio contemporáneos. Como veremos, este flujo modela el diseño contemporáneo de
varias maneras. Por un lado, nunca antes en la historia de la comunicación visual humana habíamos
visto formas tan variadas como hoy. Por otro lado, la mismas técnicas, composiciones e iconografía
pueden aparecer en cualquier medio. Para evocar la metáfora de la evolución biológica otra vez,
podemos decir que a pesar de la infinita diversidad de “especies” de medios contemporáneos,
visuales y espaciales, todo comparten un DNA en común. Muchas de las especies también comparten
un principio de diseño básico: la integración de técnicas del diseño de medios previamente
incompatibles (un proceso que llamaré “remezcla profunda”). Por esto, al darle una oportunidad al
software de producción de medios, y sus usos en la producción, nos permite empezar a construir un
mapa de nuestro universo de medios y diseños actuales, viendo cómo sus especies se relacionan
entre ellas y revelan los mecanismos subyacentes a su evolución.
La adopción de After Effects y software similar en la segunda parte de los 90’s rápidamente condujo a
la adopción de un término especial para designar los nuevos visuales animados: “motion graphics”
(gráficos animados). Definidos de manera concisa por Matt Fritz en su tesis de maestría en 2003
como “visuales diseñados sin narrativa, no figurativos, que cambian con el tiempo”6, los gráficos
animados incluyen los créditos de películas y TV, gráficos de TV, menús dinámicos, contenidos para
medios móviles y demás secuencias animadas. Típicamente, los gráficos animados aparecen como
partes de piezas más grandes: comerciales, video musicales, videos de capacitación, películas y
documentales, proyectos interactivos. O, por lo menos, así era en 1993. Desde ese tiempo, la frontera
entre los gráficos animados y todo lo demás se ha vuelto difícil de distinguir. Por lo tanto, en 2008 en
la versión del artículo sobre motion graphics en Wikipedia en inglés, sus autores decían que “el
término ‘motion graphics’ tiene el potencial de ser menos ambiguo que el término cine para describir
las imágenes en movimiento del siglo XXI”7. Ciertamente, hoy numerosas imágenes en movimiento
5 http://www.zaha-hadid.com/ 6 Matt Frantz “Changing Over Time: The Future of Motion Graphics,” Tesis de maestría en artes, 2003,
http://www.mattfrantz.com/thesisandresearch/motiongraphics.html 7 http://en.wikipedia.org/wiki/Motion_graphics
Manovich. Capítulo 5 – El Software Toma el Mando 5 / 55
cortas combinan metraje, animación 2D, animación 3D y demás técnicas similares (en oposición a las
que privilegian imágenes de acción en vivo, como lo hacen muchas películas), así que también se les
puede llamar “gráficos animados”.
¿Por qué elegí los gráficos animados como el caso de estudio central de este libro y no cualquier otra
área de la cultura contemporánea, igualmente afectada por un cambio o un nacimiento en la
producción basada en software? Algunos ejemplos de áreas que han cambiado, también llamadas
“orientadas hacia lo digital”, son la arquitectura, el diseño gráfico, el diseño de producción, el diseño
de información y la música. Ejemplo de las que nacieron en la computadora son el diseño de juegos,
diseño de interacción, diseño de experiencia del usuario, diseño de interfaz de usuario, diseño web y
visualización interactiva de la información. Obviamente, la mayoría de las nuevas áreas que contienen
en su nombre las palabras “interacción” o “información” (y que surgieron a partir de la década de los
90’s, también han sido ignoradas por la crítica cultural) solicitan nuestra atención.
Mi razón tiene que ver con la diversidad de nuevas formas (visuales, espaciales y temporales) que se
desarrollaron durante el rápido crecimiento del área de los gráficos animados después de la
introducción de After Effects. Si nos acercamos a los gráficos animados en los términos de estas
formas y técnicas (en lugar de su contenido únicamente), nos daremos cuenta que representan un
giro significante en la historia de la comunicación humana. Prácticamente todas las técnicas de
comunicación desarrolladas por los humanos hasta los 90’s se combinan ahora comúnmente en
proyectos de gráficos animados: mapas, pictogramas, jeroglíficos, ideogramas, escrituras, alfabeto,
gráficos, sistemas de proyección, gráficas de información, fotografías, lenguajes modernos de formas
abstractas (desarrollado en la pintura europea de 1910 y adoptados subsecuentemente por el diseño
gráfico y la arquitectura de los 20’s), técnicas cinematográficas del siglo XX, gráficos 3D por
computadora y, desde luego, toda la variedad de efectos visuales “nacidos digitales”. Por lo tanto,
casi todos los sistemas semióticos previamente separados se vuelven opciones en la paleta del
usuario (o “caja de herramientas”, para usar la metáfora estándar utilizada por el software de
medios). Las inteligencias lingüísticas, cinésicas, espaciales, icónicas, diagramáticas y temporales
pueden funcionar juntas para expresar lo que ya sabíamos pero que no podíamos comunicar (así
como generar nuevos mensajes y experiencias cuyos significados aún están por descubrirse).
Aunque todavía necesitamos descifrar cómo usar plenamente este nuevo metalenguaje semiótico, la
importancia de sus surgimiento es difícil de sobreestimar. O sea, la emergencia de gráficos animados
hechos con software es tan importante como la invención de la imprenta, la fotografía o Internet.
Empezaremos por remontarnos a los 80’s. En el apogeo de los debates de la postmodernidad, por lo
menos un crítico estadounidense se dio cuenta de la conexión entre el pastiche postmoderno y la
informatización. En su libro After the great divide (1986), Andreas Huyssen escribía: “todas las
Manovich. Capítulo 5 – El Software Toma el Mando 6 / 55
técnicas, formas e imágenes modernas y vanguardistas están guardadas para acceso directo en los
bancos de memoria informatizados de nuestra cultura. Pero la misma memoria también almacena
todo el arte pre-moderno así como los géneros, códigos y los mundos de imágenes de las culturas
populares y de la cultura de masas moderna”8. Su análisis es preciso, excepto que estos “bancos de
memoria informatizados” no fueron disponibles hasta 15 años más tarde. Sólo cuando el web
absorbió suficientes archivos de medios fue cuando se volvió un banco de memoria cultural universal
accesible por todos los productores de cultura. Incluso para los profesionales, la habilidad de integrar
fácilmente múltiples medios en un mismo proyecto (capas de video, imágenes fijas escaneadas,
animación, gráficos y tipografía) se logró hasta finales de los 90’s.
En 1985, cuando el libro de Huyssen estaba en preparación para su publicación, yo trabaja en una de
las pocas compañías de animación en el mundo. La compañía estaba ubicada en la ciudad de Nueva
York y se llama apropiadamente Digital Effects9. Cada animador digital tenía su propia terminal de
gráficos interactivos que mostraba los modelos 3D en modo “wireframe” y monocromáticos. Para
verlos a color, debíamos turnarnos porque la compañía sólo tenía una pantalla de colores bitmap que
todos compartíamos. Los datos estaban guardados en cintas magnéticas que medían como 30
centímetros de diámetro. Encontrar datos de un trabajo anterior era proceso incómodo que implicaba:
ubicar la cinta correcta en el armario correcto, ponerla en una unidad de lectura y buscar la parte
adecuada. No teníamos un escáner a color, así que lograr las “todas las técnicas, formas e imágenes
modernas y vanguardistas” en una computadora no era cosa sencilla. Pero aún si hubiéramos tenido
uno, no había forma de guardar, recordar y modificar esas imágenes. La máquina que podía hacer
eso era una Quantel Paintbox, que costaba más de 160 mil dólares (fuera de nuestro presupuesto). Y
cuando Quantel lanzó el modelo Harry en 1986, el primer sistema de edición no lineal que permitía
hacer composiciones de múltiples capas de video y efectos especiales, su precio también estaba
fuera del alcance, excepto para televisoras y algunas cuantas casas productoras. Las capacidades de
Harry eran algo limitadas debido a que sólo podías grabar 80 segundos de video calidad broadcast.
En el campo de las imágenes fijas, las cosas eran mucho mejores. Por ejemplo, la unidad de
almacenamiento Picturebox, lanzada por Quantel en 1990, podía almacenar 500 imágenes de
calidad broadcast pero su costo era también muy alto.
En breve, a mediados de los 80’s ni nosotros ni otras compañías de producción teníamos nada
aproximado a los “bancos de memoria informatizados” imaginados por Huyssen. Y por supuesto que
pasaba lo mismo para los artistas visuales asociados con el postmodernismo y las ideas del pastiche,
8 Andreas Huyssen, “Mapping the Postmodern,” in After the Great Divide (Bloomington and Indianapolis: Indiana
University Press, 1986), p. 196. 9 Wayne Carlson, A Critical History of Computer Graphics and Animations. Section 2: The Emergence of Computer
Graphics Technology, http://accad.osu.edu/%7Ewaynec/history/lesson2.html
Manovich. Capítulo 5 – El Software Toma el Mando 7 / 55
collage y apropiación. En 1986, la BBC produjo el documental Painting with light para el cuál una
media docena de pintores famosos, incluyendo Richard Hamilton y David Hockney, fueron invitados
para trabajar con una Quantel Paintbox. Las imágenes resultantes no eran muy diferentes de las que
estos artistas hacían sin la computadora. Y a pesar de que algunos artistas hacían referencia a
“técnicas, formas e imágenes modernas y vanguardistas”, éstas referencias estaba pintadas en lugar
de ser cargadas directamente desde un “banco de memoria informatizado”. Sólo diez años después,
cuando estaciones de trabajo relativamente baratas que corrían software de edición de imágenes,
animación, composición e ilustración se volvieron comunes y accesibles a diseñadores gráficos
independientes, ilustradores y pequeños estudios de animación y post-producción, la situación
imaginada por Huyssen empezó a volverse una realidad.
Los resultados fueron dramáticos. En el espacio de menos de cinco años, las cultura visual moderna
se transformó radicalmente. Visuales que antes era específicos a diferentes medios (imágenes acción
viva, gráficos, fotografía, animación tradicional, animación 3D por computadora y tipografía) se
empezaron a combinar de diferentes formas. Para finales de los 90’s, la imagen en movimiento
“pura” se volvió una excepción y los medios híbridos la norma. Sin embargo, en contraste con otras
revoluciones computacionales, como el surgimiento del World Wide Web alrededor de los mismos
años, éstas revolución no fue reconocida por los medios populares ni por los críticos culturales. Lo
que recibió atención fueron los desarrollo que afectaban la narrativa cinematográfica: el uso de
efectos especiales generados por computadora en las películas de Hollywood o las herramientas de
bajo costo para la edición de video digital fuera de él. Pero otro proceso que sucedió a gran escala, el
de la transformación del lenguaje visual usado por todas las formas de imágenes en movimiento
fuera de la narrativa del film, no ha sido analizado críticamente. De hecho, a pesar de que los
resultados de esta transformación se han vuelto visibles desde 1999, al momento de escribir este
libro no conozco un solo artículo que los estudie (por lo menos no en inglés).
Una de las razones es que, en esta revolución, ningún nuevo medio per se fue creado. Justo como lo
hicieron diez años antes, los diseñadores hacían imágenes fijas e imágenes en movimiento. Pero la
estética de estas imágenes era ahora muy diferente. De hecho, era tan nueva que, en retrospectiva,
la imaginería postmoderna de una década pasada, que en aquellos tiempos se veía
sorprendentemente diferente, ahora aparece como un punto apenas perceptible en el radar de la
historia cultural.
No es accidental mi elección de fechas de inicio y fin (1993-1999) para caracterizar el desarrollo del
nuevo lenguaje visual híbrido de las imágenes en movimiento. Claro que pude haber tomado
diferentes fechas, por ejemplo unos cuantos años antes. Pero como After Effects jugará el rol principal
en mi estudio, y fue lanzado en 1993, he decidido tomar este año como inicio. Igual para mi fecha de
fin, creo que para 1999 los mayores cambios en la estética de las imágenes en movimiento se
Manovich. Capítulo 5 – El Software Toma el Mando 8 / 55
hicieron visibles. Si quieres hacer la comprobación tú mismo, simplemente compara los demo reels
que las compañías de efectos visuales hicieron en los 90’s (muchos están disponibles en línea, por
ejemplo busca los de Pacific Data Ocean, o los del sistema Flame, disponibles para cada año a desde
199510). En trabajos de principios de la década, la imaginería computacional se ve claramente, con
comerciales y video-promocionales hechos completamente en animación 3D por computadora, y se
resalta la novedad de este nuevo medio. Para finales de la década, la animación computacional se
vuelve un elemento integrado en la mezcal de acción viva, tipografía y diseño gráfico.
Aunque estas transformaciones sólo sucedieron recientemente, la ubicuidad del nuevo lenguaje
visual híbrido de hoy es tal que cuesta trabajo recordar qué tan diferentes eran las cosas antes.
Igualmente, los cambios en los procesos de producción y equipamiento que hicieron este lenguaje
posible también se borran rápidamente de la memoria del público y de los profesionales. A manera de
evocar rápidamente estos cambios, vistos desde la perspectiva de un profesional, citaré parte de la
entrevista que hicieron a Mindi Lipschultz en 2004, quien ha trabajado como editor, productor y
director en Los Ángeles desde 1979:
Si querías ser más creativo [en los 80’s], no bastaba con añadir más software a tu sistema.
Tenías que gastar cientos de miles de dólares y comprar una Paintbox. Si querías hacer algo
gráfico (una entrada para un show de TV con muchas capas), tenías que ir a una casa editora
y gastar unos miles de dólares por hora para hacer exactamente lo mismo que se hace hoy
en una computadora barata con varios programas de software. Ahora, con Adobe After
Effects y Photoshop, puedes hacer todo de una vez. Puedes editar, diseñar y animar. Puedes
hacer 2D o 3D, todo en tu computadora de escritorio en casa o en una pequeña oficina11.
En 1989, los antiguos países soviéticos de Europa Central y del Este se liberaron pacíficamente de la
Unión Soviética. En el caso de Checoslovaquia, este evento se recuerda como la Revolución de
Terciopelo (en contraste con las típicas revoluciones de la historia moderna acompañadas de
matanzas). Para enfatizar las graduales (y con un ritmo casi invisible) transformaciones ocurridas en
la estética de la imagen en movimiento entre 1993 y 1999, me apropiaré del término Revolución de
Terciopelo para referirme a esas transformaciones. (Aunque suene atrevido comparar
transformaciones políticas con estéticas éstas dos comparten la misma calidad pacífica, incluso es
posible notar que ambas están relacionadas).
10 http://accad.osu.edu/~waynec/history/lesson6.html; http://area.autodesk.com/ flame20#20years. 11 Mindi Lipschultz, entrevistado por The Compulsive Creative, mayo 2004,
http://www.compulsivecreative.com/interview.php?intid=12
Manovich. Capítulo 5 – El Software Toma el Mando 9 / 55
Finalmente, antes de proceder, también debo explicar mi uso de ejemplos. El lenguaje visual que
estoy analizando nos rodea hoy en día (esto puede explicar porque los académicos han estado ciegos
ante él). Después de la globalización, éste lenguaje es hablado por los profesionales de la
comunicación en decenas de países de todo el mundo. Puedes ver tú mismo los ejemplos de varias
estéticas de las que hablaré con simplemente ver la televisión y poner atención en los gráficos, ir a un
club y ver el performance de un VJ, visitar los sitios web de diseñadores de gráficos animados y
compañías de efectos visuales, o ver un libro sobre diseño contemporáneo. No obstante, he incluido
el título de proyectos específicos para que el lector pueda ver exactamente a lo que me estoy
refiriendo. (He elegido trabajos de estudios de diseño y de artistas de renombre para que los puedas
encontrar fácilmente en el web). Pero como mi objetivo es describir el nuevo lenguaje cultural que
para hoy se ha vuelto prácticamente universal, quiero enfatizar que cada uno de estos ejemplos
puede ser substituido por muchos otros.
La estética de la hibridación
En la segunda mitad de los 90’s, una de las características que identifican a los motion graphics que
claramente lo distinguían de las demás formas de imágenes en movimiento existentes en ese tiempo
era el papel central de la tipografía dinámica. El término “motion graphics” ha sido usado por lo
menos desde 1960, cuando un pionero del cine por computadora, John Whitney, llamó a su compañía
Motion Graphics. Sin embargo, hasta antes de las Revolución de Terciopelo, sólo un puñado de gente
y compañías habías explorado sistemáticamente el arte de la tipografía animada: Norman McLaren,
Saul Bass, Pablo Ferro, R. Greenberg y unos cuantos más12. Pero a mediados de los 90’s, las
secuencias de imágenes en movimiento, o películas cortas, dominaban mediante la animación de
texto y elementos gráficos abstractos, en lugar de acción viva, y empezaron a producirse en mayor
escala. ¿Cuál fue la causa material del despegue de los motion graphics? Fue After Effects, y demás
software relacionado, que corría en computadoras o estaciones gráficas de trabajo relativamente
baratas, que se hicieron disponibles a pequeños estudios de diseño, efectos visuales y post-
producción, y pronto a diseñadores individuales. Casi de la noche a la mañana, el término “motion
graphics” se volvió conocido. (Como dice el artículo de Wikipedia sobre éste término: “el término
‘motion graphics’ fue popularizado en el libro de Trish y Chris Meyer sobre Adobe After Effects titulado
‘Creating Motion Graphics’13). El universo de Gutenberg, de 500 años de edad, se volvió movimiento.
12 Para una discusión poco frecuente de las prehistoria de los motion graphics, así como un raro intento de
análisis del campo usando conceptos en lugar de ejemplos del portafolio de artistas, ver: Jeff Bellantoni & Matt
Woolman, Type in Motion, 2da. edición (Thames & Hudson, 2004). 13 http://en.wikipedia.org/wiki/Motion_graphic
Manovich. Capítulo 5 – El Software Toma el Mando 10 / 55
Junto con la tipografía, el lenguaje completo del diseño gráfico del siglo XX fue “importado” en el
diseño de imágenes en movimiento. Aunque este movimiento no recibió un nombre en particular, es
igualmente importante. (El término “cine de diseño” ha sido usado, pero nunca ha ganado tanta
popularidad como “motion graphics”). Entonces, mientras los gráficos animados estuvieron durante
años limitados a los créditos de películas, y por ende usando tipografía, hoy el término “motion
graphics” se usa para designar secuencias animadas que combinan texto y elementos de diseño.
Pero debemos recordar que, a pesar de que en el siglo XX la tipografía se usaba en combinación con
otros elementos, durante 500 años ha dirigido su propia palabra. Así, creo que es importante
considerar dos tipos de “importaciones” que sucedieron en la Revolución de Terciopelo (tipografía y
diseño gráfico del siglo XX) como dos desarrollo históricos distintos.
Aunque los motion graphics ejemplifican los cambios que sucedieron en la Revolución de Terciopelo,
estos cambios son más grandes. Puesto de forma simple, el resultado de la Revolución de Terciopelo
es una nuevo lenguaje visual híbrido de las imágenes en movimiento en general. Este lenguaje no
está confinado a un forma de medios en particular. Y aunque hoy se manifiesta más claramente en
formas no-narrativas, seguido está presente en secuencias y películas narrativas y figurativas.
He aquí algunos ejemplos. Un video musical puede usar acción viva pero también tipografía y una
variedad de transiciones hechas con gráficas computacionales (por ejemplo “Go” de Common,
dirigido por Convert/MK12/Kanye West, 2005). Otro video musical puede incrustar al cantante en un
espacio de pintura animada (Sheryl Crow “Good is goog”, dirigido por Pysop, 2005). Un comercial
puede sobreponer gráficas, datos y visualizaciones sobre acción viva (spot para Thomson Reuters, de
MK12, 2012). Un secuencia de créditos puede contrastar figuras planas 2D con espacios de
perspectiva 3D (créditos de Mad Men, de Imaginary Forces, 2007). Un cortometraje puede mezclar
tipografía, gráficas 3D estilizadas, elementos de diseño 2D y acción viva (“Itsu for plaid”, dirigido por
el colectivo Pleix, 2002). (Algunas veces, como ya lo hemos dicho, el término “cine de diseño” es
usado para distinguir cortometrajes independientes que usan diseño, tipografía y animación por
computadora en lugar de acción viva de los “motion graphics” producidos para clientes comerciales).
En algunos casos, la yuxtaposición de diferentes medios es evidente (el video “Don’t panic” de
Coldplay, 2001; los créditos del show TV “The Inside”, 2005; el comercial “Nike – Dymamic feet”,
2005, hecho por Imaginary Forces). En otros casos, una secuencia puede moverse entre diferentes
medios tan rápido que apenas se notan (el comercial “Holes” de GMC Denali, hecho por Imaginary
Forces, 2005). Y en otros casos más, un comercial o unos créditos de película pueden mostrar una
imagen de acción viva continua pero cambiándola periódicamente por otra con apariencia más
estilizada.
Manovich. Capítulo 5 – El Software Toma el Mando 11 / 55
Esta hibridación de medios no se manifiesta necesariamente en una estética de collage que resalte la
yuxtaposición de diferentes medios o diferentes técnicas de medios. Como contraejemplo de lo que
puede ser el resultado de la hibridación, pensemos en una estética más sutil, bien captada con el
nombre del software que en gran medida hizo el lenguaje visual híbrido posible: After Effects. Este
nombre anticipaba los cambios en la apariencia de los efectos visuales que sucedieron años más
tarde. En los 90’s, las computadoras se usaban para crear efectos especial espectaculares o “efectos
invisibles”14, pero hacia finales de la década vimos que surgió algo más: una nueva estética visual
que va “más allá de los efectos”. En esta estética, el proyecto completo (ya sea un video musical, un
comercial de TV, un cortometraje o un largo segmento de una película) tiene una apariencia especial
en la cuál el realce del material de acción viva no es completamente invisible pero al mismo tiempo
tampoco sobresalta de la manera en que lo hacían los efectos especiales de los 90’s (el comercial
“Basketball black” de Reebok I-Pump y los créditos de The Legend of Zorro, ambos por Imaginary
Forces, 2005; el comercial “Fage ‘plain” de Psyop, 2011).
Aunque la solución estética particular varia de un video a otro y de un diseñador a otro, todos
comparten la misma lógica: la aparición simultánea de múltiples medios en un mismo cuadro. Que
estos medios están sobrepuestos abiertamente o entremezclados perfectamente es menos
importante que el hecho de su co-presencia misma. (Una vez, notemos que cada uno de los ejemplos
anteriores puede ser reemplazado por muchos otros).
El lenguaje visual híbrido también es común en una gran porción de cortos “experimentales” e
“independientes” (o sea, que no fueron encomendados por clientes comerciales) producidos para
festivales, web, aparatos móviles y demás plataformas de distribución de medios15. Muchos visuales
creados por VJ’s y artistas de “cine en vivo” también son híbridos, combinando video, capas de
imágenes 2D, animación e imágenes abstractas generadas en tiempo real16. Las animaciones de
14 Efectos invisibles es el término estándar de la industria. Por ejemplo, la película Contact, de Robert Zemeckis,
fue nominada en los premios VFX HQ en 1997 en las siguientes categorías: Mejores Efectos Visuales, Mejor
Secuencia, Mejor Toma, Mejor Efecto Invisible y Mejor Composición. http://www.vfxhq.com/1997/contact.html 15 En diciembre 2005, mientras asistía al festival Impact Media, en Utrecht, Holanda, le pregunté al director del
festival qué porcentaje de las sumisiones recibidas tenía un lenguaje visual híbrido, en comparación con un
lenguaje “tradicional” de cine y video. Él estimó un 50%. En enero 2006, fui parte del jurado evaluador de
proyectos de alumnos de SCI-ARC, una reconocida escuela de arquitectura en Los Ángeles. Según yo, la mitad de
los proyectos incluía curvas geométricas complejas hechas con Maya. Debido a que After Effects y el predecesor
de Maya, Alias, fueron lanzados en el mismo año, 1993, considero interesante esta similitud cuantitativa en el
porcentaje de proyectos que usan nuevos lenguajes de medios gracias a estos software. 16 Para ver ejemplos, consultar Paul Spinrad (ed), The VJ Book: Inspirations and Practical Advice for Live Visuals
Performance (Feral House, 2005).
Manovich. Capítulo 5 – El Software Toma el Mando 12 / 55
Jeremy Blake, Ann Lislegaard y Takeshi Murata, que veremos más adelante, demuestran que por lo
menos una parte de los trabajos creados en el circuito del arte también usa el mismo lenguaje de la
hibridación.
Hoy, las características narrativas rara vez mezclan estilos gráficos diferentes en un mismo
fotograma. Sin embargo, un número creciente de películas sí incluye una estética altamente estilizada
que antes hubiera sido identificada con la ilustración, en lugar del cine. Los ejemplos pueden ser: las
series de The Matrix, de los hermanos Wachowski; Immortal de Enki Bilal (2004); Sin City (2005) y
The Spirit (2008) de Robert Rodríguez; 300 (2007) y Watchmen (2009) de Zack Snyder; Avatar de
James Cameron (2009); Alice in Wonderland de Tim Burton (2010); y, Hugo de Martin Scorsese
(2011). Estas películas ejemplifican la práctica de grabar grandes partes del film usando un “fondo
digital” (es decir, una pantalla verde)17. Por consiguiente, la mayoría de las tomas en esas películas
están creadas mediante la composición de secuencias de actores con escenarios generados por
computadora y demás visuales.
Estas películas no yuxtaponen sus diferentes medios de forma tan dramática como los motion
graphics. Tampoco buscan una integración perfecta de visuales CGI (Computer-Generated Imagery) y
acción viva, que era característico de las primeras películas de efectos especiales de los 90’s:
Terminator 2 (1991) y Titanic (1997) de James Cameron. Más bien exploran el espacio que se
encuentra a la mitad, entre superposición e integración total.
Las escenas de Matrix, Sin City, 300, Alice In Wonderland, Hugo, entre otras, grabadas sobre un
fondo digital combinan múltiples medios para crear una nueva estética estilizada que no puede
reducirse a la apariencia familiar de las acción en vivo cinematográfica o a la animación 3D por
computadora. Estas películas muestran la misma lógica de los cortos con motion graphics, que a
primera vista pueden parecer muy diferentes. Esta lógica es la misma que la que se observa en la
creación de nuevos híbridos biológicos. Esto es, el resultado del proceso de hibridación no es
simplemente la suma mecánica de las partes antes existentes sino una nueva “especie”; una nuevo
tipo de estética visual que no existía antes.
En los comerciales de TV producidos en los 2000’s, ésta estética altamente estilizada se volvió una
de las apariencias clave de la época. Muchas capas de acción viva, elementos animados 2D y 3D,
efectos de partículas y demás que combinaban en un todo integrado. Este resultado tiene los códigos
del realismo (acortamiento de perspectiva, perspectiva atmosférica, correcta combinación de luces y
sombras), pero al mismo tiempo amplifica la realidad visible. (No podemos calificar esta estética de
“hiperreal” porque las imágenes creadas tienen un look distinto de las obras de artistas hiperreales
17 http://en.wikipedia.org/wiki/Digital_backlot
Manovich. Capítulo 5 – El Software Toma el Mando 13 / 55
como Denis Peterson, cuyos trabajos se veían como fotografías comunes). Nuestra percepción se
aumenta mediante: alto contraste en escala de grises; alta saturación de colores; pequeñas ondas de
partículas que emulan el movimiento de objetos; acercamientos a la textura de superficies (gotas de
agua, comida, piel, aparatos electrónicos, etc.); contrastes entre la texturas irregulares de la
naturaleza y suave degradados 2D y render 3D; la rápida transformación de la composición del
cuadro y la posición y dirección de la cámara (para ver más ejemplo de estas estrategias, se pueden
ver los comerciales de Psyop18).
Se puede decir que estos comerciales crean un “mapa” más grande que el territorio que representan,
debido a que muestran espacialmente más detalles y texturas y, al mismo tiempo, comprimen el
tiempo, moviéndose más rápido a través de la información. También podemos hacer una
comparación con los satélites que observan la Tierra, que capturan su superficie a un detalle
imposible para el humano (de la misma manera en que un ser humano no puede ver al mismo tiempo
el close-up de la superficie y los detalles del movimiento de los objetos presentados en el espacio
ficcional del comercial).
En resumen, el resultado del cambio a un ambiente de producción basado en software por parte de la
creación de la imagen en movimiento, es un nuevo lenguaje visual. Así como las técnicas individuales
de software que lo hacen posible, este lenguaje, como un todo, hereda los rasgos de medios
precedentes de imagen: cine, animación de acetato y modelos, animación por computadora,
fotografía, pintura, diseño gráfico y tipografía. Sin embargo, no se reduce a ninguno de estos medios.
Más bien, es una verdadero híbrido (hijo de medios de imagen del siglo XX que tiene rasgos de ellos
pero conservando su identidad).
Veamos al detalle dos cortometrajes para ver cómo la estética de la hibridación funciona a través de
toda la película. Sodium Fox de Blake (2005) y Untitled (Pink Dot) de Murata (2007) son excelentes
ejemplos de nuevos lenguajes visual híbridos que actualmente dominan la cultura de la imagen en
movimiento. Entre muchos artistas reconocidos que trabajan con imágenes digitales en movimiento,
Blake fue de los primeros en desarrollar exitosamente su estilo propio de medios híbridos. Su video
Sodium Fox es una combinación sofisticada de dibujos, pinturas, animación 2D, fotografía y efectos
disponibles en el software. Mediante una estrategia comúnmente usada por los artistas en relación
con los medios comerciales del siglo XX, Blake reduce el ritmo veloz de los motion graphics tal como
los vemos actualmente. Sin embargo, a pesar del ritmo lento, su densidad de información es similar a
los gráficos que vemos en clubes, videoclips, televisoras, y demás. Sodium Fox crea esta densidad
mediante una original exploración de la característica básica de los ambientes de producción basados
en software en general, y de After Effects en particular: la construcción de la imagen con varias capas.
18 http://www.psyop.tv/projects/live-action/ (October 31, 2012)
Manovich. Capítulo 5 – El Software Toma el Mando 14 / 55
Claro que la animación tradicional con acetato de inicios del siglo XX también implicaba la
construcción de una imagen con diferentes acetatos sobrepuestos (cada uno de ellos con diferentes
elementos de la imagen total, por ejemplo, uno podía tener una cara, otro los labios, otro el cabello,
otro un paisaje, etc.).
Con el software computacional, no obstante, los diseñadores pueden controlar precisamente la
transparencia de cada capa; también pueden añadir diferentes efectos visuales (como el desenfoque)
entre las capas. Como resultado, en lugar de crear una narrativa visual basada en el movimiento de
unos cuantos elementos visuales en el espacio (como era común en la animación del siglo XX, tanto
comercial como experimental), los diseñadores tienen ahora muchas nuevas maneras de crear
animación. Al explorar esta posibilidades, Blake confecciona su propio lenguaje visual en el cuál los
elementos visuales en diferentes capas están, continua y gradualmente, “sobrescritos” entre ellos. Si
conectamos este nuevo lenguaje con el cine del siglo XX, podemos decir que en las obras de Blake se
funden continuamente en diferentes elementos de la imagen (y no de todo del fotograma completo).
El resultado es una estética que equilibra la continuidad visual mediante un ritmo constante de re-
escritura y desvanecimiento visual y de superposición gradual.
Como Sodium Fox, Untitled (Pink Dot) de Murata también desarrolla su propio lenguaje dentro del
paradigma general de la hibridación de medios. Murata crea una imagen que pulsa y respira, dándole
una sensación biológica. En la última década, muchos diseñadores y artistas han usado algoritmos y
técnicas inspiradas de la biología para crear movimientos semejantes a los animales en sus
animaciones e interacciones generativas. Sin embargo, en el caso de Untitled (Pink Dot), la imagen
como todo parece cobrar vida.
Para crear este ritmo pulsante, similar a la respiración, Murata transforma material de acción viva
(escenas de la película Rambo, 1982) en una flujo de parches de colores abstractos (a veces parecen
pixeles gigantes y, otras, artefactos de alta compresión de imagen). Pero esta transformación nunca
llega a un estado final. Más bien, Murata ajusta constantemente el grado. (En términos de las
interfaces del software de medios, esto puede corresponder a la animación del parámetro de un filtro
o efecto). En un momento vemos imagen viva casi sin procesamiento; al siguiente se convierte en un
patrón completamente abstracto; a continuación, partes del acción viva se hace visibles y así.
En Untitled (Pink Dot), la condición general de la hibridación de medios se realiza como una
metamorfosis permanente. Es cierto, seguimos viendo ecos del movimiento en el espacio, que era el
método central de la animación pre-digital. (Aquí, éste es el movimiento de las figuras en las tomas de
Rambo). Pero ahora el verdadero cambio que importa es el que sucede entre diferentes estéticas de
medios: entre la textura del cine y los patrones abstractos pulsantes del flujo de parches de colores,
Manovich. Capítulo 5 – El Software Toma el Mando 15 / 55
entre la “vivacidad” original de las figuras humanas en acción (captadas por la película) y la
exagerada vivacidad artificial generada es procesadas por la máquina.
Visualmente, Untitled (Pink Dot) y Sodium Fox, no tienen mucho en común. Sin embargo, ambas
películas tienen la misma estrategia: crear una narrativa visual mediante transformaciones continuas
de las capas de la imagen, en comparación con los movimientos de trazos gráficos o caracteres,
común a la animación clásica comercial de Disney como a los experimentos de Norman McLaren,
Oskar Fischinger y otros. Aunque que podemos asumir que ni Blake ni Murata tenían este objetivo en
mente, cada artista de diferente manera muestra las técnicas claves e cambios conceptuales que
definen la nueva era de la hibridación de medios. El software de medios permite al diseñador
combinar cualquier número de elementos visuales sin importar su medio original y controlarlos en el
proceso. Esta habilidad básica puede ser explorada en varias estéticas visuales. Las películas de
Blake y Murata, con sus ritmos temporales diferentes y diferentes lógicas de combinación de medios,
ejemplifican esta diversidad. Blake usa capas de gráficos fijos, texto, animación y efectos, haciendo
visibles e invisibles los elementos. Murata procesa la acción viva para crear un flujo constante de
imágenes en donde parece que las dos capas (acción viva e imagen procesada) se empujan entre
ellas hacia afuera.
Remezcla profunda
Creo que la “hibridación de medios” es una nueva etapa esencial en la historia de los medios. Ésta se
manifiesta en diferentes áreas de la cultura del software y no sólo en las imágenes en movimiento
(aunque ésta última ofrece un ejemplo particularmente ejemplar de la nueva lógica cultural en
acción). Aquí, el ambiente del software creación se vuelve un plato de Petri en donde las técnicas y las
herramientas de la animación por computadora, cinematografía en vivo, diseño gráfico, animación
2D, tipografía, pintura y dibujo interactúan. Y como lo demuestran los ejemplos anteriores, los
resultados de los procesos de la hibridación son una nueva estética y nuevas “especies de medios”
que no pueden reducirse a la suma de los medios que intervinieron en su creación.
¿Podemos entender el nuevo leguaje híbrido de la imagen en movimiento como un tipo de remix?
Desde sus orígenes en la cultura musical de los 80’s, el remix ha surgido gradualmente como una
estética dominante de la era de la globalización, afectando y reformando todo: de la música y el cine a
la moda y la comida. (Si Frederic Jameson se refirió alguna vez al post-modernismo como “la lógica
cultura del capitalismo moderno”, quizá podemos llamar al remix “la lógica cultural del capitalismo
global interconectado”). Varios autores han estudiado los efectos del remix en muchas áreas
culturales, del uso de medios por niños japoneses (Mimi Ito) a la cultura web (Eduardo Navas). Entre
otro libros representativos, podemos mencionar: Rhythm Science (D. J. Spooky, 2004), Remix:
Manovich. Capítulo 5 – El Software Toma el Mando 16 / 55
Making Art and Commerce Thrive in the Hybrid Economy (Lawrence Lessig, 2008), Mashed Up:
Music, Technology, The Rise of Configurable Culture (Aram Sinnreich, 2010), Mashup Cultures
(editado por Stefan Sonvilla-Weiss, 2010) y Remix Theory: The Aesthetics of Sampling (Eduardo
Navas, 2012)19.
Creo que los mecanismos combinatorios responsables de la evolución del “metamedio por
computadora” en general y la nueva estética visual híbrida que surgió en los 90’s pueden ser
considerados un tipo de remix, siempre y cuando hagamos una distinción crucial. La remezcla típica
combina contenidos en un mismo medio. Por ejemplo, un remix musical puede combinar elementos
musicales de varios artistas; un videos musical de animé puede combinar partes de un film de animé
y música tomada de un video musical. Los motion graphics producidos profesionalmente también
mezclan contenido en un mismo medio y/o en diferentes medios. Por ejemplo, al inicio del video de
“Go” (Convert/MK12/Kanye West, 2005), el video cambia rápidamente entre la acción viva en un
cuarto y el modelo 3D del mismo cuarto. Más tarde, las tomas de acción viva también incorporan una
panta generada a computadora y fotografías fijas de un paisaje en las montañas. Las tomas de una
bailarina están combinadas con tipografía animada muy elaborada. Los personajes humanos se
transforman en patrones abstractos animados. Y así.
Estas remezclas del contenido de diferentes medios son comunes en la cultura contemporánea de la
imagen-movimiento. De hecho, empecé discutiendo el nuevos lenguaje visual señalando que, en el
caso de las formas cortas, constituyen la regla y no la excepción. Pero este tipo de remix es tan sólo
un aspecto de la “revolución de los híbridos”. Para mí, su esencia radica en algo más. Llamémoslo
“remezcla profunda”. Hoy, los diseñadores no sólo remezclan contenido de diferentes medios sino
además sus técnicas fundamentales, sus métodos de trabajo y sus formas de representación y
expresión. Unidos en un mismo ambiente de software, los lenguajes de la cinematografía, la
animación tradicional, la animación por computadora, los efectos especiales, el diseño gráfico, la
tipografía, el dibujo y la pintura conforman un metalenguaje. Un trabajo producido en este nuevo
metalenguaje puede usar todas técnicas, o un subconjunto de éstas, que antes eran exclusivas a
estos diferentes medios.
19 Mizuko Ito, “Mobilizing the Imagination in Everyday Play: The Case of Japanese Media Mixes,” in International
Handbook of Children, Media, and Culture, Sonia Livingstone y Kirsten Drotner, (eds) (Sage Publications, 2008);
Paul D. Miller, Rhythm Science (MIT Press, 2004); Lawrence Lessig. Remix: Making Art and Commerce Thrive in
the Hybrid Economy (Penguin Press HC, 2008); Aram Sinnreich, Mashed Up: Music, Technology, and the Rise of
Configurable Culture (University of Massachusetts Press, 2010); Stefan Sonvilla-Weiss, Mashup Cultures
(Springer, 2010); Eduardo Navas, Remix Theory: The Aesthetics of Sampling (Springer Vienna Architecture,
2012).
Manovich. Capítulo 5 – El Software Toma el Mando 17 / 55
Podemos ver este nuevo metalenguaje de las imágenes en movimiento como una gran librería de
todas las técnicas precedentes para crear y modificar imágenes en movimiento. Un diseñador de
imágenes animadas selecciona técnicas de la librería y las combina en una sola secuencia o en un
solo fotograma. Pero este marco es engañoso. ¿Cómo combina exactamente estas técnicas?, Cuando
remezclamos contenido, es fácil imaginarse diferentes textos, audios, elementos visuales o flujos de
datos puestos los unos junto a los otros. Imagina un típica collage del siglo XX excepto que ahora se
mueve y cambia con el tiempo. ¿Pero cómo remezclar las técnicas mismas?
En los casos de las interfaces de los medios híbridos que ya hemos analizado (como la interfaz de
Acrobat), el “remix” de las técnicas significa simple combinación. Las diferentes técnicas aparecen,
literalmente, una junto a otra en la UI de la aplicación. En Acrobat: un botón para adelantar y
retroceder, uno para zoom, otro para “encontrar”, y otros más, están puestos juntos en la barra de
herramientas superior al documento en lectura. Otras técnicas aparecen como herramientas en las
listas verticales de los menús: deletrear, buscar, email, imprimir, etc. Vemos los mismos principios en
las interfaces de todas las aplicaciones de creación y edición de medios. Las técnicas tomadas de
varios medios se presentan con las convenciones de la UI.
Esta “adición de técnicas” que existe en un solo espacio, combinadas sin más necesidad de
interacción está también presente en el remix de contenidos familiares: moda, diseño, arquitectura,
collages, motion graphics. Pensemos en el ejemplo hipotético de un diseño visual que combina
elementos de dibujo, fotos y formas 3D a computadora. Cada uno de estos elementos visuales es el
resultado del uso de particulares técnicas de medios para el dibujo, la fotografía y las gráficas
computacionales. Entonces, a pesar de que nos podemos referir a estos objetos culturales como
remezclas de contenidos, también está justificado decir que son remezclas de técnicas. Esto aplica
también para el diseño pre-digital, cuando un diseñador podía usar herramientas y máquinas físicas
separadas; y para el diseño contemporáneo con software, en el diseñador accede a todas estas
herramientas con unos cuantos software compatibles.
Mientras las piezas del contenido, o los botones de la interfaz, o las técnicas estén simplemente
añadidas en lugar de estar completamente integradas, no necesitamos un término especial como el
de la “remezcla profunda”. Lo anterior sigue siendo, para mí, “remix” en el sentido más común del
término. Pero en el caso de la estética de la imagen en movimiento también vemos algo más. En lugar
de una simple añadidura, vemos interacciones entre las técnicas previamente separadas de la
animación por acetato, cine, animación 3D, diseño y demás. Estas interacciones antes eran
impensables. (El mismo argumento puede ser hecho en relación con otros tipos de objetos culturales
y experiencias creadas con el software de creación de medios, como los diseños visuales y la música).
Manovich. Capítulo 5 – El Software Toma el Mando 18 / 55
Creo que esto es algo que ni los pioneros de los medios por computadora de los 60’s-70’s, ni los
diseñadores de las primeras aplicaciones de producción de medios que aparecieron en los 80’s,
tenían pensado. Sin embargo, una vez que todas estas técnicas de medios se unieron en un mismo
ambiente de software (lo que se fue volviendo más sólido en los 90’s), empezaron a interactuar de
formas que no hubieran podido imaginar o predecir anteriormente.
Por ejemplo, aún cuando las técnicas particulares de los medios siguen usándose con relación a su
medio original, también se pueden aplicar a otros medios. Los filtros de Photoshop, que analizamos
previamente, ilustran bien este efecto de “esparcimiento”: las técnicas que originalmente pertenecían
a un medio en particular ahora se puede aplicar a otros tipos de medios. Por ejemplo, los filtros
resplandor de neón, vidriera o destello, pueden ser aplicados a fotografías y bocetos. (Más
precisamente, pueden ser aplicados a cualquier archivo cargado en la memoria gráfica y que esté en
la ventana del documento).
He aquí algunos ejemplos típicos de la estrategia distribuida usada en el diseño de imágenes en
movimiento. El texto ejecuta una coreografía en el espacio 3D; un desenfoque animado se aplica en
un gráfico computacional 3D; campos de partículas generados algorítmicamente que se fusionan con
acción viva; una cámara virtual que se mueve alrededor de un espacio virtual lleno de dibujos 2D.
Para cada caso, la técnicas que fue asociada originalmente con un medio en particular se aplica
ahora a otro tipo de medio. Hoy, un cortometraje típico o una secuencia puede combinar muchos de
estos pares en un mismo fotograma. El resultado es un lenguaje híbrido, intricado, complejo y rico en
medios (o más bien numerosos lenguajes que comparten la lógica de la remezcla profunda).
De hecho, estas interacciones entre técnicas virtualizadas de medios define la estética cultura de la
imagen en movimiento contemporánea. Por eso he decidido acuñar un término especial (la remezcla
profunda). Mi idea es distinguir dos partes. Por un lado, las formas complejas de interacciones entre
técnicas (como las distribuidas a través de varios medios). Por otro lado, la simple remezcla de
técnicas y contenidos de medios con las que somos familiares, ya sea música, animés, arte
postmoderno de los 80’s, arquitectura, etc.
Para ejemplos concretos del “efecto distribuido” que ejemplifica la remezcla profunda, podemos
retomar el mismo video “Go” y verlo de nuevo, pero ahora desde una perspectiva diferente. Antes
habíamos señalado las formas en que combina elementos visuales de diferentes tipos de medios:
acción viva, fotografías fijas, elementos generados proceduralmente, tipografía, etc. Sin embargo,
exactamente las mismas tomas también contienen ejemplos de las interacciones entre técnicas, que
sólo son posibles en un ambiente de diseño con software.
Manovich. Capítulo 5 – El Software Toma el Mando 19 / 55
Cuando el video empieza, una estructura de bloques y páneles, monocromáticos perpendiculares,
crece rápida y simultáneamente en el espacio y rota para ubicarse en una posición que permite
reconocer que se trata de un cuarto (00:07–00:11). Después, el cuarto se transforma de una
estructura geométrica abstracta en una foto-realista: aparecen muebles, la textura de madera rueda
por el piso y una vista panorámica de una montaña llena la ventana. Aunque los diferentes estilos de
render de gráficos computacionales ha estado disponible en software de animación de los 80’s, la
forma particular en que el video abre con una estructura 3D monocromática es un ejemplo claro de
remezcla profunda. A mediados de los 90’s, los diseñadores gráficos empezaron a usar software de
animación por computadora; trajeron sus técnicas y sensibilidad a la animación por computadora
que, hasta esas épocas, eran usadas al servicio del foto-realismo. Las fuertes composiciones
diagonales, la intencional interpretación aplanada y la elección de colores en la apertura del video
“Go” subordina las técnicas de foto-realismo de los gráficos computacionales a una específica
disciplina visual y, de ahí, a un diseño gráfico moderno. La estructura animada 3D hace referencia al
suprematismo de Malevich y Lissitzky, quienes jugaron un rol clave en la creación de la gramática del
diseño moderno y que, en nuestro ejemplo, se ha vuelto un filtro “conceptual” que ha transformado
los gráficos computacionales.
Después de una pausa momentánea que sirve para identificar bien el cuarto, cuya construcción ha
sido casi completada, una cámara rota repentinamente 90 grados (00:15 – 00:17). Esta cámara
imposible físicamente es otro ejemplo de remix profundo. Mientras el software de animación
implementa la gramática estándar de la cinematografía del siglo XX (paneo, zoom, dolly, travelling,
etc.), el software no tiene el límite del mundo físico. Por consecuencia, una cámara se puede mover
en dirección arbitraria, seguir una curva imaginaria y hacer esto a cualquier velocidad. Estos
movimientos de cámara imposibles se vuelven herramientas estándar del diseño contemporáneo de
medios y de la cinematografía del siglo XXI; a partir de los 2000’s, los vemos cada vez más seguido en
las películas. Así como los filtros Photoshop, que se pueden aplicar a cualquier composición visual, los
movimientos de cámara virtual también se pueden estar superpuestos en cualquier escena sin
importar que haya sido modelada en 3D, generada proceduralmente, capturada en video,
fotografiada, dibujada o, como en el video de nuestro ejemplo, hecha de una combinación de
diferentes medios.
Siguiendo adelante en el video (00:15–00:22) notamos otra interacción previamente imposible entre
las técnicas de los medios. Esta interacción es una reflexión del lente que se mueve lentamente a
través de toda la escena. La reflexión del lente era originalmente un artefacto de la tecnología de la
cámara y ahora se ha vuelto un filtro (es decir, una técnica que puede ser “dibujada” sobre una
cualquier imagen construida con las técnicas disponibles al diseñador). Si queremos una prueba más
de que estamos frente a una técnica visual, notemos que la “reflexión del lente” se mueve mientras la
Manovich. Capítulo 5 – El Software Toma el Mando 20 / 55
cámara se queda perfectamente estática (00:17–00:22), lo que es lógicamente imposible pero
sacrificado a favor de una experiencia visual más dramática.
Me he referido al nuevo lenguaje de la imagen en movimiento como un “meta-lenguaje”. Como
nuestra argumentación ha estado basada en el término “metamedio computacional”, ahora debo
explicar la conexión entre ambos términos.
La aceleración de los cambios sociales, tecnológicos y culturales en la segunda parte del siglo XX ha
llevado al uso frecuente de los prefijos “meta”, “hiper” y “super” en la teoría y crítica cultural. Desde el
Superstudio (un grupo de arquitectura conceptual muy activo en los 60’s), los hipermedios de Ted
Nelson y el metamedio de Alan Kay al más reciente supermodernismo e hipermodernidad20, estos
términos pueden ser vistos como intentos por capturar el sentimiento de haber pasado a una viaje a
la velocidad de la luz. Así como los cosmonautas contemplaban la Tierra en los años 60’s desde las
órbitas de sus naves espaciales y por primera vez como un solo objeto, parece que también nosotros
estamos viendo la historia de la humanidad desde otra órbita. Esta connotación parece encajar con la
redefinición práctica y conceptual de la computadora digital como metamedio, que incluye la mayoría
de las tecnologías y técnicas de los medios existentes así como la invención de muchas nuevas.
Sabemos que el término de “metalenguaje” tiene significados precisos en la lógica, la lingüística y la
computación, pero aquí estamos usándolo en un sentido similar al de Alan Kay cuando usa “meta” en
“metamedio”. Normalmente un metalenguaje se refiere a un sistema formal separado para describir
medios o lenguajes culturales (así como la gramática describe cómo un lenguaje natural particular
funciona). Pero no es así como Kay usa el prefijo. Él lo ve como reunión-inclusión-colección, en breve,
juntar cosas que antes estaba separadas.
Imaginemos este metamedio computacional como una conjunto de recursos vasto y en constante
expansión. Este metamedio incluye todas la técnicas de creación y manipulación de medios, formas
de interacción y formatos de datos disponibles a programadores y diseñadores en su actual momento
histórico. Todo está aquí: desde algoritmos para ordenar y buscar hasta los menús desplegables,
pasando por las técnicas de render de agua y cabello, video juegos, inteligencia artificial y métodos de
interfaces multi-touch.
Si vemos cómo se usan estos recursos en diferentes áreas culturales para crear tipos particulares de
contenidos y experiencias, veremos que cada uno de ellos sólo emplea un subconjunto de todos los
recursos disponibles. Por ejemplo, las interfaces gráficas de los sistemas operativos de hoy en día
(Windows, Linux, Mac OS) usan íconos estáticos. En contraste, en algunas interfaces de aparatos
20 http://en.wikipedia.org/wiki/Hypermodernity
Manovich. Capítulo 5 – El Software Toma el Mando 21 / 55
electrónicos (como cierto teléfonos celulares) vemos que casi todos los íconos tienen algún tipo de
animación.
Además, el uso de un subconjunto de todos los elementos existentes no es al azar, sigue una serie de
convenciones particulares. Algunos elementos siempre van juntos. En otros casos, el uso de algún
elemento pondría en contradicción el uso de otro. En otras palabras, las diferentes formas de medios
digitales usan diferentes subconjuntos de todas las técnicas que permite un metamedio
computacional y dicho uso sigue patrones discernibles.
Si estás notando los equivalentes entre lo que los críticos culturales llaman un “lenguaje artístico”, un
“estilo” o un “género”, estás en lo correcto. Cualquier obra literaria u obra de algún autor o
movimiento literario emplea solamente una parte de las técnicas literarias existentes, y este uso sigue
ciertos patrones. Lo mismo puede decirse del cine, de la música y de todas las demás formas
culturales reconocidas. Esto nos permite hablar del estilo de una novela o película en particular, o del
estilo de un autor o de un movimiento en general. (Los investigadores de cine David Bordwell y Kristin
Thompson llaman a esto un “sistema estilístico” que definen como un “uso de técnicas modelado y
significante”. En el caso del cine, dividen éstas técnicas en cuatro categorías: puesta en escena,
cinematografía, edición y sonido21). Cuando todo un campo cultural puede ser dividido en unos
cuantos grupos de trabajo distintos, en cada uno comparte un patrón o modelo, generalmente
hablamos de “géneros”. Por ejemplo, los teóricos del antiguo teatro griego identifican comedias y
tragedias, y prescriben las reglas que cada género sigue. Hoy, las compañías usan software
automatizado para clasificar blogs en diferentes géneros.
Si por “medio” entendemos un conjunto de recursos tecnológicos estándar, ya sea un escenario físico
o una cámara de cine, luces y celuloide, podemos ver que cada medio soporta generalmente
múltiples lenguajes-estilos-géneros artísticos. Por ejemplo, el medio de la cinematografía del siglo XX
soportaba el montaje ruso de los 20’s, el neorrealismo italiano de los 40’s, la nuevo ola francés de los
60’s, las películas fantásticas de Kung Fu de los 80’s en Hong Kong, el cine chino de “quinta
generación” de los 80-90’s, etc.
De forma similar, un metamedio computacional puede soportar múltiples metalenguajes culturales o
artísticos. En otras palabras, en el esquema teórico que propongo, sólo hay un solo metamedio, pero
muchos metalenguajes.
21 David Bordwell & Kristin Thompson, Film Art: an Introduction, 5ª. edición (The McGraw-Hill Companies, 1997),
p. 355.
Manovich. Capítulo 5 – El Software Toma el Mando 22 / 55
Entonces, ¿qué es un metalenguaje? Se definimos un lenguaje artístico como un uso modelado (o
que sigue un patrón) de un selecto número de técnicas disponibles en un medio dado22 , un
metalenguaje es un uso modelado de un subconjunto de todas las técnicas disponibles en el
metamedio computacional. Pero no cualquier subconjunto. De hecho, sólo tiene sentido hablar de
metalenguaje (en oposición a lenguaje) si las técnicas que usa vienen de diferentes lenguajes
culturales previos. Como ejemplo, pensemos en el metalenguaje de los globos terráqueos virtuales
populares y comerciales (Google Earth o Microsoft Bing Maps). Estas aplicaciones combinan
sistemáticamente diferentes tipos de formatos de medios y técnicas de navegación de medios que
previamente estaba separadas. Estas combinaciones siguen patrones comunes. Otro ejemplo sería el
metalenguaje común a muchas interfaces gráficas de usuario (recordemos mi análisis a la interfaz de
Acrobat, que combina metáforas de diferentes tradiciones de medios).
Debido a que las imágenes en movimiento de hoy combinan técnicas de diferentes medios visuales
que casi nunca se encontraron hasta mediados de los 90’s, podemos usar justificadamente el
término “metalenguaje” en su caso. El diseño visual de hoy tiene su propio metalenguaje, que a su
vez es un subconjunto del metalenguaje de las imágenes en movimiento. Esto se explica porque el
diseñador de imágenes en movimiento tiene acceso a todas las técnicas de un diseñador visual y
otras más debido a que trabaja con la dimensión adicional del tiempo. Estos dos metalenguajes se
sobreponen en cuanto a patrones que les son comunes, pero hay algunas diferencias importantes.
Por ejemplo, sucede muy seguido que la imagen en movimiento de hoy navegue por un espacio 3D
junto con otros elementos 2D. En contraste, los diseños visuales de los medios impresos y del web
son generalmente bidimensionales: reúnen sus elementos en una superficie plana imaginaria (Tengo
la impresión de que la principal insistencia en esta planitud es que estos diseños existen junto a largo
bloques de texto existentes en 2D).
Capas, transparencia y composición
Hasta ahora nos hemos enfocado en la estética de las imágenes en movimiento que surgieron a partir
de la Revolución de Terciopelo. Para continuar esta investigación, pondremos más atención al análisis
del nuevo ambiente de producción basado en software que hizo posible esta estética. Las siguientes
secciones del presente capítulo observarán las herramientas de After Effects y demás aplicaciones de
creación de medios, sus interfaces y las formas en que se usan en conjunto durante la producción (o
sea, en el flujo de diseño). En lugar de estudiar todas las propiedades de las herramientas y de las
interfaces, resaltaremos un par de supuestos fundamentales (formas de entender lo que es un
22 Esta definición es adoptada de Bordwell & Thompson, Film Art, p. 355.
Manovich. Capítulo 5 – El Software Toma el Mando 23 / 55
proyecto de imágenes en movimiento) que, como veremos, son muy diferentes de cómo fueron vistos
en el siglo XX.
Probablemente el cambio más drástico sucedió entre 1993 y 1999, con la habilidad de combinar
múltiples niveles de imágenes con diferentes grados de transparencia mediante la composición
digital. Si comparamos un típico video musical o un spot de TV de 1986 con su contraparte de 1996,
las diferencias son sorprendentes. (Lo mismo pasa con otras áreas del diseño visual). Como ya lo
hemos dicho, en 1986 los “bancos de memoria informatizados” eran limitados en su capacidad de
almacenamiento y prohibitivamente caros. Los diseñadores no podían cortar y pegar fácilmente
múltiples fuentes de imágenes. Y cuando se lograban ensamblar varias referencias visuales, los
diseñadores sólo podían ponerlas al lado o encimarlas. No se podía modular con precisión su
composición mediante el ajuste de niveles de transparencia de uno o todas las imágenes. Más bien,
se tenía que conformar con las técnicas de fotomontaje popularizadas en los años 20’s. En otras
palabras, la falta de transparencia restringió el número de diferentes fuentes de imágenes que se
podían integrar en una misma composición sin que parecieran foto-collages de John Heartfield,
Hannah Hoch o Robert Rauschenberg (un mosaico de fragmentos sin algún dominante claro)23.
Además de permitir la superposición de muchas capas transparentes, la composición digital también
facilitó otra operación que antes era muy complicada. Hasta los 90’s, diferentes tipos de medios,
como la animación a mano, las grabaciones ópticas y la tipografía, prácticamente nunca aparecían en
un mismo cuadro. Más bien, aparecían en diferentes tomas, como se veía en algunos comerciales,
spots y películas experimentales. Poco directores lograron crear un sistema estético a partir de dichas
yuxtaposiciones, por ejemplo Jean-Luc Godard. En sus realizaciones sesenteras, como Weekend
(1967), Godard insertaba tipografías gruesas entre la acción viva, creando lo que se puede llamar un
“media-montaje” (en oposición al montaje de tomas de acción viva, tal como lo hicieron los rusos de
los años 20’s). También en los 60’s, el pionero de los motion graphics Pablo Ferro, quien
apropiadamente llamó a su compañía Frame Imagery, creó cortos promocionales y gráficas de TV que
jugaban con la yuxtaposición de diferentes medios, reemplazándose mutua y rápidamente24. En
varios trabajos de Ferro, se observan imágenes estáticas de diferentes formas de letras, líneas de
dibujos, pinturas hechas a mano, fotografías, secuencias cortas de noticias, y demás visuales, que
venían uno después del otro a una velocidad rapidísima.
23 En el caso del video, uno de los factores que dificultaba la combinación de múltiples visuales era la rápida
degradación de su señal cuando era copiado más de un par de veces. Una copia no ya no cumplía con los
estándares de teledifusión. 24 Jeff Bellantoni & Matt Woolman, Type in Motion (Rizzoli, 1999), pp. 22–9.
Manovich. Capítulo 5 – El Software Toma el Mando 24 / 55
En el cine, la superposición de diferentes medios en el mismo cuadro estaba usualmente limitada a
dos medios encimados de manera estándar, es decir, las letras estáticas que aparecen sobre
imágenes fijas o en movimiento en las secuencias de los créditos de entrada. En los 60’s, tanto Ferro
como otro pionero de los motion graphics, Saul Bass, crearon algunas secuencias de créditos
remarcables, en donde los elementos visuales de diferente origen se sobreponían más
dinámicamente (como los créditos de Vertigo de Alfred Hitckcock hechos por Bass en 1958). (La
secuencia de Bass hecha en 1959 para North by Northwest es considerada como el primer uso de
tipografía en movimiento).
Creo que podemos decir estas complejas yuxtaposiciones de medios en un mismo cuadro eran
excepciones raras en el universo de “unimedios”, en donde las imágenes filmadas aparecían en
películas y las imágenes dibujadas en cine de animación. El único director de cine del siglo XX que sé
que haya construido su estética única mediante la combinación sistemática de diferentes medios en
el cuadro fue Karel Zeman. Así, una típica toma de Zeman podía contener figuras humanas filmadas,
un antiguo grabado como fondo y un modelo miniatura25.
Los logros de estos directores y diseñadores son particularmente sorprendentes debido, sobretodo, a
la dificultad que existía para combinar diferentes medios en el mismo fotograma en aquella época.
Para hacer esto era necesario utilizar los servicios de efectos especiales de diferentes compañías que
usaban impresoras ópticas. Algunas técnicas que eran más baratas y accesibles, como la doble
exposición, eran limitadas en cuanto a su precisión. Mientras los diseñadores de imágenes estáticas
podían por lo menos cortar y pegar múltiples elementos en la misma composición para crear un
fotomontaje, su equivalente en cuanto a imágenes en movimiento no era para nada trivial.
Para poner todo esto en términos más generales podemos decir que antes de la informatización de
los 90’s, las habilidades de los diseñadores para acceder, manipular, remezclar y aplicar filtros a la
información visual, fija o en movimiento, estaban algo limitadas. De hecho, eran las mismas que cien
años antes. En retrospectiva, podemos ver que iban en contra de la flexibilidad, velocidad y precisión
de la manipulación de datos que ya se practicaba en la mayoría de los campos computacionales
profesionales (ciencias, ingeniería, contabilidad, gestión, etc.). Entonces, sólo fue cuestión de tiempo
antes de que todos los medios de imágenes se convirtieran en datos digitales y que los ilustradores,
diseñadores gráficos, animadores, editores de películas y video, y diseñadores de gráficos animados
empezaran a manipularlos vía software en lugar de las herramientas tradicionales. Pero esto es obvio
en nuestros días, después de la Revolución de Terciopelo.
25 Mientras que los efectos especiales del cine combinaban seguido diferentes medios, se usaban en conjunto
para crear un solo espacio ilusorio, en lugar de sobreponer para el efecto estético, como en las películas y
secuencias de Godard, Zeman, Ferro y Bass.
Manovich. Capítulo 5 – El Software Toma el Mando 25 / 55
En 1985, Jeff Stein dirigió un video musical para el sencillo “You Might Think” del grupo new wave The
Cars. Este video fue uno de los primeros en usar sistemáticamente gráficas computacionales; tuvo un
gran impacto en el mundo del diseño y MTV le otorgó el primer lugar en sus primeros premios a la
música. Stein logró crear un mundo surreal en donde la cabeza de uno de los integrantes de la banda
estaba animada sobre diferentes fondos de video. En otras palabras, Stein tomó la estética de las
caricaturas (personajes 2D animados, superpuestos sobre un fondo 2D) y la recreó usando imágenes
de video. Además, también añadió elementos animados por computadora sencillos para resaltar el
efecto surreal. Esto era perturbador porque nadie había visto dichas yuxtaposiciones antes. De
repente, el foto-montaje modernista cobró vida. Pero diez años después, esos video-collages no sólo
se han vuelto ubicuos sino también más complejos, con más capas y más sutiles. En lugar de dos o
tres capas, una composición ahora puede tener cientos e incluso miles de capas. Cada una con su
propio nivel de transparencia.
En resumen, la composición digital de hoy ha permitido a los diseñadores de imágenes en movimiento
combinar fácilmente cualquier número de elementos visuales sin importar su medio de origen y
controlar cada uno de ellos en el proceso. Podemos hacer una analogía entre la grabación multicanal
de audio y la composición digital. En la primera, cada pista de sonido puede ser manipulada
individualmente para producir un resultado determinado. Igualmente, en la composición digital, cada
elemento visual puede ser modulado independientemente de varias formas: redimensionado,
coloreado, animado, etc. Así como el artista musical se puede concentrar en una pista en particular al
silenciar todas las demás, el diseñador desactiva todas las capas excepto la que está ajustando. De
manera similar, tanto un músico como un diseñador pueden en todo momento sustituir un elemento
de la composición por otro, borrarlos o añadir otros. Pero lo más importante, así como la grabación
multicanal redefinió el sonido de la música popular desde los 70’s, una vez que la composición digital
se volvió accesible en los 90’s, cambió fundamentalmente la estética visual de la mayoría de las
formas de imagen en movimiento.
Esta discusión sólo ha evocado la superficie del tema de esta sección: capas y transparencia. Por
ejemplo, no hemos analizado las técnicas reales de la composición digital ni tampoco el concepto
fundamental de un canal alfa, que merece un tratamiento separado y detallado. Tampoco hemos
visto las posibles historias de medios que han llevado a la composición digital, ni hemos examinado
su relación con las tecnologías de impresión óptica, de manipulación y de efectos de video de los
años 80’s. Estas historias y relaciones fueron examinadas en el capítulo “Compositing” de The
Language of New Media, aunque desde una perspectiva diferente a la que hemos tomado aquí. En
aquel tiempo (1999), me interesaba en la composición a partir de la cuestión del realismo cinemático,
las prácticas de montaje y la construcción de efectos especiales en películas. Hoy, sin embargo, me
Manovich. Capítulo 5 – El Software Toma el Mando 26 / 55
queda claro que además de alterar el régimen del realismo cinemático en favor de otra estética
visual, la composición digital ha tenido otro, y más fundamental, efecto.
A finales de los 90’s, la composición digital se ha vuelto la operación básica en la creación de todo
tipo de imágenes en movimiento, y no sólo en películas de gran presupuesto. Así que, mientras que
originalmente fue desarrollada como una técnica de efectos especiales, en los 70’s e inicios de los
80’s26, la composición digital ha tenido un efecto más amplio en la cultura visual y de medios
contemporánea, más allá de los efectos especiales. La composición ha jugado el rol principal que ha
convertido a la computadora digital en una especie de laboratorio experimental (o una placa de Petri)
en donde diferentes medios se encuentran, con sus técnicas y estéticas, para ser combinados para
crear nuevas especies. En breve, la composición digital ha sido esencial en el desarrollo del nuevo
lenguaje visual híbrido de las imágenes en movimiento que hoy vemos en cualquier parte.
Al inicio definido como una técnica digital particular diseñada para integrar la acción viva del cine con
las gráficas computacionales de secuencias de efectos especiales, la composición digital se ha vuelto
un “integrador universal de medios”. Y aunque fue originalmente creado para soportar la estética del
realismo cinemático, con el tiempo ha tenido en realidad el efecto contrario. En lugar de llevar a los
medios hacia una fusión perfecta, la composición más bien ha llevado al surgimiento de nuevos
híbridos de medios en donde la yuxtaposición entre la acción viva y los algoritmos generativos, la 2D y
la 3D, los medios bitmap y los vectoriales, se hace deliberadamente visible en lugar de ocultarse.
La interfaz de After Effects: del t iempo a la composición
Mi tesis sobre la hibridación de los medios aplica tanto a los objetos culturales como al software
usado para crearlos. Así como los medios de imagen en movimiento hechos por los diseñadores de
hoy combinan formatos, supuestos y técnicas de diferentes medios, las herramientas e interfaces del
software que usan también se remezclan. Tomemos una vez más After Effects como caso de estudio
para ver cómo su interfaz remezcla los diferentes métodos de trabajo previos en distintas disciplinas.
Cuando los diseñadores de imágenes en movimiento empezaron a usar software de composición y
animación como After Effects, su interfaz les invitaba a pensar dichas imágenes de una nueva forma.
Los sistemas de edición de cine y video que fueron denominados como editores no lineales
26 Thomas Porter & Tom Duff, “Compositing Digital Images,” ACM Computer Graphics 18, no. 3 (julio 1984): pp.
253–9.
Manovich. Capítulo 5 – El Software Toma el Mando 27 / 55
(ejemplificados por Avid, Premiere y Final Cut27) conceptualizaron un proyecto de medios como una
secuencia de tomas organizada en el tiempo. Consecuentemente, mientras los editores no lineales
(abreviados como NLE por sus siglas en inglés) dieron al usuario muchas herramientas para ajustar
los cortes, dieron por supuesto la constante del lenguaje cinematográfico que vino con su
organización industrial (todos los cuadros tienen el mismo tamaño y relación de aspecto). Este es un
ejemplo de un tendencia más grande. Durante la primera etapa del desarrollo de software cultural,
sus pioneros exploraban las posibilidades del nuevo metamedio computacional en cualquier vía que
les interesara, debido a que su uso comercial no era aún una opción viable (a excepción del software
CAD). Sin embargo, al inicio de los 80’s, una nueva generación de empresas (Aldus, Autodesk,
Macromedia, Adobe, entre otras) empezaron a producir software basado en GUI para industrias
particulares: producción de TV, diseño gráfico, animación, etc. Como resultado, muchos de los
principios del flujo de trabajo, convenciones de interfaz y limitaciones de las tecnologías estándares
de medios empezaron a recrearse metódicamente en el software(aún cuando el software mismo no
tenía dichas limitaciones). El software de los NLE es un caso ejemplar. En contraste, desde su inicio,
la interfaz de After Effects introdujo un nuevo concepto de la imagen en movimiento como una
composición organizada en el tiempo y en el espacio.
El corazón de la interfaz de After Effects es una Composición, conceptualizada como un gran lienzo
que juega el rol de fondo de los elementos visuales que pueden tener tamaños, proporciones y
contenidos arbitrarios (videos, fotos, gráficos abstractos, texto, etc.). Cuando yo empecé a usar After
Effects poco después de que salió, recuerdo haberme sorprendido de que el software no ajustara los
gráficos automáticamente al tamaño del cuadro a medida que los añadía a la ventana de la
Composición. El supuesto cinematográfico fundamental que lo había acompañado durante toda su
historia había desaparecido (que el cine consiste en muchos cuadros del mismo tamaño y relación de
aspecto).
Para los paradigmas de edición de cine y video del siglo XX, la unidad mínima en la cuál trabaja un
editor es el cuadro. El editor puede cambiar la duración de un corte, ajustar en dónde empieza o
acaba un segmento, pero no puede modificar directamente el contenido del cuadro. El cuadro
funciona como un tipo de “caja negra” que no puede ser “abierta”. (Este era el trabajo de las
compañías y departamentos de efectos especiales). Pero en la interfaz de After Effects, la unidad
básica no es el cuadro sino un elemento visual puesto en la ventana de la Composición. Cada
elemento está conceptualizado como un objeto independiente. En consecuencia, una composición de
medios se entiende como un conjunto de objetos independientes que puede cambiar con el tiempo.
La palabra misma “composición” es importante en este contexto debido a que hace referencia a
27 La funcionalidad de la composición se añadió gradualmente con el tiempo a la mayoría de los editores no
lineales. Hoy la distinción entre las interfaces de After Effects, Flame, Avid y Final Cut es menos pronunciada.
Manovich. Capítulo 5 – El Software Toma el Mando 28 / 55
medios 2D (dibujo, pintura, fotografía, diseño) en lugar de la cinematografía (es decir que el espacio
se opone al tiempo).
¿De dónde salió la interfaz de After Effects? Dado que este software es comúnmente usado para
crear gráficos animados y efectos visuales, no es sorprendente que los elementos de su interfaz
pueden remontarse a tres campos distintos: animación, diseño gráfico y efectos especiales. Y debido
a que estos elementos están íntimamente integrados para ofrecer al usuario una nueva experiencia
que no se puede reducir a la simple suma de los métodos de trabajo existentes, es razonable pensar
la UI de After Effects como un ejemplo de “remix profundo”.
En la animación tradicional del siglo XX, un animador sobreponía acetatos transparentes entre ellos.
Cada acetato contenía un dibujo diferente, por ejemplo el cuerpo de un personaje en uno, la cabeza
en otro, los ojos en otro, etc. Como los acetatos eran transparentes, los dibujos se “componían”
automáticamente en un solo cuadro. A pesar de que la metáfora de After Effects no usa un pila de
acetatos directamente, sí está basado en el mismo principio. Cada elemento en la ventana de la
Composición tiene una “profundidad virtual” relativa a todos los demás elementos. Todos juntos
forman un apilamiento virtual. En cualquier momento, el diseñador puede cambiar la posición relativa
de un elemento, borrarlo o añadir nuevos.
También se puede ver una conexión entre la interfaz de After Effects y otra técnica de animación
popular del siglo XX: el stop motion. Para crear tomas stop motion, los muñecos o cualquier otro
objeto 3D se ponían frente a la cámara de cine y se iban animando manualmente, paso por paso. Por
ejemplo, un animador podía ajustar la cabeza de un personaje, moviéndola progresivamente de
izquierda a derecha en pequeños pasos. Después de cada paso, el animador hacía una toma en la
película, después hacía otro ajuste y exponía de nuevo, etc. (Entre los animadores y cineastas que
usaron creativamente esta técnica están: Wladyslaw Starewicz, Oskar Fischinger, Aleksandr Ptushko,
Jiří Trnka, Jan Svankmajer, y los hermanos Quay).
De la misma manera que las prácticas de animación con acetato y stop motion, After Effects no hace
ningún supuesto sobre el tamaño o posición de los elementos individuales. En lugar de trabajar con
unidades de tiempo estándar (o sea con fotogramas de contenido visual fijo), un diseñador ahora lo
hace con elementos visuales separados. Un elemento puede ser un cuadro de video digital, una línea
de texto, una forma geométrica, etc. El trabajo final es resultado de una disposición particular de
estos elementos en el tiempo y espacio. Por consecuencia, un diseñador que usa After Effects puede
compararse con un coreógrafo que hace una danza “animando” los cuerpos de los bailarines,
especificando cuando entran y salen de escena, sus trayectorias en el espacio y los movimientos que
hacen. (Al respecto, es relevante señalar que aunque After Effects no hace referencia directa, otro
Manovich. Capítulo 5 – El Software Toma el Mando 29 / 55
software que era comúnmente usado para el diseño de multimedios, Macromedia Director, sí se
refería explícitamente a la metáfora del teatro en su interfaz de usuario).
Aunque se puede vincular la interfaz de After Effects con los métodos de animación tradicional, tal
como fueron usados por estudios comerciales, el método de trabajo que recalca este software está
más relacionado con el diseño gráfico. En los estudios comerciales de animación del siglo XX, todos
los elementos (dibujos, escenarios, personajes, etc.) se preparaban con anticipación. La
cinematografía misma era un proceso mecánico. Por supuesto que se pueden encontrar excepciones
a esta separación de tareas en la animación experimental, en donde una película era hecha
generalmente por una persona. Esto permitía al cineasta inventar una película sobre la marcha, en
lugar de tener todo listo con antelación. Un ejemplo clásico de esto es la Motion Painting 1 de Oskar
Fischinger, creada en 1949. Fischinger hizo este film de 11 minutos mediante la modificación
constante de una pintura y su exposición en celuloide en cada paso. Este proceso le llevó nueve
meses. Como Fischinger estaba filmando en celuloide, tuvo que esperar un largo tiempo antes de ver
sus resultados. Así como lo ha dicho el historiado de animación abstracta William Moritz, “Fischinger
pintaba diario durante cinco meses sin saber cómo iba quedando su película, sobretodo porque
quería mantener absolutamente las mismas condiciones, incluyendo el celuloide, para evitar
variaciones inesperadas en la calidad de la imagen”28. En otras palabras, crear una animación y ver
el resultado estaban aún más separadas que un proceso de animación comercial.
Por el contrario, un diseñador gráfico trabaja en “tiempo real”. A medida que añade nuevos
elementos, ajusta sus posiciones, colores y demás propiedades, prueba diferentes imágenes, cambia
el tamaño de la tipografía, etc., puede ver inmediatamente el resultado de su trabajo29. After Effects
adopta este método de trabajo al hacer de su ventana de Composición el centro de su interfaz. Como
un diseñador tradicional, el usuario de After Effects acomoda interactivamente los elementos en esta
ventana y ve inmediatamente el resultado. En breve, su interfaz convierte la cinematografía en un
28 Citado en Michael Barrier, Oskar Fischinger. Motion Painting No. 1,
http://www.michaelbarrier.com/Capsules/Fischinger/fischinger_capsule.htm 29 Dependiendo de la complejidad del proyecto y de la configuración del hardware, la computadora puede, o no,
seguir el ritmo de los cambios de un diseñador. Sin embargo, debido a que tiene control sobre el render final,
puede indicarle a After Effects que muestre sólo los contornos de los objetos, u ocultar algunas capas, etc. Así,
manda menos información a procesar a la computadora y libera memoria para una comunicación en tiempo real.
Un diseñador no tiene que esperar a que una cinta sea revelada o a que la computadora acabe un ciclo de
render, pero el diseño tiene sus propias etapas de “render”, es decir, hacer pruebas. En la impresión, tanto digital
como offset, el diseñador envía pruebas a la impresora para revisar la producción. Si se encuentran problemas,
como desajustes de color, el diseñador hace los ajustes necesarios y envía nuevas pruebas.
Manovich. Capítulo 5 – El Software Toma el Mando 30 / 55
proceso de diseño, y una película se re-conceptualiza como un diseño gráfico que puede cambiar con
el tiempo.
Como vimos cuando revisamos la historia del software cultural, cuando los medios físicos y
electrónicos eran simulados en la computadora, el resultado no es simplemente un mismo medio
como los había antes. Al añadirle nuevas propiedades y métodos de trabajo, la simulación por
computadora cambia la identidad del medio. Por ejemplo, en el caso del “papel electrónico” como un
documento Word o un archivo PDF, podemos hacer muchas cosas que antes no eran posibles en el
papel ordinario: aumentar o disminuir el tamaño de la letra, buscar palabras o frases, cambiar el
formato, etc. De forma similar, los servicios de mapas interactivos en línea, como Google o Microsoft,
aumentan el papel tradicional de múltiples y espectaculares formas.
Un gran parte de software contemporáneo para crear, editar e interactuar con medios ha sido hecha
de esta forma. Las tecnologías de medios precedentes se simulaban en la computadora y se
aumentaban con nuevas propiedades. Pero si vemos software de producción como Maya (para la
modelación y animación 3D por computadora) o After Effects (que se usa en motion graphics,
composición y efectos visuales), se observa una lógica diferente. Estas aplicaciones de software no
simulan ningún medio físico previo. Más bien, hacen préstamos a diferentes medios para combinar y
mezclar sus técnicas y métodos específicos. (Y además añaden nuevas posibilidades que son
características de la computadora, por ejemplo el cálculo automático de valores entre dos fotogramas
clave). Por ejemplo, el software de modelado 3D mezcla técnicas de creación de formas que antes
pertenecían a ciertos medios físicos: modificar la curvatura de una forma redonda en el modelado con
arcilla, construir formas 3D complejas a partir de los materiales de una maqueta arquitectónica, etc.
De forma similar, la interfaz, las herramientas y el flujo de trabajo de After Effects está basado en las
técnicas e animación y diseño gráfico. (También se pueden ver influencias de la cinematografías y de
los gráficos computacionales). Pero el resultado no es un simple suma mecánica de los elementos
que vinieron de otros medios. Más bien, como el software remezcla las técnicas y los métodos de
trabajo de varios medios que simula, el resultado son nuevas interfaces, herramientas y flujos de
trabajo con su propia lógica. En este caso, el método de trabajo de After Effects no es ni la animación
ni el diseño gráfico ni la cinematografía. Es una nueva manera de hacer medios de imágenes en
movimiento. Igualmente, el leguaje visual de los medios producidos con éste y otros software
similares es diferente de los lenguajes de imágenes en movimiento que existían antes.
En consecuencia, la Revolución de Terciopelo que desató After Effects, y otros programas, no
solamente vulgarizó los gráficos animados que artistas y diseñadores como John y James Whitney,
Norman McLaren, Saul Bass, Robert Abel, Harry Marks, Richard y Robert Greenberg , habían creado
con stop motion, impresión óptica, efectos de video con hardware y demás técnicas y tecnologías
Manovich. Capítulo 5 – El Software Toma el Mando 31 / 55
personalizadas. Sobretodo, llevaron al surgimiento de numerosas estéticas visuales nuevas que no
existían antes. Y si la característica común a estas estéticas es el “remix profundo” no es difícil ver
que se observa en el “remix profundo” de la interfaz de usuario de After Effects.
El espacio 3D como plataforma de diseño de medios
Cuando investigaba lo que los usuarios y las industrias dicen sobre After Effects, me encontré con una
opinión que lo caracterizaba como un “Photoshop con fotogramas clave”. Creo que esta
denominación es de hecho útil30. Pensemos en todas la formas posibles de manipular una imagen
con Photoshop y el nivel de control que permiten su variedad de controles. Pensemos también en el
concepto de composición visual de Photoshop como apilamiento de cientos de capas potenciales,
cada una con su propia transparencia y canales alfa. Si fuéramos capaces de animar una
composición y seguir usando las herramientas para ajustar los elementos visuales por separado, esto
constituye un nuevo paradigma de creación de imágenes en movimiento. Y esto es lo que After
Effects, y demás software de animación, efectos visuales y composición, hacen posible hoy31. Y a
pesar de que la idea de trabajar con numerosas capas no es nueva, el hecho de trabajar con
potencialmente miles de ellas, cada una con sus controles independientes, sí cambia su forma y su
mensaje. La composición 2D cambió: pasó de ser un efecto especial reservado a tomas particulares a
convertirse en una parte estándar de la interfaz de creación de animaciones y edición de video.
Aún con su carácter innovador, el paradigma de la composición 2D fue sustituido al inicio de los
2000’s por uno nuevo: la composición 3D. Si la composición 2D puede ser vista como una extensión
de técnicas de medios ya conocidos, el nuevo paradigma, por su lado, no surge de medio físicos o
electrónicos precedentes. Más bien, toma los medios nacidos en la era digital de los 60’s y
consolidados en los 90’s (gráficas computacionales y animación 3D interactiva), transformándolos en
una plataforma general para el diseño de medios en movimiento.
El lenguaje usado en el medio de la producción profesional de hoy refleja un entendimiento implícito
de las gráficas 3D como nuevo medio único de la computadora. Cuando la gente usa términos como
“visuales por computadora”, “imaginería computacional” o “CGI” (abreviación de “Computer
30 Poco después de que After Effects fue lanzado en enero de 1993, CoSA (la compañía que produjo este
software), fue comprada por Aldus, que a su vez, fue comprada por Adobe (que ya tenía a Photoshop entre sus
productos.). 31 Photoshop y After Effects fueron diseñados, originalmente, por diferentes personas en diferentes momentos. E
incluso después de que Adobe adquirió ambos (Photoshop fue lanzado en 1989 y After Effects en 1995), le tomó
unos cuantos años hacer que se comunicarán e intercambiaran sus recursos.
Manovich. Capítulo 5 – El Software Toma el Mando 32 / 55
Generated Imagery”) todos entienden que se refieren a gráficas 3D y no a otras fuentes de imágenes
como la “fotografía digital”. Considero los gráficos computacionales 3D como un nuevo medio (y no
una extensión de los bocetos arquitectónicos, la geometría proyectual o el diseño de espacios) debido
a que ofrecen un nuevo método de representar la realidad tridimensional hecha con objetos
existentes y objetos imaginados. Este método es fundamentalmente diferente a lo que había sido
posible con los medios representacionales de la era industrial: captura basada en lentes (fotografía
fija, film, video) y grabación de audio. Con los gráficas computacionales 3D, podemos representar una
estructura tridimensional del mundo en lugar de capturar solamente una perspectiva del mundo,
como en la captura a base de lentes. También podemos manipular una representación usando varias
herramientas con facilidad y precisión, contrario a la limitada “maleabilidad” de un modelo hecho con
materiales físicos (aunque los avances en la nanotecnología prometen cambios en el futuro). Y, como
lo evidencia la estética de la arquitectura contemporánea, las gráficas computacionales 3D no son
solo una manera más rápida de trabajar con representaciones geométricas, como los planos y los
cortes transversales, usados durante siglos por los dibujantes. Cuando las generaciones de nuevos
arquitectitos y estudiantes empezaron a trabajar sistemáticamente con modelos 3D y software de
animación como Alias, a mediados de los 90’s, ésta habilidad de manipular una forma 3D (en lugar
de manipular solamente su proyección) llevo rápidamente a la introducción de un nuevo lenguaje
basado en formas curveadas complejas.
Cuando la Revolución de Terciopelo de los 90’s hizo posible la combinación de múltiples fuentes de
medios en una simple secuencia de imagen en movimiento, usando una la interfaz multicapas de
After Effects, el CGI se añadió a la mezcla. Hoy, los modelos 3D se usan de forma rutinaria en
composiciones de medios creados en After Effects y software similar, junto a demás medios. Pero,
para ser parte del mix, estos modelos deben estar ubicados en su propia capa 2D y, por
consecuencia, ser tratado como imágenes 2D. Éste fue el paradigma original de After Effects: todos
los medios se pueden unir, siempre y cuando sean reducidos a 2D32.
Por el contrario, en el paradigma de la composición 3D, todos los tipos de medios se sitúan en un solo
espacio 3D. Una ventaja de esta representación es que, como el espacio 3D es “nativo” a las gráficas
computacionales, los modelos 3D se quedan como son, es decir, tridimensionales. Una ventaja
adicional es que el diseñador puede usar todas las técnicas de la cinematografía virtual desarrollada
en la animación 3D por computadora. Es posible definir diferentes tipos de luces, vuelos de la cámara
alrededor y a través de planos de imágenes usando cualquier trayectoria, con efectos tipo
profundidad de campo y desenfoque33.
32 Digo “original” porque la última versión de After Effects añadió la posibilidad de trabajar con capas 3D. 33 Si la composición 2D puede ser entendida como una extensión de la animación tradicional del siglo XX, en
donde una composición consistía en un apilamiento de dibujos en acetato, la fuente conceptual del paradigma
Manovich. Capítulo 5 – El Software Toma el Mando 33 / 55
Mientras que los modelos 3D generados por computadora “viven” en este espacio, ¿cómo podemos
traer elementos visual bidimensionales (por ejemplo, video, film digitalizado, tipografía, imágenes
dibujadas)? Si el paradigma de la composición 2D trataba todo los medios como imágenes 2D
(incluyendo los modelos 3D), la composición 3D trata todos los medios como 3D. Sabemos que los
elementos 2D no tienen una tercera dimensión predefinida; ésta tiene que ser añadida para que
puedan entrar al espacio 3D. Para esto, el diseñador pone cuadros planos en ciertas ubicaciones del
espacio y sitúa las imágenes bidimensionales en estos cuadros. Así, todo vive en un espacio 3D
común. Esta condición permite la “remezcla profunda” entre técnicas que ya hemos ilustrado con el
ejemplo del video “Go”. Las técnicas de dibujo, fotografía, cinematografía y tipografía que se usan
para crear y capturar elementos visuales 2D, pueden ahora “jugar” con todas las técnicas de la
animación 3D por computadora (movimientos de cámara virtuales, profundidad de campo
controlable, lentes variables, etc.).
En 1995 escribí el artículo “¿Qué es el cine digital?”. Aquí evocaba la cuestión de cómo los cambios
en la producción de imágenes en movimiento que estaba presenciando (mientras estaba viviendo en
Los Ángeles y siguiendo de cerca los cambios en Hollywood), afectaban el significado de “cine”. En
este texto, proponía que la lógica de la animación a mano, que durante el siglo XX fue marginal en
comparada con el cine, se volvía dominante en la era del software. Debido a que el software permite
al diseñador manipular manualmente cualquier imagen, sin importar su fuente, las diferencias
ontológicas entre las diferentes imágenes se vuelven irrelevantes. Tanto conceptual como
prácticamente, todas se reducen a la animación a mano.
Por default, After Effects, y otros software de animación, edición de video y composición 2D, tratan un
proyecto de imágenes en movimiento como un apilamiento de capas. Entonces, puedo ampliar mi
argumento original y proponer que la lógica de la animación también se mueve de una posición
marginal a una posición dominante. El paradigma de una composición como apilamientos de
elementos visuales independientes, tal como era practicado en la animación por acetato, se vuelve en
la forma estándar de trabajar con las imágenes en un ambiente de software (sin importar su origen y
formato final). En otras palabras, una “imagen en movimiento” se entiende ahora como un compuesto
de la composición 3D es diferente. Éste surge de la integración de tomas en acción con CGI hecho en los 80’s, en
el marco de la producción cinematográfica. Tanto el director de cine y el animador por computadora trabajaban
en un espacio tridimensional: el espacio físico del set, para el primero, y el espacio virtual definido por los
modelos 3D, para el segundo. Entonces, hace sentido usar el espacio tridimensional como plataforma para la
integración de ambos mundos. No es por accidente que NUKE, uno de los programas más importantes en la
composición 3D, haya sido desarrollado internamente en Digital Domain, co-fundada en 1993 por James
Cameron, el director de Hollywood que uso sistemáticamente y revolucionó a integración de CGI en sus películas
como The Abyss (1989), Terminator 2 (1991) y Titanic (1997).
Manovich. Capítulo 5 – El Software Toma el Mando 34 / 55
de capas de imaginería (en lugar de una imagen fija plana que solo cambia en el tiempo, tal como fue
el caso en la mayor parte del siglo XX). En el mundo de la animación, la edición y la composición,
dicha “imagen de una sola capa” se vuelve un excepción.
El surgimiento del paradigma de la composición 3D también se puede ver como un seguimiento a la
lógica de la inversión histórica. La nueva estructura representacional, desarrollada en el campo de las
gráficas computacionales (un espacio virtual 3D que contiene modelos 3D), se ha movido
gradualmente de un rol marginal a uno dominante. En los 70’s y 80’s, las gráficas computacionales
fueron usadas ocasionalmente en una decena de películas, como Alien (1979), Tron (1981), The Last
Starfighter (1984) y The Abyss (1989), y en selectos comerciales y gráficas de TV. Pero al inicio de los
2000’s, la estructura de representación de las gráficas computacionales, es decir los espacios
virtuales 3D, funcionaron como una sombrilla para todo tipo de imágenes sin importar su origen. Un
ejemplo de una aplicación que implementa este paradigma es Flame, descrito efusivamente por un
usuario como “un ambiente de composición 3D completo en donde se pueden traer modelos 3D,
crear verdaderos textos 3D y partículas 3D, y distorsionar capas en el espacio 3D34.
Esto no quiere decir que la animación 3D se vuelve elle misma dominante en la cultura de la imagen
en movimiento, o que la estructura 3D del espacio en donde ahora se construyen cotidianamente las
composiciones de medios se vuelve visible (de hecho casi nunca pasa). Más bien, la manera en que
la animación 3D por computadora organiza los datos visuales (como los objetos posicionados en el
espacio cartesiano) se vuelve la forma de trabajar con todas las imágenes en movimiento. Como ya lo
hemos dicho antes, el diseñador posiciona todos los elementos que van en la composición
(secuencias animadas 2D, objetos 3D, sistemas de partículas, secuencias de video y film digitalizado,
imágenes fijas y fotografías) dentro de un espacio 3D virtual compartido. Ahí dentro, estos elementos
pueden seguir siendo animados, transformados, desenfocados, modificados con filtros, etc. Así que,
mientras todas las imágenes en movimiento se reducen a animación a mano en términos de su
maleabilidad, también podemos decir que todos los medios se vuelven capas en el espacio 3D. En
breve, el nuevo medio de la animación 3D por computadora se ha “comido” los medios dominantes
de la era industrial (fotografía, cine y video a base de lentes).
Habiendo discutido cómo el software ha redefinido el concepto de “imagen en movimiento” como un
compuesto de múltiples capas, este es un buen momento para hacer una pausa y considerar otras
posibles formas en que el software ha cambiado este concepto. Cuando el cine en su forma moderna
nació a finales del siglo XIX, este nuevo medio se entendió como una extensión de otro ya familiar (la
imagen fotográfica sin movimiento). Este entendimiento se puede ver en la prensa de aquellos días y
34 Alan Okey, contribución en el foro: forums.creativecow.net, Diciembre 28, 2005,
http://forums.creativecow.net/cgi-bin/dev_read_post.cgi?forumid=154&postid=855029
Manovich. Capítulo 5 – El Software Toma el Mando 35 / 55
también en uno de los nombres oficiales dados al medio: “imágenes en movimiento”. Al nivel
material, un film consiste en cuadros fotográficos separados. Cuando se reemplazan rápidamente
entre ellos se crea el efecto de movimiento en el espectador. Así que el concepto usado para
entender el cine encajaba en la estructura del medio.
¿Pero sigue siendo apropiado este concepto hoy en día? Cuando grabamos y reproducimos video,
seguimos tratando con la misma estructura: una secuencia de fotogramas. Pero para los diseñadores
profesionales de medios, los términos han cambiado. La importancia de estos cambios no solo es
académica y puramente teórica (como los diseñadores entienden su medio de forma diferentes, crean
films y secuencias que también se ven diferentes de lo que existía en el siglo XX).
Pensemos en las nuevas formas de crear imágenes en movimiento (a las que me he referido como
nuevos paradigmas) que hemos visto hasta ahora. (Aunque teóricamente no son todas compatibles
entre ellas, en la práctica de la producción estos paradigmas son usados de forma complementaria).
Una “imagen en movimiento” se convierte en un híbrido que puede combinar todos las medios
visuales inventados a la fecha, en lugar de soportar sólo un tipo de dato, como la grabación con
cámara, dibujo a mano, etc. En lugar de ser visto como un cuadro plano singular (resultado de la luz
que entra por el lente y capturada en la superficie de grabación), es entendido como un apilamiento
de potencialmente infinitas capas. Y en lugar de estar “basado en el tiempo”, pasa a ser “basado en
la composición” u “orientado objetos”. Esto es, en lugar de ser tratado como una secuencia de
cuadros organizados en el tiempo, una “imagen en movimiento” se ve como una composición
bidimensional que consiste en un número de objetos que pueden ser manipulados
independientemente. Alternativamente, si un diseñador usa la composición 3D, el giro conceptual es
aún más dramático: en lugar de editar “imágenes”, ahora trabaja en un espacio virtual tridimensional
que alberga CGI e imágenes planas grabadas con lente.
Por supuesto, la representación basada en fotogramas no desapareció, simplemente se volvió un
formato de grabación y de salida, en lugar del espacio en donde un film se ensamblaba. Y mientras el
término “imagen en movimiento” puede seguir siendo usado como una descripción apropiada de
cómo el resultado de un proceso de producción se vive por los espectadores, no mantiene la esencia
de cómo los diseñadores piensan sobre lo que crean. Debido al ambiente de producción (flujo de
trabajo, interfaces y herramientas) ha cambiado tanto, ahora piensan muy diferentes de cómo se
hacía hace veinte años.
Si nos enfocamos en lo que estos paradigmas tienen en común, podemos decir que los cineastas,
editores, artistas de efectos especiales, animadores y diseñadores de gráficos animados, trabajan en
una composición 2D o en un espacio 3D que consiste de cierto número de objetos separados. La
dimensión espacial se ha vuelto tan importante como la dimensión temporal. Del concepto de
Manovich. Capítulo 5 – El Software Toma el Mando 36 / 55
“imagen en movimiento”, visto como una secuencia de fotografías fijas, nos hemos movido a un
nuevo concepto: una composición modular de medios. Mientras a una persona que dirige una película
o un cortometraje centrado en actores y acción viva se le puede seguir llamando “director de cine” o
“cineasta”, en todos los demás casos en donde la producción sucede en ambientes de software, es
más apropiado llamar a la persona “diseñador”. Este es otro cambio fundamental en el concepto de
“imágenes en movimiento”: hoy es más común que sean “diseñadas” en lugar de ser “capturadas”,
“dirigidas” o “animadas”.
Importar-exportar: f lujo de trabajo del diseño
En nuestras discusiones sobre la interfaz y flujo de trabajo de After Effects, así como del nuevo
paradigma de la composición 3D, nos hemos encontrado con el aspecto crucial del proceso de
producción de medios basado en software. Hasta la llegada de las herramientas software en los 90’s,
la combinación de diferentes tipos de medios temporales tomaba mucho tiempo, era cara y, en
algunos casos, simplemente imposible. Herramientas como After Effects cambiaron esta situación de
forma fundamental. Ahora, un diseñador puede importar diferentes medios en su composición con
unos cuanto clics del mouse.
Sin embargo, el diseño contemporáneo de imágenes en movimiento basado en software (o cualquier
otro proceso de diseño) no sólo implica combinar elementos de diferentes fuentes en una sola
aplicación. En esta sección veremos el flujo de trabajo general, típico del diseño contemporáneo (ya
sean imágenes en movimiento, ilustraciones fijas, objetos y escenas 3D, arquitectura, música,
páginas web o cualquier otro medio). (Muchos de los detalles de la producción de imágenes en
movimiento con software aplican también al diseño gráfico. No obstante, en este sección queremos
hacer esto explícito. Por consecuencia, los ejemplos que siguen han sido tomados de diferentes
campos).
A pesar de que los comandos “importar/exportar” se encuentran en la mayoría de las aplicaciones
para la producción y edición de medios basados en GUI, a primera vista no parecen muy importantes
para entender la cultura del software. Cuando “importamos”, no creamos o modificamos objetos de
medios, ni tampoco estamos accediendo a información conectada, como en la navegación Web.
Todos lo que estos comandos permiten hacer es mover datos entre diferentes aplicaciones. En otras
palabras, hacen que los datos creados en una aplicación sean compatibles con otras. Y esto no
parece muy importante.
Pero pensemos dos veces. ¿De dónde viene la mayor parte de la economía en el área de Los
Ángeles? No es del entretenimiento. Desde la producción de cine hasta los museos y todos lo que
Manovich. Capítulo 5 – El Software Toma el Mando 37 / 55
está en medio, el entretenimiento sólo representa el 15 por ciento. Resulta que la mayor parte de la
economía viene del negocio de la importación/exportación (más del 60 por ciento). En términos más
generales, una de las características de la globalización que se evoca a menudo es su conectividad
(de lugares, sistemas, países, organizaciones., etc.). Y la conectividad sólo sucede si se tiene cierto
nivel de compatibilidad entre los códigos y procedimientos de los negocios, entre las tecnologías de
distribución, entre los protocolos de red, entre los formatos de archivos computacionales, y demás.
Hagamos un acercamiento a los comandos de importar/exportar. Como trataré mostrar adelante,
estos comandos juegan un rol crucial en la cultura del software, y en particular del diseño de medios
(sin importar el tipo de proyecto en que el diseñador está trabajando).
Antes de adoptar herramientas de software en los 90’s, cineastas, diseñadores gráficos y animadores
usaban tecnologías completamente diferentes. En consecuencia, por mucho que se hayan
influenciado entre ellos y que compartan la misma sensibilidad estética, inevitablemente crearon
imágenes que se veían diferentes. Los cineastas usaban cámaras y otras tecnologías diseñadas para
capturar la realidad física tridimensional. Los diseñadores gráficos trabajaban con impresión offset y
litografía. Los animadores trabajaban con sus propias tecnologías: acetatos transparentes y
escritorios de animación con una cámara capaz de hacer exposiciones cuadro por cuadro mientras el
animador iba cambiando sus acetatos o movía el fondo.
Como resultado, el cine, el diseño gráfico y la animación del siglo XX (estoy haciendo referencia a las
técnicas de animación estándar usadas por la mayoría de los estudios comerciales) desarrollaron
diferentes lenguajes y vocabularios artísticos, tanto en forma como en contenido. Por ejemplo, los
diseñadores trabajaban en un espacio 2D, los directores de cine arreglaban sus composiciones en un
espacio 3D y los animadores de acetatos en “dos y media” dimensiones. Esto aplica para la mayoría
de trabajos hechos en cada uno de esos campos, aunque claro, ha habido excepciones. Por ejemplo,
Oskar Fischinger hizo un film abstracto que consistía únicamente en objetos geométricos moviéndose
en un espacio vacío, pero hasta donde sé, éste es el único film en la historia de la animación pre-
digital abstracta que tiene lugar en un espacio tridimensional.
Las diferencias tecnológicas influyeron en el tipo de contenido que aparecería en los diferentes
medios. El cine mostraba imágenes de naturaleza “foto-real”, escenarios construidos y formas
humanas articuladas en una iluminación especial. Los diseños gráficos tenían tipografía, elementos
gráficos abstractos, fondos monocromáticos y recortes de fotografías. Y las caricaturas presentaban
personajes planos dibujados a mano y objetos animados (más detallados) por debajo, que
funcionaban como fondos. Las excepciones fueron raras. Por ejemplo, los espacios arquitectónicos
aparecían comúnmente en películas porque los directores podían explorar sus tridimensionalidad en
Manovich. Capítulo 5 – El Software Toma el Mando 38 / 55
escenas, pero prácticamente no aparecieron en cine de animación a detalles hasta que los estudios
empezaron a usar animación 3D por computadora.
¿Por qué era tan difícil cruzar las fronteras? En teoría, uno podría imaginarse hacer una película
animada de la siguiente manera: imprimir una serie de diseños gráficos levemente diferentes y
después filmarlos como si fueran una secuencia de acetatos animados. O una película donde un
diseñador dibujara una serie a mano usando exactamente el mismo vocabulario del diseño gráfico y
después lo filmara uno por uno. Y por lo tanto, hasta donde yo sé, nunca se hizo alguna película
semejante. Lo que encontramos más bien son muchas películas animadas abstractas que tienen
cierta conexión con el estilo de las pinturas abstractas. Por ejemplo, las animaciones y las pinturas de
Oskar Fischinger comparten ciertas formas. También se encuentran ejemplos de cine abstracto,
comerciales y secuencias de créditos que tienen conexión con la estética popular del diseño gráfico
de aquel tiempo. Entre ellos, podemos recordar algunas secuencias de créditos con gráficos
animados diseñados por Pablo Ferro en los 60’s que muestran la estética psicodélica que se ve en
carteles, portada de discos y demás producciones de la época.
Con todo y estas conexiones, las diferentes producciones nunca usaron el mismo lenguaje visual. Una
razón es que el film proyectado no podía mostrar adecuadamente las diferencias sutiles entre tipos
de letra, entrelineados y escalas de tonos de grises, cruciales para el diseño gráfico moderno. Por
consecuencia, cuando los artistas trabajaban en cine de arte abstracto o comerciales que adoptaban
la estética del diseño gráfico (muchos de los animadores abstractos del siglo XX trabajaban también
en sus proyectos personales), no podían simplemente expandir el lenguaje de la página impresa a la
dimensión del tiempo. Tenían, en esencia, que inventar un nuevo lenguaje visual paralelo que usara
contrastes acentuados, formas legibles más fácilmente y líneas más gruesas (que, por su grosor, ya
no eran líneas sino formas, de hecho).
A pesar de que las carencias en resolución y contraste de la imagen cinematográfica y televisiva, en
comparación con una página impresa, contribuyeron al distanciamiento entre los lenguajes usados
por los cineastas y los diseñadores gráficos durante gran parte del siglo XX, no creo que éste haya
sido el factor decisivo. Hoy en día, la resolución, contraste y reproducción de color también son
sustancialmente diferentes entre impresoras y pantallas (computadora, TV y aparatos móviles), y aún
así vemos comúnmente las mismas estrategias visuales a través de los diferentes medios. Para
acabar de convencernos, basta echar una hojeada a cualquier libro o revista contemporánea de
diseño 2D (es decir, diseño gráfico para impresos, difusión y web). Cuando vemos páginas que
muestran el trabajo particular de un diseñador o de un estudio, en muchos casos es imposible
identificar el origen de las imágenes, a menos que leamos las leyendas. Sólo así podemos saber cuál
imagen es un póster, cuál es una captura de pantallas de un video musical y cuál es el contenido
editorial de una revista.
Manovich. Capítulo 5 – El Software Toma el Mando 39 / 55
A continuación, usaré para mis ejemplos el libro Graphic Design for the 21st Century: 100 of the
World’s Best Graphic Designers (Taschen, 2001) debido a que, para el año de su publicación, los
cambios de los que hablo ya habían sucedido. El diseño de Peter Anderson que muestra una línea de
texto en contra de una nube con cientos de pequeñas letras orientadas de diferentes formas, resulta
ser una imagen de la secuencia de créditos de un documental de Channel 4. Su otro diseño, que de
forma similar juega con el contraste entre letras saltarinas de fuente grande en contra de planos
irregulares hechos de densos estrechamientos de letras de menor tamaño, resulta ser un desplegable
de la revista IT Magazine. Como el primer diseño fue hecho para la teledifusión y el segundo para los
impresos, se podría esperar que el primero usara formas más gruesas. Sin embargo, ambos diseños
usan la misma escala entre letras pequeñas y grandes, y muestran texturas hechas de cientos de
palabras tan pequeñas que su intención no es que sean legibles. Una páginas más adelante vemos
un diseño de Philippe Apeloig que usa exactamente la misma técnica y estética que Anderson. En este
caso, pequeñas líneas de texto puestas en diferentes ángulos forman un modelo 3D que flota en el
espacio. En la siguiente página, otro diseño de Apeloig crea un campo en perspectiva, no hecho de
letras sino de cientos de formas abstractas idénticas.
Estos diseños se basan en la habilidad del software (o del diseñador siendo influenciado por el uso
del software y recreando con el software lo que antes hacía manualmente) de tratar al texto como
cualquier otro primitivo gráfico y de fácilmente crear composiciones hechas de cientos de elementos
similares o idénticos acomodados según un patrón. Y como un algoritmo puede fácilmente modificar
cada elemento del patrón, cambiando su posición, tamaño, color, etc., en lugar de las cuadrículas
modernitas regulares, vemos estructuras más complejas que surgen de variaciones de un mismo
elemento. Esta estrategia es explorada de forma particularmente inventiva en los diseños de Zaha
Hadid, como el “Icone bag” para Louis Vuitton, en 2006, y sus planos urbanos para Singapur y
Turquía, que usan lo que ella llama una “cuadrícula variable”.
A cada diseñador en el libro se le pidió dar un breve explicación para acompañar su trabajo de
portafolio. Lust Studio eligió la frase “La forma viene después del proceso” como su lema. Entonces,
¿cuál es la naturaleza del proceso de diseño en la era del software y cómo influye en las formas que
vemos actualmente entre nosotros?
Si actualmente estás involucrado de forma práctica en el diseño y arte, sabrás que los diseñadores
contemporáneos usan el mismo software para diseñar casi cualquier cosa. Ya hemos mencionado
estas herramientas: Photoshop, Illustrator, Flash, Maya, etc, Sin embargo, el factor crucial no son las
herramientas en sí, sino el proceso del flujo de trabajo, permitido por las operaciones “importar” y
“exportar” y métodos relacionados (“colocar”, “insertar”, “suscribir”, “objeto dinámico”, etc.) que
permiten la coordinación entre estas herramientas.
Manovich. Capítulo 5 – El Software Toma el Mando 40 / 55
Cuando se arma un proyecto de medios, el software usado en la fase final depende del tipo de medio
de salida y de la naturaleza del proyecto: After Effects para los proyectos de gráficos animados y
composición de video, Illustrator para ilustraciones en impresos, InDesign para diseños multi-página,
Flash para interfaces interactivas y animaciones web, 3ds Max o Maya para modelos y animaciones
3D, etc. Pero estos programas rara vez se usan solos para crear un diseño de medios de principio a
fin. Típicamente, un diseñador puede crear elementos en un programa, importarlos en otro, después
añadir elementos creados en otro programa, etc. Esto sucede sin importar si el producto final será
una ilustración, un sitio web, un motion graphic, un matte painting, o si es una imagen fija, animada o
interactiva.
Los nombres mismos que las compañías de software asignan a sus productos hacen referencia a sus
características esenciales en el proceso de diseño basado en software. Desde 2005, Adobe ha
vendido sus diferentes aplicaciones de producción de medios bajo el nombre general “Adobe Creative
Suite” o conjunto creativo. Entre las frases o subtítulos que han acompañado esta marca, hay uno en
particular que es significativo para nuestra discusión: “Diseña a través de los medios”. Esta frase
describe de forma precisa tanto las capacidades de las aplicaciones reunidas en la suite y su uso en
el mundo real. Cada una de las aplicaciones clave tienen propiedades orientadas a la producción del
diseño de un medio en particular. Illustrator está programado para trabajar con impresoras de alta
calidad; After Effects y Premiere envían video en varios formatos estándar, como HDTV; Dreamweaver
soporta lenguajes de programación para la creación de sitios web dinámicos y sofisticados. Pero a
pesar de que un proyecto sea terminado en una de estas aplicaciones, muchas de las demás
aplicaciones de la suite se usan en el proceso de creación o edición de varios de sus elementos. Ésta
es una de las formas en que Adobe permite “diseñar a través de medios”. La compatibilidad entre
aplicaciones también significa que los elementos (llamados en el lenguaje profesional “recursos”)
pueden ser reusados más tarde en otros proyectos. Por ejemplo, una fotografía editada en Photoshop
poder ser usada primero en un anuncio de revista, después puesta en un video, un sitio web, etc. O
los modelos y personajes 3D creados para una película pueden ser reusado para un videojuego
basado en la misma. Esta habilidad de reusar un mismo diseño, o parte de él, en diferentes proyectos
es importante debido a la práctica generalizada en las industrias creativas de crear productos, a
través de diferentes medios, con las mismas imágenes, diseños, personajes y narrativas. Una
campaña de publicidad seguido funciona “a través de los medios”, incluyendo banners web, spots TV,
anuncios de revistas, carteleras, etc. Y si convertir películas en juegos y juegos en películas ya ha sido
popular en Hollywood desde inicios de los 90’s, una nueva tendencia, desde mediados del 2000’s, es
crear juegos, películas, sitios web, y demás productos, al mismo tiempo (y que los productos usen los
mismos recursos, tanto por razones económicas como estéticas, para asegurar el mismo estilo y
continuidad). Por ende, un estudio puede crear fondos y personajes 3D y usarlos en una película y en
Manovich. Capítulo 5 – El Software Toma el Mando 41 / 55
un juego, ambos lanzados simultáneamente. Si las aplicaciones de los medios no fueran compatibles,
dicha práctica simplemente no sería posible.
Todos estos ejemplos ilustran el re-uso intencional de los elementos del diseño “a través de medios”.
Sin embargo, la compatibilidad entre aplicaciones de producción de medios también tiene un efecto
muchos más amplio y menos intencional en la estética contemporánea. Con el flujo de trabajo de la
producción que hemos descrito, podríamos esperar que las mismas técnicas y estrategias visuales
aparecieran también en los demás tipos de proyectos de medios diseñados con software, sin que esto
haya sido deliberadamente planeado. También podríamos esperar que esto sucediera en un nivel
más básico. Y éste es el caso. Las mismas estrategias de diseño permitidas por el software, las
mismas técnicas basadas en software y la misma iconografía generada con software se hallan ahora
en todos los tipos de medios, todas las escalas y todos los tipos de proyectos.
Ya hemos encontrado algunos ejemplos concretos. Por ejemplos, los diseños de Peter Anderson y
Philippe Apeloig, hechos para diferentes medios, usan la misma técnica básica de gráficos
computacionales: generación automática de un patrón repetitivo y variación de parámetros que
controlan la apariencia de cada elemento (posición, tamaño, orientación, curvatura, etc.). (El principio
general detrás de esta técnica también puede ser usado para generar modelos 3D, animaciones,
texturas, plantas y paisajes, etc.). Se le conoce comúnmente como “diseño paramétrico” o
“modelación paramétrica”). La misma técnica es usada por el estudio de Hadid en el “Icone bag” de
Louis Vuitton. En otro ejemplo, que veremos abajo, Greg Lynn usó técnicas de sistemas de partículas
(que en su momento se usaban para simular fuego, nieve, cascadas y demás fenómenos naturales
para cine) para generar la formas de un edificio.
Para usar una metáfora biológica, podemos decir que la compatibilidad entre aplicaciones crear
condiciones favorables para la propagación del DNA de los medios entre las especies, familias y
clases. Y esta propagación sucede en todos los niveles: en todo el diseño, en partes del diseño, en los
elementos que lo conforman y en los “átomos” que constituyen los elementos. Consideremos el
siguientes caso hipotético de propagación a un nivel bajo. Un diseñador puede usar Illustrator para
crear una curva suavizada 2D (llamada en gráficas computacionales como “spline”). Esta curva se
puede convertir en un componente básico para usarse en cualquier proyecto. Puede formar parte de
una ilustración o de un libro de diseño. Puede ser importada en un programa de animación en donde
se animará o en un programa 3D en donde será extruida y formará un objeto sólido.
Con el tiempo, la manufactura de software desarrollo nuevas formas de conectar sus aplicaciones,
con el fin de facilitar la movilidad de elementos entre ellas. Con los años, se volvió posible mover
proyectos completos entre aplicaciones sin ninguna pérdida (o casi). Por ejemplo, al describir la
integración entre Illustrator y Photoshop CS3, el sitio web de Adobe señala que un diseñador puede
Manovich. Capítulo 5 – El Software Toma el Mando 42 / 55
“preservar capas, composiciones, transparencias y archivos modificables” 35 . Otro desarrollo
importante ha sido el concepto que Microsoft llama “objetos vinculados”. Si vinculamos dos archivos,
o parte de ellos (por ejemplo hoja de cálculo Excel a una presentación PowerPoint), cada vez que la
información cambia en el primero, ésta se actualiza en el segundo automáticamente. Muchas
aplicaciones de medios implementan esta función. Para usar el mismo ejemplo de Illustrator CS3, un
diseñador puede “importar archivos de Illustrator en Premiere y, después, con el comando Editar
Original abrir la imagen en Illustrator, editarla y ver cómo los cambios se incorporan en el proyecto de
video”36.
Cada tipo de programa usado por los diseñadores de medios (gráficos 3D, dibujo vectorial, edición de
imágenes, animación y composición) sobresale en una función particular. Por ejemplo, en formas
particulares de creación o modificación de elementos gráficos. Estas operaciones pueden compararse
a los diferentes tipos de piezas de un juego LEGO. Podemos crear un número infinito de proyectos
usando un número limitado de piezas. Según el proyecto, los bloques tendrán diferentes funciones y
aparecerán en diferentes combinaciones. Por ejemplo, un bloque rectangular puede ser la parte
superior de una mesa o el cuerpo de un robot, etc.
Un flujo de trabajo de diseño, basado en cierto número de programas compatibles, opera de la misma
forma… con una diferencia importante. Los componentes básicos usados en el diseño
contemporáneo no son únicamente diferentes tipos de elementos visuales (patrones vectoriales,
objetos 3D, sistemas de partículas, etc.) sino también diferentes formas de modificarlos (extrusión,
sesgar, vectorizar, modificar transparencia, desenfocar, etc.). Esta diferencia es crucial. Si el software
de creación y producción de medios ni incluyera estas operaciones de modificación, hoy veríamos un
lenguaje visual completamente diferente. Veríamos “multi-medios”, es decir, diseños que
simplemente combinan elementos de diferentes medios. Pero lo que tenemos es una “remezcla
profunda”, las interacciones “profundas” entre métodos y técnicas de diferentes medios en un mismo
proyecto.
En un uso “cruzado”, las técnicas que antes eran específicas a un medio, ahora se aplican a otro tipo
de medios. Esto se logra comúnmente en una sola aplicación, por ejemplo, aplicar el filtro de
desenfoque en After Effects a una composición que puede tener elementos gráficos, video, objetos
3D, etc. El hecho de poder mover un proyecto completo, o parte de sus elementos, entre diferentes
aplicaciones abre más posibilidades debido a que cada aplicación ofrece sus técnicas únicas. A
medida que los datos de medios viajan de una aplicación a otra, se transforman y enriquecen con las
operaciones que brinda cada aplicación.
35 http://www.adobe.com/products/illustrator/features/allfeatures/ (Agosto 30, 2008). 36 Ibid.
Manovich. Capítulo 5 – El Software Toma el Mando 43 / 55
El flujo de trabajo específico de la era del software que acabamos de describir tiene dos
consecuencias principales. Primero, la estética visual de la hibridación que domina el universo del
diseño contemporáneo. Segundo, el uso de las mismas técnicas y estrategias a través de este
universo, sin importar el formato final del medio o tipo de proyecto.
Como ya lo hemos dicho más de una vez, un diseño típico de hoy en día combina técnicas de
diferentes medios. Ahora estamos en una mejor posición para entender porqué pasa esto. Cuando un
diseñador trabaja en un proyecto, lo hace combinando el resultado de funciones específicas de
diferentes programas de software que originalmente fueron creados para imitar el trabajo de
diferentes medios físicos. (Illustrator fue hecho para crear ilustraciones, Photoshop para editar
fotografías digitalizadas, Premiere para editar video, etc.). Mientras estas funciones siguen siendo
usadas en relación con sus medios originales, la mayoría de ellos también son usadas como parte del
flujo de trabajo de cualquier proyecto de diseño.
La condición esencial que hace posible la lógica del nuevo diseño y su estética resultante es la
compatibilidad entre archivos generados por diferentes programas. En otras palabras, “importar”,
“exportar” y demás funciones y comandos relacionados con software de gráficos, animación, edición
de video, composición y modelación, son históricamente más importantes que las operaciones
individuales que estos programas ofrecen. La habilidad de combinar capas bitmap y vectoriales en
una misma imagen, ubicar elementos 3D en una composición 2D y viceversa, y demás ejemplos, es lo
que permite el flujo de trabajo de la producción y el re-uso de las mismas técnicas, efectos e
iconografía a través de diferentes medios.
Las consecuencias de esta compatibilidad entre software y formatos de archivo, que se logró
gradualmente durante los 90’s, son difíciles de sobreestimar. Además de la hibridación de la estética
visual moderna y la reaparición de exactamente la misma técnicas de diseño a través de los todos los
productos de los medios, también hay otros efectos. Por ejemplo, el campo entero de los motion
graphics, tal como existe hoy, se volvió popular gracias a la integración de software que integra
gráficos vectoriales (como Illustrator) con software de animación y composición (como After Effects).
Un diseñador define comúnmente varios elementos de la composición en Illustrator y después los
importa en After Effects para animarlos. Esta compatibilidad no existía en las primeras versiones del
software de producción y creación de medios en los 80’s. Se fue añadiendo gradualmente con nuevos
lanzamientos. Pero cuando se logró a mediados de los 90’s37, en unos cuantos años el todo el
37 En 1995, After Effects 3.0 permitió importar archivos de Illustrator y Photoshop como composiciones:
http://en.wikipedia.org/wiki/Adobe_After_Effects
Manovich. Capítulo 5 – El Software Toma el Mando 44 / 55
lenguaje del diseño gráfico contemporáneo se importó al área de la imagen en movimiento, tanto
literal como metafóricamente.
En resumen, esta compatibilidad entre software de diseño gráfico, ilustración, animación, edición de
video, modelación y animación 3D, y efectos visuales, juega un rol clave en la conformación de formas
visuales y espaciales de la era del software. Por un lado, nunca antes habíamos visto una variedad de
formas tan amplia como hoy. Por otro lado, exactamente las mismas técnicas, composiciones e
iconografía aparecen en cualquier medio.
Forma variable
Como lo muestran las películas de Blake y Murata analizadas precedentemente, en los motion
graphics contemporáneos las transformaciones afectan comúnmente el fotograma completo. En
contraste con la animación del siglo XX, todo lo que se halla dentro del fotograma cambia
continuamente: elementos visuales, su transparencia, la textura de una imagen, etc. De hecho, si algo
queda inmóvil por un rato, esto es una excepción en lugar de la regla.
Este cambio constante, producido en muchas dimensiones visuales, es otra característica clave de los
motion graphics y del cine de diseño producido actualmente. Así como lo hicimos en el caso de la
hibridación de medios, es posible vincular esta preferencia por el cambio constante con las
particularidades del software usado en el diseño de medios.
Las computadoras digitales permiten representar cualquier fenómeno o estructura como un conjunto
de variables. En el caso del software de diseño y de animación, esto significa que todas la formas
posibles (visuales, temporales, espaciales, interactivas), son igualmente representadas como un
conjunto de variables que pueden cambiar continuamente. Esta nueva lógica de la forma está
profundamente codificada en las interfaces de los programas y las herramientas que ofrecen.
Veamos nuevamente la interfaz de After Effects. Para crear una animación, un diseñador añade
algunos elementos a la composición y los anima. Cada elemento se muestra en la interfaz como una
lista de parámetros, cada uno con su canal de animación. Dependiendo del tipo de elemento, los
parámetros pueden ir de unos a una decena o más. Por ejemplo, para las luces, sus parámetros son:
intensidad, color, oscuridad de la sombra y difusión de la sombra. Si el elemento es una cámara, los
parámetros incluyen: punto de interés, posición, orientación y rotación. Para las formas, la lista de
parámetros es particularmente larga: posición, escala, orientación, opacidad, propiedades de
materiales incluyendo proyección de sombras, transmisión de luz, ambiente, difusión y cualidades
especulares, brillo y demás.
Manovich. Capítulo 5 – El Software Toma el Mando 45 / 55
Animar cualquier parámetro sólo toma unos cuantos clics. El proceso funciona igual sin importar
elemento o tipo de parámetro. Entonces, es igualmente fácil cambiar en el tiempo la posición de una
forma, su color o la intensidad de una luz.
En contraste con la animación del siglo XX, After Effects no favorece el movimiento de objetos o
personajes bidimensionales. Por consecuencia, la Ayuda de After Effects define “animación” como
“cambio en el tiempo”, sin especificar cuál cambio38. La respuesta está dada por la interfaz misma.
Su diseño sugiere que animemos cientos de características visuales (y si consideramos que la
mayoría de los filtros también pueden ser animados, la lista llega a miles).
Debido a que la interfaz del software hace evidente cada parámetro de cada objeto en la
composición, asignando a cada uno su propio canal en la línea de tiempo, literalmente invita al
diseñador a animarlos. Somos invitados a empezar a mover y rotar objetos, cambiar su opacidad,
colores, etc. La misma lógica sucede en la cámara y las luces. Si añadimos luces a la composición,
éstas añaden automáticamente media docena de nuevos canales de animación que se refieren a su
color, posición, orientación, intensidad y propiedades de las sombras. (Otros software de composición
basados en capas y de animación 2D y 3D comparten los mismos principios generales de la
interfaz)39.
Durante los 80’s y 90’s, la lógica general de la representación por computadora (es decir, representar
todo como variables que pueden tener diferentes valores) estuvo sistemáticamente incrustada en las
interfaces del software de diseño de medios. Como resultado, aunque algunas aplicaciones
particulares no prescriban a sus usuarios lo que pueden o no pueden hacer, la estructura de una
interfaz influye profundamente la manera de pensar del diseñador. En el caso del diseño de imágenes
en movimiento, el resultado de tener una interfaz de línea de tiempo con múltiples capas listas para
ser animadas es que el diseñador realmente las anima. Si las restricciones que antes había en la
tecnología de animación (desde los primeros juguetes ópticos hasta los sistemas de animación por
acetato) resultaron en una estética de cambios discretos y temporalmente limitados, las interfaces
del software de animación por computadora rápidamente han llevado a una nueva estética: las
transformaciones continuas de la mayoría (o todos) los elementos visuales que aparecen en un
cuadro.
38 http://help.adobe.com/en_US/AfterEffects/9.0/ (Noviembre 7, 2012). 39 El software de composición basado en nodos usa un principio de interfaz diferente: cada elemento de la
composición es representado como un nodo de un grafo. Esta interfaz es particularmente útil para crear escenas
que contienen un gran número de elementos interactuando entre ellos. Algunas ejemplos comerciales son:
Fusion y Nuke.
Manovich. Capítulo 5 – El Software Toma el Mando 46 / 55
Este cambio en la estética de la animación, que deriva del diseño de la interfaz del software de
animación, fue paralelo al cambio en otro campo: la arquitectura. A mediados de los 90’s, cuando los
arquitectos empezaron a usar software desarrollado originalmente para la animación por
computadora y los efectos especiales (primero Alias y Wavefront, después Maya y otros), la idea de
formas animada entró en la inspiración arquitectónica. Si el software de animación 2D, como After
Effects, permite al animador modificar cualquier parámetro de un objeto 2D (un video clip, una forma
2D, texto, etc.) en el tiempo, la animación 3D por computadora permite lo mismo para cualquier
forma 3D. Un animador puede crear fotogramas clave manualmente y dejar que la computadora
calcule cómo cambia la forma en el tiempo. Alternativamente, puede dirigir algoritmos que no solo
modificarán la forma, sino que también generarán nuevas formas. (entre dichas herramientas vemos
sistemas de partículas, simulación física, animación comportamental, evolución artificial, sistemas-L,
etc.). Trabajar con software de animación 3D afectó la imaginación arquitectónica literal y
metafóricamente. Las formas que aparecían en los proyectos de jóvenes arquitectos y estudiantes de
arquitectura en la segunda parte de los 90’s parecían que estaban en proceso de ser animados,
capturas de la transformación de un estado a otro. Las presentaciones de proyectos e investigaciones
empezaron a incluir múltiples variaciones de una misma forma generada mediante parámetros de
software. Finalmente, en proyectos como New York Port Authority Gateway de Gregg Lynn (1995)40,
las trayectorias de los objetos de una animación fueron literalmente convertidos en un diseño
arquitectónico. Usando un sistema de partículas (parte del software de animación Wavefront), que
genera un nube de puntos y los mueve en el espacio según se desee, Lynn capturó esos momentos y
los convirtió en curvas que sirvieron de base para su construcción.
Igualmente crucial fue la exposición de los arquitectos a la nueva generación de herramientas de
modelación en el software comercial de animación de los 90’s. Durante dos décadas, la principal
técnica de modelado 3D era la de representar un objeto como una colección de polígonos planos.
Pero a mediados de los 90’s, el incremento de velocidad y almacenamiento de las computadoras hizo
posible otra técnica: modelado basado en curvas suavizadas (splines). Esta nueva técnica para
representar la forma sacudió el pensamiento arquitectónico, llevándolo de la geometría modernista
rectangular hacia el favorecimiento de formas complejas y suaves hechas de curvas continuas. Como
resultado, desde la segunda parte de los 90’s, la estética de los “gotas” se ha vuelto dominante en la
inspiración de estudiantes, jóvenes arquitectos y “estrellas” establecidas como Zaha Hadid, Eric Moss
y UN Studio.
Pero ésta no fue la única consecuencia del cambio: de las herramientas estándar de arquitectura y
software de diseño asistido por computadora (como AutoCAD) hacia el software de animación y
40 Gregg Lynn, Animate Form (Princeton Architectural Press, 1999), pp. 102–19.
Manovich. Capítulo 5 – El Software Toma el Mando 47 / 55
efectos especiales. Tradicionalmente, los arquitectos creaban nuevos proyectos con base en la
topología existente. Una iglesia, una residencia privada, una estación de tren… todas tenías tipos bien
conocidos: plantillas espaciales que determinaban cómo se debía organizar el espacio. De forma
similar, cuando se diseñaban los detalles de un proyecto, un arquitectos seleccionaba de varios
elementos estándar con funciones y formas establecidas: columnas, puertas, ventanas, etc41. En las
viviendas del siglo XX producidas masivamente, sólo más tarde se adoptó esta lógica que
eventualmente se codificó en las interfaces del software CAD.
Pero cuando a inicios de los 90’s, Greg Lynn, la firma Asymptote, Lars Spuybroek y demás jóvenes
arquitectos empezaron a usar software 3D que era usado por otras industrias, se dieron cuenta que
esos software no venían con ninguna plantilla arquitectónica estándar. Además, si el software CAD
para arquitectos ve las formas rectangulares como los componentes básicos de una estructura, el
software de animación 3D no tenía dichos supuestos. Más bien, ofrecía curvas y superficies
suavizadas, y formas creadas con dichas curvas (que eran apropiadas para la creación y animación
de personajes de juegos y productos industriales). (De hecho, las splines fueron introducidas
originalmente en las gráficas computacionales, en 1962, por Pierre Bézier, para su uso en el diseño
de automóviles asistido por computadora).
Como resultado, en lugar de ser entendido como una composición hecha de plantillas de partes
estándar, un edificio se pudo imaginar como una forma curveada continua que puede variar
infinitamente. También se pudo imaginar como varias formas continuas interactuando entre ellas. En
cualquier caso, la forma de cada una de esas formas no estaba determinada a priori por ningún tipo
tipología.
(En retrospectiva, podemos pensar este “mal-uso” altamente productivo del software de animación y
modelación 3D por los arquitectos como otro caso de hibridación de medios, en particular a lo que me
he referido como efecto “de cruzada”. En este caso, es un cruce entre las herramientas y
convenciones de un campo de diseño (animación de personajes y efectos especiales) y las formas de
pensar y conocimientos de otro campo (aquí, la arquitectura).
Para relacionar esta discusión sobre la arquitectura con el principal tema de este capítulo (la
producción de imágenes en movimiento), podemos ver que ambos campos fueron afectados por la
informatización en una forma estructuralmente similar. En el caso de la animación comercial del siglo
XX, todos los cambios temporales dentro de un cuadro está limitado, eran discretos y usualmente de
orientación semántica (es decir, conectados a la narrativa). Cuando un personaje se movía, caminaba
41 Agradezco a Lars Spuybroek, director de Nox, por haberme explicado cómo el uso del software para el diseño
arquitectónico subvirtió el pensamiento tradicional basado en tipologías.
Manovich. Capítulo 5 – El Software Toma el Mando 48 / 55
dentro de un cuadro, volteaba su cabeza o extendía su brazo, esto era usado para desarrollar la
historia42. Después del cambio a un proceso de producción basado en software, las imágenes en
movimiento mostraban transformaciones constantes en muchas dimensiones visuales que no ya
estaban limitadas por la semántica. Tal como es definida en numerosas secuencias de gráficos
animados y cortometrajes de los 2000’s, las formas visuales contemporáneas cambian
constantemente, pulsan y mutan más allá de la necesidad de comunicar significados y narrativas.
(Las películas de Blake y Murata son ejemplos claros de esta nueva estética de la forma variable;
muchos otros ejemplos se pueden hallar fácilmente navegando sitios web que exhiben trabajos de
estudios y diseñadores independientes).
Un proceso paralelo tomó lugar en el diseño arquitectural. Las diferencias en una forma
arquitectónica tradicional estaba conectadas con la necesidad de comunicar significados y/o de
cumplir con un programa arquitectural. Una apertura en un muro era una puerta o una ventana; un
muro era una frontera entre diferentes espacios funcionales. Así, tal como en la animación, los
cambios en la forma estaban limitados y eran guiados por la semántica. Pero hoy, la forma
arquitectónica diseñada y con software de modelación puede cambiar su geometría a través del
diseño completo, y estos cambios ya no tienen que estar justificados por una función.
La terminal aérea del Yokohama International Port (2002), diseñada por Foreign Office Architects,
ilustra claramente esta estética de la forma variable en la arquitectura. El edificio es un volumen
espacial complejo y continuo, sin un solo ángulo recto y sin fronteras que dividan la forma en partes o
que la separen del plano del suelo. Cuando visité el edificio en diciembre de 2003, pasé cuatro horas
explorando las continuidades entre sus espacios exteriores e interiores, disfrutando el cambio
constante de sus superficies curveadas. El edificio puede ser comparado con un cinta de Möbius,
excepto que es mucho más compleja, menos simétrica y más impredecible. Sería más apropiado
pensar en esta estructura como un conjunto de cintas Möbius interconectadas suavemente.
Para resumir esta discusión de cómo el cambio a una representación basada en software afectó el
lenguaje moderno de la forma: todas las contantes fueron reemplazadas por variables, cuyos valores
pueden variar continuamente. Como resultado, la cultura entró en lo que llamamos el giro de la
continuidad. Tanto la forma temporal-visual de los motion graphics y el cine de diseño como la forma
espacial de la arquitectura entraron al universo del cambio constante y transformaciones. (Los
campos del diseño de productos y del diseño de espacios también fueron afectados). Antes, esta
estética de “continuidad total” sólo fue imaginada por algunos artistas. Por ejemplo, en los 50’s, el
42 En el caso de la animación narrativa producida en Rusia, Europa del Este y Japón, los cambios visuales en una
secuencia no siempre estaban guiados por el desarrollo de una narrativa y podían servir otros propósitos: crear
una atmósfera, representar un estado emocional o simplemente usado estéticamente por sí mismo.
Manovich. Capítulo 5 – El Software Toma el Mando 49 / 55
arquitecto Frederick Kiesler diseñó un proyecto llamado Continuous House que, como su nombre lo
indica, es una sola y continua forma curva espacial, sin las limitantes de las divisiones habituales en
los cuartos. Pero cuando los arquitectos empezaron a trabajar con software de animación y
modelación 3D en los 90’s, dicha forma de pensar se volvió normal. De igual forma, dichas formas
continuas se volvieron eventualmente la norma en el cine.
Hoy existen muchos cortometrajes famosos y proyectos de edificios de pequeña escala basados en la
estética de la continuidad, es decir, una sola forma en constante cambio. Pero el próximo reto para
los motion graphics y la arquitectura es descubrir maneras de usar esta estética a gran escala.
¿Cómo escalamos la idea de una simple forma en constante cambio visual y espacial, sin cortes (para
el cine) o divisiones de sus distintas partes (para la arquitectura)?
En la arquitectura, algunos arquitectos ya han empezado a abordar exitosamente este reto. Entre los
ejemplos ya realizados contamos con la terminal Yokohama International Port; el Kunsthaus en Graz,
de Peter Cook (2004); y, el Museo Ordos, de MAD Architects en Mongolia, China (2012). Otros en
construcción son el Performing Arts Centre de Zaha Hadid en la isla Saadiyat en Abu Dhabi, Emiratos
Árabes Unidos. (Después de la crisis económica del 2007, muchos proyectos ambiciosos en Dubái y
Europa del Este fueron retrasados o cancelados, pero China y otros países siguen tomando riesgos y
adoptando el nuevo diseño arquitectural de curvas complejas continuas).
¿Y qué hay de los motion graphics? Blake ha sido uno de los pocos aristas que han explorado
sistemáticamente cómo el lenguaje híbrido visual se puede usar en piezas más largas. Sodium Fox
dura 14 minutos; una pieza previa, Mod Lang (2001) dura 16 minutos. Las tres películas que
constituyen la trilogía Winchester (2001-2004) duran 21, 18 y 12 minutos. Ninguna de estas
películas tiene un solo corte.
Sodium Fox y la Winchester Trilogy usan una variedad de fuentes visuales, incluyendo fotografías,
metraje viejo, dibujos, animación, texto e imaginería por computadora. Todos estos medios están
tejidos en un flujo continuo. Como ya lo hemos mencionado en relación con Sodium Fox, en contraste
con piezas de motion graphics más pequeñas que muestran un frenesí de movimientos y animación,
las películas de Blake tienen muy poca animación, en su sentido tradicional. En su lugar, varias
imágenes fijas y en movimiento se funden gradualmente entre ellas. Así que mientras cada film se
mueve a un terreno vasto de diferentes visuales, es imposible dividir el film en unidades temporales.
De hecho, aún cuando tratáramos, no podríamos dar seguimiento a cómo llegamos a cierta imagen
en unos cuantos minutos. Y, por lo tanto, estos cambios fueron producidos por cierta lógica, aún
cuando nuestro cerebro no los asume mientras vemos el film.
Manovich. Capítulo 5 – El Software Toma el Mando 50 / 55
La continuidad hipnótica de estas películas puede ser parcialmente explicada por el hecho de que
todos los recursos visuales en las películas fueron manipulados con software de gráficos. Además,
muchas imágenes se borran levemente. Como resultado, sin importar el origen de las imágenes,
todas adquieren cierta coherencia. Así, aunque los films juegan en las diferencias semánticas y
visuales entre acción viva, dibujo, fotografía con filtros animados y demás medios, estas diferencias
no generan yuxtaposición o montaje estilístico 43 . Más bien, varios medios parecen coexistir
pacíficamente, ocupando el mismo espacio. En otras palabras, las películas de Blake parecen sugerir
que el remix profundo no es el único resultado posible de la softwareización.
Ya hemos discutido en detalle el concepto de metamedio de Alan Kay. Según la propuesta de Kay,
hecha en los 70’s, debemos ver la computadora digital como un metamedio que contiene todos los
“diferentes medios existentes y aún no inventados”44. ¿Qué implica esto para la estética de los
proyectos digitales? En mi opinión, no implica necesariamente que los diferentes medios se fusionan,
o crean un nuevo híbrido, o resultan en “multimedios”, “intermedios”, “convergencia” o una
Gesamtkunstwerk totalizante. Como lo he argumentado, en lugar de colapsar en una sola entidad, los
diferentes medios (es decir, las diferentes técnicas, formatos de datos, fuentes de datos y métodos
de trabajo), empiezan a interactuar, produciendo gran número de híbridos o nuevas “especies de
medios”. En otras palabras, justo como la evolución biológica, la evolución de medios en la era del
software lleva a la diferenciación e incremento de diversidad (más especies en lugar de menos).
En el mundo dominado por híbridos, las películas de Blake son raras, al presentarnos relativamente
apariciones de medios “puros”. Podemos interpretar esto ya sea como la lentitud del mundo del arte,
que está detrás de la etapa evolutiva de los medios profesionales (o como una estrategia inteligente
de Blake para separarse del frenesí y sobre-estímulo común de los gráficos animados). O podemos
leer su estética como un supuesto implícito contra la idea popular de “convergencia”. Como lo
demuestran sus películas, mientras medios diferentes se han vuelto compatibles, esto no significa
que sus distintas identidades han colapsado. En Sodium Fox y en la Winchester Trilogy, los elementos
visuales de diferentes medios mantienen sus características esenciales y apariencia única.
Las realizaciones de Blake también expanden nuestro entendimiento de lo puede abarcar la estética
de la continuidad. Diferentes elementos de medios se añaden continuamente, unos sobre otros,
creando una experiencia de flujo continuo que, sin embargo, preserva sus diferencias. La artista
danesa Ann Lislegaard también pertenece a la “generación de la continuidad”. Algunas de sus
películas involucran navegación continua o una observación de los espacios arquitectónicos
43 En el capítulo de la “Composición” de The Language of New Media, he definido “montaje estilístico” como
“yuxtaposiciones de diversas imágenes con diversos estilos en diferentes medios”. 44 Kay & Goldberg, “Personal Dynamic Media”.
Manovich. Capítulo 5 – El Software Toma el Mando 51 / 55
imaginarios. Podemos relacionar estas películas con un número de pintores y cineastas del siglo XX,
que estaban preocupados por similares experiencias espaciales: Giorgio de Chirico, Balthus, los
surrealistas, Alain Resnais (L'année dernière à Marienbad, 1961), Andrei Tarkovsky (Stalker, 1979).
Sin embargo, la sensibilidad de Lislegaard es, sin duda, de inicios del siglo XXI. Los espacios no
chocan entre ellos, como en L'année dernière à Marienbad, ni tampoco se vuelven misteriosos con la
introducción de figuras y objetos (una práctica de René Magritte y otros surrealistas). Más bien, como
sus contemporáneos Blake y Murata, Lislegaard nos presenta formas que cambian continuamente
frente a nuestros ojos. Nos ofrece otra versión de la estética de la continuidad hecha posible por
software como After Effects, que traduce la lógica general de la representación por computadora (la
sustitución de todas las constantes en variables) en interfaces y herramientas concretas.
Los cambios visuales en Crystal World de Ann Lislegaard (basada en J.G. Ballard) (2006), ocurren
justo frente a nosotros, y aún así son casi imposibles de seguir. En el espacio de un minuto, un
espacio se transforma completamente en algo muy diferente.
Crystal World crea su propia estética de híbridos, combinando espacios foto-reales, formas
completamente abstractas y fotografías digitalizadas de plantas. (Aunque no conozco el software que
uso el asistente de Lislegaard, se trata evidentemente de un paquete de animación 3D). Como todo
está interpretado en escala de grises, las diferencias entre los medios no son pronunciadas. Y por lo
tanto ahí están. Ese este tipo de sutil, y al mismo tiempo precisa, distinción entre diferentes medios lo
que da al video su belleza única. En contraste con el montaje del siglo XX, que creaba significado y
efecto mediante yuxtaposiciones dramáticas de semántica, composiciones, espacios y diferentes
medios, la estética de Lislegaard cabe junto con otros proyectos culturales minimalistas de principios
del siglo XXI. Hoy, los creadores de arquitectura mínima y diseño de espacio, gráficos web,
animaciones generativas e interactivas, música ambiente electrónica, asumen igualmente que el
usuario es suficientemente inteligente para entender y disfrutar distinciones sutiles y modulaciones
continuas.
Bellona, de Lislegaard, (basada en Samuel R. Delany) (2005) lleva la estética de la continuidad en
una dirección diferente. Nos movemos dentro y a través de lo que parece un solo conjunto de
espacios. (Históricamente, este movimiento continuo en un espacio 3D tiene sus raíces en los
primeros usos de la animación 3D por computadora: primero para simulaciones de vuelo y, después,
en recorridos y disparadores en primera persona). Mientras atravesamos los mismos espacios varias
veces, cada vez son interpretados en una paleta de colores diferente. La transparencia y los niveles
de reflexión también cambian. Lislegaard está jugando con el espectador: mientras la estructura
general del film se vuelve clara rápidamente, es imposible seguir el espacio en que estamos en algún
momento. Nunca estamos seguros si ya hemos estado ahí o si es un espacio nuevo.
Manovich. Capítulo 5 – El Software Toma el Mando 52 / 55
Bellona puede ser visto como una alegoría de la “forma variable”. En este caso, la variabilidad se lleva
a cabo como paletas de colores y ajustes de transparencias infinitas. No importa cuantas veces
hayamos visto el mismo espacio, siempre puede aparecer de una nueva forma.
Enseñarnos nuestro mundo y nosotros mismos de una manera nueva es, claro, el objetivo de todo
arte moderno, sin importar el medio. Al sustituir las constantes por variables, el software de medios
institucionaliza este deseo. Ahora todo puede cambiar y todo puede ser interpretado (“rendereado”)
de nueva forma. Por supuesto, simples cambios en color o variaciones en una forma espacial no son
suficientes para crear una nueva visión del mundo. Hace falta talento para transformar las
posibilidades que ofrece el software en supuestos significativos y experiencias originales. Lislegaard,
Blake y Murata (junto con muchos otros diseñadores y artistas talentosos que siguen trabajando) nos
ofrecen visiones distintas y originales de nuestro mundo en un estado de transformación y
metamorfosis continuo: visiones que son totalmente apropiadas para nuestro tiempo de rápidos
cambios sociales, tecnológicos y culturales.
Amplif icación
Aunque las discusiones en este capítulo no han cubierto todos los cambios que se produjeron durante
la Revolución de Terciopelo, sí debe dejar clara la magnitud de las transformaciones en la estética de
la imagen en movimiento y en las estrategias de comunicación. A pesar de que podemos nombrar
muchos factores sociales que pudieron haber jugado un rol importante (el surgimiento de las marcas,
la economía de la experiencia, mercados jóvenes y el web como plataforma global de comunicación
en los 90’s), creo que estos factores, solos, no pueden abarcar el diseño específico y la lógica visual
que vemos hoy en la cultura de medios. De forma similar, no pueden ser explicados con sólo decir
que la sociedad consumista contemporánea requiere constante innovación, estética y efectos. Esto
puede ser cierto (pero ¿por qué vemos estos lenguajes visuales, en particular, y no otros? Y, ¿cuál es
la lógica de conduce su evolución?) Considero que para entender esto de forma adecuada,
necesitamos observar el software de creación, producción y diseño, y sus usos en el ambiente de
producción, que pueden ir de una persona con una laptop a una variedad de compañías de
producción alrededor del mundo con miles de personas colaborando en un mismo proyecto de gran
escala, como un largometraje. En otras palabras, necesitamos usar la perspectiva de los Estudios de
Software.
Los creadores del software usado en la producción de medios usualmente no se establecen la
creación de una revolución. Al contrario, el software es creado para encajar en procedimientos
existentes de producción, puestos de trabajo y tareas familiares. Pero las aplicaciones de software
son como especies en una misma ecología (en este caso, un ambiente compartido de computadoras
Manovich. Capítulo 5 – El Software Toma el Mando 53 / 55
digitales). Una vez “lanzado”, empiezan a interactuar, mutar y crear nuevos híbridos. La Revolución
del Terciopelo puede, por consecuencia, ser entendida como el periodo de hibridación sistemática
entre diferentes especies de software originalmente diseñadas para trabajar en diferentes medios.
Para 1993, los diseñadores tenían acceso a varios programas que ya eran bastante poderosos pero
muy incompatibles: Illustrator para hacer dibujos vectoriales, Photoshop ara editar imágenes de tonos
continuos, Wavefront y Alias para modelar y animar 3D, After Effects para animación 2D, etc. Para
finales de los 90’s, fue posible usarlos en un mismo flujo de trabajo. Un diseñador podía ahora
combinar operaciones y formatos representacionales, como una imagen de bitmaps fija, una
secuencia de imágenes, un dibujo vectorial, un modelo 3D y un video digital, específicos a estos
programas en un mismo proyecto. Creo que el lenguaje visual híbrido que vemos hoy a través de la
cultura de la “imagen en movimiento” y del diseño de medios en general es en gran medida el
resultado de este nuevo ambiente de producción. Mientras este lenguaje soporta, aparentemente,
numerosas variaciones, como se ve en diseños particulares, su propiedad estética clave se puede
resumir en una idea: remezcla profunda de lenguajes de medios previamente separados.
Como ya lo he dicho más de una vez, el resultado de esta hibridación no es simplemente una suma
mecánica de las partes previamente existentes, sino nuevas “especies”. Esto aplica tanto para el
lenguaje visual de diseño particulares como para las operaciones mismas. Cuando una operación de
medios pre-digital se integra en el ambiente general de un software de producción, comúnmente
funciona de nueva manera. Quisiera concluir con el análisis a detalle de cómo funciona este proceso
en el caso de una operación en particular (con el fin de enfatizar una vez más que la remixabilidad de
los medios no se trata simplemente de añadir contenido de diferentes medios, o de añadir sus
técnicas y lenguajes juntos). Y como se entiende comúnmente que el remix en la cultura
contemporánea tiene este tipo de adiciones, podríamos usar un nuevo término para referirnos a las
transformaciones que ilustra el ejemplo que sigue. He llamado provisionalmente a esto “remezcla
profunda”, pero lo que es importante es la idea y no un término en particular (así que si tienes una
sugerencia de un mejor término, envíame un correo electrónico).
¿Qué significa cuando vemos efectos de profundidad de campo en gráficos animados, películas y
programas de televisión que usan acción viva, o gráficos 3D foto-realistas, pero que tienen una
apariencia más estilizada? La profundidad de campo, originalmente un artefacto de la grabación
basada en lentes, fue simulada en el software en los 80’s, cuando el objetivo del campo de las
gráficas computacionales 3D fue crear un “foto-realismo” máximo, es decir, escenas sintéticas que no
se distinguen de la cinematografía de acción viva. Pero una vez que esta técnica se volvió disponible,
los diseñadores de medios gradualmente se dieron cuenta que podía ser usada sin importar qué tan
realista o abstracto es el estilo (siempre y cuando hubiera se evocara un espacio 3D). Tipografía que
se mueve en perspectiva a través de un espacio vacío; personajes 2D dibujados, puestos en
Manovich. Capítulo 5 – El Software Toma el Mando 54 / 55
diferentes capas del espacio 3D; un campo de partículas animadas (cualquier composición espacial
puede ser puesta en la profundidad de campo simulada).
El hecho que este efecto sea simulado y retirado de su medio físico original significa que un diseñador
puede manipularlo en una variedad de formas. Los parámetros que definen cuál parte del espacio
está activo pueden ser animados independientemente, es decir, pueden definirse para cambiar en el
tiempo (porque son simplemente los números controlando el algoritmo y no algo construido en la
óptica del lente físico). Así que, mientras la profundidad de campo simulada mantiene la memoria del
medio físico particular de donde vino, se vuelve esencialmente una nueva técnica que funciona como
un “personaje” en su propio derecho. Tiene la fluidez y versatilidad no disponible previamente. Su
conexión con el mundo real es, en el mejor de los casos, ambigua. Por un lado, sólo tiene sentido usar
la profundidad de campo si estamos construyendo un espacio 3D, incluso si está definido de forma
mínima, usando sencillamente unas pocas o una sola señal de profundidad, como las líneas
convergentes hacia la línea de horizonte. Por otro lado, el diseñador ahora puede “dibujar” este efecto
en cualquier forma que desee. El ejes que controla la profundidad de campo no tiene que ser
perpendicular a la imagen plana, el área activa puede estar en cualquier lugar del espacio, también
se puede mover rápidamente alrededor del espacio, etc.
En resumen, cuando quitamos la profundidad de campo de su hardware original (cámaras de foto y
cine) y los movemos al software, cambiamos cuándo y cómo puede ser usado. Lo podemos seguir
usando en su contexto original (el de los medios basados en lentes). Esto es, lo podemos aplicar a
elementos gráficos 3D por computadora con el fin de hacerlos más compatibles con el video
capturado mediante lentes. Pero también lo podemos usar con muchos otros medios, para un efectos
meramente artístico. Y lo podemos usar en muchas formas que no habían sido consideradas cuando
era parte de su hardware original.
Siguiendo la Revolución de Terciopelo, la carga estética de muchos diseños de medios es derivada de
“simples” operaciones de remix: yuxtaposición de diferentes medios en lo que llamamos “montaje de
medios”. Sin embargo, para mí, la esencia de esta Revolución es fundamentalmente una “remezcla
profunda”, ilustrada, en este ejemplo, en la forma en cómo la profundidad de campo se amplifica
grandemente cuando se simula en software.
La informatización virtualizó prácticamente todos las técnicas de creación y producción de medios,
“extrayéndolos” de sus medios físicos particulares y volviéndolos algoritmos. Esto significa que, en
muchos casos, ya no veremos ninguna de las técnicas pre-digitales en su estado original puro. Esto es
algo que ya he discutido en general cuando vemos la primer etapa de la historia del software cultural,
es decir, los 60’s y los 70’s, examinando el trabajo de Sutherland en el primer editor gráfico
interactivo, Sketchpad, los conceptos de Nelson sobre el hipertexto e hipermedios, y las discusiones
Manovich. Capítulo 5 – El Software Toma el Mando 55 / 55
de Kay sobre el libro electrónico (“ [el libro electrónico] no tiene que ser tratado como un libro de
papel simulado debido a que es un nuevo medio con nuevas propiedades”). Ahora hemos visto cómo
esta idea general, ya articulada en los 60’s, se abrió paso hasta los detalles de las interfaces y
herramientas de aplicaciones para el diseño de medios que, eventualmente, reemplazaron la mayoría
de las herramientas tradicionales: After Effects, Illustrator, Photoshop, Flash, Final Cut, etc. Así que lo
que es cierto para la profundidad de campo también lo es para muchas de las otras herramientas que
ofrecen las aplicaciones de diseño de medios.
Lo que fue un conjunto de conceptos teóricos implementados unos cuantos sistemas de software sólo
accesibles a sus creadores en los 60’s y 70’s (como Sketchpad o la estación de trabajo de Xerox
PARC), más tarde se convirtió en un ambiente de producción universal usado actualmente en todas
las áreas de las industrias culturales. Las interacciones en curso entre las ideas de la industria del
software y los deseos de los usuarios sobre sus herramientas (diseñadores de medios, diseñadores
gráficos, editores de film, etc.) llevó a una evolución posterior del software, por ejemplo el surgimiento
de una nueva categoría de sistemas de “gestión de recursos digitales” en los primeros años de los
2000’s, o el concepto de “tubería de producción” que se volvió importante a mitad de esa década. En
este capítulo hemos descrito solo una dirección, entre muchas otras, de la evolución del software, sus
herramientas y sus formatos de medios. Como hemos visto, el resultado de esta tendencia fue el
surgimiento de un nuevo tipo de estética que hoy domina la cultura visual y de medios.
top related