capítulo 5 - el software toma el mando (manovich)

55
Manovich. Capítulo 5 – El Software Toma el Mando 1 / 55 Capítulo 5. Diseño de medios 1 Lev Manovich “Primero moldeamos nuestras herramientas, después ellas nos moldean a nosotros” Marshall McLuhan, Understanding Media (1964). After Effects y la revolución invisible Los híbridos de medios no se limitan a tipos particulares de aplicaciones software, interfaces de usuario, proyectos artísticos o el web. Si estamos en lo correcto al sostener que la hibridación representa la siguiente etapa lógica en el desarrollo de los medios computacionales (después de la primera etapa que fue la simulación de medios físicos en la computadora), entonces debemos encontrarla en varias áreas de las producción de medios de nuestros días. Y así es el caso. En esta capítulo describiremos cómo la producción y estética de la las imágenes en movimiento cambió dramáticamente en los 90’s. A mediados de ésta década, los medios físicos simulados para la producción de imágenes fijas y animadas (cinematografía, animación, diseño gráfico, tipografía), el nuevo medio computaciones (animación 3D) y las nuevas técnicas computacionales (composición, múltiples niveles de transparencia) se encontraron en un mismo ambiente de software (es decir, un número de programas de software, compatibles y que corrían en la misma estación de trabajo computacional). Cineastas, animadores y diseñadores empezaron a trabajar sistemáticamente en este ambiente, usando software para generar elementos individuales y para ensamblarlos. El resultado fue el surgimiento de una nueva estética híbrida que rápidamente se volvió la norma. Hoy, este lenguaje domina la cultura visual de decenas de países. Lo vemos a diario en comerciales, video musicales, gráficos animados (motion graphics), gráficos de TV, diseño de créditos, interfaces interactivas de teléfono móviles y otros aparatos, menús dinámicos, páginas web animadas, gráficos para móviles y en todo tipo de narrativas, interfaces y contenidos que son producidos por profesionales (tanto compañías como diseñadores y artistas independientes) y por estudiantes. Con todo, estimamos que por lo menos un 50 por ciento de las imágenes en movimiento de corta duración siguen este lenguaje. En este capítulo analizaremos lo que percibo como sus características esenciales: nueva estética de híbridos visuales; integración sistemática de técnicas de medios 1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

Upload: everardo-reyes-garcia

Post on 23-Oct-2015

197 views

Category:

Documents


6 download

DESCRIPTION

Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

TRANSCRIPT

Page 1: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 1 / 55

Capítulo 5. Diseño de medios1

Lev Manovich

“Primero moldeamos nuestras herramientas, después ellas nos moldean a nosotros” Marshall

McLuhan, Understanding Media (1964).

After Effects y la revolución invisible

Los híbridos de medios no se limitan a tipos particulares de aplicaciones software, interfaces de

usuario, proyectos artísticos o el web. Si estamos en lo correcto al sostener que la hibridación

representa la siguiente etapa lógica en el desarrollo de los medios computacionales (después de la

primera etapa que fue la simulación de medios físicos en la computadora), entonces debemos

encontrarla en varias áreas de las producción de medios de nuestros días. Y así es el caso. En esta

capítulo describiremos cómo la producción y estética de la las imágenes en movimiento cambió

dramáticamente en los 90’s.

A mediados de ésta década, los medios físicos simulados para la producción de imágenes fijas y

animadas (cinematografía, animación, diseño gráfico, tipografía), el nuevo medio computaciones

(animación 3D) y las nuevas técnicas computacionales (composición, múltiples niveles de

transparencia) se encontraron en un mismo ambiente de software (es decir, un número de programas

de software, compatibles y que corrían en la misma estación de trabajo computacional). Cineastas,

animadores y diseñadores empezaron a trabajar sistemáticamente en este ambiente, usando

software para generar elementos individuales y para ensamblarlos. El resultado fue el surgimiento

de una nueva estética híbrida que rápidamente se volvió la norma.

Hoy, este lenguaje domina la cultura visual de decenas de países. Lo vemos a diario en comerciales,

video musicales, gráficos animados (motion graphics), gráficos de TV, diseño de créditos, interfaces

interactivas de teléfono móviles y otros aparatos, menús dinámicos, páginas web animadas, gráficos

para móviles y en todo tipo de narrativas, interfaces y contenidos que son producidos por

profesionales (tanto compañías como diseñadores y artistas independientes) y por estudiantes. Con

todo, estimamos que por lo menos un 50 por ciento de las imágenes en movimiento de corta duración

siguen este lenguaje. En este capítulo analizaremos lo que percibo como sus características

esenciales: nueva estética de híbridos visuales; integración sistemática de técnicas de medios

1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

Page 2: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 2 / 55

previamente incompatibles; uso del espacio 3D como plataforma común de diseño de medios;

cambio constante en cada dimensión visual; y amplificación de técnicas cinematográficas.

La nueva estética de los híbridos existe en innumerables variaciones pero el principio básico es el

mismo: sobreponer diferentes lenguajes visuales de diferentes medios en una misma imagen. Este es

un ejemplo de cómo la lógica de la remezcla de medios reestructura una gran parte de la cultura

como todo. Los lenguajes del diseño, tipografía, animación, pintura y cinematografía se reúnen en la

computadora. Por lo tanto, además de ser un metamedio, como lo formuló Kay, también podemos

llamar a la computadora una plataforma de metalenguaje: el lugar en donde muchos lenguajes

culturales del periodo moderno vienen y crean nuevos híbridos.

¿Cómo se dio este lenguaje? Considero que estudiar el software involucrado en la producción de

imágenes en movimiento es determinante para explicar porqué se ven como se ven. Sin este análisis

no podremos salir de las generalidades de la cultura contemporánea (post-moderno, global, remix,

etc.) para describir los lenguajes particulares de las diferentes áreas del diseño; para entender las

causas detrás de ellos y su evolución en el tiempo. (En otras palabras, creo que la “teoría del

software”, que este libro trata de definir y poner en práctica, no es un lujo sino una necesidad).

Aunque las transformaciones que discutiremos incluyen muchos desarrollos tecnológicos y sociales

(hardware, software, prácticas de producción, flujos de trabajo, nuevos puestos y campos

profesionales), es apropiado resaltar un software en particular que ha estado al centro de estos

eventos. Esta aplicación es After Effects. En este capítulo haremos un acercamiento a su interfaz, sus

herramientas y su uso típico en el diseño de medios. Introducido en 1993, After Effects fue el primer

software diseñado para hacer animación, composición y efectos especiales en la computadora

personal2. Su efecto general en la producción de imágenes en movimiento puede ser comparado con

el efecto de Photoshop e Illustrator en la fotografía, la ilustración y el diseño gráfico.

Claro que After Effects tiene su competencia. En los 90’s, la compañías también usaban fuertemente

otros software “de alta calidad” como Flame, Inferno o Paintbox que corrían en estaciones gráficas de

trabajo especializadas… y se siguen usando. En los 2000’s, otros programas en la misma categoría de

precios que After Effects, como Motion de Apple, Combustion de Autodesk y Flash de Adobe, también

2 El Video Toaster de NewTek, lanzado en 1990, fue el primer sistema de producción de video para la

computadora que incluía un switcher de video, generación de caracteres, manipulación de imágenes y

animación. Debido a su bajo precio, los sistemas Video Toaster fueron muy populares en los 90’s. En el contexto

de este libro, After Effects es más importante porque, como veremos, introdujo un nuevo paradigma de diseño de

imágenes en movimiento que era diferente al paradigma familiar de edición de video soportado por sistemas

como el Toaster o Avid.

Page 3: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 3 / 55

pusieron en riesgo el dominio de After Effects. Pero debido a su asequibilidad y su tiempo en el

mercado, After Effects sigue siendo el más popular, el más usado y el mejor conocido. Por esto, After

Effects tendrá un rol preferente en mi estudio, tanto como símbolo como material preponderante que

hizo posible la transformación de la cultura de la imagen en movimiento a gran escala. (Cuando

buscamos “mejores software de motion graphics” en el web y verificamos la respuesta en diversos

foros, el primer programa que se menciona siempre es After Effects. Una de las personas de estos

foros dijo: “Es el estándar por default. Apréndelo. Ámalo”3. Otro ejemplo: cuando en 2012 Imaginary

Forces, la compañía más relacionada con el nacimiento de los gráficos animados en los 90’s, publicó

descripciones de puestos en sus oficinas de Los Angeles y NYC para diseñadores y animadores, sólo

enumeró un software para la producción de imágenes animadas 2D: After Effects4).

Como veremos, la interfaz de usuario y las herramientas de After Effects reúnen técnicas

fundamentales, métodos de trabajo y supuesto de áreas previamente separadas del cine, la

animación y el diseño gráfico. Este ambiente de producción híbrido, encapsulado en un mismo

software, tiene una influencia directa en el lenguaje visual que habilita, específicamente su enfoque

en la exploración de posibilidades estéticas, narrativas y afectivas de la hibridación.

El giro hacia las herramientas basadas en software en los 90’s no solo afectó a la cultura de la

imagen en movimiento sino todas las demás áreas del diseño. Todas adoptaron el mismo flujo de

trabajo de producción. (Cuando el proyecto es grande e involucra mucha gente y muchos elementos

de medios, el flujo de trabajo de la producción se llama “tubería” o “pipeline”). En este proceso de

producción los usuarios generalmente combinan elementos creados en diferentes software, o

mueven sus proyectos completos de una aplicación a otra con la intención de tomar ventaja de sus

funciones particulares. Aunque cada área del diseño tiene sus aplicaciones especializadas (por

ejemplo, los diseñadores web usan Dreamweaver, mientras que los arquitectos usan Revit y los

artistas de efectos visual usan Nuke y Fusion), también usan varias aplicaciones comunes. Éstas son

Photoshop, Illustrator, Final Cut, After Effects, Maya, 3ds Max y otras más. (Si usas software libre

como Gimp o Cinepaint en lugar de las aplicaciones comerciales, tu lista de aplicaciones clave puede

variar pero los principios siguen siendo los mismos).

La adopción de este ambiente de producción, que consiste en varias aplicaciones compatibles de

diferentes áreas de las industrias creativas, tiene muchos efectos fundamentales. Las fronteras

profesionales entre las áreas del diseño se vuelven menos importantes. Un diseñador o un pequeño

estudio pueden trabajar hoy en un video musical, en el diseño de un producto mañana y en un

3 John Waskey, http://www.quora.com/What-is-the-best-software-for-creatingmotion-graphics (marzo 4, 2001). 4 http://www.imaginaryforces.com/jobs/los-angeles/designer/, http://www.imaginaryforces.com/jobs/new-

york/2d-animator/ (octubre 31, 2012).

Page 4: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 4 / 55

proyecto de arquitectura o sitio web pasado mañana, etc. Otra distinción que antes era fundamental

(la escala del proyecto) también importa cada vez menos. Hoy podemos encontrar exactamente las

mismas formas y figuras en proyectos de pequeña escala (como las joyas), en medianos (diseño de

muebles, sillas, mesas) y de gran escala (edificios, diseños urbanos). Como ejemplo, podemos referir

a los proyectos de Zaha Hadid, que cubren precisamente este abanico5.

Un estudio detallado de estos y otros efectos de la adopción del software tomaría más de un libro. Por

eso, en este capítulo sólo me enfocaré en el impacto del flujo de trabajo, basado en software, en el

diseño de medio contemporáneos. Como veremos, este flujo modela el diseño contemporáneo de

varias maneras. Por un lado, nunca antes en la historia de la comunicación visual humana habíamos

visto formas tan variadas como hoy. Por otro lado, la mismas técnicas, composiciones e iconografía

pueden aparecer en cualquier medio. Para evocar la metáfora de la evolución biológica otra vez,

podemos decir que a pesar de la infinita diversidad de “especies” de medios contemporáneos,

visuales y espaciales, todo comparten un DNA en común. Muchas de las especies también comparten

un principio de diseño básico: la integración de técnicas del diseño de medios previamente

incompatibles (un proceso que llamaré “remezcla profunda”). Por esto, al darle una oportunidad al

software de producción de medios, y sus usos en la producción, nos permite empezar a construir un

mapa de nuestro universo de medios y diseños actuales, viendo cómo sus especies se relacionan

entre ellas y revelan los mecanismos subyacentes a su evolución.

La adopción de After Effects y software similar en la segunda parte de los 90’s rápidamente condujo a

la adopción de un término especial para designar los nuevos visuales animados: “motion graphics”

(gráficos animados). Definidos de manera concisa por Matt Fritz en su tesis de maestría en 2003

como “visuales diseñados sin narrativa, no figurativos, que cambian con el tiempo”6, los gráficos

animados incluyen los créditos de películas y TV, gráficos de TV, menús dinámicos, contenidos para

medios móviles y demás secuencias animadas. Típicamente, los gráficos animados aparecen como

partes de piezas más grandes: comerciales, video musicales, videos de capacitación, películas y

documentales, proyectos interactivos. O, por lo menos, así era en 1993. Desde ese tiempo, la frontera

entre los gráficos animados y todo lo demás se ha vuelto difícil de distinguir. Por lo tanto, en 2008 en

la versión del artículo sobre motion graphics en Wikipedia en inglés, sus autores decían que “el

término ‘motion graphics’ tiene el potencial de ser menos ambiguo que el término cine para describir

las imágenes en movimiento del siglo XXI”7. Ciertamente, hoy numerosas imágenes en movimiento

5 http://www.zaha-hadid.com/ 6 Matt Frantz “Changing Over Time: The Future of Motion Graphics,” Tesis de maestría en artes, 2003,

http://www.mattfrantz.com/thesisandresearch/motiongraphics.html 7 http://en.wikipedia.org/wiki/Motion_graphics

Page 5: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 5 / 55

cortas combinan metraje, animación 2D, animación 3D y demás técnicas similares (en oposición a las

que privilegian imágenes de acción en vivo, como lo hacen muchas películas), así que también se les

puede llamar “gráficos animados”.

¿Por qué elegí los gráficos animados como el caso de estudio central de este libro y no cualquier otra

área de la cultura contemporánea, igualmente afectada por un cambio o un nacimiento en la

producción basada en software? Algunos ejemplos de áreas que han cambiado, también llamadas

“orientadas hacia lo digital”, son la arquitectura, el diseño gráfico, el diseño de producción, el diseño

de información y la música. Ejemplo de las que nacieron en la computadora son el diseño de juegos,

diseño de interacción, diseño de experiencia del usuario, diseño de interfaz de usuario, diseño web y

visualización interactiva de la información. Obviamente, la mayoría de las nuevas áreas que contienen

en su nombre las palabras “interacción” o “información” (y que surgieron a partir de la década de los

90’s, también han sido ignoradas por la crítica cultural) solicitan nuestra atención.

Mi razón tiene que ver con la diversidad de nuevas formas (visuales, espaciales y temporales) que se

desarrollaron durante el rápido crecimiento del área de los gráficos animados después de la

introducción de After Effects. Si nos acercamos a los gráficos animados en los términos de estas

formas y técnicas (en lugar de su contenido únicamente), nos daremos cuenta que representan un

giro significante en la historia de la comunicación humana. Prácticamente todas las técnicas de

comunicación desarrolladas por los humanos hasta los 90’s se combinan ahora comúnmente en

proyectos de gráficos animados: mapas, pictogramas, jeroglíficos, ideogramas, escrituras, alfabeto,

gráficos, sistemas de proyección, gráficas de información, fotografías, lenguajes modernos de formas

abstractas (desarrollado en la pintura europea de 1910 y adoptados subsecuentemente por el diseño

gráfico y la arquitectura de los 20’s), técnicas cinematográficas del siglo XX, gráficos 3D por

computadora y, desde luego, toda la variedad de efectos visuales “nacidos digitales”. Por lo tanto,

casi todos los sistemas semióticos previamente separados se vuelven opciones en la paleta del

usuario (o “caja de herramientas”, para usar la metáfora estándar utilizada por el software de

medios). Las inteligencias lingüísticas, cinésicas, espaciales, icónicas, diagramáticas y temporales

pueden funcionar juntas para expresar lo que ya sabíamos pero que no podíamos comunicar (así

como generar nuevos mensajes y experiencias cuyos significados aún están por descubrirse).

Aunque todavía necesitamos descifrar cómo usar plenamente este nuevo metalenguaje semiótico, la

importancia de sus surgimiento es difícil de sobreestimar. O sea, la emergencia de gráficos animados

hechos con software es tan importante como la invención de la imprenta, la fotografía o Internet.

Empezaremos por remontarnos a los 80’s. En el apogeo de los debates de la postmodernidad, por lo

menos un crítico estadounidense se dio cuenta de la conexión entre el pastiche postmoderno y la

informatización. En su libro After the great divide (1986), Andreas Huyssen escribía: “todas las

Page 6: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 6 / 55

técnicas, formas e imágenes modernas y vanguardistas están guardadas para acceso directo en los

bancos de memoria informatizados de nuestra cultura. Pero la misma memoria también almacena

todo el arte pre-moderno así como los géneros, códigos y los mundos de imágenes de las culturas

populares y de la cultura de masas moderna”8. Su análisis es preciso, excepto que estos “bancos de

memoria informatizados” no fueron disponibles hasta 15 años más tarde. Sólo cuando el web

absorbió suficientes archivos de medios fue cuando se volvió un banco de memoria cultural universal

accesible por todos los productores de cultura. Incluso para los profesionales, la habilidad de integrar

fácilmente múltiples medios en un mismo proyecto (capas de video, imágenes fijas escaneadas,

animación, gráficos y tipografía) se logró hasta finales de los 90’s.

En 1985, cuando el libro de Huyssen estaba en preparación para su publicación, yo trabaja en una de

las pocas compañías de animación en el mundo. La compañía estaba ubicada en la ciudad de Nueva

York y se llama apropiadamente Digital Effects9. Cada animador digital tenía su propia terminal de

gráficos interactivos que mostraba los modelos 3D en modo “wireframe” y monocromáticos. Para

verlos a color, debíamos turnarnos porque la compañía sólo tenía una pantalla de colores bitmap que

todos compartíamos. Los datos estaban guardados en cintas magnéticas que medían como 30

centímetros de diámetro. Encontrar datos de un trabajo anterior era proceso incómodo que implicaba:

ubicar la cinta correcta en el armario correcto, ponerla en una unidad de lectura y buscar la parte

adecuada. No teníamos un escáner a color, así que lograr las “todas las técnicas, formas e imágenes

modernas y vanguardistas” en una computadora no era cosa sencilla. Pero aún si hubiéramos tenido

uno, no había forma de guardar, recordar y modificar esas imágenes. La máquina que podía hacer

eso era una Quantel Paintbox, que costaba más de 160 mil dólares (fuera de nuestro presupuesto). Y

cuando Quantel lanzó el modelo Harry en 1986, el primer sistema de edición no lineal que permitía

hacer composiciones de múltiples capas de video y efectos especiales, su precio también estaba

fuera del alcance, excepto para televisoras y algunas cuantas casas productoras. Las capacidades de

Harry eran algo limitadas debido a que sólo podías grabar 80 segundos de video calidad broadcast.

En el campo de las imágenes fijas, las cosas eran mucho mejores. Por ejemplo, la unidad de

almacenamiento Picturebox, lanzada por Quantel en 1990, podía almacenar 500 imágenes de

calidad broadcast pero su costo era también muy alto.

En breve, a mediados de los 80’s ni nosotros ni otras compañías de producción teníamos nada

aproximado a los “bancos de memoria informatizados” imaginados por Huyssen. Y por supuesto que

pasaba lo mismo para los artistas visuales asociados con el postmodernismo y las ideas del pastiche,

8 Andreas Huyssen, “Mapping the Postmodern,” in After the Great Divide (Bloomington and Indianapolis: Indiana

University Press, 1986), p. 196. 9 Wayne Carlson, A Critical History of Computer Graphics and Animations. Section 2: The Emergence of Computer

Graphics Technology, http://accad.osu.edu/%7Ewaynec/history/lesson2.html

Page 7: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 7 / 55

collage y apropiación. En 1986, la BBC produjo el documental Painting with light para el cuál una

media docena de pintores famosos, incluyendo Richard Hamilton y David Hockney, fueron invitados

para trabajar con una Quantel Paintbox. Las imágenes resultantes no eran muy diferentes de las que

estos artistas hacían sin la computadora. Y a pesar de que algunos artistas hacían referencia a

“técnicas, formas e imágenes modernas y vanguardistas”, éstas referencias estaba pintadas en lugar

de ser cargadas directamente desde un “banco de memoria informatizado”. Sólo diez años después,

cuando estaciones de trabajo relativamente baratas que corrían software de edición de imágenes,

animación, composición e ilustración se volvieron comunes y accesibles a diseñadores gráficos

independientes, ilustradores y pequeños estudios de animación y post-producción, la situación

imaginada por Huyssen empezó a volverse una realidad.

Los resultados fueron dramáticos. En el espacio de menos de cinco años, las cultura visual moderna

se transformó radicalmente. Visuales que antes era específicos a diferentes medios (imágenes acción

viva, gráficos, fotografía, animación tradicional, animación 3D por computadora y tipografía) se

empezaron a combinar de diferentes formas. Para finales de los 90’s, la imagen en movimiento

“pura” se volvió una excepción y los medios híbridos la norma. Sin embargo, en contraste con otras

revoluciones computacionales, como el surgimiento del World Wide Web alrededor de los mismos

años, éstas revolución no fue reconocida por los medios populares ni por los críticos culturales. Lo

que recibió atención fueron los desarrollo que afectaban la narrativa cinematográfica: el uso de

efectos especiales generados por computadora en las películas de Hollywood o las herramientas de

bajo costo para la edición de video digital fuera de él. Pero otro proceso que sucedió a gran escala, el

de la transformación del lenguaje visual usado por todas las formas de imágenes en movimiento

fuera de la narrativa del film, no ha sido analizado críticamente. De hecho, a pesar de que los

resultados de esta transformación se han vuelto visibles desde 1999, al momento de escribir este

libro no conozco un solo artículo que los estudie (por lo menos no en inglés).

Una de las razones es que, en esta revolución, ningún nuevo medio per se fue creado. Justo como lo

hicieron diez años antes, los diseñadores hacían imágenes fijas e imágenes en movimiento. Pero la

estética de estas imágenes era ahora muy diferente. De hecho, era tan nueva que, en retrospectiva,

la imaginería postmoderna de una década pasada, que en aquellos tiempos se veía

sorprendentemente diferente, ahora aparece como un punto apenas perceptible en el radar de la

historia cultural.

No es accidental mi elección de fechas de inicio y fin (1993-1999) para caracterizar el desarrollo del

nuevo lenguaje visual híbrido de las imágenes en movimiento. Claro que pude haber tomado

diferentes fechas, por ejemplo unos cuantos años antes. Pero como After Effects jugará el rol principal

en mi estudio, y fue lanzado en 1993, he decidido tomar este año como inicio. Igual para mi fecha de

fin, creo que para 1999 los mayores cambios en la estética de las imágenes en movimiento se

Page 8: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 8 / 55

hicieron visibles. Si quieres hacer la comprobación tú mismo, simplemente compara los demo reels

que las compañías de efectos visuales hicieron en los 90’s (muchos están disponibles en línea, por

ejemplo busca los de Pacific Data Ocean, o los del sistema Flame, disponibles para cada año a desde

199510). En trabajos de principios de la década, la imaginería computacional se ve claramente, con

comerciales y video-promocionales hechos completamente en animación 3D por computadora, y se

resalta la novedad de este nuevo medio. Para finales de la década, la animación computacional se

vuelve un elemento integrado en la mezcal de acción viva, tipografía y diseño gráfico.

Aunque estas transformaciones sólo sucedieron recientemente, la ubicuidad del nuevo lenguaje

visual híbrido de hoy es tal que cuesta trabajo recordar qué tan diferentes eran las cosas antes.

Igualmente, los cambios en los procesos de producción y equipamiento que hicieron este lenguaje

posible también se borran rápidamente de la memoria del público y de los profesionales. A manera de

evocar rápidamente estos cambios, vistos desde la perspectiva de un profesional, citaré parte de la

entrevista que hicieron a Mindi Lipschultz en 2004, quien ha trabajado como editor, productor y

director en Los Ángeles desde 1979:

Si querías ser más creativo [en los 80’s], no bastaba con añadir más software a tu sistema.

Tenías que gastar cientos de miles de dólares y comprar una Paintbox. Si querías hacer algo

gráfico (una entrada para un show de TV con muchas capas), tenías que ir a una casa editora

y gastar unos miles de dólares por hora para hacer exactamente lo mismo que se hace hoy

en una computadora barata con varios programas de software. Ahora, con Adobe After

Effects y Photoshop, puedes hacer todo de una vez. Puedes editar, diseñar y animar. Puedes

hacer 2D o 3D, todo en tu computadora de escritorio en casa o en una pequeña oficina11.

En 1989, los antiguos países soviéticos de Europa Central y del Este se liberaron pacíficamente de la

Unión Soviética. En el caso de Checoslovaquia, este evento se recuerda como la Revolución de

Terciopelo (en contraste con las típicas revoluciones de la historia moderna acompañadas de

matanzas). Para enfatizar las graduales (y con un ritmo casi invisible) transformaciones ocurridas en

la estética de la imagen en movimiento entre 1993 y 1999, me apropiaré del término Revolución de

Terciopelo para referirme a esas transformaciones. (Aunque suene atrevido comparar

transformaciones políticas con estéticas éstas dos comparten la misma calidad pacífica, incluso es

posible notar que ambas están relacionadas).

10 http://accad.osu.edu/~waynec/history/lesson6.html; http://area.autodesk.com/ flame20#20years. 11 Mindi Lipschultz, entrevistado por The Compulsive Creative, mayo 2004,

http://www.compulsivecreative.com/interview.php?intid=12

Page 9: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 9 / 55

Finalmente, antes de proceder, también debo explicar mi uso de ejemplos. El lenguaje visual que

estoy analizando nos rodea hoy en día (esto puede explicar porque los académicos han estado ciegos

ante él). Después de la globalización, éste lenguaje es hablado por los profesionales de la

comunicación en decenas de países de todo el mundo. Puedes ver tú mismo los ejemplos de varias

estéticas de las que hablaré con simplemente ver la televisión y poner atención en los gráficos, ir a un

club y ver el performance de un VJ, visitar los sitios web de diseñadores de gráficos animados y

compañías de efectos visuales, o ver un libro sobre diseño contemporáneo. No obstante, he incluido

el título de proyectos específicos para que el lector pueda ver exactamente a lo que me estoy

refiriendo. (He elegido trabajos de estudios de diseño y de artistas de renombre para que los puedas

encontrar fácilmente en el web). Pero como mi objetivo es describir el nuevo lenguaje cultural que

para hoy se ha vuelto prácticamente universal, quiero enfatizar que cada uno de estos ejemplos

puede ser substituido por muchos otros.

La estética de la hibridación

En la segunda mitad de los 90’s, una de las características que identifican a los motion graphics que

claramente lo distinguían de las demás formas de imágenes en movimiento existentes en ese tiempo

era el papel central de la tipografía dinámica. El término “motion graphics” ha sido usado por lo

menos desde 1960, cuando un pionero del cine por computadora, John Whitney, llamó a su compañía

Motion Graphics. Sin embargo, hasta antes de las Revolución de Terciopelo, sólo un puñado de gente

y compañías habías explorado sistemáticamente el arte de la tipografía animada: Norman McLaren,

Saul Bass, Pablo Ferro, R. Greenberg y unos cuantos más12. Pero a mediados de los 90’s, las

secuencias de imágenes en movimiento, o películas cortas, dominaban mediante la animación de

texto y elementos gráficos abstractos, en lugar de acción viva, y empezaron a producirse en mayor

escala. ¿Cuál fue la causa material del despegue de los motion graphics? Fue After Effects, y demás

software relacionado, que corría en computadoras o estaciones gráficas de trabajo relativamente

baratas, que se hicieron disponibles a pequeños estudios de diseño, efectos visuales y post-

producción, y pronto a diseñadores individuales. Casi de la noche a la mañana, el término “motion

graphics” se volvió conocido. (Como dice el artículo de Wikipedia sobre éste término: “el término

‘motion graphics’ fue popularizado en el libro de Trish y Chris Meyer sobre Adobe After Effects titulado

‘Creating Motion Graphics’13). El universo de Gutenberg, de 500 años de edad, se volvió movimiento.

12 Para una discusión poco frecuente de las prehistoria de los motion graphics, así como un raro intento de

análisis del campo usando conceptos en lugar de ejemplos del portafolio de artistas, ver: Jeff Bellantoni & Matt

Woolman, Type in Motion, 2da. edición (Thames & Hudson, 2004). 13 http://en.wikipedia.org/wiki/Motion_graphic

Page 10: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 10 / 55

Junto con la tipografía, el lenguaje completo del diseño gráfico del siglo XX fue “importado” en el

diseño de imágenes en movimiento. Aunque este movimiento no recibió un nombre en particular, es

igualmente importante. (El término “cine de diseño” ha sido usado, pero nunca ha ganado tanta

popularidad como “motion graphics”). Entonces, mientras los gráficos animados estuvieron durante

años limitados a los créditos de películas, y por ende usando tipografía, hoy el término “motion

graphics” se usa para designar secuencias animadas que combinan texto y elementos de diseño.

Pero debemos recordar que, a pesar de que en el siglo XX la tipografía se usaba en combinación con

otros elementos, durante 500 años ha dirigido su propia palabra. Así, creo que es importante

considerar dos tipos de “importaciones” que sucedieron en la Revolución de Terciopelo (tipografía y

diseño gráfico del siglo XX) como dos desarrollo históricos distintos.

Aunque los motion graphics ejemplifican los cambios que sucedieron en la Revolución de Terciopelo,

estos cambios son más grandes. Puesto de forma simple, el resultado de la Revolución de Terciopelo

es una nuevo lenguaje visual híbrido de las imágenes en movimiento en general. Este lenguaje no

está confinado a un forma de medios en particular. Y aunque hoy se manifiesta más claramente en

formas no-narrativas, seguido está presente en secuencias y películas narrativas y figurativas.

He aquí algunos ejemplos. Un video musical puede usar acción viva pero también tipografía y una

variedad de transiciones hechas con gráficas computacionales (por ejemplo “Go” de Common,

dirigido por Convert/MK12/Kanye West, 2005). Otro video musical puede incrustar al cantante en un

espacio de pintura animada (Sheryl Crow “Good is goog”, dirigido por Pysop, 2005). Un comercial

puede sobreponer gráficas, datos y visualizaciones sobre acción viva (spot para Thomson Reuters, de

MK12, 2012). Un secuencia de créditos puede contrastar figuras planas 2D con espacios de

perspectiva 3D (créditos de Mad Men, de Imaginary Forces, 2007). Un cortometraje puede mezclar

tipografía, gráficas 3D estilizadas, elementos de diseño 2D y acción viva (“Itsu for plaid”, dirigido por

el colectivo Pleix, 2002). (Algunas veces, como ya lo hemos dicho, el término “cine de diseño” es

usado para distinguir cortometrajes independientes que usan diseño, tipografía y animación por

computadora en lugar de acción viva de los “motion graphics” producidos para clientes comerciales).

En algunos casos, la yuxtaposición de diferentes medios es evidente (el video “Don’t panic” de

Coldplay, 2001; los créditos del show TV “The Inside”, 2005; el comercial “Nike – Dymamic feet”,

2005, hecho por Imaginary Forces). En otros casos, una secuencia puede moverse entre diferentes

medios tan rápido que apenas se notan (el comercial “Holes” de GMC Denali, hecho por Imaginary

Forces, 2005). Y en otros casos más, un comercial o unos créditos de película pueden mostrar una

imagen de acción viva continua pero cambiándola periódicamente por otra con apariencia más

estilizada.

Page 11: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 11 / 55

Esta hibridación de medios no se manifiesta necesariamente en una estética de collage que resalte la

yuxtaposición de diferentes medios o diferentes técnicas de medios. Como contraejemplo de lo que

puede ser el resultado de la hibridación, pensemos en una estética más sutil, bien captada con el

nombre del software que en gran medida hizo el lenguaje visual híbrido posible: After Effects. Este

nombre anticipaba los cambios en la apariencia de los efectos visuales que sucedieron años más

tarde. En los 90’s, las computadoras se usaban para crear efectos especial espectaculares o “efectos

invisibles”14, pero hacia finales de la década vimos que surgió algo más: una nueva estética visual

que va “más allá de los efectos”. En esta estética, el proyecto completo (ya sea un video musical, un

comercial de TV, un cortometraje o un largo segmento de una película) tiene una apariencia especial

en la cuál el realce del material de acción viva no es completamente invisible pero al mismo tiempo

tampoco sobresalta de la manera en que lo hacían los efectos especiales de los 90’s (el comercial

“Basketball black” de Reebok I-Pump y los créditos de The Legend of Zorro, ambos por Imaginary

Forces, 2005; el comercial “Fage ‘plain” de Psyop, 2011).

Aunque la solución estética particular varia de un video a otro y de un diseñador a otro, todos

comparten la misma lógica: la aparición simultánea de múltiples medios en un mismo cuadro. Que

estos medios están sobrepuestos abiertamente o entremezclados perfectamente es menos

importante que el hecho de su co-presencia misma. (Una vez, notemos que cada uno de los ejemplos

anteriores puede ser reemplazado por muchos otros).

El lenguaje visual híbrido también es común en una gran porción de cortos “experimentales” e

“independientes” (o sea, que no fueron encomendados por clientes comerciales) producidos para

festivales, web, aparatos móviles y demás plataformas de distribución de medios15. Muchos visuales

creados por VJ’s y artistas de “cine en vivo” también son híbridos, combinando video, capas de

imágenes 2D, animación e imágenes abstractas generadas en tiempo real16. Las animaciones de

14 Efectos invisibles es el término estándar de la industria. Por ejemplo, la película Contact, de Robert Zemeckis,

fue nominada en los premios VFX HQ en 1997 en las siguientes categorías: Mejores Efectos Visuales, Mejor

Secuencia, Mejor Toma, Mejor Efecto Invisible y Mejor Composición. http://www.vfxhq.com/1997/contact.html 15 En diciembre 2005, mientras asistía al festival Impact Media, en Utrecht, Holanda, le pregunté al director del

festival qué porcentaje de las sumisiones recibidas tenía un lenguaje visual híbrido, en comparación con un

lenguaje “tradicional” de cine y video. Él estimó un 50%. En enero 2006, fui parte del jurado evaluador de

proyectos de alumnos de SCI-ARC, una reconocida escuela de arquitectura en Los Ángeles. Según yo, la mitad de

los proyectos incluía curvas geométricas complejas hechas con Maya. Debido a que After Effects y el predecesor

de Maya, Alias, fueron lanzados en el mismo año, 1993, considero interesante esta similitud cuantitativa en el

porcentaje de proyectos que usan nuevos lenguajes de medios gracias a estos software. 16 Para ver ejemplos, consultar Paul Spinrad (ed), The VJ Book: Inspirations and Practical Advice for Live Visuals

Performance (Feral House, 2005).

Page 12: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 12 / 55

Jeremy Blake, Ann Lislegaard y Takeshi Murata, que veremos más adelante, demuestran que por lo

menos una parte de los trabajos creados en el circuito del arte también usa el mismo lenguaje de la

hibridación.

Hoy, las características narrativas rara vez mezclan estilos gráficos diferentes en un mismo

fotograma. Sin embargo, un número creciente de películas sí incluye una estética altamente estilizada

que antes hubiera sido identificada con la ilustración, en lugar del cine. Los ejemplos pueden ser: las

series de The Matrix, de los hermanos Wachowski; Immortal de Enki Bilal (2004); Sin City (2005) y

The Spirit (2008) de Robert Rodríguez; 300 (2007) y Watchmen (2009) de Zack Snyder; Avatar de

James Cameron (2009); Alice in Wonderland de Tim Burton (2010); y, Hugo de Martin Scorsese

(2011). Estas películas ejemplifican la práctica de grabar grandes partes del film usando un “fondo

digital” (es decir, una pantalla verde)17. Por consiguiente, la mayoría de las tomas en esas películas

están creadas mediante la composición de secuencias de actores con escenarios generados por

computadora y demás visuales.

Estas películas no yuxtaponen sus diferentes medios de forma tan dramática como los motion

graphics. Tampoco buscan una integración perfecta de visuales CGI (Computer-Generated Imagery) y

acción viva, que era característico de las primeras películas de efectos especiales de los 90’s:

Terminator 2 (1991) y Titanic (1997) de James Cameron. Más bien exploran el espacio que se

encuentra a la mitad, entre superposición e integración total.

Las escenas de Matrix, Sin City, 300, Alice In Wonderland, Hugo, entre otras, grabadas sobre un

fondo digital combinan múltiples medios para crear una nueva estética estilizada que no puede

reducirse a la apariencia familiar de las acción en vivo cinematográfica o a la animación 3D por

computadora. Estas películas muestran la misma lógica de los cortos con motion graphics, que a

primera vista pueden parecer muy diferentes. Esta lógica es la misma que la que se observa en la

creación de nuevos híbridos biológicos. Esto es, el resultado del proceso de hibridación no es

simplemente la suma mecánica de las partes antes existentes sino una nueva “especie”; una nuevo

tipo de estética visual que no existía antes.

En los comerciales de TV producidos en los 2000’s, ésta estética altamente estilizada se volvió una

de las apariencias clave de la época. Muchas capas de acción viva, elementos animados 2D y 3D,

efectos de partículas y demás que combinaban en un todo integrado. Este resultado tiene los códigos

del realismo (acortamiento de perspectiva, perspectiva atmosférica, correcta combinación de luces y

sombras), pero al mismo tiempo amplifica la realidad visible. (No podemos calificar esta estética de

“hiperreal” porque las imágenes creadas tienen un look distinto de las obras de artistas hiperreales

17 http://en.wikipedia.org/wiki/Digital_backlot

Page 13: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 13 / 55

como Denis Peterson, cuyos trabajos se veían como fotografías comunes). Nuestra percepción se

aumenta mediante: alto contraste en escala de grises; alta saturación de colores; pequeñas ondas de

partículas que emulan el movimiento de objetos; acercamientos a la textura de superficies (gotas de

agua, comida, piel, aparatos electrónicos, etc.); contrastes entre la texturas irregulares de la

naturaleza y suave degradados 2D y render 3D; la rápida transformación de la composición del

cuadro y la posición y dirección de la cámara (para ver más ejemplo de estas estrategias, se pueden

ver los comerciales de Psyop18).

Se puede decir que estos comerciales crean un “mapa” más grande que el territorio que representan,

debido a que muestran espacialmente más detalles y texturas y, al mismo tiempo, comprimen el

tiempo, moviéndose más rápido a través de la información. También podemos hacer una

comparación con los satélites que observan la Tierra, que capturan su superficie a un detalle

imposible para el humano (de la misma manera en que un ser humano no puede ver al mismo tiempo

el close-up de la superficie y los detalles del movimiento de los objetos presentados en el espacio

ficcional del comercial).

En resumen, el resultado del cambio a un ambiente de producción basado en software por parte de la

creación de la imagen en movimiento, es un nuevo lenguaje visual. Así como las técnicas individuales

de software que lo hacen posible, este lenguaje, como un todo, hereda los rasgos de medios

precedentes de imagen: cine, animación de acetato y modelos, animación por computadora,

fotografía, pintura, diseño gráfico y tipografía. Sin embargo, no se reduce a ninguno de estos medios.

Más bien, es una verdadero híbrido (hijo de medios de imagen del siglo XX que tiene rasgos de ellos

pero conservando su identidad).

Veamos al detalle dos cortometrajes para ver cómo la estética de la hibridación funciona a través de

toda la película. Sodium Fox de Blake (2005) y Untitled (Pink Dot) de Murata (2007) son excelentes

ejemplos de nuevos lenguajes visual híbridos que actualmente dominan la cultura de la imagen en

movimiento. Entre muchos artistas reconocidos que trabajan con imágenes digitales en movimiento,

Blake fue de los primeros en desarrollar exitosamente su estilo propio de medios híbridos. Su video

Sodium Fox es una combinación sofisticada de dibujos, pinturas, animación 2D, fotografía y efectos

disponibles en el software. Mediante una estrategia comúnmente usada por los artistas en relación

con los medios comerciales del siglo XX, Blake reduce el ritmo veloz de los motion graphics tal como

los vemos actualmente. Sin embargo, a pesar del ritmo lento, su densidad de información es similar a

los gráficos que vemos en clubes, videoclips, televisoras, y demás. Sodium Fox crea esta densidad

mediante una original exploración de la característica básica de los ambientes de producción basados

en software en general, y de After Effects en particular: la construcción de la imagen con varias capas.

18 http://www.psyop.tv/projects/live-action/ (October 31, 2012)

Page 14: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 14 / 55

Claro que la animación tradicional con acetato de inicios del siglo XX también implicaba la

construcción de una imagen con diferentes acetatos sobrepuestos (cada uno de ellos con diferentes

elementos de la imagen total, por ejemplo, uno podía tener una cara, otro los labios, otro el cabello,

otro un paisaje, etc.).

Con el software computacional, no obstante, los diseñadores pueden controlar precisamente la

transparencia de cada capa; también pueden añadir diferentes efectos visuales (como el desenfoque)

entre las capas. Como resultado, en lugar de crear una narrativa visual basada en el movimiento de

unos cuantos elementos visuales en el espacio (como era común en la animación del siglo XX, tanto

comercial como experimental), los diseñadores tienen ahora muchas nuevas maneras de crear

animación. Al explorar esta posibilidades, Blake confecciona su propio lenguaje visual en el cuál los

elementos visuales en diferentes capas están, continua y gradualmente, “sobrescritos” entre ellos. Si

conectamos este nuevo lenguaje con el cine del siglo XX, podemos decir que en las obras de Blake se

funden continuamente en diferentes elementos de la imagen (y no de todo del fotograma completo).

El resultado es una estética que equilibra la continuidad visual mediante un ritmo constante de re-

escritura y desvanecimiento visual y de superposición gradual.

Como Sodium Fox, Untitled (Pink Dot) de Murata también desarrolla su propio lenguaje dentro del

paradigma general de la hibridación de medios. Murata crea una imagen que pulsa y respira, dándole

una sensación biológica. En la última década, muchos diseñadores y artistas han usado algoritmos y

técnicas inspiradas de la biología para crear movimientos semejantes a los animales en sus

animaciones e interacciones generativas. Sin embargo, en el caso de Untitled (Pink Dot), la imagen

como todo parece cobrar vida.

Para crear este ritmo pulsante, similar a la respiración, Murata transforma material de acción viva

(escenas de la película Rambo, 1982) en una flujo de parches de colores abstractos (a veces parecen

pixeles gigantes y, otras, artefactos de alta compresión de imagen). Pero esta transformación nunca

llega a un estado final. Más bien, Murata ajusta constantemente el grado. (En términos de las

interfaces del software de medios, esto puede corresponder a la animación del parámetro de un filtro

o efecto). En un momento vemos imagen viva casi sin procesamiento; al siguiente se convierte en un

patrón completamente abstracto; a continuación, partes del acción viva se hace visibles y así.

En Untitled (Pink Dot), la condición general de la hibridación de medios se realiza como una

metamorfosis permanente. Es cierto, seguimos viendo ecos del movimiento en el espacio, que era el

método central de la animación pre-digital. (Aquí, éste es el movimiento de las figuras en las tomas de

Rambo). Pero ahora el verdadero cambio que importa es el que sucede entre diferentes estéticas de

medios: entre la textura del cine y los patrones abstractos pulsantes del flujo de parches de colores,

Page 15: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 15 / 55

entre la “vivacidad” original de las figuras humanas en acción (captadas por la película) y la

exagerada vivacidad artificial generada es procesadas por la máquina.

Visualmente, Untitled (Pink Dot) y Sodium Fox, no tienen mucho en común. Sin embargo, ambas

películas tienen la misma estrategia: crear una narrativa visual mediante transformaciones continuas

de las capas de la imagen, en comparación con los movimientos de trazos gráficos o caracteres,

común a la animación clásica comercial de Disney como a los experimentos de Norman McLaren,

Oskar Fischinger y otros. Aunque que podemos asumir que ni Blake ni Murata tenían este objetivo en

mente, cada artista de diferente manera muestra las técnicas claves e cambios conceptuales que

definen la nueva era de la hibridación de medios. El software de medios permite al diseñador

combinar cualquier número de elementos visuales sin importar su medio original y controlarlos en el

proceso. Esta habilidad básica puede ser explorada en varias estéticas visuales. Las películas de

Blake y Murata, con sus ritmos temporales diferentes y diferentes lógicas de combinación de medios,

ejemplifican esta diversidad. Blake usa capas de gráficos fijos, texto, animación y efectos, haciendo

visibles e invisibles los elementos. Murata procesa la acción viva para crear un flujo constante de

imágenes en donde parece que las dos capas (acción viva e imagen procesada) se empujan entre

ellas hacia afuera.

Remezcla profunda

Creo que la “hibridación de medios” es una nueva etapa esencial en la historia de los medios. Ésta se

manifiesta en diferentes áreas de la cultura del software y no sólo en las imágenes en movimiento

(aunque ésta última ofrece un ejemplo particularmente ejemplar de la nueva lógica cultural en

acción). Aquí, el ambiente del software creación se vuelve un plato de Petri en donde las técnicas y las

herramientas de la animación por computadora, cinematografía en vivo, diseño gráfico, animación

2D, tipografía, pintura y dibujo interactúan. Y como lo demuestran los ejemplos anteriores, los

resultados de los procesos de la hibridación son una nueva estética y nuevas “especies de medios”

que no pueden reducirse a la suma de los medios que intervinieron en su creación.

¿Podemos entender el nuevo leguaje híbrido de la imagen en movimiento como un tipo de remix?

Desde sus orígenes en la cultura musical de los 80’s, el remix ha surgido gradualmente como una

estética dominante de la era de la globalización, afectando y reformando todo: de la música y el cine a

la moda y la comida. (Si Frederic Jameson se refirió alguna vez al post-modernismo como “la lógica

cultura del capitalismo moderno”, quizá podemos llamar al remix “la lógica cultural del capitalismo

global interconectado”). Varios autores han estudiado los efectos del remix en muchas áreas

culturales, del uso de medios por niños japoneses (Mimi Ito) a la cultura web (Eduardo Navas). Entre

otro libros representativos, podemos mencionar: Rhythm Science (D. J. Spooky, 2004), Remix:

Page 16: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 16 / 55

Making Art and Commerce Thrive in the Hybrid Economy (Lawrence Lessig, 2008), Mashed Up:

Music, Technology, The Rise of Configurable Culture (Aram Sinnreich, 2010), Mashup Cultures

(editado por Stefan Sonvilla-Weiss, 2010) y Remix Theory: The Aesthetics of Sampling (Eduardo

Navas, 2012)19.

Creo que los mecanismos combinatorios responsables de la evolución del “metamedio por

computadora” en general y la nueva estética visual híbrida que surgió en los 90’s pueden ser

considerados un tipo de remix, siempre y cuando hagamos una distinción crucial. La remezcla típica

combina contenidos en un mismo medio. Por ejemplo, un remix musical puede combinar elementos

musicales de varios artistas; un videos musical de animé puede combinar partes de un film de animé

y música tomada de un video musical. Los motion graphics producidos profesionalmente también

mezclan contenido en un mismo medio y/o en diferentes medios. Por ejemplo, al inicio del video de

“Go” (Convert/MK12/Kanye West, 2005), el video cambia rápidamente entre la acción viva en un

cuarto y el modelo 3D del mismo cuarto. Más tarde, las tomas de acción viva también incorporan una

panta generada a computadora y fotografías fijas de un paisaje en las montañas. Las tomas de una

bailarina están combinadas con tipografía animada muy elaborada. Los personajes humanos se

transforman en patrones abstractos animados. Y así.

Estas remezclas del contenido de diferentes medios son comunes en la cultura contemporánea de la

imagen-movimiento. De hecho, empecé discutiendo el nuevos lenguaje visual señalando que, en el

caso de las formas cortas, constituyen la regla y no la excepción. Pero este tipo de remix es tan sólo

un aspecto de la “revolución de los híbridos”. Para mí, su esencia radica en algo más. Llamémoslo

“remezcla profunda”. Hoy, los diseñadores no sólo remezclan contenido de diferentes medios sino

además sus técnicas fundamentales, sus métodos de trabajo y sus formas de representación y

expresión. Unidos en un mismo ambiente de software, los lenguajes de la cinematografía, la

animación tradicional, la animación por computadora, los efectos especiales, el diseño gráfico, la

tipografía, el dibujo y la pintura conforman un metalenguaje. Un trabajo producido en este nuevo

metalenguaje puede usar todas técnicas, o un subconjunto de éstas, que antes eran exclusivas a

estos diferentes medios.

19 Mizuko Ito, “Mobilizing the Imagination in Everyday Play: The Case of Japanese Media Mixes,” in International

Handbook of Children, Media, and Culture, Sonia Livingstone y Kirsten Drotner, (eds) (Sage Publications, 2008);

Paul D. Miller, Rhythm Science (MIT Press, 2004); Lawrence Lessig. Remix: Making Art and Commerce Thrive in

the Hybrid Economy (Penguin Press HC, 2008); Aram Sinnreich, Mashed Up: Music, Technology, and the Rise of

Configurable Culture (University of Massachusetts Press, 2010); Stefan Sonvilla-Weiss, Mashup Cultures

(Springer, 2010); Eduardo Navas, Remix Theory: The Aesthetics of Sampling (Springer Vienna Architecture,

2012).

Page 17: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 17 / 55

Podemos ver este nuevo metalenguaje de las imágenes en movimiento como una gran librería de

todas las técnicas precedentes para crear y modificar imágenes en movimiento. Un diseñador de

imágenes animadas selecciona técnicas de la librería y las combina en una sola secuencia o en un

solo fotograma. Pero este marco es engañoso. ¿Cómo combina exactamente estas técnicas?, Cuando

remezclamos contenido, es fácil imaginarse diferentes textos, audios, elementos visuales o flujos de

datos puestos los unos junto a los otros. Imagina un típica collage del siglo XX excepto que ahora se

mueve y cambia con el tiempo. ¿Pero cómo remezclar las técnicas mismas?

En los casos de las interfaces de los medios híbridos que ya hemos analizado (como la interfaz de

Acrobat), el “remix” de las técnicas significa simple combinación. Las diferentes técnicas aparecen,

literalmente, una junto a otra en la UI de la aplicación. En Acrobat: un botón para adelantar y

retroceder, uno para zoom, otro para “encontrar”, y otros más, están puestos juntos en la barra de

herramientas superior al documento en lectura. Otras técnicas aparecen como herramientas en las

listas verticales de los menús: deletrear, buscar, email, imprimir, etc. Vemos los mismos principios en

las interfaces de todas las aplicaciones de creación y edición de medios. Las técnicas tomadas de

varios medios se presentan con las convenciones de la UI.

Esta “adición de técnicas” que existe en un solo espacio, combinadas sin más necesidad de

interacción está también presente en el remix de contenidos familiares: moda, diseño, arquitectura,

collages, motion graphics. Pensemos en el ejemplo hipotético de un diseño visual que combina

elementos de dibujo, fotos y formas 3D a computadora. Cada uno de estos elementos visuales es el

resultado del uso de particulares técnicas de medios para el dibujo, la fotografía y las gráficas

computacionales. Entonces, a pesar de que nos podemos referir a estos objetos culturales como

remezclas de contenidos, también está justificado decir que son remezclas de técnicas. Esto aplica

también para el diseño pre-digital, cuando un diseñador podía usar herramientas y máquinas físicas

separadas; y para el diseño contemporáneo con software, en el diseñador accede a todas estas

herramientas con unos cuantos software compatibles.

Mientras las piezas del contenido, o los botones de la interfaz, o las técnicas estén simplemente

añadidas en lugar de estar completamente integradas, no necesitamos un término especial como el

de la “remezcla profunda”. Lo anterior sigue siendo, para mí, “remix” en el sentido más común del

término. Pero en el caso de la estética de la imagen en movimiento también vemos algo más. En lugar

de una simple añadidura, vemos interacciones entre las técnicas previamente separadas de la

animación por acetato, cine, animación 3D, diseño y demás. Estas interacciones antes eran

impensables. (El mismo argumento puede ser hecho en relación con otros tipos de objetos culturales

y experiencias creadas con el software de creación de medios, como los diseños visuales y la música).

Page 18: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 18 / 55

Creo que esto es algo que ni los pioneros de los medios por computadora de los 60’s-70’s, ni los

diseñadores de las primeras aplicaciones de producción de medios que aparecieron en los 80’s,

tenían pensado. Sin embargo, una vez que todas estas técnicas de medios se unieron en un mismo

ambiente de software (lo que se fue volviendo más sólido en los 90’s), empezaron a interactuar de

formas que no hubieran podido imaginar o predecir anteriormente.

Por ejemplo, aún cuando las técnicas particulares de los medios siguen usándose con relación a su

medio original, también se pueden aplicar a otros medios. Los filtros de Photoshop, que analizamos

previamente, ilustran bien este efecto de “esparcimiento”: las técnicas que originalmente pertenecían

a un medio en particular ahora se puede aplicar a otros tipos de medios. Por ejemplo, los filtros

resplandor de neón, vidriera o destello, pueden ser aplicados a fotografías y bocetos. (Más

precisamente, pueden ser aplicados a cualquier archivo cargado en la memoria gráfica y que esté en

la ventana del documento).

He aquí algunos ejemplos típicos de la estrategia distribuida usada en el diseño de imágenes en

movimiento. El texto ejecuta una coreografía en el espacio 3D; un desenfoque animado se aplica en

un gráfico computacional 3D; campos de partículas generados algorítmicamente que se fusionan con

acción viva; una cámara virtual que se mueve alrededor de un espacio virtual lleno de dibujos 2D.

Para cada caso, la técnicas que fue asociada originalmente con un medio en particular se aplica

ahora a otro tipo de medio. Hoy, un cortometraje típico o una secuencia puede combinar muchos de

estos pares en un mismo fotograma. El resultado es un lenguaje híbrido, intricado, complejo y rico en

medios (o más bien numerosos lenguajes que comparten la lógica de la remezcla profunda).

De hecho, estas interacciones entre técnicas virtualizadas de medios define la estética cultura de la

imagen en movimiento contemporánea. Por eso he decidido acuñar un término especial (la remezcla

profunda). Mi idea es distinguir dos partes. Por un lado, las formas complejas de interacciones entre

técnicas (como las distribuidas a través de varios medios). Por otro lado, la simple remezcla de

técnicas y contenidos de medios con las que somos familiares, ya sea música, animés, arte

postmoderno de los 80’s, arquitectura, etc.

Para ejemplos concretos del “efecto distribuido” que ejemplifica la remezcla profunda, podemos

retomar el mismo video “Go” y verlo de nuevo, pero ahora desde una perspectiva diferente. Antes

habíamos señalado las formas en que combina elementos visuales de diferentes tipos de medios:

acción viva, fotografías fijas, elementos generados proceduralmente, tipografía, etc. Sin embargo,

exactamente las mismas tomas también contienen ejemplos de las interacciones entre técnicas, que

sólo son posibles en un ambiente de diseño con software.

Page 19: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 19 / 55

Cuando el video empieza, una estructura de bloques y páneles, monocromáticos perpendiculares,

crece rápida y simultáneamente en el espacio y rota para ubicarse en una posición que permite

reconocer que se trata de un cuarto (00:07–00:11). Después, el cuarto se transforma de una

estructura geométrica abstracta en una foto-realista: aparecen muebles, la textura de madera rueda

por el piso y una vista panorámica de una montaña llena la ventana. Aunque los diferentes estilos de

render de gráficos computacionales ha estado disponible en software de animación de los 80’s, la

forma particular en que el video abre con una estructura 3D monocromática es un ejemplo claro de

remezcla profunda. A mediados de los 90’s, los diseñadores gráficos empezaron a usar software de

animación por computadora; trajeron sus técnicas y sensibilidad a la animación por computadora

que, hasta esas épocas, eran usadas al servicio del foto-realismo. Las fuertes composiciones

diagonales, la intencional interpretación aplanada y la elección de colores en la apertura del video

“Go” subordina las técnicas de foto-realismo de los gráficos computacionales a una específica

disciplina visual y, de ahí, a un diseño gráfico moderno. La estructura animada 3D hace referencia al

suprematismo de Malevich y Lissitzky, quienes jugaron un rol clave en la creación de la gramática del

diseño moderno y que, en nuestro ejemplo, se ha vuelto un filtro “conceptual” que ha transformado

los gráficos computacionales.

Después de una pausa momentánea que sirve para identificar bien el cuarto, cuya construcción ha

sido casi completada, una cámara rota repentinamente 90 grados (00:15 – 00:17). Esta cámara

imposible físicamente es otro ejemplo de remix profundo. Mientras el software de animación

implementa la gramática estándar de la cinematografía del siglo XX (paneo, zoom, dolly, travelling,

etc.), el software no tiene el límite del mundo físico. Por consecuencia, una cámara se puede mover

en dirección arbitraria, seguir una curva imaginaria y hacer esto a cualquier velocidad. Estos

movimientos de cámara imposibles se vuelven herramientas estándar del diseño contemporáneo de

medios y de la cinematografía del siglo XXI; a partir de los 2000’s, los vemos cada vez más seguido en

las películas. Así como los filtros Photoshop, que se pueden aplicar a cualquier composición visual, los

movimientos de cámara virtual también se pueden estar superpuestos en cualquier escena sin

importar que haya sido modelada en 3D, generada proceduralmente, capturada en video,

fotografiada, dibujada o, como en el video de nuestro ejemplo, hecha de una combinación de

diferentes medios.

Siguiendo adelante en el video (00:15–00:22) notamos otra interacción previamente imposible entre

las técnicas de los medios. Esta interacción es una reflexión del lente que se mueve lentamente a

través de toda la escena. La reflexión del lente era originalmente un artefacto de la tecnología de la

cámara y ahora se ha vuelto un filtro (es decir, una técnica que puede ser “dibujada” sobre una

cualquier imagen construida con las técnicas disponibles al diseñador). Si queremos una prueba más

de que estamos frente a una técnica visual, notemos que la “reflexión del lente” se mueve mientras la

Page 20: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 20 / 55

cámara se queda perfectamente estática (00:17–00:22), lo que es lógicamente imposible pero

sacrificado a favor de una experiencia visual más dramática.

Me he referido al nuevo lenguaje de la imagen en movimiento como un “meta-lenguaje”. Como

nuestra argumentación ha estado basada en el término “metamedio computacional”, ahora debo

explicar la conexión entre ambos términos.

La aceleración de los cambios sociales, tecnológicos y culturales en la segunda parte del siglo XX ha

llevado al uso frecuente de los prefijos “meta”, “hiper” y “super” en la teoría y crítica cultural. Desde el

Superstudio (un grupo de arquitectura conceptual muy activo en los 60’s), los hipermedios de Ted

Nelson y el metamedio de Alan Kay al más reciente supermodernismo e hipermodernidad20, estos

términos pueden ser vistos como intentos por capturar el sentimiento de haber pasado a una viaje a

la velocidad de la luz. Así como los cosmonautas contemplaban la Tierra en los años 60’s desde las

órbitas de sus naves espaciales y por primera vez como un solo objeto, parece que también nosotros

estamos viendo la historia de la humanidad desde otra órbita. Esta connotación parece encajar con la

redefinición práctica y conceptual de la computadora digital como metamedio, que incluye la mayoría

de las tecnologías y técnicas de los medios existentes así como la invención de muchas nuevas.

Sabemos que el término de “metalenguaje” tiene significados precisos en la lógica, la lingüística y la

computación, pero aquí estamos usándolo en un sentido similar al de Alan Kay cuando usa “meta” en

“metamedio”. Normalmente un metalenguaje se refiere a un sistema formal separado para describir

medios o lenguajes culturales (así como la gramática describe cómo un lenguaje natural particular

funciona). Pero no es así como Kay usa el prefijo. Él lo ve como reunión-inclusión-colección, en breve,

juntar cosas que antes estaba separadas.

Imaginemos este metamedio computacional como una conjunto de recursos vasto y en constante

expansión. Este metamedio incluye todas la técnicas de creación y manipulación de medios, formas

de interacción y formatos de datos disponibles a programadores y diseñadores en su actual momento

histórico. Todo está aquí: desde algoritmos para ordenar y buscar hasta los menús desplegables,

pasando por las técnicas de render de agua y cabello, video juegos, inteligencia artificial y métodos de

interfaces multi-touch.

Si vemos cómo se usan estos recursos en diferentes áreas culturales para crear tipos particulares de

contenidos y experiencias, veremos que cada uno de ellos sólo emplea un subconjunto de todos los

recursos disponibles. Por ejemplo, las interfaces gráficas de los sistemas operativos de hoy en día

(Windows, Linux, Mac OS) usan íconos estáticos. En contraste, en algunas interfaces de aparatos

20 http://en.wikipedia.org/wiki/Hypermodernity

Page 21: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 21 / 55

electrónicos (como cierto teléfonos celulares) vemos que casi todos los íconos tienen algún tipo de

animación.

Además, el uso de un subconjunto de todos los elementos existentes no es al azar, sigue una serie de

convenciones particulares. Algunos elementos siempre van juntos. En otros casos, el uso de algún

elemento pondría en contradicción el uso de otro. En otras palabras, las diferentes formas de medios

digitales usan diferentes subconjuntos de todas las técnicas que permite un metamedio

computacional y dicho uso sigue patrones discernibles.

Si estás notando los equivalentes entre lo que los críticos culturales llaman un “lenguaje artístico”, un

“estilo” o un “género”, estás en lo correcto. Cualquier obra literaria u obra de algún autor o

movimiento literario emplea solamente una parte de las técnicas literarias existentes, y este uso sigue

ciertos patrones. Lo mismo puede decirse del cine, de la música y de todas las demás formas

culturales reconocidas. Esto nos permite hablar del estilo de una novela o película en particular, o del

estilo de un autor o de un movimiento en general. (Los investigadores de cine David Bordwell y Kristin

Thompson llaman a esto un “sistema estilístico” que definen como un “uso de técnicas modelado y

significante”. En el caso del cine, dividen éstas técnicas en cuatro categorías: puesta en escena,

cinematografía, edición y sonido21). Cuando todo un campo cultural puede ser dividido en unos

cuantos grupos de trabajo distintos, en cada uno comparte un patrón o modelo, generalmente

hablamos de “géneros”. Por ejemplo, los teóricos del antiguo teatro griego identifican comedias y

tragedias, y prescriben las reglas que cada género sigue. Hoy, las compañías usan software

automatizado para clasificar blogs en diferentes géneros.

Si por “medio” entendemos un conjunto de recursos tecnológicos estándar, ya sea un escenario físico

o una cámara de cine, luces y celuloide, podemos ver que cada medio soporta generalmente

múltiples lenguajes-estilos-géneros artísticos. Por ejemplo, el medio de la cinematografía del siglo XX

soportaba el montaje ruso de los 20’s, el neorrealismo italiano de los 40’s, la nuevo ola francés de los

60’s, las películas fantásticas de Kung Fu de los 80’s en Hong Kong, el cine chino de “quinta

generación” de los 80-90’s, etc.

De forma similar, un metamedio computacional puede soportar múltiples metalenguajes culturales o

artísticos. En otras palabras, en el esquema teórico que propongo, sólo hay un solo metamedio, pero

muchos metalenguajes.

21 David Bordwell & Kristin Thompson, Film Art: an Introduction, 5ª. edición (The McGraw-Hill Companies, 1997),

p. 355.

Page 22: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 22 / 55

Entonces, ¿qué es un metalenguaje? Se definimos un lenguaje artístico como un uso modelado (o

que sigue un patrón) de un selecto número de técnicas disponibles en un medio dado22 , un

metalenguaje es un uso modelado de un subconjunto de todas las técnicas disponibles en el

metamedio computacional. Pero no cualquier subconjunto. De hecho, sólo tiene sentido hablar de

metalenguaje (en oposición a lenguaje) si las técnicas que usa vienen de diferentes lenguajes

culturales previos. Como ejemplo, pensemos en el metalenguaje de los globos terráqueos virtuales

populares y comerciales (Google Earth o Microsoft Bing Maps). Estas aplicaciones combinan

sistemáticamente diferentes tipos de formatos de medios y técnicas de navegación de medios que

previamente estaba separadas. Estas combinaciones siguen patrones comunes. Otro ejemplo sería el

metalenguaje común a muchas interfaces gráficas de usuario (recordemos mi análisis a la interfaz de

Acrobat, que combina metáforas de diferentes tradiciones de medios).

Debido a que las imágenes en movimiento de hoy combinan técnicas de diferentes medios visuales

que casi nunca se encontraron hasta mediados de los 90’s, podemos usar justificadamente el

término “metalenguaje” en su caso. El diseño visual de hoy tiene su propio metalenguaje, que a su

vez es un subconjunto del metalenguaje de las imágenes en movimiento. Esto se explica porque el

diseñador de imágenes en movimiento tiene acceso a todas las técnicas de un diseñador visual y

otras más debido a que trabaja con la dimensión adicional del tiempo. Estos dos metalenguajes se

sobreponen en cuanto a patrones que les son comunes, pero hay algunas diferencias importantes.

Por ejemplo, sucede muy seguido que la imagen en movimiento de hoy navegue por un espacio 3D

junto con otros elementos 2D. En contraste, los diseños visuales de los medios impresos y del web

son generalmente bidimensionales: reúnen sus elementos en una superficie plana imaginaria (Tengo

la impresión de que la principal insistencia en esta planitud es que estos diseños existen junto a largo

bloques de texto existentes en 2D).

Capas, transparencia y composición

Hasta ahora nos hemos enfocado en la estética de las imágenes en movimiento que surgieron a partir

de la Revolución de Terciopelo. Para continuar esta investigación, pondremos más atención al análisis

del nuevo ambiente de producción basado en software que hizo posible esta estética. Las siguientes

secciones del presente capítulo observarán las herramientas de After Effects y demás aplicaciones de

creación de medios, sus interfaces y las formas en que se usan en conjunto durante la producción (o

sea, en el flujo de diseño). En lugar de estudiar todas las propiedades de las herramientas y de las

interfaces, resaltaremos un par de supuestos fundamentales (formas de entender lo que es un

22 Esta definición es adoptada de Bordwell & Thompson, Film Art, p. 355.

Page 23: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 23 / 55

proyecto de imágenes en movimiento) que, como veremos, son muy diferentes de cómo fueron vistos

en el siglo XX.

Probablemente el cambio más drástico sucedió entre 1993 y 1999, con la habilidad de combinar

múltiples niveles de imágenes con diferentes grados de transparencia mediante la composición

digital. Si comparamos un típico video musical o un spot de TV de 1986 con su contraparte de 1996,

las diferencias son sorprendentes. (Lo mismo pasa con otras áreas del diseño visual). Como ya lo

hemos dicho, en 1986 los “bancos de memoria informatizados” eran limitados en su capacidad de

almacenamiento y prohibitivamente caros. Los diseñadores no podían cortar y pegar fácilmente

múltiples fuentes de imágenes. Y cuando se lograban ensamblar varias referencias visuales, los

diseñadores sólo podían ponerlas al lado o encimarlas. No se podía modular con precisión su

composición mediante el ajuste de niveles de transparencia de uno o todas las imágenes. Más bien,

se tenía que conformar con las técnicas de fotomontaje popularizadas en los años 20’s. En otras

palabras, la falta de transparencia restringió el número de diferentes fuentes de imágenes que se

podían integrar en una misma composición sin que parecieran foto-collages de John Heartfield,

Hannah Hoch o Robert Rauschenberg (un mosaico de fragmentos sin algún dominante claro)23.

Además de permitir la superposición de muchas capas transparentes, la composición digital también

facilitó otra operación que antes era muy complicada. Hasta los 90’s, diferentes tipos de medios,

como la animación a mano, las grabaciones ópticas y la tipografía, prácticamente nunca aparecían en

un mismo cuadro. Más bien, aparecían en diferentes tomas, como se veía en algunos comerciales,

spots y películas experimentales. Poco directores lograron crear un sistema estético a partir de dichas

yuxtaposiciones, por ejemplo Jean-Luc Godard. En sus realizaciones sesenteras, como Weekend

(1967), Godard insertaba tipografías gruesas entre la acción viva, creando lo que se puede llamar un

“media-montaje” (en oposición al montaje de tomas de acción viva, tal como lo hicieron los rusos de

los años 20’s). También en los 60’s, el pionero de los motion graphics Pablo Ferro, quien

apropiadamente llamó a su compañía Frame Imagery, creó cortos promocionales y gráficas de TV que

jugaban con la yuxtaposición de diferentes medios, reemplazándose mutua y rápidamente24. En

varios trabajos de Ferro, se observan imágenes estáticas de diferentes formas de letras, líneas de

dibujos, pinturas hechas a mano, fotografías, secuencias cortas de noticias, y demás visuales, que

venían uno después del otro a una velocidad rapidísima.

23 En el caso del video, uno de los factores que dificultaba la combinación de múltiples visuales era la rápida

degradación de su señal cuando era copiado más de un par de veces. Una copia no ya no cumplía con los

estándares de teledifusión. 24 Jeff Bellantoni & Matt Woolman, Type in Motion (Rizzoli, 1999), pp. 22–9.

Page 24: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 24 / 55

En el cine, la superposición de diferentes medios en el mismo cuadro estaba usualmente limitada a

dos medios encimados de manera estándar, es decir, las letras estáticas que aparecen sobre

imágenes fijas o en movimiento en las secuencias de los créditos de entrada. En los 60’s, tanto Ferro

como otro pionero de los motion graphics, Saul Bass, crearon algunas secuencias de créditos

remarcables, en donde los elementos visuales de diferente origen se sobreponían más

dinámicamente (como los créditos de Vertigo de Alfred Hitckcock hechos por Bass en 1958). (La

secuencia de Bass hecha en 1959 para North by Northwest es considerada como el primer uso de

tipografía en movimiento).

Creo que podemos decir estas complejas yuxtaposiciones de medios en un mismo cuadro eran

excepciones raras en el universo de “unimedios”, en donde las imágenes filmadas aparecían en

películas y las imágenes dibujadas en cine de animación. El único director de cine del siglo XX que sé

que haya construido su estética única mediante la combinación sistemática de diferentes medios en

el cuadro fue Karel Zeman. Así, una típica toma de Zeman podía contener figuras humanas filmadas,

un antiguo grabado como fondo y un modelo miniatura25.

Los logros de estos directores y diseñadores son particularmente sorprendentes debido, sobretodo, a

la dificultad que existía para combinar diferentes medios en el mismo fotograma en aquella época.

Para hacer esto era necesario utilizar los servicios de efectos especiales de diferentes compañías que

usaban impresoras ópticas. Algunas técnicas que eran más baratas y accesibles, como la doble

exposición, eran limitadas en cuanto a su precisión. Mientras los diseñadores de imágenes estáticas

podían por lo menos cortar y pegar múltiples elementos en la misma composición para crear un

fotomontaje, su equivalente en cuanto a imágenes en movimiento no era para nada trivial.

Para poner todo esto en términos más generales podemos decir que antes de la informatización de

los 90’s, las habilidades de los diseñadores para acceder, manipular, remezclar y aplicar filtros a la

información visual, fija o en movimiento, estaban algo limitadas. De hecho, eran las mismas que cien

años antes. En retrospectiva, podemos ver que iban en contra de la flexibilidad, velocidad y precisión

de la manipulación de datos que ya se practicaba en la mayoría de los campos computacionales

profesionales (ciencias, ingeniería, contabilidad, gestión, etc.). Entonces, sólo fue cuestión de tiempo

antes de que todos los medios de imágenes se convirtieran en datos digitales y que los ilustradores,

diseñadores gráficos, animadores, editores de películas y video, y diseñadores de gráficos animados

empezaran a manipularlos vía software en lugar de las herramientas tradicionales. Pero esto es obvio

en nuestros días, después de la Revolución de Terciopelo.

25 Mientras que los efectos especiales del cine combinaban seguido diferentes medios, se usaban en conjunto

para crear un solo espacio ilusorio, en lugar de sobreponer para el efecto estético, como en las películas y

secuencias de Godard, Zeman, Ferro y Bass.

Page 25: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 25 / 55

En 1985, Jeff Stein dirigió un video musical para el sencillo “You Might Think” del grupo new wave The

Cars. Este video fue uno de los primeros en usar sistemáticamente gráficas computacionales; tuvo un

gran impacto en el mundo del diseño y MTV le otorgó el primer lugar en sus primeros premios a la

música. Stein logró crear un mundo surreal en donde la cabeza de uno de los integrantes de la banda

estaba animada sobre diferentes fondos de video. En otras palabras, Stein tomó la estética de las

caricaturas (personajes 2D animados, superpuestos sobre un fondo 2D) y la recreó usando imágenes

de video. Además, también añadió elementos animados por computadora sencillos para resaltar el

efecto surreal. Esto era perturbador porque nadie había visto dichas yuxtaposiciones antes. De

repente, el foto-montaje modernista cobró vida. Pero diez años después, esos video-collages no sólo

se han vuelto ubicuos sino también más complejos, con más capas y más sutiles. En lugar de dos o

tres capas, una composición ahora puede tener cientos e incluso miles de capas. Cada una con su

propio nivel de transparencia.

En resumen, la composición digital de hoy ha permitido a los diseñadores de imágenes en movimiento

combinar fácilmente cualquier número de elementos visuales sin importar su medio de origen y

controlar cada uno de ellos en el proceso. Podemos hacer una analogía entre la grabación multicanal

de audio y la composición digital. En la primera, cada pista de sonido puede ser manipulada

individualmente para producir un resultado determinado. Igualmente, en la composición digital, cada

elemento visual puede ser modulado independientemente de varias formas: redimensionado,

coloreado, animado, etc. Así como el artista musical se puede concentrar en una pista en particular al

silenciar todas las demás, el diseñador desactiva todas las capas excepto la que está ajustando. De

manera similar, tanto un músico como un diseñador pueden en todo momento sustituir un elemento

de la composición por otro, borrarlos o añadir otros. Pero lo más importante, así como la grabación

multicanal redefinió el sonido de la música popular desde los 70’s, una vez que la composición digital

se volvió accesible en los 90’s, cambió fundamentalmente la estética visual de la mayoría de las

formas de imagen en movimiento.

Esta discusión sólo ha evocado la superficie del tema de esta sección: capas y transparencia. Por

ejemplo, no hemos analizado las técnicas reales de la composición digital ni tampoco el concepto

fundamental de un canal alfa, que merece un tratamiento separado y detallado. Tampoco hemos

visto las posibles historias de medios que han llevado a la composición digital, ni hemos examinado

su relación con las tecnologías de impresión óptica, de manipulación y de efectos de video de los

años 80’s. Estas historias y relaciones fueron examinadas en el capítulo “Compositing” de The

Language of New Media, aunque desde una perspectiva diferente a la que hemos tomado aquí. En

aquel tiempo (1999), me interesaba en la composición a partir de la cuestión del realismo cinemático,

las prácticas de montaje y la construcción de efectos especiales en películas. Hoy, sin embargo, me

Page 26: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 26 / 55

queda claro que además de alterar el régimen del realismo cinemático en favor de otra estética

visual, la composición digital ha tenido otro, y más fundamental, efecto.

A finales de los 90’s, la composición digital se ha vuelto la operación básica en la creación de todo

tipo de imágenes en movimiento, y no sólo en películas de gran presupuesto. Así que, mientras que

originalmente fue desarrollada como una técnica de efectos especiales, en los 70’s e inicios de los

80’s26, la composición digital ha tenido un efecto más amplio en la cultura visual y de medios

contemporánea, más allá de los efectos especiales. La composición ha jugado el rol principal que ha

convertido a la computadora digital en una especie de laboratorio experimental (o una placa de Petri)

en donde diferentes medios se encuentran, con sus técnicas y estéticas, para ser combinados para

crear nuevas especies. En breve, la composición digital ha sido esencial en el desarrollo del nuevo

lenguaje visual híbrido de las imágenes en movimiento que hoy vemos en cualquier parte.

Al inicio definido como una técnica digital particular diseñada para integrar la acción viva del cine con

las gráficas computacionales de secuencias de efectos especiales, la composición digital se ha vuelto

un “integrador universal de medios”. Y aunque fue originalmente creado para soportar la estética del

realismo cinemático, con el tiempo ha tenido en realidad el efecto contrario. En lugar de llevar a los

medios hacia una fusión perfecta, la composición más bien ha llevado al surgimiento de nuevos

híbridos de medios en donde la yuxtaposición entre la acción viva y los algoritmos generativos, la 2D y

la 3D, los medios bitmap y los vectoriales, se hace deliberadamente visible en lugar de ocultarse.

La interfaz de After Effects: del t iempo a la composición

Mi tesis sobre la hibridación de los medios aplica tanto a los objetos culturales como al software

usado para crearlos. Así como los medios de imagen en movimiento hechos por los diseñadores de

hoy combinan formatos, supuestos y técnicas de diferentes medios, las herramientas e interfaces del

software que usan también se remezclan. Tomemos una vez más After Effects como caso de estudio

para ver cómo su interfaz remezcla los diferentes métodos de trabajo previos en distintas disciplinas.

Cuando los diseñadores de imágenes en movimiento empezaron a usar software de composición y

animación como After Effects, su interfaz les invitaba a pensar dichas imágenes de una nueva forma.

Los sistemas de edición de cine y video que fueron denominados como editores no lineales

26 Thomas Porter & Tom Duff, “Compositing Digital Images,” ACM Computer Graphics 18, no. 3 (julio 1984): pp.

253–9.

Page 27: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 27 / 55

(ejemplificados por Avid, Premiere y Final Cut27) conceptualizaron un proyecto de medios como una

secuencia de tomas organizada en el tiempo. Consecuentemente, mientras los editores no lineales

(abreviados como NLE por sus siglas en inglés) dieron al usuario muchas herramientas para ajustar

los cortes, dieron por supuesto la constante del lenguaje cinematográfico que vino con su

organización industrial (todos los cuadros tienen el mismo tamaño y relación de aspecto). Este es un

ejemplo de un tendencia más grande. Durante la primera etapa del desarrollo de software cultural,

sus pioneros exploraban las posibilidades del nuevo metamedio computacional en cualquier vía que

les interesara, debido a que su uso comercial no era aún una opción viable (a excepción del software

CAD). Sin embargo, al inicio de los 80’s, una nueva generación de empresas (Aldus, Autodesk,

Macromedia, Adobe, entre otras) empezaron a producir software basado en GUI para industrias

particulares: producción de TV, diseño gráfico, animación, etc. Como resultado, muchos de los

principios del flujo de trabajo, convenciones de interfaz y limitaciones de las tecnologías estándares

de medios empezaron a recrearse metódicamente en el software(aún cuando el software mismo no

tenía dichas limitaciones). El software de los NLE es un caso ejemplar. En contraste, desde su inicio,

la interfaz de After Effects introdujo un nuevo concepto de la imagen en movimiento como una

composición organizada en el tiempo y en el espacio.

El corazón de la interfaz de After Effects es una Composición, conceptualizada como un gran lienzo

que juega el rol de fondo de los elementos visuales que pueden tener tamaños, proporciones y

contenidos arbitrarios (videos, fotos, gráficos abstractos, texto, etc.). Cuando yo empecé a usar After

Effects poco después de que salió, recuerdo haberme sorprendido de que el software no ajustara los

gráficos automáticamente al tamaño del cuadro a medida que los añadía a la ventana de la

Composición. El supuesto cinematográfico fundamental que lo había acompañado durante toda su

historia había desaparecido (que el cine consiste en muchos cuadros del mismo tamaño y relación de

aspecto).

Para los paradigmas de edición de cine y video del siglo XX, la unidad mínima en la cuál trabaja un

editor es el cuadro. El editor puede cambiar la duración de un corte, ajustar en dónde empieza o

acaba un segmento, pero no puede modificar directamente el contenido del cuadro. El cuadro

funciona como un tipo de “caja negra” que no puede ser “abierta”. (Este era el trabajo de las

compañías y departamentos de efectos especiales). Pero en la interfaz de After Effects, la unidad

básica no es el cuadro sino un elemento visual puesto en la ventana de la Composición. Cada

elemento está conceptualizado como un objeto independiente. En consecuencia, una composición de

medios se entiende como un conjunto de objetos independientes que puede cambiar con el tiempo.

La palabra misma “composición” es importante en este contexto debido a que hace referencia a

27 La funcionalidad de la composición se añadió gradualmente con el tiempo a la mayoría de los editores no

lineales. Hoy la distinción entre las interfaces de After Effects, Flame, Avid y Final Cut es menos pronunciada.

Page 28: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 28 / 55

medios 2D (dibujo, pintura, fotografía, diseño) en lugar de la cinematografía (es decir que el espacio

se opone al tiempo).

¿De dónde salió la interfaz de After Effects? Dado que este software es comúnmente usado para

crear gráficos animados y efectos visuales, no es sorprendente que los elementos de su interfaz

pueden remontarse a tres campos distintos: animación, diseño gráfico y efectos especiales. Y debido

a que estos elementos están íntimamente integrados para ofrecer al usuario una nueva experiencia

que no se puede reducir a la simple suma de los métodos de trabajo existentes, es razonable pensar

la UI de After Effects como un ejemplo de “remix profundo”.

En la animación tradicional del siglo XX, un animador sobreponía acetatos transparentes entre ellos.

Cada acetato contenía un dibujo diferente, por ejemplo el cuerpo de un personaje en uno, la cabeza

en otro, los ojos en otro, etc. Como los acetatos eran transparentes, los dibujos se “componían”

automáticamente en un solo cuadro. A pesar de que la metáfora de After Effects no usa un pila de

acetatos directamente, sí está basado en el mismo principio. Cada elemento en la ventana de la

Composición tiene una “profundidad virtual” relativa a todos los demás elementos. Todos juntos

forman un apilamiento virtual. En cualquier momento, el diseñador puede cambiar la posición relativa

de un elemento, borrarlo o añadir nuevos.

También se puede ver una conexión entre la interfaz de After Effects y otra técnica de animación

popular del siglo XX: el stop motion. Para crear tomas stop motion, los muñecos o cualquier otro

objeto 3D se ponían frente a la cámara de cine y se iban animando manualmente, paso por paso. Por

ejemplo, un animador podía ajustar la cabeza de un personaje, moviéndola progresivamente de

izquierda a derecha en pequeños pasos. Después de cada paso, el animador hacía una toma en la

película, después hacía otro ajuste y exponía de nuevo, etc. (Entre los animadores y cineastas que

usaron creativamente esta técnica están: Wladyslaw Starewicz, Oskar Fischinger, Aleksandr Ptushko,

Jiří Trnka, Jan Svankmajer, y los hermanos Quay).

De la misma manera que las prácticas de animación con acetato y stop motion, After Effects no hace

ningún supuesto sobre el tamaño o posición de los elementos individuales. En lugar de trabajar con

unidades de tiempo estándar (o sea con fotogramas de contenido visual fijo), un diseñador ahora lo

hace con elementos visuales separados. Un elemento puede ser un cuadro de video digital, una línea

de texto, una forma geométrica, etc. El trabajo final es resultado de una disposición particular de

estos elementos en el tiempo y espacio. Por consecuencia, un diseñador que usa After Effects puede

compararse con un coreógrafo que hace una danza “animando” los cuerpos de los bailarines,

especificando cuando entran y salen de escena, sus trayectorias en el espacio y los movimientos que

hacen. (Al respecto, es relevante señalar que aunque After Effects no hace referencia directa, otro

Page 29: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 29 / 55

software que era comúnmente usado para el diseño de multimedios, Macromedia Director, sí se

refería explícitamente a la metáfora del teatro en su interfaz de usuario).

Aunque se puede vincular la interfaz de After Effects con los métodos de animación tradicional, tal

como fueron usados por estudios comerciales, el método de trabajo que recalca este software está

más relacionado con el diseño gráfico. En los estudios comerciales de animación del siglo XX, todos

los elementos (dibujos, escenarios, personajes, etc.) se preparaban con anticipación. La

cinematografía misma era un proceso mecánico. Por supuesto que se pueden encontrar excepciones

a esta separación de tareas en la animación experimental, en donde una película era hecha

generalmente por una persona. Esto permitía al cineasta inventar una película sobre la marcha, en

lugar de tener todo listo con antelación. Un ejemplo clásico de esto es la Motion Painting 1 de Oskar

Fischinger, creada en 1949. Fischinger hizo este film de 11 minutos mediante la modificación

constante de una pintura y su exposición en celuloide en cada paso. Este proceso le llevó nueve

meses. Como Fischinger estaba filmando en celuloide, tuvo que esperar un largo tiempo antes de ver

sus resultados. Así como lo ha dicho el historiado de animación abstracta William Moritz, “Fischinger

pintaba diario durante cinco meses sin saber cómo iba quedando su película, sobretodo porque

quería mantener absolutamente las mismas condiciones, incluyendo el celuloide, para evitar

variaciones inesperadas en la calidad de la imagen”28. En otras palabras, crear una animación y ver

el resultado estaban aún más separadas que un proceso de animación comercial.

Por el contrario, un diseñador gráfico trabaja en “tiempo real”. A medida que añade nuevos

elementos, ajusta sus posiciones, colores y demás propiedades, prueba diferentes imágenes, cambia

el tamaño de la tipografía, etc., puede ver inmediatamente el resultado de su trabajo29. After Effects

adopta este método de trabajo al hacer de su ventana de Composición el centro de su interfaz. Como

un diseñador tradicional, el usuario de After Effects acomoda interactivamente los elementos en esta

ventana y ve inmediatamente el resultado. En breve, su interfaz convierte la cinematografía en un

28 Citado en Michael Barrier, Oskar Fischinger. Motion Painting No. 1,

http://www.michaelbarrier.com/Capsules/Fischinger/fischinger_capsule.htm 29 Dependiendo de la complejidad del proyecto y de la configuración del hardware, la computadora puede, o no,

seguir el ritmo de los cambios de un diseñador. Sin embargo, debido a que tiene control sobre el render final,

puede indicarle a After Effects que muestre sólo los contornos de los objetos, u ocultar algunas capas, etc. Así,

manda menos información a procesar a la computadora y libera memoria para una comunicación en tiempo real.

Un diseñador no tiene que esperar a que una cinta sea revelada o a que la computadora acabe un ciclo de

render, pero el diseño tiene sus propias etapas de “render”, es decir, hacer pruebas. En la impresión, tanto digital

como offset, el diseñador envía pruebas a la impresora para revisar la producción. Si se encuentran problemas,

como desajustes de color, el diseñador hace los ajustes necesarios y envía nuevas pruebas.

Page 30: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 30 / 55

proceso de diseño, y una película se re-conceptualiza como un diseño gráfico que puede cambiar con

el tiempo.

Como vimos cuando revisamos la historia del software cultural, cuando los medios físicos y

electrónicos eran simulados en la computadora, el resultado no es simplemente un mismo medio

como los había antes. Al añadirle nuevas propiedades y métodos de trabajo, la simulación por

computadora cambia la identidad del medio. Por ejemplo, en el caso del “papel electrónico” como un

documento Word o un archivo PDF, podemos hacer muchas cosas que antes no eran posibles en el

papel ordinario: aumentar o disminuir el tamaño de la letra, buscar palabras o frases, cambiar el

formato, etc. De forma similar, los servicios de mapas interactivos en línea, como Google o Microsoft,

aumentan el papel tradicional de múltiples y espectaculares formas.

Un gran parte de software contemporáneo para crear, editar e interactuar con medios ha sido hecha

de esta forma. Las tecnologías de medios precedentes se simulaban en la computadora y se

aumentaban con nuevas propiedades. Pero si vemos software de producción como Maya (para la

modelación y animación 3D por computadora) o After Effects (que se usa en motion graphics,

composición y efectos visuales), se observa una lógica diferente. Estas aplicaciones de software no

simulan ningún medio físico previo. Más bien, hacen préstamos a diferentes medios para combinar y

mezclar sus técnicas y métodos específicos. (Y además añaden nuevas posibilidades que son

características de la computadora, por ejemplo el cálculo automático de valores entre dos fotogramas

clave). Por ejemplo, el software de modelado 3D mezcla técnicas de creación de formas que antes

pertenecían a ciertos medios físicos: modificar la curvatura de una forma redonda en el modelado con

arcilla, construir formas 3D complejas a partir de los materiales de una maqueta arquitectónica, etc.

De forma similar, la interfaz, las herramientas y el flujo de trabajo de After Effects está basado en las

técnicas e animación y diseño gráfico. (También se pueden ver influencias de la cinematografías y de

los gráficos computacionales). Pero el resultado no es un simple suma mecánica de los elementos

que vinieron de otros medios. Más bien, como el software remezcla las técnicas y los métodos de

trabajo de varios medios que simula, el resultado son nuevas interfaces, herramientas y flujos de

trabajo con su propia lógica. En este caso, el método de trabajo de After Effects no es ni la animación

ni el diseño gráfico ni la cinematografía. Es una nueva manera de hacer medios de imágenes en

movimiento. Igualmente, el leguaje visual de los medios producidos con éste y otros software

similares es diferente de los lenguajes de imágenes en movimiento que existían antes.

En consecuencia, la Revolución de Terciopelo que desató After Effects, y otros programas, no

solamente vulgarizó los gráficos animados que artistas y diseñadores como John y James Whitney,

Norman McLaren, Saul Bass, Robert Abel, Harry Marks, Richard y Robert Greenberg , habían creado

con stop motion, impresión óptica, efectos de video con hardware y demás técnicas y tecnologías

Page 31: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 31 / 55

personalizadas. Sobretodo, llevaron al surgimiento de numerosas estéticas visuales nuevas que no

existían antes. Y si la característica común a estas estéticas es el “remix profundo” no es difícil ver

que se observa en el “remix profundo” de la interfaz de usuario de After Effects.

El espacio 3D como plataforma de diseño de medios

Cuando investigaba lo que los usuarios y las industrias dicen sobre After Effects, me encontré con una

opinión que lo caracterizaba como un “Photoshop con fotogramas clave”. Creo que esta

denominación es de hecho útil30. Pensemos en todas la formas posibles de manipular una imagen

con Photoshop y el nivel de control que permiten su variedad de controles. Pensemos también en el

concepto de composición visual de Photoshop como apilamiento de cientos de capas potenciales,

cada una con su propia transparencia y canales alfa. Si fuéramos capaces de animar una

composición y seguir usando las herramientas para ajustar los elementos visuales por separado, esto

constituye un nuevo paradigma de creación de imágenes en movimiento. Y esto es lo que After

Effects, y demás software de animación, efectos visuales y composición, hacen posible hoy31. Y a

pesar de que la idea de trabajar con numerosas capas no es nueva, el hecho de trabajar con

potencialmente miles de ellas, cada una con sus controles independientes, sí cambia su forma y su

mensaje. La composición 2D cambió: pasó de ser un efecto especial reservado a tomas particulares a

convertirse en una parte estándar de la interfaz de creación de animaciones y edición de video.

Aún con su carácter innovador, el paradigma de la composición 2D fue sustituido al inicio de los

2000’s por uno nuevo: la composición 3D. Si la composición 2D puede ser vista como una extensión

de técnicas de medios ya conocidos, el nuevo paradigma, por su lado, no surge de medio físicos o

electrónicos precedentes. Más bien, toma los medios nacidos en la era digital de los 60’s y

consolidados en los 90’s (gráficas computacionales y animación 3D interactiva), transformándolos en

una plataforma general para el diseño de medios en movimiento.

El lenguaje usado en el medio de la producción profesional de hoy refleja un entendimiento implícito

de las gráficas 3D como nuevo medio único de la computadora. Cuando la gente usa términos como

“visuales por computadora”, “imaginería computacional” o “CGI” (abreviación de “Computer

30 Poco después de que After Effects fue lanzado en enero de 1993, CoSA (la compañía que produjo este

software), fue comprada por Aldus, que a su vez, fue comprada por Adobe (que ya tenía a Photoshop entre sus

productos.). 31 Photoshop y After Effects fueron diseñados, originalmente, por diferentes personas en diferentes momentos. E

incluso después de que Adobe adquirió ambos (Photoshop fue lanzado en 1989 y After Effects en 1995), le tomó

unos cuantos años hacer que se comunicarán e intercambiaran sus recursos.

Page 32: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 32 / 55

Generated Imagery”) todos entienden que se refieren a gráficas 3D y no a otras fuentes de imágenes

como la “fotografía digital”. Considero los gráficos computacionales 3D como un nuevo medio (y no

una extensión de los bocetos arquitectónicos, la geometría proyectual o el diseño de espacios) debido

a que ofrecen un nuevo método de representar la realidad tridimensional hecha con objetos

existentes y objetos imaginados. Este método es fundamentalmente diferente a lo que había sido

posible con los medios representacionales de la era industrial: captura basada en lentes (fotografía

fija, film, video) y grabación de audio. Con los gráficas computacionales 3D, podemos representar una

estructura tridimensional del mundo en lugar de capturar solamente una perspectiva del mundo,

como en la captura a base de lentes. También podemos manipular una representación usando varias

herramientas con facilidad y precisión, contrario a la limitada “maleabilidad” de un modelo hecho con

materiales físicos (aunque los avances en la nanotecnología prometen cambios en el futuro). Y, como

lo evidencia la estética de la arquitectura contemporánea, las gráficas computacionales 3D no son

solo una manera más rápida de trabajar con representaciones geométricas, como los planos y los

cortes transversales, usados durante siglos por los dibujantes. Cuando las generaciones de nuevos

arquitectitos y estudiantes empezaron a trabajar sistemáticamente con modelos 3D y software de

animación como Alias, a mediados de los 90’s, ésta habilidad de manipular una forma 3D (en lugar

de manipular solamente su proyección) llevo rápidamente a la introducción de un nuevo lenguaje

basado en formas curveadas complejas.

Cuando la Revolución de Terciopelo de los 90’s hizo posible la combinación de múltiples fuentes de

medios en una simple secuencia de imagen en movimiento, usando una la interfaz multicapas de

After Effects, el CGI se añadió a la mezcla. Hoy, los modelos 3D se usan de forma rutinaria en

composiciones de medios creados en After Effects y software similar, junto a demás medios. Pero,

para ser parte del mix, estos modelos deben estar ubicados en su propia capa 2D y, por

consecuencia, ser tratado como imágenes 2D. Éste fue el paradigma original de After Effects: todos

los medios se pueden unir, siempre y cuando sean reducidos a 2D32.

Por el contrario, en el paradigma de la composición 3D, todos los tipos de medios se sitúan en un solo

espacio 3D. Una ventaja de esta representación es que, como el espacio 3D es “nativo” a las gráficas

computacionales, los modelos 3D se quedan como son, es decir, tridimensionales. Una ventaja

adicional es que el diseñador puede usar todas las técnicas de la cinematografía virtual desarrollada

en la animación 3D por computadora. Es posible definir diferentes tipos de luces, vuelos de la cámara

alrededor y a través de planos de imágenes usando cualquier trayectoria, con efectos tipo

profundidad de campo y desenfoque33.

32 Digo “original” porque la última versión de After Effects añadió la posibilidad de trabajar con capas 3D. 33 Si la composición 2D puede ser entendida como una extensión de la animación tradicional del siglo XX, en

donde una composición consistía en un apilamiento de dibujos en acetato, la fuente conceptual del paradigma

Page 33: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 33 / 55

Mientras que los modelos 3D generados por computadora “viven” en este espacio, ¿cómo podemos

traer elementos visual bidimensionales (por ejemplo, video, film digitalizado, tipografía, imágenes

dibujadas)? Si el paradigma de la composición 2D trataba todo los medios como imágenes 2D

(incluyendo los modelos 3D), la composición 3D trata todos los medios como 3D. Sabemos que los

elementos 2D no tienen una tercera dimensión predefinida; ésta tiene que ser añadida para que

puedan entrar al espacio 3D. Para esto, el diseñador pone cuadros planos en ciertas ubicaciones del

espacio y sitúa las imágenes bidimensionales en estos cuadros. Así, todo vive en un espacio 3D

común. Esta condición permite la “remezcla profunda” entre técnicas que ya hemos ilustrado con el

ejemplo del video “Go”. Las técnicas de dibujo, fotografía, cinematografía y tipografía que se usan

para crear y capturar elementos visuales 2D, pueden ahora “jugar” con todas las técnicas de la

animación 3D por computadora (movimientos de cámara virtuales, profundidad de campo

controlable, lentes variables, etc.).

En 1995 escribí el artículo “¿Qué es el cine digital?”. Aquí evocaba la cuestión de cómo los cambios

en la producción de imágenes en movimiento que estaba presenciando (mientras estaba viviendo en

Los Ángeles y siguiendo de cerca los cambios en Hollywood), afectaban el significado de “cine”. En

este texto, proponía que la lógica de la animación a mano, que durante el siglo XX fue marginal en

comparada con el cine, se volvía dominante en la era del software. Debido a que el software permite

al diseñador manipular manualmente cualquier imagen, sin importar su fuente, las diferencias

ontológicas entre las diferentes imágenes se vuelven irrelevantes. Tanto conceptual como

prácticamente, todas se reducen a la animación a mano.

Por default, After Effects, y otros software de animación, edición de video y composición 2D, tratan un

proyecto de imágenes en movimiento como un apilamiento de capas. Entonces, puedo ampliar mi

argumento original y proponer que la lógica de la animación también se mueve de una posición

marginal a una posición dominante. El paradigma de una composición como apilamientos de

elementos visuales independientes, tal como era practicado en la animación por acetato, se vuelve en

la forma estándar de trabajar con las imágenes en un ambiente de software (sin importar su origen y

formato final). En otras palabras, una “imagen en movimiento” se entiende ahora como un compuesto

de la composición 3D es diferente. Éste surge de la integración de tomas en acción con CGI hecho en los 80’s, en

el marco de la producción cinematográfica. Tanto el director de cine y el animador por computadora trabajaban

en un espacio tridimensional: el espacio físico del set, para el primero, y el espacio virtual definido por los

modelos 3D, para el segundo. Entonces, hace sentido usar el espacio tridimensional como plataforma para la

integración de ambos mundos. No es por accidente que NUKE, uno de los programas más importantes en la

composición 3D, haya sido desarrollado internamente en Digital Domain, co-fundada en 1993 por James

Cameron, el director de Hollywood que uso sistemáticamente y revolucionó a integración de CGI en sus películas

como The Abyss (1989), Terminator 2 (1991) y Titanic (1997).

Page 34: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 34 / 55

de capas de imaginería (en lugar de una imagen fija plana que solo cambia en el tiempo, tal como fue

el caso en la mayor parte del siglo XX). En el mundo de la animación, la edición y la composición,

dicha “imagen de una sola capa” se vuelve un excepción.

El surgimiento del paradigma de la composición 3D también se puede ver como un seguimiento a la

lógica de la inversión histórica. La nueva estructura representacional, desarrollada en el campo de las

gráficas computacionales (un espacio virtual 3D que contiene modelos 3D), se ha movido

gradualmente de un rol marginal a uno dominante. En los 70’s y 80’s, las gráficas computacionales

fueron usadas ocasionalmente en una decena de películas, como Alien (1979), Tron (1981), The Last

Starfighter (1984) y The Abyss (1989), y en selectos comerciales y gráficas de TV. Pero al inicio de los

2000’s, la estructura de representación de las gráficas computacionales, es decir los espacios

virtuales 3D, funcionaron como una sombrilla para todo tipo de imágenes sin importar su origen. Un

ejemplo de una aplicación que implementa este paradigma es Flame, descrito efusivamente por un

usuario como “un ambiente de composición 3D completo en donde se pueden traer modelos 3D,

crear verdaderos textos 3D y partículas 3D, y distorsionar capas en el espacio 3D34.

Esto no quiere decir que la animación 3D se vuelve elle misma dominante en la cultura de la imagen

en movimiento, o que la estructura 3D del espacio en donde ahora se construyen cotidianamente las

composiciones de medios se vuelve visible (de hecho casi nunca pasa). Más bien, la manera en que

la animación 3D por computadora organiza los datos visuales (como los objetos posicionados en el

espacio cartesiano) se vuelve la forma de trabajar con todas las imágenes en movimiento. Como ya lo

hemos dicho antes, el diseñador posiciona todos los elementos que van en la composición

(secuencias animadas 2D, objetos 3D, sistemas de partículas, secuencias de video y film digitalizado,

imágenes fijas y fotografías) dentro de un espacio 3D virtual compartido. Ahí dentro, estos elementos

pueden seguir siendo animados, transformados, desenfocados, modificados con filtros, etc. Así que,

mientras todas las imágenes en movimiento se reducen a animación a mano en términos de su

maleabilidad, también podemos decir que todos los medios se vuelven capas en el espacio 3D. En

breve, el nuevo medio de la animación 3D por computadora se ha “comido” los medios dominantes

de la era industrial (fotografía, cine y video a base de lentes).

Habiendo discutido cómo el software ha redefinido el concepto de “imagen en movimiento” como un

compuesto de múltiples capas, este es un buen momento para hacer una pausa y considerar otras

posibles formas en que el software ha cambiado este concepto. Cuando el cine en su forma moderna

nació a finales del siglo XIX, este nuevo medio se entendió como una extensión de otro ya familiar (la

imagen fotográfica sin movimiento). Este entendimiento se puede ver en la prensa de aquellos días y

34 Alan Okey, contribución en el foro: forums.creativecow.net, Diciembre 28, 2005,

http://forums.creativecow.net/cgi-bin/dev_read_post.cgi?forumid=154&postid=855029

Page 35: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 35 / 55

también en uno de los nombres oficiales dados al medio: “imágenes en movimiento”. Al nivel

material, un film consiste en cuadros fotográficos separados. Cuando se reemplazan rápidamente

entre ellos se crea el efecto de movimiento en el espectador. Así que el concepto usado para

entender el cine encajaba en la estructura del medio.

¿Pero sigue siendo apropiado este concepto hoy en día? Cuando grabamos y reproducimos video,

seguimos tratando con la misma estructura: una secuencia de fotogramas. Pero para los diseñadores

profesionales de medios, los términos han cambiado. La importancia de estos cambios no solo es

académica y puramente teórica (como los diseñadores entienden su medio de forma diferentes, crean

films y secuencias que también se ven diferentes de lo que existía en el siglo XX).

Pensemos en las nuevas formas de crear imágenes en movimiento (a las que me he referido como

nuevos paradigmas) que hemos visto hasta ahora. (Aunque teóricamente no son todas compatibles

entre ellas, en la práctica de la producción estos paradigmas son usados de forma complementaria).

Una “imagen en movimiento” se convierte en un híbrido que puede combinar todos las medios

visuales inventados a la fecha, en lugar de soportar sólo un tipo de dato, como la grabación con

cámara, dibujo a mano, etc. En lugar de ser visto como un cuadro plano singular (resultado de la luz

que entra por el lente y capturada en la superficie de grabación), es entendido como un apilamiento

de potencialmente infinitas capas. Y en lugar de estar “basado en el tiempo”, pasa a ser “basado en

la composición” u “orientado objetos”. Esto es, en lugar de ser tratado como una secuencia de

cuadros organizados en el tiempo, una “imagen en movimiento” se ve como una composición

bidimensional que consiste en un número de objetos que pueden ser manipulados

independientemente. Alternativamente, si un diseñador usa la composición 3D, el giro conceptual es

aún más dramático: en lugar de editar “imágenes”, ahora trabaja en un espacio virtual tridimensional

que alberga CGI e imágenes planas grabadas con lente.

Por supuesto, la representación basada en fotogramas no desapareció, simplemente se volvió un

formato de grabación y de salida, en lugar del espacio en donde un film se ensamblaba. Y mientras el

término “imagen en movimiento” puede seguir siendo usado como una descripción apropiada de

cómo el resultado de un proceso de producción se vive por los espectadores, no mantiene la esencia

de cómo los diseñadores piensan sobre lo que crean. Debido al ambiente de producción (flujo de

trabajo, interfaces y herramientas) ha cambiado tanto, ahora piensan muy diferentes de cómo se

hacía hace veinte años.

Si nos enfocamos en lo que estos paradigmas tienen en común, podemos decir que los cineastas,

editores, artistas de efectos especiales, animadores y diseñadores de gráficos animados, trabajan en

una composición 2D o en un espacio 3D que consiste de cierto número de objetos separados. La

dimensión espacial se ha vuelto tan importante como la dimensión temporal. Del concepto de

Page 36: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 36 / 55

“imagen en movimiento”, visto como una secuencia de fotografías fijas, nos hemos movido a un

nuevo concepto: una composición modular de medios. Mientras a una persona que dirige una película

o un cortometraje centrado en actores y acción viva se le puede seguir llamando “director de cine” o

“cineasta”, en todos los demás casos en donde la producción sucede en ambientes de software, es

más apropiado llamar a la persona “diseñador”. Este es otro cambio fundamental en el concepto de

“imágenes en movimiento”: hoy es más común que sean “diseñadas” en lugar de ser “capturadas”,

“dirigidas” o “animadas”.

Importar-exportar: f lujo de trabajo del diseño

En nuestras discusiones sobre la interfaz y flujo de trabajo de After Effects, así como del nuevo

paradigma de la composición 3D, nos hemos encontrado con el aspecto crucial del proceso de

producción de medios basado en software. Hasta la llegada de las herramientas software en los 90’s,

la combinación de diferentes tipos de medios temporales tomaba mucho tiempo, era cara y, en

algunos casos, simplemente imposible. Herramientas como After Effects cambiaron esta situación de

forma fundamental. Ahora, un diseñador puede importar diferentes medios en su composición con

unos cuanto clics del mouse.

Sin embargo, el diseño contemporáneo de imágenes en movimiento basado en software (o cualquier

otro proceso de diseño) no sólo implica combinar elementos de diferentes fuentes en una sola

aplicación. En esta sección veremos el flujo de trabajo general, típico del diseño contemporáneo (ya

sean imágenes en movimiento, ilustraciones fijas, objetos y escenas 3D, arquitectura, música,

páginas web o cualquier otro medio). (Muchos de los detalles de la producción de imágenes en

movimiento con software aplican también al diseño gráfico. No obstante, en este sección queremos

hacer esto explícito. Por consecuencia, los ejemplos que siguen han sido tomados de diferentes

campos).

A pesar de que los comandos “importar/exportar” se encuentran en la mayoría de las aplicaciones

para la producción y edición de medios basados en GUI, a primera vista no parecen muy importantes

para entender la cultura del software. Cuando “importamos”, no creamos o modificamos objetos de

medios, ni tampoco estamos accediendo a información conectada, como en la navegación Web.

Todos lo que estos comandos permiten hacer es mover datos entre diferentes aplicaciones. En otras

palabras, hacen que los datos creados en una aplicación sean compatibles con otras. Y esto no

parece muy importante.

Pero pensemos dos veces. ¿De dónde viene la mayor parte de la economía en el área de Los

Ángeles? No es del entretenimiento. Desde la producción de cine hasta los museos y todos lo que

Page 37: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 37 / 55

está en medio, el entretenimiento sólo representa el 15 por ciento. Resulta que la mayor parte de la

economía viene del negocio de la importación/exportación (más del 60 por ciento). En términos más

generales, una de las características de la globalización que se evoca a menudo es su conectividad

(de lugares, sistemas, países, organizaciones., etc.). Y la conectividad sólo sucede si se tiene cierto

nivel de compatibilidad entre los códigos y procedimientos de los negocios, entre las tecnologías de

distribución, entre los protocolos de red, entre los formatos de archivos computacionales, y demás.

Hagamos un acercamiento a los comandos de importar/exportar. Como trataré mostrar adelante,

estos comandos juegan un rol crucial en la cultura del software, y en particular del diseño de medios

(sin importar el tipo de proyecto en que el diseñador está trabajando).

Antes de adoptar herramientas de software en los 90’s, cineastas, diseñadores gráficos y animadores

usaban tecnologías completamente diferentes. En consecuencia, por mucho que se hayan

influenciado entre ellos y que compartan la misma sensibilidad estética, inevitablemente crearon

imágenes que se veían diferentes. Los cineastas usaban cámaras y otras tecnologías diseñadas para

capturar la realidad física tridimensional. Los diseñadores gráficos trabajaban con impresión offset y

litografía. Los animadores trabajaban con sus propias tecnologías: acetatos transparentes y

escritorios de animación con una cámara capaz de hacer exposiciones cuadro por cuadro mientras el

animador iba cambiando sus acetatos o movía el fondo.

Como resultado, el cine, el diseño gráfico y la animación del siglo XX (estoy haciendo referencia a las

técnicas de animación estándar usadas por la mayoría de los estudios comerciales) desarrollaron

diferentes lenguajes y vocabularios artísticos, tanto en forma como en contenido. Por ejemplo, los

diseñadores trabajaban en un espacio 2D, los directores de cine arreglaban sus composiciones en un

espacio 3D y los animadores de acetatos en “dos y media” dimensiones. Esto aplica para la mayoría

de trabajos hechos en cada uno de esos campos, aunque claro, ha habido excepciones. Por ejemplo,

Oskar Fischinger hizo un film abstracto que consistía únicamente en objetos geométricos moviéndose

en un espacio vacío, pero hasta donde sé, éste es el único film en la historia de la animación pre-

digital abstracta que tiene lugar en un espacio tridimensional.

Las diferencias tecnológicas influyeron en el tipo de contenido que aparecería en los diferentes

medios. El cine mostraba imágenes de naturaleza “foto-real”, escenarios construidos y formas

humanas articuladas en una iluminación especial. Los diseños gráficos tenían tipografía, elementos

gráficos abstractos, fondos monocromáticos y recortes de fotografías. Y las caricaturas presentaban

personajes planos dibujados a mano y objetos animados (más detallados) por debajo, que

funcionaban como fondos. Las excepciones fueron raras. Por ejemplo, los espacios arquitectónicos

aparecían comúnmente en películas porque los directores podían explorar sus tridimensionalidad en

Page 38: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 38 / 55

escenas, pero prácticamente no aparecieron en cine de animación a detalles hasta que los estudios

empezaron a usar animación 3D por computadora.

¿Por qué era tan difícil cruzar las fronteras? En teoría, uno podría imaginarse hacer una película

animada de la siguiente manera: imprimir una serie de diseños gráficos levemente diferentes y

después filmarlos como si fueran una secuencia de acetatos animados. O una película donde un

diseñador dibujara una serie a mano usando exactamente el mismo vocabulario del diseño gráfico y

después lo filmara uno por uno. Y por lo tanto, hasta donde yo sé, nunca se hizo alguna película

semejante. Lo que encontramos más bien son muchas películas animadas abstractas que tienen

cierta conexión con el estilo de las pinturas abstractas. Por ejemplo, las animaciones y las pinturas de

Oskar Fischinger comparten ciertas formas. También se encuentran ejemplos de cine abstracto,

comerciales y secuencias de créditos que tienen conexión con la estética popular del diseño gráfico

de aquel tiempo. Entre ellos, podemos recordar algunas secuencias de créditos con gráficos

animados diseñados por Pablo Ferro en los 60’s que muestran la estética psicodélica que se ve en

carteles, portada de discos y demás producciones de la época.

Con todo y estas conexiones, las diferentes producciones nunca usaron el mismo lenguaje visual. Una

razón es que el film proyectado no podía mostrar adecuadamente las diferencias sutiles entre tipos

de letra, entrelineados y escalas de tonos de grises, cruciales para el diseño gráfico moderno. Por

consecuencia, cuando los artistas trabajaban en cine de arte abstracto o comerciales que adoptaban

la estética del diseño gráfico (muchos de los animadores abstractos del siglo XX trabajaban también

en sus proyectos personales), no podían simplemente expandir el lenguaje de la página impresa a la

dimensión del tiempo. Tenían, en esencia, que inventar un nuevo lenguaje visual paralelo que usara

contrastes acentuados, formas legibles más fácilmente y líneas más gruesas (que, por su grosor, ya

no eran líneas sino formas, de hecho).

A pesar de que las carencias en resolución y contraste de la imagen cinematográfica y televisiva, en

comparación con una página impresa, contribuyeron al distanciamiento entre los lenguajes usados

por los cineastas y los diseñadores gráficos durante gran parte del siglo XX, no creo que éste haya

sido el factor decisivo. Hoy en día, la resolución, contraste y reproducción de color también son

sustancialmente diferentes entre impresoras y pantallas (computadora, TV y aparatos móviles), y aún

así vemos comúnmente las mismas estrategias visuales a través de los diferentes medios. Para

acabar de convencernos, basta echar una hojeada a cualquier libro o revista contemporánea de

diseño 2D (es decir, diseño gráfico para impresos, difusión y web). Cuando vemos páginas que

muestran el trabajo particular de un diseñador o de un estudio, en muchos casos es imposible

identificar el origen de las imágenes, a menos que leamos las leyendas. Sólo así podemos saber cuál

imagen es un póster, cuál es una captura de pantallas de un video musical y cuál es el contenido

editorial de una revista.

Page 39: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 39 / 55

A continuación, usaré para mis ejemplos el libro Graphic Design for the 21st Century: 100 of the

World’s Best Graphic Designers (Taschen, 2001) debido a que, para el año de su publicación, los

cambios de los que hablo ya habían sucedido. El diseño de Peter Anderson que muestra una línea de

texto en contra de una nube con cientos de pequeñas letras orientadas de diferentes formas, resulta

ser una imagen de la secuencia de créditos de un documental de Channel 4. Su otro diseño, que de

forma similar juega con el contraste entre letras saltarinas de fuente grande en contra de planos

irregulares hechos de densos estrechamientos de letras de menor tamaño, resulta ser un desplegable

de la revista IT Magazine. Como el primer diseño fue hecho para la teledifusión y el segundo para los

impresos, se podría esperar que el primero usara formas más gruesas. Sin embargo, ambos diseños

usan la misma escala entre letras pequeñas y grandes, y muestran texturas hechas de cientos de

palabras tan pequeñas que su intención no es que sean legibles. Una páginas más adelante vemos

un diseño de Philippe Apeloig que usa exactamente la misma técnica y estética que Anderson. En este

caso, pequeñas líneas de texto puestas en diferentes ángulos forman un modelo 3D que flota en el

espacio. En la siguiente página, otro diseño de Apeloig crea un campo en perspectiva, no hecho de

letras sino de cientos de formas abstractas idénticas.

Estos diseños se basan en la habilidad del software (o del diseñador siendo influenciado por el uso

del software y recreando con el software lo que antes hacía manualmente) de tratar al texto como

cualquier otro primitivo gráfico y de fácilmente crear composiciones hechas de cientos de elementos

similares o idénticos acomodados según un patrón. Y como un algoritmo puede fácilmente modificar

cada elemento del patrón, cambiando su posición, tamaño, color, etc., en lugar de las cuadrículas

modernitas regulares, vemos estructuras más complejas que surgen de variaciones de un mismo

elemento. Esta estrategia es explorada de forma particularmente inventiva en los diseños de Zaha

Hadid, como el “Icone bag” para Louis Vuitton, en 2006, y sus planos urbanos para Singapur y

Turquía, que usan lo que ella llama una “cuadrícula variable”.

A cada diseñador en el libro se le pidió dar un breve explicación para acompañar su trabajo de

portafolio. Lust Studio eligió la frase “La forma viene después del proceso” como su lema. Entonces,

¿cuál es la naturaleza del proceso de diseño en la era del software y cómo influye en las formas que

vemos actualmente entre nosotros?

Si actualmente estás involucrado de forma práctica en el diseño y arte, sabrás que los diseñadores

contemporáneos usan el mismo software para diseñar casi cualquier cosa. Ya hemos mencionado

estas herramientas: Photoshop, Illustrator, Flash, Maya, etc, Sin embargo, el factor crucial no son las

herramientas en sí, sino el proceso del flujo de trabajo, permitido por las operaciones “importar” y

“exportar” y métodos relacionados (“colocar”, “insertar”, “suscribir”, “objeto dinámico”, etc.) que

permiten la coordinación entre estas herramientas.

Page 40: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 40 / 55

Cuando se arma un proyecto de medios, el software usado en la fase final depende del tipo de medio

de salida y de la naturaleza del proyecto: After Effects para los proyectos de gráficos animados y

composición de video, Illustrator para ilustraciones en impresos, InDesign para diseños multi-página,

Flash para interfaces interactivas y animaciones web, 3ds Max o Maya para modelos y animaciones

3D, etc. Pero estos programas rara vez se usan solos para crear un diseño de medios de principio a

fin. Típicamente, un diseñador puede crear elementos en un programa, importarlos en otro, después

añadir elementos creados en otro programa, etc. Esto sucede sin importar si el producto final será

una ilustración, un sitio web, un motion graphic, un matte painting, o si es una imagen fija, animada o

interactiva.

Los nombres mismos que las compañías de software asignan a sus productos hacen referencia a sus

características esenciales en el proceso de diseño basado en software. Desde 2005, Adobe ha

vendido sus diferentes aplicaciones de producción de medios bajo el nombre general “Adobe Creative

Suite” o conjunto creativo. Entre las frases o subtítulos que han acompañado esta marca, hay uno en

particular que es significativo para nuestra discusión: “Diseña a través de los medios”. Esta frase

describe de forma precisa tanto las capacidades de las aplicaciones reunidas en la suite y su uso en

el mundo real. Cada una de las aplicaciones clave tienen propiedades orientadas a la producción del

diseño de un medio en particular. Illustrator está programado para trabajar con impresoras de alta

calidad; After Effects y Premiere envían video en varios formatos estándar, como HDTV; Dreamweaver

soporta lenguajes de programación para la creación de sitios web dinámicos y sofisticados. Pero a

pesar de que un proyecto sea terminado en una de estas aplicaciones, muchas de las demás

aplicaciones de la suite se usan en el proceso de creación o edición de varios de sus elementos. Ésta

es una de las formas en que Adobe permite “diseñar a través de medios”. La compatibilidad entre

aplicaciones también significa que los elementos (llamados en el lenguaje profesional “recursos”)

pueden ser reusados más tarde en otros proyectos. Por ejemplo, una fotografía editada en Photoshop

poder ser usada primero en un anuncio de revista, después puesta en un video, un sitio web, etc. O

los modelos y personajes 3D creados para una película pueden ser reusado para un videojuego

basado en la misma. Esta habilidad de reusar un mismo diseño, o parte de él, en diferentes proyectos

es importante debido a la práctica generalizada en las industrias creativas de crear productos, a

través de diferentes medios, con las mismas imágenes, diseños, personajes y narrativas. Una

campaña de publicidad seguido funciona “a través de los medios”, incluyendo banners web, spots TV,

anuncios de revistas, carteleras, etc. Y si convertir películas en juegos y juegos en películas ya ha sido

popular en Hollywood desde inicios de los 90’s, una nueva tendencia, desde mediados del 2000’s, es

crear juegos, películas, sitios web, y demás productos, al mismo tiempo (y que los productos usen los

mismos recursos, tanto por razones económicas como estéticas, para asegurar el mismo estilo y

continuidad). Por ende, un estudio puede crear fondos y personajes 3D y usarlos en una película y en

Page 41: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 41 / 55

un juego, ambos lanzados simultáneamente. Si las aplicaciones de los medios no fueran compatibles,

dicha práctica simplemente no sería posible.

Todos estos ejemplos ilustran el re-uso intencional de los elementos del diseño “a través de medios”.

Sin embargo, la compatibilidad entre aplicaciones de producción de medios también tiene un efecto

muchos más amplio y menos intencional en la estética contemporánea. Con el flujo de trabajo de la

producción que hemos descrito, podríamos esperar que las mismas técnicas y estrategias visuales

aparecieran también en los demás tipos de proyectos de medios diseñados con software, sin que esto

haya sido deliberadamente planeado. También podríamos esperar que esto sucediera en un nivel

más básico. Y éste es el caso. Las mismas estrategias de diseño permitidas por el software, las

mismas técnicas basadas en software y la misma iconografía generada con software se hallan ahora

en todos los tipos de medios, todas las escalas y todos los tipos de proyectos.

Ya hemos encontrado algunos ejemplos concretos. Por ejemplos, los diseños de Peter Anderson y

Philippe Apeloig, hechos para diferentes medios, usan la misma técnica básica de gráficos

computacionales: generación automática de un patrón repetitivo y variación de parámetros que

controlan la apariencia de cada elemento (posición, tamaño, orientación, curvatura, etc.). (El principio

general detrás de esta técnica también puede ser usado para generar modelos 3D, animaciones,

texturas, plantas y paisajes, etc.). Se le conoce comúnmente como “diseño paramétrico” o

“modelación paramétrica”). La misma técnica es usada por el estudio de Hadid en el “Icone bag” de

Louis Vuitton. En otro ejemplo, que veremos abajo, Greg Lynn usó técnicas de sistemas de partículas

(que en su momento se usaban para simular fuego, nieve, cascadas y demás fenómenos naturales

para cine) para generar la formas de un edificio.

Para usar una metáfora biológica, podemos decir que la compatibilidad entre aplicaciones crear

condiciones favorables para la propagación del DNA de los medios entre las especies, familias y

clases. Y esta propagación sucede en todos los niveles: en todo el diseño, en partes del diseño, en los

elementos que lo conforman y en los “átomos” que constituyen los elementos. Consideremos el

siguientes caso hipotético de propagación a un nivel bajo. Un diseñador puede usar Illustrator para

crear una curva suavizada 2D (llamada en gráficas computacionales como “spline”). Esta curva se

puede convertir en un componente básico para usarse en cualquier proyecto. Puede formar parte de

una ilustración o de un libro de diseño. Puede ser importada en un programa de animación en donde

se animará o en un programa 3D en donde será extruida y formará un objeto sólido.

Con el tiempo, la manufactura de software desarrollo nuevas formas de conectar sus aplicaciones,

con el fin de facilitar la movilidad de elementos entre ellas. Con los años, se volvió posible mover

proyectos completos entre aplicaciones sin ninguna pérdida (o casi). Por ejemplo, al describir la

integración entre Illustrator y Photoshop CS3, el sitio web de Adobe señala que un diseñador puede

Page 42: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 42 / 55

“preservar capas, composiciones, transparencias y archivos modificables” 35 . Otro desarrollo

importante ha sido el concepto que Microsoft llama “objetos vinculados”. Si vinculamos dos archivos,

o parte de ellos (por ejemplo hoja de cálculo Excel a una presentación PowerPoint), cada vez que la

información cambia en el primero, ésta se actualiza en el segundo automáticamente. Muchas

aplicaciones de medios implementan esta función. Para usar el mismo ejemplo de Illustrator CS3, un

diseñador puede “importar archivos de Illustrator en Premiere y, después, con el comando Editar

Original abrir la imagen en Illustrator, editarla y ver cómo los cambios se incorporan en el proyecto de

video”36.

Cada tipo de programa usado por los diseñadores de medios (gráficos 3D, dibujo vectorial, edición de

imágenes, animación y composición) sobresale en una función particular. Por ejemplo, en formas

particulares de creación o modificación de elementos gráficos. Estas operaciones pueden compararse

a los diferentes tipos de piezas de un juego LEGO. Podemos crear un número infinito de proyectos

usando un número limitado de piezas. Según el proyecto, los bloques tendrán diferentes funciones y

aparecerán en diferentes combinaciones. Por ejemplo, un bloque rectangular puede ser la parte

superior de una mesa o el cuerpo de un robot, etc.

Un flujo de trabajo de diseño, basado en cierto número de programas compatibles, opera de la misma

forma… con una diferencia importante. Los componentes básicos usados en el diseño

contemporáneo no son únicamente diferentes tipos de elementos visuales (patrones vectoriales,

objetos 3D, sistemas de partículas, etc.) sino también diferentes formas de modificarlos (extrusión,

sesgar, vectorizar, modificar transparencia, desenfocar, etc.). Esta diferencia es crucial. Si el software

de creación y producción de medios ni incluyera estas operaciones de modificación, hoy veríamos un

lenguaje visual completamente diferente. Veríamos “multi-medios”, es decir, diseños que

simplemente combinan elementos de diferentes medios. Pero lo que tenemos es una “remezcla

profunda”, las interacciones “profundas” entre métodos y técnicas de diferentes medios en un mismo

proyecto.

En un uso “cruzado”, las técnicas que antes eran específicas a un medio, ahora se aplican a otro tipo

de medios. Esto se logra comúnmente en una sola aplicación, por ejemplo, aplicar el filtro de

desenfoque en After Effects a una composición que puede tener elementos gráficos, video, objetos

3D, etc. El hecho de poder mover un proyecto completo, o parte de sus elementos, entre diferentes

aplicaciones abre más posibilidades debido a que cada aplicación ofrece sus técnicas únicas. A

medida que los datos de medios viajan de una aplicación a otra, se transforman y enriquecen con las

operaciones que brinda cada aplicación.

35 http://www.adobe.com/products/illustrator/features/allfeatures/ (Agosto 30, 2008). 36 Ibid.

Page 43: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 43 / 55

El flujo de trabajo específico de la era del software que acabamos de describir tiene dos

consecuencias principales. Primero, la estética visual de la hibridación que domina el universo del

diseño contemporáneo. Segundo, el uso de las mismas técnicas y estrategias a través de este

universo, sin importar el formato final del medio o tipo de proyecto.

Como ya lo hemos dicho más de una vez, un diseño típico de hoy en día combina técnicas de

diferentes medios. Ahora estamos en una mejor posición para entender porqué pasa esto. Cuando un

diseñador trabaja en un proyecto, lo hace combinando el resultado de funciones específicas de

diferentes programas de software que originalmente fueron creados para imitar el trabajo de

diferentes medios físicos. (Illustrator fue hecho para crear ilustraciones, Photoshop para editar

fotografías digitalizadas, Premiere para editar video, etc.). Mientras estas funciones siguen siendo

usadas en relación con sus medios originales, la mayoría de ellos también son usadas como parte del

flujo de trabajo de cualquier proyecto de diseño.

La condición esencial que hace posible la lógica del nuevo diseño y su estética resultante es la

compatibilidad entre archivos generados por diferentes programas. En otras palabras, “importar”,

“exportar” y demás funciones y comandos relacionados con software de gráficos, animación, edición

de video, composición y modelación, son históricamente más importantes que las operaciones

individuales que estos programas ofrecen. La habilidad de combinar capas bitmap y vectoriales en

una misma imagen, ubicar elementos 3D en una composición 2D y viceversa, y demás ejemplos, es lo

que permite el flujo de trabajo de la producción y el re-uso de las mismas técnicas, efectos e

iconografía a través de diferentes medios.

Las consecuencias de esta compatibilidad entre software y formatos de archivo, que se logró

gradualmente durante los 90’s, son difíciles de sobreestimar. Además de la hibridación de la estética

visual moderna y la reaparición de exactamente la misma técnicas de diseño a través de los todos los

productos de los medios, también hay otros efectos. Por ejemplo, el campo entero de los motion

graphics, tal como existe hoy, se volvió popular gracias a la integración de software que integra

gráficos vectoriales (como Illustrator) con software de animación y composición (como After Effects).

Un diseñador define comúnmente varios elementos de la composición en Illustrator y después los

importa en After Effects para animarlos. Esta compatibilidad no existía en las primeras versiones del

software de producción y creación de medios en los 80’s. Se fue añadiendo gradualmente con nuevos

lanzamientos. Pero cuando se logró a mediados de los 90’s37, en unos cuantos años el todo el

37 En 1995, After Effects 3.0 permitió importar archivos de Illustrator y Photoshop como composiciones:

http://en.wikipedia.org/wiki/Adobe_After_Effects

Page 44: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 44 / 55

lenguaje del diseño gráfico contemporáneo se importó al área de la imagen en movimiento, tanto

literal como metafóricamente.

En resumen, esta compatibilidad entre software de diseño gráfico, ilustración, animación, edición de

video, modelación y animación 3D, y efectos visuales, juega un rol clave en la conformación de formas

visuales y espaciales de la era del software. Por un lado, nunca antes habíamos visto una variedad de

formas tan amplia como hoy. Por otro lado, exactamente las mismas técnicas, composiciones e

iconografía aparecen en cualquier medio.

Forma variable

Como lo muestran las películas de Blake y Murata analizadas precedentemente, en los motion

graphics contemporáneos las transformaciones afectan comúnmente el fotograma completo. En

contraste con la animación del siglo XX, todo lo que se halla dentro del fotograma cambia

continuamente: elementos visuales, su transparencia, la textura de una imagen, etc. De hecho, si algo

queda inmóvil por un rato, esto es una excepción en lugar de la regla.

Este cambio constante, producido en muchas dimensiones visuales, es otra característica clave de los

motion graphics y del cine de diseño producido actualmente. Así como lo hicimos en el caso de la

hibridación de medios, es posible vincular esta preferencia por el cambio constante con las

particularidades del software usado en el diseño de medios.

Las computadoras digitales permiten representar cualquier fenómeno o estructura como un conjunto

de variables. En el caso del software de diseño y de animación, esto significa que todas la formas

posibles (visuales, temporales, espaciales, interactivas), son igualmente representadas como un

conjunto de variables que pueden cambiar continuamente. Esta nueva lógica de la forma está

profundamente codificada en las interfaces de los programas y las herramientas que ofrecen.

Veamos nuevamente la interfaz de After Effects. Para crear una animación, un diseñador añade

algunos elementos a la composición y los anima. Cada elemento se muestra en la interfaz como una

lista de parámetros, cada uno con su canal de animación. Dependiendo del tipo de elemento, los

parámetros pueden ir de unos a una decena o más. Por ejemplo, para las luces, sus parámetros son:

intensidad, color, oscuridad de la sombra y difusión de la sombra. Si el elemento es una cámara, los

parámetros incluyen: punto de interés, posición, orientación y rotación. Para las formas, la lista de

parámetros es particularmente larga: posición, escala, orientación, opacidad, propiedades de

materiales incluyendo proyección de sombras, transmisión de luz, ambiente, difusión y cualidades

especulares, brillo y demás.

Page 45: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 45 / 55

Animar cualquier parámetro sólo toma unos cuantos clics. El proceso funciona igual sin importar

elemento o tipo de parámetro. Entonces, es igualmente fácil cambiar en el tiempo la posición de una

forma, su color o la intensidad de una luz.

En contraste con la animación del siglo XX, After Effects no favorece el movimiento de objetos o

personajes bidimensionales. Por consecuencia, la Ayuda de After Effects define “animación” como

“cambio en el tiempo”, sin especificar cuál cambio38. La respuesta está dada por la interfaz misma.

Su diseño sugiere que animemos cientos de características visuales (y si consideramos que la

mayoría de los filtros también pueden ser animados, la lista llega a miles).

Debido a que la interfaz del software hace evidente cada parámetro de cada objeto en la

composición, asignando a cada uno su propio canal en la línea de tiempo, literalmente invita al

diseñador a animarlos. Somos invitados a empezar a mover y rotar objetos, cambiar su opacidad,

colores, etc. La misma lógica sucede en la cámara y las luces. Si añadimos luces a la composición,

éstas añaden automáticamente media docena de nuevos canales de animación que se refieren a su

color, posición, orientación, intensidad y propiedades de las sombras. (Otros software de composición

basados en capas y de animación 2D y 3D comparten los mismos principios generales de la

interfaz)39.

Durante los 80’s y 90’s, la lógica general de la representación por computadora (es decir, representar

todo como variables que pueden tener diferentes valores) estuvo sistemáticamente incrustada en las

interfaces del software de diseño de medios. Como resultado, aunque algunas aplicaciones

particulares no prescriban a sus usuarios lo que pueden o no pueden hacer, la estructura de una

interfaz influye profundamente la manera de pensar del diseñador. En el caso del diseño de imágenes

en movimiento, el resultado de tener una interfaz de línea de tiempo con múltiples capas listas para

ser animadas es que el diseñador realmente las anima. Si las restricciones que antes había en la

tecnología de animación (desde los primeros juguetes ópticos hasta los sistemas de animación por

acetato) resultaron en una estética de cambios discretos y temporalmente limitados, las interfaces

del software de animación por computadora rápidamente han llevado a una nueva estética: las

transformaciones continuas de la mayoría (o todos) los elementos visuales que aparecen en un

cuadro.

38 http://help.adobe.com/en_US/AfterEffects/9.0/ (Noviembre 7, 2012). 39 El software de composición basado en nodos usa un principio de interfaz diferente: cada elemento de la

composición es representado como un nodo de un grafo. Esta interfaz es particularmente útil para crear escenas

que contienen un gran número de elementos interactuando entre ellos. Algunas ejemplos comerciales son:

Fusion y Nuke.

Page 46: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 46 / 55

Este cambio en la estética de la animación, que deriva del diseño de la interfaz del software de

animación, fue paralelo al cambio en otro campo: la arquitectura. A mediados de los 90’s, cuando los

arquitectos empezaron a usar software desarrollado originalmente para la animación por

computadora y los efectos especiales (primero Alias y Wavefront, después Maya y otros), la idea de

formas animada entró en la inspiración arquitectónica. Si el software de animación 2D, como After

Effects, permite al animador modificar cualquier parámetro de un objeto 2D (un video clip, una forma

2D, texto, etc.) en el tiempo, la animación 3D por computadora permite lo mismo para cualquier

forma 3D. Un animador puede crear fotogramas clave manualmente y dejar que la computadora

calcule cómo cambia la forma en el tiempo. Alternativamente, puede dirigir algoritmos que no solo

modificarán la forma, sino que también generarán nuevas formas. (entre dichas herramientas vemos

sistemas de partículas, simulación física, animación comportamental, evolución artificial, sistemas-L,

etc.). Trabajar con software de animación 3D afectó la imaginación arquitectónica literal y

metafóricamente. Las formas que aparecían en los proyectos de jóvenes arquitectos y estudiantes de

arquitectura en la segunda parte de los 90’s parecían que estaban en proceso de ser animados,

capturas de la transformación de un estado a otro. Las presentaciones de proyectos e investigaciones

empezaron a incluir múltiples variaciones de una misma forma generada mediante parámetros de

software. Finalmente, en proyectos como New York Port Authority Gateway de Gregg Lynn (1995)40,

las trayectorias de los objetos de una animación fueron literalmente convertidos en un diseño

arquitectónico. Usando un sistema de partículas (parte del software de animación Wavefront), que

genera un nube de puntos y los mueve en el espacio según se desee, Lynn capturó esos momentos y

los convirtió en curvas que sirvieron de base para su construcción.

Igualmente crucial fue la exposición de los arquitectos a la nueva generación de herramientas de

modelación en el software comercial de animación de los 90’s. Durante dos décadas, la principal

técnica de modelado 3D era la de representar un objeto como una colección de polígonos planos.

Pero a mediados de los 90’s, el incremento de velocidad y almacenamiento de las computadoras hizo

posible otra técnica: modelado basado en curvas suavizadas (splines). Esta nueva técnica para

representar la forma sacudió el pensamiento arquitectónico, llevándolo de la geometría modernista

rectangular hacia el favorecimiento de formas complejas y suaves hechas de curvas continuas. Como

resultado, desde la segunda parte de los 90’s, la estética de los “gotas” se ha vuelto dominante en la

inspiración de estudiantes, jóvenes arquitectos y “estrellas” establecidas como Zaha Hadid, Eric Moss

y UN Studio.

Pero ésta no fue la única consecuencia del cambio: de las herramientas estándar de arquitectura y

software de diseño asistido por computadora (como AutoCAD) hacia el software de animación y

40 Gregg Lynn, Animate Form (Princeton Architectural Press, 1999), pp. 102–19.

Page 47: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 47 / 55

efectos especiales. Tradicionalmente, los arquitectos creaban nuevos proyectos con base en la

topología existente. Una iglesia, una residencia privada, una estación de tren… todas tenías tipos bien

conocidos: plantillas espaciales que determinaban cómo se debía organizar el espacio. De forma

similar, cuando se diseñaban los detalles de un proyecto, un arquitectos seleccionaba de varios

elementos estándar con funciones y formas establecidas: columnas, puertas, ventanas, etc41. En las

viviendas del siglo XX producidas masivamente, sólo más tarde se adoptó esta lógica que

eventualmente se codificó en las interfaces del software CAD.

Pero cuando a inicios de los 90’s, Greg Lynn, la firma Asymptote, Lars Spuybroek y demás jóvenes

arquitectos empezaron a usar software 3D que era usado por otras industrias, se dieron cuenta que

esos software no venían con ninguna plantilla arquitectónica estándar. Además, si el software CAD

para arquitectos ve las formas rectangulares como los componentes básicos de una estructura, el

software de animación 3D no tenía dichos supuestos. Más bien, ofrecía curvas y superficies

suavizadas, y formas creadas con dichas curvas (que eran apropiadas para la creación y animación

de personajes de juegos y productos industriales). (De hecho, las splines fueron introducidas

originalmente en las gráficas computacionales, en 1962, por Pierre Bézier, para su uso en el diseño

de automóviles asistido por computadora).

Como resultado, en lugar de ser entendido como una composición hecha de plantillas de partes

estándar, un edificio se pudo imaginar como una forma curveada continua que puede variar

infinitamente. También se pudo imaginar como varias formas continuas interactuando entre ellas. En

cualquier caso, la forma de cada una de esas formas no estaba determinada a priori por ningún tipo

tipología.

(En retrospectiva, podemos pensar este “mal-uso” altamente productivo del software de animación y

modelación 3D por los arquitectos como otro caso de hibridación de medios, en particular a lo que me

he referido como efecto “de cruzada”. En este caso, es un cruce entre las herramientas y

convenciones de un campo de diseño (animación de personajes y efectos especiales) y las formas de

pensar y conocimientos de otro campo (aquí, la arquitectura).

Para relacionar esta discusión sobre la arquitectura con el principal tema de este capítulo (la

producción de imágenes en movimiento), podemos ver que ambos campos fueron afectados por la

informatización en una forma estructuralmente similar. En el caso de la animación comercial del siglo

XX, todos los cambios temporales dentro de un cuadro está limitado, eran discretos y usualmente de

orientación semántica (es decir, conectados a la narrativa). Cuando un personaje se movía, caminaba

41 Agradezco a Lars Spuybroek, director de Nox, por haberme explicado cómo el uso del software para el diseño

arquitectónico subvirtió el pensamiento tradicional basado en tipologías.

Page 48: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 48 / 55

dentro de un cuadro, volteaba su cabeza o extendía su brazo, esto era usado para desarrollar la

historia42. Después del cambio a un proceso de producción basado en software, las imágenes en

movimiento mostraban transformaciones constantes en muchas dimensiones visuales que no ya

estaban limitadas por la semántica. Tal como es definida en numerosas secuencias de gráficos

animados y cortometrajes de los 2000’s, las formas visuales contemporáneas cambian

constantemente, pulsan y mutan más allá de la necesidad de comunicar significados y narrativas.

(Las películas de Blake y Murata son ejemplos claros de esta nueva estética de la forma variable;

muchos otros ejemplos se pueden hallar fácilmente navegando sitios web que exhiben trabajos de

estudios y diseñadores independientes).

Un proceso paralelo tomó lugar en el diseño arquitectural. Las diferencias en una forma

arquitectónica tradicional estaba conectadas con la necesidad de comunicar significados y/o de

cumplir con un programa arquitectural. Una apertura en un muro era una puerta o una ventana; un

muro era una frontera entre diferentes espacios funcionales. Así, tal como en la animación, los

cambios en la forma estaban limitados y eran guiados por la semántica. Pero hoy, la forma

arquitectónica diseñada y con software de modelación puede cambiar su geometría a través del

diseño completo, y estos cambios ya no tienen que estar justificados por una función.

La terminal aérea del Yokohama International Port (2002), diseñada por Foreign Office Architects,

ilustra claramente esta estética de la forma variable en la arquitectura. El edificio es un volumen

espacial complejo y continuo, sin un solo ángulo recto y sin fronteras que dividan la forma en partes o

que la separen del plano del suelo. Cuando visité el edificio en diciembre de 2003, pasé cuatro horas

explorando las continuidades entre sus espacios exteriores e interiores, disfrutando el cambio

constante de sus superficies curveadas. El edificio puede ser comparado con un cinta de Möbius,

excepto que es mucho más compleja, menos simétrica y más impredecible. Sería más apropiado

pensar en esta estructura como un conjunto de cintas Möbius interconectadas suavemente.

Para resumir esta discusión de cómo el cambio a una representación basada en software afectó el

lenguaje moderno de la forma: todas las contantes fueron reemplazadas por variables, cuyos valores

pueden variar continuamente. Como resultado, la cultura entró en lo que llamamos el giro de la

continuidad. Tanto la forma temporal-visual de los motion graphics y el cine de diseño como la forma

espacial de la arquitectura entraron al universo del cambio constante y transformaciones. (Los

campos del diseño de productos y del diseño de espacios también fueron afectados). Antes, esta

estética de “continuidad total” sólo fue imaginada por algunos artistas. Por ejemplo, en los 50’s, el

42 En el caso de la animación narrativa producida en Rusia, Europa del Este y Japón, los cambios visuales en una

secuencia no siempre estaban guiados por el desarrollo de una narrativa y podían servir otros propósitos: crear

una atmósfera, representar un estado emocional o simplemente usado estéticamente por sí mismo.

Page 49: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 49 / 55

arquitecto Frederick Kiesler diseñó un proyecto llamado Continuous House que, como su nombre lo

indica, es una sola y continua forma curva espacial, sin las limitantes de las divisiones habituales en

los cuartos. Pero cuando los arquitectos empezaron a trabajar con software de animación y

modelación 3D en los 90’s, dicha forma de pensar se volvió normal. De igual forma, dichas formas

continuas se volvieron eventualmente la norma en el cine.

Hoy existen muchos cortometrajes famosos y proyectos de edificios de pequeña escala basados en la

estética de la continuidad, es decir, una sola forma en constante cambio. Pero el próximo reto para

los motion graphics y la arquitectura es descubrir maneras de usar esta estética a gran escala.

¿Cómo escalamos la idea de una simple forma en constante cambio visual y espacial, sin cortes (para

el cine) o divisiones de sus distintas partes (para la arquitectura)?

En la arquitectura, algunos arquitectos ya han empezado a abordar exitosamente este reto. Entre los

ejemplos ya realizados contamos con la terminal Yokohama International Port; el Kunsthaus en Graz,

de Peter Cook (2004); y, el Museo Ordos, de MAD Architects en Mongolia, China (2012). Otros en

construcción son el Performing Arts Centre de Zaha Hadid en la isla Saadiyat en Abu Dhabi, Emiratos

Árabes Unidos. (Después de la crisis económica del 2007, muchos proyectos ambiciosos en Dubái y

Europa del Este fueron retrasados o cancelados, pero China y otros países siguen tomando riesgos y

adoptando el nuevo diseño arquitectural de curvas complejas continuas).

¿Y qué hay de los motion graphics? Blake ha sido uno de los pocos aristas que han explorado

sistemáticamente cómo el lenguaje híbrido visual se puede usar en piezas más largas. Sodium Fox

dura 14 minutos; una pieza previa, Mod Lang (2001) dura 16 minutos. Las tres películas que

constituyen la trilogía Winchester (2001-2004) duran 21, 18 y 12 minutos. Ninguna de estas

películas tiene un solo corte.

Sodium Fox y la Winchester Trilogy usan una variedad de fuentes visuales, incluyendo fotografías,

metraje viejo, dibujos, animación, texto e imaginería por computadora. Todos estos medios están

tejidos en un flujo continuo. Como ya lo hemos mencionado en relación con Sodium Fox, en contraste

con piezas de motion graphics más pequeñas que muestran un frenesí de movimientos y animación,

las películas de Blake tienen muy poca animación, en su sentido tradicional. En su lugar, varias

imágenes fijas y en movimiento se funden gradualmente entre ellas. Así que mientras cada film se

mueve a un terreno vasto de diferentes visuales, es imposible dividir el film en unidades temporales.

De hecho, aún cuando tratáramos, no podríamos dar seguimiento a cómo llegamos a cierta imagen

en unos cuantos minutos. Y, por lo tanto, estos cambios fueron producidos por cierta lógica, aún

cuando nuestro cerebro no los asume mientras vemos el film.

Page 50: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 50 / 55

La continuidad hipnótica de estas películas puede ser parcialmente explicada por el hecho de que

todos los recursos visuales en las películas fueron manipulados con software de gráficos. Además,

muchas imágenes se borran levemente. Como resultado, sin importar el origen de las imágenes,

todas adquieren cierta coherencia. Así, aunque los films juegan en las diferencias semánticas y

visuales entre acción viva, dibujo, fotografía con filtros animados y demás medios, estas diferencias

no generan yuxtaposición o montaje estilístico 43 . Más bien, varios medios parecen coexistir

pacíficamente, ocupando el mismo espacio. En otras palabras, las películas de Blake parecen sugerir

que el remix profundo no es el único resultado posible de la softwareización.

Ya hemos discutido en detalle el concepto de metamedio de Alan Kay. Según la propuesta de Kay,

hecha en los 70’s, debemos ver la computadora digital como un metamedio que contiene todos los

“diferentes medios existentes y aún no inventados”44. ¿Qué implica esto para la estética de los

proyectos digitales? En mi opinión, no implica necesariamente que los diferentes medios se fusionan,

o crean un nuevo híbrido, o resultan en “multimedios”, “intermedios”, “convergencia” o una

Gesamtkunstwerk totalizante. Como lo he argumentado, en lugar de colapsar en una sola entidad, los

diferentes medios (es decir, las diferentes técnicas, formatos de datos, fuentes de datos y métodos

de trabajo), empiezan a interactuar, produciendo gran número de híbridos o nuevas “especies de

medios”. En otras palabras, justo como la evolución biológica, la evolución de medios en la era del

software lleva a la diferenciación e incremento de diversidad (más especies en lugar de menos).

En el mundo dominado por híbridos, las películas de Blake son raras, al presentarnos relativamente

apariciones de medios “puros”. Podemos interpretar esto ya sea como la lentitud del mundo del arte,

que está detrás de la etapa evolutiva de los medios profesionales (o como una estrategia inteligente

de Blake para separarse del frenesí y sobre-estímulo común de los gráficos animados). O podemos

leer su estética como un supuesto implícito contra la idea popular de “convergencia”. Como lo

demuestran sus películas, mientras medios diferentes se han vuelto compatibles, esto no significa

que sus distintas identidades han colapsado. En Sodium Fox y en la Winchester Trilogy, los elementos

visuales de diferentes medios mantienen sus características esenciales y apariencia única.

Las realizaciones de Blake también expanden nuestro entendimiento de lo puede abarcar la estética

de la continuidad. Diferentes elementos de medios se añaden continuamente, unos sobre otros,

creando una experiencia de flujo continuo que, sin embargo, preserva sus diferencias. La artista

danesa Ann Lislegaard también pertenece a la “generación de la continuidad”. Algunas de sus

películas involucran navegación continua o una observación de los espacios arquitectónicos

43 En el capítulo de la “Composición” de The Language of New Media, he definido “montaje estilístico” como

“yuxtaposiciones de diversas imágenes con diversos estilos en diferentes medios”. 44 Kay & Goldberg, “Personal Dynamic Media”.

Page 51: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 51 / 55

imaginarios. Podemos relacionar estas películas con un número de pintores y cineastas del siglo XX,

que estaban preocupados por similares experiencias espaciales: Giorgio de Chirico, Balthus, los

surrealistas, Alain Resnais (L'année dernière à Marienbad, 1961), Andrei Tarkovsky (Stalker, 1979).

Sin embargo, la sensibilidad de Lislegaard es, sin duda, de inicios del siglo XXI. Los espacios no

chocan entre ellos, como en L'année dernière à Marienbad, ni tampoco se vuelven misteriosos con la

introducción de figuras y objetos (una práctica de René Magritte y otros surrealistas). Más bien, como

sus contemporáneos Blake y Murata, Lislegaard nos presenta formas que cambian continuamente

frente a nuestros ojos. Nos ofrece otra versión de la estética de la continuidad hecha posible por

software como After Effects, que traduce la lógica general de la representación por computadora (la

sustitución de todas las constantes en variables) en interfaces y herramientas concretas.

Los cambios visuales en Crystal World de Ann Lislegaard (basada en J.G. Ballard) (2006), ocurren

justo frente a nosotros, y aún así son casi imposibles de seguir. En el espacio de un minuto, un

espacio se transforma completamente en algo muy diferente.

Crystal World crea su propia estética de híbridos, combinando espacios foto-reales, formas

completamente abstractas y fotografías digitalizadas de plantas. (Aunque no conozco el software que

uso el asistente de Lislegaard, se trata evidentemente de un paquete de animación 3D). Como todo

está interpretado en escala de grises, las diferencias entre los medios no son pronunciadas. Y por lo

tanto ahí están. Ese este tipo de sutil, y al mismo tiempo precisa, distinción entre diferentes medios lo

que da al video su belleza única. En contraste con el montaje del siglo XX, que creaba significado y

efecto mediante yuxtaposiciones dramáticas de semántica, composiciones, espacios y diferentes

medios, la estética de Lislegaard cabe junto con otros proyectos culturales minimalistas de principios

del siglo XXI. Hoy, los creadores de arquitectura mínima y diseño de espacio, gráficos web,

animaciones generativas e interactivas, música ambiente electrónica, asumen igualmente que el

usuario es suficientemente inteligente para entender y disfrutar distinciones sutiles y modulaciones

continuas.

Bellona, de Lislegaard, (basada en Samuel R. Delany) (2005) lleva la estética de la continuidad en

una dirección diferente. Nos movemos dentro y a través de lo que parece un solo conjunto de

espacios. (Históricamente, este movimiento continuo en un espacio 3D tiene sus raíces en los

primeros usos de la animación 3D por computadora: primero para simulaciones de vuelo y, después,

en recorridos y disparadores en primera persona). Mientras atravesamos los mismos espacios varias

veces, cada vez son interpretados en una paleta de colores diferente. La transparencia y los niveles

de reflexión también cambian. Lislegaard está jugando con el espectador: mientras la estructura

general del film se vuelve clara rápidamente, es imposible seguir el espacio en que estamos en algún

momento. Nunca estamos seguros si ya hemos estado ahí o si es un espacio nuevo.

Page 52: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 52 / 55

Bellona puede ser visto como una alegoría de la “forma variable”. En este caso, la variabilidad se lleva

a cabo como paletas de colores y ajustes de transparencias infinitas. No importa cuantas veces

hayamos visto el mismo espacio, siempre puede aparecer de una nueva forma.

Enseñarnos nuestro mundo y nosotros mismos de una manera nueva es, claro, el objetivo de todo

arte moderno, sin importar el medio. Al sustituir las constantes por variables, el software de medios

institucionaliza este deseo. Ahora todo puede cambiar y todo puede ser interpretado (“rendereado”)

de nueva forma. Por supuesto, simples cambios en color o variaciones en una forma espacial no son

suficientes para crear una nueva visión del mundo. Hace falta talento para transformar las

posibilidades que ofrece el software en supuestos significativos y experiencias originales. Lislegaard,

Blake y Murata (junto con muchos otros diseñadores y artistas talentosos que siguen trabajando) nos

ofrecen visiones distintas y originales de nuestro mundo en un estado de transformación y

metamorfosis continuo: visiones que son totalmente apropiadas para nuestro tiempo de rápidos

cambios sociales, tecnológicos y culturales.

Amplif icación

Aunque las discusiones en este capítulo no han cubierto todos los cambios que se produjeron durante

la Revolución de Terciopelo, sí debe dejar clara la magnitud de las transformaciones en la estética de

la imagen en movimiento y en las estrategias de comunicación. A pesar de que podemos nombrar

muchos factores sociales que pudieron haber jugado un rol importante (el surgimiento de las marcas,

la economía de la experiencia, mercados jóvenes y el web como plataforma global de comunicación

en los 90’s), creo que estos factores, solos, no pueden abarcar el diseño específico y la lógica visual

que vemos hoy en la cultura de medios. De forma similar, no pueden ser explicados con sólo decir

que la sociedad consumista contemporánea requiere constante innovación, estética y efectos. Esto

puede ser cierto (pero ¿por qué vemos estos lenguajes visuales, en particular, y no otros? Y, ¿cuál es

la lógica de conduce su evolución?) Considero que para entender esto de forma adecuada,

necesitamos observar el software de creación, producción y diseño, y sus usos en el ambiente de

producción, que pueden ir de una persona con una laptop a una variedad de compañías de

producción alrededor del mundo con miles de personas colaborando en un mismo proyecto de gran

escala, como un largometraje. En otras palabras, necesitamos usar la perspectiva de los Estudios de

Software.

Los creadores del software usado en la producción de medios usualmente no se establecen la

creación de una revolución. Al contrario, el software es creado para encajar en procedimientos

existentes de producción, puestos de trabajo y tareas familiares. Pero las aplicaciones de software

son como especies en una misma ecología (en este caso, un ambiente compartido de computadoras

Page 53: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 53 / 55

digitales). Una vez “lanzado”, empiezan a interactuar, mutar y crear nuevos híbridos. La Revolución

del Terciopelo puede, por consecuencia, ser entendida como el periodo de hibridación sistemática

entre diferentes especies de software originalmente diseñadas para trabajar en diferentes medios.

Para 1993, los diseñadores tenían acceso a varios programas que ya eran bastante poderosos pero

muy incompatibles: Illustrator para hacer dibujos vectoriales, Photoshop ara editar imágenes de tonos

continuos, Wavefront y Alias para modelar y animar 3D, After Effects para animación 2D, etc. Para

finales de los 90’s, fue posible usarlos en un mismo flujo de trabajo. Un diseñador podía ahora

combinar operaciones y formatos representacionales, como una imagen de bitmaps fija, una

secuencia de imágenes, un dibujo vectorial, un modelo 3D y un video digital, específicos a estos

programas en un mismo proyecto. Creo que el lenguaje visual híbrido que vemos hoy a través de la

cultura de la “imagen en movimiento” y del diseño de medios en general es en gran medida el

resultado de este nuevo ambiente de producción. Mientras este lenguaje soporta, aparentemente,

numerosas variaciones, como se ve en diseños particulares, su propiedad estética clave se puede

resumir en una idea: remezcla profunda de lenguajes de medios previamente separados.

Como ya lo he dicho más de una vez, el resultado de esta hibridación no es simplemente una suma

mecánica de las partes previamente existentes, sino nuevas “especies”. Esto aplica tanto para el

lenguaje visual de diseño particulares como para las operaciones mismas. Cuando una operación de

medios pre-digital se integra en el ambiente general de un software de producción, comúnmente

funciona de nueva manera. Quisiera concluir con el análisis a detalle de cómo funciona este proceso

en el caso de una operación en particular (con el fin de enfatizar una vez más que la remixabilidad de

los medios no se trata simplemente de añadir contenido de diferentes medios, o de añadir sus

técnicas y lenguajes juntos). Y como se entiende comúnmente que el remix en la cultura

contemporánea tiene este tipo de adiciones, podríamos usar un nuevo término para referirnos a las

transformaciones que ilustra el ejemplo que sigue. He llamado provisionalmente a esto “remezcla

profunda”, pero lo que es importante es la idea y no un término en particular (así que si tienes una

sugerencia de un mejor término, envíame un correo electrónico).

¿Qué significa cuando vemos efectos de profundidad de campo en gráficos animados, películas y

programas de televisión que usan acción viva, o gráficos 3D foto-realistas, pero que tienen una

apariencia más estilizada? La profundidad de campo, originalmente un artefacto de la grabación

basada en lentes, fue simulada en el software en los 80’s, cuando el objetivo del campo de las

gráficas computacionales 3D fue crear un “foto-realismo” máximo, es decir, escenas sintéticas que no

se distinguen de la cinematografía de acción viva. Pero una vez que esta técnica se volvió disponible,

los diseñadores de medios gradualmente se dieron cuenta que podía ser usada sin importar qué tan

realista o abstracto es el estilo (siempre y cuando hubiera se evocara un espacio 3D). Tipografía que

se mueve en perspectiva a través de un espacio vacío; personajes 2D dibujados, puestos en

Page 54: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 54 / 55

diferentes capas del espacio 3D; un campo de partículas animadas (cualquier composición espacial

puede ser puesta en la profundidad de campo simulada).

El hecho que este efecto sea simulado y retirado de su medio físico original significa que un diseñador

puede manipularlo en una variedad de formas. Los parámetros que definen cuál parte del espacio

está activo pueden ser animados independientemente, es decir, pueden definirse para cambiar en el

tiempo (porque son simplemente los números controlando el algoritmo y no algo construido en la

óptica del lente físico). Así que, mientras la profundidad de campo simulada mantiene la memoria del

medio físico particular de donde vino, se vuelve esencialmente una nueva técnica que funciona como

un “personaje” en su propio derecho. Tiene la fluidez y versatilidad no disponible previamente. Su

conexión con el mundo real es, en el mejor de los casos, ambigua. Por un lado, sólo tiene sentido usar

la profundidad de campo si estamos construyendo un espacio 3D, incluso si está definido de forma

mínima, usando sencillamente unas pocas o una sola señal de profundidad, como las líneas

convergentes hacia la línea de horizonte. Por otro lado, el diseñador ahora puede “dibujar” este efecto

en cualquier forma que desee. El ejes que controla la profundidad de campo no tiene que ser

perpendicular a la imagen plana, el área activa puede estar en cualquier lugar del espacio, también

se puede mover rápidamente alrededor del espacio, etc.

En resumen, cuando quitamos la profundidad de campo de su hardware original (cámaras de foto y

cine) y los movemos al software, cambiamos cuándo y cómo puede ser usado. Lo podemos seguir

usando en su contexto original (el de los medios basados en lentes). Esto es, lo podemos aplicar a

elementos gráficos 3D por computadora con el fin de hacerlos más compatibles con el video

capturado mediante lentes. Pero también lo podemos usar con muchos otros medios, para un efectos

meramente artístico. Y lo podemos usar en muchas formas que no habían sido consideradas cuando

era parte de su hardware original.

Siguiendo la Revolución de Terciopelo, la carga estética de muchos diseños de medios es derivada de

“simples” operaciones de remix: yuxtaposición de diferentes medios en lo que llamamos “montaje de

medios”. Sin embargo, para mí, la esencia de esta Revolución es fundamentalmente una “remezcla

profunda”, ilustrada, en este ejemplo, en la forma en cómo la profundidad de campo se amplifica

grandemente cuando se simula en software.

La informatización virtualizó prácticamente todos las técnicas de creación y producción de medios,

“extrayéndolos” de sus medios físicos particulares y volviéndolos algoritmos. Esto significa que, en

muchos casos, ya no veremos ninguna de las técnicas pre-digitales en su estado original puro. Esto es

algo que ya he discutido en general cuando vemos la primer etapa de la historia del software cultural,

es decir, los 60’s y los 70’s, examinando el trabajo de Sutherland en el primer editor gráfico

interactivo, Sketchpad, los conceptos de Nelson sobre el hipertexto e hipermedios, y las discusiones

Page 55: Capítulo 5 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 5 – El Software Toma el Mando 55 / 55

de Kay sobre el libro electrónico (“ [el libro electrónico] no tiene que ser tratado como un libro de

papel simulado debido a que es un nuevo medio con nuevas propiedades”). Ahora hemos visto cómo

esta idea general, ya articulada en los 60’s, se abrió paso hasta los detalles de las interfaces y

herramientas de aplicaciones para el diseño de medios que, eventualmente, reemplazaron la mayoría

de las herramientas tradicionales: After Effects, Illustrator, Photoshop, Flash, Final Cut, etc. Así que lo

que es cierto para la profundidad de campo también lo es para muchas de las otras herramientas que

ofrecen las aplicaciones de diseño de medios.

Lo que fue un conjunto de conceptos teóricos implementados unos cuantos sistemas de software sólo

accesibles a sus creadores en los 60’s y 70’s (como Sketchpad o la estación de trabajo de Xerox

PARC), más tarde se convirtió en un ambiente de producción universal usado actualmente en todas

las áreas de las industrias culturales. Las interacciones en curso entre las ideas de la industria del

software y los deseos de los usuarios sobre sus herramientas (diseñadores de medios, diseñadores

gráficos, editores de film, etc.) llevó a una evolución posterior del software, por ejemplo el surgimiento

de una nueva categoría de sistemas de “gestión de recursos digitales” en los primeros años de los

2000’s, o el concepto de “tubería de producción” que se volvió importante a mitad de esa década. En

este capítulo hemos descrito solo una dirección, entre muchas otras, de la evolución del software, sus

herramientas y sus formatos de medios. Como hemos visto, el resultado de esta tendencia fue el

surgimiento de un nuevo tipo de estética que hoy domina la cultura visual y de medios.