capítulo 4 - el software toma el mando (manovich)
DESCRIPTION
Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.TRANSCRIPT
Manovich. Capítulo 4 – El Software Toma el Mando 1 / 34
Capítulo 4. Evolución del software1
Lev Manovich
Algoritmos y estructuras de datos
¿Qué hace posible la hibridación de técnicas de creación, edición y navegación de medios? Para
responder esta pregunta debemos retomar lo que significa simular medios físicos con software. Por
ejemplo, ¿qué significa simular la “fotografía” y los “impresos”?
Una respuesta ingenua sería que las computadoras simulan los objetos mediáticos reales. Es decir,
una fotografía digital simula una fotografía análoga impresa en papel; una ilustración digital simulan
una ilustración dibujada sobre papel; y, un video digital simula un video grabado en un video-cassette.
Pero así no es como funcionan las cosas.
Lo que el software simula son las técnicas físicas, mecánicas o electrónicas usadas para crear,
editar, navegar e interactuar con los datos de los medios. (Y, claro, también los extiende y aumenta,
como lo vimos en la parte 1). Por ejemplo, la simulación de los impresos incluye técnicas para escribir
y editar texto (copiar, cortar, pegar, insertar); técnicas para modificar la apariencia del texto (cambiar
fuentes o color de texto) y el diseño del documento (definir márgenes, insertar números de páginas,
etc.); y, técnicas para visualizar el documento final (ir a la página siguiente, ver múltiples páginas,
zoom, crear un separador). Igualmente, la simulación del cine con software incluye las técnicas de la
cinematografía como el enfoque, la gramática de movimiento de cámara (paneo, inclinación, zoom),
los tipos lentes que definen lo que se ve en una escena, etc. La simulación del video análogo incluye
un set de navegación: reproducción, reproducción inversa, adelantar, reproducción continua (loop),
etc. O sea, simular un medio con software significa simular sus herramientas e interfaces, en lugar de
sus “materiales”.
Antes de su “softwareización”, la técnicas disponibles en un medio particular eran parte de su
“hardware”. Este hardware eran los instrumentos para inscribir información en algún material,
modificarla y (si la información no era directamente accesible a los sentidos humanos, como era el
caso de las grabaciones de audio) presentarla. Juntos, materiales e instrumentos, determinaban lo
que un medio dado podía hacer.
Por ejemplo, las técnicas disponibles para escribir eran determinadas por las propiedades del papel y
los instrumentos de escritura, como las plumas fuente o la máquina de escribir (Por ejemplo, el papel
1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.
Manovich. Capítulo 4 – El Software Toma el Mando 2 / 34
permite hacer y sobreponer marcas, que se pueden borrar si están hechas a lápiz, pero no con tinta,
etc.). Las técnicas cinematográficas están determinadas por las propiedades del celuloide y los
instrumentos de filmación (es decir, las cámaras). Debido a que cada medio usaba su propio material
e instrumentos físicos, mecánicos o electrónicos, cada uno también desarrollo su propio conjunto de
técnicas, con ligera superposición.
Entonces, como las técnicas de los medios eran parte de un hardware incompatible con otro, esto
impedía su hibridación. Por ejemplo, aún cuando era posible borrar una palabra escrita a máquina de
escribir o sobre-escribirla, esto no se podía con una película ya revelada. O, se podían hacer
alejamientos mientras se filmaba progresivamente una escena, revelando así más información, pero
no se podía hacer lo mismo mientras se leía un libro (es decir, no se podía reformatear un libro para
ver todo el capitulo de un solo vistazo). La interfaz del libro impreso sólo permitía accede a la
información con un nivel de detalle constante: todo lo que cupiera en dos páginas juntas2.
La simulación con software libera la creación de medios y las técnicas de interacción de sus
respectivos hardware. Cuando las técnicas se traducen en software se vuelven algoritmos. ¿Pero qué
pasa con los materiales físicos de los diferentes medios? Parece que, en el proceso de simulación,
son eliminados. En su lugar, los algoritmos de los medios, como todo el software, funcionan en un
solo material: los datos digitales, los números.
Sin embargo, la realidad es más compleja y más interesante. Las diferencias entre los materiales de
distintos medios no se evaporan en el aire. En lugar de una variedad de materiales físicos, los medios
computacionales usan diferentes maneras de codificar y almacenar la información (diferentes
estructuras de datos). Y aquí viene el punto crucial. En lugar de un gran número de materiales físicos,
las simulaciones con software usan un número más pequeño de estructuras de datos.
(Una nota sobre mi uso del término “estructura de datos”. En las ciencias computacionales, una
estructura de datos se define como “una forma particular de guardar y organizar datos en una
computadora, con el fin de que puedan ser usados de forma más eficiente”. Algunos ejemplos de
estructuras de datos son los arreglos, las listas, y los árboles. Aquí quiero darle al término un sentido
diferente. Hago referencia a representaciones de “nivel más alto” que son centrales a los medios
computacionales contemporáneos: una imagen bitmap, una imagen vectorial, un modelo poligonal
3D, modelos NURBS, un archivo de texto, un archivo HTML, y otros. Las TI, los medios y la cultura
siguen dando vueltas alrededor de estos formatos pero aún no tienen un nombre unificado. Para mí,
el término “representación” tiene mucha carga cultural, mientras que “tipo de dato” suena muy
2 Ésta era una de las convenciones de los libros que, a inicios del siglo XX, tuvo poetas y diseñadores detractores
como los modernistas Marinetti, Rozanova, Kruchenykh, Lissitzky y demás.
Manovich. Capítulo 4 – El Software Toma el Mando 3 / 34
técnico. Prefiero “estructura de datos” porque tiene, al mismo tiempo, un sentido para las ciencias
computacionales y para las humanidades (la “estructura”). El término seguirá recordándonos que lo
experimentamos como “medios”, “contenido”, o “artefacto cultural”, es técnicamente un conjunto de
datos organizados de una forma particular.)
Pensemos en los tipos de materiales que se pueden usar para crear imágenes 2D (piedra, pergamino,
lienzo, tipos de papel). Añadamos las películas fotográficas, acetatos rayos X, celuloides, etc. La
imagen digital sustituye todos estos materiales con sólo dos estructuras de datos. La primera es la
imagen bitmap (un mapa de “elementos pictoriales” discretos, como los pixeles, cada uno con su
propio valor cromáticos o en escala de grises). La segunda es la imagen vectorial, que consiste en
formas y líneas definidas por ecuaciones matemáticas.
¿Y entonces qué pasa con todos los efectos que era posible de lograr con estos materiales físicos?
Dibujar sobre una superficie rugosa produce un efecto diferente que dibujar sobre un papel suave.
Tallar una imagen en madera es diferente que grabarla sobre metal. Con la softwareización, estos
efectos pasan del “hardware” (materiales y herramientas físicas) al “software”.
Los algoritmos para crear y editar imágenes bitmap operan sobre la misma estructura de datos (una
cuadrícula de pixeles). Aunque usan diferentes etapas computacionales, el resultado final de estos
cálculos siempre es el mismo (una modificación de los colores de algunos pixeles). Dependiendo de
cuáles pixeles se están modificando, y de qué manera, los algoritmos pueden simular visualmente los
efectos de las técnicas de dibujo, pintura y grabado sobre diferentes superficies.
Antes, los efectos de un medio eran el resultado de la interacción entre las propiedades de la
herramienta con el material. Ahora es sólo cuestión de algoritmos, que modifican un solo material, por
así decirlo (una estructura de datos común). Hoy podemos aplicar primero un algoritmo que actúa
como pincel sobre lienzo, luego un algoritmo que dará un efecto de acuarela sobre papel corrugado,
luego una pluma fina sobre papel sueva, y así. En pocas palabras, las técnicas de medios
previamente separados ahora se pueden combinar en una misma imagen. Y como las aplicaciones de
medios, como Photoshop, vienen con una docena de estos algoritmos ya integrados (presentado al
usuario como herramientas y filtros, con sus debidos controles y paneles), ésta posibilidad teórica se
vuelve una práctica estandarizada. El resultado es un nuevo medio híbrido que combina las
posibilidades de muchos medios sueltos, que ya existían previamente.
En lugar de numerosos materiales e instrumentos separados, ahora podemos usar una sola
aplicación de software, cuyas herramientas y filtros pueden simular diferentes técnicas de creación y
modificación de medios. Los efectos que antes no se podían combinar, debido a que dependían de un
material en particular, ahora están disponibles en un menú desplegable. Y cuando alguien inventa un
Manovich. Capítulo 4 – El Software Toma el Mando 4 / 34
nuevo algoritmo, o una nueva versión de un algoritmo existente, se pueden añadir fácilmente a este
menú mediante la arquitectura del plug-in, ya un estándar desde los 90’s (el término “plug-in” fue
acuñado en 1987 por los desarrolladores de Digital Darkroom, una aplicación de edición de fotos3). Y
por supuesto también se añadir la variedad de técnicas de creación y manipulación de imágenes que
no existían previamente: imagen aritmética, generación algorítmica de texturas (como el filtro Nubes
de Photoshop), filtros de desenfoque, etc. (se pueden ver más ejemplos en los menús de Photoshop).
Para resumir este análisis, la simulación con software substituye una variedad de materiales y
herramientas usadas para inscribir información (es decir, hacer marcas) sobre estos materiales
mediante un nuevos medio híbrido definido por una estructura de datos común. Gracias a esta
estructura común, múltiples técnicas que antes eran únicas a diferentes medios ahora pueden ser
usadas de forma conjunta. Al mismo tiempo, nuevas formas que no existían antes también pueden
ser agregadas, siempre y cuando operen con la misma estructura de datos.
(Nota: mucho formatos estándar de imagen contemporánea, como el formato .PSD de Photoshop, son
mucho más complejos que una simple cuadrícula de pixeles (también incluyen canales alfa, capas,
perfiles de color, etc.). También pueden combinar representaciones bitmap y vectoriales. Sin
embargo, para mi estudio sólo estoy hablando de su común denominador, que al final es también
sobre lo que trabajan los algoritmos de una imagen cargada en la memoria (un arreglo de pixeles con
valores de colores).)
Vemos ahora otro ejemplo de lo que pasa cuando materiales físicos de diferentes medios se simulan
en el software. Pensemos en el software de modelación 3D, como Blender, Maya, 3ds Max, LightWave
3D o Google SketchUp. Estas aplicaciones proveen las técnicas necesarias para crear formas 3D que
antes eran “cableadas” a diferentes medios físicos. Por ejemplo, en herramientas de escultura se
pueden modelar formas redondeadas como si fueran de barro o arcilla. Las aplicaciones 3D también
incluyen nuevas técnicas para definir y modificar formas que no había antes: bizelado, extrusión,
esferizar, aleatorizar, booleanos, suavizar, “loft”, “morth”, simplificar, subdividir y demás4. Tal como
pasa con software de edición de imágenes, las nuevas técnicas se pueden añadir siempre y cuando
respeten las estructuras de datos que el software 3D reconoce. (Los más comunes son los modelos
poligonales y los modelos NURBS5. El primero está hecho de polígonos y el segundo de curvas
suavizadas). Estas estructuras de datos son los nuevos “materiales” que el software sustituye por una
3 http://en.wikipedia.org/wiki/Digital_Darkroom, febrero 19, 2012. 4 Para una lista de operaciones que se pueden hacer en modelos 3D basados en polígonos ver:
http://en.wikipedia.org/wiki/Polygon_modeling#Operations. 5 http://en.wikipedia.org/wiki/3D_modeling.
Manovich. Capítulo 4 – El Software Toma el Mando 5 / 34
variedad de materiales físicos usados por los humanos para crear formas 3D física, como la piedra, la
madrea, la arcilla y el concreto.
Estos dos ejemplos de estructuras de datos bitmap y 3D nos dicen porqué es incorrecto pensar que
las computadoras trabajan con un solo material digital, por así decirlo, es decir, los códigos binarios
hechos de 0 y 1. Claro que esto es lo que ocurre en el nivel más profundo de la máquina (pero esto es
irrelevante para los usuarios del software y para la gente que lo escribe). El software de medios
contemporáneos tiene sus propios “materiales” (estructuras de datos usadas para representar
imágenes fijas y animadas, formas, volúmenes y espacios 3D, textos, composiciones de audio,
diseños editoriales, páginas Web y otros “datos culturales”). Estas estructuras de datos no
corresponden a materiales físicos en escala 1:1. Más bien, varios materiales físicos están mapeados
en una simple estructura (por ejemplo, los diferentes materiales de imagen como papel, lienzo,
película fotográfica y cintas de video se vuelven una misma estructura de datos: una imagen bitmap).
Este mapeo de muchos hacia uno, de materiales físicos hacia estructuras de datos, es una de las
condiciones que permite la hibridación de las técnicas de medios.
¿Qué es un “medio”?
Hemos dedicado un espacio considerable al análisis de aquello que hace único al software de medios
respecto de los medios pre-digitales. Este análisis también nos ha permitido comprender mejor
porqué la hibridación se volvió la siguiente etapa de la evolución del metamedio computacional y
empezar a buscar las huellas de los mecanismos de la hibridación. Veamos ahora si podemos usar
estas ideas para responder a una de las preguntas clave de este libro: ¿qué son los “medios” después
de su softwareización?
Para evitar confusiones: no estamos hablando del contenido real de los programas y fuentes de los
medios, ya sean programas de televisión, periódicos, blogs o el terreno en Google Earth. Ya existen
numerosas disciplinas académicas que estudian el contenido de los medios y su recepción: los
estudios de medios, la comunicación, el periodismo, el análisis cinematográfico y televisivo, los
estudios de los juegos, los estudios culturales, los estudios de internet. Tampoco hablamos de las
industrias de los medios (producción, distribución, recepción, mercados, aspectos económicos, etc.)
debido también hay diversas disciplinas que se ya ocupan de ello. Sin embargo, lo que no se hace
comúnmente es observar detenidamente las herramientas, tecnologías y flujos de trabajo usados
para producir el contenido de los medios. Pero cuando lo hacen, éste análisis se lleva a cabo en
relación a las herramientas de un medio en particular. Esto sucede porque el estudio académico
moderno de la cultura sigue las industrias culturales comerciales con su estricta división por tipo de
contenido. Así, los estudios de juegos estudian juegos, el análisis cinematográfico y televisivo se
Manovich. Capítulo 4 – El Software Toma el Mando 6 / 34
enfoca en películas y programas de TV, los estudio de internet observan el web, etc. Debido a las
divisiones, estas disciplinas dejan de lado características comunes a todos los medios y a la
producción cultural que se hace actualmente, que es el resultado de la dependencia en una misma
tecnología, el software de aplicaciones para la creación y edición de medios (ésta es una de las
razones por las que necesitamos la perspectiva de los estudios del software, para enfocarnos en
patrones culturales comunes relacionados con el uso de tecnología de software en todos sus campos
e diferentes industrias de medios).
También trataremos de definir lo que son los “medios” para sus creadores, en lugar de sus
consumidores. (Mientras que en los 2000’s había una considerable discusión sobre el
desvanecimiento de estas definiciones, sobretodo por la reducción de los precios de herramientas y la
emergencia del web social, en la práctica no se han borrado). Y finalmente, la gente que sabe de
programación computacional y puede crear medios mediante el desarrollo de programas tiene un
entendimiento diferente de los medios (pero la mayoría de las personas que crean contenidos de
medios usan solamente software de aplicaciones).
El universo de los usuarios de software de aplicaciones incluye “creativos profesionales”: artistas de
gráficos animados, diseñadores gráficos, fotógrafos, editores de video, diseñadores de productos,
arquitectos, artistas visuales, etc. También se pueden incluir a los “prosumidores” que hacen mezclas
de animé, que editan videos para subirlos a YouTube o Vimeo, que toman fotos que publicarán en
Flickr o que subirán sus imágenes artísticas a deviantArt.
Queremos entender lo que significa crear “medios” para todos ellos, definidos por las posibilidades
del software que usan (Photoshop, Gimp, Illustrator, InDesign, After Effects, Final Cut, Premiere,
CinePaint, Maya, Dreamweaver, WordPress, Blogger, Flash, OpenOffice, Pages, Microsoft Word, Flame,
Maya, etc.). (Y hablando de Word y otras aplicaciones de procesamiento de texto, también debemos
añadir los millones de personas que lo usan a diario y quienes, por ende, pueden ser considerados
expertos o, por lo menos, prosumidores de un medio).
Recordemos una de las definiciones de diccionario de “medio” que abre el capítulo Para entender los
metamedios: “un tipo específico de técnica artística o medio de expresión determinados por los
materiales usados o los métodos creativos involucrados”. (Como ejemplo, el diccionario se refiere al
“medio de la litografía”). Así, diferentes medios tienen diferentes técnicas, medios de expresión y
métodos creativos. Estas diferencias no desaparecen cuando cambiamos a aplicaciones de software.
Por ejemplo, aparte de las diferencias de representación y expresión evidentes entre un modelo 3D y
una imagen en movimiento, un diseñador que está modelando un personaje en Maya y una diseñador
que está haciendo una animación en After Effects tendrán acceso a diferentes herramientas. ¿Pero
Manovich. Capítulo 4 – El Software Toma el Mando 7 / 34
habrá similitudes conceptuales entre la forma en que estos dos diseñadores trabajan por medio del
software de medios?
O sea: qué son hoy los “medios”, definidos por las aplicaciones de software usadas para crearlos y
editarlos.
Como ya hemos dicho, los medios físicos, mecánicos y electrónicos existentes consistían en dos
componentes: materiales usados para almacenar información y algunas herramientas y equipo usado
para grabar, editar y ver esta información. Por ejemplo, “el medio cinematográfico” usaba stocks de
film para almacenar información, una cámara cinematográfica para grabar, un proyector para mostrar
las películas, y aparatos de edición como Moviola y Steenbeck. El medio de grabado a mano usaba
placas de acero (o cobre) para guardar la información y herramientas especiales de metal para
crearla (haciendo surcos en la placa).
¿Es posible encontrar el equivalente de estos dos componentes en el software? He aquí una
respuesta: los materiales se vuelven estructuras de datos; las herramientas físicas, mecánicas y
electrónicas se transforman en herramientas de software que operan en ellas. Desde esta
perspectiva, sin importar el campo particular del medio, todos los diseñadores y artistas que trabajan
con software de medios hacen lo mismo: usan las herramientas del software para crear y modificar
datos, organizados en estructuras particulares.
Esta respuesta puede ser atractiva pero no es precisa. La razón es que el paso de medios físicos a
aplicaciones de software implica una redistribución de los roles previamente jugados por las
herramientas físicas y los materiales. Cuando usamos una brocha de acuarela y un papel rugoso, los
trazos son el resultado simultáneo de la brocha, el agua y el papel. Pero cuando usamos una brocha
de “acuarela” en Photoshop, o aplicamos el filtro “acuarela” a una imagen existente, el resultado está
determinado únicamente por el algoritmo, que modifica los colores de los pixeles de una forma
particular. Los pixeles sólo son ubicaciones en la memoria que tienen valores cromáticos; no tienen
ninguna propiedad per se, contrario a los materiales físicos.
Por lo tanto, no tenemos un mapeo uno-a-uno entre materiales físicos y estructuras de datos. Una
misma estructura de datos, como una imagen bitmap, puede ser usada para simular varias técnicas
de imaginería: de la acuarela y el grabado a la fotografía. En concreto, observa las imágenes JPG que
tienes en tu computadora. Algunas fueron cargadas desde una cámara digital o de la cámara del
teléfono celular; otras son pequeños iconos usadas por las aplicaciones; y otras más son creaciones
personales hechas con diversas aplicaciones. La misma estructura de datos contiene múltiples
medios.
Manovich. Capítulo 4 – El Software Toma el Mando 8 / 34
Por esta razón, en lugar de decir que los materiales se vuelven estructuras de datos o que las
herramientas se vuelven algoritmos, sería más correcto decir que un medio, tal como es simulado en
software, es la combinación de una estructura de datos y un conjunto de algoritmos. La misma
estructura de datos puede ser compartida a través de diferentes simulaciones de medios pero al
menos algunos algoritmos seguirán siendo únicos a cada medio.
Hemos llegado a la definición de “medio” de software, que puede ser escrita así:
Medio = algoritmos + una estructura de datos
Los algoritmos y las estructuras de datos son dos elementos fundamentales de la programación
computacional. De hecho, uno de los libros más influyentes de las ciencias computacionales es
Algorithms Plus Data Structure Equals Programs de Niklas Wirth, publicado en 1975. Wirth y otros
científicos computacionales conceptualizaron el trabajo intelectual de la programación como dos
partes interconectadas: creación de estructuras de datos que cumplen lógicamente con la tarea que
debe ser realizada, de forma computacionalmente eficiente, y la definición de algoritmos que puedan
operar en estas estructuras de datos.
Podemos usar este modelo conceptual de la programación computacional para afinar nuestro
entendimiento de lo que hacen las aplicaciones de los medios. Todas las aplicaciones, incluyendo el
software de medios, son programas computacionales, así que internamente implican algoritmos que
funcionan sobre estructuras de datos. Este punto, de forma aislada, no es muy revelador. Lo que es
importante es que estos dos elementos, para mí, también definen el modelo mental que el usuario
tiene de la aplicación. En otras palabras, el modelo mental del usuario refleja la estructura abstracta
de una programa computacional (algoritmos que operan sobre estructuras de datos), que subyace el
la particular aplicación de software de medios.
Dentro del ambiente de una aplicación, un usuario trabaja con uno o más documentos con contenido
estructurado en alguna forma particular. El usuario tiene conciencia de la importancia de esta
estructura, aún cuando las aplicaciones de los medios no usan el término “estructura de datos”. El
usuario entiende que la estructura de datos determina el tipo de contenido que puede ser creado y
las operaciones que pueden ser usadas para darle forma y modificarlo. Si elegimos gráficos
vectoriales como formato, esto implica que estaré creando líneas rectas y curveadas, y degradados;
será posible modificar cualquier forma ulteriormente, sin pérdida de calidad; también será posible
obtener calidad de impresión perfecta a cualquier resolución. Si nuestro formato son imágenes
basadas en bitmaps, podemos trabajar con fotografías, desenfocar o acentuar detalles, pintar por
encima, aplicar filtros y demás. Pero el precio a pagar por esta flexibilidad es que la imagen tendrá
Manovich. Capítulo 4 – El Software Toma el Mando 9 / 34
imperfecciones si la agrandamos consecuentemente6 (En la práctica, esta selección se hace al
momento de elegir la aplicación principal que contendrá el proyecto. Si es Illustrator implica que
trabajaremos con imágenes vectoriales; si es Photoshop implica que trabajaremos con imágenes
bitmap. Aunque ambos programas soportan los dos formatos, la mayor parte de las funciones y su
interfaz están organizadas alrededor de este tipo “nativo”).
Otro recordatorio importante: el término “estructura de datos” tiene un significado particular en la
ciencias computacionales, refiriéndose a cómo deben ser procesados los datos por un programa.
Como ya lo dijimos, intentamos mantener la idea de la organización de datos pero no estamos
interesados en cómo sucede esto en su nivel más bajo (es decir, que el programa organice los datos
mediante arreglo, listas, apuntadores, etc.). Más bien, usamos este término para referirnos al nivel de
organización de datos, que es visible y accesible a un usuario y que se vuelve parte del modelo
mental para crear y editar medios. (Por ejemplo, cuando estamos en Photoshop podemos hacer un
zoom para examinar pixeles individuales; podemos revisar la resolución de la imagen en pixeles;
podemos ajustar el diámetro del pincel en pixeles, y demás. Todo esto recuerda que estamos en una
matriz de pixeles).
Para sintetizar esta discusión: hemos sugerido que tanto teórica como experimentalmente (por lo
menos para los usuarios que tienen experiencias más próximas con el software de medios) los
“medios” se traducen en dos partes que trabajan juntas. Una parte es un número reducido de
estructuras de datos básicas (o “formatos”) que son la esencia del software de medios moderno:
imágenes bitmap, imágenes vectoriales, modelos 3D poligonales, modelos 3D de NURBS, textos
ASCII, texto de marcado (como RDF o HTML, XML). La segunda parte son los algoritmos (que también
se pueden denominar “operaciones”, “herramientas” o “comandos”) que operan en dichos formatos.
La forma en que estas dos partes son actualizadas en las aplicaciones de medios merece una
discusión adicional. Primero, las diferentes aplicaciones ofrecen seguido otros detalles además de los
básicos para darles mayor funcionalidad. Por ejemplo, una imagen, tal como es definida por las
capacidades de Photoshop (una aplicación profesional y más cara) es sustancialmente diferente a
como es definida por Apple iPhoto o Picasa que son más baratas e incluso en línea. Para Photoshop
(versión CS5.5), una imagen es una estructura jerárquica compleja. Al inicio es una simple imagen
bitmap, una matriz de pixeles. Un pixel es un elemento mínimo que le usuario puede seleccionar y
modificar. Esta es la estructura de datos que Photoshop comparte con otros editores de imágenes.
(Notemos que, aunque el usuario no puede seleccionar partes de un pixel, los algoritmos trabajan
comúnmente a niveles sub-pixel). Un documento de Photoshop puede tener muchas de esas matrices
6 Un ejemplo de formato de imagen vectorial es el popular AI de Illustrator; en cuanto a formatos bitmap, están
JPG y PSD. Algunos formatos como EPS, PDF y SWS pueden contener ambos.
Manovich. Capítulo 4 – El Software Toma el Mando 10 / 34
de pixeles y se les llama “capas”. Las capas también se pueden agrupar o pueden ser versiones
alternativas de una composición. Cualquier capa de un documento puede tener varios estados: un
usuario la puede hacer visible o invisible, cambiar su transparencia, hacer que configure o influya las
capas de abajo, etc. Photoshop también tiene capas especiales de ajustes que no contienen
contenido en forma de pixeles. Según la documentación del programa, “una capa de ajustes aplica
ajustes de color o tono a una imagen sin cambiar de manera permanente el valor de los pixeles” 7.
Adicionalmente, una imagen puede tener máscaras que definen áreas de la imagen que pueden ser
editadas. Otros elementos que Photoshop añade a un estructura de datos básica son gráficos
vectoriales, guías y tipografía.
La interfaz de usuario de Photoshop emplea ventanas y menús para presentar esta compleja
estructura de la imagen con todas sus posibilidades. La ventana de Documento muestra la
composición actual. El panel de Capas muestra las capas, efectos de capas y grupos de capas en la
composición. El panel de Canales muestra los componentes de color de la imagen (como R, G y B).
Cada una de estas ventanas tiene varios controles y menús dedicados a crear, ver y modificar las
partes de la imagen.
Si las estructuras de datos forman una parte del modelo mental del usuario para la creación de
medios, las operaciones que se pueden realizar en estas estructuras son una segunda parte. Esto es,
un usuario también entiende que el proceso de definir y editar contenido implica la aplicación
secuencial de diferentes operaciones dadas por la aplicación. Cada operación corresponde a un
algoritmo, que ejerce alguna acción sobre datos existentes o que genera datos nuevos (el filtro Onda
de Photoshop es un ejemplo del primero, mientras que Nubes es un ejemplo del segundo).
En el software de medios contemporáneo, a las herramientas que son representadas mediante
elementos de un menú se les llama “comandos”. El término “herramienta” está reservado a las
operaciones usadas frecuentemente, a las que se les da su propio ícono y pueden ser seleccionadas
directamente, sin tener que navegar los menús. (Aquí usaremos la palabra “herramienta” para
referirnos a ambos tipos). Las aplicaciones agrupan operaciones relacionadas. Por ejemplo,
Photoshop CS5.5 ubica sus herramientas clave en el panel Herramientas; otras herramientas
adicionales se pueden localizar en los menús desplegables Editar, Imagen, Capa, Selección, Filtro y
Vista. Muchas aplicaciones de medios también hacen disponibles otras herramientas en forma de
scripts que se pueden correr desde la aplicación. Por ejemplo, en Photoshop CS5.5 estos scripts
pueden provenir de terceros desarrolladores y aparecen en Archivo>Scripts. Estos scripts se pueden
escribir en JavaScript, VB Script, AppleScript y demás lenguajes. Finalmente, la gente que usa
interfaces de línea de comando como Unix (o Linux) también puede usar un tercer tipo de
7 http://help.adobe.com/en_US/Photoshop/11.0/.
Manovich. Capítulo 4 – El Software Toma el Mando 11 / 34
operaciones: diferentes programas de software que se pueden correr director desde la línea de
comando. Por ejemplo, dos de los programas más usados para la conversión y edición de imagen y
video son ImageMagic y Ffmpeg8. Debido a que estos programas no tienen una interfaz gráfica de
usuario, no son apropiadas para la manipulación interactiva de imágenes, sin embargo sobresalen en
la automatización y se usan para operaciones de lote (como la conversión de un formato a otro) en
grandes cantidades de archivos.
Sin importar que las herramientas de los medios se presentan vía una GUI, scripts o programas
independientes accesibles desde la línea de comando, todos tienen algo en común: sólo pueden
trabajar en una estructura de datos particular. Por ejemplo, las aplicaciones de edición de imágenes
definen docenas de herramientas para editar imágenes bitmap9, pero éstas no funcionarían en
gráficos vectoriales. Siguiendo en la misma línea, las técnicas para modificar modelos 3D que definen
el volumen de un objeto son diferentes de las técnicas para representar los límites de los objetos
(como los modelos poligonales).
Haciendo una analogía con el lenguaje, podemos comparar las estructuras de datos con los
sustantivos y los algoritmos con los verbos. Una analogía con la lógica sería comprarlos con los
sujetos y predicados. Como toda metáfora, éstas destacan y distorsionan, revelan y ocultan. Sin
embargo, espero que puedan ayudarme a transmitir mejor mi argumento: la naturaleza dual de un
“medio” como es definida por las aplicaciones de software.
Hemos llegado al punto de responder a la pregunta que hicimos en la introducción del libro: ¿qué son
los medios hoy tal como son definidos por las aplicaciones de software para su creación y edición? Tal
como son definidos por los software de aplicación y experimentados por los usuarios, un “medio” es
una vinculación de estructuras de datos particulares y algoritmos para la creación, edición y
visualización del contenido guardado en su estructura.
Ahora que hemos establecido que los medios computacionales implican una vinculación entre
algoritmos y estructuras de datos, podemos entender mejor la distinción entre las técnicas
específicas e independientes de los medios. Una técnica específica es un algoritmo que puede solo
puede operar en una estructura de datos particular. Por ejemplo, los filtros de desenfoque y
asentamiento solo pueden funcionar en imágenes bitmap; la operación de “extrusión”, usado
comúnmente en los programas 3D para modelar, sólo puede ser aplicada a una curva vectorial. En
8http://www.imagemagick.org/ y http://ffmpeg.org/ 9 Este artículo de Wikipedia enlista operaciones en imágenes comunes en estos programas:
http://en.wikipedia.org/wiki/Image_editing.
Manovich. Capítulo 4 – El Software Toma el Mando 12 / 34
contraste, una técnica independiente es un conjunto de algoritmos que ejecutan una tarea
conceptualmente similar pero son implementados para trabajar en un número de estructuras de
datos. Ya hemos dado ejemplos de estas técnicas cuando introdujimos el concepto: organizar, buscar,
zoom, cortar, copiar, pegar, aleatorizar y varias manipulaciones de archivos (copiar, enviar por mail,
subir, comprimir, descargar), etc.
Para explicar cómo las técnicas independientes pueden ser implementadas, vemos los comandos
Copiar, Cortar y Pegar. Estas operaciones ya existía en algunos editores de texto computacionales de
los 60’s. En 1974-1975, Larry Tesler implementó estos comandos en su editor de texto como parte
de su trabajo en Xerox PARC sobre computadoras personales10. Al ver que estos comandos se podían
usar en todo tipo de aplicaciones, los diseñadores de la Xerox Star (lanzada en 1981) incluyeron
teclas especiales para estos comandos11. El teclado tenía teclas marcadas con Repetir, Encontrar,
Igual, Abrir, Borrar, Copiar, Unir y Mover. Un usuario podía seleccionar cualquier objeto en una
aplicación o en el escritorio y después lanzar cualquier de estos comandos. El equipo de Xerox PARC
los llamo “comandos universales”. Apple, de manera similar, hizo disponibles estos comandos en
todas las aplicaciones que corren en su GUI universal, pero se deshizo de las teclas12. En su lugar, los
comandos se encuentran bajo el menú desplegable Editar.
La idea de que el usuario pudiera seleccionar objetos en cualquier documento sin importar el medio,
o el archivo, y usar los mismos comandos en sus objetos es una de las invenciones más importantes
de Xerox PARC. Da al usuario un solo modelo mental para trabajar con documentos en diferentes
aplicaciones y simplifica el aprendizaje de nuevos programas.
Así es como los diseñadores de la Xerox Star describieron uno de estos comandos universales:
MOVERSE es uno de los comandos más poderosos del sistema. Se usa mientras editamos un
texto para recomponer las letras de una palabra, las palabras de una oración, las oraciones
de un párrafo, y los párrafos de un documento. Se usa durante la edición de gráficos para
mover elementos visuales, como líneas y rectángulos, alrededor de una ilustración. Se usa
mientras se edita una fórmula para mover estructuras matemáticas, como aditivos e
integrales, alrededor de una ecuación13.
10 http://en.wikipedia.org/wiki/Cut,_copy,_and_paste. 11 http://en.wikipedia.org/wiki/Xerox_Star, febrero 20, 2012. 12 Un acercamiento y demostración de estas teclas especiales puede verse en este video, especialmente en la
parte sobre comandos universales del teclado de la Xerox Star:
http://www.youtube.com/watch?v=Cn4vC80Pv6Q&feature=relmfu, agosto 4, 2012. 13 David Canfield Smith et al., “Designing the Star User Interface,” Byte, issue 4 (1982): 242-282.
Manovich. Capítulo 4 – El Software Toma el Mando 13 / 34
Sin embargo, según el tipo de aplicación de medios y el tipo de objetos que el usuario selecciona,
“copiar”, “cortar” y “pegar” accionan diferentes algoritmos. Por ejemplo, copiar una frase en un
documento necesita diferentes secuencias de operaciones que copiar una selección en una imagen
bitmap. En el primer caso se trata de una secuencia de caracteres unidimensional, y en el segundo es
un conjunto de pixeles dentro de un área de dos dimensiones. Incluso en una misma aplicación, se
emplean varios algoritmos para cubrir los objetos que el usuario tiene a la disposición.
Un segundo ejemplo de cómo la implementación de técnicas independientes de los medios implica
diferentes algoritmos que funcionan en un medio en particular es la generación de objetos aleatorios.
El algoritmo que genera una secuencia de números aleatorios es muy sencillo, simplemente llama al
generador de números (una función disponible en todo lenguaje de programación) para producir
suficientes partes, luego escala esos números dentro los límites especificados por el usuario (por
ejemplo entre 0.0 y 1.0). Esta parte es independiente de los medios. Diferentes aplicaciones pueden
usar esta función de generación de números aleatorios como parte de un algoritmo específico a un
medio (es decir, algoritmos que funcionan en estructuras de datos particulares) para crear diferentes
tipos de contenidos. Por ejemplo, el comando “Añadir ruido” en Photoshop (Filtros>Ruido) genera un
conjunto de pares aleatorios X-Y y los usa para seleccionar pixeles específicos en la imagen y cambiar
sus colores o valores de gris (según como decida el usuario). Una aplicación de modelado 3D también
puede usar la misma técnica para generar un conjunto de objetos idénticos en ubicaciones espaciales
aleatorias. El software de edición de audio puede generar ruido aleatorio, etc.
La implementación de técnicas independientes de medios es estructuralmente similar a varios
sistemas estéticos en el arte, que fueron aplicados en diferentes medios. Por ejemplo, el barroco, el
neo-clasicismo, el constructivismo, el post-modernismo, y el remix. Cada sistema se manifestó en
diferentes medios. Así, la estética barroca puede encontrarse en la arquitectura, la escultura, la
pintura y la música; el constructivismo fue aplicado en el diseño de producto, diseño gráfico, ropa,
teatro y quizá en la poesía y en el cine14. Pero tal como en las técnicas específicas, realizar un sistema
estético particular en diferentes medios requiere artefactos específicos para explorar las posibilidades
y trabajar con las limitantes de cada medio.
Formatos de archivo
14 Vlada Petric, Constructivism in Film - A Cinematic Analysis: The Man with the Movie Camera (Cambridge
University Press, 1993).
Manovich. Capítulo 4 – El Software Toma el Mando 14 / 34
El software usa archivos para almacenar y transferir datos. Por ejemplo, en Photoshop salvamos
imágenes junto con sus canales, capas, grupos, guías y demás información que queda guardada en
un formato particular. Junto con las estructuras de datos, los algoritmos y las interfaces de usuario,
un formato de archivo es otro elemento fundamental de los medios computacionales. Se trata de
mecanismos estandarizados para almacenar y acceder a los datos organizados en una estructura
determinada. Algunos formatos de archivo son de domino público, como .rdf; otros son propietarios,
como .doc. Como veremos en la sección “El flujo de trabajo del diseño” de la siguiente parte del libro,
la estandarización de formatos de archivo es una condición esencial para su interoperabilidad entre
aplicaciones que, a su vez, afecta la estética de los medios creados con esas aplicaciones. Desde el
punto de vista de la teoría de medios y de la estética, los formato de archivo constituyen la
“materialidad” de los medios computacionales (porque los bits organizados en estos formatos es lo
que se inscribe en un dispositivo de almacenamiento cuando se guarda, y también porque los
formatos de archivo son mucho más estables que otros elementos de los medios computacionales).
Como los materiales y las herramientas de medios físicos están hoy implementadas como software,
en teoría se podrían crear fácilmente nuevos formatos de archivo y nuevos algoritmos, así como
ampliar los ya existentes. (Recordemos mi discusión previa sobre la “Extensibilidad permanente”). No
obstante, al contrario de los años 60’s y 70’s cuando unos cuantos investigadores inventaban
gradualmente el medio computacional, hoy el software es una industria global enorme. Esto significa
que la innovación del software está conducida por factores económico-sociales, más que por
posibilidades teóricas. Mientras los formatos de archivo sean constantes, es fácil añadir nuevas
herramientas en versiones subsecuentes, mientras que las herramientas previas pueden seguir
existiendo sin modificación alguna. Además, en contraste con el periodo de Kay y demás gente que
estaba definiendo el “primer metamedio”, hoy millones de usuarios profesionales (así como firmas de
diseño y arquitectura, estudio de cine, agencias de marketing, compañías de diseño web, y demás
asociaciones creativas alrededor del mundo) guardan sus trabajos y sus recursos (modelos 3D,
fotografías, diagramas de impresión, sitios web, etc.) como archivos digitales en formatos
particulares: .doc, .pdf, .tiff, .html, etc. Si los formatos de archivo cambiaran todo el tiempo, el valor de
los recursos que posee un individuo o compañía estarían en riesgo.
Como resultado, en la práctica los formatos de archivo casi nunca cambian. Por ejemplo, el formato
JPEG se usa desde 1992 y TIFF remonta a 1986. Por el contrario, la modificación de las herramientas
de software que trabajan con esos archivos y la creación de nuevas herramientas ha sucede a un
ritmo veloz. Cuando una compañía lanza una nueva versión de su software de aplicación,
generalmente añade varias nuevas herramientas y reescribe otras, pero el formato de archivo sigue
igual. Esta estabilidad de formatos de archivo también permite que otros desarrolladores creen
nuevas herramientas basadas en estos formatos. Dicho de otra forma, es una de las condiciones que
permite la “extensibilidad constante” del software de los medios. He aquí un ejemplo: cuando visité el
Manovich. Capítulo 4 – El Software Toma el Mando 15 / 34
área de plug-in’s de Adobe Photoshop el 5 de agosto de 2012, se enlistaban 414 de ellos15. Dado que
un solo producto puede incluir desde docenas hasta miles de filtros y acciones, el número total plug-
in’s disponibles puede llegar a los cientos de miles.
Cada formato de archivo y su correspondiente estructura de datos tiene sus fortalezas y debilidades.
Una fotografía representada como imagen bitmap puede dar una apariencia pintoresca; ser
difuminada o agudizada; o compuesta con otra fotografía, etc. Estas operaciones son más difíciles o
casi imposibles con una imagen vectorial. A la inversa, es mucho más fácil editar curvas complejas si
son representadas internamente como fórmulas matemáticas (el formato usado por programas de
dibujo vectorial como Illustrator, Freehand e Inkscape). Como muchos proyectos requieren la
combinación de efectos que solo son posibles con diferentes estructuras de datos (como “raster” y
vectoriales), con el tiempo las aplicaciones de software profesionales han sido ampliadas para
soportar otros formatos de archivo además sus tipos nativos. Por ejemplo, sabemos que las mayoría
de las herramientas de Photoshop CS4 están orientadas a la manipulación de imágenes raster, pero
también se incluyen algunas herramientas para trabajar con dibujos vectoriales. Photoshop puede
importar vectores e Illustrator puede importar bitmaps.
Sin embargo, esta hibridación de aplicaciones de software no afecta el hecho que cada herramienta
de aplicación separada solo pueda trabajar con un tipo de estructura de datos, pero no es así con
otras. Esto es verdad para comandos universales como “cortar”, “copiar”, “pegar” y “ver”, así como
para una multitud de comandos específicos a los medios como “contar palabras”, “difuminar”,
“extrusión” y “echo”. En consecuencia, detrás de las herramientas independientes y específicas hay
algoritmos diseñados para trabajar con estructuras de datos particulares. Pero un usuario entiende
de manera diferente ambos tipos, debido a que su implementación no es visible directamente. El
primero reúne conceptualmente todos los medios, e incluso crea un horizonte imaginario en donde
las diferencias entre ellos desaparecen; al mismo tiempo, el segundo enfatiza estas diferencias
debido a que sólo se vuelven disponibles cuando un usuario trabaja en un medio en particular.
Como su nombre lo indica, los “archivos” computacionales hacen referencia a los archivos de papel
que fueron la principal tecnología de gestión de información hasta mediados del siglo XX y hasta que
las computadoras se desarrollaron. La palabra “archivo” fue usada en 1950 en una publicidad de
RCA para su nuevo tubo de vacío de “memoria”. En 1952 la palabra hacía referencia a la información
almacenada en tarjetas perforadas16. Con el desarrollo del web en los 90’s, los “documentos” web17,
15
http://www.adobe.com/cfusion/marketplace/index.cfm?event=marketplace.categories&marketplaceId=2&offeri
ngtypeid=5, agosto 5, 2012. 16 http://en.wikipedia.org/wiki/Computer_file.
Manovich. Capítulo 4 – El Software Toma el Mando 16 / 34
tales como las páginas, se volvieron igualmente importantes. Una página web puede consistir de un
archivo HTML con texto estático y otros contenidos de medios almacenados en un servidor.
Alternativamente, una página web puede ser “dinámica”, que significa que se construye cuando el
usuario accede a su dirección o porque puede cambiar con la interacción del usuario18. Las páginas
web dinámicas se pueden construir en el lado del cliente con tecnologías script como JavaScript o
Flash; del lado del servidor, se pueden usar scripts PHP o Perl. Los dos métodos se pueden combinar
usando técnicas Ajax. Un ejemplo popular que usa Ajax es Google Earth. En 2011, HTML5, la siguiente
generación del estándar HTML, permitió la inclusión de elementos multimedia, videos, audio y SVG
directo en el código sin tener que usar plug-in’s. Mientras éstas y otras tecnologías se desarrollan y
adoptan gradualmente, la identidad del web ha ido cambiando (de páginas estáticas a inicios de los
90’s a “aplicaciones internet enriquecidas” que igual muchas funcionalidades de las aplicaciones de
escritorio tradicionales) 19.
Con la complejidad y variedad de documentos y tipos de aplicaciones web, la multitud de tecnologías
y técnicas para crearlos, y la continua evolución de tecnologías y convenciones web, no sería
apropiado adaptar mecánicamente nuestro concepto de estructuras de datos al web. Sin embargo, si
pensamos en el significado de la estructura de datos como modelo mental de los medios compartidos
entre diseñadores y usuarios, opuesto a sus implementaciones técnicas, entonces sí aplica nuestro
concepto a los documentos y aplicaciones web. No obstante, en lugar de referirnos al tipo de medio y
sus características (texto, imágenes, sonidos, modelos 3D, etc.) que se vuelven elementos de un
documento o aplicación web, podemos usar el concepto para describir las posibilidades de
interacción y convenciones ofrecidas por el web. Por ejemplo, las páginas web siguen teniendo
hipervínculos que permiten a los usuarios ir a páginas relacionadas. Hoy, una página web puede tener
“botones de medios sociales” que permiten al usuario compartir fácilmente contenidos. Géneros
particulares de documentos y aplicaciones web ofrecen sus propias posibilidades de interacción, por
ejemplo un blog contiene típicamente un lista de entradas organizada por fecha, una aplicación de
mail tienen botones para responder, reenviar y archivar los mensajes, etc.
Aunque en principio podemos investigar los tipos de documentos y aplicaciones web más usados
(enlistando las convenciones tal como existen hoy mismo), esta lista sería muy larga y no muy exacta
para cuando este libro sea impreso (4 de julio de 2013). Esta es una de las razones por las cuales
nos enfocamos en un estudio de los medios como representación, más que comunicación e
interacción (porque las estructuras de representación basadas en software son más estables, menos
numerosas, menos complejas y cambian menos frecuentemente que los software y redes basados en
17 http://en.wikipedia.org/wiki/Web_document. 18 http://en.wikipedia.org/wiki/Dynamic_web_page. 19 http://en.wikipedia.org/wiki/Rich_Internet_application.
Manovich. Capítulo 4 – El Software Toma el Mando 17 / 34
tecnologías de comunicación e interacción). Esto no significa que nos rendimos ante el proyecto de
entender los medios web (incluyendo aplicaciones móviles que actualmente se cuentan en cientos de
miles), más bien espero hacerlo de forma más comprensible en un futuro, limitándome por el
momento a breves discusiones en este libro.
Parámetros
Como sugerimos anteriormente, el modelo mental de un usuario para crear y editar medios (ya sea en
el contexto de un tipo de aplicación en particular o con “medios digitales” en general) tiene dos
elementos fundamentales que, tanto conceptual como prácticamente, corresponden a dos elementos
de la programación computacional: algoritmos y estructuras de datos. Cuando un usuario selecciona
una herramienta del menú y la usa en parte del documento en el que está trabajando, el algoritmo
detrás de ella modifica la estructura de datos, que tiene almacenado el contenido de dicha parte.
Muchos usuarios, claro, no conocen los detalles de cómo funciona un software al nivel de la
programación y quizá sólo estén vagamente conscientes de lo que es un algoritmo. (En 2011, estaba
manejando rumbo a San Francisco y vi un espectacular junto a la carretera que tenía explícitamente
la palabra algoritmo, pero no pude detenerme para tomar una foto que me hubiera gustado incluir en
este libro). Pero, aunque sean desconocidos para ellos, los principios de la programación
computacional están “proyectados” al nivel de la interfaz de usuario (dando forma a cómo los
usuarios trabajan con los medios a través de las aplicaciones de software y cómo entienden éste
proceso cognitivamente). El modelo de datos del algoritmo/estructura es un ejemplo de esto. Veamos
otro ejemplo de esta ”proyección”: las opciones y sus implementaciones.
Uno de los principios de la programación computacional moderna (sin importar el paradigma o el
lenguaje de programación) es el uso de los parámetros20. La popularidad de los parámetros (también
llamados “variables” o “argumentos”) se debe a unas pocas razones. Una de ellas es una práctica de
programación moderna que fragmenta el código en funciones separadas. Si un programa debe
ejecutar la misma secuencia de pasos varias veces, el programador encapsula esta secuencia en una
función que después se invoca mediante su nombre cuantas veces sean necesarias. (Dependiendo
del lenguaje de programación, las funciones se pueden llamar procedimientos, métodos, subrutinas o
rutinas). El dividir una programa largo en funciones modulares separadas lo hace más fácil de
escribir, leer y mantener (este paradigma se llama programación procedural). Las funciones que
ejecutan tareas relacionadas conceptualmente se agrupan en librerías de software. Estas librerías o
bibliotecas existen en todos los lenguajes de programación populares y su uso hace más rápido y
eficiente el desarrollo de software. La definición de una función incluye típicamente algunos
20 http://en.wikipedia.org/wiki/Argument_(computer_science)
Manovich. Capítulo 4 – El Software Toma el Mando 18 / 34
parámetros que controlan los detalles de su ejecución. Por ejemplo, una función que convierte una
imagen de un formato a otro tendrá un parámetro para especificar si el formato de salida es JPEG,
PNG, TIFF u otro (y si seleccionamos JPEG se puede que obtengamos otro parámetro para especificar
el nivel de compresión).
Le segunda razón de la popularidad de los parámetros es que muchas funciones (y programas
enteros) resuelven fórmulas matemáticas. Una fórmula define una relación entre variable. Por
ejemplo, una fórmula seno se parece a esto: y = A * sin (w*x + O), en donde A es la amplitud, w es la
frecuencia y O es la fase. Si implementamos esta fórmula en una función de software, la función
tendrá parámetros para cada variable (es decir: w, x, O).
Si no sabes programar, quizá el concepto de parámetro te sea familiar si usas fórmulas en Excel o
Google Spreadsheet. Por ejemplo, para generar una columna de número aleatorios, puedes llenar las
celdas con la función RAND(). La fórmula no tiene ningún parámetro, simplemente genera número
aleatorios entre 0.0 y 1.0. Si quieres generar número en un rango particular, hay que usar la fórmula
RANDBETWEEN(límite_alto, límite_bajo). Esta fórmula tiene dos parámetros que especifican los
valores mínimos y máximos del rango de números. Por ejemplo, RANDBETWEEN(10, 20) genera un
valores entre 10.0 y 20.0.
En las GUI modernas, los parámetros, que controlan la ejecución del programa, se llaman opciones.
Los usuarios especifican los valores para las opciones de los campos de texto, deslizadores, botones,
listas desplegables, botones de chequeo y botones de radio. Algunas veces la interfaz ofrece algunos
valores predefinidos para que el usuario seleccione entre ellos. En otros casos, el usuario puede
ingresar su propio valor. Y en otros más la aplicación da ambas posibilidades. Por ejemplo, un típico
selector de colores permite determinar valores R, G y B para crear un color único; alternativamente
también se puede seleccionar de una muestra de color predefinida.
El uso de las opciones extiende ampliamente la funcionalidad de las aplicaciones de software porque
permite a una misma aplicación realizar una amplia gama de acciones. Por ejemplo, imaginemos que
necesitamos clasificar un conjunto de números. En lugar de usar dos programas diferentes, uno para
ejecutar la clasificación en orden ascendente y otra para el orden descendente, podemos usar una
sola aplicación en donde simplemente especificamos el valor de parámetro para especificar el tipo de
clasificación que necesitamos. O imaginemos una herramienta de brocha redonda en el menú de
herramientas de una aplicación de edición de fotos. No nos gustaría ver una herramienta separada
para cada color y tamaño de brocha. En su lugar, una sola herramienta con múltiples opciones puede
controlar el color, el tamaño y demás opciones.
Manovich. Capítulo 4 – El Software Toma el Mando 19 / 34
¿Qué significa esto para la teoría de medios? Con la softwareización, las posibilidades y las diferentes
maneras de usar las herramientas físicas dejan de ser implícitas: se vuelve completamente explícitas.
Se dan controles explícitos y detallados a las “técnicas artísticas” y a los “medios de expresión”
(recordemos la definición de medio que abre la primera parte). Como todos los programas y funciones
computacionales, ahora todo viene con varios parámetros. En Photoshop CS5, la herramienta de
brocha tiene estos parámetros básicos: tamaño, dureza, modo, capacidad de aerosol, opacidad y
flujo. La dureza, la opacidad y el flujo tienen valores que van del 0 al 100; hay 25 modos de forma a
elegir; y el diámetro puede variar de 1 a 2500 pixeles.
¿Serán necesarias todas estas opciones y tal grado de precisión? Quizá no. Por ejemplo, en lo que
respecta a la opacidad, probablemente para la mayoría de los usuarios sea suficiente controlarla a
intervalos de 5%. Pero el algoritmo que implementa la opacidad es exactamente el mismo, sin
importar que los parámetros tengan 10 ajustes ó 100. Una de las lógicas de la industria del software
es ofrecer siempre “más” que las versiones previas o que los competidores, por esto es comprensible
que la interfaz de la brocha nos dé una larga lista de opciones y opciones de valores, aunque esa
precisión pueda no ser muy útil. Lo mismo se puede decir de las otras herramientas disponibles en el
software de medios. De esta manera, la lógica de la programación se proyecta al nivel de la GUI y se
convierte en parte del modelo cognitivo del usuario cuando trabaja en el software de los medios.
A pesar de que el hecho de añadir más opciones requiere un esfuerzo adicional de programación, no
sucede igual cuando se trata de ofrecer más valores de las opciones. Si necesitamos que la
herramienta de brocha tenga una opción de transparencia, es necesario escribir nuevo código para
este comportamiento. Sin embargo, si queremos cambiar los valores disponible al usuario, ya sea 20
ó 100, esto no cuesta nada. Como cualquier otra herramienta de medios, la brocha es un algoritmo,
que toma entradas y genera salidas mediante la aplicación de fórmulas a dichas entradas. En el caso
de la brocha, las entradas son los valores de las opciones elegidos por el usuario, y el color de los
pixeles sobre los que se mueve la brocha en el área de trabajo; las salidas son los nuevos valores de
estos pixeles, es decir, sus transformaciones. A las fórmulas no les interesa el valor de entrada,
tampoco el número de pasos requerido para ejecutarlos.
Las herramientas de los medios físicos pre-industriales no tenían controles explícitos. No había
parámetros que seleccionar para una pluma, una brocha o un cincel. Si queríamos cambiar el
diámetro de una brocha, teníamos que buscar otra brocha. La era industrial introdujo un nuevo tipo
de herramientas de medios que eran máquinas mecánicas o electrónicas: el telégrafo, la cámara
fotográfica, el proyector de cine, el gramófono, el teléfono, la televisión, la videocámara. Como las
demás máquinas industriales, éstas tenían pocos controles. Físicamente, parecían perillas, palancas y
botones. La siguiente generación de medios (el software de aplicaciones) dio controles explícitos a
sus herramientas. Las herramientas que antes no tenían controles explícitos, las adquirieron y las que
Manovich. Capítulo 4 – El Software Toma el Mando 20 / 34
ya tenían fueron aumentadas. (Si las máquinas hechas de partes mecánicas solo podían tener un
número limitado de ajustes, los parámetros del software pueden tener rangos de valores casi
ilimitados).
En El lenguaje de los nuevos medios introduje la idea de “transcodificación” (aplicar convenciones y
convenciones de la ingeniería de software a conceptos y percepciones culturales). La parametrización
explícita de las técnicas de creación y edición de medios implementadas en el software es un ejemplo
perfecto de la lógica de la transcodificación. Entonces, el que la brocha de Photoshop tenga varias
opciones y controles, y que los valores de la transparencia vayan de 0 a 100, tiene que ver sólo
parcialmente con el significado de este comando (la simulación de diferentes brochas físicas). La
verdadera razón de esta implementación del comando radica en su identidad como programa
computacional. (En la programación moderna, los programas y sus partes tienen parámetros, que en
muchos casos toman valores de entrada que son arbitrarios).
Además de ser un buen ejemplo de cómo los principios y convenciones del desarrollo de software son
llevados a las aplicaciones de medios, la parametrización también es útil para explicar otra tendencia.
Algunas actividades de medios que aparentemente son diferentes (editar fotografías, crear
personajes 3D, editar video, trabajar en un sitio web o una aplicación móvil) se vuelven similares en
su lógica y flujo de trabajo: seleccionar una herramienta, elegir sus parámetros, aplicarlos… y repetir
esta secuencia hasta que el proyecto sea terminado.
Claro que no debemos olvidar que las prácticas de la programación computacionales están
incrustadas en las estructuras económicas y sociales de la industrias del software y de los
electrónicos consumibles. Estas estructuras imponen sus propias restricciones y prerrogativas a la
hora de implementar controles, opciones y preferencias de hardware y software (estos términos son
sólo diferentes manifestaciones de parámetros de software). Si echamos un vistazo a la historia de
las aplicaciones de medios y aparatos electrónicos, se pueden identificar algunas tendencias.
Primero, el número de opciones en las herramientas software y en dispositivos comercializados por
profesionales se incrementa. Por ejemplo, un número significativo de herramientas y filtros Photoshop
tiene ahora más opciones y controles que sus versiones precedentes. Segundo, las nuevas
propiedades ,que primero aparecen en tecnologías profesionales, más tarde se vuelven disponibles
en productos de los consumidores comunes. Sin embargo, para conservar su identidad y justificar las
diferencias de precio entre diferentes productos, el software y equipo profesional tiene más opciones
y parámetros que sus equivalentes para consumidores. Así, Photoshop viene con muchas
herramientas; Photoshop Elements vienen con menos, y iPhoto y Picasa aún con menos.
Todo esto parece obvio pero aquí viene una tercera tendencia que es más interesante para la teoría
de medios. Siguiendo el paradigma establecido a finales del siglo XIX por la compañía Kodak, cuando
Manovich. Capítulo 4 – El Software Toma el Mando 21 / 34
empezó a comercializar sus cámaras acompañadas del slogan “usted oprime el botón, nosotros nos
encargamos del resto” (1892), las aplicaciones de software contemporáneas y dispositivos de medios
para los consumidores automatizan significativamente la captura y edición de medios en
comparación con sus contrapartes profesionales. Por ejemplo, durante los 2000’s muchas cámaras
digitales para “consumidores” sólo ofrecían exposición automática. Para tener controles manuales
era necesario pasar a la siguiente categoría de precios, a los cámaras “semi-profesionales”. En otro
ejemplo, a final de esa década, las cámaras para consumidores empezaron a incorporar la detección
automática de rostros y sonrisas, una propiedad que no estaba disponible en cámaras profesionales
costosas.
Como todo tipo de automatización, la exposición automática requiere más procesos computacionales
que los ajustes manuales. Lo mismo pasa cuando aplicamos “contraste automático” y “tonos
automáticos” en el software de medios. Por consecuencia, si equiparamos el uso de las
computadoras con la automatización, paradójicamente son los consumidores quienes aprovechan
más sus beneficios. En contraste, los profesionales trabajan estos ajustes de forma manual, pero
claro, es parte de su labor: lograr efectos y resultados que la automatización predefinida no puede.
Simultáneamente, al ofrecer una automatización de más alto nivel en productos para consumidores,
la industria menosprecia las habilidades de los profesionales. Por ejemplo, hoy existen varias
aplicaciones web y plug-ins que pueden retocar fotos de retrato: corrigiendo contraste, tono de piel y
eliminando imperfecciones en un solo paso. Los resultados pueden ser sorprendentemente buenos,
quizá no tanto como para la portada de Vogue pero suficientes para la foto de nuestro perfil
Facebook.
Es interesante notar que a principios de los 2010’s ésta tendencia se ha parcialmente invertido.
Debido a que el tamaño del mercado de consumidores es más grande y a que los ciclos de
lanzamiento de productos son más rápidos, los creadores de hardware y software empezaron a
ofrecer algunas nuevas propiedad primero en productos de bajo nivel y, después, en sus productos
más caros. Por ejemplo, Apple Aperture 3 (2010) añadió opciones que estaban disponibles en la
versión 2009 de iPhoto: Faces (reconocimiento de caras) y Places (un sistema para identificar
ubicaciones geográficas de las fotos y ponerlas sobre una interfaz cartográfica) 21.
¿El metamedio o el monomedio?
Debido a la similitud del funcionamiento de los “medios”, tal como son implementados en software,
surge une pregunta lógica: ¿es necesario hablar de diferentes medios después de todo? En otras
21 http://photo.net/equipment/software/aperture-3/review/, marzo 4, 2012.
Manovich. Capítulo 4 – El Software Toma el Mando 22 / 34
palabras, ¿el metamedio computacional es una colección de medios simulados, nuevos y por
inventarse o es un monomedio?, ¿estamos tratando con el metamedio o el monomedio?
Entendemos ahora que en la cultura del software lo que identificamos como “propiedades” de los
diferentes medios, por una inercia conceptual, son en realidad las propiedades del software de
medios: sus interfaces, sus herramientas, y las técnicas para acceder, navegar, crear, modificar,
publicar y compartir los documentos de medios. Por ejemplo, la habilidad de alternar entre diferentes
vistas de un mismo documento en Acrobat Reader o en Microsoft Word no es una propiedad de los
“documentos electrónicos” en general, sino un resultado de las técnicas del software cuya herencia
puede rastrearse al “control de vistas” de Engelbart. Igualmente, la habilidad de cambiar el número
de segmentos que componen una curva no es una propiedad de las “imágenes vectoriales”, es una
opción disponible en algunos (no todos) los software de dibujo vectorial.
Como hemos visto, todo software de medios incluye por lo menos algunas herramientas que no son
específicas a los medios, es decir, no están limitadas a funcionar sobre estructuras de datos
particulares como las imágenes “raster” o los dibujos vectoriales. Conceptualizados originalmente en
Xerox PARC como una manera en que el usuario transfiriera el hábito cognitivo aprendido en una
aplicación a otra, hoy un pequeño número de “comandos universales” de Xerox se ha vuelto un mayor
número de herramientas “independientes de los medios” y técnicas de interfaz que está modelando
la forma en que los usuarios entienden los tipos de contenidos de medios.
A pesar de estas maneras fundamentales en que distintos medios se alinearon conceptual y
prácticamente, no quisiera abandonar el concepto de diferentes medios en conjunto. Las diferencias
sustanciales entre las operaciones de creación y edición soportadas por diferentes estructuras de
datos son una razón para mantener este concepto. Y aquí hay otras tres razones:
1. Los “medios”, tal como son implementados en el software, son parte historias culturales distintas
que se remontan a cientos o miles de años. El texto electrónico es parte de la historia de la escritura;
las animaciones digitales en movimiento son parte de la historia de las imágenes en movimiento, que
incluyen los juegos de sombras, la fantasmagoría, las juguetes ópticos del siglo XIX, el cine, y la
animación; una fotografía digital es parte de casi doscientos años de historia de la fotografía. Estas
historias influencian cómo entendemos y usamos estos medios hoy en día.
Puesto de otra forma, podemos decir que cualquier película de hoy existe frente al horizonte de todos
las películas hechas y al subconjunto de películas que una persona en particular ha visto en su vida;
en la misma línea, cualquier imagen digital existe frente al horizonte de todas las imágenes de el
“museo son muros” (André Malraux) de la historia visual humana. Un medio, entonces, no es sólo un
conjunto de materiales y herramientas, y de técnicas artísticas soportadas por estas herramientas. Un
Manovich. Capítulo 4 – El Software Toma el Mando 23 / 34
medio es también una base de datos imaginaria de todas las posibilidades expresivas,
composiciones, estados y dinámicas emocionales, técnicas de representación y comunicación, y
“contenido” actualizado en todos los trabajos creados con un una combinación particular de
materiales y herramientas.
La digitalización sistemática del legado cultural está convirtiendo gradualmente esta imaginaria base
de datos en una base de datos real. Para julio de 2010, Google había digitalizado 12 millones de
libros, mientras que artstor.org ofrecía 1 millón de imágenes de arte y arquitectura digitalizadas de
228 museos y colecciones privadas. No obstante, este proceso no empezó con las computadoras
digitales. Para inicios del siglo XX, el desarrollo de museos de arte públicos, revistas y libros de arte
ilustrados, clases con filminas de linterna y el estudio académico de las artes en las universidades ya
había hecho visibles y accesibles al público una gran cantidad de obras (en oposición al pequeño
número que sólo era accesible a cierta clase). Por ejemplo, los museos en EUA empezaron a
desarrollar en diapositivas de linterna sus colecciones adquiridas después de 1865; en 1905, la
Universidad de California en Berkeley ofreció su primer curso en historia de la arquitectura usando
diapositivas de linterna22.
La digitalización de colecciones culturales desde 1990 empezó a reunir los materiales dispersos de
todas estas fuentes, volviéndolos accesibles y localizables mediante sitios web. Por ejemplo,
Europeana23 provee información y ligas de 20 millones de objetos culturales digitalizados (al 1 de
diciembre de 201224 ), incluyendo pinturas, dibujos, mapas, libros, periódicos, diarios, música y
discursos de cilindros, cintas, discos y transmisiones de radio, películas y emisiones de TV
contribuidas por 1500 instituciones europeas. BBC Your Painting ofrece 200 mil pinturas británicas
de todas las colecciones nacionales del Reino Unido. Al momento de escribir estas líneas, este sitio ya
tenía 110 imágenes25. En EUA, la Librería del Congreso brinda acceso a docenas de colecciones
digitales a partir de un solo portal. Estas colecciones incluyen 4.7 millones de páginas de diarios en
alta resolución (desde c. 1860) y más de un millón de imágenes digitales, entre las que hay 171 mil
negativos escaneados del programa Farm Security Administration / Office of War Information (1935-
1945) 26.
Estas colecciones institucionales digitalizadas son complementadas por los contenidos que los
usuarios suben y hacen de manera digital nativa. YouTube, y otros servicios para compartir videos, 22 http://en.wikipedia.org/wiki/Slide_library. 23 http://www.europeana.eu/. 24 http://pro.europeana.eu/web/guest/news/press-releases, marzo 4, 2012. 25 http://www.bbc.co.uk/arts/yourpaintings/, marzo 5, 2012. 26 http://www.loc.gov/library/libarch-digital.html, marzo 4, 2012.
Manovich. Capítulo 4 – El Software Toma el Mando 24 / 34
contienen muestras sustanciales de todas la historia del cine en forma de videoclips cortos. Flickr
tiene un gran número de fotos de obras tomadas por los visitantes de museos alrededor del mundo.
Los sitios de portafolios de creadores de medios, como coroflot.com y behance.com, tienen millones
de portafolios en dirección de arte, diseño de exhibiciones, ilustración, diseño de interacción, gráficos
animados y demás campos. Los sitios de manga tienen millones de páginas escaneadas y traducidas
por los usuarios (en marzo 2012, mangapark.com albergaba 5,730,252 paginas de 2,020 series27).
Scribd.com tienen millones de documentos de texto (quizá te encuentres este libro ahí). deviantArt, la
comunidad en línea de arte hecho por usuarios, tiene más de 100 millones de piezas28.
En relación con las películas y programas de TV, las compañías comerciales de renta de videos, como
Netflix y LoveFilm, ofrecen cientos de miles de contenidos del siglo XX y XXI a sus clientes web (Netflix
100 mil, a inicios de 200929. LoveFilm 67 mil a inicios de 201130). Y redes de intercambio de par a
par, como BitTorrent, tienen prácticamente todas las películas y series recientes y en cartelera, así
como discos musicales y software.
En cuanto a la música, Rhapsody.com cuenta un catálogo de 14 millones de canciones y grabaciones
de audio, desde Girls’ Generation (el grupo femenino de pop coreano número 1) hasta Steve Reich (el
importante compositor minimalista). Y la iTunes Store de Apple tiene más de 20 millones (a marzo
2012) 31.
Aunque la distribución de lo que está disponible en estos archivos en línea es muy desequilibradas
respecto de los tipos de medios, periodos históricos, países y demás, sí es posible decir que los
clásicos culturales de hoy (es decir, trabajos de personas reconocidas: cineastas, directores,
diseñadores gráficos, diseñadores de medios, compositores, pintores, escritores, etc.) están todos
disponibles en línea, si no completos por lo menos parte de ellos. Como resultado, la idea de “medio”
en el sentido de todos los trabajos creativos y posibilidades realizadas hasta ahora usando un
conjunto de tecnologías se ha vuelto real. En contraste a esta base de datos imaginaria, en donde
guardamos obras clave en nuestra mente (que no es el lugar más fiable dada la enorme cantidad a
almacenar), ahora podemos rápidamente consultar el web para buscarlas y estudiarlas. Además, no
estamos limitados a la colección de un museo o biblioteca a la vez, podemos usar Europeana, Artstor,
o algún otro agregador masivo de colecciones, para navegar meta-colecciones combinadas. Por
27 http://www.mangapark.com/, marzo 4, 2012. 28 http://en.wikipedia.org/wiki/DeviantArt. 29 http://netflix.mediaroom.com/index.php?s=43&item=307, julio 8, 2011. 30 http://en.wikipedia.org/wiki/LoveFilm. 31 Apple, “iTunes from A to Z,” http://www.apple.com/itunes/features, marzo 5, 2012.
Manovich. Capítulo 4 – El Software Toma el Mando 25 / 34
ejemplo, mientras las Galería Nacional de Londres tiene 2,300 pinturas, el sitio Your Painting, de la
BBC, muestra 200 mil imágenes de todas las colecciones del Reino Unido.
2. También podemos usar el término “medio” para referirnos a una plataforma de
presentación/interacción. Si tomamos las plataformas iOS y Android (cada una con sus aparatos
móviles, sistemas operativos y apps) como ejemplo, tendremos razón. Pero me gustaría usar la
palabra “plataforma” en un sentido más general. El medio como plataforma se refiere a una serie de
recursos, que permite a los usuarios acceder y manipular contenido de maneras particulares. Así
entendida, un cubo blanco en un galería de arte moderno es un medio; también un complejo
cinematográfico, una revista impresa, una cadena de televisión, un DVD. (Notemos que así como iOS
y Android son ecosistemas que combinan muchos elementos, otras plataformas de medios funcionan
de manera similar. Cines, productores, distribuidoras y agencia de publicidad forman la plataforma
cinematográfica, por ejemplo).
Este significado de “medio” está relacionado con el concepto de “medios” del siglo XX, en los estudios
de comunicación influenciados por Teoría de la Información de Shannon: los canales y herramientas
de almacenamiento y transmisión usados para guardar y enviar información. Sin embargo, si el
concepto incluye canales y herramientas de almacenamiento y transmisión, nuestra “plataforma de
presentación” se enfoca más en las tecnologías de recepción. Estas tecnologías incluyen espacios,
arquitectura (por ejemplo, grandes superficies de medios que se están volviendo parte de los
interiores y exteriores de edificios), sensores, luces y, claro, aparatos y apps para ver, editar y
compartir medios. Las plataformas de presentación también “programan” cierto patrón de
comportamiento: caminamos dentro y tocamos la arquitectura; quedamos sobresaltados en un
película; interactuamos con miembros de la familia mientras vemos TV; movemos nuestro cuerpo
frente a un muro interactivo, etc.
Durante los siglos XIX y XX, las plataformas de presentación estaba íntimamente relacionadas con
tipos particulares de contenido de medios. Un museo de arte mostraba pinturas y esculturas (y más
tarde performances e instalaciones); los periódicos publicaban textos e imágenes; la TV presentaba
programas, noticieros y películas. La adición gradual de capacidades de visualización y reproducción
de las computadoras (y después de laptops, teléfonos móviles, tabletas y demás reproductores
basados en tecnologías computacionales) rompió esta conexión. La distribución, almacenamiento y
presentación de diferentes tipos de medios no estaba determinada por una tecnología o plataforma
en particular. (Esta separación equivale al proceso de “softwareización” que ya discutimos: las
técnicas y herramientas para la creación y edición de medios se liberaron de su vínculo a una
tecnología física o electrónica).
Manovich. Capítulo 4 – El Software Toma el Mando 26 / 34
Hoy podemos acceder a la mayoría de los tipos de medios desde cualquier plataforma computacional.
Podemos ver imágenes, video, documentos de texto y mapas dentro de un email, en un navegador, en
una laptop, PC, tableta, teléfono, televisor o sistema de entretenimiento de aviones o automóviles. Lo
que distingue estos aparatos no son los tipos de contenido que pueden reproducir, ni las interfaces
básicas que ofrecen para ver e interactuar con el contenido, sino más bien la relativa facilidad con la
que uno puede navegar varios medios.
Por ejemplo, mi pantalla LCD Samsung del 2011 viene con un navegador web (aunque la experiencia
de usuario es mejor para ver TV por cable o Netflix que para navegar web, sobretodo por el control).
En otro ejemplo, el relativo tamaño reducido de las pantallas de teléfonos móviles, sus procesadores
menos poderosos y con menos RAM, los hacen indeseables para el montaje de películas o el diseño
CAD (Computer Aided Design). Al mismo tiempo, su tamaño pequeño les da otra ventajas. En muchos
países, es socialmente aceptado que una persona use el chat o que envíe y reciba mensajes de texto
en su teléfono durante una comida (pero hacerlo en una laptop no sería adecuado). El tamaño de los
móviles los hace perfectos para redes sociales de geo-localización (por ejemplo Foursquare) y otros
servicios: recomendaciones de eventos sociales en una ciudad, seguir amigos en un mapa, juegos
basados en ubicaciones, etc32.
Igual que los teléfonos móviles, muchas plataformas toman ventaja de sus propiedades sociales para
añadir características únicas. Por ejemplo, algunos sistemas electrónicos de entretenimiento en
vuelos de avión, permite a los pasajeros chatear con otros u organizar a juegos multi-usuarios entre
ellos (por el momento solo Virign America y el sistema RED de V Australia33).
Así como las plataformas de presentación e interacción de medios, los aparatos computacionales
para consumidores tienen sus diferencias. Actualmente, algunas plataformas móviles34 no permiten a
los usuarios guardar documentos directamente en el aparato; más bien, los archivos deben ser
guardados en sus respectivas aplicaciones. Algunos dispositivos de medios como los lectores de
libros digitales, reproductores video, audio, carteleras digitales y consolas de juego, comúnmente
pueden reproducir pocos contenidos de medios, a veces incluso uno solo. (Mientras que las
compañías de electrónicos para consumidores estén en plena guerra de “convergencia”, añadiendo
gradualmente la posibilidad de reproducir todo tipo de medio en cualquier dispositivo, esta tendencia
no aplica para todos).
32 http://en.wikipedia.org/wiki/Location-based_service. 33 http://en.wikipedia.org/wiki/In-flight_entertainment. 34 http://en.wikipedia.org/wiki/Mobile_platform.
Manovich. Capítulo 4 – El Software Toma el Mando 27 / 34
Debido a las diferencias en apariencia física (tamaño, peso, forma), en interfaz física (táctil, teclado,
control remoto, control de voz, sensor de movimiento) y en las capacidad de reproducción, edición e
intercambio de medios, es tentador pensar cada tipo de aparato como un “medio” diferente. Como
plataformas de representación/interacción, estos dispositivos proveen distintas experiencias de
usuario y fomentan distintos tipos de comportamientos de medios (compartir ubicaciones, trabajar,
chatear, etc.). Sin embargo, también debemos recordar que todos ellos usan las mismas tecnologías
(computación, software y redes) y comparten muchas características fundamentales.
Con esto, quizá sea mejor pensar en las plataformas de presentación/interacción con la idea de
“parecido familiar” articulada en el siglo XIX por varios pensadores y, más reciente, por Wittgenstein
(las cosas pueden “conectarse mediante una serie de parecidos sobrepuestos en donde ningún rasgo
es común a todos” 35). Pero esto no sería exacto. La teoría de prototipos desarrollado en los 70’s por
la psicóloga Eleanor Rosch y otros investigadores puede ser mejor. Según experimentos psicológicos,
Rosch demostró que para la mente humana algunos miembros de muchas categorías semánticas son
mejores representantes de estas categorías que otros (por ejemplo, una silla es más prototípica de la
categoría “mueblas” que un espejo36).
Si consideramos como prototipo (es decir, el miembro más central de una categoría) de “metamedio
computacional” a la mejor implementación actual de la visión de Kay, junto con todas sus
capacidades de conexión e intercambio, entonces todos los demás aparatos computacionales se
pueden situar a ciertas distancias según en cómo instancian esta visión (para mí, mi laptop Apple
puede ser cumplir con tal prototipo, aunque cualquier laptop con todas sus funciones también puede
serlo). Por supuesto, es posible argumentar que ninguna de las computadoras o aparatos
computacionales actuales realiza suficientemente la visión de Kay, debido a que los usuarios
casuales no pueden programar fácilmente o inventar sus propios medios (de forma apropiada, Kay
tituló la plática con la que ganó el premio Turing en 1997 “La revolución computacional aún no ha
sucedido” 37). En esta interpretación, el Dynabook de Kay es el prototipo ideal imaginario, y cada
aparato computacional realizado se sitúa a cierta distancia de él.
3. Otro significado importante del concepto de “medio” está relacionado con los sistemas sensoriales
humanos, que captan y procesan información de formas particulares. Cada sistema sensorial tiene
receptores, vías neuronales y partes específicas del cerebro responsables del procesamiento. La
35 http://en.wikipedia.org/wiki/Family_resemblance. 36 Eleanor Rosch, “Cognitive Representation of Semantic Categories.” Journal of Experimental Psychology:
General 104, No.3, (septiembre 1975): pp. 192–233. 37 http://blog.moryton.net/2007/12/computer-revolution-hasnt-happened-yet.html, marzo 5, 2012.
Manovich. Capítulo 4 – El Software Toma el Mando 28 / 34
cultura humana tradicional han reconocido cinco sentidos: vista, oído, gusto, olfato y tacto.
Adicionalmente, los humanos también pueden sentir la temperatura, el dolor, la posición de las partes
del cuerpo, equilibrio y aceleración.
Como la idea de los sentidos ha sido importante para la filosofía occidental, antigua y moderna, para
el pensamiento budista y para otras tradiciones intelectuales, las discusiones sobre los sentidos en
relación con el arte y la estética también han sido amplias. Un estudio serio al respecto necesitaría su
propio libro. Más bien, nos limitaremos a una breve discusión sobre una investigación reciente en
psicología cognitiva que puede usarse para apoya la idea de los múltiples medios: cómo los diferentes
tipos de información son representados y manipulados en el cerebro.
Una cuestión importante para la psicología cognitiva de los últimos cuarenta años ha sido si las
cognición humana opera en más de un tipo de representación mental. Una hipótesis es que el cerebro
usa una sola representación proposicional para diferentes tipos de información. Según esta teoría, lo
que experimentamos como imágenes mentales es traducido internamente por la mente en
proposiciones parecidas al lenguaje38. La hipótesis alternativa es que el cerebro procesa y representa
imágenes usando un sistema representacional separado. Tras décadas de estudios psicológicos y
neurológicos, el consenso actual apoya ésta segunda teoría39. Así, en el caso de las imágenes
mentales, el cerebro funciona y mantiene imágenes mentales como unos todos parecidos a
imágenes.
Si aceptamos esta idea, que el lenguaje, las imágenes y las formas espaciales requieren el uso de
diferentes procesos y representaciones mentales para su procesamiento: proposicional (es decir,
basada en conceptos, o lingüística) para la primera; visual/espacial (o pictorial) para las segundas;
ayuda a entender porque las especies humanas necesitan medios de escritura y visuales y
especiales. Diferentes medios nos permiten usar nuestros diferentes procesos mentales. En otra
palabras, si los medios son “herramientas para el pensamiento” (para citar el título del libro de
Howard Rheingold de 1984 dedicado a las computadoras 40 ) mediante los cuáles pensamos y
comunicamos los resultados de nuestro pensamiento con otros, es lógico que usemos las
herramientas que nos permiten pensar verbalmente, visualmente y especialmente.
38 Ver: http://plato.stanford.edu/entries/mental-representation/. 39 Rohrer, T. (2006). The Body in Space: Dimensions of embodiment The Body in Space: Embodiment,
Experientialism and Linguistic Conceptualization]. In Body, Language and Mind, vol. 2. Zlatev, Jordan; Ziemke,
Tom; Frank, Roz; Dirven, René (eds.). Berlin: Mouton de Gruyter, 2006. 40 Howard Rheingold, Tools for Thought: The History and Future of Mind-Expanding Technology, edición revisadas
del libro original publicado en 1985 (The MIT Press, 2000).
Manovich. Capítulo 4 – El Software Toma el Mando 29 / 34
La teoría de la psicología cognitiva que postula la existencia de representaciones proposicionales y
pictoriales en la mente es sólo un ejemplo de varias teorías que comparten la creencia que el
pensamiento y comprensión humana no están limitadas exclusivamente al uso del lenguaje. Por
ejemplo, en 1983 Howard Gardner propuso una teoría de inteligencias múltiples, que incluía seis
categorías: corporal-cinestésica, verbal-lingüística, visual-espacial, musical, interpersonal, lógica-
matemática, naturalista e intrapersonal. Recordemos que también Alan Kay basó el diseño de su GUI
en el trabajo del psicólogo Jerome Bruner, quien postulaba la existencia de tres modelos de
representación y cognición: enactivo (basado en la acción), icónico (basado en la imagen) y simbólico
(basado en el lenguaje). A pesar de que el primer modelo fue implementado en Xerox PARC se
limitaba a la selección de objetos en la pantalla mediante el mouse, se le han unido recientemente
interfaces táctiles e interfaces gestuales. Así, las interfaces de las computadoras modernas y de los
aparatos basados en la computación son ellos mismo ejemplos de múltiples medios trabajando:
añadiéndose cada vez más medios como mecanismos de interacción, en lugar de que hagan
convergencia en un solo, como el lenguaje escrito (el UNIX original y otros sistemas operativos de los
60-70’s) o la palabra (el personaje Hal de la película 2001 Odisea en el espacio de Kubrick).
La evolución de las especies de medios
Como vemos, mientras hay razones sustanciales para creer que la softwareización redefine lo que son
los medios y cómo interactúan, no elimina la idea de múltiples y distintos medios. De hecho, en
contraste con la idea de “convergencia”, que se hizo popular en los 2000’s para entender la reunión
de computadoras, televisión y teléfono, mi propuesta es que entendamos los medios
computacionales con el concepto de la evolución biológica (que implica, con el tiempo, el incremento
de la diversidad). Y es aquí donde encontramos la dificultad máxima de seguir usando el término
“medio” como un descriptor útil del conjunto de actividades culturales y artísticas. El problema no es
que múltiples medios converjan en un “monomedio” (no lo hacen). El problema es exactamente el
opuesto: se multiplican a tal punto que el término pierde su utilidad. La mayoría de los grandes
museos y escuelas de arte tienen entre cuatro y seis departamentos que supuestamente
corresponden a diferentes medios (por ejemplo, SFMOMA divide su colección en pintura y escultura,
fotografía, arquitectura y diseño, y artes de los medios41)… y está bien. Siempre podemos seguir
usando nombres únicos para diferentes medios aún si aumentamos el número a un par de decenas.
¿Pero qué pasa cuando el número llega a miles o a decenas de miles?
Y esta es exactamente la situación en la que estamos hoy debido a la softwareización. Haciendo una
extrapolación de la definición de diccionario de medio que abre la primera parte, podemos decir que
41 http://www.sfmoma.org/explore/collection, marzo 6, 2012.
Manovich. Capítulo 4 – El Software Toma el Mando 30 / 34
diferentes medios tienen capacidades de representación, expresión, interacción y/o comunicación
suficientemente disimiles. (¿Cuánta diferencia se necesita para decir que tenemos dos medios en
lugar de uno? Ésta es otra pregunta fundamental que hace difícil el uso de “medio” en la cultura del
software). Consideremos los factores involucrados en la expansión gradual y sistemática de estas
capacidades: la “extensibilidad permanente” del software, el desarrollo de nuevos tipos de aparatos
basados en computación y redes, los procesos de hibridación de medios manifiestos en aplicaciones
de software, prototipos tecnológicos, comerciales y proyectos artísticos… ¿Tenemos un nuevo medio
cada vez que se añade una nueva funcionalidad de representación, expresión, interacción o
comunicación? ¿o cada vez que se combinan? Por ejemplo, ¿la adición de interfaces de control de voz
a un móvil crea un nuevo medio? ¿qué podemos decir de la combinación creativa de diferentes
técnicas visuales en un video musical? ¿se define un nuevo medio? ¿o qué pasa con las versiones de
Goolge Earth que, en una computadora soportan diferentes tipos de capas pero en iPhone OS versión
2008 sólo soportan Wikipedia y Panoramio? ¿son dos medios diferentes?
Si seguimos aferrados a nuestra definición clásica de medio (sin hacer la extrapolación que aquí
proponemos), deberíamos responder afirmativamente a todas éstas preguntas. Ciertamente no
queremos esto. Lo que significa que el fundamento conceptual del discurso de medios y de los
estudios de medios (la idea que podemos nombrar un número relativamente pequeño de medios
distintos) ya no se sostiene. Necesitamos algo más en su lugar.
Para explicar esto de forma alternativa: cuando consideramos un solo aspecto del ecosistema de
medios (el diseño de medios), pudimos adoptar el entendimiento tradicional de “medio” (materiales +
herramientas) para describir las operaciones e interfaces del software de aplicaciones. Esto fue
posible mediante la propuesta de una nueva definición: un medio = algoritmos + una estructura de
datos. Siguiendo esta perspectiva, podemos referirnos al texto simple, al texto formateado, a los
gráficos vectoriales, a las imágenes bitmap, a los modelos poligonales 3D, a los modelos de curvas, a
los modelos de voxels, a los archivos de audio WAV, o a los MIDI, como medios separados. Pero
incluso con este enfoque ya era difícil abarcar el diseño de aplicaciones interactivas y sitios web.
Cuando empezamos a considerar el ecosistema más amplio de los dispositivos móviles, servicios de
red, tecnologías de interfaces, proyectos de medios y más de un millón de apps para plataformas
móviles disponibles a los consumidores, el concepto ya no puede seguir siendo estirado para
describirlos de forma significativa.
Como lo sugiero en este capítulo, el modelo evolutivo de múltiples especies relacionadas que
tomamos prestado a la biología ofrece una alternativa plausible. Este modelo es útil para pensar tanto
las aplicaciones de creación/edición de medios como proyectos/productos de medios particulares
(que, al final, son también aplicaciones de software pero más especializadas: si las aplicaciones de
medios son agnósticas del contenido, los proyectos ofrecen generalmente contenidos particulares).
Manovich. Capítulo 4 – El Software Toma el Mando 31 / 34
Las ventajas clave del “modelo de especies” sobre el “modelo de medios” es su gran número (la
Tierra tiene varios millones de especies, por lo menos hasta ahora), sus vínculos genéticos (que
implican superposición significativa de propiedades entre especies) y el concepto de evolución (que
implica desarrollo constante en el tiempo y el incremento gradual de la diversidad).
Cada una de estas ventajas es igualmente importante. En lugar de intentar dividir la compleja
diversidad de productos de medios de la cultura del software en un reducido número de categorías (o
sea, “medios”), podemos pensar en cada combinación distinta de un subconjunto de todas las
técnicas disponibles como una única “especie de medios”. Claro está, un software de aplicación o un
proyecto/producto no está limitado a recombinar técnicas existentes; también puede innovar nuevas,
que a su vez pueden reaparecer en otros productos o aplicaciones. Estas nuevas innovaciones
pueden ser vistas como nuevos genes (teniendo en cuenta todas nuestras limitantes del uso de ésta
metáfora). Si las ciencias contemporáneas como la biología, la genética y la neurociencias pueden
describir (o por lo menos encaminarse a describir) millones de especies distintas, 3 billones de pares
de DNA en el genoma humano, y 100 bullones de neuronas en la corteza cerebral, ¿por qué no
pueden, la teoría de medios y los estudios del software, lidiar con la diversidad y variabilidad de la
cultura del software mediante la propuesta de mejores clasificaciones que las que tenemos
actualmente? (Un par de ejemplos inspiradores desde las ciencias de la vida son: el proyecto Human
Connectome, que tiene la intención de crear un mapa del cerebro adulto42 o, más ambicioso aún, el
proyecto Blue Brain, que intenta crear un software realista de simulación del cerebro a su nivel
molecular43).
Otra noción igual de importante es la que dice que las especies relacionada comparten varias
propiedades. La tradición estética de los siglos XVIII-XX, de Gotthold Lessing a Clement Greenberg, fue
insistente en oponer un pequeño número de medios entre ellos, viéndolos como distintos y como
categorías que no se sobreponen. Esta tendencia se culminó en el modernismo europeo de los años
10-20’s, cuando los artistas trataron de reducir cada medio a su cualidades únicas. Para ello,
renunciaron a la representación y se concentraron en los elementos materiales que pensaron eran
única a cada medio. Había poetas, como los futuristas rusos, que experimentaban con sonidos; los
cineastas proponían que la esencia del cine era el movimiento y el ritmo temporal (la teoría del cine
francés de los años 2044) o el montaje (como el afirmaba el grupo de Kuleshov en Rusia); y los
pintores exploraban colores puros y formas geométricas. La siguiente declaración, hecha en 1924 por
42 http://www.humanconnectomeproject.org/about/ marzo 7, 2012. 43 http://bluebrain.epfl.ch/, marzo 7, 2012. 44 See Jean Epstein, "On Certain Characteristics of Photogénie," in French Film Theory and Criticism, ed. Richard
Abel (Princeton: University of Princeton Press, 1988), 1: 314-318; Germaine Dulac, "Aesthetics, Obstacles,
Integral Cinégraphie," in French Film Theory and Criticism, 1: 389-397.
Manovich. Capítulo 4 – El Software Toma el Mando 32 / 34
Jean Epstein, un cineasta vanguardista y teórico francés, es típica de la retórica modernista de la
pureza del medio; muchas más sentencias como ésta aparecieron en páginas de publicaciones
vanguardistas de la época:
Cada arte construye su ciudad prohibida, su propio dominio exclusivo, autónomo, específico y
hostil a cualquier cosa que pertenezca. Por asombroso que sea, la literatura debe ser primero
literaria; el teatro, teatral; la pintura, pictórica; y el cine, cinemático. La pintura se está
liberando hoy de muchas de sus preocupaciones representacionales y narrativas… Y
cualquier literatura digna de su nombre da la espalda a los giros y vueltas de la trama que
llevan al detective a descubrir el tesoro secreto… El cine debe buscar convertirse,
gradualmente y al final únicamente, en cinemático; usar, en otras palabras, sólo elementos
fotogénicos45.
A pesar de que los artistas se revolvieron contra esta tendencia en la segunda parte del siglo XX, más
bien se voltearon hacia los “medios mixtos”, el “ensamble”, el “arte multimedia“ y las “instalaciones”.
Esto no condujo a un mejor sistema para entender el arte, sólo creó nuevas categorías (las que
acabamos de mencionar) y los objetos del nuevo arte, extremadamente variados, fueron ubicados en
estas categorías.
La biología evolutiva nos da un espacio de objetos mucho más amplio, cuyas propiedades se pueden
sobreponer. Este modelo le queda mucho mejor a mi teoría de la cultura de software: vista como una
larga y creciente agrupación de técnicas que se pueden combinar y que dan forma a aplicaciones o
proyectos/productos creados con ellas, o mediante programación a la medida. Obviamente, la
mayoría de estas “especies de medios” comparte por lo menos algunas técnicas. Por ejemplo, todas
las aplicaciones con interfaz GUI, diseñadas para correr en pantalla completa de la computadora,
usan técnicas de interacción similares. Para retomar otro conjunto de especies de medios, ya hemos
analizado algunos ejemplos de hibridación de medios, Alsace de Fujihata, Invisible Shape de Sauter, y
Google Earth. Todos ellos comparten la técnicas de incrustación de videos en su espacio virtual
navegable. Tanto Fujihata como Sauter construyen interfaces únicas de objetos de video en sus
mundos 3D. En contraste, Google Earth “habita” la interfaz de YouTube cuando incluimos un video en
la descripción de algún lugar (aunque existe cierto control sobre las características del lector46). Esta
habilidad de introducir un lector de video YouTube es otro ejemplo de técnica que hoy es bastante
usada en sitios web y blogs, así como lo son las API’s disponibles por los servicios de medios sociales.
45 Ibid., 314-15. 46 YouTube, “Embedded player style guide,”
http://support.google.com/youtube/bin/answer.py?hl=en&answer=178264, marzo 7, 2012.
Manovich. Capítulo 4 – El Software Toma el Mando 33 / 34
Finalmente, otro aspecto atractivo del “modelo de especies” es la idea de evolución (no hablamos de
los mecanismos de la evolución biológica en la Tierra, teorizados y discutidos por los científicos, ya
que estos mecanismos no soportan la evolución tecnológica y cultural, más bien hablamos de la
imagen de desarrollo temporal, gradual y continuo, y de variabilidad y emergencia de nuevas
especies), sin implicar progreso. Sin alinearnos con la teoría de los memes, podemos nombrar varias
formas en que nuevas técnicas se transmiten en la cultura del software: nuevos proyectos y productos
que son vistos por demás diseñadores y programadores; artículos científicos en ciencias
computacionales, ciencias de la información, HCI, computación de medios, visualización y demás
áreas; y, el código de programación en sí. Este último mecanismo nos es particularmente importante
debido a que es único a la cultura del software, en contraste con los medios precedentes (al mismo
tiempo, tiene su equivalente directo en el código genético). A medida que nuevas técnicas para la
creación, edición, análisis, interacción, transmisión, búsqueda, visualización, etc. de medios se
vuelven populares, se van programando en varios lenguajes y ambientes de script (Java, C++,
JavaScript, Python, MatLab, Processing, etc.) y se quedan disponibles, comercial o libremente. Si un
programador que trabaja en una nueva aplicación, sitio web o cualquier proyecto de medio quiere
usar alguna de estas técnicas, puede hacer uso de una librería e implementar las funciones en su
propio código.
Tradicionalmente, las nuevas técnicas culturales se reproducían por imitación o adiestramiento. Los
artistas profesionales o los artesanos veían algo nuevo y lo imitaban; los pupilos, asistentes y
estudiantes aprendían las técnicas de sus maestros; los aprendices de arte pasaban años copiando
obras famosas. En cualquier caso, las técnicas pasaban de mente a mente, de mano a mano. Las
tecnologías de medios modernas añadieron un nuevo mecanismo para la transmisión cultural: las
interfaces y los manuales de los dispositivos de los medios traen consigo las mejores prácticas
sugeridas para usarlos. A estos mecanismos se les ha unido uno más: la transmisión de técnicas
culturales mediante algoritmos y librerías de software47. Esto no quiere decir necesariamente que la
transmisión no introduzca cambios: los programadores siempre pueden modificar el código existente
según las necesidades de su proyecto. Más importante, creo, es la modularidad fundamental de los
objetos culturales creados con este mecanismo. Al nivel de las técnicas, un objeto cultural se vuelve
una aglomeración de funciones de diferentes librerías de software (el DNA que comparte con muchos
otros objetos que usan las mismas técnicas). (A pesar de que los productos de medios comerciales
usan ampliamente elementos comprados en catálogos de stock para su contenido, ésta modularidad
no está reconocida abiertamente). Debido a que las técnicas están codificados como funciones de
software, esta modularidad cultural está íntimamente ligada al principio de modularidad de la
47 Jeremy Douglass sugería que podemos estudiar la propagación de técnicas a través la cultura del software
mediante el rastreo del uso de particulares librerías de software y sus funciones en diferentes programas Jeremy
Douglass, presentación en el taller Softwhere 2008, University of California, San Diego, mayo 2008.
Manovich. Capítulo 4 – El Software Toma el Mando 34 / 34
programación computacional moderna (un programa debe consistir de un número de partes
independientes). Si un proyecto de medios o una app introduce una nueva técnica (o técnicas) y
resulta que son valiosas, comúnmente el autor del proyecto las hace disponibles como funciones
separadas, que pueden embonar en las demás técnicas del metamedio computacional (facilitando su
adopción por terceras personas para crear nuevos proyectos).
Me gustaría terminar este capítulo con una cita del historiados Louis Menand, quien explica que,
antes de Darwin, los científicos veían las especies como tipos ideales. Darwin cambió el enfoque
hacia la variación, que para mí es la razón primordial para pensar los medios en la era del software a
través de los términos de la biología evolutiva:
“Una vez que nuestra atención apunta hacia el individuo, necesitamos otra forma de hacer
generalizaciones. Ya no estamos interesados en la conformidad de un individuo a un tipo ideal; ahora
nos interesa la relación de un individuo con otros individuos con los que interactúa… Las relaciones
se vuelven más importantes que las categorías; las funciones, que son variables, son más
importantes que los propósitos; las transiciones son más importantes que las fronteras; las
secuencias son más importantes que las jerarquías” 48.
48 Louis Menand. The Metaphysical Club (New York: Farrar, Straus and Giroux, (2001), p. 123.