Capítulo 1 - El Software Toma el Mando (Manovich)

33
Manovich. Capítulo 1 – El Software Toma el Mando 1 / 33 Capítulo 1. La máquina universal de medios de Alan Kay 1 Lev Manovich Medio: 8. a. Un tipo específico de técnica artística o forma de expresión determinada por los materiales usados o los métodos creativos involucrados: el medio de la litografía. b. Los materiales usados en una técnica artística específica: óleo como medio. American Heritage Dictionary, 4a. edición (Houghton Mifflin, 2000). “La mejor manera de predecir el futuro es inventándolo”. Alan Kay. Apariencia vs. función Entre su invención a mediados de los 40s y la llegada de la PC a inicios de los 80s, la computadora digital era usada sobretodo con fines militares, científicos y empresariales (cálculos y procesamiento de datos). No era interactiva. No estaba diseñada para ser usada por una sola persona. En pocas palabras, difícilmente podía funcionar para la creación cultural. Como resultado de numerosos desarrollos en los 80s y 90s, entre ellos el surgimiento de la industria de las computadoras personales, la adopción de las interfaces gráficas de usuario (GUI), la expansión de redes computacionales y del World Wide Web, las computadoras se movieron hacia la cultura. El software reemplazó muchas herramientas y tecnologías de los creativos profesionales. También ha dado la oportunidad a cientos de millones de personas de crear, manipular y compartir medios. ¿Pero será posible decir que esto nos ha llevado a la invención de nuevas formas de cultura? Actualmente, las compañías de medios están ocupadas inventando libros digitales y televisión interactiva; los consumidores están felizmente comprando discos y películas en formato digital, tomando fotos y videos con sus cámaras digitales y teléfonos celulares; los oficinistas están leyendo documentos PDF que imitan al papel. 1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

description

Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, ublicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

Transcript of Capítulo 1 - El Software Toma el Mando (Manovich)

Page 1: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 1 / 33

Capítulo 1. La máquina universal de medios de Alan Kay1

Lev Manovich

Medio:

8.

a. Un tipo específico de técnica artística o forma de expresión determinada

por los materiales usados o los métodos creativos involucrados: el medio

de la litografía.

b. Los materiales usados en una técnica artística específica: óleo como

medio.

American Heritage Dictionary, 4a. edición (Houghton Mifflin, 2000).

“La mejor manera de predecir el futuro es inventándolo”.

Alan Kay.

Apariencia vs. función

Entre su invención a mediados de los 40s y la llegada de la PC a inicios de los 80s, la computadora

digital era usada sobretodo con fines militares, científicos y empresariales (cálculos y procesamiento

de datos). No era interactiva. No estaba diseñada para ser usada por una sola persona. En pocas

palabras, difícilmente podía funcionar para la creación cultural.

Como resultado de numerosos desarrollos en los 80s y 90s, entre ellos el surgimiento de la industria

de las computadoras personales, la adopción de las interfaces gráficas de usuario (GUI), la expansión

de redes computacionales y del World Wide Web, las computadoras se movieron hacia la cultura. El

software reemplazó muchas herramientas y tecnologías de los creativos profesionales. También ha

dado la oportunidad a cientos de millones de personas de crear, manipular y compartir medios. ¿Pero

será posible decir que esto nos ha llevado a la invención de nuevas formas de cultura? Actualmente,

las compañías de medios están ocupadas inventando libros digitales y televisión interactiva; los

consumidores están felizmente comprando discos y películas en formato digital, tomando fotos y

videos con sus cámaras digitales y teléfonos celulares; los oficinistas están leyendo documentos PDF

que imitan al papel.

1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.

Page 2: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 2 / 33

O sea, parece que la revolución en términos de producción, distribución y acceso a medios no ha sido

acompañada de una revolución similar en cuanto a la sintaxis y semántica de los medios. ¿Quién

debe ser culpado por esto? ¿Debemos apuntar a los pioneros de la computación cultural (J.C.

Licklider, Ivan Sutherland, Ted Nelson, Douglas Engelbart, Seymour Paper, Nicholas Negroponte, Alan

Kay, entre otros)? ¿O, como Nelson y Kay están dispuestos a señalar, el problema radica en la forma

en que la industria ha implementado sus ideas?

Antes de culpar a la industria de mala implementación (podemos regresar a este argumento más

tarde, si es necesario), observemos la visión de los inventores de la computación cultural. Por

ejemplo, ¿qué nos dice la persona que guió el desarrollo del prototipo de la computadora personal

moderna (Alan Kay)?

Entre 1970 y 1981, Alan Kay trabajó en Xerox PARC, un centro de investigación creado por Xerox en

Palo Alto, California. Ahí, el equipo Learning Research, dirigido por Kay, se inspiró del trabajo de

Sutherland, Nelson, Engelbart, Licklider, Seymour Papert, entre otros, y articuló sistemáticamente el

paradigma y las tecnologías de la computación de medios vernaculares que existe en nuestro días2.

A pesar de que un grupo selecto de artistas, cineastas, músicos y arquitectos ya estaban usando

computadoras desde los 50s, desarrollando su propio software en colaboración con ingenieros

informáticos de diversos laboratorios (Bell, IBM Watson Research Center, etc.), la mayoría de sus

producciones estaba orientada a producir un tipo particular de imagen, animación o música, acorde

con sus ideas específicas. Además, cada programa estaba diseñado para correr en un tipo de

máquina particular. Así, estos programas no podían funcionar como herramientas genéricas que

pudieran ser transmitidas a otros usuarios.

Es bien sabido que muchos de los ingredientes clave de nuestras actuales computadoras personales

vinieron de Xerox PARC: la interfaz gráfica de usuario con sus ventanas sobrepuestas e iconografía, la

pantalla de pixeles, los gráficos de colores, la interconexión vía Ethernet, el mouse, la impresora láser

y la impresión WYSIWYG (acrónimo del inglés “What You See Is What You Get”, que puede traducirse

2 Kay ha expresado sus ideas en escasos artículos y en gran número de entrevistas y conferencias. A

continuación mis fuentes primarias: Alan Kay y Adele Goldberg, Personal Dynamic Media, IEEE Computer 10, no.

3 (1977); Alan Kay, “The Early History of Smalltalk,” The 2nd ACM SIGPLAN Conference on History of

Programming Languages (New York:ACM, 1993), 69-95; Alan Kay, “A Personal Computer for Children of All Ages,”

Proceedings of the ACM 1972 National Conference (Boston, 1972); Alan Kay, Doing with Images Makes Symbols,

videocassette (University Video Communications, 1987), http://archive.org/details/AlanKeyD1987/; Alan Kay,

“User Interface: A Personal View,” in The Art of Human-Computer Interface Design, ed. Brenda Laurel (Reading,

Mass: Addison-Wesley, 1990), 191-207; David Canfield Smith at al., “Designing the Star user Interface,” Byte,

Número 4 (1982).

Page 3: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 3 / 33

como “lo que ves es lo que obtienes”). Pero algo que es igualmente importante es que Kay y sus

colegas también desarrollaron aplicaciones para la manipulación y creación de medios usando

también una interfaz gráfica. Entre ellos destacan un procesador de texto, un sistema de archivos, un

programa de dibujo y coloreado, un programa de animación, un programa de creación musical, etc.

Tanto la interfaz gráfica general y los programas de manipulación de medios estaban escritos en el

mismo lenguaje de programación, Smalltalk. Algunas aplicaciones fueron hechas por miembros del

equipo de Kay pero otras más por jóvenes de nivel secundaria3. Esto iba de la mano con la filosofía de

Kay: dar a los usuarios un ambiente de programación, ejemplos de programas y herramientas

genéricas pre-determinadas para que los usuarios fueran capaces de crear sus propias herramientas

creativas.

Cuando Apple lanzó la primera Macintosh, en 1984, acercó la visión de Xerox PARC a los

consumidores (la nueva computadora tenía un precio de 2,495 dólares). La Macintosh 128K incluía

un procesador de texto y una aplicación para dibujo (MacWrite y MacDraw, respectivamente). En

pocos años se unieron otros software para diseñar y producir otros medios: Word, PageMaker y

VideoWorks (1985) 4, SoundEdit (1986), Freehand e Illustrator (1987), Photoshop (1990), Premiere

(1991), After Effects (1993), y demás. Para inicios de los 90s ya existían funcionalidades similares en

computadoras con sistema operativo Microsoft Windows5. Pero ni PC ni Mac eran tan rápidas como

para ser una verdadera competencia a las tecnologías y herramientas tradicionales (a excepción del

procesamiento de texto). Empero, otros sistemas específicamente optimizados para el procesamiento

de medios empezó a reemplazar estas tecnologías tradicionales ya desde los 80s. Hablamos de las

estaciones de trabajo Next, producidas entre 1989 y 1996; Amiga entre 1985 y 1994; y Paintbox,

lanzada en 1981.

Alrededor de 1991 la nueva identidad de la computadora como productor personal de medios había

quedado establecida. Ese año Apple lanzó QuickTime, que dio video a sus sistemas, y el mismo año

James Cameron estrenó Terminator II, que introdujo pioneros efectos especiales hechos a

computadora. La visión del Xerox PARC se había vuelto realidad, o más bien una parte importante de

esta visión que involucraba la conversión de la computadora en máquina personal para mostrar, crear

y manipular contenido en diferentes medios. Kay y sus colaboradores lograron implementar una

variedad de programas en un solo ambiente, con apariencia y comportamiento consistentes. Aunque

ellos no inventarion todos los programas (ya vimos que las aplicaciones de animación y dibujo existían

3 Alan Kay y Adele Goldberg, “Personal Dynamic Media,” in New Media Reader, editado por Noah Wardrip-Fruin y

Nick Montfort (The MIT Press, 2003), 399. 4 Videoworks cambió su nombre a Director en 1987. 5 1982: AutoCAD; 1989: Illustrator; 1992: Photoshop, QuarkXPress; 1993: Premiere.

Page 4: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 4 / 33

desde la segunda parte de los 60s6), sí establecieron un nuevo paradigma de la computación de

medios.

Creo que he expuesto mi punto. La evidencia es irrefutable. Ha sido Alan Kay y sus colaboradores en

PARC quienes se ocuparon de que las computadoras imitaran otros medios. Mediante el desarrollo de

software basado en GUI fáciles de usar para producir medios, Kay y su equipo convirtieron a la

computadora en una máquina para simular “viejos medios”. Para ponerlo en términos del influyente

libro Remediation: understating new media (2000), de Jay Bolter y Richard Grusin, este software

basado en GUI hizo de la computadora una “máquina de remediación”, es decir, una máquina que

representa eficazmente medios existentes. Otras tecnologías desarrolladas en PARC como el monitor

de color de bitmaps, la impresora láser y el primer lenguaje de descripción de páginas (que dio paso a

Postscript) fueron también diseñados para que la computadora cumpliera su rol como máquina de

simulación de medios físicos.

Bolter y Grusin definen a la remediación como “la representación de un medio dentro de otro” 7.

Según su ideas, los nuevos medios siempre remedian a los viejos y por eso no deberíamos esperar

que las computadora se comportaran de forma diferente. Esta perspectiva enfatiza la continuidad

entre medios computacionales y otros tipos más antiguos. En lugar de quedar separados por lógicas

diferentes, todos los medios, incluyendo la computadora, siguen la misma lógica de la remediación.

La única diferencia entre las computadoras y otros medios radica en cómo y qué remedian. Esto lo

exponen Bolter y Grusin en su primer capítulo, “lo nuevo de los medios digitales está en sus

estrategias particulares para remediar a la televisión, el cine, la fotografía y la pintura”. En otro lugar

del mismo capítulo, ofrecen otro argumento sólido que no deja ambigüedades en su postura: “Lo que

decimos es que la remediación es una característica esencial de los nuevos medios digitales”.

Si hoy tomamos en cuenta todos los medios digitales creados por profesionales y por consumidores (o

sea, fotografías y videos digitales hechos con cámaras de bajo costo y teléfonos celulares; el

contenido de blogs personales; ilustraciones creadas con Photoshop; películas hechas con AVID, etc.),

en su superficie los medios digitales parecen exactamente iguales a sus predecesores analógicos. Por

eso, si nos seguimos limitando a su nivel superficial, la remediación puede describir precisamente

muchos de los medios computacionales. Pero en lugar de aceptar esta condición como una

consecuencia inevitable de la lógica universal de la remediación, deberíamos preguntarnos porqué

sucede de esta manera. En otras palabras, si los medios computacionales contemporáneos imitan

otros medios, ¿cómo hemos llegado aquí? En las formulaciones teóricas originales sobre la

6 Ver: http://sophia.javeriana.edu.co/~ochavarr/computer_graphics_history/historia/. 7 Bolter y Grusin, Remediation: Understanding New Media (The MIT Press, 2000).

Page 5: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 5 / 33

computación digital de Turing o de Von Neumann no se especifica nada sobre la imitación de medios

como libros, fotos o películas.

Hay un abismo técnico y conceptual enorme que separa a las computadoras del tamaño de un cuarto

completo (usadas por los militares para calcular blancos con armas antiaéreas y descifrar códigos de

comunicación alemanes) de las computadoras contemporáneas usadas por millones de personas

para almacenar y producir sus propios medios. La identidad contemporánea de la computadora como

procesador de medios tomó 40 años en gestarse, desde 1949 cuando el Laboratorio Lincoln del MIT

inició sus investigaciones en computadoras interactivas hasta 1989 cuando la primera versión de

Photoshop fue lanzada comercialmente. Tomó generaciones de mentes brillantes en inventar la

multitud de conceptos y técnicas que hoy hacen posible que las computadoras “remedien” otros

medios. ¿Cuáles fueron las razones para ello? ¿cuáles eran sus ideas? O sea, ¿por qué estas

personas dedicaron sus vidas a la invención de la última “máquina de remediación”?

En los años 90s y 2000s, los teóricos de medios han dedicado grandes esfuerzos en tratar de

entender las relaciones entre medios digitales y otros medios físicos y electrónicos, pero han dejado

de lado fuentes importantes (como ya hemos dicho, sobretodo los textos de Sutherland, Engelbart,

Nelson, Kay y otros pioneros de los 60s y 70s). Este libro no pretende hacer una historia intelectual

completa de las invención de la computación de medios. Por ello, no voy a considerar el pensamiento

de todos las figuras centrales de esa historia (lo cual se trataría de un proyecto de más de un libro).

Más bien, me centraré en el presente y el futuro. Específicamente, quiero explicar algunas de las

transformaciones radicales en lo que son los medios, lo que pueden hacer y cómo podemos usarlos…

las transformaciones que están conectadas con el cambio de las tecnologías de medios al software.

Algunas de estas transformaciones tuvieron lugar en los 90s pero no fueron suficientemente

discutidas en su momento (por ejemplo, el surgimiento de un nuevo lenguaje de las imágenes en

movimiento y del diseño visual en general). Otras no han sido nombradas aún. Otras más, como el

remix y los mash-ups culturales, son evocadas constantemente pero el análisis de cómo fueron

posibles por la evolución del software de medios no ha sido abordado.

En resumen, quiero explicar qué son los “medios después del software”, o sea, qué pasó con las

técnicas, lenguajes y demás conceptos de los medios del siglo veinte como resultado de su

informatizadas. Precisamente, qué ha pasado con los medios después que fueron softwarizados. Pero

como en el espacio de un libro sólo puedo considerar algunas de esas técnicas, lenguajes y

conceptos, me centraré en aquellos que, en mi opinión, no han sido discutidos por otros. Para

lograrlo, trazaré el camino entre la historia conceptual de la computación de medios desde los 60s

hasta nuestros días.

Page 6: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 6 / 33

Para hacer esto más eficiente, en este capítulo echaremos un vistazo más de cerca a uno de los

lugares en donde la identidad de la computadora como “máquina de remediación” cobró vida, el

grupo de investigación de Alan Kay en Xerox PARC. Haremos dos preguntas: primero, qué es

exactamente lo que Kay quería hacer y, segundo, qué hicieron él y sus colaboradores para lograrlo.

Una breve respuesta, que será desarrollada más adelante, es que Kay quería convertir a las

computadoras en un “medio personal dinámico” que pudiera ser usado para aprender, descubrir y

crear artísticamente. Esto fue posible mediante la simulación sistemática de la mayoría de medios

existentes dentro de una computadora y, al mismo tiempo, añadiendo nuevas funcionalidades a esos

medios. Kay y sus colaboradores también desarrollaron un nuevo tipo de lenguaje de programación

que, al menos en teoría, permitiría a los usuarios crear rápidamente nuevos tipos de medios usando

herramientas genéricas. A todas estas herramientas y medios existentes se les dio una interfaz de

usuario unificada, diseñada para activar múltiples formas de pensamiento y formas de aprendizaje

(kinestésico, icónico, simbólico).

Kay pensó en el “medio dinámico personal” como un nuevo tipo de medio con numerosas

propiedades sin precedentes históricos como, por ejemplo, la habilidad de guardar la información de

los usuarios, simular todos los medios en uno mismo e “involucrar al aprendiz en una conversación

bidireccional” 8 . Estas propiedades permiten nuevas relaciones entre usuario y medio, ya sea que

esté creando, modificando o viendo en su computadora. Esto es esencial si queremos entender las

relaciones entre computadoras y medios tradicionales. Dicho de otra forma, puede ser que los medios

computacionales visuales mimeticen otros medios, pero también funcionan de diferentes maneras.

Por ejemplo, pensemos en la foto digital que usualmente imita la apariencia de la foto tradicional.

Para Bolter y Grusin, esto es un ejemplo de cómo los medios digitales “remedian” a sus predecesores.

Pero en lugar de centrarnos únicamente en su apariencia, pensemos en cómo funciona la foto digital.

Si convertimos una foto digital en un objeto físico (como ilustración de una revista, como póster en la

pared, como estampado de una playera), entonces efectivamente funciona de la misma manera que

su predecesor (a menos que tenga capacidades aumentadas como el catálogo e 2013 de IKEA9).

Pero si dejamos la misma foto en su ambiente computacional nativo, que puede ser una laptop, un

sistema de almacenamiento en red o cualquier otro dispositivo o Internet, puede funcionar de formas

que, en mi opinión, la vuelven radicalmente diferente a su equivalente analógico. Para usar un

término diferente, podemos decir que una foto digital ofrece más posibilidades que sus antepasados

8 Desde el trabajo de Kay y su grupo en los 70s, ingenieros en computación, hackers y diseñadores han añadido

muchas otras propiedades únicas, por ejemplo podemos mover medios rápidamente vía Intenret y compartirlos

con millones usando Flickr, YouTube y demás sitios. 9 Roberto Baldwin, "Ikea’s Augmented Reality Catalog Will Let You Peek Inside Furniture," Julio 20, 2012,

http://www.wired.com/gadgetlab/2012/07/ikeas-augmented-reality-catalog-lets-you-peek-inside-the-malm/.

Page 7: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 7 / 33

ya que puede ser modificada o combinada rápidamente con otras imágenes; puede ser publicada al

mundo entero y compartida con otras personas; puede ser integrada en un documento de texto o en

un diseño arquitectónico. Además, podemos automáticamente mejorar su contraste, hacerla más

nítida o incluso, en ocasiones, remover su borrosidad.

Nota que sólo algunas de estas propiedades son específicas a un medio en particular, en nuestro

ejemplo una fotografía digital, es decir un conjunto de pixeles representados como números. Otras

propiedades son comunes a una larga variedad de especies de medios, por ejemplo, en el estado

actual de cultura digital, todos los medios pueden ser añadidos a un correo electrónico. Hay otros que

tienen propiedades aún más generales del ambiente computacional basado en GUI: la rápida

respuesta de la computadora a las acciones de los usuarios asegura “fluidez entre causa y efecto” 10.

Otros más son posibles mediante protocoles de redes como el TCP/IP que permite a computadoras y

aparatos conectarse a una misma red. En resumen, podemos decir que sólo una parte del “nuevo

ADN” de la fotografía digital nació de hecho en la cámara. Muchos otros son el resultado del

paradigma actual de la computación de redes en general.

Antes de explorar en detalle las ideas de Kay quisiera exponer las razones por las cuales elegí

enfocarme en él en lugar de otro. La historia que presentaré podría ser contada diferente. Sería

factible poner el trabajo de Sutherland al centro de la historia de la computación de medios, o a

Engelbart y su Centro de Investigación para el Aumento del Intelecto Humano que introdujo varias

novedades en los 60s, como el hipertexto (aparte de Nelson), el mouse, las ventanas, el procesador

de texto, pantallas de texto y gráficos. O podemos enfocarnos en el trabajo del Architecture Machine

Group del MIT que desde 1967 fue dirigido por Nicholas Negroponte (en 1985 este grupo se convirtió

en el MIT Media Lab). También es necesario recordar que al mismo tiempo que Kay y su grupo de

investigación en PARC develaron detalles de su GUI y programaron varios editores de medios en

Smalltalk (un programa de pintura, uno de ilustración, uno de animación, etc.), varios artistas,

cineastas y arquitectos usaban computadoras desde hace una década y se montaron grandes

exhibiciones de arte digital en los museos más importantes alrededor del mundo, entre ellos el Museo

de Arte Contemporáneo de Londres, el Museo Judío de Nueva York, el Museo de Arte de Los Ángeles.

Y ciertamente, en términos de técnicas computaciones para la representación visual digital, otros

grupos están muy avanzados. Por ejemplo, a inicios de los 70s, la Universidad de Utah era el principal

centro de investigación de gráficas computacionales. Aquí se producían imágenes 3D superiores a las

imágenes creadas en PARC. Junto a la Universidad de Utah, una compañía llamada Evans y

Sutherland (dirigida por el mismo Ivan Sutherland que enseñaba en la universidad), usaba gráficas 3D

para la simulación de vuelos, siendo pionero en los “espacios virtuales 3D navegables”.

10 Kay y Goldberg, Personal Dynamic Media, 394.

Page 8: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 8 / 33

El trabajo práctico hecho en Xerox PARC permitió ver a la computadora como una máquina de medios.

Otra razón por la cuál elegí enfocarme en Kay fueron sus formulaciones teóricas que ubican a las

computadoras en relación con otros medios y con la historia de los medios. Vannevar Bush, J.C.

Licklider y Douglas Engelbart estaban interesados en el aumento del intelecto, mientras que a Kay

también le interesaba la computadora como “medio de expresión mediante el dibujo, la pintura, la

animación de imágenes y la composición y generación de música” 11 . Entonces, si de verdad

queremos entender cómo y por qué la computadoras fueron redefinidas como medios culturales, y

cómo los nuevos medios computacionales son diferentes de otros medios físicos y electrónicos, creo

que Kay nos ofrece la mejor perspectiva teórica.

“La simulación es la noción central del Dynabook” Alan Kay dio forma a sus ideas en diversos artículos y conferencias. El artículo que coescribió con una

de sus principales colaboradoras en PARC, la ingeniera en computación Adele Goldberg, es un

recursos particularmente útil para comprender los medios computacionales contemporáneos. Aquí,

Kay y Goldberg describen la visión del Learning Reseacrh Group en PARC de la siguiente manera:

crear “un medio personal dinámico del tamaño de una libreta (el Dynabook) que pueda ser adquirido

por cualquiera y tener el poder de manejar virtualmente todas la necesidades de información de su

propietario” 12. Kay y Goldberg piden a sus lectores que imaginen este aparato con “suficiente poder

para sobrepasar tus sentidos de la vista y del oído, suficiente capacidad para almacenar y acceder a

miles de documentos tipo materiales de referencia, poemas, cartas, recetas, archivos, dibujos,

animaciones, partituras musicales, frecuencias de onda, simulaciones dinámicas y cualquier cosa que

necesites recordar y cambiar” 13.

Para mí, ”todo” en la frase es importante: significa que el Dynabook (o ambiente computacional de

medios en general, sin importar el tamaño del aparato en que se implementa), debe soportar

visualización, creación y edición de todos los medios posibles usados tradicionalmente para la

expresión y comunicación humana. De igual forma, mientras diferentes programas de creación ya

existían en diferentes medios, el grupo de Kay los implementó por primera vez todos juntos en una

misma máquina. En otras palabras, el paradigma de Kay no consistía simplemente en crear un nuevo

tipo de medio basado en la computadora, que pudiera coexistir con otros medios físicos. Más bien, el

objetivo era establecer a la computadora como un paraguas, una plataforma para todo medio artístico

existente (al final de artículo, Kay y Goldberg dan un nombre a este medio: “metamedio”). Este

11 Ibid., 393. 12 Ibid., 393. El énfasis en esta y las demás citas de este artículo es mío (Manovich) 13 Ibid., 394.

Page 9: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 9 / 33

paradigma cambia nuestro entendimiento sobre lo que son los medios. Desde el Laocoon; or, On the

Limits of Painting and Poetry (1766) de Lessing hasta los Languages of Art (1968) de Nelson

Goodman, el discurso moderno sobre los medios está basado en el supuesto que diferentes medios

tienes distintas propiedades y que, de hecho, deberían ser entendidos en oposición los unos con

otros. El hecho de ubicar todos los medios en un mismo ambiente computacional no necesariamente

borra todas las diferencias de cómo cada uno puede representar y cómo poder ser percibido, pero sí

los acerca de varias formas. Algunas de esta nuevas conexiones ya eran visibles para Kay y sus

colegas, otras se volvieron evidentes décadas más tarde cuando la nueva lógica de los medios de

PARC se desarrolló más ampliamente y, algunas, quizá aún sean invisibles para nosotros debido a

que no han sido realizadas de forma práctica. Un ejemplo claro de estas conexiones es el surgimiento

de la multimedia como una forma estándar de comunicación: páginas Web, presentaciones

PowerPoint, obras multimedia, mensajes multimedia móviles, blogs de medios y otras formas de

comunicación que combinan unos cuantos medios. Otro ejemplo es la adopción de convenciones en

la interfaz y herramientas que usamos para trabajar con diferentes tipos de medios, sin importar su

origen: cámaras virtuales, lupas de aumento y, por supuesto, los omnipresentes comandos de copiar,

cortar y pegar. Otro caso es la habilidad de “mapear” un medio en otro usando el software apropiado

para ello (imágenes en sonido, sonido en imágenes, datos cuantitativos en formas 3D o sonidos, etc.),

como se hace en los terrenos del DJ, VJ, cine en tiempo real, performances y visualización de la

información. Con todo, parece que los medios están activamente tratando de tocarse entre ellos,

intercambiando propiedades y dejando que sus propiedades únicas sean tomadas en préstamo (esta

situación es directamente opuesta al paradigma de medios modernista de principios del singlo veinte,

orientado a descubrir el lenguaje único de cada medio artístico).

Alan Turing definió teóricamente la computadora como una máquina que puede simular una gran

vaeridad de clases de otras máquinas, y es esta habilidad de simulación la que es responsable de la

proliferación de las computadoras en la sociedad moderna. Pero como ya lo he mencionado, ni él ni

otros inventores de la computadoras digitales consideró explícitamente que esta simulación pudiera

también incluir a los medios. Fue Kay su generación quienes extendieron la idea de simulación de

medios (convirtiendo la Máquina Universal de Turing en una Máquina Universal de Medios).

Al respecto, Kay y Goldberg escriben: “en un sentido muy real, la simulación es la noción central del

Dynabook” 14. Cuando usamos las computadoras para simular algún proceso del mundo real (el

comportamiento de un sistema climático, el procesamiento de información en el cerebro, la

deformación de un choque de automóvil) nuestra preocupación está en modelar correctamente las

características necesarias de este proceso o sistema. Deseamos ser capaces de probar cómo nuestro

modelo se comportaría en diferentes condiciones con diferentes datos, y la última cosa que

14 Ibid., 399.

Page 10: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 10 / 33

quisiéramos que haga la computadora es introducir características que no especificamos nosotros

mismos. Cuando usamos computadoras como un medio general de simulación, queremos que este

medio sea completamente “transparente”.

¿Pero qué pasa cuando simulamos diferentes medios en una computadora? En este caso, la

aparición de nuevas propiedades de puede ser bienvenida debido a que puede extender el potencial

expresivo y comunicativos de estos medios. Cuando Kay y sus colegas crearon simulaciones

computacionales de medios físicos existentes (herramientas para representar, crear, editar y ver

estos medios), lo que hicieron fue “añadir” apropiadamente muchas nuevas propiedades. Por

ejemplo, en el caso del libro, Kay y Goldberg indican que “no deber ser tratado como un libro de texto

simulado debido a que este es un nuevo medio con nuevas propiedades. Una búsqueda dinámica

puede ser hecha en algún contexto particular. La naturaleza no-secuencial y el uso de manipulación

dinámica permite contar una historia desde múltiples puntos de vista” 15. Kay y su equipo también

añadieron varias propiedades a la simulación computacional de documentos en papel. Kay se ha

referido a ellas en otro artículo. Su idea no era de únicamente imitar el papel sino de crear “papel

mágico” 16. Por ejemplo, PARC ofreció a los usuarios la capacidad de modificar la tipografía y de crear

nuevas. También implementaron una idea del equipo de Engelbart en los 60s: la posibilidad de crear

diferentes vistas de una misma estructura. Y también Engelbart y Nelson ya había “añadido” otra

cosa: la habilidad de conectar diferentes documentos o diferentes partes de un mismo documento

mediante hipervínculos (lo que se conoce actualmente como hipertexto e hipermedios). El grupo de

Engelbart también desarrolló la posibilidad de que múltiples usuarios también trabajaran en un

mismo documento. Y la lista sigue: correo electrónico en 1965, grupos de discusión en 1979, el World

Wide Web en 1991, etc.

Cada una de estas nuevas propiedades tiene amplias consecuencias. Tomemos la búsqueda de

información. A pesar de que la habilidad de buscar en un documento del tamaño de una hoja puede

que no suene como una innovación radical, sí lo es a medida que el documento se va haciendo

grande. Y se vuelve absolutamente crucial si tenemos una colección de documentos vasta como lo

serían todas las páginas del World Wide Web. Con todo y que los motores de búsqueda están lejos de

ser perfectos y que las tecnologías siguen evolucionando, imagina cómo sería de diferente la cultura

Web sin ellos.

O piensa en la capacidad de un número de usuarios para colaborar en un mismo documento(s) que

se encuentra en una misma red. Esto ya era muy usado por las compañías en los 80s y 90s, pero no

fue hasta principios de los 2000s que el público masivo vio el potencial de esta “adición” a los medios

15 Ibid., 395. 16 Alan Kay, “User Interface: A Personal View,” p. 199.

Page 11: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 11 / 33

impresos. A través de la colecta de pequeñas cantidades de labor y el expertise de un gran númerode

voluntarios, los proyectos de software social (como Wikipedia), crearon un vasto y dinámico grupo de

conocimientos actualizables que sería imposible de lograrse con formas tradicionales (de manera

mucho menos visible, cada vez que hacemos una búsqueda en el Web, los algoritmos toman en

cuenta cuál de los resultados de búsquedas previas fue más útil para las personas).

Al estudiar los textos y las presentaciones públicas de la gente que inventó los medios interactivos

computacionales (Sutherland, Engelbart, Nelson, Negroponte, Kay y otros), queda claro que no

llegaron a las nuevas propiedades de los medios digital en el último momento. Al contrario, ellos

sabían que estaban transformando los medios físicos en nuevos medios. En 1968, Engelbart hizo su

famosa demostración en la conferencia Fall Joint, en San Francisco, ante unas miles de personas,

entre ellas ingenieros computacionales, gente de IBM y otras compañías involucradas con

computadoras, y agentes financieros de varias agencias de gobierno17. Aunque Engelbart disponía de

90 minutos, tenía mucho qué mostrar. Durante unos cuantos años previos, su equipo en el Centro de

Investigación para el Aumento del Intelecto había esencialmente desarrollado ambientes de oficina

tal como existen hoy en día (no confundir con ambientes de diseño de medios, que fueron

desarrollados más tarde en PARC). El sistema computacional NLS incluía un procesador de texto lleno

de funcionalidades, documentos conectados mediante hipertexto, colaboración en línea (dos

personas en ubicaciones remotas trabajando en un mismo documento simultáneamente), manuales

de usuario en línea, sistemas de planeación de proyectos en línea, y otros elementos de lo que se

llama actualmente “trabajo colaborativo soportado por computadora”. El grupo también desarrolló

elementos clave de la interfaz de usuario moderna que después fueron refinados por PARC: un mouse

y múltiples ventanas.

Si ponemos atención en la secuencia del demo, notamos que Engelbart debía asegurarse que su

audiencia fuera capaz de relacionar el nuevo sistema computacional con lo que ya sabían y conocían,

pero su enfoque estaba puesto en las nuevas propiedades de la simulación de medios, cosas que no

existía previamente18. Engelbart dedica el primer segmento del demo al procesamiento de texto, pero

tan pronto como muestra la captura de texto, así como cortar, pegar, insertar, nombrar y salvar

archivos (o sea, la serie de herramientas que hacen de un procesador de texto una herramienta más

versátil que una máquina de escribir), pasa a una demostración más detallada de propiedades de su

17 M. Mitchell Waldrop, The Dream Machine: J.C.R. Liicklider and the Revolution That Made Computing Personal

(Viking, 2001), p. 287. 18 El video completo de la demostración de Engelbart está disponible en:

http://sloan.stanford.edu/MouseSite/1968Demo.html. Para una descripción detallada de las funciones de NLS,

consultar “NLS User Training Guide,” Stanford Research Institute: Menlo Park, California), 1997,

http://bitsavers.org/pdf/sri/arc/NLS_User_Training_Guide_Apr77.pdf.

Page 12: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 12 / 33

sistema que ningún otro medio tenía antes: “control de vistas”. Como Engelbart indica, el nuevo

medio de escritura puede cambiar entre diferentes vistas de una misma información a conveniencia

del usuario. Un archivo de texto puede ser ordenado de diferentes formas. También puede ser

organizado como una jerarquía con cierto número de niveles, como en procesadores de índices y

sumarios de software contemporáneo como Microsoft Word. Por ejemplo, una lista de elementos

puede ser organizada por categorías, que a su vez pueden ser desplegadas o replegadas.

Después, Engelbart muestra otro ejemplo del control de vistas que incluso hoy, 45 años después, aún

no está disponible en los software populares de gestión de documentos. Empieza a hacer una larga

lista de “cosas qué hacer” y las organiza por lugares. Enseguida hace que la computadora muestra

dichas locaciones en un gráfico visual (un conjunto de puntos conectados por líneas). En frente de

nuestros ojos, la representación en un medio cambia a otro (el texto se vuelve un gráfico). Pero eso no

es todo, el usuario puede interactuar con este gráfico para ver diferentes cantidades de información

(algo que ninguna imagen en los medios físicos puede hacer). A medida que Engelbart va haciendo

clic sobre los puntos se van mostrando las partes correspondientes a su lista original (esta

funcionalidad de modificar qué y cuánta información debe mostrar una imagen es un tópico

importante para las aplicaciones de visualización de la información).

Engelbart presenta a continuación “una cadena de vistas” que ya tiene preparada de antemano. Va

cambiando entre estas vistas mediante “ligas”, que parecen los actuales “hipervínculos” de nuestro

Web (aunque tienen una función diferente). En lugar de crear un camino entre muchos documentos

diferentes (como lo haría el Memex de Vannevar Bush), Engelbart usa las ligas como método para

cambiar entre diferentes vistas de un mismo documento organizado jerárquicamente. Por ejemplo,

empieza por un renglón ubicado en la parte alta de la pantalla, cuando hace clic sobre las palabras,

aparece más información en la parte inferior de la pantalla. Esta nueva información puede contener

ligas hacía otras vistas o incluso hacía información más detallada del texto19.

En lugar de usar a las ligas como una estrategia en el universo textual asociativo y “horizontal”, ahora

nos movemos verticalmente, entre información general e información detallada. Apropiadamente, en

el paradigma de Engelbart no “navegamos” sino “cambiamos vistas”. Podemos crear muchas vistas

diferentes de la misma información y, claro, movernos entre ellas de diferente manera. Y esto es lo

que Engelbart explica sistemáticamente en la primera parte de su demo. Demuestra que podemos

alternar vistas mediante comandos, o mediante el tecleo de números que corresponden a las

distintas partes de una jerarquía, o haciendo clic sobre una imagen o texto. Cabe mencionar que en

19 La descripción a detalle de estas y otras funcionalidad de NLS puede ser consultada en:

Augmentation Research Center, “NLS User Training Guide,” Stanford Research Institute: Menlo Park,

California), 1997, http://bitsavers.org/pdf/sri/arc/NLS_User_Training_Guide_Apr77.pdf

Page 13: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 13 / 33

1967, Ted Nelson formula una idea similar para denominar un tipo particular de hipertexto que

permitiría a un lector “obtener mayor detalle sobre una tema específico”, que después llamó

“stretchtext” 20.

A partir de que la teoría y crítica de nuevos medios surgieron a inicios de los 90s, se ha escrito mucho

sobre interactividad, hipertexto, realidad virtual, ciberespacio, cibercultura, ciborgs, y demás. Pero

personalmente nunca he visto nada sobre “control de vistas” y no obstante se trata de una de las

nuevas técnicas más fundamentales y radicales para trabajar con las información y los medios

disponibles hoy en día. La usamos diario en numerosas ocasiones. Los “controles de vista”, o la

habilidad de movernos entre diferentes vistas y tipos de vistas, ha sido implementada de varias

formas no solo en procesadores de texto y servidores de correo electrónico, también en

“procesadores de medios” (o sea, software para la producción de medios): AutoCad, Maya,

AfterEffects, Final Cut, Photoshop, InDesign, etc. Pensemos en el software 3D, en donde un modelo

puede ser visto en por lo menos media docena de formas diferentes: sólido, vértices y aristas, etc. En

el caso del software para animación y efectos visuales, en donde los proyectos típicamente contienen

docenas de objetos y cada uno con numerosos parámetros, éstos pueden ser vistos de forma similar

a un sumario de texto. Los usuarios pueden elegir entre desplegar más o menos información: aquellos

parámetros en donde estás trabajando actualmente o “zoom out” de todo el proyecto. Cuando

hacemos estos, las partes de la composición no sólo se hacen más grandes o pequeñas, también

muestran menor o mayor información automáticamente. Por ejemplo, a cierta escala sólo podemos

ver el nombre de los parámetros pero haciendo un acercamiento se pueden ver una gráfica de cómo

se desarrollan en el tiempo.

Examinemos otro ejemplo: el concepto de hipertexto de Ted Nelson que formuló en los 60s (de forma

independiente y paralela a Engelbart) 21. En su artículo A File Structure for the Complex, the Changing,

and the Indeterminate (1965), Nelson habla sobre las limitantes del libro, y otros sistemas basados

en papel, para organizar información. Aquí presenta su nuevo concepto:

Sin embargo, con la pantalla computacional y la memoria masiva, se ha vuelto posible crear

un nuevo medio, leíble, que se puede usar para la educación y el entretenimiento, que

20 Ted Nelson, “Stretchtext” (Hypertext Note 8), 1967, http://xanadu.com/XUarchive/htn8.tif. Proponemos la

traducción “texto elástico” para “stretchtext”. 21 Douglas C. Engelbart, Augmenting Human Intellect: A Conceptual Framework (Stanford Research Institute,

1962), http://www.dougengelbart.org/pubs/augment-3906.html. Aunque la implementación del hipertexto en el

sistema NLS de Engelbart estaba muy limitada comparada con el concepto de Nelson, vale la pena estudiar su

visión sobre el aumento del intelecto, casi tan rica como la de Nelson.

Page 14: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 14 / 33

permita al lector encontrar su nivel, satisfacer su gusto y encontrar aquellas partes que le son

significativas para su formación y placer.

Permítanme acuñar la palabra “hipertexto” para definir un cuerpo de material escrito o

gráfico, interconectado de manera tan compleja que no sería pertinente presentarlo o

representarlo en papel. (el énfasis en la palabra “hipertexto” es de Lev Manovich).

“Un nuevo medio, leíble”. Estas palabras aclaran que Nelson no sólo estaba interesado en mejorar

libros y otros documentos de papel. Más bien, quería crear algo nuevo. ¿Pero acaso el hipertexto de

Nelson no era simplemente una extensión de antiguas prácticas textuales como la exégesis (extensas

interpretaciones de escrituras sagradas como la Biblia, el Corán y el Talmud), las anotaciones y los

pies de página? A menudo se propone que éstos son predecesores históricos del hipertexto pero aún

no hemos alcanzado la visión de Nelson con la manera en que vivimos nuestros hipertextos

actualmente, es decir con el World Wide Web. Noah Wardrip-Fruin ya ha dicho que el Web sólo

implementa uno de los muchos tipos de estructuras de Nelson previó en 1965: las ligas estáticas de

una página a otra22.

De acuerdo con la implementación actual del Web, muchas gente cree que el hipertexto es un cuerpo

de texto conectado mediante ligas que van de un sentido a otro. Sin embargo, la noción de “liga” ni

siquiera aparece en la definición original de hipertexto. En su lugar, Nelson habla de una nueva y

compleja interconectividad, sin especificar ningún mecanismo en particular que poder usado para

lograrlo. Nelson de hecho presenta un sistema particular para implementar su visión pero, como él

mismo lo dice, puede haber muchos otros.

“¿Qué tipo de estructuras son posibles de lograr con el hipertexto?”, pregunta Nelson en una

investigación de 1967. Contesta a su pregunta de forma breve pero concisa: “cualquiera” 23. Después

explica: “el texto ordinario puede ser visto como un caso especial de hipertexto, el más simple y

familiar, tal como el espacio tridimensional y el cubo ordinario son los casos más simples y familiares

del hiperespacio y del hipercubo24. EN 2007, Nelson actualizó esta idea de la forma siguiente: “el

hipertexto, una palabra que acuñé hace tiempo, no es una tecnología sino más bien la generalización

más completa de documentos y de literatura25.

22 Noah Wardrip-Fruin, introducción al artículo de Theodor H. Nelson, “A File Structure for the Complex, the

Changing, and the Indeterminate” (1965), in New Media Reader, p. 133 23 Ted Nelson, “Brief Words on the Hypertext" (Hypertext Note 1), 1967, http://xanadu.com/XUarchive/htn1.tif 24 Ibid. 25 Ted Nelson, http://transliterature.org/, version TransHum-D23, Julio 17, 2007.

Page 15: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 15 / 33

Si el hipertexto no significa únicamente “ligas”, tampoco significa exclusivamente “texto”. A pesar de

que su uso más reciente hace referencia a texto conectado, Nelson también tomaba en cuenta

imágenes en su definición original 26 . En el párrafo siguiente también acuña los términos

hiperpelículas e hipermedia:

Las películas, las grabaciones sonoras, las grabaciones de video son también secuencias

lineales, básicamente por cuestiones mecánicas. Pero éstas también pueden ser organizadas

como sistemas no lineales (por ejemplo, regiones) siguiendo propósitos educativos o para

mostrar con diferente énfasis… Las hiperpelículas (una o múltiples secuencias de película

que ser exploradas) es sólo uno de los posibles hipermedios que nos llaman la atención27.

¿En dónde están las hiperpelículas hoy, casi 50 años después de que Nelson articuló su concepto? Si

entendemos las hiperpelículas de una manera tan limitada como lo hemos hecho con los hipertextos

(tomas conectadas mediante ligas sobre las cuáles un usuario puede hacer clic), parecería que nunca

se desarrollaron. A algunos proyectos pioneros no se les dio seguimiento: Aspen Movie Map

(Architecture Machine Group, 1978-79), Earl King and Sonata (Grahame Weinbren, 1983-85; 1991-

1993), el CD-ROMs de Bob Stein Voyager Company, y Wax: Or the Discovery of Television Among the

Bees (David Blair, 1993). Igualmente, películas interactivas y juegos con video “full-motion”, creados

por la industria de los videojuegos en la primera parte de los 90s, quedó pasada de moda

rápidamente y reemplazada por los juegos 3D que ofrecían más interactividad. Pero si pensamos en

las hiperpelículas en un sentido más amplio, tal como lo hizo Nelson, cualquier estructura interaciva

que conecta video o elementos fílmicos (en donde las películas son un caso especial), nos daremos

cuenta que las hiperpelículas son más comunes de lo que parecen hoy en día. Los numerosos sitios

interactivos basados en Flash o HTML5 que usan video, los videoclips que ahora tienen marcadores

que permiten a un espectador saltar a un punto específico del video (por ejemplo los video de

ted.com28) y el cine de base de datos29 son sólo unos ejemplos de hiperpelículas contemporáneas.

Décadas antes de que los hipertextos e hipermedios se volvieran los modos comunes para interactuar

con la información, a Nelson le había quedado claro lo que esas ideas significaban para nuestras

prácticas y conceptos culturales establecidos. El anuncio de su conferencia el 5 de enero de 1965 en

26 Durante el simposio Digital Retroaction 2004, Noah Wardrip-Fruin recalcó que la visión de Nelson incluía a los

hipermedios y no sólo a los hipertextos. Noah Wardrip-Fruin, presentation at Digital Retroaction: a Research

Symposium, UC Santa Barbara, Septiembre 17-19, 2005, http://dc-

mrg.english.ucsb.edu/conference/D_Retro/conference.html. 27 Nelson, A File Structure, 144. 28 www.ted.com, March 8, 2008. 29 Ver http://softcinema.net/form.htm.

Page 16: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 16 / 33

Vassar College muestra esto en términos más alusivos en nuestro contexto actual de lo que fueron en

aquellos días: “las consecuencias filosóficas de todo esto son muy profundas. Nuestros conceptos de

“lectura”, “escritura” y “libro” caen y ahora el reto es diseñar hiperdocumentos y escribir “hipertextos”

que puedan tener más potencial educativo que cualquier otras cosa que haya sido impresa en papel”

30.

Esta postura alinea el pensamiento y obra de Nelson con artistas y teóricos que de igual forma

querían desestabilizar las convenciones de la comunicación cultural. Los académicos de medios

digitales han discutido ampliamente las analogías entre Nelson y los pensadores franceses de los 60s

(Roland Barthes, Michel Foucault y Jacques Derrida) 31. Otros ya han señalado las similitudes entre

Nelson y los experimentos literarios que se llevaron a cabo al mismo tiempo, como Oulipo32. Incluso

también podamos notar la conexión entre el hipertexto de Nelson y la estructura no lineal de películas

como Hiroshima Mon Amour, L'Année dernière à Marienbad y À Bout de Souffle, entre otros

realizadores franceses que cuestionaban el estilo narrativo clásico.

¿Qué tan lejos debemos llevar estas similitudes? En 1987, Jay Bolter y Michael Joyce escribieron que

el hipertexto debería ser visto como ”una continuación de la “tradición” moderna de la literatura

experimental impresa” que incluye “modernismo, futurismo, Dada, surrealismo, leterismo, la nueva

novela, poesía concreta” 33. Por su lado, Espen J. Aarseth objetó dicho argumento señalando que el

hipertexto no es una estructura modernista per se, aunque puede soportar la poética modernista si el

autor así lo desea34. ¿Quién tiene la razón? Este libro sostiene que el software cultural convirtió a los

medios en meta-medios (un nuevo sistema semiótico y tecnológico que incluye a la mayoría de los

medios precedentes, su estética, sus técnicas y sus elementos fundamentales). Yo también pienso

que el hipertexto es diferente a la tradición literaria modernista. Concuerdo con Aarseth en que el

hipertexto es mucho más general que cualquier poética. Recordemos que en 1967 Nelson ya había

dicho que el hipertexto podría soportar cualquier estructura de información, incluyendo a los textos

tradicionales, entre ellos las diferentes poéticas modernistas. Curiosamente, esta premisa es

30 Noticia sobre la conferencia de Ted Nelson en Vassar College, Enero 5,1965,

http://xanadu.com/XUarchive/ccnwwt65.tif. 31 George Landow (ed), Hypertext: The Convergence of Contemporary Critical Theory and Technology (The Johns

Hopkins University Press, 1991); Jay Bolter, The writing space: the computer, hypertext, and the history of writing

(Hillsdale, NJ: L. Erlbaum Associates, 1991). 32 Randall Packer & Ken Jordan, Multimedia: From Wagner to Virtual Reality (W. W. Norton & Company, 2001);

Noah Wardrip-Fruin & Nick Monford, New Media Reader (The MIT Press, 2003). 33 Citado en Espen J. Aarseth, Cybertext: Perspectives on Ergodic Literature (The Johns Hopkins University Press,

1997), p. 89. 34 Espen J. Aarseth, Cybertext, 89-90.

Page 17: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 17 / 33

replicada por Kay y Goldberg en su definición de meta-medio, cuyo contenido es “una larga variedad

de medios existentes y aún no inventados”.

¿Qué hay acerca de los académicos que ven relaciones estrechas entre el pensamiento de Nelson y el

modernismo? Aunque Nelson dice que el hipertexto puede soportar cualquier estructura de

información y que la información se debe limitar al texto, sus ejemplos y su estilo de escritura reflejan

una sensibilidad estética inconfundible… la de una literatura modernista. Claramente se opone al

“texto ordinario”. Sus énfasis en la complejidad e interconectividad y en el rompimiento de unidades

convencionales de organización de la información, como las páginas, alinean la propuesta de Nelson

con la literatura experimental de principios del siglo XX: las creaciones de Virigina Wolf, James Joyce,

los surrealistas, etc. Este vínculo con la literatura no es accidental debido a que la idea original de

Nelson en su investigación que lo llevó a los hipertextos era crear un sistema de gestión de notas para

escritos literarios y manuscritos en general. Nelson conocía acerca de los textos de William Burroughs.

El mismo título de su artículo (Un estructura de archivos para lo complejo, el cambio y lo

indeterminado) sería perfectamente adecuado para un manifestó vanguardista de inicios del siglo

veinte, siempre y cuando sustituyéramos “estructura de archivos” por algún “ismo”.

La sensibilidad modernista de Nelson también se aprecia en su visión sobre nuevos medios que

pueden establecerse con la ayuda de la computadora. Sin embargo, su obra no debe considerarse

una simple continuación de la tradición modernista. Más bien, tanto su investigación como la de Kay

representan el siguiente nivel del proyecto vanguardista. Los artistas vanguardistas de inicios del siglo

XX estaban muy interesados en cuestionar las convenciones de medios ya establecidos, como la

fotografía, la prensa, el diseño gráfico, el cine, la arquitectura. Entonces, no importa qué tan

diferentes fueron las pinturas de los futuristas, el orfismo, el suprematismo, o De Stijl, sus manifiestos

seguían hablando de ellos como pinturas, en lugar de un nuevo medio. En contraste, Nelson y Kay

explícitamente escribían sobre crear nuevos medios y no sólo cambiar los existentes. Nelson dice:

“Con el monitor informatizado y el la memoria masiva, se ha vuelto posible crear un nuevo y leíble

medio”. Kay y Goldberg: “el texto digital no debe ser tratado como un libro de papel simulado debido a

que es un nuevo medio, con nuevas propiedades”.

Otra diferencia entre la forma en que los modernistas y los pioneros del software cultural trataron la

labor de inventar nuevos medios y extender los existentes está capturada en el título del artículo de

Nelson que ya cité previamente: “Una estructura de archivos para lo complejo, lo cambiante y lo

indeterminado”. En lugar de algún “ismo” particular, tenemos una estructura de archivos. El cubismo,

expresionismo, futurismo, orfismo, suprematismo y surealismo propusieron nuevos y diferentes

sistemas para organizar la información, pero cada sistema luchaba contra los demás por la

dominación en la memésfera cultural. Por el contrario, Bush, Licklider, Nelson, Engelbart, Kay,

Negroponte y demás crearon meta-sistemas que pueden soportar muchos tipos de estructuras de

Page 18: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 18 / 33

información. Kay llamó a ese sistema “un primer meta-medio”, Nelson se refirió a él como hipertexto e

hipermedios, Engelbart escribió sobre “manipulación automática de símbolos externos”… pero a

pesar de las diferencias en sus visiones subyacía una comprensión del radicalmente nuevo potencial

de las computadoras en la manipulación de información. Los prefijos “meta” e “hiper” usados por Kay

y Nelson fueron las caracterizaciones adecuadas de un sistema que era nuevo y capaz de remediar a

los demás en su forma particular. Más bien, el nuevo sistema sería capaz de simular estos medios y

sus estrategias de remediación (así como también el desarrollo de medios aún no inventados). Y no

acaba ahí porque igualmente importante fue el rol de la interactividad. Los nuevos sistemas serían

usados interactivamente para desarrollo procesos de pensamiento, descubrimiento, toma de

decisiones y expresión creativa. Por su lado, la estética de los movimiento modernistas podría ser

vista como sistema de “formato de información”, usados para seleccionar y organizar la información

en un modo de presentación fijo que después sería pasado a los usuarios, nada diferente a las

plantillas PowerPoint. Finalmente, la tarea de definir nuevas estructuras de información y técnicas de

manipulación de medios (aunque de hecho, podemos incluir todo el nuevo medio) era otorgada al

usuario, en lugar de ser exclusiva de los diseñadores. Más adelante discutiré sobre las consecuencias

de todo esto en el modelamiento de la cultura contemporánea. Una vez que las computadoras y el

código de programación se democratizan, se empiezan a usar creativamente para crear estas

estructuras y técnicas, en lugar de hacer sólo “contenido”.

Hoy, un típico artículo en ciencias computacionales o en ciencias de la información no habla de

inventar un “nuevo medio” como justificación de una investigación. Lo que encontramos son más bien

referencias a trabajos previos en alguna rama o sub-rama tales como “descubrimiento de

conocimiento”, “minería de datos”, “web semántico”, etc. También puede hacer referencia a prácticas

e industrias culturales y sociales actuales como “e-learning”, “desarrollo de videojuegos”, “taggeo

colaborativo” o “colaboración masiva distribuida”. En cualquier caso, la justificación de una nueva

investigación está avalada por una referencia a prácticas establecidas o, por lo menos, populares

como paradigmas académicos que han que recibido financiamiento, industrias de gran escala o

rutinas sociales que cuestionan el orden social existente. Esto significa que prácticamente toda la

investigación en ciencias computacionales (tecnologías Web, computación social, hipermedios,

interfaces humano-computadoras, gráficas computacionales, etc.) que trata sobre medios está

orientada al uso típico de los medios.

Dicho en otras palabras, los investigadores en computación o están tratando de hacer más eficiente

el uso de las tecnologías por las industrias mediáticas (videojuegos, motores de búsqueda Web,

producción de cine, etc.) o están inventando nuevas tecnologías que serán usadas en el futuro por

dicha industria. La invención de nuevos medios en sí no es algo a quien se quiere dedicar alguien o

incluso que pueda recibir capital. Desde esta perspectiva, la industria del software en general es más

innovadora que la académica o la científica. Por ejemplo, aplicaciones de medios sociales como

Page 19: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 19 / 33

Wikipedia, Flickr, YouTube, Facebook, delicious, digg, etc. no fueron inventadas en la academia;

tampoco lo fueron Hypercard, Quicktime, HTML, Photoshop, After Effects, Flash o Google Earth. Esto

no ha sido diferente en décadas pasadas. Entonces no para sorprenderse que las carreras de Ted

Nelson y Alan Kay hayan sido hechas en la industria y no en la academia: Kay trabajó y ha sido

colaborador de Xerox PARC, Apple, Atari, y Hewlett-Packard; Nelson fue consultor de los laboratorios

Bell, Datapoint Corporation, Autodesk; y ambos han estado asociados a Disney.

¿Por qué Nelson y Kay hallaron más apoyo en la industria que en la academia en su búsqueda por

inventar nuevos medios computacionales? ¿Y por qué la industria (a la cuál me refiero simplemente

como cualquier entidad que crea productos que pueden ser vendidos en grandes cantidades o

monetizados de otras formas, sin importar que sea una transnacional o una start-up) está más

interesada en tecnologías, aplicaciones y contenidos innovadores de los medios más que las ciencias

computacionales? La respuesta necesitaría su propia investigación. Pero también, ¿qué tipo de

innovación puede soportar una institución moderna a lo largo del tiempo? Aquí podemos dar una

respuesta breve. Los negocios modernos tratan de crear nuevos mercados, nuevos productos y

nuevas categorías de productos. Aunque esto viene siempre con un alto riesgo, las ganancias son

rentables. Este fue el caso cuando Nelson y Kay fueron respaldados por Xerox, Atari, Apple, Bell,

Diseny, etc. En los años 2000, después de la globalización de los 90’s, todas las áreas de negocios

han acogido la innovación de forma sin precedentes. Este ritmo se acentuó alrededor del 2005

cuando las compañías competían por hacer nuevo mercado en China, India y otras economías

“anteriormente” emergentes. Al mismo tiempo, vimos un incremento de productos novedosos: API’s

abiertos de los grandes sitios Web 2.0, anuncios cotidianos de nuevos servicios Web, aplicaciones de

geolocalización, productos para consumidores como el iPhone y Microsoft Surface, nuevos

paradigmas de imágenes como el HDR y la edición no destructiva, los inicios de una “larga cola” de

hardware, y demás.

Como podemos ver a partir de los ejemplos que hemos analizado, el objetivo de los inventores de

medios computacionales no era simplemente crear simulaciones de medios físicos. Se trataba de

crear “un nuevo medio con nuevas propiedades” que permitiera a la gente comunicarse, aprender y

crear de formas nuevas. La apariencias de estos nuevos medios puede parecer similar a los viejos,

pero no debemos dejarnos engañar. La novedad no está en el contenido o en la apariencia sino en las

herramientas de software usadas para crear, editar, ver y compartir dicho contenido. Por eso, en lugar

de observar el “resultado” de las prácticas culturales basadas en software, debemos considerar el

software mismo, es él quien permite a la gente trabajar con medios de maneras previamente

desconocidas. Una vez más: la apariencia de los medios digitales puede ser que sí remedie y

represente formas anteriores, pero el software y ambiente en el que “vive” es muy diferente.

Page 20: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 20 / 33

Déjenme añadir un par de ejemplos más. Primero, Sketchpad que influyó profundamente todos los

trabajos subsecuentes en medios computacionales (incluyendo a Kay) no sólo porque fue el primer

sistema interactivo de producción de medios sino también porque dejó claro que las simulaciones

digitales de medios físicos pueden añadir muchas propiedades nuevas a los medios que son

simulados. En 1962, Ivan Sutherland creó Sketchpad como parte de su tesis de doctorado en el MIT y

fue el primer software que permitía a sus usuarios crear y modificar interactivamente dibujos a base

de líneas. Como ya lo ha dicho Noah Wardrip-Fruin, “nos llevó fuera del papel mediante la posibilidad

de dibujar en cualquiera de los 2000 niveles de acercamiento; esto permitió crear proyectos que los

serían muy grandes o muy detallados para los medios físicos” 35. Sketchpad concibió los elementos

gráficos como objetos “que pudieran ser manipulados, constreñidos, instanciados, representados,

copiados, combinados y en los que podemos aplicar y reaplicar estas operaciones” 36. Por ejemplo, si

un diseñador definía nuevos elementos gráficos como instancias de un elemento maestro, éste

cambiaba automáticamente si hacía cualquier cambio a dichas instancias.

Otra nueva propiedad que demostraba la manera en que el diseño y boceto a computadora era

radicalmente nueva era el uso de los constreñimientos o imposiciones en Sketchpad. En palabras de

Sutherland: “la propiedad principal que distingue a Sketchpad del papel y lápiz es la habilidad que

ofrece al usuario para especificar condiciones matemáticas en partes ya trazadas de su dibujo de tal

forma que la computadora pueda aplicar dichos parámetros y que el usuario obtenga la forma

deseada” 37. Por ejemplo, si un usuario dibuja algunas líneas y luego les asigna un cierto parámetro,

Sketchpad podría mover dichas líneas para que sean exactamente paralelas unas con otras. Si el

usuario selecciona una línea y asigna otro comando, Sketchpad podría mover la línea para que sea

perpendicular a las otras líneas antes trazadas.

No es nuestro objetivo hacer una lista exhaustiva de las nuevas propiedades que Sutherland introdujo

con Sketchpad, pero debe quedar claro que el primer editor interactivo de gráficos no sólo simulaba

medios existentes. El artículo que Sutherland publicó en 1963 resaltaba las nuevas capacidades

gráficas de su sistema, maravillándose de cómo abre nuevos campos en “manipulación gráfica que

nunca habían estado disponibles” 38. Tan solo el título de su tesis doctoral anticipa su novedad:

Sketchpad: un sistema humano-máquina de comunicación gráfica. Es curioso observar que la

35 Noah Wardrip-Fruin, introducción a “Sketchpad. A Man-Machine Graphical Communication System,” in New

Media Reader, 109. 36 Ibid. 37 Ivan Sutherland, “Sketchpad. A Man-Machine Graphical Communication System,” Proceedings of the AFIPS

Spring Joint Computer Conference, Detroit, Michigan, Mayo 21-23, 1963, pp. 329-346; in New Media Reader,

eds. Noah Wardrip-Fruin and Nick Montfort. 38 Ibid., 123.

Page 21: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 21 / 33

dimensión comunicativa también es resaltada por Kay y Goldberg, a la que se refieren como una

“conversación en dos sentidos” y que hace del meta-medio algo “activo” 39. Pero también Licklider

habló de simbiosis humano-máquina y Sketchpad sería un buen ejemplo aplicado al diseño y

producción de imágenes40.

Mi último ejemplo es el software de pintura. Quizá a primera vista pueda sonar contradictorio. ¿Se

puede decir que las aplicaciones que simulan a detalle el rango de efectos que es posible lograr con

brochas, pinceles, cuchillos, telas y papeles buscan recrear la experiencia de trabajar con algún medio

existente en lugar de crear uno nuevo? Error. En 1997, Alvy Ray Smith, un artista y pionero de las

gráficas computacionales escribió su memo Digital Paint Systems: Historical Overview41. En este texto

hace una importante distinción entre programas de pintura digital y sistemas de pintura digital. En su

definición, “un programa de pintura digital no hace más que implementar una simulación digital de la

pintura clásica en tela y pincel. Un sistema de pintura digital llevará más lejos la idea, usando la

“simulación de la pintura” como metáfora para seducir al artista en el nuevo, y quizá hostil, mundo

digital”. Según la historia de Smith, la mayoría de las aplicaciones comerciales, incluyendo Photoshop,

están ubicada en la categoría de sistema de pintura. Su genealogía de sistemas de pintura inicia con

SuperPaint de Richard Shoup, desarrollado en Xerox PARC entre 1972 y 197342, que permitía pintar

con diferentes pinceles y con diferentes colores. SuperPaint incluía algunas técnicas que no son

posibles en la pintura tradicional, como Shoup lo dice: “las zonas o los objetos pueden ser

redimensionados, desplazados, copiados, sobrepuestos, combinados, modificados de color o

guardados en nuestro disco para un uso futuro o para su destrucción” 43.

Pero quizá más importante era la habilidad de soportar fotogramas de video. Cuando se cargaba en el

sistema, cada fotograma podía ser usado como cualquier otra imagen. El sistema también podía

regresar el resultado como señal de video. Shoup tenía claro que su sistema iba más allá que una

simple forma de dibujar o pintar con la computadora. En un artículo de 1979 califica a SuperPaint de

39 Kay y Goldberg, “Personal Dynamic Media,” 394. 40 J.C. Licklider, “Man-Machine Symbiosis,” IRE Transactions on Human Factors in Electronics, volume HFE-1,

March 1960, pp. 4-11, in New Media Reader, eds. Noah Wardrip-Fruin and Nick Montfort. 41 Alvy Ray Smith, Digital Paint Systems: Historical Overview (Microsoft Technical Memo 14, Mayo 30, 1997).

http://alvyray.com/. 42 Richard Shoup, “SuperPaint: An Early Frame Buffer Graphics Systems,” IEEE Annals of the History of

Computing 23, número 2 (Abril-junio 2001), p. 32-37,

http://www.rgshoup.com/prof/SuperPaint/Annals_final.pdf; Richard Shoup, “SuperPaint…The Digital Animator,”

Datamation (1979), http://www.rgshoup.com/prof/SuperPaint/Datamation.pdf. 43 Shoup, “SuperPaint…The Digital Animator,” 152.

Page 22: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 22 / 33

un nuevo medio “videográfico” 44. En otro artículo publicado un año más tarde afina su aseveración:

“desde una perspectiva más amplia, nos dimos cuenta que el desarrollo de SuperPaint señaló el

comienzo de la sinergia de dos de las más poderosas tecnologías jamás inventadas: la computación

digital y el video o la televisión” 45.

Estamos antes una idea sorprendente. Cuando Shoup escribía esto en 1980, eran contadas con la

mano las veces que las gráficas computacionales se veían en la TV. Aunque es cierto que se volvieron

más visibles en la década siguiente, fue sólo hasta mediados de los 90’s que la sinergia que predijo

Shoup se volvió visible. Ya veremos en el capítulo dedicado a After Effects más tarde que el resultado

fue una dramática reconfiguración no sólo del lenguaje visual de la televisión sino de todas les

técnicas inventadas por los humanos hasta ese punto. En otras palabras, lo que empezó como un

nuevo medio “videográfico” en 1973 eventualmente cambió todos los medios visuales.

Incluso si olvidamos las posibilidades revolucionarias de SuperPaint, seguimos ante un nuevo medio

creativo (en palabras de Smith). Tal como lo dijo Smith, el medio es el buffer de fotogramas

digitales46, una especie de memoria digital diseñada para almacenar imágenes representadas como

una serie de pixeles (hoy conocida como tarjeta de gráficos). Un artista que trabaja con un sistema de

pintura está, de hecho, modificando valores de pixeles en un buffer de fotogramas (sin importar la

operación o herramienta en cuestión). Esto es una salida a nuevas operaciones de creación y

modificación de imágenes, que siguen una lógica diferente a la pintura física. Los ejemplos más

claros se pueden ver en un sistema de pintura llamado sencillamente Pant, desarrollado por Smith

entre 1975 y 1976. En las palabras de Smith, “en lugar de simular el trazo de una línea de color,

amplié la noción para abarcar: realiza cualquier manipulación de imagen que quieras con los pixeles

del pincel” 47. Con esta generalización conceptual, Smith incluyó varios efectos que todavía usan la

herramienta “pincel” pero que ya se refieren a la pintura del mundo físico. Por ejemplo, en Paint

“cualquier imagen de cualquier forma puede ser usada como pincel”. Otro ejemplo: Smith introdujo

“no pintar” que invertía el color de cada pixel en su complemento cromático. También definió la

“pintura de marcas” (smear paint) que promediaba los colores de los pixeles a proximidad y lo

mostraba en un solo pixel. Así vemos que las implementaciones en donde el pincel se comportaba

más como un pincel físico eran sólo casos particulares de un universo más grande de nuevos

comportamientos posibles en un nuevo medio.

44 Ibid., 156. 45 Shoup, “SuperPaint: An Early Frame Buffer Graphics System,” 32. 46 Alvy Ray Smith, “Digital Paint Systems: An Anecdotal and Historical Overview,” IEEE Annals of the History of

Computing. 2011, http://accad.osu.edu/~waynec/history/PDFs/paint.pdf. 47 Ibid., 18.

Page 23: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 23 / 33

La extensibi l idad permanente

Como hemos visto, Sutherland, Nelson, Engelbart, Kay y demás pioneros de los medios

computacionales han agregado varias propiedades que previamente no existían en los medios que

simulaban. Las generaciones subsecuentes de académicos, hackers y diseñadores han añadido aún

más y el proceso está lejos de haber acabado. De hecho, no hay razón lógica o material para pensar

que se terminará. La “naturaleza” de los medios computacionales es interminable y nuevas técnicas

se inventan continuamente.

Para agregar nuevas propiedades a los medios físicos es necesarios modificar su substancia física.

Pero como los medios computacionales existen como software, podemos agregar nuevas propiedades

o inventar nuevos tipos de medios cambiando o escribiendo nuevo software. O añadiendo plug-ins y

extensiones como ha sido el caso en Photoshop y Firefox. O agrupando software, por ejemplo, en

2006 los usuarios extienden las capacidades de medios de mapas, creando mash-ups que combinan

servicios con datos de Google Maps, Flickr, Amazon con medios generados por los usuarios.

O sea que los “nuevos medios” son “nuevos” porque sus nuevas propiedades (es decir, nuevas

técnicas del software) se les pueden añadir fácilmente. Dicho de otra manera, en la era industrial,

con tecnologías de medios producidas masivamente, el “hardware” y el “software” era una misma

cosa. Por ejemplo, las páginas de un libro estaban atadas de manera que fijaban el orden y

secuencia. El lector no podía cambiar este orden ni alterar el nivel de detalle tal como lo hizo

Engerlbart con su “control de vistas”. De forma similar, un proyector de películas combinaba

“hardware” con lo que hoy llamamos software de “lector de medios” en una misma máquina. Los

controles de una cámara producida másivamente en el siglo XX no podían ser modificados por el

usuario a su voluntad. Aunque todavía hoy el usuario de una cámara digital no puede modificar

fácilmente el hardware, a partir del momento en que transfiere sus imágenes a la computadora tiene

acceso a un número ilimitado de controles y opciones para modificar sus imágenes.

En los siglos XIX y XX había dos tipos de situaciones en que un medio industrial fijo era más fluido. La

primera situación era cuando el nuevo medio estaba siendo desarrollado, por ejemplo, la invención de

la fotografía entre 1820 y 1840. El segundo tipo de situaciones es cuando los artistas experimentan y

“abren” un medio industrializado, por ejemplo los experimentos en cine y video de los años 60’s, a los

que se llamó “cine expandido”.

Lo que fueron dos momentos distintos de experimentaciones con medios durante la era industrial se

volvió la regla en la sociedad del software. Podemos decir que la computadora legitima la

experimentación con los medios. ¿Por qué sucede esto? Lo que hace diferente a un moderna

computadora digital de otras máquinas (incluyendo máquinas de medios industriales para capturar y

Page 24: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 24 / 33

reproducir medios) es la separación de hardware y software. Es porque un sin fin de programas que

realizan cosas diferentes pueden escribirse para correr en un solo tipo de máquina (la computadora

digital) que ésta máquina es tan usada hoy en día. Y así, la invención constante de nuevos medios o

sus modificaciones es un ejemplo de esta principio general. En otras palabras, la experimentación es

una características estándar de los medios computacionales. En su mera estructura son

“vanguardistas” porque siempre está en extensión y redefinición.

Si en la cultura moderna lo “experimental” y lo “vanguardista” se oponían a lo normal y a lo estable,

esta oposición se borra en la cultural del software. Y el rol del vanguardismo de medios ya no está

representado por artistas individuales en sus estudios sino por una gran variedad de actores, de muy

grandes a muy pequeños, de Microsoft, Adobe, Apple a programadores independientes, hackers y

diseñadores.

Pero este proceso de invención continua de nuevos algoritmos no se mueve en cualquier sentido. Si

observamos el software de medios contemporáneos, veremos que la mayoría de los principios

fundamentales habían sido desarrollados por la generación de Sutherland y Kay. De hecho, el primer

editor de gráficos interactivo, Sketchpad, ya tenia los genes, por así decirlo, de las aplicaciones de

gráficas contemporáneas. Mientras más nuevas técnicas siguen siendo inventadas, éstas se ponen

encima de los fundamentos que fueron gradualmente implementados por Sutherland, Engelbart, Kay

y demás en los 60’s y 70’s.

No estamos hablando únicamente de la historia de las ideas. Varios factores sociales y económicos

también imponen posibles direcciones en la evolución del software, por ejemplo el dominio de un

mercado de software o la adopción masiva de algún formato de archivo. Puesto de otra manera, el

desarrollo de software actualmente es una industria y como tal está equilibra constantemente entre

estabilidad e innovación, estandarización y exploración de nuevas posibilidades. Pero al mismo

tiempo no es cualquier tipo de industria. Nuevos programas pueden escribirse y programas existentes

pueden extenderse y modificarse por cualquiera que tenga conocimientos de programación, acceso a

una computadora, a un lenguaje de desarrollo y a un compilador (y si el código fuente está

disponible). O sea que el software de hoy es fundamentalmente “posible de hacer” en el sentido en

que los objetos producidos industrialmente no lo son.

A pesar de que Turing y Von Neumann ya había formulado en teoría esta extensibilidad del software

(cientos de miles de personas involucradas diariamente en la expansión de posibilidades de medios

computacionales), se trata del resultado de un largo desarrollo histórico. Este desarrollo nos llevó de

las computadoras del tamaño de un salón, que no eran fáciles de reprogramar, a las computadoras

baratas y programables de unas décadas posteriores. Esta democratización del desarrollo de software

era el núcleo de la visión de Kay, quien se preocupaba en cómo estructurar herramientas que fueran

Page 25: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 25 / 33

posibles de programar por usuarios comunes: “debemos proveer suficientes herramientas generales

predefinidas para que los usuarios no tengan que empezar desde cero para hacer las cosas que

quieren hacer” (Kay y Goldberg, 1977).

Si comparamos el proceso de innovación continua de los medios con software con la historia de los

medios pre-computacionales veremos que se revela una mecánica. Según una idea general, cuando

un nuevo medio es inventado, éste imita a los medios existentes antes de descubrir su propia estética

y lenguaje. Por ejemplo, las primeras biblias impresas imitaban claramente el diseño de manuscritos;

las películas producidas entre 1890 y 1900 mimetizaban el formato teatral mediante la aparición de

los actores detrás del escenario y su postura frente a la audiencia. Lenta y gradualmente, los libros

impresos desarrollaron una nueva forma para presentar la información, de la misma manera que el

cina desarrolló sus conceptos de narrativa espacial que con cambios continuos de puntos de vista

hace que los usuarios entren al espacio, encontrándose literalmente dentro de la historia.

¿Podemos decir que esta mecánica aplica también a los medios computacionales? Tal como lo

teorizaron Turing y Von Neumann, la computadora es una máquina de simulación multiusos. Esto es

lo que la hace única y diferente de los demás máquinas y medios. Esto significa que la idea de que un

nuevo medio encuentra gradualmente su lenguaje no aplica para los medios computacionales. Si

fuera cierto iría en contra de la definición misma de computadora digital moderna. Este argumento

teórico está soportado por la práctica. La historia de los medios computacionales no ha tratado hasta

ahora de llegar a un lenguaje estándar (como lo pasó al cine, por ejemplo) sino a extender los usos,

técnicas y posibilidades. En lugar de llegar a un lenguaje particular nos percatamos que la

computadora puede hablar cada vez más lenguajes.

Pero podemos encontrar un argumento más si nos detenemos un poco en la historia de los medios

computacionales. La tarea sistemática de convertir a la computadora en un medio que simula y

extiende a los demás llegó después que ya tenían diversos usos (realizar diferentes tipos de cálculos,

solucionar problemas matemáticos, controlar otras máquinas en tiempo real, recrear simulaciones

matemáticas, recrear algunos comportamientos humanos, etc.). Así, cuando la generación de

Sutherland, Nelson y Kay empezó a crear “nuevos medios” lo hicieron sobre aquello que las

computadoras saben hacer mejor. Entonces se empezaron a añadir nuevas propiedades a los medios

físicos. Si retomamos el ejemplo de Sketchpad, Sutherland sabía que las computadoras podían

resolver problemas matemáticos y así introdujo una nueva función que no existía antes: control de

parámetros de imágenes. Parafraseando estas ideas podemos decir que en lugar de movernos de la

imitación de un media viejo para encontrar su propio lenguaje, los medios computacionales hablaban

su propio lenguaje desde su concepción.

Page 26: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 26 / 33

Los pioneros de la medios computacionales no tenían la intención de hacer de la computadora una

“máquina de remediación” que simplemente representara medios viejos. Se trató más bien de poner

en avante las posibilidades de las computadoras digitales para crear radicalmente nuevos tipos de

medios para la expresión y la comunicación. Para estos nuevos medios, su materia prima sieguen

siendo los medios precedentes (que han servido a la humanidad por cientos de años: escritura,

dibujo, sonidos, pinturas, etc.) pero esto no compromete su novedad. Los medios computacionales se

sirven de ellos como unidades básicas para crear formas, estructuras, herramientas, opciones de

comunicación que no existían antes.

Sería incorrecto decir que el trabajo de Sutherland, Engelbart, Nelson y Kay había tomado un solo

rumbo al desarrollar sus medios computacionales sobre la base de teorías computacionales,

lenguajes de programación e ingeniería de software. Es decir, de principios existentes y generales a

técnicas particulares. Estos inventores pusieron en tela de juicio muchas de ideas de la computación.

Definieron muchos nuevos conceptos y técnicas fundamentales sobre hardware y software, haciendo

contribuciones a la ingeniería de software. Un ejemplo es el desarrollo de Smalltalk por Alan Kay que

estableció sistemáticamente, por primera vez, el paradigma de la programación orientada objetos. La

lógica de Kay era crear una apariencia unificada a todas las aplicaciones e interfaces de usuario de

PARC pero sobretodo también permitir a los usuarios programar rápidamente sus propias

herramientas de medios. Según Kay un programa de ilustración hecho con Smalltalk por una

talentosa niña de 12 años cabía en una página de código48. Con el tiempo, la programación orientada

objetos se ha vuelto muy popular y muchos lenguajes siguen su paradigma, como C.

Este vistazo a los medios computacionales y a las ideas de sus inventores nos deja claro que se trata

de algo opuesto al determinismo tecnológico. Cuando Sutherland diseñó Sketchpad, Nelson inventó el

hipertexto, Kay programó un programa de dibujo, cada nueva característica de los medios

computacionales debió ser imaginada, implementada, probada y corregida. O sea que estas nuevas

propiedades no fueron el resultado inevitable de la convergencia entre computadoras digitales y

medios modernos. Más bien los medios computacionales tuvieron que ser inventados paso a paso. Y

fueron inventados que se inspiraron del arte moderno, la literatura, la psicología educativa y cognitiva,

la teoría de medios y la tecnología. Kay recuerda que la lectura del libro Understanding Media, de

McLuhan, lo hizo darse cuenta que la computadora podía ser un medio y no solo una herramienta49.

La primera parte del artículo de Kay y Goldberg se llama “Humanos y medios” y se lee como teoría de

medios. Pero ésta no es una típica teoría que describe los medios sino un análisis para crear un plan

48 Alan Kay, Doing with Images Makes Symbols (University Video Communications, 1987), conferencia grabada

en video, http://archive.org/details/AlanKeyD1987/. 49 Alan Kay, “User Interface: A Personal View,” 192-193.

Page 27: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 27 / 33

de acción para crear un nuevo mundo, tal como lo hizo Marx con su análisis del capitalismo, pero esta

vez permitiendo a las personas crear sus propios nuevos medios.

Quizá el ejemplo más importante de este desarrollo no determinista es la invención de la interfaz

gráfica humano-computadora moderna. Ninguno de los conceptos clave de la computación moderna

establecidos por Von Neumann hablaba de una interfaz interactiva. A finales de los 40s y 50s el

Laboratorio Lincoln del MIT desarrollo interfaces gráficas usadas en SAGE (los centros de control

creados en EUA para recolectar información de estaciones de radar y coordinar contraataques). Pero

la interfaz de SAGE fue diseñada para tareas muy específicas y no tuvo efecto en el desarrollo de la

computacional comercial. Sin embargo, sí orientó hacia una nueva computadora interactiva pequeña,

la TX-2, usada por estudiantes del MIT para explorar lo que podías hacerse con una “computadora

interactiva” (es decir, computadoras con una pantalla visual). Algunos alumnos empezaron a crear

juegos, entre ellos Spacewars (1960). Sutherland fue uno de esos estudiantes que exploró las

posibilidades de la computación visual interactiva usando TX-2. Todo esto lo llevó a crear Sketchpad

(su tesis de doctorado) que influenció a Kay y demás pionera de la computación cultural de los 60s. El

camino teórico que condujo de SAGE a la GUI moderna en PARC fue muy largo.

Según Kay, el paso clave para él y su grupo fue pensar en la computadora como un medio para

aprender, experimentar y de expresión artística que fuera usada no sólo por adultos sino también por

“niños de todas las edades” 50. Un gran influencia en Kay fueron las teorías del psicólogo Jerome

Bruner que estaban basadas en las ideas de Jean Piaget. Se había identificado que los niños pasan

por distintas etapas en su desarrollo: kinésica, visual y simbólica. Piaget pensaba que cada etapa

existía sólo en un periodo particular mientras que Bruner creía que hay mentalidades separadas que

corresponden a cada etapa y que siguen existiendo a medida que crece el niño. También sugería que

las mentalidades no se reemplazan sino que se añaden. Bruner dio nuevos nombres a estas

mentalidades: activa, icónica y simbólica. Cada mentalidad se desarrolla en diferentes etapas de la

evolución humana y siguen existiendo en la edad adulta.

La interpretación de Kay a estas teorías fue que la interfaz de usuario debía hacer referencia a estas

tres mentalidades. Al contrario de una interfaz basada en líneas de comando, que no es accesible a

niños y fuerza al adulto a usar su mentalidad simbólica, la nueva interfaz debía usar también las

mentalidades emotivas e icónicas. Kay también tomó en cuenta numerosos estudios de creatividad

en matemáticas, ciencia, música, arte, y demás áreas, en donde se veía que el trabajo inicia con

mentalidades icónicas y activas51. Esto inspiró en gran medida la idea que si las computadoras iban

50 Alan Kay, “A Personal Computer for Children of All Ages,” Proceedings of the ACM National Conference,

Boston, 1972, http://www.mprove.de/diplom/gui/kay72.html. 51 Alan Kay, “User Interface: A Personal View”, 195.

Page 28: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 28 / 33

funcionar como un medio dinámico para el aprendizaje y la creatividad, deberían permitir a sus

usuarios pensar no sólo mediante símbolos sino también con acciones e imágenes.

El grupo de PARC materializó la teoría de múltiples mentalidades de Bruner en las tecnologías de

interfaz de la siguiente manera. El mouse acciona la mentalidad activa (identifica en dónde estás,

manipula). Íconos y ventanas accionan la mentalidad icónica (reorganiza, compara, configura).

Finalmente, el lenguaje de programación Smalltalk permite a los usuario accionar su mentalidad

simbólica (combina largas cadenas de razonamiento, haz abstracción) 52.

Actualmente, la GUI contemporáneas relacionan constantemente diferentes mentalidades. Usas un

mouse para moverte por la pantalla, como si fuera un espacio físico, y para apuntar hacia objetos.

Todos los objetos están representados por íconos visuales. Haces doble clic en un ícono para activarlo

o, si es un fólder, para examinar su contenido. Esto se puede ver como el equivalente a tomar y

examinar objetos del mundo físico. Cuando una ventana se abre es posible alternar entre diferentes

vistas, ver los datos como íconos o listas que pueden ser ordenada de acuerdo al nombre, fecha de

creación y demás información simbólica (es decir, texto). Si no encuentras los archivos que estás

buscando puedes hacer una búsqueda en todo el disco duro de la computadora, seleccionando

palabras clave. Como lo demuestran estos ejemplos, el usuario está cambiando contantemente entre

mentalidades, usando cada vez las más adecuado según sus necesidades.

Además de los principios generales de la interfaz, otras técnicas desarrolladas por Kay también se

pueden entender como un uso de las diferentes mentalidades. Por ejemplo, la interfaz de usuario de

PARC fue la primera que corrió en una pantalla basada en bit mapeados lo que daba a los usuarios la

posibilidad de mover el cursor y abrir varias ventanas, pero también de escribir programas de en

Smalltalk y poder ver el resultado visual inmediatamente. Cualquier modificación en el código

mostraba su resultado en la imagen producida por el programa. Hoy esta posibilidad es fundamental

en el uso de las computadoras, de las ciencias hasta la visualización de datos interactiva. Otro

ejemplo que no podemos dejar de lado son todos los editores de medios creados en PARC: programas

de dibujo, ilustración, música, etc. Estos programas hacían que el usuario cambiara de mentalidad de

una manera que no era posible de lograrse con los medios físicos. Imagina los objetos en un

programa de animación, que pueden ser dibujados a mano o escribiendo código Smalltalk. Como lo

señalan Kay y Goldberg, “el control de una animación se puede lograr fácilmente con una simulación

Smalltalk. Por ejemplo, una animación de objetos que saltan es más fácil de hacer con unas cuantas

líneas de código que expresan la clase de objetos saltantes en términos físicos” 53.

52 Ibid., 197. 53 Kay and Goldberg, “Personal Dynamic Media,” 399.

Page 29: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 29 / 33

Al definir el nuevo tipo de interfaz de usuario, Kay y sus colaboradores crearon un nuevo tipo de

medio. Si aceptamos la teoría de las múltiples mentalidades de Bruner y su interpretación por Kay,

podemos concluir que el nuevo medio que inventaron puede hacer cosas que los medios precedentes

no. Esto puede ayudar a explicar el éxito y popularidad de la GUI que, 40 años más tarde, sigue

dominando la interacción con la computadoras. La gente la prefiere no porque sea “fácil” o “intuitiva”,

sino porque les ayuda a pensar, descubrir y crear nuevos conceptos mediante el uso de múltiples

mentalidades juntas. En pocas palabras, mientras que muchos expertos en interacción humano-

computadora siguen pensando que la interfaz ideal debe ser “invisible” y dejar a los usuario hacer su

trabajo, si volteamos hacia las teorías de Kay y Goldebegr tenemos una manera muy diferente de

comprender la identidad de la interfaz. Kay y PARC pensaban en la interfaz como un medio diseñado

en cada detalle ara facilitar el aprendizaje, descubrimiento y creatividad.

Con el énfasis que la sociedad de la información otorga a la innovación permanente, a la educación

continua y a la creatividad, es apropiado señalar que a medida que se construía, un nuevo medio

estaba siendo inventado para facilitar sus necesidades. En 1973, Daniel Bell publicó su influyente

The Coming of Post-Industrial Society, al mismo tiempo que Kay, Goldberg, Chuck Thacker, Dan

Ingalls, Larry Tesler y otros miembros del The Learning Research Group crearon el paradigma de la

computación moderna. O más bien reinventaron la computadora, la transformaron de una veloz

calculadora a un sistema interactivo para el razonamiento y la experimentación. En breve, de una

herramienta a un metamedio.

Desafortunadamente cuando la GUI se volvió un éxito comercial con la Macintosh en 1984, sus

origines intelectuales fueron olvidados. La razón de ser de la GUI se redujo a un argumento simplista:

como se trata de algo nuevo para el usuario, debe ser “intuitiva”, debe recrear cosas familiares del

mundo físico. Es sorprendente que esta idea siga todavía vigente en nuestros días, aún con las

generaciones de “nativos digitales”. Por ejemplo, las recomendaciones de Apple para desarrollar

interfaces humanas para iPhone (marzo, 2010) dice: “cada que sea posible, modela los objetos y

acciones de tu aplicación con base en objetos y modelos del mundo real. Esta técnica permite a los

usuarios principiantes entender rápidamente cómo funciona tu aplicación. Los folders son una

metáfora clásica de software. Como la gente archiva sus documentos en carpetas en el mundo real,

inmediatamente entienden la idea de poner datos en una carpeta de la computadora” 54. Lo irónico es

que estas recomendaciones también aplican para desarrolladores de iPad, un producto que

representa un paso más hacia la migración de un mundo físico a un mundo totalmente digital. Los

54

http://developer.apple.com/iphone/library/documentation/UserExperience/Conceptual/MobileHIG/PrinciplesAn

dCharacteristics/PrinciplesAndCharacteristics.html#//apple_ref/doc/uid/TP40006556-CH7-SW1, Abril 5, 2010.

Page 30: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 30 / 33

medios viejos son recordados y valorados constantemente, pero también se nos pide que los

olvidemos.

La computadora como meta-medio

Como lo hemos dicho, el desarrollo de los medios computacionales sigue una historia opuesta a los

medios precedentes. Pero en cierto sentido, la idea de que un nuevo medio gradualmente descubre

su lenguaje sí aplica a los medios computacionales después de todo. Así como sucedió con los libros

impresos y el cine, este proceso tomó unas cuantas décadas. Cuando las primeras computadoras

fueron armadas en los años 40s, no se podían usar para fines culturales, de expresión y

comunicación. Lentamente, con el trabajó de Sutherland, Engelbart, Nelson, Papert y otros en los 60s,

se desarrollaron las ideas y técnicas que hicieron de la computadora una “máquina cultural”. Uno

podía crear y editar texto, hacer dibujos, moverse alrededor de un objeto virtual, etc. Y finalmente,

cuando Kay y sus colegas en PARC sistematizaron y refinaron estas técnicas para ponerlas bajo el

techo de la GUI, haciéndolas accesibles a multitudes de usuarios, fue cuando la computadora digital

obtuvo su propio lenguaje (en términos culturales). Fue hasta que la computadora se volvió un medio

cultural y no sólo una máquina versátil.

La computadora se convirtió en algo que ninguno otro medio había sido antes. Esto que surgió no era

otro medio sino, como insisten Kay y Goldeberg en su artículo, algo cualitativamente diferente e

históricamente sin precedentes. Para marcar esta diferencia, introdujeron el término “meta-medio”.

Este meta-medio es sui generis de varias formas. Una de ellas ya ha sido discutida aquí ampliamente

(la capacidad de representar a los demás medios y de añadirles nuevas propiedades). Kay y Goldberg

también hablan de otras formas cruciales. El nuevo meta-medio es “activo (puede responder a

búsquedas y experimentos) de tal medida que los mensajes pueden involucrar al aprendiz en una

conversación de ida y vuelta”. Para Kay, quien estaba profundamente interesado en la educación y en

los niños, esta forma era particularmente importante porque “nunca se había logrado antes, excepto

en el caso de profesores individualizados” 55 . Además, el nuevo meta-medio puede soportar

“virtualmente todas las necesidades de información de su usuario”. Puede servir de “herramienta de

programación y resolución de problemas” y de “memoria interactiva para el almacenamiento y

manipulación de datos” 56. Pero quizá la forma más importante desde el punto de vista de la historia

de los medios es que el meta-medio de la computadora es simultáneamente un conjunto de

diferentes medios y un sistema para generar nuevas herramientas de medios y nuevos tipos de

55 Kay & Goldberg, “Personal Dynamic Media,” 394. 56 Ibid., 393.

Page 31: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 31 / 33

medios. En otras palabras, una computadora puede ser usada para crear nuevas herramientas de

trabajo con diferentes tipos de medios existentes y crear otras que aún no han sido inventadas.

En la introducción de su libro Expressive processing, Noah Wardrip-Fruis articula perfectamente esta

“meta-generatividad” que es específica a las computadoras:

Una computadora puede simular una máquina de escribir (recibiendo información de un

teclado y acomodando pixeles en la pantallas que corresponden a las teclas) pero también

puede ir mucho más lejos: ofrece tipografía, corrector de ortografía automático, reacomodo

de secciones de un documento (mediante simulaciones de “cortar” y “pegar”),

transformaciones programáticas (como “buscar” y “reemplazar”), e incluso autoría

colaborativa entre grandes grupos distribuidos (como Wikipedia). Esto es para lo que fueron

diseñadas las computadoras modernas (o en su nombre más largo “computadoras digitales

electrónicas de programas almacenados”): la creación continua de nuevas máquinas,

abriendo nuevas posibilidades, mediante la definición de nuevos procesos

computacionales57.

Haciendo analogía con la alfabetización impresa, Kay modula esta propiedad de la siguiente forma:

“la habilidad de “leer” un medio significa que se puede acceder a materiales y herramientas

generadas por otros. La habilidad de “escribir” en un medio significa que se pueden generar

materiales y herramientas para los demás. Se deben poseer ambas para ser alfabetizado” 58. En

consecuencia, los esfuerzos de Kay en PARC estuvieron dedicados al desarrollo del lenguaje de

programación Smalltalk. Todas las aplicaciones de producción de medios y la misma GUI fueron

escritos en Smalltalk. Esto dio, como consecuencia, consistencia a todas las aplicaciones y facilitó el

aprendizaje de nuevos programas. Incluso más importante, según la visión de Kay, el lenguaje

Smalltalk permitiría a sus usuario principiantes escribir sus propias herramientas y definir sus propios

medios. Todas las aplicaciones de producción de medios, que pudieran ser ofrecidas por la

computadora, serían también ejemplos e inspiración para que los usuarios los modificaran e

escribieran nuevas aplicaciones.

Así, gran parte del artículo de Kay y Goldberg está dedicado a describir el software desarrollo por los

usuarios de su sistema: “un sistema de animación programado por animadores”; “un sistema de

dibujo y pintura programado por niños”; “una simulación de hospital programada por un tomador de

57 Noah Wardrip-Fruin, Expressive Processing: Digital Fictions, Computer Games, and Software Studies (The MIT

Press, 2009). 58 Alan Kay, “User Interface: A Personal View,” in The Art of Human-Computer Interface Design, editado por

Brenda Laurel (Reading, Mass,” Addison-Wesley, 1990), p. 193.

Page 32: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 32 / 33

decisiones”; “un sistema de animación de audio programado por músicos”; “un sistema de partituras

musicales programado por un músico”; “un circuito electrónico diseñado por un estudiante de

secundaria”. Como se puede ver, esta lista corresponde a la serie de ejemplos en el artículo. Kay y

Golderbeg alternan deliberadamente entre tipos de usuarios (profesionales, artistas, estudiantes de

secundaria, niños) con el fin de mostrar que cualquiera puede desarrollar herramientas con el

ambiente de programación Smalltalk.

La serie de ejemplos también intercala astutamente simulaciones de medios con otros tipos de

simulaciones para enfatizar que los medios son sólo un caso particular de la capacidad general de la

computadora para simular todo tipo de proceso y sistema. Esta yuxtaposición de ejemplos ofrece una

manera interesante de pensar los medios computacionales. Así como un científico una simulaciones

para probar condiciones diferentes y escenarios posibles, también los diseñadores, escritores,

músicos, cineastas, arquitectos pueden “probar” diferentes horizontes creativos en donde se pueden

ver cómo diferentes parámetros pueden “afectar” al proyecto. Esto último es especialmente fácil

porque hoy muchas de las interfaces de producción de medios no sólo presentan explícitamente

dichos parámetros pero además permiten al usuario modificarlos. Por ejemplo, cuando el panel de

formato de Microsoft Word muestra la tipografía usada en determinado texto seleccionado, ésta se

presentan en una columna al lado de todas las demás tipografías disponibles. Para aplicar diferentes

fuentes sólo basta con seleccionar el nombre del menú desplegable.

El hecho de que los usuarios pudieran escribir sus propios programas era crucial para la visión de

“meta-medio” que Kay estaba inventando en PARC. Según Wardrip-Fruin, la investigación de

Engelbart seguía un objetivo similar: “la visión de Engelbart veía a los usuarios creando, compartiendo

y modificando sus herramientas y las de los demás” 59 . Lamentablemente, cuando se lanzó al

mercado Macintosh en 1984, ésta no incluía un ambiente de programación fácil de usar. HyperCard,

escrito para Macintosh en 1987 por Bill Atkinson (quien era un alumno de PARC), dio a los usuario la

posibilidad de crear rápidamente cierto tipo de aplicaciones, pero no tenía la versatilidad y amplitud

imaginada por Kay. Sólo en fechas recientes, con la alfabetización computacional y el desarrollo de

varios lenguajes de script (Perl, PHP, Python, ActionScript, Vbscript, JavaScript, etc.), más gente se ha

puesto a crear sus propias mediante escribiendo software. Un buen ejemplo de ambiente de

programación contemporáneo que, a mi parecer, está apegado a la visión de Kay es Processing60.

Processing está construido sobre el lenguaje Java y se ha vuelto muy popular entre artistas y

diseñadores por su estilo simple y su extensa cantidad de librerías de medios. Se puede usar para

bocetar rápidamente ideas pero también para desarrollar programas de medios complejos. De hecho,

59 Noah Wardrip-Fruin, introducción a Douglas Engelbart y William English, “A Research Center for Augmenting

Human Intellect” (1968), New Media Reader, 232. 60 www.processing.org.

Page 33: Capítulo 1 - El Software Toma el Mando (Manovich)

Manovich. Capítulo 1 – El Software Toma el Mando 33 / 33

atinadamente, los documentos de Processing se llaman “bocetos” 61. En palabras de sus inventores y

principales desarrolladores, Ben Fry y Casey Reas, el lenguaje de Processing se enfoca “en el proceso

y creación, más que en los resultados” 62 . Mencionemos otro ambiente de programación que

igualmente se vuelto muy popular: MAX/MSP y su sucesor PureData, ambos desarrollados por Miller

Puckette.

Al final del artículo de 1977, que nos ha servido como base de discusión en este capítulo, Kay y

Goldberg resumen sus argumentos en una frase, que para mí es la mejor formulación que existe

sobre lo que son, cultural y artísticamente, los medios computacionales. Ellos llaman a la

computadora un “meta-medio”, cuyo contenido es “una amplia gama de medios existentes y aún no

inventados”. En otro artículo, publicado en 1984, Kay amplía esta definición. Para cerrar este

capítulo, me gustaría citarlo:

“[la computadora] es un medio que puede simular dinámicamente los detalles de cualquier otro

medio, incluyendo medios que no existen físicamente. No es una herramienta, aunque puede actuar

como muchas de ellas. Se trata del primer metamedio y, como tal, tiene niveles de libertad para la

representación y expresión nunca antes vistos y apenas investigados” 63.

61 http://www.processing.org/reference/environment/. 62 http://wiki.processing.org/w/FAQ. 63 Alan Kay, “Computer Software,” Scientific American (September 1984), 52. Citado en Jean-Louis Gassee, “The

Evolution of Thinking Tools,” in The Art of Human-Computer Interface Design, p. 225.