La Historia de la Información

7
¿Cómo sabemos? La información y su historia. Autor: Freeman Dyson | 25 Marzo 2011 Categoría: Social El físico y matemático Freeman Dyson reseña para NYREV The Information: A History, a Theory, a Flood, de James Gleick (Pantheon). El primer capítulo del volumen de James Gleick lleva por título de “Tambores parlantes”. Explica el concepto de información con un ejemplo sencillo. El ejemplo es el lenguaje de los tambores que se utiliza en una parte de la República Democrática del Congo, una zona en la que se habla el Kele. Los exploradores europeos fueron conscientes desde antiguo que los ritmos irregulares de los tambores africanos llevaban mensajes misteriosos a través de la selva. Los exploradores llegaron a pueblos donde ningún europeo había sido arribado antes y se encontraron con que los ancianos del pueblo estaban preparadas para hacerles frente. Lamentablemente, solo un europeo comprendía y grabó el lenguaje de los tambores antes de que empezara a desaparecer. El europeo era John Carrington, un misionero inglés que pasó su vida en África y dominaba con fluidez en ambos idiomas, el Kele y el del tambor. Llegó a África en 1938 y publicó sus hallazgos en 1949 en un libro, The Talking Drums of Africa. Antes de la llegada de los europeos con sus caminos y sus aparatos de radio, los africanos de habla Kele habían utilizado el lenguaje del tambor para una rápida comunicación de aldea a aldea en la selva tropical. Cada aldea tenía un experto en tambor y todos los aldeanos entendían lo que los tambores estaban diciendo. En el momento en que Carrington escribió su libro, el uso del lenguaje del tambor ya se estaba desvaneciendo y los escolares ya no lo aprendían. En los sesenta años que han pasado desde entonces, los teléfonos han hecho que ese lenguaje quedara obsoleto y han completado el proceso de extinción. Carrington entendió de qué modo la estructura de la lengua Kele hacía posible el lenguaje del tambor. El Kele es una lengua tonal con dos tonos marcadamente distintos. Cada sílaba es baja o alta. El lenguaje del tambor es hablado por un par de tambores con los mismos dos tonos. Cada palabra Kele es hablada por los tambores como una secuencia de golpes bajos y altos. Al pasar del lenguaje humano Kele al tambor, toda la información contenida en las vocales y las consonantes se pierde. En una lengua europea, las consonantes y las vocales contienen toda la información, y si quitáramos esta información no quedaría nada. Pero en un lenguaje tonal como el Kele, hay información contenida en los tonos y sobrevive a la transición desde el hablante humano a la percusión. La fracción de información que sobrevive en la palabra del tambor es pequeña, y las palabras pronunciadas por los tambores son correspondientemente ambiguas. Una sola secuencia de tonos puede tener cientos de significados dependiendo de las vocales y consonantes que falten. El lenguaje del tambor debe resolver la ambigüedad de las palabras individuales añadiendo más palabras. Cuando se añade un número suficiente de palabras redundantes, el significado del mensaje se convierte en único. En 1954 un visitante de los Estados Unidos llegó a la escuela de la misión de Carrington. Carrington estaba dando un paseo por el bosque y su esposa quería llamarle para el almuerzo. Le envió un mensaje con el tambor y le explicó que había llegado el visitante. Para que le fuera inteligible, era necesario que el mensaje se expresara con frases redundantes y repitió: “Espíritu del hombre blanco en el bosque, ven, ven a la casa de tejas altas por encima del espíritu del hombre blanco en el bosque. Mujer con ñame espera. Ven, ven”. Carrington escuchó el mensaje y volvió a casa. En promedio, se necesitan alrededor de ocho palabras del lenguaje del tambor para transmitir una palabra del lenguaje humano de forma inequívoca. Página 1 de 7 ¿Cómo sabemos? La información y su historia. 18/05/2011 http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...

description

El físico y matemático Freeman Dyson reseña para NYREV The Information: A History, a Theory, a Flood, de James Gleick (Pantheon).

Transcript of La Historia de la Información

Page 1: La Historia de la Información

¿Cómo sabemos? La información y su historia.

Autor: Freeman Dyson | 25 Marzo 2011

Categoría: Social

El físico y matemático Freeman Dyson reseña para NYREV The Information: A History, a Theory, a Flood, de James

Gleick (Pantheon).

El primer capítulo del volumen de James Gleick lleva por título de “Tambores

parlantes”. Explica el concepto de información con un ejemplo sencillo. El

ejemplo es el lenguaje de los tambores que se utiliza en una parte de la

República Democrática del Congo, una zona en la que se habla el Kele. Los

exploradores europeos fueron conscientes desde antiguo que los ritmos

irregulares de los tambores africanos llevaban mensajes misteriosos a través

de la selva. Los exploradores llegaron a pueblos donde ningún europeo había

sido arribado antes y se encontraron con que los ancianos del pueblo

estaban preparadas para hacerles frente.

Lamentablemente, solo un europeo comprendía y grabó el lenguaje de los

tambores antes de que empezara a desaparecer. El europeo era John Carrington,

un misionero inglés que pasó su vida en África y dominaba con fluidez en ambos

idiomas, el Kele y el del tambor. Llegó a África en 1938 y publicó sus hallazgos en

1949 en un libro, The Talking Drums of Africa. Antes de la llegada de los europeos

con sus caminos y sus aparatos de radio, los africanos de habla Kele habían

utilizado el lenguaje del tambor para una rápida comunicación de aldea a aldea en

la selva tropical. Cada aldea tenía un experto en tambor y todos los aldeanos

entendían lo que los tambores estaban diciendo. En el momento en que Carrington escribió su libro, el uso del lenguaje del

tambor ya se estaba desvaneciendo y los escolares ya no lo aprendían. En los sesenta años que han pasado desde

entonces, los teléfonos han hecho que ese lenguaje quedara obsoleto y han completado el proceso de extinción.

Carrington entendió de qué modo la estructura de la lengua Kele hacía posible el lenguaje del tambor. El Kele es una lengua

tonal con dos tonos marcadamente distintos. Cada sílaba es baja o alta. El lenguaje del tambor es hablado por un par de

tambores con los mismos dos tonos. Cada palabra Kele es hablada por los tambores como una secuencia de golpes bajos y

altos. Al pasar del lenguaje humano Kele al tambor, toda la información contenida en las vocales y las consonantes se pierde.

En una lengua europea, las consonantes y las vocales contienen toda la información, y si quitáramos esta información no

quedaría nada. Pero en un lenguaje tonal como el Kele, hay información contenida en los tonos y sobrevive a la transición

desde el hablante humano a la percusión. La fracción de información que sobrevive en la palabra del tambor es pequeña, y

las palabras pronunciadas por los tambores son correspondientemente ambiguas. Una sola secuencia de tonos puede tener

cientos de significados dependiendo de las vocales y consonantes que falten. El lenguaje del tambor debe resolver la

ambigüedad de las palabras individuales añadiendo más palabras. Cuando se añade un número suficiente de palabras

redundantes, el significado del mensaje se convierte en único.

En 1954 un visitante de los Estados Unidos llegó a la escuela de la misión de Carrington. Carrington estaba dando un paseo

por el bosque y su esposa quería llamarle para el almuerzo. Le envió un mensaje con el tambor y le explicó que había

llegado el visitante. Para que le fuera inteligible, era necesario que el mensaje se expresara con frases redundantes y repitió:

“Espíritu del hombre blanco en el bosque, ven, ven a la casa de tejas altas por encima del espíritu del hombre blanco en el

bosque. Mujer con ñame espera. Ven, ven”. Carrington escuchó el mensaje y volvió a casa. En promedio, se necesitan

alrededor de ocho palabras del lenguaje del tambor para transmitir una palabra del lenguaje humano de forma inequívoca.

Página 1 de 7¿Cómo sabemos? La información y su historia.

18/05/2011http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...

Page 2: La Historia de la Información

Los matemáticos occidentales dicen que alrededor de una octava parte de la información en el lenguaje humano Kele

pertenece a los tonos que se transmiten por el lenguaje del tambor. La redundancia de las frases del lenguaje del tambor

compensa la pérdida de la información en las vocales y consonantes. Los tambores africanos no sabían nada de matemáticas

occidentales, pero hallaron el nivel adecuado de redundancia para su lenguaje del tambor procediendo por ensayo y error. La

esposa de Carrington había aprendido el lenguaje de los tambores y sabía cómo usarlo.

La historia de la lengua del tambor muestra el dogma central de la teoría de la información. El dogma central dice: “El sentido

es irrelevante”. La información es independiente del significado que expresa, y del lenguaje utilizado para expresarlo. La

información es un concepto abstracto, que puede ser incorporada igual de bien en el habla humana, por escrito o mediante

tambores. Todo lo que se necesita para transferir información de un idioma a otro es un sistema de codificación. Un sistema

de codificación puede ser simple o complicado. Si el código es simple, como lo es el lenguaje del tambor con sus dos tonos,

una determinada cantidad de información requiere un mensaje más largo. Si el código es complicado, como lo es el lenguaje

hablado, la misma cantidad de información puede ser transmitida en un mensaje más corto.

Otro ejemplo que ilustra el dogma central es el telégrafo óptico francés. Hasta el año 1793, el quinto año de la Revolución

Francesa, los tambores africanos se adelantaron a los europeos en su capacidad de transmitir información rápidamente en

distancias largas. En 1793, Claude Chappe, un ciudadano patriótico de Francia, deseoso de fortalecer la defensa del gobierno

revolucionario contra los enemigos nacionales y extranjeros, inventó un dispositivo que llamó el telégrafo. El telégrafo era un

sistema de comunicación óptica con estaciones que consistía en grandes punteros móviles montados en la parte superior de

unas torres de sesenta pies . Cada estación era atendida por un operador que podía leer un mensaje transmitido por una

estación vecina y transmitir el mismo mensaje a la siguiente estación en la línea de transmisión.

La distancia entre estaciones era de unos siete kilómetros. A lo largo de

las líneas de transmisión, los mensajes ópticos en Francia podrían viajar

más rápido que los mensajes del tambor en África. Cuando Napoleón se

hizo cargo de la República Francesa en 1799 ordenó instalar el sistema de

telegrafía óptica para enlazar las principales ciudades de Francia, desde

Calais y París a Toulon y de ahí a Milán. El telégrafo se convirtió, como

Claude Chappe había previsto, en un importante instrumento de poder

nacional. Napoleón se aseguró de que no estuviera disponible para

usuarios privados.

A diferencia del lenguaje del tambor, que se basaba en el lenguaje

hablado, el telégrafo óptico se basaba en el francés escrito. Chappe

inventó un complejo sistema de codificación para traducir los mensajes

escritos en señales ópticas. Chappe tuvo el problema opuesto al de los

tambores. Los que usan el tambor tienen un sistema de transmisión rápida

con mensajes ambiguos. Necesitaban ralentizar la transmisión para que

los mensajes fueran inequívocos. Chappe tenía una red de transporte muy

lenta con mensajes redundantes. La lengua francesa, como la mayoría de

las lenguas alfabéticas, es altamente redundante, con muchas más letras

de las que se necesitan para transmitir el significado de un mensaje. El

sistema de codificación Chappe permitió que los mensajes se transmitieran con mayor rapidez. Muchas frases comunes y

nombres propios fueron codificados con sólo dos símbolos ópticos, con un aumento sustancial en la velocidad de transmisión.

El compositor y el lector de un mensaje tenía un libro con la lista de los códigos de mensajes para ocho mil frases y nombres.

Para Napoleón era una ventaja tener un código que estuviera realmente cifrado, manteniendo el contenido de los mensajes

secreto, fueran del alcance de los ciudadanos, a lo largo de la ruta.

Tras estos dos ejemplos históricos de una rápida comunicación en África y Francia, el resto del libro de Gleick va sobre el

desarrollo moderno de la tecnología de la información. La historia moderna está dominada por dos estadounidenses, Samuel

Página 2 de 7¿Cómo sabemos? La información y su historia.

18/05/2011http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...

Page 3: La Historia de la Información

Morse y Claude Shannon. Samuel Morse fue el inventor del código Morse. También fue uno de los pioneros que construyeron

un sistema de telégrafo usando electricidad transportada a través de cables en lugar de punteros ópticos situados en torres.

Morse lanzó su telégrafo eléctrico en 1838 y perfeccionó el código en 1844. Su código usa pulsaciones cortas y largas de la

corriente eléctrica para representarlas letras del alfabeto.

Morse estaba ideológicamente en el polo opuesto a Chappe. No estaba interesado en el secreto ni en la creación de un

instrumento de poder gubernamental. El sistema de Morse fue diseñado para ser una empresa con fines de lucro, rápida,

barata y disponible para todo el mundo. Al principio el precio de un mensaje era de un cuarto de centavo por letra. Los

usuarios más importantes del sistema eran corresponsales de prensa que difundían noticias de eventos locales para los

lectores de todo el mundo. El código Morse era bastante fácil de aprender para cualquier persona. El sistema no proporciona

ningún secreto a los usuarios. Si los usuarios desean el secreto pueden inventar sus propios códigos secretos y cifrar sus

propios mensajes. El precio de un mensaje cifrado era mayor que el de un mensaje de texto sin formato, ya que los

telegrafistas podían transcribir el texto más rápidamente. Era mucho más fácil corregir errores en texto sin formato que

cifrado.

Claude Shannon fue el padre fundador de la teoría de la información. En los cien años posteriores al telégrafo eléctrico, otros

sistemas de comunicación como el teléfono, la radio y la televisión fueron inventados y desarrollados por ingenieros, sin

necesidad de matemáticas superiores. Entonces Shannon suministró la teoría para comprender todos estos sistemas juntos,

definiendo la información como una cantidad abstracta inherente a un mensaje telefónico o a una imagen de televisión.

Shannon introdujo las matemáticas superiores en el juego.

Cuando Shannon era un niño que crecía en una granja en Michigan, se construyó un sistema telegráfico casero utilizando el

código Morse. Los mensajes eran transmitidos a sus amigos de las fincas de vecinos, usando el alambre de púas de sus

cercas para conducir las señales eléctricas. Cuando comenzó la Primera Guerra Mundial II, Shannon se convirtió en uno de

los pioneros de la criptografía científica, trabajando en el sistema telefónico cifrado de alto nivel que permitió a Roosevelt y

Churchill hablar a través de un canal seguro. El amigo de Shannon, Alan Turing, también estaba trabajando como criptógrafo

en el famoso proyecto británico Enigma, que descifró con éxito los códigos militares alemanes. Los dos pioneros se reunieron

con frecuencia cuando Turing visitó Nueva York en 1943, pero pertenecían a mundos secretos separados y no podían

intercambiar ideas acerca de la criptografía.

En 1945 Shannon escribió un artículo, “A Mathematical Theory of Cryptography”, que fue sellado como SECRETO y nunca

vio la luz. Publicó en 1948 una versión expurgada con el título “A Mathematical Theory of Communication”. La versión de

1948 apareció en el Bell System Technical Journal , la revista interna de los Bell Telephone Laboratories, y se convirtió de

inmediato en un clásico. Es el documento fundacional de la moderna ciencia de la información. Después de Shannon, la

tecnología de la información siguió hacia adelante, con ordenadores electrónicos, cámaras digitales, internet y la World Wide

Web.

Según Gleick, el impacto de la información sobre los asuntos humanos se produjo en tres entregas: en primer lugar, la

historia, los miles de años durante los cuales la gente creó y se intercambió información sin que existiera el concepto de

medición; en segundo lugar, la teoría, formulada por primera vez por Shannon; en tercer lugar, la inundación, en la que ahora

vivimos. La inundación comenzó en silencio. El acontecimiento que hizo claramente visible la inundación se produjo en 1965,

cuando Gordon Moore estableció la Ley de Moore. Moore fue un ingeniero electrónico, fundador de Intel Corporation, una

compañía que fabrica componentes para ordenadores y otros aparatos electrónicos. Su ley dice que el precio de los

componentes electrónicos disminuiría y su número aumentaría por un factor de dos cada dieciocho meses. Esto implicaba

que el precio se reduciría y el número aumentaría por un factor de cien en cada década. La predicción de Moore de continuo

crecimiento ha resultado ser sorprendentemente exacta durante los cuarenta y cinco años transcurridos desde que la

anunció. En estas cuatro décadas y media, el precio ha disminuido y su número se han incrementado por un factor de mil

millones, nueve potencias de diez. Nueve potencias de diez son suficientes para convertir un goteo en una inundación.

Gordon Moore estaba en el negocio del hardware, en la fabricación de componentes de hardware para máquinas

electrónicas, y propuso su ley como una ley de crecimiento para el hardware. Pero la ley también se aplica a la información

Página 3 de 7¿Cómo sabemos? La información y su historia.

18/05/2011http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...

Page 4: La Historia de la Información

que el hardware está diseñado para encarnar. El propósito del hardware es almacenar y procesar información. El

almacenamiento de información se llama memoria y el procesamiento de la información se llama computación. La

consecuencia de la Ley de Moore para la información es que el precio de la memoria y el procesamiento disminuye y la

cantidad disponible de memoria y procesamiento aumenta en un factor de cien en cada década. La inundación de hardware

se convierte en una avalancha de información.

En 1949, un año después de que Shannon publicara las reglas de la teoría de la información, elaboró una tabla de los

diferentes almacenes de memoria que entonces existían. La tabla más grande de memoria estaba en la Biblioteca del

Congreso, que él estimaba que contenía cien trillones de bits de información. Era en aquel momento una conjetura razonable

sobre la suma total del conocimiento humano registrado. Hoy en día una unidad de disco de memoria que almacena esa

cantidad de información pesa unas pocas libras y se puede comprar por alrededor de mil dólares. La información, también

conocida como datos, se vierte en memorias de ese tamaño o más grandes, en oficinas gubernamentales, empresas y

laboratorios científicos de todo el mundo. Gleick cita al científico de la computación Jaron Lanier para describir el efecto de la

inundación: “Es como si te arrodillas para plantar la semilla de un árbol y crece tan rápido que se traga el pueblo entero antes

de que incluso puedas ponerte de pie”.

El 8 de diciembre de 2010, Gleick publicado en el blog de The New York Review un

ensayo esclarecedor, “The Information Palace“. Lo escribió demasiado tarde para ser

incluido en su libro. En él se describe la evolución histórica del significado de la palabra

“información”, según consta en la última revisión trimestral en línea del Oxford English

Dictionary. La palabra aparece por primera vez en 1386 en un informe parlamentario con

el significado de “denuncia”. La historia termina con el uso moderno, el de “fatiga de la

información”, definida como “la apatía, la indiferencia o el agotamiento mental derivados

de la exposición a demasiada cantidad de información”.

Las consecuencias de la inundación de información no son del todo malas. Una de las

empresas creativas que la inundación ha hecho posible es la Wikipedia, iniciada hace

diez años por Jimmy Wales. Entre mis amigos y conocidos, todo el mundo desconfía de la

Wikipedia y todo el mundo la usa. La desconfianza y el uso productivo no son

incompatibles. Wikipedia es el último repositorio de información abierto. Todo el mundo es

libre de leerla y todos pueden escribir. Contiene artículos en 262 idiomas, escritos por

varios millones de autores. La información que contiene no es totalmente fiable, pero sí

sorprendente precisa. A menudo es poco fiable debido a que muchos de los autores son ignorantes o descuidados. Suele ser

precisa porque los artículos son editados y corregidos por los lectores, que están mejor informados que los autores.

Cuando comenzó la Wikipedia, Jimmy Wales esperaba que la combinación de escritores voluntarios entusiastas con la

tecnología de información de fuente abierta podría suponer una revolución en el acceso a los conocimientos humanos. La

tasa de crecimiento de la Wikipedia superó sus sueños más salvajes. En diez años se ha convertido en el mayor almacén de

información del planeta y en el más ruidoso campo de batalla de opiniones en conflicto. Ilustra la ley de Shannon de

comunicación fiables. Esta ley dice que la transmisión precisa de información es posible en un sistema de comunicación con

un alto nivel de ruido. Incluso en los sistemas más ruidosos, los errores pueden ser corregidos de forma fiable y la

información exacta puede transmitirse, siempre que la transmisión sea suficientemente redundante. Es decir, tal y como

funciona la Wikipedia.

La inundación de información también ha traído enormes beneficios a la ciencia. El público tiene una visión distorsionada de

la ciencia, porque a los niños se les enseña en la escuela que la ciencia es una colección de verdades firmemente

establecidas. De hecho, la ciencia no es una colección de verdades. Se trata de una continua exploración de misterios.

Dondequiera que vayamos explorando en el mundo que nos rodea, nos encontramos con misterios. Nuestro planeta está

cubierto por continentes y océanos, cuyo origen no se puede explicar. Nuestra atmósfera está agitada constantemente por

perturbaciones mal entendidas que llamamos tiempo y clima. La materia visible en el universo se ve compensada por una

Página 4 de 7¿Cómo sabemos? La información y su historia.

18/05/2011http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...

Page 5: La Historia de la Información

cantidad mucho mayor de materia oscura invisible que no entendemos en absoluto. El origen de la vida es un misterio total, y

también lo es la existencia de la conciencia humana. No tenemos ninguna idea clara de cómo las descargas eléctricas que

ocurren en las células nerviosas del cerebro se conectan con nuestros sentimientos, deseos y acciones.

Incluso la física, la rama de la ciencia más exacta y más firmemente establecida, aún está llena de misterios. No sabemos

qué parte de la teoría de la información de Shannon seguirá siendo válida cuando los dispositivos cuánticos reemplacen a los

clásicos circuitos eléctricos como portadores de información. Los dispositivos cuánticos pueden estar hechos de átomos

individuales o de microscópicos circuitos magnéticos. Todo lo que sabemos con certeza es que teóricamente puede hacer

ciertos trabajos que estén fuera del alcance de los dispositivos clásicos. La computación cuántica es todavía un misterio

inexplorado en la frontera de la teoría de la información. La ciencia es la suma total de una gran multitud de misterios. Es un

argumento sin fin entre una gran multitud de voces. Se parece a la Wikipedia mucho más de lo que se asemeja a la

Enciclopedia Británica.

El rápido crecimiento de la avalancha de información en los últimos diez años hizo posible la Wikipedia, y la inundación

misma hizo posible la ciencia del siglo XXI. La ciencia del siglo XXI está dominada por esos grandes almacenes de

información que llamamos bases de datos. La inundación de la información ha hecho que sea fácil y barato construir bases

de datos. Un ejemplo de una base de datos de nuestro siglo es la recopilación de secuencias del genoma de los seres vivos

pertenecientes a especies diferentes, de microbios a seres humanos. Cada genoma contiene la información genética

completa que dio forma a la criatura a la que pertenece. Los base de datos del genoma está creciendo rápidamente y está

disponible para que científicos de todo el mundo la exploraen. Su origen se remonta al año 1939, cuando Shannon escribió

su tesis doctoral con el título de “An Algebra for Theoretical Genetics”.

Shannon era entonces un estudiante graduado en el departamento de matemáticas en el MIT . Era vagamente consciente de

la posible realización física de la información genética. La verdadera encarnación física del genoma es la estructura de doble

hélice de las moléculas del ADN, descubierta por Francis Crick y James Watson catorce años más tarde. En 1939 Shannon

entendía que el fundamento de la genética debía ser la información, y que la información debía ser codificada en algún tipo

de álgebra abstracta independiente de su forma física. Sin ningún conocimiento de la doble hélice, no podía esperar adivinar

la estructura detallada del código genético. Sólo podía imaginar que en un futuro lejano la información genética podría ser

decodificada y recogida en una base de datos gigante que definiría la diversidad total de los seres vivos. Sólo se necesitaron

sesenta años para que su sueño se hiciera realidad.

En el siglo XX, los genomas de los humanos y de otras especies fueron descifrados laboriosamente y traducidos a

secuencias de letras en memorias de ordenador. La decodificación y traducción se hicieron más baratas y más rápidas a

medida que pasaba el tiempo, con precio decreciente y velocidad cada vez mayor según la Ley de Moore. El primer genoma

humano tardó quince años en decodificarse y costó alrededor de mil millones de dólares. Ahora, un genoma humano puede

ser descifrado en un par de semanas y cuesta unos cuantos miles de dólares. Alrededor del año 2000 se alcanzó un punto de

inflexión, cuando se hizo más barato producir la información genética que entenderla. Ahora podemos pasar un trozo de ADN

humano a través de una máquina y rápidamente lee la información genética, pero no podemos leer el significado de la

información. No entenderemos plenamente la información hasta que entendamos en detalle los procesos del desarrollo

embrionario que el ADN orquesta para hacer de nosotros lo que somos.

Un punto de inflexión similar llegó casi al mismo tiempo en la astronomía. Telescopios y naves espaciales han evolucionado

lentamente, pero las cámaras y procesadores de datos ópticos se han desarrollado rápidamente. Los proyectos modernos de

estudio del cielo recopilan datos de grandes áreas de cielo y producen bases de datos con información precisa acerca de

miles de millones de objetos. Los astrónomos sin acceso a instrumentos de gran tamaño puede hacer descubrimientos

explorando las bases de datos en lugar de observar el cielo. Las grandes bases de datos han causado revoluciones similares

en otras ciencias como la bioquímica y la ecología.

El crecimiento explosivo de la información en nuestra sociedad humana es una parte del crecimiento más lento de estructuras

ordenadas en la evolución de la vida en su conjunto. La vida ha estado evolucionando miles de millones de años con

organismos y ecosistemas que contienen cantidades cada vez mayores de información. La evolución de la vida es una parte

Página 5 de 7¿Cómo sabemos? La información y su historia.

18/05/2011http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...

Page 6: La Historia de la Información

de la evolución del universo, que también evoluciona con cantidades crecientes de información integradas en estructuras

ordenadas, galaxias, estrellas y sistemas planetarios. En el mundo vivo y no vivo vemos un crecimiento del orden, desde el

gas uniforme de los inicios del universo a la producción de la magnífica diversidad de objetos extraños que vemos en el cielo

y en la selva tropical. En todas partes a nuestro alrededor, donde quiera que miremos, vemos indicios de creciente orden y de

aumento de la información. La tecnología que surge de los descubrimientos de Shannon es sólo una aceleración local del

crecimiento natural de la información.

El crecimiento visible de las estructuras ordenadas en el universo parecía paradójico para los científicos y los filósofos del

siglo XIX, que creían en una doctrina denominada la muerte térmica. Lord Kelvin, uno de los más importantes físicos de la

época, promovió el dogma de la muerte térmica, la predicción de que, desde el flujo de calor de los objetos más calientes a

los más fríos se traduciría en una disminución de las diferencias de temperatura en todas partes, hasta que en última

instancia todas las temperaturas se igualarían. La vida necesita diferencias de temperatura para evitar quedar sofocada por el

exceso de calor. Así que la vida va a desaparecer.

Esta visión sombría del futuro está en sorprendente contraste con el crecimiento exuberante de la vida que vemos a nuestro

alrededor. Gracias a los descubrimientos de los astrónomos en el siglo XX, ahora sabemos que la muerte térmica es un mito.

La muerte térmica nunca puede pasar, y no hay ninguna paradoja. El mejor relato popular de la desaparición de la paradoja

es un capítulo, “How Order Was Born of Chaos”, del libro Creation of the Universe, de Fang Lizhi y su esposa Li Shuxian.

Fang Lizhi es doblemente famoso por ser uno de los principales astrónomos de China y como destacado disidente político.

Ahora continua esa doble actividad desde la Universidad de Arizona.

La creencia en una muerte térmica se basa en una idea que yo llamo la regla de la cocción. La regla dice que un trozo de

carne se calienta cuando lo ponemos en una parrilla caliente. De manera más general, la regla dice que cualquier objeto se

calienta cuando se gana energía, y se enfría cuando se pierde energía. Los seres humanos han estado cocinando bistecs

durante miles de años, y nadie vio que un filete se enfriara en contacto con el fuego. La regla de cocción es cierta para

objetos lo suficientemente pequeños como para que los podamos manejar. Si la regla de cocción es siempre cierta, entonces

el argumento de Lord Kelvin de la muerte térmica es correcto.

Ahora sabemos que la regla de cocción no es cierta para objetos de tamaño astronómico, por lo que la gravitación es la forma

dominante de energía. El sol es un ejemplo familiar. Cuando el sol pierde energía por radiación, se hace más caliente y no

más frío. Dado que el sol está hecho de gas comprimible presionado por su propia gravitación, la pérdida de energía hace

que se vuelva menor y más denso, y la compresión hace que se caliente. Casi todos los objetos astronómicos, en los que

domina la gravedad, tienen el mismo comportamiento inesperado. La gravitación invierte la relación habitual entre energía y

temperatura. En el ámbito de la astronomía, cuando el calor fluye de los objetos más calientes a los más fríos, los objetos

calientes se calientan y los objetos fríos se enfrían. Como resultado, las diferencias de temperatura en el universo

astronómico tienden a aumentar en vez de disminuir a medida que pasa el tiempo. No hay un estado final de temperatura

uniforme, y no hay muerte térmica. La gravitación nos prporciona un universo hospitalario para la vida. La información y el

orden pueden continuar creciendo durante miles de millones de años en el futuro, como lo han hecho evidentemente en el

pasado.

La visión del futuro como un infinito campo de juegos, con una secuencia interminable de misterios a entender por una

secuencia interminable de jugadores explorando una fuente interminable de informaciones, es una visión gloriosa para los

científicos. Los científicos encuentran atractiva esa visión, ya que da un propósito a su existencia y un suministro interminable

de puestos de trabajo. La visión es menos atractiva para artistas, escritores y gente común. La gente corriente está más

interesada en sus amigos y familiares que en la ciencia. Para la gente común puede que no ea bienvenido un futuro

consumido en nadar en una riada interminable de información. Una visión más oscura del universo dominado por la

información fue descrita en un famoso cuento, “La Biblioteca de Babel”, de Jorge Luis Borges en 1941. Borges imaginó su

biblioteca, con una variedad infinita de libros, estantes y espejos, como una metáfora del universo.

El libro de Gleick tiene un epílogo titulado “El retorno del significado”, que expresa las preocupaciones de las personas que se

sienten alienadas respecto de la cultura científica imperante. El enorme éxito de la teoría de la información provino de la

Página 6 de 7¿Cómo sabemos? La información y su historia.

18/05/2011http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...

Page 7: La Historia de la Información

decisión de Shannon de separar información de significado. Su dogma central, “El sentido es irrelevante”, declaraba que la

información podía ser manipulada con mayor libertad si era tratada como una abstracción matemática independiente de

significado. La consecuencia de esta libertad es el flujo de información en el que nos estamos ahogando. El inmenso tamaño

de las bases de datos modernas nos dan una sensación de falta de sentido. Tsta información en tales cantidades nos

recuerda a la biblioteca de Borges que se extiende infinitamente en todas direcciones. Es nuestra tarea como seres humanos

dar sentido de nuevo a este yermo. Como seres finitos que piensan y sienten, podemos crear islas de significado en el mar de

información. Gleick termina su libro con la imagen de Borges de la condición humana:

“recorremos los pasillos, buscando los estantes y reordenándolos, buscando líneas de sentido en medio de asociaciones de

cacofonía e incoherencia, leyendo la historia del pasado y del futuro, recogiendo nuestros pensamientos y recogiendo los

pensamientos de los demás, y de vez en cuando vislumbrando espejos, en los que podemos reconocer las criaturas de la

información”.

Anaclet Pons

Clionauta

Buscando la Verdad 25.03.11

Página 7 de 7¿Cómo sabemos? La información y su historia.

18/05/2011http://www.jaimegorenstein.com/sin-miedo-a-la-cultura/153/5830-icomo-sabemos-la-info...