Investigación y ciencia 304 - Enero 2002

99
9 7 7 0 2 1 0 1 3 6 0 0 4 0 0 3 0 4 ENERO 2002 4,81 EURO 800 PTA. EXTINCION DE LAS ESPECIES LENTES GRAVITATORIAS LUCHA GENETICA CONTRA LOS VIRUS Sedimentos vítreos de la Pampa Evolución del parto El papel electrónico

Transcript of Investigación y ciencia 304 - Enero 2002

Page 1: Investigación y ciencia 304 - Enero 2002

9 770210 136004

0 0 3 0 4

ENERO 20024,81 EURO 800 PTA.

EXTINCION DE LAS ESPECIES •• LENTES GRAVITATORIAS

LUCHA GENETICACONTRA LOS VIRUS

Sedimentosvítreosde la PampaEvolución del partoEl papelelectrónico

Page 2: Investigación y ciencia 304 - Enero 2002

16

Enero de 2002 Número 304

SECCIONES3

HACE...50, 100 y 150 años.

32PERFILES

Richard S. Lindzen:el ominoso abuso del poder

contra la libertadde expresión.

34CIENCIA Y SOCIEDAD

El cólera y El Niño,Bangladesh como ejemplo...Geometría y nanotécnica...

Tumores cerebrales,tasa de proliferación.

40DE CERCAIcebergs.

Fármacos contra virusWilliam A. Haseltine

En la lucha contra los virusdisponemos ya de un buen armamentariode medicinas eficaces y de otrasen fase de desarrollo. La investigaciónen genomas víricos acelera el progreso.

La importancia del número de alumnosRonald G. Ehrenberg, Dominic J. Brewer,Adam Gamoran y J. Douglas Willms

La disminución del número de alumnospor profesor no es, en la enseñanza, la panacea.

Lentes gravitatorias y materia oscuraJoachim Wambsganss

Las estrellas, galaxias y agujeros negros puedendesviar la luz procedente de otros objetoscelestes aún más alejados. Tal efecto de lentegravitatoria nos proporciona pistas acercade la materia oscura, la estructura de loscuásares y la distribución de la materiaa gran escala en el universo.

4

24

Page 3: Investigación y ciencia 304 - Enero 2002

42

Edición española de

SECCIONES82

CURIOSIDADES DE LA FÍSICAEl vuelo del bumerán,por Wolfgang Bürger

85AVENTURAS PROBLEMÁTICAS

Parada discrecional,por Dennis E. Shasha

86JUEGOS MATEMÁTICOS

Información y juegos de azar,por Juan M. R. Parrondo

88IDEAS APLICADAS

Interruptores de pérdida a tierra,por Mark Fischetti

90NEXOS

Temas muy intelectuales,por James Burke

92LIBROS

Evolución... Antropología...Biodiversidad.

2/3

1/3

53

En busca del papel electrónicoSteve Ditlea

Las compañías compiten por la creación deun “papel” digital que reúna las mejorespropiedades de los textos impresos yvisualizados en pantallas de ordenador.

62

Las escorias y tierras cocidasde la PampaMarcelo A. Zárate y Peter H. Schultz

Los enigmáticos fragmentos vítreosasociados a otros parecidos a ladrillosque se encuentran en los sedimentosde la Pampa argentina cercanos a Mar delPlata se deben al impacto de un asteroide,ocurrido hace 3,3 millones de años.

74

68

Las ciencias de la Tierra en el último cuarto de sigloAgustín Udías

Gracias a nuevos instrumentos y métodosde observación, así como a la utilizaciónde ordenadores de gran capacidad yrapidez de cálculo y memoria, los últimos25 años han supuesto un gran adelanto

para nuestro conocimiento de la Tierray sus envolturas, océanos y atmósfera

y de los procesos que se desarrollan en su seno.

La extinción de las especiesW. Wayt Gibbs

Los ecólogos avisan de la extinción en masaque está teniendo lugar, pero es difícil sabersus dimensiones y la mejor manera dedetenerla.

La evolución del parto humanoKaren R. Rosenberg y Wenda R. Trevathan

La necesidad de ayuda a las mujeresdurante el parto puede haber evolucionadojunto a nuestro modo de locomoción bípeda.

Alaadelantada

Alaretrasada

v

v v

v

v

u

u

u

u

u+v

v-u

Page 4: Investigación y ciencia 304 - Enero 2002

INVESTIGACION Y CIENCIA

DIRECTOR GENERAL Francisco Gracia GuillénEDICIONES José María Valderas, directorADMINISTRACIÓN Pilar Bronchal, directoraPRODUCCIÓN M.a Cruz Iglesias Capón

Bernat Peso InfanteSECRETARÍA Purificación Mayoral MartínezEDITA Prensa Científica, S. A. Muntaner, 339 pral. 1.a – 08021 Barcelona (España)

Teléfono 93 414 33 44 Telefax 93 414 54 13

SCIENTIFIC AMERICAN

EDITOR IN CHIEF John RennieMANAGING EDITOR Michelle PressASSISTANT MANAGING EDITOR Ricki L. RustingNEWS EDITOR Philip M. YamSPECIAL PROJECTS EDITOR Gary StixSENIOR WRITER W. Wayt GibbsEDITORIAL DIRECTOR, ON-LINE Kristin LeutwylerEDITORS Mark Alpert, Steven Ashley, Graham P. Collins, Carol Ezzell,

Steve Mirsky, George Musser y Sarah SimpsonPRODUCTION EDITOR Richard HuntVICE PRESIDENT AND MANAGING DIRECTOR, INTERNATIONAL Charles McCullaghPRESIDENT AND CHIEF EXECUTIVE OFFICER Gretchen G. TeichgraeberCHAIRMAN Rolf Grisebach

PROCEDENCIADE LAS ILUSTRACIONES

Portada: Biozentrum/SPL/PhotoResearchers, Inc., y Jana Brenning

Página

4-5

6

7

8

9

10

11

12

13

17-19

21

24-27

30

31

42-51

55

57

58

60-61

64-65

66

68-69

70

71

72

73

75

76

77

78

79

82

83

84

85

88-89

Fuente

NASA/ESA

Joachim Wambsganss (arriba);Atelier Kühn/SdW (abajo)

Joachim Wambsganss

Lindsay King (anillo); FredericCourbin (cuásar doble)

Joachim Wambsganss; SaraChen (gráfico)

Joachim Wambsganss

NASA; W. N. Colleyy E. Turner; J. A. Tyson,Bell Laboratories

Sara Chen (arriba); FredericCourbin (doble cuásar)

NASA/ESA; Spektrum derWissenschaft (gráfica)

Quade Paul

Cortesía de Laboratorios Abbott

Bruce Strachan

Jon Burbank

Bruce Strachan

Marcelo A. Záratey Peter H. Schultz

Cheryl D. Knott

Lester V. Bergman, Corbis(trilobite); James L. Amos,Corbis (Placodermo); RichardPaselk, Universidad EstatalHumboldt (coral y fitosauro);Mike Everhart (mosasauro)

Sara Chen

Frans Lanting, Minden Pictures

Nina Finkel

Nina Finkel (arriba); DannyLehman, Corbis (fotografía)

Sam Ogden

Eric Millette

Sam Ogden

Laurie Grace

Sam Ogden

Copyright 2000, American Geo-physical Union

Agustín Udías

Copyright 2001, American Geo-physical Union

Agustín Udías

Cortesía de E. Buforn

Wolfgang Bürger/SdW

Thorsten Krome (arriba);Wolfgang Bürger (dibujo)

Wolfgang Bürger

Ian Worpole

George Retseck

COLABORADORES DE ESTE NUMERO

Asesoramiento y traducción:

Emilio Elizalde: Lentes gravitatorias y materia oscura; Esteban Santiago: Fármacos contravirus; Luis Bou: La importancia del número de alumnos y Aventuras problemáticas;Joandomènec Ros: La extinción de las especies; Carlos Lorenzo: La evolución del partohumano; Jürgen Goicoechea: Curiosidades de la física; José M.ª Valderas Martínez: Nexos;Angel Garcimartín: Perfiles; J. Vilardell: Hace... e Ideas aplicadas

Copyright © 2001 Scientific American Inc., 415 Madison Av., New York N. Y. 10017.

Copyright © 2002 Prensa Científica S.A. Muntaner, 339 pral. 1.a 08021 Barcelona (España)

Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún mediomecánico, fotográfico o electrónico, así como cualquier clase de copia, reproducción, registro otransmisión para uso público o privado, sin la previa autorización escrita del editor de la revista.El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente,son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí.

ISSN 0210136X Dep. legal: B. 38.999 – 76

Filmación y fotocromos reproducidos por Dos Digital, Zamora, 46-48, 6ª planta, 3ª puerta - 08005 BarcelonaImprime Rotocayfo-Quebecor, S.A. Ctra. de Caldes, km 3 - 08130 Santa Perpètua de Mogoda (Barcelona)

Printed in Spain - Impreso en España

SUSCRIPCIONES

Prensa Científica S. A.Muntaner, 339 pral. 1.a

08021 Barcelona (España)Teléfono 93 414 33 44Fax 93 414 54 13

Precios de suscripción:

Un año Dos años

España 52,89 euro 96,16 euro8.800 pta. 16.000 pta.

Extranjero 69,12 euro 129,22 euro11.500 pta. 21.500 pta.

Ejemplares sueltos:

Ordinario: 4,81 euro 800 pta.Extraordinario: 6,01 euro 1.000 pta.

—El precio de los ejemplares atrasadoses el mismo que el de los actuales.

DISTRIBUCION

para España:

LOGISTA, S. A.Aragoneses, 18 (Pol. Ind. Alcobendas)28108 Alcobendas (Madrid)Tel. 91 484 39 00

para los restantes países:

Prensa Científica, S. A.Muntaner, 339 pral. 1.a – 08021 BarcelonaTeléfono 93 414 33 44

PUBLICIDADGM PublicidadFrancisca Martínez SorianoMenorca, 8, semisótano, centro, izquierda.28009 MadridTel. 91 409 70 45 – Fax 91 409 70 46

Cataluña y Baleares:Miguel MunillMuntaner, 339 pral. 1.a08021 BarcelonaTel. 93 321 21 14Fax 93 414 54 13

Difusióncontrolada

Page 5: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 3

...cincuenta años

UN LECTOR DISCONFORME. «Se-ñor director: El artículo de LouisN. Ridenour, de agosto de 1951,correctamente titulado ‘Una revo-lución en la electrónica’ es inte-resantísimo. Sin embargo, trans-mite la impresión completamenteerrónea de que el tubo amplifica-dor de tres electrodos ha llegadoal fin de su carrera. El doctorRidenour omitió mencionar las li-mitaciones del transistor respectoa la frecuencia. Con tales limita-ciones, no puede competir con eltubo de tres electrodos, o audión,como yo lo llamé en principio. Laaplicación generalizada del tran-sistor a la radio o televisión estámuy lejos todavía.—Lee DeForest»

RIDENOUR CONTESTA. «Señor di-rector: Me complace recibir los co-mentarios de quien posibilitó elestado presente de la electrónica,aunque deba estar un tanto en de-sacuerdo con alguno de ellos.Ciertamente, puede que falten al-gunos años para que los equiposcomerciales de radio y televisiónhagan uso del transistor. Pero eseretraso probablemente se deberá ala incapacidad de la producción detransistores para hacer frente a unasenormes y crecientes demandas mi-litares. Las principales limitacio-nes de los aparatos electrónicosmás complejos radican en las in-

suficiencias fundamentales del tubode vacío, que casi medio siglo dedesarrollo han aliviado pero no re-mediado.—Louis N. Ridenour»

¿AVES DE CORRAL VENENOSAS?«Los antibióticos aceleran el cre-cimiento de pollos y pavos. Losgranjeros estadounidenses ya ali-mentan con ellos, en gran escala,sus corrales. Mortimer P. Starr yDonald M. Reynolds, bacteriólogosde la Universidad de California,examinaron los intestinos de pavoscriados con una dieta complemen-tada con estreptomicina y descu-brieron que a los tres días apare-cía una bacteria resistente al fármaco.Si la alimentación con antibióticosproduce variantes resistentes de pa-rásitos tales como la Salmonella,este microorganismo no sólo po-dría envenenar a los consumidoreshumanos sino ser inmune a los tra-tamientos farmacológicos.»

...cien años

EL CANAL DE PANAMÁ. «El in-forme de la Comisión del Istmo delCanal ha despejado una masa deerrores y distorsiones que hasta ahorase cernían sobre toda la cuestióndel canal. A juzgar por la viabili-dad de la construcción, seguridad,estabilidad política, comodidad y fa-cilidad de explotación y economíade primera inversión y manteni-miento, el Canal de Panamá tal como

lo han diseñado nuestros ingenieroses, con mucho, mejor proyecto queel Canal de Nicaragua. El Congresoestá tan acostumbrado a considerara Panamá como una empresa fran-cesa que hasta ahora no ha empe-zado a darse cuenta de que si afian-zamos nuestros propios términos delicitación en el proyecto Panamá,éste se convertirá en una empresatan americana como la construcciónde un canal de novo en Nicaragua.»

ALIMENTAR PITONES. «Hace al-gún tiempo la Sociedad Zoológicade Nueva York adquirió una pitónde casi ocho metros. El animalrehusó de plano comer nada, y sibien una serpiente puede ayunardurante un período considerable, in-cluso para el aguante del reptil haylímites. Las autoridades decidieronque había que tomar medidas ex-tremas. La serpiente fue firmementesujetada por doce hombres y conayuda de un palo se le introdujopor la boca el alimento, compuestoéste por dos conejos y cuatro co-bayas (véase ilustración). Luego fuedevuelta a la jaula para que si-guiera el proceso de digestión.»

...ciento cincuenta años

MEDICINAS Y PANACEAS. «Es muycorriente que los vendedores de re-medios de curandero los anunciencomo ‘puramente vegetales’. Ello esabusar de la ignorancia de la gente.Hace ya tiempo se usaban exclusi-vamente medicinas vegetales, con laexcepción del alumbre y el azufre.Cuando la ciencia desarrolló las vir-tudes de las medicinas químicas, losviejos prejuicios se organizaron con-tra las maldades de las ‘nuevas dro-gas’. Los mismos prejuicios anidanaún en las mentes de muchos, y asíoímos que los ‘médicos naturistas’son más seguros. Creen esas per-sonas que las medicinas químicasson más peligrosas, pero ello es puratontería, pues los venenos más vi-rulentos se extraen de hierbas. Lamorfina, la nuez vómica, la estric-nina, la nicotina y otros espantososvenenos son extractos vegetales.»

HACE...

Pitón: Alimentada a la fuerza en 1902

Page 6: Investigación y ciencia 304 - Enero 2002

4 INVESTIGACIÓN Y CIENCIA, enero, 2002

Lentes gravitatoriasy materia oscuraLas estrellas, galaxias y agujeros negrospueden desviar la luz procedente de otros objetos celestesaún más alejados. Tal efecto, que recibe el nombrede efecto de lente gravitatoria, nos proporciona pistasacerca de la materia oscura, la estructura de los cuásaresy la distribución de la materia a gran escala en el universo

Joachim Wambsganss

Page 7: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 5

En una sala de espejos, el visitante disfruta conlas imágenes múltiples de sí mismo; algunas,muy distorsionadas. A partir de los detalles detales imágenes de su persona, deformes y como

derretidas, podría, en principio, deducir la forma de lasuperficie de los espejos que las producen. E inclusosi el observador desconociese el aspecto verdadero desí mismo (que ha observado mil veces al mirarse enun espejo normal), aun en ese caso podría, a partir delas imágenes distorsionadas, reconstruir una imagen fielde sí mismo.

También en nuestro universo podemos contemplar devez en cuando dos, tres o incluso más imágenes —amenudo muy distorsionadas— de objetos celestes muyalejados. Esas imágenes múltiples aparecen cuando losrayos de luz son desviados por la acción de otros cuer-pos celestes de enorme masa.

Ese efecto de lente gravitatoria, así se le denomina,proporciona a los astrofísicos la manera de obtenerunos conocimientos de primera mano sobre el universoy sus objetos cósmicos, imposibles de adquirir por otravía y, si acaso, con enormes dificultades. Son conoci-mientos sobre la escurridiza materia oscura, la distri-bución de la materia a gran escala o la estructura in-terna de los cuásares, regiones centrales extremadamentebrillantes que se hallan en galaxias muy lejanas.

La astrofísica de las lentes gravitatorias constituyeun campo de investigación joven. Pese a ello, los as-trónomos han detectado muy diversas manifestacionesde este fenómeno de la ‘luz que se curva’. Así, se hadescubierto por ejemplo el efecto focalizador de es-trellas solitarias, cuya masa no supera siquiera la so-lar. También se han identificado galaxias con hasta unbillón de soles que operan como lentes gravitatoriasextraordinariamente potentes; se han visto incluso cú-mulos de galaxias, que contienen cientos de éstas, quecumplen la misma función. Por otra parte, los inves-tigadores han identificado en los objetos más peque-ños —ya fuesen estrellas o galaxias o cuásares— va-riaciones casi imperceptibles en su luminosidad o ensu forma, lo que ha sido posible sólo merced al efectoaumentativo de la desviación de la luz.

En un sistema de lentes gravitatorias, entre el ob-servador situado en la Tierra y la lejana fuente lumi-nosa se sitúa algún objeto cósmico, que actúa comouna lente de gran aumento. Puede tratarse de una es-trella, de una galaxia, de un cúmulo de galaxias o deun agujero negro. Tales concentraciones de masa des-vían la luz procedente de las fuentes lejanas de su tra-yectoria rectilínea. De ese modo, el observador terres-tre puede ver el objeto duplicado o multiplicado variasveces, pese a que, en la realidad, se trata de un únicoobjeto. Cuando se observa toda una constelación deeste tipo, los especialistas hablan de un “efecto delente gravitatoria fuerte o intenso”. Si la masa focali-zadora no es lo suficientemente compacta, o si la fuenteno se sitúa más o menos exactamente detrás de lalente, entonces el efecto desviador de la luz no tieneconsecuencias tan drásticas y origina sólo ligeras de-formaciones en la imagen de la galaxia lejana. Se ha-bla en ese caso de un “efecto de lente gravitatoria li-gero o débil”.

1. CUANDO UN CUMULO DE GALAXIAS�Abell 2218 en la fotografía, debida a An-drew Fruchter y tomada con el telescopioespacial Hubble� actúa como lente gravita-toria, engendra �gigantescos arcos de luz�.Las galaxias amarillentas grandes pertene-cen al cúmulo; las galaxias más delgadas,en parte azules y curvadas formando unarco, se hallan situadas en realidad muchomás lejos, detrás del cúmulo; de acuerdocon la masa de éste sufren una mayor omenor deformación debido al efecto delente gravitatoria.

Page 8: Investigación y ciencia 304 - Enero 2002

Si sabemos que la luz se pro-paga en línea recta, ¿por qué puededesviarse de esa trayectoria en elcosmos? Por principio, la luz si-gue la trayectoria más corta entredos puntos, que en la mayoría delos casos se trata de una línea recta.Sin embargo, debido al hecho deque el universo contiene enormesconcentraciones de materia y a losprincipios de la teoría general dela relatividad de Einstein, que pre-dice que cada masa curva en ma-yor o menor medida (dependiendode su valor mayor o menor) el es-pacio que tiene a su alrededor, re-sulta que los propios rayos de luzsiguen también necesariamente ca-minos curvados. La intensidad dela desviación depende de la proxi-midad de la trayectoria del rayo deluz al objeto cósmico, así como dela masa de éste: el ángulo de des-viación es directamente proporcio-nal a la masa del objeto que laorigina e inversamente proporcio-nal a la distancia entre dicho ob-jeto y el camino de la luz.

Esta curiosidad cósmica nos pro-porciona una solución, cuando me-nos aproximada, de algunos de losproblemas más fascinantes de la as-trofísica moderna: volumen, edad ygeometría de nuestro universo, es-tructura interna de los cuásares, ori-gen y evolución de las galaxias obúsqueda de la escurridiza materia

oscura. Los investigado-res creen incluso que conla ayuda de este fenó-meno llegarán a observarplanetas parecidos a laTierra que dan vueltas entorno a otras estrellas.

El efecto de lente gra-vitatoria se deja sentiren las propiedades de lasfuentes de luz:

➤➤ Posición: Por mediode la desviación de laluz se modifica siemprela posición aparente deuna estrella o de una ga-laxia en el cielo. Esteefecto es inobservable lamayoría de las veces,dado que desconocemospor completo en qué lu-gar del cielo se vería elobjeto si no se hubiesedesviado la luz proce-dente del mismo. Sólocuando una determinadaconfiguración de lentegravitatoria se modificasubstancialmente duranteun corto intervalo tem-poral —entendiendo por tal, comomucho, el que corresponde a lavida activa de un astrónomo— ysomos así capaces de ver, por de-cirlo de algún modo, el antes y eldespués del efecto, podemos me-

dir la influencia de la lente gra-vitatoria sobre la posición.

➤➤ Luminosidad: La desviación yfocalización de la luz influye so-bre la luminosidad, medida con un

PLANO DE LA FUENTE DE LUZ

PLANO DE LA LENTE

PLANO DEL OBSERVADOR

2. CONSTELACION de lentes gravitatorias típica. Los ra-yos de luz procedentes de un cuásar muy lejano (la fuentecircular situada arriba, en el medio) son desviados en sucamino hacia el observador terrestre por una galaxia quese encuentra en su camino (líneas blancas). El observa-dor ve dos o más imágenes amplificadas (arriba, a la iz-

quierda y a la derecha), que aparecen ubicadas en dis-tintas posiciones del cielo (siguiendo las líneas rojas).Las estrellas de la galaxia actúan como microlentes gra-vitatorias, lo cual conduce a una imagen deformada dela estructura de la fuente, que no se ve según tal es enrealidad.

3. EL CARTEL LUMINOSO ORIGINAL (aquí el logotipode �Investigación y Ciencia�) se ha deformado y mul-tiplicado varias veces por la acción de un conjuntode lentes gravitatorias simulado por ordenador. Lassuperficies de colores (parte superior) correspondena diversas intensidades del efecto aumentativo delas lentes: cuando la fuente de luz se halla en unaregión de color azul, su intensidad se ve poco aumen-

Page 9: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 7

telescopio, de las estrellas y gala-xias lejanas. Aunque la mayoría delos objetos cósmicos sufren unapérdida muy pequeña de luminosi-dad, algunos la aumentan. Sólo unnúmero exiguo de fuentes aparecenmucho más brillantes debido alefecto de lente gravitatoria. Se hanobservado ya luminosidades quecentuplican la intensidad origina-ria. Estas son las que revisten ma-yor interés.

➤➤ Forma: Debido al efecto de lentegravitatoria, las galaxias aparecenseparadas en direcciones tangen-ciales y adquieren forma de pe-queño arco. En casos extremos pue-den ofrecer una forma anular.

➤➤ Número: Fruto espec-tacular del efecto de lentegravitatoria, se generanimágenes dobles o múl-tiples de una galaxia le-jana o de un cuásar. Lasimágenes múltiples apa-recen siempre por pares;en cada par, una es ima-gen especular de la otra.

Mediante simulacióninformática podemos re-crear todos estos casosde desviación de luz porefectos gravitatorios.

Que las grandes ma-sas de los cuerpos ce-lestes desviaban de sutrayectoria rectilínea alos rayos de luz lo anun-ció ya Albert Einstein en1915, al formular su teo-ría general de la relati-vidad. Pero no fue el pri-mero en predecirlo. En1801 Johann Georg Sold-ner, astrónomo berlinés,había calculado que laposición de una estrellasufriría una desviación deángulo muy pequeño de-

bido a la influencia de la masa delSol. El resultado de Einstein co-rrespondiente al ángulo de desvia-ción era, sin embargo, el doble delpredicho por Soldner; tal efecto fuemedido en 1919, durante un eclipsede sol, por los astrofísicos británi-cos Arthur Eddington y Frank Dy-son. Este resultado constituyó unhito, pues corroboraba la teoría ge-neral de la relatividad.

En los años treinta Einstein vol-vió a la desviación de la luz provo-cada por la gravedad. Sus cálculosle llevaron a predecir la apariciónde dos imágenes aumentadas deuna estrella, cuando entre la estre-lla en cuestión y el observador me-diara otra que actuaría de lente; enel caso de alineación exacta apa-recería una imagen anular perfecta.Sin embargo, Einstein dudaba deque un efecto de estas caracterís-ticas se observara nunca. Otros as-trofísicos se ocuparon también poraquella época del efecto de lentegravitatoria. Fritz Zwicky sí estabaconvencido de que terminaría porverse galaxias que actuarían comolentes gravitatorias. En los años se-senta se publicaron numerosos tra-

bajos teóricos que se ocupaban deltema. Sjur Refsdal demostró que ladesviación de la luz permitía ob-tener el radio del universo.

La primera imagen doble

Pero hasta 1979 no pudo hallarseen el firmamento la primera

imagen doble. Le cupo el méritoa Dennis Walsh, de Manchester, yse trataba de un cuásar cuya luzera desviada por una galaxia si-tuada en el camino de sus rayos.El astrónomo británico se encon-tró que la luz del cuásar era muybrillante; pudo distinguir dos imá-genes del mismo. En los años sub-siguientes fueron observados másy más fenómenos de lente gravi-tatoria. Los primeros “arcos lumi-nosos gigantescos”, originados porla acción focalizadora de un cú-mulo de galaxias entero, y corres-pondientes a las imágenes extra-ordinariamente deformadas de variasgalaxias lejanas, fueron descubier-tos en 1986, por Roger Lynds, delObservatorio Astronómico OpticoNacional de Tucson, y por VahePetrosian, de la Universidad deStanford, así como también, inde-pendientemente, por un equipo li-derado por Geneviève Soucail, delObservatorio Midi-Pyrénées de Tou-louse. Hace unos meses, cuatroequipos observacionales distintoshan demostrado que la propia es-tructura a gran escala del universopuede estudiarse mediante el efectode lente gravitatoria.

Los efectos intensos de lente gra-vitatoria se observan en el cosmoscon escasa frecuencia. Sin embargo,son fáciles de detectar, en lo queafecta a objetos individuales, bajola forma de imágenes múltiples deun mismo objeto, de arcos de lon-gitud considerable o de anillos queaparecen en ciertas galaxias.

Harto más común es el efecto delente gravitatoria débil. Para su de-tección, los observadores del cos-mos deben investigar una gran can-tidad de objetos celestes y deducirdel análisis estadístico de los mis-mos la desviación de lente gravi-tatoria. Según la masa del objetoque actúa de lente gravitatoria, ode acuerdo con el tipo particularde efecto observado como defor-mación de las fuentes luminosas

JOACHIM WAMBSGANSS enseña fí-sica de astropartículas en la Univer-sidad de Potsdam. Su principal temade investigación es el efecto de len-te gravitatoria así como sus diversasaplicaciones. Trabaja, además, en cúmu-los de galaxias y en la búsqueda deplanetas extrasolares.

El autor

tada; más, si se encuentra en una región verde, ymucho más, en una roja. Si la fuente luminosa re-side en una línea amarilla, el efecto aumentativoresulta particularmente intenso. Los dominios que sehallan dentro de las líneas amarillas se reproducenvarias veces. Los pequeños cuadrados amarillos (ala derecha) señalan las posiciones de las lentes gra-vitatorias.

Page 10: Investigación y ciencia 304 - Enero 2002

del fondo, se deduce la naturalezadel fenómeno en cuestión.

Imágenes múltiples de cuása-res: Hasta hoy, los astrónomos hanpodido observar más de cincuentaejemplos de cuásares dobles, tri-ples y cuádruples. En muchos ca-sos, las separaciones entre imáge-nes corresponden a escasos segundosde arco; por eso, se precisa dis-poner de los mejores telescopiosexistentes para investigar tales fe-nómenos. De entrada hay que re-coger indicios claros de que se tratade una imagen múltiple de un mis-mo cuásar y no de un grupo realde tales objetos celestes. La dis-tancia a cada objeto —desviaciónhacia el rojo del espectro— debeser exactamente la misma. Luego,los propios espectros de los cuá-sares —sus huellas dactilares— hande coincidir con cabal precisión.La hipótesis de que se trata de unalente gravitatoria empieza a ser plausible cuando po-demos hallar, entre las imágenes del cuásar, una ga-laxia capaz de ejercer funciones de lente gravitato-ria; para ello, debe distar del observador menos queel cuásar. La prueba definitiva se obtiene cuando loscambios de luminosidad que sufre el cuásar con eltiempo se observan de idéntica forma y paralelamenteen todas las imágenes del mismo, aunque a vecescon un retardo temporal. Tales cuásares múltiples sonmuy raros y, por ello, muy difíciles de encontrar. Lalente es, en la mayoría de los casos, una galaxia.

Arcos luminosos gigantescos, arcos y arquitos:Cuando un cúmulo de galaxias entero, por acción dela masa combinada de las mismas, se convierte en ob-jeto focalizador, el ángulo de desviación puede decu-

plicar el correspondiente a una lentegaláctica; a menudo el efecto seproduce sobre varias galaxias leja-nas al mismo tiempo. En razón deello, aparecen arcos muy deforma-dos, que se denominan así, arcos,y muchos otros arcos ligeramentedeformes, los arquitos. Se ha regis-trado casi un centenar de cúmulosde galaxias en funciones de lentesgravitatorias. Con la ayuda de lasgalaxias lejanas deformadas segúnuna misma dirección tangencial, pue-de determinarse la masa del cúmuloy reconstruirse la distribución de lamisma. De este modo podemos es-tablecer, fuera de toda duda, que enel cúmulo hay una forma todavíadesconocida de materia que no bri-lla, a la que se denomina genéri-camente materia oscura.

Anillos de Einstein: Cuando unagalaxia que posee una distribuciónde masas con simetría esférica casi

perfecta, se sitúa por delante de otra galaxia más le-jana, aparece la imagen de la galaxia del fondo: unanillo de Einstein. Si se conocen las distancias a cadauna de ambas galaxias, podemos, a partir del diá-metro del anillo, determinar con suma precisión lamasa de la galaxia que actúa de lente. En situacio-nes normales, sin embargo, sólo podemos deducir lamasa total de una galaxia aproximadamente y trascomplicados cálculos: a partir de la luz emitida porsus estrellas y por el gas que la circunda. En cam-bio, el efecto de lente gravitatoria nos proporcionaun método mucho más elegante e importante para ladeterminación de dicha masa.

Efectos de microlente en cuásares: La actuaciónde una lente gravitatoria no es siempre tan evidentecomo en los ejemplos considerados hasta ahora. Cuandouna estrella engendra una imagen doble, ambas imá-genes se hallan tan juntas que ni siquiera con losmejores telescopios del mundo pueden apreciarse se-paradas. Sí podemos lograrlo cuando se trata de laimagen doble de un cuásar; para ello hemos de ser-virnos del efecto de variabilidad temporal de la lu-minosidad del cuásar. Así vemos que su luminosi-dad varía con el tiempo. El grado de la variación deintensidad luminosa depende de la magnitud (desco-nocida) del propio cuásar: si se trata de un cuásarbastante grande, su intensidad no aumenta mucho ysu luminosidad varía muy despacio, pero si es uncuásar menor sus variaciones de luminosidad resul-tan más detectables.

Efectos de microlente en estrellas: Gracias a mu-chas mediciones astronómicas de distinto tipo sabe-mos que la Vía Láctea y otras galaxias contienen ensus regiones exteriores abundante cantidad de mate-ria que no brilla. La naturaleza de esta materia os-

8 INVESTIGACIÓN Y CIENCIA, enero, 2002

5. EL CUASAR DOBLE HE1104-1805, descubierto por LutzWisotzki y fotografiado con el �Telescopio de Nueva Tec-nología� del Observatorio Europeo Austral de Chile (iz-quierda). Con la ayuda de técnicas de retoque de imáge-nes, desarrolladas por Frédéric Courbin y su grupo, podemosdetectar la imagen de una galaxia muy débil que se ha-lla entre las dos imágenes del cuásar y que es la queactúa como lente gravitatoria (derecha).

4. ESTA IMAGEN ANULAR de la ga-laxia del fondo B1938+666 se pro-duce porque la galaxia que actúa delente (en el centro) y la galaxia fuente(deformada hasta constituir el anillo)se hallan perfectamente alineadas unadetrás de la otra. Lindsay King y suequipo tomaron la fotografía con eltelescopio Hubble, en luz infrarroja.

Page 11: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 9

cura constituye una de las mayores incógnitas de laastrofísica actual. Nos dice la teoría que esta miste-riosa sustancia debe tener propiedades completamentedistintas de las que adornan a la materia ordinariaconstituida por partículas elementales.

En 1986, Bohdan Paczynski, de la Universidad dePrinceton, propuso que, con ayuda del efecto de mi-crolente, debería poder demostrarse si la materia os-cura de las regiones externas de nuestra Vía Láctease halla en forma de objetos compactos, los Machos(Objetos Masivos Compactos del Halo). Cuando unmacho se sitúa entre el observador y una estrella cer-cana —de la Gran Nube de Magallanes— entoncesesa estrella nos aparecerá con brillo intensificado deuna manera característica, que desaparecerá cuandoya no quede alineada con el macho en cuestión.

A principios de los noventa, varios equipos inter-nacionales de investigación —entre los que se en-cuentra un grupo americano-australiano (“Macho”), otrofrancés (“Eros”) y un tercero polaco-norteamericano(“Ogle”)— se pusieron a trabajar con este método enbusca de machos. En un intervalo de siete años sedescubrió una veintena de fenómenos de microlentede este tipo, producidos por machos, en estrellas dela Gran Nube de Magallanes. Las curvas de lumino-sidad podían haber sido causadas por objetos de unamasa de aproximadamente la mitad de la del Sol. Elnúmero total es, sin embargo, tan pequeño, que sólopueden explicar una fracción restringida de la mate-ria oscura existente en nuestra galaxia.

Los mismos equipos de observadores están bus-cando ahora en el centro de nuestra Vía Láctea fe-nómenos de microlente del tipo indicado. De mo-mento se han contado ya más de 500 curvas de

luminosidad apropiadas. En este caso no hay machosdetrás de la lente gravitatoria, sino otras estrellas or-dinarias, aunque de poca masa, situadas en el planode la Vía Láctea. El hecho de que aparezcan en nú-mero tan inesperado, por lo elevado, muestra hastaqué punto era incompleto nuestro conocimiento de laVía Láctea y refleja la ayuda que el efecto lentepuede ofrecernos para ahondar en la comprensión dela estructura de nuestra galaxia.

Se está aplicando un esfuerzo notable en la in-vestigación de efectos de lente colectivos causadospor cúmulos lejanos, con el fin de conocer la dis-tribución de materia a gran escala del universo. Puestoque la materia que ejerce de lente se halla muy dis-tribuida, no se espera en este caso ninguna multi-plicidad de imágenes espectacular. Si tenemos encuenta la amplia variedad de formas que presentanlas galaxias y la escasa deformación que sufren porla lente gravitatoria, entenderemos que el efecto nopermita individualizar una galaxia determinada, a di-ferencia de lo que ocurría con los arcos luminososgigantescos. Sólo cabe analizar la forma de un con-junto de muchos miles de galaxias muy lejanas y de-terminar deformaciones sistemáticas de la misma: to-das las galaxias deberían experimentar una pequeñadeformación parecida en una misma dirección.

Al ser tan nimio el efecto esperado, un proyectode esta naturaleza precisa, para su ejecución, de te-lescopios de muy amplio campo, de innumerables no-ches con óptimas condiciones de observación y deenormes dosis de arte en el análisis de los datos. Encualquier caso, hace escasos meses cuatro equiposinternacionales de investigadores —bajo la direcciónde David J. Bacon, de la Universidad de Cambridge,

TIEMPO

AM

PLIF

ICAC

ION

a

b

c

a

b

c

6. SIMULACION para mostrar efectos de microlente, pro-ducidos por el campo gravitatorio de una estrella sobre uncuásar lejano. Las líneas de contorno rojas correspondena posiciones en que se intensifica el efecto amplificador.

A partir de los movimientos del cuásar, la lente y el ob-servador, el cuásar se desplaza a lo largo de líneas rec-tas en el campo amplificador. A la derecha, amplificaciónobservada para tres ejemplos de variabilidad distintos.

Page 12: Investigación y ciencia 304 - Enero 2002

de Nick Kaiser, del Instituto deAstronomía de Hawai, de Ludewikvan Waerbecke, del Instituto Ca-nadiense de Astrofísica Teórica deToronto, y de David M. Wittman,de Lucent Technologies— han lo-grado observar este efecto de lentegravitatoria muy débil. La técnicapromete dilucidar en un próximofuturo cuál de los modelos cos-mológicos es el que mejor describenuestro universo.

Una de las cuestiones funda-mentales de la cosmología atañeal radio y edad del universo. Eluniverso se halla en expansión.Vale decir, cuanto más dista denosotros una galaxia, mayor es lavelocidad a la que se aleja. Estaconexión entre distancia y veloci-dad —cuyo factor de proporcio-nalidad, la “constante de Hubble”,

recibe el nombre del descubridorde la expansión del universo— seconoce sólo con cierta precisión.

El inverso de la constante deHubble nos ofrece el valor de laedad del universo, que, multipli-cada por la velocidad de la luz,nos da una longitud: la magnitudde su radio actual, aproximada-mente. Mas, pese a poder deter-minar la velocidad de una galaxiao cuásar con notable precisión, apartir del corrimiento de su luz ha-cia el rojo, su distancia de noso-tros resulta muy difícil de acotar.

Como ya había demostrado en1964 Sjur Refsdal, mucho antes deque se descubriera la primera lentegravitatoria, el efecto lente nos pro-porciona una posibilidad muy ele-gante de determinar una escala dedistancias cósmica dentro de nues-

tra colección de medidas de co-rrimientos hacia el rojo. Se tomapara ello un sistema formado pordos imágenes de lente gravitatoriade un cuásar muy lejano y se es-tablece la diferencia de tiemposque media entre las dos imágenes.

Expliquémoslo con mayor dete-nimiento. Cuando una galaxia ge-nera una imagen doble de un cuá-sar que se halla detrás de ella, losdos haces luminosos aparecen ados lados distintos, digamos iz-quierdo y derecho, de la lente gra-vitatoria. En general, ambos ca-minos luminosos difieren en sulongitud, lo que provoca que lasdos señales procedentes del cuásaralcancen la Tierra en tiempos dis-tintos. A esta diferencia de tiem-pos hay que añadir aún la gravi-tatoria, correspondiente a la teoríageneral de la relatividad: puestoque un haz pasa más cerca delcentro de la lente, y así queda ex-puesto a campos gravitatorios másintensos, la luz sufre un frenadomayor que en el caso del otro haz,que pasa más lejos del centro dela lente. Ambos efectos —el geo-métrico y el gravitatorio— son delmismo orden de magnitud.

A partir de la determinación dela diferencia temporal de los doshaces, puede deducirse la distanciaabsoluta que hay al cuásar. ¿Cómo?En un dispositivo observacional es-tático, sólo tiene sentido conside-rar magnitudes adimensionales, aquíla distancia angular y las varia-ciones relativas de luminosidad en-tre las imágenes, así como la dis-tribución de luminosidad relativaen la galaxia-lente. De ahí puedeobtenerse una distribución de ma-sas correspondiente al sistema lente,que reproduce todos los valores delas magnitudes observadas. Un mo-delo de lente gravitatoria de estetipo proporciona también la dife-rencia de tiempos entre los cami-nos luminosos relativa al tiempototal correspondiente a uno de losrecorridos.

Curvas de luminosidaddesplazadas en el tiempo

El modelo considerado no es, sinembargo, unívoco. Si se mul-

tiplica por dos, la escala absolutade distancias, magnitudes y masas

10 INVESTIGACIÓN Y CIENCIA, enero, 2002

TIEMPO

VAR

IAC

ION

DE

LA

LU

MIN

OS

IDA

D

Cuando un pla-neta de la

masa de Saturnogira en torno a suestrella a una dis-tancia aproximada-mente igual a la dela Tierra al Sol, segenera una distribu-ción de amplificacio-nes de tipo micro-lente que tienen elaspecto pre-sentado enla figura.Una estrellalejana quese muevapor detrás

del planeta es ampli-ficada por el efectogravitatorio de éstede manera distinta,al ir variando su posi-ción: de la zona enazul (amplificaciónpequeña), pasandopor la verde y la ama-rilla, hasta la roja(amplificación muyintensa). Las seis si-mulaciones corres-ponden a diferentes

distancias del planeta a suestrella central. El efecto delente gravitatoria de un pla-neta dura muy poco y es re-lativamente débil; noobstante, puede medirse.

Detección de un planeta

Los tres ejemplosrepresentados a laderecha corres-ponden a distintascurvas de lumino-sidad y muestranel comportamientode la luminosidada lo largo de lastres líneas negrasde los diagramasde la izquierda.

Page 13: Investigación y ciencia 304 - Enero 2002

de la galaxia-lente, el observador terrestre obtendráexactamente la misma imagen. De otra forma, unafotografía del sistema de lente gravitatoria no puededistinguir un caso del otro. Con todo, en el segundocaso se modifica el valor absoluto de la diferenciatemporal entre los dos caminos luminosos, que semultiplica por dos. Es decir: si se consigue deter-minar el valor absoluto de la diferencia de tiemposentre los dos caminos (y no sólo la diferencia rela-tiva al tiempo total), se podrá determinar el tiempototal del trayecto.

En el caso de una imagen doble de cuásar, el mo-delo predice que la diferencia de tiempos es de unacien mil millonésima parte del tiempo total del ca-mino. Basta, pues, con multiplicar la diferencia me-dida por cien mil millones —y por la velocidad dela luz— para obtener la distancia al cuásar. Si seconocen, además, los desplazamientos al rojo, y conellos las velocidades de recesión, de la lente y delcuásar, podremos establecer el valor de la constantede Hubble.

Ahora bien, la diferencia de tiempos en el reco-rrido de los rayos podemos medirla sólo si el cuá-sar lejano sufre variaciones patentes de su luminosi-dad con el tiempo. En ese caso nos es dado, mediantemediciones repetidas de las dos imágenes del cuá-sar, determinar los perfiles de ambas curvas de lu-minosidad y, con ello, el desplazamiento relativo dela señal. En la práctica eso no resulta nada fácil, porvarias razones. De ahí que se haya tardado casi veinteaños en fijar esta diferencia de tiempos. El valor parala constante de Hubble que se dedujo de esa primeramedición era, sin embargo, bastante impreciso toda-vía. Con posterioridad se han venido realizando nue-vos registros de diferencias temporales de recorridosluminosos para diversos sistemas de lentes gravita-torias. La tendencia de los resultados favorece un va-lor bastante bajo de la constante de Hubble, de unos65 kilómetros por segundo y megaparsec. Esto co-rresponde a una edad del universo elevada. A buenseguro, con este método de Refsdal de las lentes gra-vitatorias muy pronto podremos determinar el valor

INVESTIGACIÓN Y CIENCIA, enero, 2002 11

7. EN ESTA FOTOGRAFIA la lente gravi-tatoria la constituye el cúmulo de gala-xias amarillo �denominado por sus coor-denadas celestes 0024+1654� mientrasque los numerosos arcos azules a su al-rededor son imágenes muy deformadas deuna galaxia mucho más lejana y situadapor detrás del cúmulo.

Page 14: Investigación y ciencia 304 - Enero 2002

de la constante de Hubble cuya precisión sea, cuandomenos, la que se logra a través de otros procedi-mientos.

La materia oscura constituye probablemente la por-ción principal de la masa total del universo. Perono emite luz alguna. No sabemos, pues, casi nadaacerca de su naturaleza o de su distribución en elespacio. La mayoría de las mediciones astronómicas

se basan en la detección de la radiación electro-magnética que recibimos procedente de los objetoscósmicos; sin embargo, la materia oscura revela suexistencia sólo a través de la fuerza gravitatoria queejerce, en particular sobre los rayos de luz, des-viándolos.

Eso significa que el efecto de lente gravitatoriaconstituye una de las pocas oportunidades de que dis-ponemos para desentrañar el secreto de la materiaoscura. Mediante este método —combinado con aná-lisis de velocidades de las galaxias o de sus emi-siones de rayos X— ha sido posible, para el casode cúmulos de galaxias, determinar con cierta apro-ximación su masa total. Pero tal valor sobrepasa, conmucho, el valor que se obtiene para la masa totalcorrespondiente a estrellas que emiten luz, lo que esun indicio claro de que la diferencia de masas debeestar en forma de materia no luminosa. Ahora bien,partiendo de las ligeras deformaciones de las gala-xias más lejanas, se ha podido determinar la distri-bución de la materia oscura dentro de los cúmulosde galaxias; se sabe, además, que dicha materia seencuentra situada cerca de la materia luminosa. Pesea todo, no ha sido posible avanzar mucho en lo queconcierne a la naturaleza de dicha materia oscura.

Si existieran galaxias oscuras enteras —como enor-mes concentraciones de gas que se hubieran vistoprivadas de la posibilidad de agregarse para formarestrellas— o bien agujeros negros aislados con ma-sas correspondientes a una galaxia entera, deberíanhaberse detectado en la forma ya dicha de imágenesmúltiples de cuásares. Pero como resulta que cadavez que se ha detectado una imagen de cuásar múl-tiple se ha visto también que la lente gravitatoria erauna galaxia normal, se deduce que tales concentra-ciones de materia oscura o de agujeros negros su-permasivos no pueden existir más que, si acaso, enuna cifra exigua.

Si la materia oscura de las regiones externas denuestra Vía Láctea estuviera formada por machos, és-tos deberían haberse detectado en los numerosos epi-sodios de microlente, pero la cifra de los observa-dos es muy baja, señal de que los machos sólo puedenconstituir una parte pequeña de la materia oscura queexiste en la Vía Láctea.

Del análisis de las curvas de luz correspondientesa cuásares múltiples podrían inferirse, en principio,los machos de otras galaxias. Pero también en este

12 INVESTIGACIÓN Y CIENCIA, enero, 2002

8. UN PEQUEÑO OBJETO ESTELAR constituido en lentegravitatoria (punto blanco) y una estrella que se encuentraatrás se acercan en el cielo debido a su movimiento re-lativo. Al principio se percibe una imagen muy poco dis-torsionada de la situación, junto a una imagen suple-mentaria muy débil dentro de la lente. Cuando aumentala distancia angular entre la lente y la fuente, la se-gunda imagen gana en tamaño y luminosidad, mientrasque la primera se va deformando de manera apreciable.Por fin, se forma un anillo de Einstein, que aparece cuandola fuente se sitúa en alineación perfecta por detrás dela lente.

LUM

INO

SID

AD

VIS

UA

L

FECHAEne 96 Feb 96 Mar 96 Abr 96 May 96 Jun 96

Dic 94 Ene 95 Mar 95 Abr 95Feb 95

Las curvas de luminosidad de las dos imágenes del cuá-sar doble Q0957+561 (datos en rojo y en amarillo)

aparecen desplazadas en el tiempo 417±3 días. A partirde esta diferencia de tiempos —y de un modelo geomé-trico para la lente, con el que se convierte el cálculo dela diferencia de tiempos en tiempo total de los caminosluminosos—, nos es dado calcular la constante de Hub-ble, que nos ofrece una medida del tamaño y de la edaddel universo. Estos datos fueron tomados por TomislavKundic y su grupo.

Curvas de luminosidad desplazadas en el tiempocorrespondientes a un cuásar doble

a b

c d Anillo de Einstein

Lente

Movimientorelativode la estrella

Page 15: Investigación y ciencia 304 - Enero 2002

caso los escasísimos sucesos registrados rechazan laposibilidad de que la materia oscura se halle en esaforma. Y si bien es cierto que el efecto de lente gra-vitatoría no ha sido capaz hasta el momento de re-velar el secreto de la materia oscura, se está en ca-mino.

Detección de planetasparecidos a la Tierra

En la dirección del centro galáctico se han descu-bierto unos 500 sucesos de microlente, dijimos

antes. En ellos se presume que las lentes son estre-llas ordinarias. Si una de éstas tiene un planeta queda vueltas a su alrededor, puede ocurrir que aparez-can variaciones de ciclo corto de la luz amplificadade la estrella más lejana. Y aunque las variacionesde luminosidad provocadas por el planeta sean, lamayoría de las veces, de sólo un pequeño porcen-taje, pueden medirse. El equipo PLANET, dirigidopor Penny Sackett en Groningen, el MPS, capitanea-do por David Benett en Notre Dame, y MOA, diri-gido por Phil Yock en Auckland, utilizan este mé-todo en su búsqueda de planetas en otras estrellas.Pero hasta ahora ninguno de los hallazgos relatadosse ha visto libre de controversia. Se trata, a la pos-tre, de una cuestión de tiempo; nadie duda de quepodremos averiguar la existencia de planetas extra-solares por este método de las lentes gravitatorias.

Gracias al mismo, podrán descubrirse con telesco-pios terrestres planetas de una masa similar al quehabitamos. Los métodos de búsqueda restantes care-

cen de la sensibilidad necesaria. Lo que se explicapor la influencia del planeta sobre la posición y lavelocidad de la estrella central —efecto en el que sebasan la mayoría de los métodos—, casi impercep-tible para planetas de masa pequeña como la Tierra.Con el método de la microlente se nos permite, ade-más, detectar el incremento de luminosidad que untal planeta chico origina sobre la imagen de la es-trella lejana.

Finalmente, el efecto de lente ha de contribuir tam-bién a resolver la cuestión sobre la existencia y va-lor exacto de la “constante cosmológica”. En los añosveinte Einstein introdujo en sus ecuaciones ese con-cepto que necesitaba para describir un universo es-tático. Más tarde, cuando Edwin Hubble descubrió elfenómeno de la expansión del universo, Einstein re-visó su idea y suprimió la constante. Pero las prue-bas indiciarias de que ahora disponemos apuntan asu realidad.

La constante cosmológica, que actúa como una ex-pansión acelerada del universo, impide posiblementeun frenado de la expansión y el consiguiente colapsodel universo en un tiempo futuro. Su influencia pre-

INVESTIGACIÓN Y CIENCIA, enero, 2002 13

9. EL CUASAR CUADRUPLE Q2237+0305 se halla, en estafotografía del telescopio Hubble, en torno al centro deuna galaxia bastante cercana. A partir de las curvas deluminosidad de las cuatro imágenes de Q2237+0305, ob-tenidas en el transcurso de los tres últimos años �porPrzemek Wozniak y su grupo� se puede determinar lamasa de las microlentes, así como las dimensiones y elperfil de luminosidad del cuásar (derecha).

19

18

17

LUM

INO

SID

AD

VIS

UA

L

600 800 1000 1200 1400TIEMPO EN DIAS

Page 16: Investigación y ciencia 304 - Enero 2002

cisa depende del valor que tengaen la actualidad y de la densidadde materia del universo en su con-junto.

Y aquí es donde entra en juegoel efecto de lente gravitatoria. Dadoque la geometría y la velocidad deexpansión del universo dependendel valor exacto de la constantecosmológica, ésta influye sobre lafrecuencia de la aparición de imá-genes múltiples de cuásares —gene-radas por lentes gravitatorias— ysobre la distribución de distanciasentre las lentes gravitatorias. Losrecientes resultados de Emilio Fal-có, Chris Kochanek y José Mu-ñoz, del Centro Smithsoniano deAstrofísica de Harvard, en Cam-bridge (Massachusetts), proporcio-nan una cota superior sobre el va-lor posible de la constante,procedente del efecto de lente gra-vitatoria. Su conclusión es que sila constante cosmológica fuera ma-yor que tal valor, deberían haberseencontrado más imágenes múltiplesde cuásares. Este valor de la cons-tante cosmológica es de momentocompatible con otras determina-ciones basadas en la geometría deluniverso y que tienen en cuenta ladistribución de luminosidades delas supernovas.

El exiguo número de lentes gra-vitatorias encontrado favorece unvalor pequeño de la constante cos-mológica —que incluso podría sernula, atendiendo sólo a eso—, mien-tras que el método de las super-novas privilegia un valor mayor dedicha constante. Hay ahora en mar-cha varios proyectos de observa-ción de importantes porciones delcielo que habrán de ofrecernos nue-vas imágenes múltiples de cuása-res. Con ello mejorarán substan-cialmente los análisis de frecuenciade estos fenómenos de imágenesmúltiples de cuásares obtenidas conlentes gravitatorias, a la vez queaportarán una respuesta más ajus-tada sobre el valor preciso de laconstante cosmológica.

En apenas veinte años el efectode lente gravitatoria se ha con-vertido en un método crucial deinvestigación en astrofísica. A élse le deben resultados del máximointerés cosmológico; pensemos enlos relativos a la determinación dela constante de Hubble, la cons-

tante cosmológica, la búsqueda dela materia oscura, las medicionesde la masa total y de la distribu-ción de masas en los cúmulos degalaxias, así como los concernien-tes a la distribución de la estruc-tura a gran escala del universo. Unmétodo que se revela útil para lacomprensión del comportamientode los propios cuásares; merced almismo se obtienen perfiles de di-mensiones y de brillo de las re-giones más internas de los mis-mos. Sin olvidar que, con las nuevaslentes gravitatorias temporales, seha avanzado en el conocimiento dela formación de las galaxias y desu evolución posterior, de la es-tructura de la Vía Láctea. Con elefecto lente nos resulta posible me-dir desviaciones originadas por lagravedad en un dominio enormede escalas, en un rango de veintepotencias de diez, que va desdelas dimensiones de un planeta alde las mayores estructuras del uni-verso.

Para determinar las consecuen-cias del efecto los astrónomos dis-ponen de técnicas varias: fotogra-fías directas, espectros o seriestemporales. Se pueden emplear te-lescopios de muy diversas magni-tudes. Para encontrar desviacionesde los rayos correspondientes a to-das las zonas del espectro, se hanutilizado desde emisiones de radiode longitudes de onda muy largas,pasando por el infrarrojo, la luzvisible y la ultravioleta, hasta losrayos X de altísima frecuencia. Esagama representa más de 15 órde-nes de magnitud en la escala delongitudes de onda. El futuro delefecto de lente gravitatoria no hahecho más que empezar.

14 INVESTIGACIÓN Y CIENCIA, enero, 2002

LENTES GRAVITATORIAS. Edwin L. Tur-ner, en Investigación y Ciencia, nú-mero 144, págs. 14-21; septiembrede 1988.

GRAVITATIONAL LENSES. Peter Schnei-der, Jürgen Ehlers y Emilio E. Fal-có. Springer, 1992.

NÜTZLICHE ILLUSIONEN: ASTROPHYSIKMIT GRAVITATIONSLINSEN. JoachimWambsganss, en Physik in unsererZeit, n.o 3, pág. 100; 2000.

Bibliografía complementaria

Page 17: Investigación y ciencia 304 - Enero 2002
Page 18: Investigación y ciencia 304 - Enero 2002

Amediados de los años ochenta, cuando secobró conciencia de que un virus cruelproducía una nueva enfermedad, el sida,las estanterías de las farmacias estabanrepletas de medicamentos capaces de en-

frentarse a las infecciones bacterianas; para las enfer-medades víricas, sólo había unas cuantas vacunas. Perolas cosas han dado un vuelco radical. Contamos connumerosos tratamientos antivíricos, incluidas variasvacunas nuevas; muchos más se encuentran en víasde desarrollo. Si medio siglo atrás los antibióticosvivieron su edad de oro, se abre ahora una etapa deesplendor para los antivíricos.

Esta riqueza brota de varias fuentes. Los labora-torios farmacéuticos destacarían la adquisición de téc-nicas refinadas para descubrir todo tipo de medici-nas. Al propio tiempo, los esfuerzos empeñados enla búsqueda de terapias eficaces contra el sida hansugerido vías posibles de lucha no sólo contra elagente responsable de esta enfermedad, el VIH, sinocontra otros virus también.

Ha entrado con fuerza una disciplina quizá desco-nocida por el público, pero muy valiosa: la genó-mica vírica, que descifra la secuencia de “letras”, oácidos nucleicos, que componen el “texto” genéticode un virus, donde reside la clave para fabricar suspropias proteínas. A su vez, estas proteínas sirvende elementos estructurales y constituyentes operati-vos del virus y controlan su proceder. Con la se-cuencia completa del genoma, o incluso parcial delmismo, nos viene dada importante información sobrela infección vírica y sobre las etapas del proceso vul-nerables para el ataque médico. El genoma completode cualquier virus puede secuenciarse en días, lo quepermite observar con una rapidez sin precedentes suspuntos débiles.

La mayoría de los antivíricos aprobados están di-rigidos contra el VIH, los virus del herpes (respon-sables de patologías muy dispares, desde las moles-tias de un resfriado a una encefalitis) y los virus delas hepatitis B y C (ambos pueden causar cáncer dehígado). El VIH y estas formas de hepatitis segui-rán siendo, sin duda, objeto de atención preferentepor parte de la investigación durante algún tiempo;tomadas en su conjunto, estas enfermedades afectana millones de personas en todo el mundo. Los bió-logos, sin embargo, se afanan también en la luchacontra otras enfermedades víricas. Aunque no voy adetenerme en todos los tipos de fármacos antivíricos,espero ofrecer una idea de los avances extraordina-rios que debemos a la genómica y otras técnicas re-finadas.

En la lucha contra los virus disponemos ya de un buen

armamentario de medicinas eficaces y de otras en fase

de desarrollo. La investigación en genomas víricos

acelera el progreso

William A. Haseltine

16 INVESTIGACIÓN Y CIENCIA, enero, 2002

WILLIAM A. HASELTINE, doctor en biofísica por la Uni-versidad de Harvard, dirige la revista Journal of Regene-rative Medicine. Ha sido profesor en el Instituto Dana-Far-ber de Oncología, adscrito a la Universidad de Harvard. Ensu laboratorio se secuenció el genoma del virus del sida.

El autor

FARMACOSCONTRAVIRUS

Page 19: Investigación y ciencia 304 - Enero 2002
Page 20: Investigación y ciencia 304 - Enero 2002

18 INVESTIGACIÓN Y CIENCIA, enero, 2002

Búsqueda de fármacos

Los primeros fármacos antivíricos (contra el her-pes, sobre todo), aparecidos en los años sesenta,

surgieron de los métodos tradicionales empleados parael descubrimiento de nuevos medicamentos. Los vi-rus, de estructura elemental, constan de genes y qui-zás algunas enzimas (catalizadores biológicos) ence-rrados en una cápside proteica, a veces rodeada poruna envoltura lipídica. Semejante disposición requiereque los virus se repliquen en el interior de las célu-las. Por eso, los investigadores infectaban células, lascultivaban en un medio apropiado y exponían los cul-tivos a agentes químicos que inhibieran las activida-des víricas conocidas entonces. Aquellos agentes quí-micos que reducían la cantidad de virus en el cultivose reservaban para ensayos ulteriores. Pero ese enfo-que experimental, que procedía por aciertos y fraca-sos, aportaba escasa información sobre otras activida-des víricas dignas de ataque, con el bloqueo consiguientede otros empeños por desarrollar fármacos más efica-ces o menos lesivos en sus efectos secundarios.

Con la genómica se saltó esa barrera. Convertidaen trampolín para el descubrimiento de objetivos nue-vos en que centrar el ataque, ha abierto el caminopara el desarrollo de fármacos antivíricos muy di-versos. Con su ayuda se ha identificado la mayoríade los objetivos seleccionados en los virus desde losaños ochenta. (El término no se acuñó hasta finalesde ese decenio, bastante después de que se desarro-llaran algunos de los fármacos antivíricos hoy díadisponibles.)

Descifrada la secuencia del virus de interés, se co-teja con las ya identificadas en otros organismos, in-cluidos otros virus, para así averiguar su segmenta-ción en genes. Las ristras de nucleótidos de la secuenciaque se parezcan a genes conocidos en otros orga-nismos constituirán probablemente genes en el virusy darán lugar a proteínas con estructuras similares.Una vez localizados los genes de un virus, puedenabordarse las funciones de las proteínas correspon-dientes y construir así un mapa de los pasos mole-culares a través de los cuales el virus de interés seasienta y prospera en el organismo.

En ese mapa pueden aparecer resaltadas las pro-teínas —y los dominios en esas proteínas— que se-ría bueno inutilizar. En general, los investigadores

se inclinan por los objetivos cuya alteración minela actividad del virus. También optan por centrar suatención sobre dominios proteicos con escaso pare-cido con los del hombre, y evitar así un posibledaño en las células sanas y otros efectos secunda-rios intolerables. No desdeñan los dominios protei-cos que compartan básicamente todas las cepas im-portantes del virus, de suerte que el fármaco abarque,en su eficacia, el arco más amplio posible de lasvariantes víricas.

Supongamos que se ha identificado un objetivo ví-rico. Podemos entonces recurrir a varias técnicas paracrear el fármaco correspondiente, capaz de anularlo.Podemos apelar a la ingeniería genética estándar (in-troducida en los años setenta) para producir copias deuna proteína seleccionada y usarla después en el de-sarrollo de un fármaco. Se inserta el gen correspon-diente en bacterias u otros tipos de células, que sin-tetizan copias innúmeras de la proteína codificada. Lasmoléculas de proteína resultantes pueden constituir labase de pruebas de muestreo: sólo las moléculas quese unan a ellas recibirán una atención ulterior.

Podríamos seguir otra vía, la de analizar la es-tructura tridimensional de un dominio proteico y di-señar fármacos que se acoplaran de manera precisaa esa región; por ejemplo, construir un compuestoque inhibiera el centro activo de una enzima crucialpara la reproducción del virus. Y cabe también com-binar los métodos de muestreo antiguos con los másrecientes basados en la estructura.

De la aplicación de técnicas avanzadas en la in-dustria farmacéutica se han extraído ideas para de-sarmar al virus en cualquiera de las etapas de su ci-clo biológico. Aunque las estrategias reproductivasdifieren de forma sutil de una especie vírica a otra,en general las etapas de la replicación de los viruscomprenden la unión a las células del huésped, laliberación de los genes víricos en el interior de lascélulas, la replicación de todos los genes víricos ysus proteínas (con la ayuda de la maquinaria celularpara producir las propias proteínas), la agrupación delos componentes en hordas de partículas víricas y lamigración de éstas para comenzar un nuevo ciclo enotras células.

El momento ideal para atentar contra el virus esal comienzo de la infección, antes de que haya te-nido tiempo de diseminarse por el organismo y pro-vocar los primeros síntomas. Las vacunas actúan enese instante preciso, al estimular el sistema inmuni-tario para que destruya el agente patógeno en cuantose ha introducido en el organismo. A lo largo de suhistoria, las vacunas han ofrecido ese incentivo alinocular una versión debilitada o muerta del agenteinfeccioso, incapaz de alcanzar un número suficientede réplicas para causar la enfermedad. En las vacu-nas subunitarias hallan éstas su opción alternativamás frecuente. Contienen fragmentos del patógeno.Tales trozos, incapaces de producir la infección, pue-den inducir una respuesta inmunitaria protectora sise seleccionan cuidadosamente.

Para la hepatitis B se consiguió una primera va-cuna subunitaria tras aislar el virus del plasma san-

Resumen/Fármacos contra los virus■ Tras el desciframiento de las secuencias génicas, o ge-

nomas, del hombre y de numerosos virus, pueden per-geñarse fármacos contra el sida, hepatitis y gripe.

■ Una vez determinada la secuencia génica de un virus,se recurre al ordenador para comparar dicha secuenciacon la de otros virus. Tal cotejo de secuencias, propiode la genómica, permite identificar en el nuevo virus ge-nes que cifran moléculas dignas de considerarse obje-tivo de un nuevo fármaco.

■ Los virus tienen ciclos biológicos complejos, aunque vul-nerables al ataque medicamentoso en sus diferentesetapas.

Page 21: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 19

ASI OPERA UN VIRUS

1 UNIONEl virus se adhiere a la célula

2 FUSIONFusión entre las membranas del virusy de la célula

Envoltura

VIH

Proteínade la envoltura

Receptor CCR5para el VIH

Membrana celular

CELULAS T COADYUVANTES

3 DEGRADACIONDE LA CAPSIDELa cápside se rompe con laconsiguiente liberaciónde los genes y enzimas del virus

Transcriptasa inversa

Genoma ARN del VIH

ADN vírico

ADN celular

Integrasa

ADN víricointegrado

Nucleo

5 INTEGRACION DEL GENOMALa integrasa del virus agrega el ADNvírico al ADN celular

Integrasa

Proteasa

4 TRANSCRIPCION INVERSALa transcripción inversa del VIHcopia ARN vírico en ADN

6 REPLICACION DEL GENOMALa célula utiliza el ADN como moldepara reproducir el genoma ARNdel VIH

7 SINTESIS DE PROTEINASLa célula utiliza el ARN del VIHcomo molde para la síntesisde las proteínas víricas

Cadenade prote-ína na-ciente

Maquinaria de la célulapara la síntesis de proteínas

Proteasa

Proteínasvíricas

9 ENSAMBLAJEDEL VIRUSY DIFUSIONNuevas partículasvíricas escapan dela célula huésped

y migran parainfectar otras

células

Nuevapartículavírica

8 ESCISIONDE PROTEINASLa enzima proteasacorta la cadena de unaproteína larga en prote-ínas individuales

Copias del genomaARN del VIH

Receptor CD4para el VIH

Cápside

CICLO BIOLOGICO DEL VIH, descifrado con ayuda deanálisis genómicos. Presenta una complejidad insólitaen sus detalles, aunque todos los virus recorren losmismos pasos principales para infectar las células yreproducirse. Entran en una célula (se clavan en ellae inyectan en su interior todos los genes), copian ge-

nes y proteínas víricos (con la colaboración de losmecanismos y materias primas de la célula) y em-paquetan las copias nuevas en partículas víricas ca-paces de diseminarse e infectar otras células. Loscomponentes víricos implicados en cada uno de es-tos pasos pueden servir de objetivos para fármacos.

Page 22: Investigación y ciencia 304 - Enero 2002

guíneo de personas infectadas y purificar las proteí-nas deseadas. Hoy la vacuna subunitaria para la hepa-titis B se obtiene por ingeniería genética. Se utilizael gen de una proteína específica de la hepatitis Bpara fabricar copias puras de la proteína. Con laayuda de la genómica se desarrollan ahora vacunasadicionales para el dengue, el herpes genital y la fie-bre hemorrágica, a menudo mortal, causada por elvirus de Ebola.

En curso de investigación se encuentran tambiénvacunas para prevenir o tratar el sida. Pero los ge-nes de su agente, el VIH, mutan con suma rapidezy se diversifican en numerosas cepas víricas. Unavacuna que induzca una reacción contra ciertas ce-pas podría carecer de efecto contra otras. Al com-parar los genomas de diversas cepas de VIH, podrí-amos hallar secuencias compartidas por la mayoría yaplicar éstas a la síntesis de fragmentos proteicos ví-ricos puros, que, una vez obtenidos, podrían some-terse a prueba y ver si inducen protección inmuni-taria frente a las cepas existentes. Podrían diseñarse,asimismo, vacunas contra ciertas regiones de cepasprominentes.

Impedir la entrada

El tratamiento adquiere particular interés cuandono existe la vacuna idónea. Los antivíricos cu-

ran a algunos pacientes, si bien en su mayoría se li-mitan a reducir la gravedad o duración de la infec-ción vírica. Un grupo de estas terapias frena laactividad del virus al impedir la entrada en un de-terminado tipo celular.

Bajo el término “entrada” se amparan varios pa-sos, que comienzan con el anclaje del virus en unsitio de enlace, o receptor, de la célula huésped yterminan con la degradación de la cápside proteicaen el interior de la célula, donde se liberan los ge-nes del virus. La entrada de los virus que portan unaenvoltura complementaria requiere un paso más. An-tes de que se produzca la eliminación de la cápside,han de fundir la envoltura adicional con la mem-brana celular o con la membrana de la vesícula quelo introduzca en el interior de la célula.

Se trabaja en posibles fármacos inhibidores de laentrada del VIH en las células. El examen atento dela interacción entre VIH y su huésped favorito (leu-

20 INVESTIGACIÓN Y CIENCIA, enero, 2002

Fármacos antivíricosOfrecemos un listado de fármacos antivíricos comercializados. Muchos deben su existencia, al menos en parte, a la genómica.Otros 30 medicamentos víricos basados en el conocimiento de la genómica se encuentran ya en fase de prueba en humanos.

FARMACO PAPEL ESPECIFICO

INTERRUPTORES DEL GENOMA

BLOQUEADORES DE LA DIFUSION CELULAR DEL VIRUS

INTERRUPTORES DE LA SÍNTESIS DE PROTEINAS

ENFERMEDADES VIRICAS

abacavir, didanosina, estavudina,zalcitabina, zidovudina

Inibidores de la transcriptasa inversaanálogos de nucleósidos

Infección de VIH

aciclovir, ganciclovir, penciclovir Inhibidores de la enzima que duplica el ADNvírico análogos de nucleósidos

Infecciones de herpes; inflamación retinianacausada por citomegalovirus

cidofovir Inhibidores de la enzima que duplica el ADNvírico análogos de nucleósidos

Inflamación retiniana causadapor citomegalovirus

delavardina, efavirenz Inhibidores no nucleosídicos y no nucleotídicosde la transcriptasa inversa

Inhibición del VIH

lamivudina Inhibidor de la enzima transcriptasa inversaanálogo de nucleósido

Infecciones de VIH y hepatitis B

ribavirina Nucleósido sintético que induce mutacionesen genes víricos

Infecciones de hepatitis C

amprenavir, indivnavir, lopinavir,nelfinavir, ritonavir, saquinavir

Inhibidores de la proteasa del VIH Infección de VIH

fomivirsen Molécula antisentido que bloquea la traduccióndel ARN vírico

Infección retiniana causada por citomegalovirus

interferón alfa Activador de las defensas inmunitarias intracelula-res que bloquean la síntesis de proteínas del virus

Infecciones de hepatitis B y C

palivizumab Anticuerpo monoclonal humanizado que marcaal virus para su destrucción

Infección respiratoria sincitial

oseltamivir, zanamivir Inhibidores de la liberación del virus Gripe

Page 23: Investigación y ciencia 304 - Enero 2002

cocitos de la sangre, las llamadas células T coadyu-vantes) nos indica que el virus ancla las moléculasCD4 y CCR5 en dichas células. Aunque el bloqueode CD4 no ha conseguido evitar que el VIH pene-tre en las células, el bloqueo del CCR5 podría con-seguirlo.

De los cuatro antigripales iniciales, la amantidinay la rimantidina interrumpen otras partes del procesode entrada. Los farmacólogos hallaron los compues-tos al realizar un muestreo de productos químicoscon capacidad potencial para bloquear la replicacióndel virus; más tarde se demostró que inhibirían lafusión y el desprendimiento de la cápside. Con ayudade la información genómica se buscan también inhi-bidores de la fusión para el virus respiratorio sinci-tial (agente de complicaciones pulmonares en niñosprematuros), los de la hepatitis B y C, y VIH.

Muchos resfriados podrán pronto controlarse conotro bloqueador de la entrada, el pleconaril. Las com-paraciones genómicas y estructurales han demostradoque muchas cepas comparten cierto bolsillo de la su-perficie de los rinovirus (responsables de la mayoríade los resfriados). El pleconaril se acopla a este bol-sillo e inhibe la eliminación de la cápside vírica. Porlo que parece, el fármaco en cuestión actúa ademáscontra los enterovirus, que causan diarrea, meningi-tis, conjuntivitis y encefalitis.

Copia y replicación

Numerosos antivíricos comercializados, y otros enestudio, operan en la fase ulterior al desprendi-

miento de la cápside, cuando el genoma vírico, seade ADN o de ARN, se libera para copiar y dirigir lasíntesis de proteínas víricas. Varios de los agentes queinhiben la replicación del genoma remedan a nucleó-sidos o nucleótidos. Las enzimas que copian el ADNo el ARN incorporan tales análogos en las hebras na-cientes. Y son precisamente esas imitaciones las queimpiden que las enzimas añadan nuevos bloques a lacadena; se aborta así la replicación del virus.

El aciclovir, el primer fármaco antivírico de pro-bada eficacia y escasa toxicidad, constituye un aná-logo nucleosídico. Se descubrió tras un muestreo decompuestos seleccionados por su capacidad obstruc-tiva de la replicación del virus del herpes simple.Se prescribe para el herpes genital; moléculas conél emparentadas se indican contra otras infeccionesherpéticas, como el zoster causado por la varicela yla inflamación de la retina que produce el citome-galovirus.

El primer fármaco aprobado para su uso contra elVIH, la zidovudina (AZT), es otro análogo nucleo-sídico. Ideado como anticancerígeno, pronto se ad-virtió que obstruía la actividad de la transcriptasainversa, una enzima que el VIH utiliza para copiaren ADN su genoma de ARN. Si este paso se rea-liza con éxito, otras enzimas del VIH unen el ADNen los cromosomas de la célula invadida, y allí elADN integrado dirigirá la reproducción del virus.

El AZT puede acarrear efectos secundarios graves;anemia, por ejemplo. No obstante, la investigación

sobre la secuencia del gen de la enzima de la trans-criptasa inversa ha permitido sintetizar otros análogosnucleosídicos menos tóxicos. De éstos, la lamivudinaha recibido aprobación oficial para la hepatitis B,que aplica la transcriptasa inversa para convertir co-pias de ARN obtenidas del ADN genómico en nuevoADN. Tras rigurosos análisis de la transcriptasa in-versa del VIH se han logrado versiones mejoradasde una clase de inhibidores de dicha enzima que nomimetizan a los nucleósidos.

La genómica ha puesto al descubierto nuevas po-sibilidades, objetivos potenciales contra los cuales in-tervenir para suspender la replicación del VIH. Ci-temos la ARNasa H, una parte de la transcriptasainversa que separa, del ARN, el ADN recién acu-ñado; también, el centro activo de la integrasa, unaenzima que agrega el ADN sintetizado al ADN cro-mosómico de la célula infectada. En voluntarios in-fectados por el VIH se está sometiendo a prueba uninhibidor de la integrasa.

Inhibición de la síntesis de proteínas

Todos los virus tienen, en algún momento de suciclo biológico, que transcribir genes en hileras

de ARN mensajero. La célula huésped las “traduce”en síntesis de proteínas. Se trabaja en diversos fár-macos destinados a entorpecer la etapa de la trans-cripción: se pretende que eviten la unión entre losfactores de transcripción y ADN vírico, de la queresulta la producción de ARN mensajero.

La genómica ha contribuido a identificar los obje-tivos de muchos de estos agentes. Además, ha pro-movido la confección de un nuevo tipo de fármaco:la molécula antisentido. Si la genómica demuestra

INVESTIGACIÓN Y CIENCIA, enero, 2002 21

LA ESTRUCTURA DE LA PROTEASA DEL VIH (cintas azulesy verdes) muestra su unión con lopinavir, parte de Kaletra,un fármaco antisida. Estos inhibidores de la proteasa evitanque el virus forme nuevas proteínas por escisión de una ca-dena que las contiene.

Page 24: Investigación y ciencia 304 - Enero 2002

que se requiere una determinada proteína para un vi-rus, los farmacólogos pueden detener su síntesis re-cubriendo parte del molde de ARN con un fragmentode ADN diseñado a propósito y que se una firme-mente a la secuencia de ARN seleccionada. Se dis-pensa ya un medicamento antisentido, el fomivirsen,para tratar las infecciones oculares producidas por elcitomegalovirus en sidosos. Y hay en vías de desarro-llo agentes antisentido dirigidos contra otras enfer-medades víricas; uno de ellos bloquea la producciónde la proteína Tat del VIH, que éste necesita parala transcripción de otros genes del virus.

Se parte del genoma vírico para identificar los pun-tos del ARN por donde las ribozimas puedan cortar.(Las ribozimas son formas enzimáticas de ARN.) Estáen fase de prueba una ribozima en pacientes con he-patitis C; y, menos avanzados, estudios de ribozimascontra el VIH. Algunos de estos proyectos recurrena la terapia génica, en virtud de la cual se introdu-cen genes especialmente diseñados en células queluego producirán las ribozimas. Otros tipos de tera-pia génica en relación con el VIH van encaminadosa la producción de anticuerpos que buscan objetivosen las células infectadas, así como proteínas que seencadenan a secuencias génicas del virus en el inte-rior celular.

Dentro de la célula algunos virus producen unacadena proteica que debe seccionarse para obtenerproteínas funcionales. El VIH es uno de estos vi-rus; una proteasa, la enzima que lleva a cabo esoscortes. Cuando en el curso de la investigación so-bre el VIH se advirtió la presencia de esta activi-dad, los farmacólogos sumaron la proteasa a sus ob-jetivos potenciales. Así, a finales de los años noventaaparecieron los primeros inhibidores potentes de laproteasa gracias a la ayuda de un estudio estructu-ral exhaustivo por ordenador. Aunque los inhibido-res disponibles pueden causar efectos secundariosperturbadores (acumulación de grasa en zonas in-debidas), prolongan la salud general y la vida enmuchos enfermos, si se toman en combinación conotros fármacos antivíricos contra el VIH. Una nuevageneración de inhibidores de la proteasa está enmarcha.

Bloqueo de la migración vírica

Aun cuando genomas y proteínas víricos se re-produzcan en el interior celular, carecerán de

eficacia patógena mientras no formen nuevas partí-culas víricas, dotadas de potencia suficiente para es-capar de la célula y emigrar hacia otras. El zanami-vir y el oseltamivir, indicados contra la gripe, intervienenen esa fase. Desde hace tiempo se sabe que la neu-raminidasa, molécula que aparece en la superficie delos dos tipos principales de gripe (A y B), facilita lahuida de las partículas víricas de las células que lasproducen. Por comparación genómica se descubrió lasimilaridad del sitio activo de la neuraminidasa entrelas diversas cepas gripales; por investigación estruc-tural se llegó a la creación de fármacos eficaces con-tra dicho centro. Los demás medicamentos antigripa-les actúan contra el tipo A.

Reforzando la respuesta inmunitaria del paciente seevita también la migración celular de los virus. Unasrespuestas son generales; ocurre tal cuando los fár-macos frenan la propagación de distintas clases deinvasores, en vez de concentrarse sobre un patógenodeterminado. Los interferones, por ejemplo, que par-ticipan en esa batalla inmunitaria, inhiben la síntesisproteica y otros aspectos de la replicación vírica enlas células infectadas. En concreto, el interferón alfaconstituye un elemento importante de la terapia con-tra las hepatitis B y C. (En el caso de la hepatitisC se indica junto con ribavirina, un fármaco más an-tiguo.) Se investigan otros interferones.

Entre las respuestas inmunitarias específicas men-cionaremos la producción de anticuerpos estándar,que reconocen fragmentos de una proteína de la su-perficie del virus invasor, se enlazan con la prote-ína y señalizan el virus para su ulterior destrucciónpor otros componentes del sistema inmunitario. Encuanto se dispone de la secuencia génica que cifrala proteína de superficie del virus, pueden crearseanticuerpos puros, monoclonales, contra determinadasregiones del polipéptido en cuestión. Se expende yaen botica un anticuerpo monoclonal para prevenir elvirus sincitial respiratorio en niños expuestos a la in-

22 INVESTIGACIÓN Y CIENCIA, enero, 2002

Fármacos antivíricosPresentamos algunos virus importantes desde el punto de vistamédico cuyos genomas se han secuenciado. El grupo dirigidopor Frederick Sanger, de la Universidad de Cambridge,determinó la secuencia de ADN del primer genoma vírico—de un virus que infecta bacterias— en 1977.

Poliovirus humano Poliomielitis

AÑO DE SUSECUEN-CIACIONENFERMEDADVIRUS

1981

Virus de la gripe A Gripe 1981

Virus de la hepatitis B Hepatitis B 1984

Rinovirus humano tipo 14 Resfriado común 1984

VIH-1 Sida 1985

Papilomavirus humano tipo 16 Cáncer del cuello de útero 1985

Virus del dengue tipo 1 Dengue 1987

Virus de la hepatitis A Hepatitis A 1987

Virus del herpes simple tipo 1 Herpes labiales 1988

Virus de la hepatitis C Hepatitis C 1990

Citomegalovirus Infecciones retinianasen pacientes de sida

1991

Virus de la varicela Varicela 1992

Virus de Ebola Fiebre hemorrágica de Ebola 1993

Virus respiratorio sincitial Infecciones respiratoriasde la infancia

1996

Virus paragripal 3 Infecciones respiratoriasde la infancia

1998

Page 25: Investigación y ciencia 304 - Enero 2002

fección; se está ensayando otro enpacientes que sufren hepatitis B.

A través de la comparación en-tre genomas víricos y humanos seha sugerido una nueva estrategiaantivírica. Numerosos virus fabri-can proteínas que parecen molécu-las implicadas en la respuesta in-munitaria. Algunas de tales versionesvíricas desarman las defensas y sal-van de la destrucción al virus. Losfármacos dirigidos contra esas pro-teínas miméticas que facilitan lahuida podrían restablecer la inte-gridad de las respuestas inmunita-rias y acelerar la recuperación delorganismo que sufre infecciones ví-ricas. Se están investigando posi-bles agentes sanadores.

Virus resistentes

La búsqueda de fármacos an-tivíricos se ha convertido en

una guerra sin cuartel. Los farma-cólogos han de enfrentarse con laposibilidad de que los virus desa-rrollen resistencia o insensibilidada muchos de los medicamentos, es-pecialmente cuando se administrandurante períodos prolongados, comoocurre en el sida y en bastantescasos de hepatitis B y C, enfer-medades crónicas. Cada medicinaprescrita hoy contra el VIH en-cuentra alguna cepa resistente; amenudo esa misma cepa es resis-tente a otros fármacos. Tal resis-tencia surge de la tendencia de losvirus —en particular de los virusARN, sobre todo el VIH— a mu-tar muy deprisa. Si una mutacióncapacita a la cepa para vencer al-gún obstáculo que impide su re-producción (un fármaco, por ejem-plo), esa variante vírica prosperarápese a la barrera interpuesta.

Para mantener a raya la resis-tencia hasta que se encuentrenvacunas eficaces, habrá que idearnuevos fármacos. Cuando surjanmutantes resistentes a un medica-mento, la lectura del texto gené-tico puede revelar el lugar del ge-noma del virus donde se haproducido la mutación y sugerir elmodo en que esa mutación socavala interacción entre la proteína delvirus afectada y el fármaco. A tra-vés de tal información el farma-cólogo proseguirá la búsqueda denuevas estructuras medicamento-

sas u otros medios encaminados amantener la eficacia de la medi-cina a pesar de la mutación.

Se investiga en fármacos nuevosbasados en la capacidad para com-batir cepas resistentes a otros me-dicamentos. Recientemente, los la-boratorios DuPont optaron por elDPC 083, un nuevo inhibidor, nonucleosídico, de la transcriptasa in-versa, para el desarrollo de fár-macos encaminados a vencer la re-sistencia a otros inhibidores. Losinvestigadores examinaron las mu-taciones del gen de la transcrip-tasa inversa que causaba la resis-tencia. Después estudiaron modeloscon el ordenador para crear com-puestos potenciales que inhibieranla enzima transcriptasa inversa, pesea las mutaciones. Recurrieron luegoa la ingeniería genética para pro-ducir virus que sintetizaran las en-zimas mutadas, y seleccionaron elcompuesto más adecuado para li-mitar la reproducción de aquellosvirus. El fármaco se encuentra ahoraen fase de prueba y evaluación enenfermos de sida.

Quizá tardemos algún tiempo an-tes de que todas las infecciones ví-ricas graves puedan prevenirse convacunas o tratarse eficazmente conun fármaco. Pero la secuenciaciónreciente del genoma humano, aun-que provisional, ha de permitirnosdescubrir un grupo nuevo de pro-teínas que estimulen la producciónde anticuerpos antivíricos o que po-tencien otras partes del sistema in-munitario contra los virus.

INVESTIGACIÓN Y CIENCIA, enero, 2002 23

STRATEGIES FOR ANTIVIRAL DRUG DIS-COVERY. Philip S. Jones en AntiviralChemistry and Chemotherapy, vol. 9,n.o 4, págs. 283-302; julio de 1998.

NEW TECHNOLOGIES FOR MAKING VAC-CINES. Ronald W. Ellis en Vaccine,vol. 17, n.o 13-14, págs. 1596-1604;26 de marzo de 1999.

PROTEIN DESIGN OF AN HIV-1 ENTRYINHIBITOR. Michael J. Root, Mi-chael S. Kay y Peter S. Kim enScience, vol. 291, n.o 5505, págs.884-888; 2 de febrero de 2001.

ANTIVIRAL CHEMOTHERAPY: GENERALOVERVIEW. Jack M. Bernstein, WrightState University School of Medicine,Division of Infectious Diseases, 2000.

Bibliografía complementaria

Page 26: Investigación y ciencia 304 - Enero 2002

1. EN LAS CLASES NUMEROSAS es fácil que los alum-nos interrumpan o se distraigan. Está muy difundida laopinión de que son responsables del retraso escolar.

Page 27: Investigación y ciencia 304 - Enero 2002

La educación constituye la vía más segurapara lograr una vida mejor en todos losaspectos que realmente importan: intelec-tual, social, económico e incluso en elplano físico. Es una de las columnas que

sostienen la sociedad moderna y objeto de debatessin cuento, a menudo apasionados, sobre la forma demejorarla.

Estos debates se acaloraron en Estados Unidoscuando se supo que los alumnos de secundaria ob-tienen resultados pobres en comparación con muchosde sus homólogos europeos o asiáticos. La noticiacoincidió con la preocupación que suscitan los cen-tros de enseñanza sitos en áreas urbanas o en ve-cindarios periféricos de baja renta per cápita, de loscuales son demasiados los que languidecen en ren-dimientos muy inferiores a los de las escuelas de co-munidades residenciales de clase media o media-alta.

De todas las ideas para mejorar la educación, po-cas tan sencillas o atractivas como la reducción delnúmero de alumnos por docente. A diferencia de otrasmedidas propuestas para la reforma, como las basa-das en evaluación del profesorado, en las llamadasescuelas chárter o en los cheques escolares, la ideade reducir el número de alumnos por grupo rara vezsuscita grandes voces en contrario, ni es tenida por

augurio de cambios estructurales. La evaluación delos docentes suscita, por lo general, las iras de sussindicatos. Las escuelas chárter o los cheques esco-lares entrañan asignaciones económicas cuyo destinofinal es otra escuela; la administración educativa yalgunos legisladores se oponen a tales propuestas por-que su financiación se hace, de ordinario, a costa delos presupuestos de escuelas locales que tratan de sa-lir a flote.

La reducción del número de alumnos por grupo re-sulta atractiva por su simplicidad y por la inexis-tencia de oposición vigorosa. En los Estados Unidosse ha convertido de un asunto primordialmente aca-démico en un imponente problema político. Más de 20estados, amén del gobierno federal, han adoptado yapolíticas tendentes a tal reducción, y en los últimosaños han invertido o comprometido en ella miles demillones de dólares. El clamor en petición de clasesmenos numerosas está resonando también en Canadá,Australia, en el Reino Unido e incluso en Japón, cu-yos resultados en enseñanza secundaria son la envi-dia de la mayoría de otros países desarrollados.

La disminución del número de alumnos tiene uninconveniente obvio: no es barata. Exige más do-centes, y posiblemente, más aulas, con su corres-pondiente equipamiento. El coste de otros planes,

INVESTIGACIÓN Y CIENCIA, enero, 2002 25

La importanciadel número

de alumnosLa reducción del número de alumnos por clase es onerosa.

¿Justifican el gasto los resultados?

Ronald G. Ehrenberg, Dominic J. Brewer, Adam Gamoran y J. Douglas Willms

Page 28: Investigación y ciencia 304 - Enero 2002

26 INVESTIGACIÓN Y CIENCIA, enero, 2002

como la evaluación del profeso-rado o la elevación de sus sala-rios para atraer a la docencia acandidatos mejor preparados, re-sulta diminuto en comparación conéste. El estado de California, porejemplo, ha estado dedicando anual-mente más de 1500 millones dedólares durante los últimos ejerci-cios, con el fin de rebajar el nú-mero de alumnos por clase, hastaun máximo de 20 en los nivelesde Preescolar hasta Tercer Grado.

Por otra parte, si la reducciónde alumnos fuese realmente eficaz,el fruto económico a largo plazopodría ser enorme. Los beneficiosllegarían no sólo de una fuerza la-boral mejor preparada, sino tam-bién por otras causas, como la re-ducción en gastos médicos o enbajas laborales de una poblaciónmás sana y mejor informada.

La ola de interés por la reduc-ción del “módulo escolar” ha sidoacicate para nuevos análisis del es-

tudio más amplio y concluyenteefectuado hasta la fecha, que tuvolugar en Tennessee durante la se-gunda mitad del decenio de losochenta. Al mismo tiempo, estánfluyendo nuevos datos tomados deotras iniciativas, entre ellas, el pro-grama de California y, a menor es-cala, el de Wisconsin. Estos re-sultados y análisis están por finofreciendo respuestas, siquiera pro-visionales, a las preguntas previasa toda acción política educativa yeconómicamente sensata: ¿Mejorarealmente el rendimiento escolar alreducir el número de alumnos poraula? De ser así, ¿en qué cursoso niveles se obtiene el máximo be-neficio? ¿Qué clases de alumnosresultan más beneficiadas? Y lomás importante de todo: ¿Cuántoes el beneficio?

¿Por qué grupos reducidosde alumnos?

Los educadores ofrecen múlti-ples explicaciones de por qué

sería de esperar que mejorase elrendimiento académico al ser losgrupos menos numerosos, pero, amenudo, sus ideas son de carácteranecdótico. Un menor número dealumnos por clase parece tradu-cirse en menos ruido y menos com-portamientos perturbadores, lo queproporciona al docente no sólo mástiempo para trabajar en clase, sinotambién mayor libertad para quelos alumnos se dediquen a activi-dades creativas, por ejemplo, dis-tribuyéndolos en grupos para rea-lizar proyectos específicos. Y alser menos los alumnos, es más fá-cil que el docente preste atenciónpersonalizada a los alumnos condificultades.

Asimismo, en un grupo reducidoel profesor tiene mayores posibi-

lidades de suscitar debates, de asig-nar más tareas escritas y corregirlos trabajos escritos de los alum-nos. Dicho de otro modo, muchasde las ventajas que puedan ofre-cer los grupos reducidos dependende que los docentes adapten susmétodos para aprovechar esa re-ducción. Por último, algunos ana-listas opinan que, con grupos me-nores, es más probable que losalumnos de los primeros nivelesdesarrollen buenos hábitos de es-tudio, una mejor opinión de sí mis-mos y, posiblemente, otros rasgoscognitivos beneficiosos, que po-drían muy bien perdurar duranteaños, incluso después de que losalumnos se hayan integrado en cla-ses de tamaño normal. Sin em-bargo, todas estas ideas son engran medida de carácter especula-tivo, porque apenas se han reali-zado investigaciones dirigidas a de-terminar con precisión los modosen que los grupos reducidos po-drían beneficiar a los niños.

Una de las vías por las que losinvestigadores han tratado de ana-lizar los efectos dimanantes delnúmero de alumnos por grupo esla revisión de los datos existen-tes, como los registros que con-serva el Departamento de Educa-ción de EE.UU. Estos registrospermiten ver que, entre 1969 y1997, el número medio de alum-nos por docente en las escuelaselementales estadounidenses, sindistinción entre públicas y priva-das, descendió desde 25,1 hasta18,3, una reducción de más del27 por ciento. También decayó enlas escuelas secundarias desde19,7 hasta 14,0.

¿Qué cambios experimentó el ren-dimiento académico mientras esta-ban produciéndose tan abruptos des-censos en la ratio alumnos/profesor?No gran cosa. Los datos tomadosde la Evaluación Nacional de Pro-greso en Educación (una serie depruebas que constituyen el únicoindicador de los conocimientos delos alumnos en lectura, matemáti-cas, ciencias y otras materias, quese efectúa en todos los EE.UU.)no parecen indicar mejorías im-portantes ni sistemáticas. En cier-tos apartados de edades y de ma-terias, caso de los alumnos de 17años y en ciencias, los datos in-

RONALD G. EHRENBERG, DOMI-NIC J. BREWER, ADAM GAMO-RAN y J. DOUGLAS WILLMS soncoautores de un trabajo de revisiónde los estudios que relacionan el nú-mero de alumnos por grupo y el ren-dimiento escolar. Ehrenberg es cate-drático de relaciones laborales eindustriales y economía en la Uni-versidad de Cornell; Brewer, espe-cialista en los aspectos económicosde la enseñanza, dirige Rand Educa-tion, que analiza los programas y po-líticas sobre aspectos educativos; Ga-moran, antiguo becario Fulbright, enseñasociología y política educativa en laUniversidad de Wisconsin en Madi-son; Willms es profesor y director delInstituto Canadiense de Investigaciónde Política Social en la Universidadde Nueva Brunswick.

Los autores

Resumen/Número de alumnos por clase■ En Estados Unidos, Australia, Canadá y otros países, los órganos

legislativos han dedicado miles de millones de dólares a reducir elnúmero de alumnos por clase en las escuelas primarias.

■ Han sido centenares los estudios que han examinado si elrendimiento académico mejora realmente al reducir el número dealumnos. Pero muy pocos han llegado a resultados incontrovertibles.

■ La excepción ha sido el Proyecto STAR. De acuerdo con el mismo,las clases reducidas resultan especialmente favorables para alumnosprocedentes de minorías en los niveles escolares iniciales.

Page 29: Investigación y ciencia 304 - Enero 2002

dican que el rendimiento dismi-nuyó ligeramente.

Lo que muestran los datos

¿Demuestran estos hallazgosque el número de alumnos

por grupo es irrelevante? No ne-cesariamente. Por diversas razones,la mayor parte de los investigado-res (nosotros entre ellos) prestanpoca atención a esas cifras. Las es-cuelas, por ejemplo, se esfuerzanen lograr bastante más que califi-caciones altas; por lo general, pro-curan también mantener bajas lastasas de abandono. En efecto, latasa de abandonos en el intervalode edades de 16 a 24 años cayóen dicho período del 15 al 11 porciento. Dado que los abandonossuelen afectar al extremo inferiorde la distribución de calificaciones,es de esperar que el descenso en

la tasa de abandonos tire haciaabajo de las calificaciones mediasen los grados superiores.

Otro de los motivos para no te-ner muy en cuenta tales datos con-cierne directamente a la esencia delas dificultades de este campo deestudio: resulta difícil aislar losefectos del número de alumnos dela miríada de otros elementos queinfluyen en el rendimiento escolar.Lo ideal sería que todos los alum-nos procedieran de familias de eco-nomías holgadas, cuyos padres fue-sen angloparlantes y poseyeran unaeducación superior, amén de par-

ticipar activamente en la educacióny escolarización de sus hijos. Losdocentes, por su parte, deberían sertodos personas dotadas de grancreatividad e imaginación, impues-tos en sus materias. Las escuelas,obviamente, deberían ser lugaresbien dotados, con bibliotecas, or-denadores y otros recursos.

La realidad estadounidense esque en 1995 tan sólo el 68 porciento de los escolares procedíade familias biparentales, frente al85 por ciento de 1970. La frac-ción de niños que tienen dificul-tades para expresarse en inglés se

INVESTIGACIÓN Y CIENCIA, enero, 2002 27

2. LA ATENCION INDIVIDUALIZADA debería ser mayor al disminuir el númerode alumnos. Los investigadores sospechan que los beneficios de las clasespoco numerosas dimanan de esta mayor atención, del menor número de per-turbaciones y de la posibilidad de que los maestros apliquen métodos di-dácticos que no suelen ser eficaces en grupos grandes, como los debates ola asignación de tareas escritas.

Page 30: Investigación y ciencia 304 - Enero 2002

elevó desde el 2,9 por ciento de1979 hasta el 5,1 por ciento de1995. Y el porcentaje de niños queviven en la pobreza se incrementótambién desde el 14,9 de 1970hasta el 20,2 por ciento en 1995.Hay, por supuesto, buenas noti-cias: en ese mismo período la me-diana del nivel de educación delos padres se elevó un poquito, ylo mismo el de los docentes, cuyamedia de años de experiencia tam-bién subió.

El saldo final es que los cam-bios demográficos hacen muy di-fícil depurar los efectos de ladisminución de las ratio alumno/profesor. Experimentos bien dise-ñados tratan de neutralizar la in-fluencia de estos otros factores,asignando aleatoriamente alumnosy profesores a grupos de distintostamaños y tomando muestras gran-des. A lo largo de los últimos 35años, han sido centenares los es-tudios y análisis de los datos exis-tentes (como las estadísticas delDepartamento de Educación) quese han centrado en el número dealumnos por clase. La mayoría en-contraron indicios de que una clasemás reducida es beneficiosa paralos estudiantes, particularmente enlos cursos iniciales, y, sobre todo,

para los alumnos con riesgo dequedar rezagados. Lamentablemente,el diseño estadístico de muchos deestos estudios solía ser deficiente.Las asignaciones de alumnos y pro-fesores rara vez eran aleatorias;cierto número de estudios fueronde duración demasiado breve, o lamuestra, demasiado pequeña; muypocos tuvieron una evaluación in-dependiente.

La excepción a destacar fue elestudio de Tennessee antes men-cionado. Frederick Mosteller, es-tadístico de la Universidad de Har-vard, lo ha calificado de “uno delos mayores experimentos en edu-cación de la historia de los Esta-dos Unidos”. El estudio, más co-nocido por Proyecto STAR (siglade Student-Teacher AchievementRatio, ratio de resultados alumno-profesor), fue un programa de de-mostración con patrocinio estatal,con un coste de 12 millones dedólares. Los niños que llegaban apreescolar eran asignados aleato-riamente a uno de tres tipos degrupos: un grupo pequeño, de 13a 17 alumnos, un grupo de tamañonormal, de 22 a 26, o un grupode tamaño normal que contaba conun docente y un auxiliar con de-dicación plena.

Los niños permanecían en la ca-tegoría a la que habían sido ads-critos hasta el final del tercer grado(a una edad de 9-10 años), tras locual ingresaban en una clase nor-mal de cuarto grado. Para asegu-rarse de que la calidad de la en-señanza no fuera distinta, losdocentes fueron asignados al azara grupos reducidos y normales. Losprofesores que recibieron forma-ción especial para trabajar con gru-pos reducidos eran pocos; tampocose introdujeron materiales curricu-lares nuevos.

Durante el primer año partici-paron unas 70 escuelas y 46 dis-tritos, siendo asignados 1900 ni-ños a 128 grupos reducidos, 2300estudiantes a 101 grupos ordina-rios y 2200 a 99 grupos de ta-maño normal con auxiliar. Cuatroaños después, al final del estudio,la plantilla total de alumnos par-ticipantes se había incrementadodesde 6400 hasta 12.000.

STAR

Tras la conclusión del estudio,en 1989, los investigadores

efectuaron docenas de análisis delos datos. Entre los escasos pun-tos en que estuvieron de acuerdo

28 INVESTIGACIÓN Y CIENCIA, enero, 2002

Adaptabilidad del docenteLa idea subyacente bajo la propuesta de grupos redu-

cidos es que en ellos son mínimas las interrupciones.Conceden también libertad al docente para la atención in-dividual y para una metodología menos rutinaria; por ejem-plo, para hacer que los estudiantes trabajen en peque-ños grupos. Así pues, cuando no existen problemasimportantes de disciplina, sería de esperar que las posi-bles ganancias obtenidas al reducir el número de alum-nos sean consecuencia de que la maestra recurra a mé-todos que saquen provecho del menor número de alumnos.

Pero repetidos estudios han encontrado que los do-centes raramente ajustan su estilo de enseñanza al ta-maño de la clase. De hecho, los datos obtenidos en elproyecto STAR de Tennessee, el mejor de los estudiosrealizados hasta la fecha sobre clases reducidas, hacenver lo difícil que es que los docentes cambien sus mé-todos: ni siquiera un curso veraniego de reciclaje profe-sional indujo a los participantes a modificar la forma detrabajar con grupos pequeños. Parece, además, que loseducadores dedican la misma cantidad total de tiempo ala instrucción individual en las clases grandes que en laspequeñas. Cuando el número de alumnos es menor, cadauno recibe una mayor porción de ese tiempo, pero elaumento apenas es suficiente para explicar diferenciassignificativas en el rendimiento escolar.

Si los docentes trabajan más o menos de igual modoen los grupos grandes y en los pequeños, ¿a qué se

deben los beneficios de las clases reducidas que se ob-servan en estudios experimentales, como STAR? Una ex-plicación verosímil es que los maestros que han instau-rado de forma natural métodos más adecuados a gruposreducidos —aquellos a quienes les gustaba dividir a laclase en pequeños grupos, que desarrollan relacionespersonales con los alumnos y que cargan el acento enproyectos llevados a la práctica por los alumnos— ob-tienen muy buenos resultados cuando les son adscritosgrupos reducidos. Sus buenos resultados elevan el pro-medio, al que probablemente contribuye también el me-nor número de problemas de disciplina.

Esta interpretación es coherente con los hallazgos deque las ganancias más sustanciales en rendimiento es-colar se registran en los primeros estadios del nivel ele-mental; no se acumulan a partir del primero o segundogrados. Son los docentes de preescolar y de primer gradoquienes más se valen del trabajo en pequeños grupos,en manualidades y en la relación personal con los ni-ños.

Para confirmar tales supuestos, los investigadores ten-drían que estudiar las relaciones entre número de alum-nos por clase, las actividades de instrucción y los re-sultados académicos correspondientes a los distintoscursos. Es sorprendente que nadie lo haya abordado, ha-bida cuenta de lo muy útil que tal información le seríaa la administración educativa para decidir dónde y cómo

Page 31: Investigación y ciencia 304 - Enero 2002

los analistas uno fue que los auxi-liares no tenían influencia. Las in-vestigaciones discrepan sobre eltiempo que han de permanecer losalumnos en grupos reducidos paraobtener beneficios, sobre la mag-nitud de tal beneficio o sobre cuándoresulta apreciable. Con otras pala-bras, los resultados recopilados nohan fructificado en consenso sobrelas cuestiones que importan a loslegisladores.

Jeremy Finn, de la Universidadde Nueva York en Buffalo, y Char-les M. Achilles, de la Oriental deMichigan, encontraron en su revi-sión “toda una serie de beneficiosde las clases reducidas”. Finn calcu-ló que los alumnos de grupos re-ducidos superaban a sus homólo-gos de los grupos ordinarios en laquinta parte de una desviación es-tándar, y que este considerableavance en su rendimiento solía ma-nifestarse ya en el primer grado.Mejor todavía: tal ventaja parecíapersistir en los grados elementalessuperiores, incluso después de quelos alumnos hubieran regresado agrupos más numerosos.

¿Cuánta diferencia supone unquinto de una desviación típica?Imagine el lector a dos niños depreescolar, cada uno tan “prome-dio” como sea posible, estadísti-camente hablando. Ambos se ha-llan en el percentil 50, lo quesignifica que la mitad de los de-más alumnos tiene rendimientos su-periores al de estos dos, y que laotra mitad los tiene inferiores. Pon-gamos a uno de ellos en un gruporeducido y dejemos al otro en ungrupo normal. Al cabo de un año,

el alumno del grupo reducido esta-rá en el percentil 58 o, si se quiere,este niño está obteniendo resulta-dos mejores que casi el 60 porciento de sus iguales, mientras queel otro niño seguirá superando sóloal 50 por ciento.

Finn y Achilles encontraron tam-bién que el efecto era más acu-sado en el caso de alumnos de mi-norías sociales, en un factor entre2 y 3. Es decir, los niños negroso hispanoamericanos mejoraronentre dos y tres quintos de unadesviación típica, un hallazgo im-portante para la política educativa,porque los niños de minorías ét-nicas puntúan en ciertas pruebasestandarizadas alrededor de unadesviación típica menos que los ni-ños no procedentes de tales mi-norías.

Varios analistas, en particularEric Hanushek, del Instituto Hoo-ver de la Universidad Stanford, cri-tican al programa STAR y a al-gunas de las conclusiones clavealcanzadas por sus proponentes.Hanushek concede que los alum-nos pueden obtener un beneficioinicial de su adscripción a gruposreducidos. Pero —opone— los da-tos de STAR no sirven para de-mostrar que las ganancias persis-ten durante años, una vez que elalumno ha regresado a grupos detamaño normal. Si un niño siguetodavía progresando años después,resulta difícil saber cuánto de esebuen rendimiento es fruto de otrosfactores, como un hogar en el quereciba apoyo y le dé confianza.

Hanushek también está en desa-cuerdo con un análisis que indica

que los beneficios que reportan losgrupos pequeños son acumulativos;es decir, que los estudiantes quepermanecen en grupos pequeñosdurante varios años amplifican cursotras curso su superior rendimientocon respecto a sus iguales de gru-pos más numerosos. Cuando estu-dió las ganancias de alumnos STARque permanecieron durante cuatroaños en grupos reducidos (desdesu entrada en preescolar hasta sa-lir de tercer grado), no encontróque las ganancias fueran mayoresque las de los inscritos en prees-colar.

Hanushek y otros han demos-trado igualmente que, durante elestudio, demasiados niños fuerontransferidos desde los grupos nor-males a los reducidos, probable-mente porque la administración dela escuela cedió ante la presiónde los padres. Y Hanushek ase-gura que STAR no realizó com-probaciones suficientes que ase-guraran una buena aleatorizaciónde las asignaciones de profesoresy estudiantes. Sus objeciones soncorrectas, pero no minan la com-probación de un beneficio estadís-ticamente significativo al pertene-cer a un grupo de 13 a 17 alumnosen lugar de a otro de, por ejem-plo, 23 alumnos.

Dos planteamientos:California y Wisconsin

Los legisladores se enfrentanahora al problema de acertar

con una política educativa juiciosa,basada en interpretaciones pruden-tes de los resultados de STAR y

INVESTIGACIÓN Y CIENCIA, enero, 2002 29

ESTUDIOS DE REFERENCIA SOBRE EL NUMERO DE ALUMNOSProyecto Estado Fechas Tipo de

programaAlumnosparticipantes

Costoaproximado

Alumnospor clase

Hallazgos principales

STAR Tennessee 1985 a1989

Experimentodemostrativo

Aproximadamente,10.000

12 millonesde dólares

13 a 17 Mejora significativa en el rendi-miento de 0,2 de la desviacióntípica; ganancias mayores enalumnos de minorías

Reduccióndel númerode alumnos

California 1996 hastael presente

Aplicadoen todo el estado

1,8 millones 5000 millonesde dólares

Menosde 20

Pequeña ganancia en el rendi-miento, entre 0,05 y 0,1 de la des-viación típica; no hay ganaciasmayores en las minorías

SAGE Wisconsin 1996 hastael presente

Proyectopiloto

64.000 103 millonesde dólares

12 a 15 Ventaja significativa en el rendi-miento de 0,2 de la desviacióntípica; ganancias mayores enalumnos de minorías

Page 32: Investigación y ciencia 304 - Enero 2002

de otros estudios. Desafortunada-mente, el más importante de losprogramas públicos hasta el mo-mento, el multimillonario plan deCalifornia, iniciado en 1996, des-taca más como modelo de lo queno se debe hacer que como ini-ciativa digna de emulación. En di-cho estado se pretende reducir elnúmero de alumnos desde prees-colar hasta el tercer grado, lle-vándolo desde un máximo de 33hasta un máximo de 20 tanto enlos distritos pobres como en losacomodados, pese a la escasez dedocentes cualificados, más agudaen las áreas de ingresos bajos. Estametodología universal, políticamenteconveniente quizás, en realidad pa-rece que ha exacerbado la dispa-ridad de los recursos de que dis-ponen las escuelas públicas ricasy pobres de California.

Nada sorprendentemente, el pro-grama suscitó una mayor demandade maestros en casi todos los dis-tritos de California. Los distritos

de mayores recursos, que ofrecíanmejores salarios, se hicieron conlos docentes acreditados, buen nú-mero de ellos venidos de los dis-tritos más pobres, distritos que es-taban ya padeciendo dificultadespara reclutar y conservar a bue-nos maestros. Estos distritos, ensu mayoría urbanos, acabaron te-niendo que arreglarse con personalpoco experimentado y sin título.A mayores, los distritos urbanos,en crecimiento rápido, carecían deespacio donde construir nuevos cen-tros, y algunos de ellos no pudie-ron rebajar el módulo hasta 20alumnos, condición necesaria parasolicitar financiación del estado deCalifornia.

La experiencia de California noha llevado a conclusiones clarasacerca de si el número de alum-nos influye sobre el rendimientoescolar. No hubo aleatorización, niexistía inicialmente un sistema es-tatal de ensayos, ni se establecie-ron procedimientos de evaluación.

Sin embargo, varios investigadoresque han examinado los resultadosde los primeros años han llegadoa algunas conclusiones sobre losestudiantes de tercer grado, los úni-cos para los que se dispone de da-tos estatales de calificaciones. Losevaluadores descubrieron una su-perioridad muy pequeña, aunqueestadísticamente significativa, enlectura, redacción y matemáticasen las clases reducidas a 20 alum-nos o menos, con respecto a lasclases de más de 20. En contrastecon los hallazgos de STAR, el di-minuto efecto no parecía variarpara alumnos de distintas etnias oextracción social.

El estudio sobre garantías deaprovechamiento escolar, SAGE,realizado en Wisconsin, tambiéncomenzó en 1996 y abarcó un pe-ríodo de cinco años. Fue un estu-dio a pequeña escala —sólo se re-dujo en 14 escuelas el número dealumnos por clase— pero digno deatención, porque se centró en es-

30 INVESTIGACIÓN Y CIENCIA, enero, 2002

LA PARADOJA ASIATICA: Clases numerosas, altas calificaciones

Un estudio tras otro sitúa a los niños japoneses ya los de otros países asiáticos entre los mejores

del mundo, sobre todo en ciertas pruebas estandari-zadas de matemáticas y de ciencias. Mientras, losalumnos de secundaria de los EE.UU. han ido desli-zándose hasta quedar por debajo de los de Grecia yLituania en matemáticas superiores y en física.

Y sin embargo, en Asia, las clases son numerosas.Cuarenta alumnos por profesores lo normal. En contraste, lasclases elementales de los EE.UU.cuentan, según el Departamentode Educación de ese país, con24 alumnos por término medio.

¿Por qué obtienen tan bue-nos resultados los estudiantesasiáticos en clases tan nume-rosas? Tomemos el caso de Ja-pón, donde reina en las aulasuna disciplina legendaria. Tal ri-gor no viene impuesto por pro-fesores temibles, según Cathe-rine Lewis, experta en el sistema educativo japonése investigadora en el colegio universitario Mills. Antesbien, los estudiantes tienen a honra ser elegidos paraexplicar las lecciones, y se encargan por turno de lla-mar la atención de la clase, experimentando de pri-mera mano las dificultades de apaciguar a un gruporevoltoso. Así, los maestros controlan la clase ba-sándose en “la fuerza acumulada y general de la re-flexión de cada uno, en lugar de recurrir a premios ycastigos”, explica Lewis.

También ocurre que los maestros y los estudiantesjaponeses pasan mucho más tiempo juntos —el cursoescolar dura unos 40 días más que en EE.UU.— ymás tiempo estableciendo lazos mutuos, en festivalesescolares y en excursiones y salidas al campo. Sehace un énfasis extraordinario en que la clase, elgrupo y la escuela sean para los niños entidades consignificado.

La eficacia japonesa está sus-tentada también por algo queno tiene: la diversidad étnica ylingüística. Finalmente, es mu-cho menos probable que se di-vorcien unos padres asiáticosque unos norteamericanos, y esmucho más probable que parti-cipen activamente en la educa-ción de sus hijos.

Hay, desde luego, un aspectomenos favorable en el sistemaasiático: las rígidas normas na-cionales no favorecen la crea-

tividad. Y en Japón, algunos niños se esfuerzan mu-cho en sobresalir debido, en parte, a un prematurotemor a suspender.

Dadas las profundas diferencias culturales, no estáclaro qué partes de la fórmula asiática podrían fun-cionar en Norteamérica. Pero la experiencia asiáticasí hace ver lo que se puede lograr cuando la disci-plina va de abajo arriba.

—Glenn Zorpette

Page 33: Investigación y ciencia 304 - Enero 2002

cuelas donde al menos el 30 porciento de los alumnos se hallabanpor debajo del nivel de pobreza,a diferencia de la metodología ca-liforniana de “aspirina para todos”.El estudio redujo el número mediode alumnos por clase desde pre-escolar hasta tercer grado de 22,42a 13,47.

Los analistas han comparado hastaahora a niños de primer grado deescuelas SAGE con alumnos de pri-mer grado de un grupo de escue-las que atienden a poblaciones desimilares ingresos familiares, nivelde estudios y composición racial.Los resultados de los dos prime-ros años son concordantes con losde STAR: los niños de primer gradode SAGE lograron mejoras esta-dísticamente significativas y consi-derablemente mayores que las cal-culadas en la iniciativa californiana.

¿Hay opcionesmás económicas?

Estudios como los STAR y SAGEhan hecho difícil sostener que

la reducción del número de alum-nos por clase no repercute en losresultados. Por otra parte, la ini-ciativa de California ha hecho verque la estrategia, aplicada con es-casa reflexión previa y dudosa in-teligencia, puede consumir milesde millones de dólares y, al me-nos a corto plazo, producir sólobeneficios minúsculos e inclusopérdidas.

Es necesario considerar otras op-ciones. El escaso trabajo que seha realizado sobre la competenciade los docentes sugiere que losalumnos obtienen mejores resulta-dos con profesores que tengan ma-yor destreza oratoria y, en el ni-vel secundario, más profundosconocimientos de su materia. Sor-prendentemente, empero, ocurre amenudo que, en la selección de as-pirantes a puestos docentes, los res-ponsables de los distritos escola-res no eligen a los candidatos demás sólida formación, sino que seinclinan por docentes que residancerca de la escuela, graduados encentros universitarios de la locali-dad y diestros en llevar las clases.

En principio, al contratar perso-nal, nada costaría hacer hincapiéen su aptitud y dominio de su ma-

teria, si bien para lograr que sededicasen a la docencia candida-tos de elevada competencia seríanecesario ofrecer salarios más al-tos. Nadie, hasta ahora, ha estu-diado los costos relativos de atraera un profesorado más capacitadofrente a los que entraña la reduc-ción del número de alumnos.

Tanto los legisladores como laadministración necesitan una infor-

mación mucho más fiable sobre loscostos relativos de otras opciones,antes de que les sea posible tomardecisiones sensatas de política edu-cativa. Esperemos que la obtenganantes de que dediquen más milesde millones a reducir el alumnadopor clase, y antes de que millonesde niños queden cubiertos por po-líticas universales, tal vez menoseficaces de lo que podrían ser.

INVESTIGACIÓN Y CIENCIA, enero, 2002 31

3. CUARTOS TRASTEROS y otros locales pueden tener que convertirse en aulaspara dar acomodo al mayor número de grupos que resulta de hacerlos másreducidos. En muchos distritos deberán construirse instalaciones nuevas, conaltos costos. Los autores instan a la administración a considerar otros mé-todos de mejora de la enseñanza, como la contratación de profesores de grandestreza en la comunicación y excelente preparación en sus materias.

STANDARDS FOR OUR SCHOOLS. Mark S. Tucker y Judy Codding. Jossey-Bass,1998.

RESEARCH: SIZING UP SMALL CLASSES. Linda Jacobson en Education Week on theWeb; 28 de febrero, 2001.

CLASS SIZE AND STUDENT ACHIEVEMENT. Ronald G. Ehrenberg, Dominic J. Bre-wer, Adam Gamoran y J. Douglas Willms en Psychological Science in the Pu-blic Interest, vol. 2, no. 2, págs. 1-30 de mayo de 2001.

Bibliografía complementaria

Page 34: Investigación y ciencia 304 - Enero 2002

32 INVESTIGACIÓN Y CIENCIA, enero, 2002

Richard S. Lindzen —asesor del Senado, delCongreso y del gabinete presidencial— des-punta con voz propia en el debate sobre el

calentamiento global. Ha recibido diversos galardo-nes, es miembro de la Academia Nacional de lasCiencias, ocupa la cátedra Alfred P. Sloan de meteo-rología en el Instituto de Tecnología de Massachusettsy no se arredra en poner en duda que las activida-des humanas supongan una amenaza para el clima.Desafiante y ácido, Lindzen no soporta la superfi-cialidad.

Fumando un cigarrillo tras otro como para ponermás énfasis en su charla, me explica que nunca tu-vo la intención de hablar abiertamente sobre elcambio climático. Todo comenzó en el tórrido ve-rano de 1988. En las sesiones de una comisión par-lamentaria, James E. Hansen, físico del Instituto

Goddard para Estudios Espaciales de la NASA, hizopúblicas sus opiniones: que los científicos sabían,“con un alto grado de confianza”, que la actividadhumana, por ejemplo el consumo de combustiblesfósiles, estaba calentando el planeta. Lindzen sequedó indignado con las noticias que salieron en laprensa. “Pensaba que era importante —recuerda—dejar claro que la ciencia estaba en una etapa pre-matura y primitiva, que había poco espacio para elconsenso y muchas razones para el escepticismo.”Lo que creía que serían un par de meses en el can-delero se convirtió en más de un decenio de es-cepticismo climático. “Sentía una obligación moral—rememora sobre esos primeros días—, aunque aho-ra es más una cuestión de la etiqueta que me hancolocado.”

Puede que sólo sea una etiqueta, pero Lindzen lalleva con brío. Su ataque en todos los frentes abarcalos modelos informáticos, la física de la atmósfera yla investigación sobre el clima del pasado. Sus pun-tos de vista aparecen en una persistente sucesión deintervenciones ante comisiones parlamentarias, ar-tículos de opinión en la prensa y conferencias di-vulgadoras. Hace meses dio unas lecciones introduc-torias sobre el cambio climático al gabinete delpresidente Bush.

Resulta difícil desenmarañar la diferencia de pos-turas entre Lindzen y los demás científicos porquepone en tela de juicio gran parte de lo que éstosaceptan como probado. Cuestiona las conclusionesdel informe que el Panel Intergubernamental sobre elCambio Climático (IPCC) publicó la primavera pa-sada, que muchos consideran el juicio científico de-finitivo sobre el cambio climático, y las de un re-ciente informe de la Academia Nacional de Cienciasque pasaba revista al trabajo de la mencionada co-misión. Lindzen era el autor principal de un capítulodel informe del IPCC y uno de los autores del in-forme de la Academia Nacional de Ciencias. Perosegún él, los científicos eximios del país (quienes,dice, están de acuerdo con él) prefieren no adentrarseen las arenas movedizas del cambio climático. TomM. L. Wigley, un destacado experto en clima delCentro Nacional de Investigación Atmosférica, replicaque es “a todas luces incorrecto” que los científicosde valía guarden silencio. Los mejores del mundo,observa, han contribuido al informe del IPCC.

Lindzen está de acuerdo con el IPCC y la mayo-ría de los científicos que estudian el clima en queel planeta se ha calentado unos 0,5 grados Celsiusdurante los últimos 100 años aproximadamente. Concedeque las actividades humanas han incrementado la can-tidad de dióxido de carbono en la atmósfera en un

PERFILESDaniel Grossman

RICHARD S. LINDZEN: la falacia del calentamiento global

Page 35: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 33

30 por ciento. Pero disiente de los otros cuando setrata de vincular ambos hechos. No es que los sereshumanos no produzcan ningún efecto sobre el clima.“Sí que lo producen”, admite, aunque el influjo so-bre el medio ambiente es el mismo que el de “unamariposa que bate sus alas”.

El informe del IPCC asegura que “la mayor partedel calentamiento observado durante los últimos 50años” es de origen humano. Sostiene que las tem-peraturas de finales del siglo XX se dispararon porencima de lo que la Tierra haya experimentado enlos últimos 1000 años. Michael E. Mann, geólogo dela Universidad de Virginia y uno de los autores delcapítulo sobre el clima en la antigüedad del informedel IPCC, califica el pico de “cambio inexplicablecon la variabilidad natural”. Lindzen rechaza esteanálisis poniendo en tela de juicio el método paradeterminar las temperaturas de épocas pasadas. En loconcerniente a los primeros 600 años de los 1000que hablamos, arguye, los investigadores únicamentese han servido de los anillos de los árboles para ob-tener la temperatura, y recogidos sólo en cuatro lu-gares diferentes. Afirma que el método utilizado paradeducir la temperatura a partir de los anillos de losárboles presenta fallos irremediables.

Mann se encendió cuando le pregunté sobre lascríticas de Lindzen, que calificó de “tonterías” y de“bazofia”. Un examen detenido del informe mismodel IPCC muestra, por ejemplo, que los árboles nofueron la única fuente de datos: los testigos de hielotambién ayudaron a reconstruir las temperaturas delos primeros 600 años. Y se tomaron muestras deárboles en 34 lugares independientes de una docenade regiones diferentes repartidas por todo el mundo,no en cuatro.

El clima de la antigüedad no es el único punto dedivergencia. Lindzen también dice que no hay razo-nes para preocuparse por el futuro. La clave de suoptimismo reside en un parámetro llamado “sensibi-lidad climática”. Esta variable representa el incre-mento esperado en la temperatura global si la can-tidad de dióxido de carbono en el aire duplicara ala que había antes de la era industrial, un nivel delcual ya hemos alcanzado casi la tercera parte. Mientrasque el IPCC y la Academia Nacional de Cienciascalculan que la sensibilidad climática está entre unos1,5 y 4,5 grados C, Lindzen insiste en que se mueveen torno al orden de 0,4 grados.

El IPCC y la Academia Nacional de Ciencias ob-tuvieron valores más altos porque consideraron me-canismos de realimentación positivos. Así, una tem-peratura más elevada seguramente hará encoger elmanto de hielo y nieve que recubre parte de la Tierra,lo cual a su vez ocasiona que el planeta sea menosreflectante, con lo que se acelera el calentamiento,a la vez que probablemente incremente la evapora-

ción del agua. De hecho, el vapor de agua es el prin-cipal absorbente de calor en la atmósfera.

Pero Lindzen declaró el pasado mes de mayo antela comisión de comercio del senado estadounidenseque esas realimentaciones positivas “carecen de fun-damento teórico y empírico”. El mecanismo de rea-limentación imperante, aduce, es negativo y no po-sitivo. Postula que el calentamiento en realidadvuelve más secas ciertas zonas de la atmósfera su-perior. Una menor cantidad de vapor de agua ate-nuaría a su vez el calentamiento. Hansen, delGoddard, dice que al invocar esta posibilidad Lind-zen “ha contribuido notablemente a la discusión so-bre el clima”. Aunque se apresura a añadir: “Estoyconvencido de que su crítica principal, a saber, quelos modelos climáticos exageran la sensibilidad cli-mática, es errónea.”

En marzo, Lindzen publicó lo que califica de “qui-zás el más importante” de los artículos que ha es-crito sobre realimentación negativa del vapor de agua.En él concluye que el calentamiento haría decrecerla cobertura de nubes en la zona tropical. La co-bertura de nubes es un tema complicado. En fun-ción de factores que cambian de un momento a otro,las nubes pueden enfriar (reflejando la luz del Solhacia el espacio) o calentar (atrapando el calor dela Tierra). En opinión de Lindzen, una reducción enla nubosidad tropical produciría un notable efectoglobal refrescante y actuaría como realimentación ne-gativa estabilizante.

Pero tres equipos de investigación afirman que elartículo de Lindzen comete errores. En particular, suinvestigación está basada en datos recogidos de lasimágenes de las nubes tropicales tomadas por saté-lite. Bruce A. Wielicki, del Centro de InvestigaciónLangley de la NASA, cree que las imágenes no sonrepresentativas de toda la zona tropical. Utilizandodatos de un satélite diferente, Wielicki y su grupoconcluyen que el resultado final de que las nubes delos trópicos estén más calientes supondría un ligerocalentamiento, y no un enfriamiento.

Mirando retrospectivamente el camino recorrido porla ciencia climática durante el pasado decenio, mu-chos investigadores dicen que los modelos informá-ticos han mejorado, las estimaciones del clima de laantigüedad son más precisas y el conocimiento se vaasentando sobre bases firmes. No anda Lindzen tanseguro. Para sus adentros piensa que el caso del ca-lentamiento global está tan verde como cuando co-menzó su cruzada, en 1988. La investigación sobreel clima, insiste, está “contaminada por la retóricapolítica, mientras las pruebas esgrimidas son extre-madamente endebles”.

La nubosidad sobre los trópicos podría reducir elcalentamiento global... o incrementarlo

Page 36: Investigación y ciencia 304 - Enero 2002

El cólera y El Niño

Bangladesh como ejemplo

La propagación de las epidemiasde cólera y la influencia que

el fenómeno del ENSO (El Niño-Oscilación del Sur) en particulary el clima en general tienen enaquéllas, viene siendo desde hacetiempo objeto de debate científico.

En los dos últimos siglos se hanproducido siete grandes pandemias.Bajo la postrera, iniciada en 1961,nos hallamos todavía. Sólo en laprimera mitad del siglo XX, el có-lera se cobró más de 780.000 vi-das. Se suponía que la tempera-tura del agua y la pluviosidad endeterminadas zonas de los océanosPacífico e Indico (en conexión conEl Niño) intervenían en la diná-mica de la enfermedad. Pero nohabía pruebas concluyentes que pu-dieran hacer pensar en la validez

de dichas hipótesis. Por dinámicade la enfermedad se entienden lospatrones estacionales y su modu-lación multianual, no estacionaria.

El estudio de los archivos delantiguo Imperio Británico relativosa Bangladesh y la India revela va-riaciones en el momento del ini-cio de una epidemia, que puedenoscilar entre unos meses y un año.Existen, además, grandes diver-gencias entre los patrones de unosaños a otros. En los años post-ElNiño, se producen epidemias enprimavera (con una letalidad pro-medio en exceso, superior a las15.000 víctimas) y se registra uncambio en los patrones estaciona-les normales, típicamente con dospicos en un año (uno menor enprimavera y uno mayor en el otoñoo principios de invierno). Pero talbimodalidad no es extensible a al-gunas regiones del continente asiá-tico, lo que complica la compren-sión de la dinámica de la enfermedad.

Los patrones típicos descritos parael sur de Asia incluyen dos picoso máximos anuales, uno antes yotro después del monzón, siendoeste último el que presenta los va-lores más elevados de mortalidad.

Aunque se ignora la razón, losSundarbans (Bangladesh), una in-mensa zona húmeda en la desem-bocadura de los ríos Ganges y Brah-maputra, parecen constituir la zonade origen y el hábitat perfecto parala persistencia del cólera. Y si bienla última pandemia no se inició enlos Sundarbans, sino en las islasCélebes, la enfermedad persistió enBangladesh, de donde no se haerradicado nunca. La multiplicidadde microhábitats, el amplio rangode condiciones ambientales que sedan en esta región, unido a facto-res tales como la elevada hume-dad del aire, y las grandes canti-dades de materia orgánica y materialen suspensión en ríos y charcas,pueden ser, junto a las altas tem-peratura del aire y del agua, cla-ves para asegurar su persistencia.

Hay cepas bacterianas toxigénicasque coinciden en el espacio y eltiempo (Vibrio cholerae 01) conotras que no desarrollan la enfer-medad (Vibrio cholerae no-01 y tam-bién vibriones no aglutinables). Perocarecemos de pruebas concluyentesde que V. cholerae sobreviva en unmedio líquido durante el período in-terepidémico en una zona donde labacteria es endémica.

La fase interepidémica dura me-ses. En el golfo de México se hanencontrado cepas endémicas toxi-génicas de V. cholerae 01 que hansobrevivido años, incluso en au-sencia de infecciones humanas. Suanálisis mostró que diferían de lascepas El Tor, características de laséptima pandemia en curso en elmundo. Podrían darse también aso-ciaciones de la bacteria en su formatoxigénica con diferentes organis-mos, cianofíceas, animales y plan-tas. Medran alrededor de ríos, envalles y tierras bajas, en áreas denotable densidad de población y

34 INVESTIGACIÓN Y CIENCIA, enero, 2002

CIENCIA Y SOCIEDAD

< –0,6 –0,5 –0,4 –0,3 –0,2 –0,2 –0,3 –0,4 –0,5 >

1. Mapa de correlaciones espaciales entre las anomalíasde temperatura del agua superficial del Pacífico central y una variable

atmosférica que permite trazar la circulación troposférica del aire.Los patrones que aparecen están inducidos por El Niño y median

entre éste y el cólera

Page 37: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 35

en zonas con una elevada hume-dad ambiental.

El desconocimiento de reservo-rios de la población bacteriana,unido a la dificultad de identificarel biotipo en un momento dado,complica aún más el cuadro de re-laciones. Sin olvidar un obstáculoañadido: el control de la dinámicapoblacional cuando acontece unaepidemia.

La serie temporal que hemos ana-lizado, correspondiente a los indi-viduos infectados por V. choleraeen Dhaka entre 1980 y 1998, con-tiene en su estructura las trazas deEl Niño. Mediante la separaciónen sus componentes fundamentalese independientes entre sí, es posi-ble determinar la existencia de unperíodo característico en dicha en-fermedad alrededor de unos 3,7años. El Niño sería el responsablede las variaciones interanuales quemanifiesta la enfermedad y pare-cería ir asociado al segundo picodel año, de otoño-invierno.

Si aplicamos el mismo trata-miento de descomposición fre-cuencial a la serie de anomalíasde temperatura en la superficie delocéano Pacífico tropical, podemosobservar entre los componentes or-togonales el correspondiente al pe-ríodo de 3,7 años. En el mismoanálisis se aprecia que las rela-ciones entre las anomalías delPacífico y los brotes de cólera nosiempre se suceden de igual modo,ni la amplitud de éstos respondede una manera lineal a la intensi-dad del calentamiento del Pacífico.Sí parece claro que estas anoma-lías de temperatura preceden a laaparición de epidemias en un in-tervalo de 10 a 11 meses.

En los últimos años, y en espe-cial desde 1976, la naturaleza delas fases cálidas del ENSO parecehaberse modificado. Por lo menosla estructura de los episodios deEl Niño acaecidos desde entoncesha variado; recuérdese, por ejem-plo, la anómala duración y de-sarrollo del episodio de 1991-1994o el reducido intervalo de tan sólo14 años entre fases cálidas suce-sivas muy intensas, como las de1982-83 y 1997-98.

Esta variabilidad reciente tan no-table complicó la elaboración deun modelo matemático o estadís-

tico capaz de anticipar la apariciónde epidemias en Bangladesh. Parasalvar las dificultades, se creó unmodelo no lineal y no paramétrico,que interpretara el comportamientono estacionario del cólera. De acuerdocon el modelo, las variaciones in-teranuales no mostraban un patrónúnico constante, sino que se ob-servaban unos años con picos in-sólitamente grandes de personas in-fectadas y otros cuyos valores totaleseran mucho menores.

El modelo no lineal, de elevadadimensión, incluía toda la variabi-lidad explicada por factores o pa-rámetros no conocidos a priori, peroque se sabe que influyen en la evo-lución futura de la enfermedad. Pormencionar un ejemplo, los factoresasociados a la dinámica social y hu-mana antes, durante y en respuestaa la aparición de una epidemia.

Importa, en efecto, conocer elnúmero de individuos expuestos ala infección; este dato no depende

2. Inundaciones en Bangladesh

Page 38: Investigación y ciencia 304 - Enero 2002

36 INVESTIGACIÓN Y CIENCIA, enero, 2002

sólo de la pirámide demográfica(los niños corren un riesgo ma-yor), sino también del número depersonas infectadas en epidemiasanteriores. El número de indivi-duos sensibles a la infección de-pende, en gran medida, de los quelograron sobrevivir a conatos epi-démicos previos.

En la propagación de las epide-mias desempeña un papel desta-cado la movilidad de la población.Ante un brote, se producen movi-mientos migratorios, impulsados porlas condiciones miserables de pue-blos sin infraestructura y sin unaadecuada red de distribución delagua. Cuando ocurren fenómenosmeteorológicos catastróficos, pre-vios a la aparición de una epide-mia, esas instalaciones endeblesquedan arrasadas. Añádase a esecuadro la frecuente infección pormalaria, que debilita las defensasde los individuos ante cualquiernueva enfermedad.

Nuestro modelo está capacitadopara recoger gran parte de esa va-riabilidad. El ajuste del mismo, parael período de 1980 a 1998, resultóser muy bueno, aunque no garan-tiza su validez en el futuro debidoa la fluctuación de los parámetrosclimáticos y ecológicos, que mo-dulan las relaciones entre los di-ferentes fenómenos.

Una primera consecuencia extra-ída es que, para describir adecua-damente las variaciones del cólera,el ENSO constituye un parámetroindispensable, junto con el resto defactores ligados a la dinámica in-terna del propio brote epidémico.El mejor modelo se obtiene cuandose tienen en cuenta las temperatu-ras superficiales del agua del Pacíficocentral, con una anticipación má-xima de unos dos meses.

Las relaciones entre el Niño en elPacífico y el cólera en Bangladeshse establecen a través de un com-plejo entramado de mecanismos in-termedios. El calentamiento anómaloen el Pacífico tropical coincidentecon una disminución de los vientosalisios en el ecuador lleva consigola alteración de la circulación at-mosférica tropical a gran escala.

La alteración en la circulacióntropical provoca un incremento dela subsidencia del aire en el océ-ano Indico, fenómeno que se de-

tecta en conexión con El Niño, conun desfase de unos 4 a 5 mesescon respecto al máximo de tem-peraturas superficiales en las aguasdel Pacífico tropical. Esa circula-ción Walker ecuatorial, así se llama,debilita la célula Hadley en el océ-ano Indico. Dicha célula atmosfé-rica conecta el ecuador con los tró-picos, mediante la circulaciónascendente del aire hasta la altatroposfera y su flujo hacia latitu-des más altas. Entonces, a unos30o de latitud, el aire desciendehasta la superficie. Este aire en al-tura es el que en último lugar mo-difica los patrones atmosféricos re-gionales y se convierte en mediadorentre El Niño y el cólera.

En las fases cálidas del Niño, eldebilitamiento en la circulación zo-nal ligado a la célula Hadley delocéano Indico comporta una dis-minución en la nubosidad regionale incrementa allí la radiación so-lar incidente. La zona afectadaabarca el norte de India y Ban-gladesh, así como regiones meri-dionales de la cordillera del Hi-malaya. Aumentan las temperaturassuperficiales del aire y del agua yse registra una mayor proliferaciónlocal de la bacteria.

En este trabajo, que aún se pro-longará como mínimo tres añosmás, colaboran universidades y cen-tros de investigación de tres con-tinentes. Cuando se establezca quévariables ambientales locales sonfundamentales en la dinámica delcólera, podremos anticipar qué me-didas preventivas deben tomarseante nuevos brotes epidémicos de-vastadores.

XAVIER RODÓCentro de Meteorología

y Climatología. Dpto. de Ecologíade la Universidad de Barcelona

Geometríay nanotécnica

Adsorción de líquidosen substratos no planos

Las superficies de los sólidos seencuentran a menudo en contac-

to con gases. Cuando eso ocurre,

las moléculas del gas interactúanentre sí y con la superficie sólidao substrato.

En determinadas circunstancias,esa doble interacción promueve laaparición de una capa líquida enla superficie del substrato, en par-ticular cuando el gas está casi sa-turado de alguna de las substan-cias que lo componen. En un díahúmedo, por ejemplo, el aire seencontrará casi saturado de agua(la saturación ocurre cuando la hu-medad es del 100 %). En tal situa-ción, gran parte de los sólidos anuestro alrededor aparecerían recu-biertos por una fina capa de agua,cuyo grosor depende de la tempe-ratura y la composición del gas, asícomo de la naturaleza del substra-to sólido. Dicha capa líquida es decarácter microscópico, impercep-tible a simple vista. Pese a ello,ejerce una influencia notoria en elángulo de contacto de gotas ma-croscópicas depositadas sobre lasuperficie y puede favorecer la de-gradación química del substrato; seinterpone, por ejemplo, entre la pun-ta y la muestra en el microscopiode fuerza atómica.

Como regla general, el grosorde la capa aumenta con la tem-peratura y con el grado de satu-ración del gas, conservando siem-pre el carácter microscópico. Sinembargo, por encima de una ciertatemperatura (denominada tempera-tura de mojado), que depende dela naturaleza de los gases y delsubstrato, la capa adsorbida creceexcepcionalmente, hasta adquirircarácter macroscópico cuando elgas se satura (cuando la humedades del 100 % en nuestro ejemplo).En ese punto, la capa líquida sepercibe a simple vista: el sólidoestá mojado. La ley que describeeste fenómeno de mojado com-pleto depende del tipo de interac-ción entre las moléculas; varía demodo esencial si se cambian di-chas interacciones.

Todo este panorama, que ha pre-cisado de más de dos décadas parasu comprensión, sólo es válido siel substrato es plano. En cambio,si el substrato tiene cierta formaa escala mesoscópica (o inclusonanoscópica), varía de un mododrástico. Este fenómeno revistesumo interés hoy, habida cuenta

Page 39: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 37

de los avances recientes en cons-trucción y caracterización de subs-tratos estructurados a esa escala,así como en la manipulación decantidades ínfimas de líquidos.

Para demostrar la influencia de-terminante de la geometría super-ficial en la adsorción, podemoscomparar el sistema descrito —unsubstrato plano en contacto con ungas casi saturado— con otro sis-tema, construido con los mismosmateriales pero diferente forma.Consideremos un gas en contactocon dos substratos planos parale-los y separados cierta distancia λ.Se produce un nuevo fenómeno: lacondensación capilar.

Al aumentar el grado de satura-ción del gas a una temperatura porencima de la temperatura de mo-jado, observamos que aparecen dosfinas capas líquidas, adsorbidas ensendos substratos. Las capas cre-cen con el grado de saturación delgas, de manera análoga al sistemacon un solo substrato. Pero ahora,al llegar a cierto grado de satura-ción, el espacio entre los substra-tos se llena de líquido de maneraabrupta. Esto ocurre a pesar de quela saturación no es completa (esdecir, la humedad, por volver anuestro ejemplo, es menor del100 %) y el líquido no debería con-densarse. La condensación capilarviene descrita por la ecuación deKelvin, que no depende de nin-guna magnitud microscópica, a di-ferencia del caso anterior, que de-pendía del tipo de interacción entrelas moléculas.

En resumen, la adsorción en unsubstrato plano depende de las in-teracciones moleculares, mientrasque en dos substratos paralelos sólodepende de magnitudes macroscó-picas. Trabajando con Andrew Parry,

en el departamento de matemáti-cas del Colegio Imperial de Londres,nos surgió la pregunta: ¿Cómopuede la geometría superficial “des-conectar” la influencia de las in-teracciones microscópicas entre laspartículas?

Para averiguarlo, decidimos es-tudiar teóricamente el fenómeno deadsorción de líquidos en un subs-trato “deformable” caracterizado porun parámetro γ tal, que cuandoγ = 0 el substrato era perfecta-mente plano y cuando γ = ∞ elsubstrato consistía en dos paredesparalelas unidas por una base planay separadas cierta distancia λ (vé-ase la figura).

Podíamos, pues, conectar de ma-nera continua ambos sistemas, loque nos permitiría, a su vez, es-tudiar la transformación del mo-jado completo en condensacióncapilar. De entre los valores inter-medios de γ, dos resultaron tenerespecial importancia: γ = 1, quecorrespondía a un substrato forma-do por dos planos que se cruzan,y γ = 2, un substrato con formaparabólica.

La descripción teórica de la ad-sorción en el substrato “deforma-ble” resultó harto difícil. No po-día abordarse con los métodosteóricos desarrollados para el casode substratos planos, que sólo re-sultaron aplicables en situacionesespeciales; entre ellas, el substratodescrito por γ = 1 y los descritospor 0 < γ < 1 (pero éstos sólo endeterminadas condiciones). Nos en-contrábamos ante un sistema com-plejo, aunque conocíamos bien cier-tos límites.

Tras diversos intentos infructuo-sos de adaptar las técnicas desarro-lladas para substratos planos a nues-tro sistema, descubrimos —para

nuestro asombro— que una des-cripción del fenómeno en términosgeométricos daba cuenta de la trans-formación gradual del mojado encondensación capilar. Sólo necesi-tábamos el grosor de la capa ad-sorbida en el substrato plano, queincorpora la influencia de las in-teracciones microscópicas, y el ra-dio de curvatura proporcionado porla ecuación de Laplace para la fron-tera entre medios con distinta pre-sión.

La descripción geométrica recu-pera los casos conocidos: mojadocompleto (γ = 0), condensación ca-pilar (γ = ∞) y substratos con0 < γ ≤ 1 (en las condiciones enlas que se podían tratar con mé-todos tradicionales).

La transformación del mojado encondensación capilar tiene lugar através de una complicada serie defenómenos en los que las interac-ciones microscópicas y la geome-tría (caracterizada por el paráme-tro γ) entremezclan sus efectos. Atenor de la forma de la pared ydel grado de saturación del gas, elgrosor de la capa adsorbida obe-dece diferentes leyes de crecimiento,caracterizadas en mayor o menormedida por la geometría. Esto per-mite modificar la adsorción contan sólo variar la forma de la su-perficie del substrato.

Predice la teoría una serie de fe-nómenos que no habían sido des-critos hasta ahora, como la apari-ción continua de meniscos líquidoso su fusión, de potencial aplica-ción en nanotécnica y en el ma-nejo de cantidades ínfimas de lí-quidos.

CARLOS RASCÓN DÍAZDepto. de Matemáticas,

Universidad Carlos III de Madrid

0 < γ < 1 2 < γ < ∞ γ = ∞γ = 0 γ = 2γ = 1Diversas secciones del substrato “deformable” para dis-tintos valores del parámetro γ. Los valores límite γ = 0y γ = ∞ corresponden, respectivamente, a un substratoplano y a dos substratos planos enfrentados (unidos

por una base plana). De este modo se puede “conec-tar”, de manera continua, mojado completo y conden-sación capilar, y estudiar el efecto de la geometría su-perficial en la adsorción de líquidos

Page 40: Investigación y ciencia 304 - Enero 2002

38 INVESTIGACIÓN Y CIENCIA, enero, 2002

Tumores cerebralesTasa de proliferación

La obtención de imágenes de resonancia magné-tica (IRM) es una técnica de creciente aplicaciónen el diagnóstico no invasivo de tumores cere-

brales humanos. A través de la misma distinguimos elparénquima cerebral sano de las zonas afectadas poruna patología tumoral.

Sin embargo, la IRM no permite siempre especificarel tipo de tumor detectado u otros parámetros de in-terés clínico, como el grado (malignidad) del tumor ola existencia de zonas con distinta tasa de prolifera-ción celular, cuestiones de gran interés a la hora deplanificar el enfoque quirúrgico o terapéutico idóneo.Sabemos, por ejemplo, que las zonas no proliferativasde un tumor son insensibles a muchas de las estra-tegias de quimio y radioterapia clásicas, aunque puedeprovocarse su sensibilización.

Con la aplicación de la espectroscopía de resonan-cia magnética (ERM), técnica complementaria de laIRM, podemos obtener un diagnóstico más depurado.La ERM permite obtener un patrón metabólico del es-tado estacionario del tejido, así como seguir cambiosen dicho patrón a lo largo del tiempo, sin daño algunopara el paciente. Lo mismo que en el caso de la IRM,puede repetirse la exploración cuantas veces se creaconveniente.

En la zona necrótica del tumor hay gotículas extra-celulares, de tamaño notable (5-10 micrómetros de diá-metro). Encierran esas bolsas ácidos grasos de lípidosneutros, principalmente triacilgliceroles. Se supone queel patrón espectral con resonancia de los lípidos mó-viles visibles por ERM (LM) se debe a los grupos me- tilo y metileno de dichos ácidos grasos. Pero, ¿cuál es

el origen de esta señal en aquellos casos en que apa-recen LM?

Con el fin de conocer si los cambios observados enel patrón espectral de los tumores astrocíticos agresi-vos de cerebro humano (glioblastoma multiforme) po-dían darnos información de interés acerca del estadode la proliferación tumoral utilizamos un modelo celu-lar, las células C6 de glioma de rata.

Demostramos que la presencia del pico de “lípidosmóviles” en el patrón espectral de células C6, similar alobservado en ciertos tumores cerebrales humanos, secorrespondía cualitativa y cuantitativamente con la pre-sencia de gotículas lipídicas intracelulares de 1,5 mi-

1. Imagen por resonancia (IRM) de parénquima ce-rebral humano in vivo de un paciente aquejado deglioblastoma multiforme, un tumor de tipo astrocíticomuy agresivo. Se observa una morfología anormal enel extremo inferior izquierdo de la imagen. Centradoen el tumor, el recuadro marca la zona o elemento devolumen (vóxel) del cual se obtendrá un espectrode resonancia magnética nuclear de protón (ERM)

A

B

ppm4,0 3,5 3,0 2,5 2,0 1,5 1,0

TMA

Cr

Lac

Lip-2

Lip-1

Cr2. Patrón espectral de ERM de protón obtenido a 9,4teslas de células C6 de glioma de rata en la fase ex-ponencial de la curva de crecimiento (A) y en la fasede posconfluencia (B). La escala horizontal de des-plazamiento químico (ppm) se corresponde con la dela figura 3. Lac, lactato, el resto de resonancias, comoen la figura 3. Figura reproducida del artículo deBarba y col. (Cancer Research 59: 1861-1868, 1999)con el permiso de la American Association for CancerResearch

Page 41: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 39

crómetros de diámetro rellenas de triacilgliceroles, detec-tadas mediante microscopía de fluorescencia.

Las gotículas se acumulaban en las células C6 si és-tas dejaban de proliferar después de cubrir la superficiede la placa de cultivo y empezar a apelotonarse (fasede posconfluencia en la curva de crecimiento del cultivocelular), mientras que no se detectaban en células C6en estadio de proliferación activa (fase exponencial de lacurva de crecimiento).

Si extrapolamos los resultados obtenidos con cultivoscelulares al caso de los tumores astrocíticos humanos,

podemos proponer que los cambios detectados en el pa-trón espectral de LM en los espectros de tumores as-trocíticos in vivo, en ausencia de necrosis, indican cam-bios en la tasa proliferativa de las células tumorales enla región investigada por ERM. De cumplirse la hipóte-sis, cabría abordar un enfoque individualizado de la te-rapia a aplicar al paciente, con la mejora consiguientedel resultado.

IGNASI BARBA, MIQUEL CABAÑAS

y CARLES ARÚS

Depto. de Bioquímica y Biología Molecular,Unidad de Ciencias

Universidad Autónomade Barcelona

ppm ppm

ppm

ppm

ppm

ppm

PRESS (TE = 135 ms)

Lip

TMA

TMA TMA

NAA

Cr

Cr

Cr

Glu/Gln

Lip

Lip

ANecrosis

B¿Proliferaciónralentizada?

C¿Proliferaciónactiva?

STEAM (TE = 20 ms)

Patrones espectrales de GBM

5 4 3 2 1 0

5 4 3 2 1 05 4 3 2 1 0

5 4 3 2 1 0 5 4 3 2 1 0

5 4 3 2 1 0

3. Tipos extremos de patrones espectrales de ERM deprotón obtenidos a 1,5 teslas de vóxeles situados en elinterior de tumores del tipo glioblastoma multiforme entres pacientes distintos (A, B y C). Los espectros de lacolumna de la izquierda se han adquirido (secuenciaPRESS) en condiciones llamadas de tiempo de eco largo(135 ms), que filtran las señales procedentes de ma-cromoléculas, mientras que en la columna de la dere-cha se muestran espectros de los mismos vóxeles, pero(secuencia STEAM) a tiempo de eco corto (20 ms). Elpatrón espectral en el caso A correspondería al de untumor necrótico; el del caso C, a una zona en prolife-ración activa (similar a los espectros de células C6 enla figura 2A), y el caso del paciente B, a una situaciónintermedia aún por caracterizar. Lip, ácidos grasos entriacilgliceroles; Cr, Creatina y fosfocreatina; TMA, com-puestos con grupo trimetilamina; Glu, glutamato; Gln,glutamina, NAA, compuestos con grupo N-acetil

4. Micrografías de fluorescencia de células C6 de gliomade rata en cultivo, teñidas con el colorante rojo deNilo, que destaca el entorno hidrofóbico de gotículascitosólicas de triacilgliceroles con una fluorescenciaamarillo-dorada. En A se muestra una célula típica dela fase de crecimiento exponencial, mientras que en Bse muestran células características de la fase de pos-confluencia. Figura reproducida con modificaciones delartículo de Barba y col. (1999) con el permiso de laAmerican Association for Cancer Research

Page 42: Investigación y ciencia 304 - Enero 2002

40 INVESTIGACIÓN Y CIENCIA, enero, 2002

Las inmensas masas de hielo, los ice-bergs, que flotan sin rumbo apa-rente en los océanos polares han

fascinado y atemorizado desde siempre alos seres humanos. Nacidos de glaciaresy de la banquisa, los icebergs se des-prenden debido a la erosión que las aguasejercen bajo la masa de hielo, fragmen-tándola y dejándola a la deriva.

Una vez en el mar, el iceberg está con-denado a desaparecer en un período bas-tante breve: unos dos o tres años, dieza lo sumo si el bloque de hielo es gran-de y se queda atrapado en una zona enla que las temperaturas sean bajas y laacción erosiva del mar no resulte tan agre-siva. Las dimensiones oscilan desde unaspocas decenas de metros hasta kilóme-tros, pero su masa es inestable y tiendea fragmentarse con facilidad. Los coloresde los icebergs nos relatan en parte elorigen y longevidad del hielo; icebergs gri-ses pueden denotar origen en una zona

volcánica, mientras que los de azul in-tenso demuestran gran antigüedad del hie-lo, al haber expulsado la inmensa presiónel aire interior (lo que hace que el hielofiltre todos los colores excepto el azul).

Mientras la masa de hielo flote, serviráde plataforma para focas y pingüinos, ensu superficie, y fuente de vida por deba-jo (algas microscópicas, pequeños crustá-ceos, etc.). Pero en muchos casos tam-bién es fuente de destrucción, pues laparte inferior de los icebergs �ara� lite-ralmente el fondo, arrasando las comuni-dades que allí se encuentren (esponjas,briozoos, gorgonias y otros). Una vez hanvagado errabundos, el peso los vence yvoltea, quedando al descubierto formas sin-gulares, fruto de una acción continuadade las corrientes marinas que los van di-solviendo poco a poco. Al final, si en-tran en mar abierto, su descomposiciónse acelera debido al oleaje, para acabardesapareciendo.

DE CERCA

Icebergs

Texto y fotos: Sergio Rossi

1. Los glaciares y la banquisa son la fuente que nutre de icebergslos mares polares. Este glaciar se halla en la Península Antártica,

cerca de la base germano-argentina de Jubany

Icebergs

Page 43: Investigación y ciencia 304 - Enero 2002

41

2. Los icebergs tabulares puedenllegar a medir kilómetros de longitud

y decenas de metros de altura.Con el tiempo se fragmentarán

y generarán icebergsde menor tamaño

3. El azul intenso denota pureza.Este iceberg proviene de hieloque ha estado a muy elevadas presiones;liberado el gas de su interior,queda una estructura que absorbetodos los colores excepto el azul

5. Este iceberg viejoy en posición invertidamuestra su parte inferiorde color esmeralda, probable-mente debido a partículas de-tríticas de compuestosde hierro y cobrecontenidas en el hielo

4. Ya a la deriva, los icebergsadquieren formas fascinantes.

El que la parte inferior haya pasadoa la superficie o la acción del mar

los torna más redondeados,perdiendo todos los “ángulos”

típicos de los jóvenes

Page 44: Investigación y ciencia 304 - Enero 2002

a Pampa, la vasta llanura del centro estede Argentina y una de las principales re-giones agrícolas del mundo, goza de jus-tificada fama por la fertilidad de sussuelos. Se desarrollaron éstos a partir dedepósitos de loess y arenas compuestos

por partículas de origen volcánico, transportadas porel viento desde el oeste y sudoeste, al pie de losAndes. Partículas que se acumularon en la Pampadurante la época glacial. El examen de los terrenossubyacentes bajo esa cubierta superficial de loess yarenas revela la existencia de variascentenas de metros de depósitos decomposición similar, denominadossedimentos loessoides, redepositadospor el agua y el viento en el ex-tenso ambiente de llanura desde elMioceno tardío, hace unos 12 mi-llones de años.

Los depósitos sedimentarios cons-tan de numerosos niveles y encie-rran restos abundantes de vertebra-dos fósiles. Los acantilados costerosde Chapadmalal, cercanos a Mar delPlata, en el litoral atlántico del su-deste de la provincia de Buenos Ai-res, y las barrancas del río Paranáson las dos localidades principales.En ellas encontramos extensos cor-tes naturales de los depósitos pam-peanos del Plioceno y Cuaternario, con espesores deentre 20 y 30 metros. Allí se han llevado a cabo losestudios más detallados para conocer la historia geo-lógica y biológica de los últimos millones de añosde la llanura.

En los depósitos sedimentarios aflorantes en Cha-padmalal aparece un nivel que contiene unos mate-riales vítreos, vesiculares, de colores muy brillantes,verdosos o negruzcos. Se les llama escorias por suparecido con los productos de fundición. Por su as-pecto recuerdan ciertas rocas volcánicas. Suelen acom-

pañarse de unos fragmentos endurecidos, de colorrojo ladrillo, las tierras cocidas. Ambas denomina-ciones —escorias y tierras cocidas— fueron amplia-mente divulgadas por Florentino Ameghino, cientí-fico argentino de fines del siglo XIX y comienzos delXX que sentó las bases del conocimiento paleonto-lógico y geológico de la Pampa.

Ameghino situaba el origen del hombre en la Pampa,durante el Terciario. Desde allí emigraría al resto delmundo. Los hallazgos de escorias y tierras cocidasque hiciera Ameghino, estaban vinculados con ma-

teriales arqueológicos que habían aparecido incrusta-dos en los niveles inferiores de los depósitos pam-peanos. Por tanto, juzgó que las escorias y tierrascocidas habían resultado de la fusión de loess a causade las altas temperaturas originadas por los fogonesencendidos por los primeros hombres, aunque los se-dimentos de Chapadmalal donde se las encontrabaneran de edad terciaria.

Basándose en ese supuesto antropogénico, Ameg-hino se apoyó en las escorias y tierras cocidas delloess pampeano para apuntalar su teoría. El problema

42 INVESTIGACIÓN Y CIENCIA, enero, 2002

Las escorias y tierras cocidasde la Pampa

Los enigmáticos fragmentos vítreos asociados a otros parecidos

a ladrillos que se encuentran en los sedimentos de la Pampa argentina

cercanos a Mar del Plata se deben al impacto de un asteroide,

ocurrido hace 3,3 millones de años

Marcelo A. Zárate y Peter H. Schultz

Buenos Aires

Mar del Plata

Monte Hermoso

Río Negro

La Pampa

Neuquén

BuenosAires

Mendoza

SanLuis

SanJuan

Córdoba SantaFe

EntreRíos

URUGUAY

BRASIL

CHILE

OCEANOPACIFICO

OCEANOATLANTICO

Río Cuarto

Sierrasd

e

Tandil

L

Page 45: Investigación y ciencia 304 - Enero 2002

BOLIVIA

PERU

BRASIL

PARAGUAY

CHACO

OCEANOPACIFICO

OCEANOATLANTICO

PAMPAS

URUGUAY

ARGENTINA

CH

ILE

ARENAS

LIMOS

1. LA EXTENSA REGION PAMPEANA,en el sector centrooriental de Argentina,posee una cubierta superficial de depósi-

tos de loess y arenas eólicas de espesorvariable. Se fueron acumulando en el curso de varios episodios duranteel último ciclo glacial, en unas condiciones climáticas más frías y secasque en la actualidad. Estos sedimentos, que abarcan también la regióndel Chaco, en el norte de Argentina y Paraguay, proceden fundamentalmentedel oeste y sudoeste, en el piedemonte de la cordillera de los Andes.(Modificado de M. Iriondo, 1997).

43

Page 46: Investigación y ciencia 304 - Enero 2002

44 INVESTIGACIÓN Y CIENCIA, enero, 2002

planteado por esos materiales de-sató acalorados debates en los queintervinieron los científicos de laépoca. Inmersa en el marco delorigen del hombre en las Pampasdurante el Terciario, la génesis delas escorias y tierras cocidas se re-lacionó con distintos procesos. Pocoantes de su muerte en 1911, Ameg-hino modificó parcialmente su in-terpretación y sostuvo que, en rea-lidad, las escorias y tierras cocidasse debían a incendios intenciona-dos de pastizales de gramíneas pam-peanas muy ricas en sílice, porparte de los indígenas que así in-tentaban cazar a los animales.

Por la misma época, el antropó-logo Lehmann Nitsche, en una va-riante de la interpretación de Ame-ghino, atribuyó la formación deescorias y tierras cocidas a incen-dios espontáneos de pajonales enterrenos pantanosos constituidos porespecies de gramíneas de gran ta-maño y ricas en silicatos. Por suparte, el geólogo Santiago Roth,basado en el aspecto, identificó lastierras cocidas con fragmentos dealfarería, sumándose a la tesis deAmeghino.

En realidad cualquier vinculaciónde las escorias y tierras cocidascon actividad humana quedaba com-pletamente descartada al descubrirseque la llegada de los primeros gru-pos humanos a Sudamérica databade tiempos más recientes, del Pleis-toceno tardío, hace unos 12.000años, mientras que estos materia-les se hallaban en depósitos sedi-mentarios varios millones de añosanteriores al poblamiento del con-tinente.

Pero, ¿por qué Ameghino las en-contró en asociación frecuente conyacimientos arqueológicos? ¿Eranesos fragmentos de escorias y tie-rras cocidas realmente iguales alos que se hallaban en los nivelesterciarios? Quizá tomara por es-corias y tierras cocidas otros pro-ductos de apariencia similar que sípodían haber sido la resultante deincendios o fogones o de procesosartificiales como la fundición enhornos. Pese al parecido en su as-pecto general, las escorias y tie-rras cocidas del loess pampeanodifieren sustancialmente en su com-posición química y en sus carac-terísticas microscópicas de estos

2. ACANTILADOS DE CHAPADMALAL, al sur de Mar del Plata. Constituyenuna de las localidades más conocidas de los depósitos pampeanos, famosapor la abundancia de restos fósiles de vertebrados. A lo largo de unos 30kilómetros del frente acantilado erosionado por el mar, aparece expuesto elregistro sedimentario de los últimos 4 a 5 millones de años, caracterizadopor numerosos niveles de suelos enterrados que ha permitido reconstruir lahistoria del paisaje. El nivel de escorias se indica con la letra E.

E

Page 47: Investigación y ciencia 304 - Enero 2002

otros productos artificiales. Tam-bién pudieron darse fragmentos deescorias redepositados en nivelesmás recientes y asociados secun-dariamente a restos de actividadhumana, o inclusive materiales ar-queológicos incorporados adrede enlos depósitos terciarios.

A la hipótesis de Ameghino seopusieron en un comienzo los de-fensores del origen volcánico. En1908 Félix Outes, Enrique HerreroDucloux y H. Bucking publicaronsus análisis químicos y microscó-picos y observaciones de campo delas escorias y tierras cocidas. Lle-gaban a la conclusión de que setrataba de fragmentos de lavas an-desíticas, es decir, rocas volcáni-cas. No obstante, la primera refe-rencia a las escorias apareció en1866, en un escrito de dos geólo-gos suizos, Heusser y Claraz, quie-nes visitaron los acantilados de Cha-padmalal y los describieron comofragmentos de rocas volcánicas.

Herrero Ducloux demostró ex-perimentalmente que el loess, alfundirse a temperaturas compren-didas entre 1300 oC y 1350 oC, ad-quiría un aspecto similar al de es-corias volcánicas. Además, señalóque la composición química de lasescorias y tierras cocidas indicabaque no podían ser el resultado deuna mezcla de cenizas vegetales yde loess, en contra de la hipóte-sis de los incendios de gramíneasricas en sílice. Outes agregó que,si ese proceso hubiese continuadoen la actualidad, deberíamos en-contrar ahora escorias y tierras co-cidas en la superficie de la Pampa;y no sucede tal. Y deberíamos tam-bién haberlas hallado en todo elespesor de los depósitos pampea-

nos; pero en Chapadmalal presen-tan una situación estratigráfica muyacotada, restringida a un nivel, loque sugiere que su génesis tuvoque ver con un proceso que al me-nos allí ocurrió sólo una vez enmás de 3 millones de años.

Pero la hipótesis volcánica deOutes, Herrero Ducloux y Buckingse venía abajo si se atendía al con-texto geológico general. La Pampaes una región estable, ubicada enun margen tectónico pasivo, sin ac-tividad magmática desde el Jurá-sico tardío, cuando se produjo laefusión de lavas basálticas a raízdel proceso de apertura del océanoAtlántico. Las lavas aparecen en elfondo de las cuencas sedimentariasde la Pampa cubiertas por más de6000 metros de depósitos. Por otrolado, los centros volcánicos máscercanos se hallan a unos 1000 kmde distancia hacia el oeste.

Las escorias, que a veces supe-ran los 70 cm y excepcionalmentellegan a los 2 metros de diámetro,se caracterizan por su alta fragi-lidad y no muestran signos de re-dondeamiento por transporte. Dehaber sido fragmentos volcánicosno habrían podido resistir trans-portes fluviales tan prolongados

sin haber sufrido un considerabledesgaste hasta desaparecer o bienllegar muy particulados. Esto quedabien demostrado en Chapadmalal,donde aparecen fragmentos de es-corias y tierras cocidas en depó-sitos fluviales del Pleistoceno quesuprayacen al nivel de escorias,muy redondeadas y retrabajadas lo-calmente, indicio de su fácil des-gaste en cortas distancias. Ade-más, de acuerdo con la configuracióngeneral del paisaje, tampoco eraposible que se acarrearan desde lacordillera, ya que estos fragmen-tos se acumularon en su momentoen el piedemonte de las sierras deMar del Plata, que forma parte delsistema serrano de Tandil drenadopor ríos y arroyos locales.

El debate sobre el origen de lasescorias y tierras cocidas se

amplió a raíz de la expedición delarqueólogo Alex Hrdlicka. Llegóéste a la Argentina en 1912 dis-puesto a evaluar las pruebas pre-sentadas por Ameghino sobre elorigen del hombre en las pampas.Hrdlicka recogió muestras de es-corias y tierras cocidas del Plio-ceno de Chapadmalal, luego estu-diadas en Estados Unidos por Fred

INVESTIGACIÓN Y CIENCIA, enero, 2002 45

3. EL NIVEL DE LAS ESCORIAS Y TIERRAS COCIDAS es uno de los más cons-picuos de la sección sedimentaria de Chapadmalal. Se puede seguir a lo largode varios kilómetros, interrumpido en tramos por la acción erosiva de cur-sos fluviales posteriores. Las escorias aparecen con tamaños variables desdemilímetros hasta decenas de centímetro, alineadas, como en este caso, odispersas.

MARCELO A. ZARATE y PETERH. SCHULTZ son expertos en geo-logía y geofísica. Zárate, del Conse-jo Nacional de Investigaciones Cien-tíficas y Técnicas de Argentina, sededica a la estratigrafía del Cuater-nario y Terciario tardío de la regiónpampeana. Schultz, profesor de la Uni-versidad Brown en Providence, estu-dia los procesos y materiales genera-dos durante la formación de cráteresde impacto en la Luna, Marte, Ve-nus y la Tierra.

Los autores

Page 48: Investigación y ciencia 304 - Enero 2002

Wright y Clarence Fenner, quienesresaltaron la singularidad de las ca-racterísticas microscópicas obser-vadas en las muestras; en su opi-nión no concordaban con ningunaroca eruptiva o lava. Las muestrasde escorias presentaban variacionesen la composición de las plagio-clasas, los feldespatos estaban re-adsorbidos por el vidrio fundido,que era veteado y de composiciónvariable, y los cristales no pare-cían haber cristalizado a partir de

la masa fundida, como era el casode las lavas típicas.

Los resultados de los análisis mi-croscópicos obtenidos por Wrighty Fenner obligaban a rechazar losdos procesos de formación postu-lados hasta ese momento. En pri-mer lugar, demostraron que las es-corias no eran escorias volcánicas,es decir, no eran lavas. Se habíanproducido por la fusión de un ma-terial originariamente clástico, queen todas sus características se pa-

recía al loess de la Pampa. Y lastierras cocidas estaban compuestaspor fragmentos de loess endureci-dos y enrojecidos por acción delcalor entre 850 oC y 1050 oC. Ensegundo lugar, la ausencia de oxi-dación en las escorias excluía laposibilidad de que se hubiesen for-mado por fusión a partir de foga-tas o cualquier tipo de fuego acielo abierto.

Como hipótesis alternativa Wrighty Fenner propusieron la intrusiónde masas ígneas, submarinas, o pordebajo del área emergida. Ahí re-sidiría, pensaron, la fuente de ca-lor que produjo la fusión de loessen profundidad. Pero, lo mismo queen el caso del proceso volcánico,la inexistencia de actividad mag-mática en la Pampa durante el Ter-ciario y Cuaternario invalidaba se-mejante explicación.

Tenía razón Ameghino sobre laausencia de signos de transportefluvial. La tenían Wright y Fennersobre los aspectos microscópicos,así como Outes en sus experimen-tos y resultados químicos. Pero setrataba de enfoques parciales. Noperseguían tanto la dilucidación dela génesis de estos productos cuantola solidez de la teoría de Ameghi-no sobre el origen del hombre.

Pero los procesos alternativos quese propusieron no explicaban la gé-nesis de escorias y tierras cocidas.La teoría del vulcanismo o la dela actividad magmática bajo la su-perficie quedan refutadas por el ca-rácter no volcánico de la regiónpampeana, mientras que los expe-rimentos de laboratorio, fusionandoloess en hornos, demandaban tem-peraturas muy altas, imposibles dealcanzar en incendios de campo ymenos aún en fogones humanosprehistóricos.

Considerados en su conjunto, sinembargo, esos trabajos descubríanlos atributos sobresalientes de lasescorias y tierras cocidas. Se com-probó que tenían la composicióngeneral del loess de la Pampa; susformas, dimensiones y situación in-dicaban que se formaron en la re-gión; no había pruebas de trans-porte desde distancias lejanas; elcalentamiento en hornos a tempe-raturas muy elevadas había permi-tido obtener productos similares, ylos análisis de microscopía de-

46 INVESTIGACIÓN Y CIENCIA, enero, 2002

4. ASPECTO CARACTERISTICO DE LAS ESCORIAS, fácilmente reconocibles enlas exposiciones sedimentarias (a). Son materiales vítreos con colores en ge-neral oscuros y múltiples vesículas. Pueden presentar superficies estriadasy estructuras plegadas y con aspecto fluidal. (b) Las tierras cocidas seme-jan trozos de ladrillo de color rojizo intenso y consistente; menos abundan-tes que las escorias y de dimensiones menores, no superan los 40 cm en losfragmentos mayores.

a

b

Page 49: Investigación y ciencia 304 - Enero 2002

mostraban la existencia de rasgosmineralógicos peculiares, no atri-buibles a rocas volcánicas.

También hubo acuerdo general enla vinculación genética de escoriasy tierras cocidas, representando lasúltimas algún tipo de fase en la for-mación de escorias. Admitíase quelas escorias y tierras cocidas resul-taron de un proceso de calentamientomuy significativo que había llegadoa provocar la fusión parcial del ma-terial, aunque se discutía en tornoal proceso generador de tan altastemperaturas.

Abandonada la polémica sobreel origen del hombre sudamerica-no postulado por Ameghino a par-tir de la refutación de todas laspruebas que la sostenían, el con-trovertido origen de las escorias ytierras cocidas cayó en el olvido.Durante más de 80 años, las re-ferencias a las mismas se limita-ron a señalarlas como un rasgopeculiar y a veces diagnóstico delos niveles pliocenos o miocenosde algunas localidades del sur dela provincia de Buenos Aires. Elsilencio apenas se rompió con unestudio de laboratorio, realizadoen 1969, que las atribuyó a la ac-ción de procesos químicos que ocu-rrían en el seno del sedimento conposterioridad a su depositación. Elmecanismo propuesto sólo inten-taba una explicación sobre la au-sencia de transporte fluvial, perono ahondaba en las característicasmineralógicas, microscópicas y quí-micas de las escorias y tierras co-cidas.

En una publicación de 1989, refe-rente a la estratigrafía de los

acantilados costeros de Chapadma-lal, uno de nosotros (Zárate) men-cionó las escorias y tierras cocidascomo una característica típica delos niveles terciarios, de origen des-conocido, aunque la opinión do-minante entonces las atribuía a in-cendios de campos. Con el iniciodel decenio siguiente, comienza unnuevo capítulo en el misterio delas escorias y tierras cocidas. Suestudio arranca, indirectamente, delas observaciones que previamentehiciera Rubén Lianza, piloto de laFuerza Aérea Argentina, sobrevo-lando la zona de Río Cuarto, enel sector centrooccidental de la

Pampa. Fotografió una serie de de-presiones que, según los estudiosrealizados por el otro autor (Schultz),resultaron un conjunto de cráteressomeros de impactos oblicuos, demuy bajo ángulo.

En ese mismo emplazamientoaparecieron unos fragmentos ví-treos y vesiculares de colores ver-doso a negro oliváceo, cuyo pare-cido con las escorias de Chapadmalalera asombroso. Incluían partículasde loess parcialmente reabsorbidasen la fracción fundida y estructu-ras de flujo, burbujas inmisciblesy pequeñas inclusiones. Todas ellaseran características típicas de lasimpactitas, es decir, de materialesproducidos por la fusión parcial ocompleta de una roca debido al ca-

lor generado por el impacto de unasteroide.

Hasta entonces, los autores ha-bían seguido investigaciones inde-pendientes, relacionadas con la es-tratigrafía de los depósitospampeanos en un caso (Zárate) ycon los procesos de impacto de as-teroides en otro (Schultz). En 1991nos pusimos en contacto, tras ad-vertir que compartíamos un mismointerés por las escorias de los crá-teres de Río Cuarto y las halladasen las barrancas de Chapadmalal;estas últimas eran del Plioceno ylas de Río Cuarto del Holocenomedio. En 1995 realizamos la pri-mera campaña de recolección demuestras de escorias y tierras co-cidas en las exposiciones costeras

INVESTIGACIÓN Y CIENCIA, enero, 2002 47

5. CRATERES DE RIO CUARTO, considerados antaño cuencas de deflacióneólica. En las imágenes aéreas aparecen alineadas en sentido NNE-SSO y con-sisten en depresiones elongadas, la mayor de las cuales tiene 4,5 km de largopor 1,1 km de ancho. Se formaron, en realidad, por un impacto de muy bajoángulo (menor o igual a 15o) de un cuerpo condrítico de aproximadamente150 a 300 metros de diámetro. Contienen escorias.

Page 50: Investigación y ciencia 304 - Enero 2002

de Chapadmalal, que conteníanabundantes fragmentos, muy di-versos, de estos materiales. De allíprocedía la mayoría de las mues-tras estudiadas por los investiga-dores de comienzos del siglo XX.

En las secciones sedimentariasaflorantes en Chapadmalal, los

estudios estratigráficos acometidospor Zárate en los años ochenta de-mostraron la existencia de un cons-picuo nivel de escorias en los de-pósitos pliocenos, que podía seguirsepor unos 8 km a lo largo de unos30 km del frente de acantilados. Elnivel de escorias se identifica confacilidad en los afloramientos. Juntocon los fragmentos mayores apare-cen otros de pequeñas dimensiones,a veces no superiores al centíme-tro; asociados a ellos se distinguenfragmentos de tierras cocidas con

ejemplares en los que se pasa tran-sicionalmente de uno a otro. Eneste nivel dominan los de tamañoscomprendidos entre 0,2 y 25 cm deescorias, a veces agrupados o re-partidos en un espesor de unos70 cm a 1 metro de sedimento. Losfragmentos de tierras cocidas sonmucho menos numerosos y de ta-maños entre 1 cm y 6 cm.

Desde una perspectiva estrati-gráfica, por encima y por debajode este nivel suelen encontrarsefragmentos de escorias y tierrascocidas. Se alojan en los rellenossedimentarios de cuevas de roedo-res fósiles, como las del géneroActenomys, a profundidades de has-ta 6 metros con respecto al nivelde las escorias, o bien forman partede los depósitos de canales flu-viales posteriores del Pleistocenotardío, muy recientes pues.

En los afloramientos de Cha-padmalal recolectamos ejemplaresde escorias plegadas, retorcidas yrodeadas por una zona de loessquemada, correspondiente a las tie-rras cocidas. Se procedió al aná-lisis químico de las muestras y alestudio microscópico de cortes del-gados. Comparamos los resultadoscon los obtenidos de ejemplares deloess mezclado con materia orgá-nica y fundido en hornos a altastemperaturas; se cotejaron tambiéncon muestras de fulguritas, mate-riales vítreos originados por la ca-ída de rayos en sedimentos, porcuya razón obtienen una aparien-cia general parecida a la de las es-corias.

Los incendios de pastizales nopodían generar temperaturas capa-ces de fundir el loess ni producirescorias, pero sí originar formassimilares a las tierras cocidas. Las

48 INVESTIGACIÓN Y CIENCIA, enero, 2002

6. EN CORTES DELGADOS las esco-rias exhiben las estructuras de tiposchlieren, de aspecto fluidal, con muybuen grado de desarrollo y densida-des variables que se traducen en fuer-tes variaciones en las propiedades óp-ticas, característica que tipifica a losvidrios originados por impacto. Seaprecian, asimismo, vesículas defor-madas y partículas de minerales, des-compuestas térmicamente por enfria-miento rápido. Los vidrios aparecenoscurecidos (isótropos) con luz pola-rizada (escala: base de la foto 1 mm).

BADDELEYITA

DISTANCIA (MICRONES)

ZrO

2, p

eso

SiO

2 , peso

80

60

40

20

0

-20-20 0 20 40 60 80

20

30

40

50

60

70

100

ZrO2, peso SiO2, peso

7. EN ALGUNAS MUESTRAS encontramos inclusiones dezircón (ZrSiO4) que se ha transformado en glóbulos debaddeleyita (zircón monoclínico) con sílice intersticial (a).Se analizaron con microsonda (b). La descomposición del

zircón en baddeleyita y sílice tiene lugar a temperaturasde entre 1720oC y 1900oC. La presencia de este mineralconstituye uno de los indicadores clave de un proceso deimpacto.

b

50 micrones

a

Page 51: Investigación y ciencia 304 - Enero 2002

escorias sólo se formaban a tem-peraturas superiores a los 1300 oC.Además, las escorias se distinguíande las fulguritas por su gran ta-maño, la situación estratigráficarestringida a un nivel definido, lapresencia de estructuras que indi-caban en algunas escorias un pro-ceso de emplazamiento dinámico yla geoquímica de ciertos ejempla-res que diferían de la composiciónmedia del loess.

En los cortes delgados efectuadospara análisis microscópicos de lasescorias de Chapadmalal, el vidriointersticial presentaba una serie depeculiaridades. Por un lado conte-nía una serie de segregaciones a lasque se da el nombre de schlieren,con inclusiones minerales y propie-dades ópticas típicas del vidrio en-friado rápidamente. Por otro lado,en la matriz vítrea de las escoriasaparecían agrupamientos de badde-leyita, producto de la ruptura delzircón (ZrSiO4) en ZrO2 monoclí-nico (la baddeleyita) y sílice, como

resultado de tempe-raturas transitoriasaltas, de entre1720 oC y 1900 oC.También encontra-mos clastos, mine-rales descompuestostérmicamente, y ve-sículas deformadas.

La serie de características mi-croscópicas y químicas, así como ladistribución estratigráfica de las es-corias, nos movieron a interpretar-las como materiales sedimentariossometidos a altísimas temperaturastransitorias y parcialmente fundidosdebidos a un impacto y eyectadoshacia áreas circundantes, es decir,impactitas. Entre las pruebas reuni-das, la presencia de baddeleyita seconsidera un criterio sólido para ava-lar la existencia de un proceso deimpacto. En 1965, El Goresy se-ñaló que la baddeleyita en vidriosoriginados por impacto constituía unindicador de temperaturas de fusiónmuy altas en las rocas que contie-nen el mineral zircón.

Los análisis químicos de las es-corias y tierras cocidas reve-

laron que la composición de loselementos mayoritarios guardabacoherencia con la de los sedimen-tos loessoides de Chapadmalal. Porun lado permitieron descartar una

fuente volcánica potencial en pro-fundidad. Por otro, diferían de lacomposición de las escorias de RíoCuarto. A diferencia de las esco-rias de Río Cuarto, las de Cha-padmalal contienen elevadas con-centraciones de K2O y Na2O. Talesconcentraciones insólitas sugeríanque las escorias no sólo derivaronde los sedimentos loessoides, sinotambién de arcillas marinas quesubyacen a aquellos depósitos enlas cercanías. Algunas muestrascontenían niveles significativamenteelevados de Cr y Ni, procedentesseguramente del cuerpo de impacto.

Para determinar la edad de lasescorias de Chapadmalal, recurrimosa técnicas radiométricas de data-ción. La establecimos en 3,3 mi-llones de años, período que enca-jaba con el acotamiento temporalestimado para el nivel estratigrá-fico, basado en los resultados deun perfil magnetoestratigráfico queincluye el nivel de las escorias, ycon la correlación con las edadesasignadas a las asociaciones fau-nísticas. Por consiguiente, el epi-sodio de formación de las escoriasy tierras cocidas se ubicaba antesdel comienzo del subcrón paleo-magnético Mammoth.

Hay varias coincidencias dignasde destacar a propósito de la re-lación entre posición estratigráfica

INVESTIGACIÓN Y CIENCIA, enero, 2002 49

8. LA FAUNA SUDAMERICANA alcanzó un alto gradode endemismo. Durante la mayor parte del Terciario,evolucionó en un aislamiento casi completo. Habíaaves corredoras como Procariama, un fororraco simi-lar a Hermosiornis y edentados como Glossotheridiumy Paraglyptodon. Junto con otros géneros se regis-traron por última vez en el Chapadmalalense, en cuyasección cuspidal se encuentra el nivel de escorias ytierras cocidas. La ilustración corresponde a Glossot-herium y Glyptodon del Pleistoceno, similares en suaspecto a los edentados mencionados. (Gentileza deClaudia Tambuzzi y Susana Bargo).

Page 52: Investigación y ciencia 304 - Enero 2002

y edad del nivel de escorias y tie-rras cocidas, por un lado, y ciertosacontecimientos paleobiológicos yambientales ocurridos entonces, porotro. En primer lugar, los estudiospaleontológicos llevados a cabo porEduardo Tonni y colaboradores en1992 señalaron un importante cam-bio faunístico, cuya exacta posi-ción cronológica no fue bien ajus-tada y que se ubicaron en el Pliocenomedio, registrado entre la unidadestratigráfica que contiene las es-corias, correspondiente al piso edad

8–90 –60 –30 0

INCLINACION

GAUSS

GILBERT

PACIFICO (SITIO 846) ATLANTICO (SITIO 659)

MA

MM

OT

HK

AE

NA

PLIO

CE

NO

TAR

DIO

PLIO

CE

NO

TE

MP

RA

NO

CO

RT

EE

N E

L TE

ST

IGO

659B-12/13

DATACION Ar/Ar

3,3 ± 0,1 Ma

(o) 3,33 Ma

3,0 Ma

3,5 Ma

4,0 Ma

(t) 3,58 Ma

30 60 90

δ 18O en % vs PDB

4,5

G 10

KM 2KM 4

KM 6

M 2

MG 2

MG 4

G 12G 14G 16G 18

Gi 2Gi 4Gi 6Gi 8Gi 10Gi 12Gi 14

Gi 16

G 20

4,0 3,5 3,0 2,5

9

10

11

12

13

14

15

16

17

18

19

20

21

CO

RT

EE

N E

L TE

ST

IGO

659A-10/11

9. LA DATACION CRONOLOGICA delnivel de las escorias (a) se efectuóa través de técnicas radiométricas yde medición del paleomagnetismo delos sedimentos superiores e inferio-res. El episodio de impacto ocurrióhace 3,3 millones de años, con ante-rioridad al subcrón paleomagnéticoMammoth. Coincidió ese período conuna variación importante en las re-laciones de los isótopos de oxígeno(O18/O16), medidas en las conchillasde foraminíferos de testigos marinosque sugieren un descenso general dela temperatura (b). La continuaciónde los estudios nos permitirá deter-minar si se trató de una simple coin-cidencia o si bien existió una rela-ción de causa-efecto.

8,30 *0,00 M

0,50 M

1,00 M

1,50 M

2,00 M

P8

d

P7

P6

P

8,80 *

MUESTRAS

9,30 *9,55 *

10,05 *

10,70 *11,20 *

11,70 *12,20 *12,60 *

CUEVAS

13,20 *

13,70 *14,20 *

14,70 *15,00 *15,30 *

MUESTRASDISCORDANCIAEROSIVA

MAREA ALTA

P615,60 *15,90 *16,20 *16,50 *16,80 *17,10 *17,40 *

18,90 *19,30 *

19,80 *

20,30 *

17,50 *18,00 *18,30 *

ESCORIAS

PALEOSUELO

ESTRUCTURADE SUELO

ESTRATIFICACIONENTRECRUZADA

LIMOLITASARCILLOSAS

LIMOLITAS

Page 53: Investigación y ciencia 304 - Enero 2002

Chapadmalalense, y la unidad su-prayacente, perteneciente al pisoedad Marplatense.

Para estos investigadores repre-sentó el episodio de extinción mássignificativo de la secuencia de Cha-padmalal. Durante el piso Chapad-malalense, en cuya cúspide se en-cuentran las escorias, se producíael último registro de 36 géneros y

sólo aparecían tres nuevos géneros.Este cambio faunístico supuso laextinción de un importante númerode géneros y especies endémicas.Afectó, entre otros, a la familiasGlyptodontidae, Mylodontidae, Da-sipodidae, un carnívoro marsupial,el litopterno Brachitherium y el to-xodóntido Xotodon. En el Chapad-malalense también se produce el

último registro de las cariámides,aves corredoras de hábitos carní-voros del terciario sudamericano.Con posterioridad al episodio delas escorias no vuelven a aparecerfamilias endémicas.

Además, cuando comparamos lasedades radiométricas obtenidas y elperfil paleomagnético de la secciónde escorias con los testigos sedi-mentarios de los fondos marinos,el episodio de las escorias coinci-día con variaciones repentinas enel registro de isótopos estables deoxígeno, que revelaban fuertes va-riaciones climáticas. Hace unos3,3 millones de años, se produjoun enfriamiento de unos 2 oC, enlas aguas del fondo del Atlánticocombinado con una glaciación leve,según se infiere de un máximo enlos valores del isótopo O18. Losanálisis de isótopos de oxígeno delos testigos obtenidos de sitios delPacífico y del Atlántico han de-terminado que este episodio con-sistió en dos fluctuaciones isotópi-cas, bien definidas, cuyos iniciosse fijan en 3,35 y 3,3 millones deaños. La primera de estas fluctua-ciones comienza antes del subcrónMammoth en ambos sitios, en buenacorrelación con la edad paleomag-nética del nivel de escorias.

Otra coincidencia llamativa es elnotable cambio en el paisaje queocurre con posterioridad al acon-tecimiento de las escorias. Vallesanchos de hasta 15 km y otros másestrechos y profundos aparecen ex-cavados en el sustrato representadopor los depósitos del Chapadma-lalense portadores de las escorias;crean un relieve especial en el pai-saje suavemente ondulado de co-linas del Plioceno medio. Las uni-dades sedimentarias posterioresrellenaron esos valles y, en algu-nos lugares, redepositaron las es-corias. Se ignora cuál fue el agentecausante de semejante modifica-ción del paisaje.

Si resumimos los acontecimien-tos paleobiológicos y paleo-

ambientales, resulta evidente unaprofunda reorganización del am-biente en el sur de las pampas ar-gentinas durante el Plioceno medio.Aunque se ha atribuido su causa alos cambios climáticos, éstos seríanen realidad consecuencias de otro

INVESTIGACIÓN Y CIENCIA, enero, 2002 51

10. LA DISTRIBUCION DE LOS CRATERES DE IMPACTO en la superficie dela Tierra muestra diferencias significativas, si se comparan los distintos con-tinentes. El mayor número de cráteres se ha encontrado en América del Norte,Escandinavia y Australia, mientras apenas se han reseñado en Sudamérica yAfrica. Estas diferencias no se deben a que haya regiones más propensasque otras a recibir impactos, sino al número de investigaciones llevadas acabo en cada una de ellas, la densidad de población y la geología de cadaregión, que determinan la conservación de las estructuras sometidas a la ac-ción erosiva a lo largo del tiempo.

11. POR SIMULACION NUMERICA y experimentos de laboratorio podemos re-crear la cantidad de impactos y el funcionamiento de los procesos. Se re-produce aquí la pluma de material vaporizado que se formó luego de que unproyectil pequeño procedente de la derecha y a una velocidad de 6 km porsegundo impactara en la arena. A partir de estos experimentos, modificandolos materiales utilizados, la velocidad de los proyectiles disparados y el án-gulo de impacto, puede investigarse la morfología de los cráteres resultan-tes y la trayectoria de los productos de eyección.

Page 54: Investigación y ciencia 304 - Enero 2002

factor, hoy por hoy desconocido.De ahí el interés de la coincidenciatemporal del episodio que generólas escorias y tierras cocidas, queasociamos al impacto de un aste-roide en el Plioceno medio.

La caída de ese cuerpo celestepodría haber provocado una extin-ción faunística regional o bien ha-ber desencadenado drásticos cam-bios ambientales que arrasaron losecosistemas pampeanos. La modi-ficación repentina del clima y lacirculación oceánica registrada porlas variaciones isotópicas quizásencuentren también su origen enel impacto generador de las esco-rias y tierras cocidas. Y tal vezpodría haber desencadenado loscambios del paisaje registrados enla secuencia de Chapadmalal.

¿Dónde está el cráter del im-pacto del que procederían las es-corias y tierras cocidas? El tamañode los fragmentos mayores, de dosmetros de longitud, coincide conel de los fragmentos recolectadosen otras estructuras de impacto. Enel cráter del Ries de 24 km de diá-metro, del sur de Alemania, se hanencontrado bombas suevíticas, queson fragmentos eyectados de im-pactitas, de hasta 0,5 metros dediámetro. En el cráter de Zhaman-shin de 14 km de diámetro y enel cráter de 18 km de diámetro deEl’gygytgyan, ambos en Rusia, sehallaron bombas de 1 y 2 metros,respectivamente. A tenor del ta-maño de las escorias encontradasen Chapadmalal, cabe inferir untamaño similar para el cráter deimpacto del Plioceno medio. Po-dría estar ubicado en la zona dela plataforma marina actual, aun-que la expresión superficial de cual-quier estructura cercana a la costao en la plataforma habría sido bo-rrada por la erosión marina quedurante el Pleistoceno ha hecho re-troceder la línea de costa varioskilómetros.

Si partimos del número de crá-teres de la superficie lunar, de lacantidad de impactos registradosen áreas cratónicas estables de Amé-rica del Norte y de la probabili-dad actual del número de objetosen el espacio como asteroides, me-teoritos y cometas que cruzan laórbita de la Tierra, podrían haberseproducido entre 2 y 6 episodios de

impacto que generaron cráteres demás de 1 km de diámetro durantelos últimos 12 millones de años, enun área de alrededor de un millónde kilómetros cuadrados de la re-gión chaco-pampeana. Se trata deuna estimación de sumo interés,pues hay noticias de la presenciade escorias en otras localidades dela región pampeana del sur de Bue-nos Aires, además de la clásica lo-calidad de Mar del Plata-Miramar.

Hemos visitado y explorado es-tos lugares. De acuerdo con losprimeros resultados en cuanto asus edades y ubicaciones estrati-gráficas, se trataría de niveles deescorias relacionados con episo-dios de impacto. Esa observaciónabre enormes expectativas sobre lapotencialidad de la Pampa comoregión archivo de episodios de im-pacto. De momento habría, por lomenos, cuatro episodios, que con-vierten a la región en un registrocontinental de características úni-cas para este tipo de procesos. Elestudio de escorias y tierras coci-das, que requiere la colaboraciónde la sedimentología, geocronolo-gía, magnetoestratigrafía, meca-nismos de impacto, paleontologíay petrología, ayudará a interpretarla historia geológica desde otraperspectiva.

52 INVESTIGACIÓN Y CIENCIA, enero, 2002

TERRESTRIAL IMPACT: THE RECORD INTHE ROCKS. R. A. F. Grieve en Me-teoritics, n.o 26, págs. 175-194, 1991.

RECENT GRAZING IMPACTS ON THEEARTH RECORDED IN THE RÍO CUAR-TO CRATER FIELD, ARGENTINA. P. H.Schultz y R. Lianza en Nature, vol.355, págs. 234-237, 1992.

METEORITE CRATERS AND IMPACTSTRUCTURES OF THE EARTH. P. W.Hodge. Cambridge University Press,1994.

A 3.3-MA IMPACT IN ARGENTINAAND POSSIBLE CONSEQUENCES. P. H.Schultz, M. Zárate, W. Hames, C.Camilión, J. King en Science, vol.282, págs. 2061-2063, 1998.

TRACES OF CATASTROPHE. A HAND-BOOK OF SHOCK-METAMORPHIC EF-FECTS IN TERRESTRIAL METEORITEIMPACT STRUCTURES. B. M. French,LPI Contribution N. 954. Lunar andPlanetary Institute, Houston, 120 págs.(1998).

Bibliografía complementaria

Page 55: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 53

Sobre el estado de ánimo de los profesionales de la eco-logía constituye un buen punto de referencia la conven-ción anual de la Sociedad para la Biología de la Con-servación. En la última, celebrada en agosto del año pasadoen Hilo, Hawai, Robert M. May, profesor de la Univer-

sidad de Oxford y presidente de la Regia Sociedad, se encargó dedisipar cualquier atisbo de esperanza. De acuerdo con sus cálcu-los, la tasa de extinción (el ritmo al que las especies desaparecen)se aceleró durante los últimos 100 años; se ha multiplicado por1000 la tasa que se supone había antes de que aparecieran los se-res humanos. Varias líneas de razonamiento sugieren, explicó, unaaceleración por un factor de 10 a lo largo del próximo siglo, loque nos coloca en el frente de la sexta ola de extinción en masade los organismos.

May se lamentó del “chauvinismo de vertebrados total”, en quehan caído biólogos y conservacionistas. El sesgo hacia los mamí-feros, las aves y los peces impide predecir de manera fiable el al-cance y las consecuencias de la pérdida de biodiversidad, cuya ma-yor parte reside en otros grupos. En la orilla opuesta milita elestadístico Bjørn Lomborg, de la Universidad de Århus, para quienlos informes sobre la muerte de la biodiversidad se han exageradomucho.

La extinciónde las

especiesIgnoradas en general por los políticos, las advertencias

de los ecólogos sobre la actual extinción en masa se reciben

con escepticismo en determinados círculos. Resulta harto difícil

conocer las dimensiones de la mortandad, la naturaleza

de su alcance y la forma de detenerla

W. Wayt Gibbs

Page 56: Investigación y ciencia 304 - Enero 2002

54 INVESTIGACIÓN Y CIENCIA, enero, 2002

Cifras y proyecciones

La rotunda afirmación de May de que el hombreparece estar causando un cataclismo biológico

mayor que cualquier otro episodio de extinción enmasa desde el que acabó con los dinosaurios, hace65 millones de años, se une a un coro de voces dealerta que se ha venido oyendo, por lo menos, desde1979, cuando Norman Myers estimó que, cada año,unas 40.000 especies pierden a su último miembro,y predijo, para el año 2000, la extinción de un mi-llón de ellas. En el decenio de los ochenta, ThomasLovejoy cifraba las bajas, para ese plazo, entre el15 y el 20 por ciento de las especies; Paul Ehrlichelevaba a la mitad del total las especies desapareci-das en el año 2000. Pero tras su reciente revisiónde la bibliografía sobre tasas de extinción, Kirk O.Winemiller, ictiólogo de la Universidad de TexasA&M, concluye que la eliminación no llega a unaquinta parte del elenco.

Las últimas proyecciones recortan incluso esa ci-fra, porque algunas de las especies que se suponíana extinguir han persistido durante más tiempo delprevisto. Y no faltan las que han vuelto de la tumba.Hace unos meses se ha descubierto que el topillo bá-varo, mamífero de Eurasia continental que se creíaextinguido desde 1500, sigue vivo.

Con todo, los números varían. En la edición de1999 de The Diversity of Life, E. O. Wilson, de laUniversidad de Harvard, cita estimas actuales segúnlas cuales entre el 1 y el 10 por ciento de especiesse extinguen en un decenio, al menos 27.000 poraño. Michael J. Novacek, del Museo Americano deHistoria Natural de Nueva York (AMNH), revisabaen marzo del año pasado el estado de la cuestión y

llegaba a la conclusión de que las cifras que se apro-ximan al 30 por ciento de exterminación de todaslas especies para mediados del siglo XXI no resultaninverosímiles. Y en una encuesta realizada en 1998entre la comunidad de biólogos, el 70 por cientocreía que está teniendo lugar una extinción en masa;de éstos, un tercio admitía que se perdería entre el20 y el 50 por ciento de las especies en los 30 añossiguientes.

Lomborg insiste, sin embargo, en que tales supo-siciones carecen de respaldo suficiente. En su opi-nión, los conservacionistas han ignorado pruebas re-cientes según las cuales la deforestación tropical nose está cobrando el peaje temido. A ese recelo sesuma Ross D. E. MacPhee, del AMNH, para quienno existe un solo grupo de animales bien investiga-dos que muestre una pauta de pérdidas que se corres-ponda con tasas de extinción muy altas. Los mejo-res modelos, sugiere Lomborg, proyectan una tasa deextinción del 0,15 por ciento de especies por dece-nio, lo que no es una catástrofe, aunque sí un pro-blema.

Pese a la disparidad de las cifras, la pregunta con-tinúa abierta. ¿Nos hallamos ante un episodio de ex-tinción en masa? Para contestarla se impone cono-cer tres factores: la tasa de extinción natural (o defondo), la tasa actual y la estabilidad o inestabilidad(cambio) del ritmo de la extinción. El primer pasoconsiste en averiguar la duración media de la vidade una especie a partir del registro fósil. Para Wil-son, la tasa de extinción de fondo será, entonces, elinverso de aquélla; si las especies nacen al azar yviven un millón de años, ello significa que una es-pecie entre un millón se extingue de manera naturalcada año. En 1995 May empleó un método similarpara computar la tasa de extinción de fondo; pero alfundarse en estimas que situaban la duración mediade la vida de una especie entre cinco y 10 millonesde años, obtuvo una tasa que es entre cinco y 10veces menor que la de Wilson.

Sesgos y supuestos

May y Wilson se apoyaban en datos elaboradospor David M. Raup. Este paleontólogo vio, sin

embargo, graves defectos en las hipótesis de los dosprimeros que, a su entender, partían de tres supues-tos falsos. Primero, aceptar que las especies de plan-tas, mamíferos, insectos, invertebrados marinos y otrosgrupos perduran aproximadamente el mismo tiempo;en realidad, el tiempo de supervivencia típico parecevariar entre los distintos grupos por un factor de 10o más, siendo las especies de mamíferos las que an-tes se extinguen. En segundo lugar, May y Wilsonconceden a todos los organismos la misma probabi-lidad de aparecer en el registro fósil, en tanto quela paleontología reconoce que no llegan al 4 porciento las especies extintas que fosilizan; además, lasespecies que vemos son las que gozaron de una am-plia dispersión y notable éxito. Las especies débiles,confinadas en cimas montañosas o a una isla, se ex-tinguieron todas antes de poder fosilizarse, apostilla

Resumen/Tasas de extinción■ Los ecólogos advierten que el hombre está provo-

cando un episodio de extinción en masa de unagravedad similar a la que determinó ladesaparición de los dinosaurios, hace 65 millonesde años. Sin embargo, desde la paleontología y laestadística se pone sordina a tales augurios.

■ Es difícil saber con qué rapidez estándesapareciendo las especies. Los modelos basadosen la velocidad de la deforestación tropical o en elcrecimiento de las listas de especies amenazadaspredicen tasas de extinción crecientes. Pero elsesgo de los biólogos hacia las plantas y los ver-tebrados, que representan una minoría de los se-res vivos, socava dichas predicciones. Puesto queel 90 por ciento de las especies no tienen todavíanombre, y mucho menos censos, son imposiblesde verificar.

■ Frente a la inseguridad sobre la reducción de labiodiversidad y su valor económico, se debate silas especies raras debieran ser el foco de la con-servación. Quizá, sugieren algunos, deberíamos pri-mero intentar salvar tierras vírgenes (y baratas),donde la evolución pueda proseguir sin verse afec-tada por la actividad humana.

Page 57: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 55

1. LA MUERTE DE UN ORANGUTAN atrae nuestra atención y parece confir-mar nuestros peores temores sobre la reducción de la biodiversidad. Pero,

al centrarnos en animales emblemáticos, corremos el riesgo de perder laperspectiva general. El simio de la fotografía murió por causas naturales.

Y hay una parte mucho mayor del patrimonio evolutivo de la Tierraen las orillas y en el agua que el que yace sobre el tronco.

Page 58: Investigación y ciencia 304 - Enero 2002

56 INVESTIGACIÓN Y CIENCIA, enero, 2002

John Alroy, de la Universidad de California en SantaBárbara (UCSB).

El tercer problema es de orden estadístico. May yWilson utilizan una duración promedio de la vida,cuando, en opinión de Raup, hay que recurrir a unamediana, pues la inmensa mayoría de las especiesson de vida corta y, por tanto, la media queda dis-torsionada por las poquísimas que tienen una dura-ción media de la vida muy larga. Estas tres simpli-ficaciones excesivas, resume el paleontólogo, subvaloranla tasa de fondo y hacen que la situación actual re-sulte, en comparación, más alarmante.

En un primer intento de corregir los sesgos y pre-cariedad de los datos, Helen M. Regan y sus cola-boradores de la UCSB publicaron sus resultados li-mitados a los mamíferos: cuántas especies vivas ycuántas de extinción reciente fosilizarían. Estimaronla incertidumbre asociada a uno y otro grupo, sindejar margen a meras conjeturas. De acuerdo con esainvestigación, la tasa actual de extinción de los ma-míferos se sitúa entre 17 y 377 veces la tasa deextinción de fondo; el valor más aproximado se ha-lla en la horquilla entre 36 y 78 veces.

Sin embargo, el método de Regan tiene su puntodébil, que ella misma reconoce: la comparación delos últimos 400 años con los 65 millones de añosanteriores implica, de manera inevitable, que la tasaactual de extinción se mantendrá durante millones deaños. Siguiendo otro método más depurado, Alroyestablece que la tasa de pérdida entre las especiesde mamíferos ha sido unas 120 veces mayor que lanatural.

Extinción en marcha

Los trabajos dedicados a conocer la tasa de ex-tinción actual se desenvuelven con mayor inse-

guridad incluso. La Unión Internacional para la Con-servación de la Naturaleza (IUCN) elabora “listas ro-

jas” de organismos que se sospecha han desapare-cido de su medio natural. Pero en la tarea, objetanalgunos, no sigue unos criterios de fiabilidad rigu-rosos. MacPhee y otros expertos en extinción hanformado un comité sobre organismos recientementeextinguidos, que ha sometido a criba las listas rojas:aunque de los 87 mamíferos listados por la IUCN,60 se han extinguido, de los 92 peces de agua dulcesupuestamente extinguidos según la IUCN sólo 33han desaparecido para siempre.

Ahora bien, por cada especie reputada extinta sinrazón, podría haber cientos o miles que desaparecensin que la ciencia lo sepa. May lo cuantifica. La po-sibilidad de error en torno al número de especies conlas que compartimos el planeta se cifra en un fac-tor de 10, es decir, unos siete millones de especies,aunque se barajan estimaciones entre los cinco y los15 millones, excluidos los microorganismos.

Los taxónomos han dado nombre a alrededor de1,8 millones de especies. De la mayoría no sabemoscasi nada; en particular, de los insectos, nemátodosy crustáceos, que dominan el reino animal. Alrede-dor del 40 por ciento de las 400.000 especies de co-leópteros registradas se han recolectado en un sololugar por especie. Sin conocer el área de distribu-ción, no podemos confirmar su extinción. Ni siquierasuele llevarse un registro de los propios invertebra-dos que se sabe que se han extinguido; a modo deejemplo, cuando desapareció la paloma migratoria en1914, se llevó consigo dos especies de piojos pará-sitos. Siguen sin estar en la lista de la IUCN.

Sin duda, resulta harto difícil asistir a la extinciónde una especie. Los artículos relativos al “holocaustobiótico”, si aceptamos la metáfora de Myers, dan porsupuesto que el grueso de las extinciones se produceen la América tropical. Pensemos en los peces deagua dulce, de reconocida vulnerabilidad. Una cuartaparte de ellos se encuentran en la lista de especiesamenazadas. Con todo, Winemiller, que trabaja desdehace 30 años en Venezuela, país que posee más pe-ces de agua dulce que toda Norteamérica, y ha rea-lizado una meritoria labor de catalogación de la di-versidad de peces, se ha visto incapaz de ofrecer unsolo caso documentado de extinción.

La lógica de la pérdida

Pero el desastre está ahí. Se infiere de varias lí-neas de pruebas que evocan unas tasas de extin-

ción aceleradas. De entre los criterios aceptados so-bresale la relación especies-área. Hace más de 30 añosWilson proponía que a medida que se reduce la su-perficie del hábitat, el número de especies que vi-ven en éste disminuye proporcionalmente, entre laraíz cúbica y la raíz sexta. De ese caso general si-túa el valor medio en la raíz cuarta, lo que signi-fica que, cuando se elimina el 90 por ciento del há-bitat, el número de especies se reduce a la mitad.

A partir de esta primera estima aproximada y dela tasa de destrucción de la selva tropical, en tornoal 1 por ciento anual, continúa Wilson, podemos pre-decir que alrededor de la cuarta parte de un 1 por

Filtros de extinciónLa supervivencia del más apto adquiere un nuevo significadocuando el hombre coloniza una región. De cuatro regionesde clima mediterráneo, las desarrolladas más recientementehan perdido fracciones mayores de sus especies de plantasvasculares. Una vez las especies menos compatibles con laagricultura son eliminadas por el filtro de la “selección artifi-cial”, las tasas de extinción parecen reducirse.

REGION(por orden de desarrollo)

EXTINGUIDAS(por 1000)

AMENAZADAS(porcentaje)

Mediterráneo 1,3 14,7

El Cabo (Sudáfrica) 3,0 15,2

California 4,0 10,2

Australia Occidental 6,6 17,5

FUENTE: “Extinctions in Mediterranean Areas”, Werner Greuter en Extinction Rates,dirigido por J. H. Lawton y R. H. May. Oxford University Press, 1995

Page 59: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 57

ciento de especies se están ahora extinguiendo o sehallan condenadas a desaparecer mucho antes de loque les correspondería. De un conjunto de 10 mi-llones de especies deberíamos esperar que desapare-cieran cada año unas 25.000.

Lomborg no participa de esa opinión. Por tres ra-zones. Las relaciones especies-área se establecieroncomparando el número de especies en las islas; notienen por qué ser de aplicación necesaria en hábi-tats continentales fragmentados. A este respecto, Gret-chen Daily, de la Universidad de Stanford, publicabahace poco que más de la mitad de las especies deaves nativas de Costa Rica se encuentran en hábitatsrurales, en su mayoría deforestados, junto con frac-ciones similares de mamíferos y mariposas. Aunquepudiera ser que no prosperasen, una gran fracción deespecies forestales podría sobrevivir en tierras de la-bor y en parques forestales, si bien nadie sabe toda-vía durante cuánto tiempo.

Lomborg esgrime en segundo lugar que, lo mismoen los Estados Unidos orientales que en Puerto Rico,

el desmonte de más del 98 por ciento de los bos-ques primarios no eliminó la mitad de las especiesde aves. Y lo refuerza con unas cifras aplastantes:tras cuatro siglos de talas sólo se extinguió, de las200 que había en los Estados Unidos, una especiede ave forestal; de las 60 especies nativas en PuertoRico, siete.

A esos dos argumentos de Lomborg, replica StuartL. Pimm, de la Universidad de Columbia. Le repro-cha que haga un uso abusivo de la teoría de la re-lación especies-área. Para Pimm sólo las especiesconfinadas a la zona afectada desaparecen, no lasque gozan de una distribución más amplia. Salvo 28,las 200 especies de aves que medran en los bosquesde los EE.UU. orientales vivían también en otros lu-gares. Además, el bosque se taló gradualmente, ygradualmente se regeneró tras el abandono de loscampos. De modo que incluso en el momento álgido,alrededor de 1872, la mitad de la extensión del bos-que original estaba cubierta por tierras forestadas.La teoría de la relación especies-área predice que un

Cámbrico Ordovícico Silúrico Devónico Carbonífero Pérmico Triásico Jurásico Cretácico TerciarioCuaternario

570 510 439 409 363 290 248 210 146 65 1,64

FINAL DEL ORDOVICICODURACIÓN: 10 millones de años (ma)GÉNEROS MARINOS DE LOS QUE SE HA OB-SERVADO LA EXTINCIÓN: 60 %ESPECIES MARINAS QUE SE HA ESTIMADOQUE SE EXTINGUIERON: 85 %CAUSA SUPUESTA: Fluctuacionesespectaculares en el nivel del mar DEVONICO TARDIO

DURACIÓN: < 3 maGÉNEROS MARINOS DE LOSQUE SE HA OBSERVADO LAEXTINCIÓN: 57 %ESPECIES MARINAS QUE SEHA ESTIMADO QUE SE EX-TINGUIERON: 83 %CAUSAS SUPUESTAS: Im-pacto; enfriamiento glo-bal; pérdida de oxígenoen los océanos

Millones de años antes del presente

FINAL DEL PERMICODURACIÓN: DesconocidaGÉNEROS MARINOS DE LOSQUE SE HA OBSERVADOLA EXTINCIÓN: 82 %ESPECIES MARINASQUE SE HA ESTIMADOQUE SE EXTINGUIERON: 95 %CAUSAS SUPUESTAS: Es-pectaculares fluctuacionesclimáticas o en el nivel delmar; impactos de asteroi-des o cometas; intensaactividad volcánica

Mosasaurio

Coral rugoso

Trilobites

Placodermo

FINAL DEL CRETACICODURACIÓN: < 1 maGÉNEROS MARINOS DE LOSQUE SE HA OBSERVADOLA EXTINCIÓN: 47 %ESPECIES MARINASQUE SE HA ESTIMADOQUE SE EXTINGUIERON: 76 %CAUSAS SUPUESTAS: Impacto;importante actividad volcánica

El pasado (¿y el presente?) de las extinciones en masaSECUENCIA TEMPORAL DE LA EXTINCION;marca las cinco mortandades generalesmás extendidas en la historia fósil de la vidasobre la Tierra.

FINAL DEL TRIASICODURACIÓN: 3 a 4 maGÉNEROS MARINOS DE LOSQUE SE HA OBSERVADOLA EXTINCIÓN: 53 %ESPECIES MARINASQUE SE HA ESTIMADO QUESE EXTINGUIERON: 80 %CAUSAS SUPUESTAS: Intensaactividad volcánica; caldea-miento global

Dientesde fitosaurio

Como sea que se sospechaque más de 1100 especies(ocho de ellas se indicana la derecha) han desaparecidoen los últimos 500 años, losecólogos temen la inminenciade un episodio (el sexto) de extin-ción en masa. Sin embargo, lasmortandades que ha habido hastaahora no dejarían ninguna señalinsólita para los paleontólogos delfuturo que inspeccionaran nuestraépoca.

ESPECIE (Nombre científico) VISTA POR ULTIMA VEZ EN CAUSAS DE LA EXTINCION

Corégono de fondo (Coregonus johannae) 1952, lagos Hurón y Michigan Sobrepesca, hibridación

Pez cachorrito (Cyprinodon ceciliae) 1988, presa Ojo de Agua, México Pérdida de alimento

Foca monje del Caribe (Monachus tropicalis)

Mariposa azul de Xerces (Glaucopsyche xerces)

O’o de Kauai (Moho braccatus)

Frigánea de Tobias (Hydropsyche tobiasi)

Zorro volador de dorso desnudo de Chapman(Dobsonia chapmani)

Década de 1970, isla de Cebú, Filipinas Destrucción del bosque, sobrecaza

Picoancho de Guam (Myiagra freycineti)

Década de 1950, mar Caribe

1941, península de San Francisco

1987, isla de Kauai, Hawai

Década de 1950, río Rin, Alemania

1983, isla de Guam

Sobrecaza, acosamiento

Transformación de tierras

Enfermedades, depredación por ratas

Contaminación industrial y urbana

Depredación por serpientesarborícolas pardas introducidas

Fuentes: Comité sobre Organismos Recientemente Extinguidos; BirdLife International; Sociedad Xerces; World Wildlife Fund.

Page 60: Investigación y ciencia 304 - Enero 2002

FUENTES: Encyclopedia of Biodiversity, dirigida por S. A. Levin; “BiodiversityHotspots for Conservation Priorities”, de N. Myers et al. en Nature, vol. 403,págs. 853-858, 24 febrero 2000; William Eschemeyer (especies de peces); MarcVan Regenmartel (especies de virus); Lista Roja de la IUCN 2000.

INSECTOSespecies totales estimadas: 8.750.000especies identificadas: 1.025.000

HONGOS1.500.00072.000

BACTERIAS Y ARQUEOS1.000.0004000

ALGAS400.00040.000

NEMATODOS Y GUSANOS400.00025.000

VIRUS400.0001550

PLANTAS320.000270.000

OTROSORGANISMOS250.000110.000

MOLUSCOS200.000

70.000

PROTOZOOS200.000

40.000

CRUSTACEOS150.000

43.000

PECES35.00026.959

AVES98819700

REPTILES78287150

MAMIFEROS48094650

ANFIBIOS47804780

PIRAMIDE DE LA DIVERSIDADEn una primera aproximación, todas las especies plurice-lulares son insectos. Los biólogos conocen todavía muypoco acerca de la verdadera diversidad y de la importan-cia ecológica de los grupos más comunes.

El inventario de la vida¿Cuál es el alcance real de la crisis de ex-

tinción? Depende, en buena medida, de lasespecies existentes. Cuanto mayor sea su

número, más especies se extinguirán cada año porcausas naturales y más especies nuevas apareceránde forma asimismo natural. Ahora bien, aunque sehallan perfiladas las líneas generales del árbol de lavida, no sabemos cuántas ramitas hay exactamente alfinal de cada rama. Cuando se trata de bacterias, vi-rus, protistas y arqueos (un reino entero de seres vi-vos unicelulares descubierto hace escasos decenios),los microbiólogos poseen sólo una vaga idea del nú-mero real de ramas.

Aves, peces, mamíferos y plantas son las excepcio-nes. Hay unos 5000 profesionales en todo el mundodedicados a la taxonomía, con unas proporciones muy

similares entre los consagrados a la identificación ycatalogación de vertebrados, plantas e invertebrados.Mas, a la hora de estudiar la evolución presente y fu-tura de los ecosistemas, descubriremos muchísimomás estudiando los microorganismos del suelo que losvertebrados emblemáticos, defiende May.

De todos los grupos, con excepción de las Aves,se están descubriendo nuevas especies a un ritmomás rápido que el que nunca hubo, gracias a variosproyectos internacionales. Así, el denominado Todaslas Especies, que se propone catalogar todas y cadauna, microorganismos incluidos, en un plazo de 25años. El Servicio de Información sobre BiodiversidadGlobal y Especies 2000 está construyendo bases dedatos en Internet con registros dispersos por museosy universidades del mundo.

Page 61: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 59

50 por ciento de reducción debería eliminar un 16 porciento de las especies endémicas: en este caso, cua-tro especies de aves. Y cuatro especies son las quese extinguieron. Lomborg no tiene en cuenta una deestas cuatro, que quizá fuera una subespecie, y otrasdos, que sucumbieron tal vez por agresiones de otrotenor.

A ello responde Lomborg. Aun cuando se mantu-viera la relación especies-área, las estadísticas oficia-les sugieren que la deforestación se ha ido reducien-do y ahora se encuentra muy por debajo del 1 porciento anual. La Organización de las Naciones Uni-das para la Alimentación y la Agricultura (FAO) hacalculado que desde el año 1990 al 2000 la cubiertaforestal del mundo ha venido reduciéndose a una tasamedia anual del 0,2 por ciento (11,5 millones de hec-táreas taladas, menos 2,5 millones de hectáreas derepoblación).

Pero esos datos, matiza Carlos A. Peres, de la Uni-versidad de East Anglia, deben completarse con otros:la pérdida anual de selva fue de alrededor del 0,5 porciento en la mayor parte de los trópicos, y allí esdonde vive la mayoría de las especies raras y ame-nazadas. Por consiguiente, aun cuando se equivoquenalguna que otra vez con las cifras quienes hacen pre-visiones, se trata sólo de un asunto de escala tem-poral.

Un futuro incierto

Los ecólogos han ensayado otros métodos proyec-tivos de tasas de extinción. May y sus colabo-

radores partieron del movimiento de los vertebradosen el elenco de especies amenazadas de la base dedatos de la IUCN, a lo largo de un período de cua-tro años (dos años para las plantas), para proyectarluego esos números, muy pequeños, hacia el futuro.Llegaron a la conclusión de que las tasas de extin-ción aumentarán entre 12 y 55 veces en los próxi-mos 300 años. Georgina M. Mace, de la SociedadZoológica de Londres, arribó a un punto similar me-diante la combinación de modelos que describen lasprobabilidades de supervivencia de una muestra res-tringida de especies conocidas. Nigel E. Stork, delMuseo de Historia Natural de Londres, tras hallarque la probabilidad de extinción de un ave inglesadecuplicaba la de un insecto inglés, extrapoló la ra-zón al resto del mundo para predecir que de aquí alaño 2300 se habrán extinguido entre 100.000 y 500.000especies de insectos. Lomborg está de acuerdo coneste último modelo. Fundado en él, postula que latasa para todos los animales se mantendrá por de-bajo del 0,208 por ciento por década, y quizá seainferior al 0,7 por ciento por 50 años.

No faltan razones para temer una catástrofe inmi-nente, aun cuando la extinción en masa no hubieraempezado todavía. Debemos a Kevin Higgins, de laUniversidad de Oregón, un modelo informático deuna población de organismos virtuales, donde se si-mulan sus tasas de mutación genética, su comporta-miento reproductor y sus interacciones ecológicas. Sise trata de poblaciones pequeñas, las mutaciones tien-

den a ser bastante benignas y respetadas por la se-lección natural. Ello recorta de forma espectacular supersistencia hasta la extinción. Por tanto, advierteHiggins, con la mengua de hábitats y la extermina-ción de las poblaciones (a una tasa de quizá 16 mi-llones por año, según ha estimado Daily) nos en-contramos ante una bomba retardada, un episodio deextinción subyacente.

¿Y qué les ocurrirá a las higueras, del género Fi-cus, el más extendido de los géneros vegetales enlos trópicos, si pierden la única variedad de avispaparásita que poliniza a cada una de sus 900 espe-cies? ¿O al 79 por ciento de árboles de la bóvedaarbórea de las pluviselvas de Samoa, si los cazado-res acaban con los zorros voladores de los que de-penden? Muchos conservacionistas temen que los ar-cos de ecosistemas enteros se vengan abajo si seeliminan las especies “clave”.

Una metáfora que no todos comparten, dada la re-dundancia que, según estudios recientes, parece darseen los ecosistemas. De esa idea participa Melodie A.McGeoch, de la Universidad de Pretoria, aunque ma-tiza que lo redundante hoy quizá no lo sea mañana.MacPhee añade que carece de sentido pensar que lamayoría de las especies desaparecerían con presionesmarginalmente mayores que las que tendrían si losseres humanos no estuvieran en escena; la evolucióndebería haberlas hecho resilientes, es decir, dotadasde capacidad de volver a la situación precedente ala presión.

Si no la selección natural, podría hacerlo la se-lección artificial, si nos atenemos al trabajo de Wer-ner Greuter, de la Universidad Libre de Berlín, Tho-mas M. Brooks, de Conservation International, y otros.Greuter comparó la tasa de extinciones recientes deplantas en cuatro regiones ecológicamente similaresy descubrió que la región ocupada por el hombredesde hace más tiempo, y la más perturbada (la re-gión Mediterránea), poseía la tasa menor. Se regis-traban mayores tasas de extinción de plantas en Ca-lifornia y Sudáfrica, y mucho mayores en AustraliaOccidental. ¿Cómo explicar esa paradoja? Para losautores, las especies no pueden coexistir con la ro-turación del suelo y tienden a desaparecer poco des-pués que empiece la agricultura; las que quedan es-tán mejor equipadas para resistir la agresión humana;por tanto, las extinciones inducidas por los seres hu-manos pueden reducirse a lo largo del tiempo.

Si andan en lo cierto, podrían entenderse algunascosas. Hace milenios, nuestros antepasados de Euro-pa, Asia y otras regiones eliminaron muchas espe-cies. Pero quizá tengamos más tiempo del que te-memos para evitar catástrofes futuras en las regionesdonde el hombre formó parte del ecosistema y me-nos tiempo del que esperamos para evitarlas en lasáreas naturales que permanecen vírgenes.

Ahorros a largo plazo

En cualquier caso, las pérdidas son inevitables,mientras la población humana no deje de cre-

cer. En el ínterim, hemos de atravesar por ese cue-

Page 62: Investigación y ciencia 304 - Enero 2002

En el Congreso Internacional de Entomólogoscelebrado el pasado verano en Foz doIguaçú, Ebbe Nielsen, director de la Colec-

ción Nacional Australiana de Insectos, de Can-berra, reflexionó acerca de las razones por lasque se ha avanzado tan poco en la protección deespecies amenazadas, desde el Convenio sobre laDiversidad Biológica, firmado en Brasil, en 1992,por 178 países. En el Tercer Mundo, manifestó,los apremios económicos obligan a las nacionesa vivir al día, y, mientras ésa sea la situación,no podemos esperar respaldo institucional para labiodiversidad. Es decir, a menos que les resultemás rentable respetar un bosque o un humedalque talar aquél o drenar éste para ganar suelode cultivo, pastizal o aparcamientos.

Una barrera contra la enfermedady el hambre

Suele aducirse a menudo que la diversidad ge-nética contenida en las especies constituye, en úl-timo término, la materia prima de la revoluciónbiotecnológica del mañana, así como fuente pro-metedora de nuevos fármacos y nuevos alimentos.Una suerte de alacena de relevo por si algo ocu-rriera a las 30 especies de plantas cultivadas quesuministran el 90 por ciento de las calorías de ladieta humana, o a las 14 especies animales queconstituyen el 90 por ciento de nuestro ganado.

De esa tesis harto repetida discrepa RobertMay, para quien dentro de 20 o 30 años seguire-mos fabricando fármacos a partir de las molécu-las, en la línea iniciada ya por los laboratorios.Diez años atrás, Merck subvencionó con 1,14 mi-llones de dólares a InBio, un grupo de conserva-ción costarricense, para la búsqueda de nuevasmoléculas químicas extraídas de especies de laselva tropical. Además, el contrato establecía re-galías para InBio por los fármacos. Al no conse-guirse ninguno, Merck canceló el contrato en1999. Shaman Pharmaceuticals, fundada en 1989para comercializar plantas medicinales tradiciona-

les, llegó hasta las pruebas clínicas de últimafase, pero después quebró. Por otro lado, másdel 90 por ciento de las variedades conocidas delas plantas alimenticias básicas se hallan deposita-das en bancos de semillas.

Servicios ecosistémicos

La verdad es que los sistemas ecológicos rin-den servicios en los que apenas reparamos. Nosabemos en qué medida se pueden simplificar es-tos ecosistemas sin alterar su funcionamiento. Laprudencia dicta conservar todas las piezas, por siacaso. La economía sólo puede asignar valoresa las cosas para las que hay mercados. Si fueraa desaparecer todo el petróleo, por ejemplo, po-dríamos cambiar a combustibles alternativosque costasen 50 dólares el barril. Pero esto nodetermina el precio del petróleo. Y aunque ciertosexperimentos recientes sugieren que eliminar unafracción grande de especies de un área pequeñareduce su biomasa y su capacidad de absorberdióxido de carbono, ignoramos si el principio esde aplicación a ecosistemas enteros.

Un deber de gerencia responsable

Ante un conocimiento tan precario de los millo-nes de especies que existen, y no digamos ya delos complejos papeles que cada una desempeñaen el ecosistema que habita, quizá la economíano pueda venir nunca en socorro de las especiesamenazadas. Habrá que pensar en otras razonesque nos muevan a tomar medidas en pro de laconservación. Una especie es una obra maestrade la evolución, una entidad de millones de añosde antigüedad codificada mediante cinco mil millo-nes de letras genéticas, exquisitamente adaptadaal nicho en el que vive, en palabras de Wilson.Habría que reconocer el derecho inalienable a se-guir existiendo de quien tiene una historia milena-ria en la naturaleza. Lo que demanda una geren-cia responsable.

Economía y política de la biodiversidad

60 INVESTIGACIÓN Y CIENCIA, enero, 2002

Page 63: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 61

llo de botella, en expresión de Wilson, hasta poderllegar a una época, quizá dentro de un siglo, de dis-minución de la población humana; para él, importaalcanzar ese momento con la máxima biodiversidadposible. Los biólogos se hallan divididos acerca desi el haz de especies emblemáticas en peligro de-biera determinar la biodiversidad a mantener en di-cho intervalo.

Subraya May que la idea según la cual, cuando seprotege a aves y mamíferos, los demás seres vivostambién salen beneficiados, no resiste un análisis mi-nucioso. Más inteligente resulta intentar conservar lamayor cantidad de historia evolutiva. Mucho más va-liosas que un panda o un rinoceronte, prosigue, sonformas de vida relictas tales como el tuátara, un rep-til parecido a una iguana que vive en islotes coste-ros de Nueva Zelanda. Quedan dos especies de tuá-tara de un grupo que surgió del tronco principal delárbol evolutivo de los Reptiles hace tanto tiempo queesta pareja constituye por sí sola un género, un or-den y casi una subclase. Woodruff, de la Universi-dad de California en San Diego, va más allá al pro-poner salvar no tanto los productos de la evolución(determinadas especies) cuanto el proceso subyacente,la evolución misma.

Existen todavía algunas áreas donde sólo la se-lección natural determina qué especies triunfan ycuáles fracasan. ¿Por qué no salvar ecosistemas quefuncionan y que todavía no han sido expoliados?

En el escudo de Guyana residen muchas más espe-cies que en los llamados puntos calientes. “Salvar”significaría en este contexto comprar extensiones demagnitud suficiente para acomodar ecosistemas en-teros a medida que éstos se desplazan hacia el norteo hacia el sur en respuesta al clima cambiante. Tam-bién significaría prohibir todos los usos humanos delsuelo. No se trata de ningún imposible. Las tierrassalvajes son bastante baratas, y la población de com-pradores potenciales ha crecido en los últimos tiem-pos. A finales de julio del año pasado, Perú otorgóa un grupo conservacionista la primera “concesiónde conservación” del país (que esencialmente es unarrendamiento renovable por el derecho de no de-sarrollar la tierra), de 130.000 hectáreas de bosque.En la actualidad, Perú ha abierto unos 60 millonesde hectáreas de sus bosques públicos a este tipo deconcesiones. Y se están haciendo esfuerzos para ne-gociar acuerdos parecidos en Guatemala y Camerún.

2. LA RIQUEZA DE LAS PLUVISELVAS, como ésta de Bor-neo, ha de medirse todavía en gran parte, tanto en tér-minos biológicos como económicos.

THE CURRENCY AND TEMPO OF EXTINCTION. Helen M. Re-gan et al. en American Naturalist, vol. 157, n.o 1, págs.1-10; enero 2001.

ENCYCLOPEDIA OF BIODIVERSITY. Dirigido por Simon AsherLevin. Academic Press, 2001.

THE SKEPTICAL ENVIRONMENTALIST. Bjørn Lomborg. Cam-bridge University Press, 2001.

INTRODUCCIÓN A LA BIOLOGÍA DE LA CONSERVACIÓN. Ri-chard B. Primack y Joandomènec Ros. Ariel, 2002.

Bibliografía complementaria

Page 64: Investigación y ciencia 304 - Enero 2002

62 INVESTIGACIÓN Y CIENCIA, enero, 2002

La evolución

Page 65: Investigación y ciencia 304 - Enero 2002

del

Karen R. Rosenberg y Wenda R. Trevathan

Durante millones de años, el parto de los humanos y sus antecesores ha estadorodeado de dificultades. La costumbre de buscar asistencia en el alumbramiento

hunde sus raíces en un pasado remoto

INVESTIGACIÓN Y CIENCIA, enero, 2002 63

parto humano

Dar a luz en la copa de los árboles no es muyhabitual en los humanos, pero eso fue exac-tamente lo que Sophia Pedro se vio obligada

a hacer durante las inundaciones que asolaron el surde Mozambique en marzo del año 2000. Sophia per-maneció cuatro días subida a un árbol para salvarsede las inundaciones que mataron a más de 700 per-sonas en la región. El día después del parto, las te-levisiones y periódicos de todo el mundo mostraronlas imágenes de la madre y su hijo recién nacidodurante un dramático rescate con helicóptero.

Aunque insólito en los humanos, el parto en lacopa de los árboles no constituye ninguna rareza enotras especies de primates. Durante millones de añoséstos se han retirado a las copas de los árboles paraparir. Los humanos somos la única especie de pri-mates que habitualmente busca ayuda durante el parto.¿Cuándo y por qué nuestros antepasados abandona-ron el parto solitario y sin asistencia? La respuestase encuentra en las dificultades y riesgos que con-lleva el alumbramiento.

Muchas mujeres conocen por su propia experien-cia que empujar el feto a través del canal del partono es una tarea fácil. Es el precio que pagamos porhaber adquirido un cerebro grande y poseer una in-teligencia superior: el tamaño de la caja craneana delos humanos respecto al de su cuerpo es excepcio-nal. Se sabe que el tamaño de la abertura de la pel-vis por donde debe pasar el feto está limitado pornuestra locomoción bípeda. Pero sólo ahora empiezaa comprenderse que los complejos movimientos y gi-ros que las crías realizan al pasar por el canal delparto han representado un problema para los huma-nos y sus antepasados durante al menos 100.000 años.

Algunos fósiles indican también que la anatomía,y no sólo nuestra naturaleza social, ha conducido alas madres humanas a pedir ayuda durante el parto

(al contrario que las madres de nuestros parientesmás cercanos, los primates, y la mayoría del restode los mamíferos). En efecto, la costumbre de bus-car asistencia podría haber aparecido junto a los pri-meros miembros de nuestro género, Homo, y posi-blemente se remonte unos 5 millones de años deantigüedad, cuando nuestros primeros antepasadosiniciaron la marcha bípeda.

Una vía muy estrecha

Para comprobar nuestra hipótesis según la cual laasistencia en el parto ha existido desde hace mi-

lenios, hemos considerado, de entrada, la forma enque una cría de primate encaja en el canal del partode la madre. Vista desde arriba, la cabeza del reciénnacido es básicamente oval, alargada de adelantehacia atrás y más estrecha de oreja a oreja. Igual-mente, el canal del parto (la abertura ósea de la pel-vis por la que pasa el feto del útero al exterior) di-buja también un óvalo. El principal obstáculo a salvaren el parto de muchos primates es el del tamaño dela cabeza de la cría, muy similar al tamaño de di-cha abertura.

A ese angosto trayecto los humanos añaden otracomplicación: la sección del canal del parto no semantiene constante. En efecto, la entrada del canal,donde el feto a término empieza su recorrido, esmás ancha de un lado al otro de la madre. Sin em-bargo, a medio camino, esta orientación gira 90 gra-dos y el eje mayor del óvalo se orienta de la partedelantera del cuerpo de la madre hacia su espalda.Eso significa que el feto debe realizar una serie degiros en su progreso por el canal para que las dospartes de su cuerpo con mayores dimensiones (la ca-beza y los hombros) estén siempre alineadas con eldiámetro mayor del canal.

Page 66: Investigación y ciencia 304 - Enero 2002

64 INVESTIGACIÓN Y CIENCIA, enero, 2002

Para entender el proceso del partodesde el punto de vista de la ma-dre, pensemos en una mujer a pun-to de dar a luz. El feto a términose encuentra en la mayoría de lasocasiones cabeza abajo, y cuandosu cabeza entra en el canal delparto está mirando a un lado. Sinembargo, en la mitad del canaldebe girar la cara para mirar ha-cia atrás, apoyando el occipucio enlos huesos del pubis. En ese mo-mento, los hombros están orienta-dos de un lado a otro. Cuando elrecién nacido se expulsa continúacon la cara orientada hacia atrás,pero girando ligeramente la cabezahacia un lado. Esta rotación ayudaa girar los hombros para que pue-dan acomodarse al espacio que hayentre el pubis y el coxis. Paracomprender la estrecha correspon-dencia que existe entre las di-mensiones de la madre y las delfeto, debemos saber que el canaldel parto tiene un diámetro má-ximo de 13 centímetros y un diá-metro mínimo de 10 centímetros.El diámetro antero-posterior de lacabeza de un recién nacido mideun promedio de 10 centímetros ylos hombros una anchura media de12 centímetros. El trayecto quedebe recorrer a través de un ca-nal de forma variable hace que elparto humano sea tan difícil y pe-ligroso para la mayoría de madrese hijos.

Si retrocedemos lo suficiente ennuestro árbol evolutivo, llegaremosa un momento en el que el naci-miento no era tan difícil. Aunque

los humanos estamos más próxi-mos genéticamente a los simiosantropomorfos (gibones, oranguta-nes, gorilas y chimpancés), los mo-nos (resto de primates catarrinosy platirrinos) pueden representarun mejor modelo del parto en losantepasados de los homínidos. Enefecto, entre los primates fósilesanteriores al primer homínido (Aus-tralopithecus), un posible antepa-sado remoto fue Proconsul, pri-mate fósil con una antigüedad de25 millones de años. Carecía éstede cola y mostraba probablementeel aspecto de un simio, pero suesqueleto indica un modo de lo-comoción más parecido al de unmono. Su pelvis también era muysimilar a la de un mono. En laactualidad, la cabeza de una críade mono representa aproximada-mente el 98 por ciento del diá-metro del canal del parto de lamadre. Se trata de una situaciónsimilar a la que presentan los hu-manos, y no tanto a la de loschimpancés, cuyos canales del partoson más holgados.

A pesar de este paso tan estre-cho, el nacimiento de las crías demono procede con mayor simpli-cidad que en el caso humano. A di-ferencia de la forma retorcida delcanal del parto humano, el canaldel parto de los monos mantienela misma forma de su sección ho-rizontal desde la entrada hasta lasalida. El diámetro mayor del ca-nal se halla orientado antero-pos-teriormente y la parte más anchadel óvalo está cerca de la espaldade la madre. El feto a término deun mono penetra en el canal delparto introduciendo la cabeza enprimer lugar, con la parte más an-cha y posterior de su cráneo apo-yada en la parte más espaciosa dela pelvis, cerca del coxis. Esto sig-nifica que la cría de mono sale delcanal del parto con la cara mi-rando hacia delante; en otras pa-labras, con la cara en la mismadirección que la madre.

Las observaciones del parto delos monos han demostrado las ven-tajas que ofrece el nacer de cara.Las monas dan a luz sentadas so-bre las patas posteriores o apo-yándose en las cuatro patas. Cuandola cría está saliendo del canal delparto, la madre puede agacharse y

guiar su salida, aproximándola asu pecho. En muchas ocasiones, lamadre quita las mucosidades de laboca y nariz de la cría para quepueda respirar. Además, en el mo-mento de la expulsión, las críasvienen con fuerza suficiente paraparticipar de forma activa en supropio nacimiento. Una vez quelas manos quedan libres, puedenagarrar el cuerpo de su madre ysalir por sí mismas.

Si las crías humanas salieran decara, el parto sería mucho más sen-cillo para la madre. En cambio,las modificaciones evolutivas de lapelvis humana que nos permitencaminar de forma bípeda obligana la mayoría de crías humanas asalir con la nuca apoyada en elpubis, mirando en dirección a lamadre. Por este motivo, es muy di-fícil para la parturienta —esté aga-chada, sentada o acostada— poderasistir a sus crías cuando están na-ciendo. Esta situación hace prácti-camente imposible que la madrepueda ayudar a respirar a los re-cién nacidos, quitar el cordón um-bilical del cuello e incluso acer-car los bebés a los pechos. Si lamadre tratase de acelerar el naci-miento cogiendo al recién nacido

HUESOS PUBICOS

COXIS

CABEZA

1. LOS HUMANOS NACEMOS con lacara mirando hacia atrás y con laparte posterior de la cabeza apoyadaen los huesos del pubis materno. Portanto, es difícil para la madre guiaral recién nacido en su salida del ca-nal del parto (la abertura de la pel-vis femenina) sin ayuda.

KAREN R. ROSENBERG y WEN-DA R. TREVATHAN aportan dife-rentes perspectivas al estudio del par-to. Rosenberg, paleoantropóloga de laUniversidad de Delaware, es espe-cialista en la morfología de la pel-vis. Ha estudiado fósiles de homíni-dos de Europa, Israel, China y Sudáfrica.Trevathan, antropóloga física de laUniversidad estatal de Nuevo Méxi-co, se ha interesado por el parto, elcomportamiento maternal, la sexuali-dad, la menopausia y la medicina evo-lutiva. Ambas autoras conocen ade-más el tema por propia experiencia:Rosenberg tiene dos hijas y Trevat-han ha sido comadrona.

Las autoras

Page 67: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 65

y guiar su salida, se correría elriesgo de doblar la espalda de lacría en dirección contraria a lacurva natural de la columna. Po-ner la espalda de un recién nacidoen ese ángulo podría provocar da-ños en su columna vertebral, en susnervios y en sus músculos.

En los humanos contemporáneosla solución a estas dificultades esla búsqueda de asistencia duranteel parto. Puede consistir en elauxilio de un obstreta, una co-madrona o un miembro experto dela familia; pero esta asistenciaayuda a la madre a realizar todoaquello que las monas hacen porsí mismas y puede compensar laslimitadas capacidades motrices delas crías. Las ventajas que ofre-cen hasta las formas más simplesde ayuda durante el parto han re-ducido la mortalidad de las ma-dres y de las crías a lo largo dela historia.

Parto asistido

Por supuesto, nuestras antepasa-das e incluso las mujeres ac-

tuales pueden dar a luz con éxitosin ninguna ayuda. No faltan enla literatura relatos novelados decampesinas pariendo solitarias, imá-genes que han calado en la ideapopular de la facilidad del parto.Pero los antropólogos que han es-tudiado el nacimiento en culturasde todo el mundo señalan lo in-fundado de tal creencia; en los hu-manos el parto rara vez es fácil ypocas veces se produce sin asis-tencia. Hoy en día, la mayoría de

las mujeres de todas las socieda-des se valen de otros. Incluso en-tre los !Kung del sur de Africa,en el desierto del Kalahari, que fa-vorecen culturalmente el parto ensolitario, las mujeres no dan a luzsolas hasta que han alumbrado va-rios hijos con la presencia de susmadres, hermanas u otras mujeres.De esta forma, y aunque existenalgunas excepciones, el parto asis-tido es una costumbre casi uni-versal.

Teniendo esto en cuenta, y conla opinión de que esta costumbrese debe a las dificultades y ries-gos que acompañan al parto hu-mano, pensamos que las comadro-nas no son exclusivas de los humanoscontemporáneos, sino que hundensus raíces en nuestros antepasados.De acuerdo con nuestras propiasinvestigaciones, las comadronas sur-girían hace unos cinco millones deaños, cuando la aparición del bi-pedismo redujo el tamaño y cam-bió la forma de la pelvis y del ca-nal del parto.

Obviamente, un comportamientotan complejo como el que rodeaal alumbramiento no fosiliza, perosí los huesos de la pelvis. El ajusteestrecho que existe entre el ta-maño de la cabeza de la cría y elcanal del parto de la madre en loshumanos permite reconstruir el me-canismo del parto si se conocensus respectivos tamaños. Graciasal registro fósil, nos es familiar laanatomía de la pelvis en bastan-tes períodos, y podemos estimarel tamaño del cerebro y del crá-neo de las crías basándonos en la

amplia muestra detamaños de cráneos adultos.(Los cráneos de infantes, muy de-licados, no se conservaron en bue-nas condiciones hasta que los hu-manos empezaron a enterrar a susmuertos, hace 100.000 años.) Através del tamaño y la forma delos cráneos y de las pelvis pode-mos determinar si los recién na-cidos emergían mirando hacia ade-lante o hacia atrás, y comprobarcuán difícil puede resultar parir.

Marcha bípeda

En los humanos actuales el bi-pedismo y los cerebros gran-

des convergen para complicar elparto. No obstante, el cambio fun-damental respecto a la forma delparto de los primates no humanosse debe a nuestro tipo de loco-moción bípeda. Esta forma espe-cial de desplazarse apareció en losprimeros antepasados de los hu-manos, en el género Australopi-thecus, hace unos cuatro millonesde años [véase “Evolución de lamarcha humana” por C. Owen Lo-vejoy; INVESTIGACIÓN Y CIENCIA,enero 1989]. A pesar de su pos-tura erguida, los australopitecinostenían poco más de un metro dealtura y sus cerebros superabansólo ligeramente los de los chim-pancés actuales. Los recientes des-cubrimientos no aclaran qué espe-cie de australopitecino dio lugar algénero Homo. Sin embargo, siguesiendo importante comprender laforma en la que daban a luz, por-que en especies emparentadas la

Page 68: Investigación y ciencia 304 - Enero 2002

locomoción bípeda limitó de modoparejo el tamaño máximo de lapelvis y del canal del parto.

Para este período cronológico, laanatomía de la pelvis de la hem-bra se conoce gracias a dos fósi-les bastante completos. El primero,STS 14 con 2,5 millones de añosde antigüedad, fue descubierto enSterkfontein, un yacimiento en laregión sudafricana de Transvaal. Elsegundo corresponde a Lucy, un fó-sil descubierto en la zona etíope deHadar y datado en unos tres mi-llones de años de antigüedad. Apartir del estudio de estos dos es-pecímenes y de las estimaciones deltamaño del cráneo de los neonatos,C. Owen Lovejoy, de la Universi-dad estatal de Kent, y Robert G.Tague, de la de Louisiana, afirma-ban a mediados de los años ochentaque el parto en los primeros ho-mínidos difería del conocido en elresto de primates actuales.

El canal del parto de los aus-tralopitecinos tiene forma de óvaloaplastado con la dimensión mayororientada de lado a lado, tanto enla entrada como en la salida. Estageometría requiere que el meca-nismo del parto difiera del de losmonos, simios o humanos. La ca-beza no podía haber rotado en elinterior del canal, aunque nosotraspensamos que, para que los hom-bros encajasen mejor en ese tra-yecto, la cabeza debería haber gi-rado al salir. En otras palabras, sila cabeza de la cría al entrar enel canal del parto lo hacía mirandoa uno de los lados de la madre,los hombros estarían orientados delvientre a la espalda. Esta posicióninicial significa que los hombrosdebían girar para acomodarse a laforma alargada transversalmente delcanal del parto.

Esta sencilla rotación introdujodificultades en el parto de los aus-

tralopitecinos, que ninguna especiede primate había tenido antes. De-pendiendo del lado al que girabanlos hombros, la cabeza salía delcuerpo de la madre mirando haciaatrás o hacia adelante. Debido aque el canal del parto de los aus-tralopitecinos dibuja una forma elíp-tica simétrica, sin variación en surecorrido, el feto podía girar libre-mente los hombros hacia adelanteo hacia atrás de su cuerpo, tenien-do un 50 por ciento de probabili-dades de nacer en una posiciónmás ventajosa con la cara mirandohacia adelante. Si la cría nacía con

66 INVESTIGACIÓN Y CIENCIA, enero, 2002

El parto en diferentes culturasLa forma tan retorcida del canal del parto humano hace que a

las mujeres embarazadas y a sus crías les resultebeneficiosa la ayuda de otras personas (merced a lo cual des-ciende el porcentaje de mortalidad, el dolor y la ansiedad). Laventaja evolutiva de este auxilio nos permite entender por quéel parto asistido es una costumbre prácticamente universal. Porsupuesto, a lo largo de la historia y en circunstancias especia-les, algunas mujeres han dado a luz solas. Pero lo habitual esparir con la ayuda de amigas o familiares. (La participación delos varones puede estar prohibida, tolerada, bien recibida e in-cluso ser requerida.) En las sociedades occidentales, donde lamujer normalmente da a luz en presencia de desconocidos, al-gunos estudios han demostrado que el concurso de unapersona que proporcione respaldo social y emocional a la mujerque está de parto reduce el número de complicaciones.

En muchas sociedades, a la mujer no se le considerapersona adulta hasta que ha tenido un hijo. A menudo, el sitio donde se producen los nacimientos es unlugar específico, así como la postura que debe adoptar la parturienta. En la cultura occidental la mujerpare acostada sobre su espalda en una cama, pero en el resto del mundo son más frecuentes las postu-ras erguidas: sentada, agachada o, en algunas ocasiones, de pie.

Entre las culturas no occidentales, unade las formas habituales del parto es lareflejada en la fotografía.

2. EN LOS MONOS el nacimiento dela cría con la cara hacia adelante per-mite que la madre pueda interveniry guiarla fuera del canal del parto.Incluso puede eliminar las mucosida-des de la cara del recién nacido paraayudarle a respirar.

Page 69: Investigación y ciencia 304 - Enero 2002

la cara hacia atrás, la madre aus-tralopitecina —al igual que las ma-dres humanas actuales— podría ha-berse beneficiado de la presenciade algún tipo de ayuda.

Desarrollode un cerebro grande

Si el bipedismo trajo suficientesdificultades hasta hacer nece-

saria la asistencia, el crecimientoen el tamaño del cerebro de loshomínidos introdujo nuevos obs-táculos. En la evolución humana,el mayor tamaño del cerebro delos adultos y de las crías apareciócon posterioridad a los australopi-tecinos, en particular en el géneroHomo. Escasean pelvis fósiles delos primeros Homo; el individuomejor conservado es el esqueletodel muchacho del Turkana, un ado-lescente de hace 1,5 millones deaños, procedente del yacimiento deNariokotome (Kenia). Se admiteque los adultos de la especie a laque pertenece este muchacho ten-drían el doble de tamaño cerebralque los australopitecinos, si bienrepresentaría sólo dos tercios deltamaño cerebral de los humanosactuales.

Christopher B. Ruff, de la Uni-versidad Johns Hopkins, y AlanWalker, de la estatal de Pennsyl-vania, han reconstruido la pelvisde este adolescente a partir de frag-mentos y estimado el aspecto quetendría cuando hubiese llegado ala edad adulta. A partir de las di-ferencias entre las pelvis masculi-nas y las femeninas que conoce-mos en especies más recientes dehomínidos, infirieron cómo seríauna hembra de esa especie y laforma del canal del parto. Seríaésta ovalada y similar a la de losaustralopitecinos. Basándose en ta-les reconstrucciones, determinaronque la especie a la que perteneceel muchacho del Turkana tuvo unmecanismo del parto similar al delos australopitecinos.

En los últimos años, se ha ve-nido sometiendo a prueba una im-portante hipótesis que se deduce dela afirmación de Ruff y Walker: laanatomía de la pelvis de los pri-meros Homo pudo haber limitadoel crecimiento del cerebro hasta unmomento de la evolución en el que

el canal del parto se expandió losuficiente como para permitir elpaso de una cabeza grande. A tenorde esa hipótesis, unos cerebros ma-yores y pelvis más espaciosas es-taban relacionados desde una pers-pectiva evolutiva. Los individuosque mostraban ambas característi-cas tenían más éxito al dar a luza descendientes que sobrevivían yheredaban dichas características.Los cambios en la anatomía de lapelvis, acompañados de la asisten-cia en el parto, pueden haber per-mitido el aumento espectacular deltamaño cerebral, que aconteció desdehace 1 millón de años hasta hace100.000 años.

Los fósiles que cubren los últi-mos 300.000 años de la evoluciónhumana respaldan la conexión en-tre el aumento del cerebro y loscambios en la anatomía pelviana.En los últimos 20 años, se handescubierto tres fósiles de pelvispertenecientes a Homo sapiens ar-caicos: un individuo masculino demás de 200.000 años procedente dela Sima de los Huesos en la Sie-rra de Atapuerca (España), una mu-jer de 280.000 años de antigüedadhallada en Jinniushan (China) yuna pelvis de un individuo mas-culino neandertal (también consi-derado Homo sapiens arcaico), de60.000 años de antigüedad, proce-dente de Kebara (Israel). Todos es-tos especímenes presentan el canaldel parto retorcido como el de loshumanos actuales; por lo tanto, suscrías, dotadas de grandes cerebros,efectuaban muy probablemente larotación de la cabeza y de los hom-bros en el canal del parto y na-cieron con la cara mirando a lamadre, un gran problema que de-bían afrontar las parturientas paradar a luz con éxito.

La triple dificultad de recién na-cidos con grandes cerebros, unapelvis diseñada para la locomociónbípeda y un parto rotacional en elque la cría emerge con la cara mi-rando hacia atrás no es asunto deinterés menor. La selección natu-ral debió favorecer la existencia deuna conducta de búsqueda de ayudadurante el parto, pues esta asis-tencia permitía superar las difi-cultades. Sin embargo, las madresno sólo buscaban ayuda al preverlos riesgos de dar a luz. Con ma-

yor probabilidad el dolor, el miedoy la ansiedad les condujeron a de-sear compañía y seguridad.

Los psiquiatras afirman que laselección natural pudo haber fa-vorecido ese tipo de emociones—también comunes durante las en-fermedades y las lesiones—, por-que eso provoca que los indivi-duos que sufren estas experienciasbusquen la protección de compa-ñeros, que les proporcionan unamayor probabilidad de sobrevivir[véase “Evolución y orígenes dela enfermedad” por Randolph M.Nesse y George C. Williams; IN-VESTIGACIÓN Y CIENCIA, enero de1999]. Los descendientes de lossupervivientes tendrían una mayorprobabilidad de experimentar estetipo de emociones durante los mo-mentos de enfermedad y dolor.Teniendo en cuenta la ventaja evo-lutiva que el miedo y la ansiedadpueden aportar, no sorprende quelas mujeres sientan estas emocio-nes durante el parto.

Las mujeres actuales suman undoble legado evolutivo: la necesi-dad de asistencia física y el con-curso del auxilio emocional. CuandoSophia Pedro dio a luz en un árbolrodeada de una llanura inundada,pudo haber contado con ambos ti-pos de apoyo. En una entrevista,algunos meses después de su res-cate, explicó que su suegra, quetambién estaba con ella en el ár-bol, le ayudó durante el parto. Labúsqueda de este tipo de asisten-cia puede ser tan antigua como lapropia humanidad.

INVESTIGACIÓN Y CIENCIA, enero, 2002 67

HUMAN BIRTH: AN EVOLUTIONARYPERSPECTIVE. Wenda R. Trevathan.Aldine de Gruyter, 1987.

BIRTH AS AN AMERICAN RITE OF PAS-SAGE. Robbie Davis-Floyd. Univer-sity of California Press, 1993.

BIPEDALISM AND HUMAN BIRTH: THEOBSTETRICAL DILEMMA REVISITED.Karen R. Rosenberg y Wenda R. Tre-vathan en Evolutionary Anthropology,vol. 4, n.o 5, páginas 161-168, 1996.

ON FERTILE GROUND: A NATURAL HIS-TORY OF HUMAN REPRODUCTION. Pe-ter T. Ellison. Harvard UniversityPress, 2001.

Bibliografía complementaria

Page 70: Investigación y ciencia 304 - Enero 2002

1. VISLUMBREde un futuro conperiódicos capacesde reescritura. Esteprototipo de la com-pañía E-Ink �imprime�el texto utilizando una�tinta electrónica�. Unpanel de transistoresde capa fina IBM sumi-nistra las tensiones dealimentación de la tinta.El panel comprende 800por 600 píxeles, cadauno de ellos formado porun pigmento cargado (la�tinta�). Para componer eltexto se utilizan unas vari-llas de memoria programa-ble con borrado eléctrico.

Page 71: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 69

Page 72: Investigación y ciencia 304 - Enero 2002

No es extraño que siga imponiéndose latradicional escritura con tinta sobre pa-pel en un mundo digitalizado donde tam-poco era de esperar que desapareciera.Comparada con las actuales pantallas de

ordenador, ofrece excelente resolución y alto con-traste desde un amplio margen de ángulos de visión,no necesita energía externa para retener la imagen,pesa poco, cuesta todavía menos y es notablementeflexible (en sentido literal y figurado).

Pero no podemos borrar lo escrito en el papel yreutilizar éste millones de veces instantáneamente,como es característica esencial de las pantallas in-formáticas sin que sufran el menor desgaste. Una tintaelectrónica con la que pudiera escribirse en papelanunciaría una era de rótulos y carteleras suscepti-bles de renovarse sin tener que destruir hectáreas deárboles, de libros electrónicos que conservarían eltacto familiar de los libros tradicionales, de revistasy periódicos que se distribuirían por medios inalám-bricos a páginas visualizadas delgadas y flexibles.

En los últimos treinta años se ha intentado variasveces producir este tipo de papel electrónico, perohasta hace muy poco no ha alcanzado su investiga-ción pleno desarrollo. Tal vez antes de 2010, mer-ced a la pugna entre dos firmas iniciadoras, Investi-gación y Ciencia y otras revistas se publiquenregularmente por este sistema. Ambas compañías pro-ceden de grandes instituciones: el Centro de Inves-tigación de Palo Alto (PARC) de Xerox y el Labo-ratorio de Medios (Media Lab) del Instituto deTecnología de Massachusetts (MIT). Una y otra ba-

san su técnica en unas diminutas cuentas con cargaeléctrica, cuya capacidad de formar imágenes se con-trola electrónicamente. Y no sólo luchan por comer-cializar sus logros, sino que se preparan a competircon los diodos fotoemisores orgánicos que empiezana salir de los laboratorios.

El origen del papel eléctrico

Los primeros escarceos en el “papel eléctrico”,como se denominó en un principio, vinieron en

respuesta a la escasa calidad visual de las pantallasde ordenador. Era a principios de los años setenta.“Los TRC (tubos de rayos catódicos) daban muy pocaluz”, recuerda Nicholas Sheridon. “Quería encontrarun material visualizador con tantas propiedades delpapel como fuera posible, no un sustitutivo.”

Hace tres años, Sheridon, investigador del PARC,demostraba prototipos de lo que Xerox entonces lla-maba “papel electrónico reutilizable”. Más de veinteaños antes, en el PARC, había expuesto la idea bá-sica de este medio de visualización: unas cuentas deplástico apenas del grosor de un cabello humano em-butidas en una película transparente flexible. Cadacuenta tiene una mitad negra y la otra mitad blanca,con cargas eléctricas opuestas. Aplicando un campoeléctrico apropiado a la superficie transparente, lacuenta podrá girar de modo que constituya un puntoblanco o negro en el plano de visión, con efecto si-milar a una minúscula gota de tinta que se colocaen el lugar adecuado.

Sheridon dio el nombre de Gyricon a su invento(en griego “imagen que gira”). Pronto fue relegadopor los directivos de Xerox, más interesados en ex-plorar nuevas técnicas de impresión que en fabricarpantallas, pero el concepto de papel reutilizable re-vivió 15 años después en los prototipos mencionados.

Tendría que esperar todavía más para que esta téc-nica llegara a comercializarse. Primero nació una

compañía independiente, Gyricon Media, empresaradicada en Palo Alto (en la que Xerox retuvo

una participación mayoritaria). Hacia marzo de2001 la nueva firma presentó por primera vezsu producto en Chicago, en la exposición Glo-balShop para rótulos y carteles de estableci-mientos comerciales. En la planta baja delcentro de McCormick Place, podía verse aSheridon, ahora director de investigación deGyricon Media, admirando un panel verdehumo de 28 por 36 centímetros fijado enun stand de aluminio, como los que sue-len indicar los departamentos de un cen-

2. A LOS TREINTA AÑOS de su ideainicial de crear una pantalla electrónica

lo más parecida al papel posible, NicholasSheridon, de Gyricon Media, demuestra la

viabilidad de los carteles SmartPaper. Estoscarteles, ahora comercializados bajo la marca

MaestroSign, pueden ahorrar miles de eurosen costes de rotulado a las tiendas.

INVESTIGACIÓN Y CIENCIA, enero, 2002

Page 73: Investigación y ciencia 304 - Enero 2002

tro comercial. Por el panel desfilaban variosmensajes de venta y el precio “$89,99” en ti-pos ligeramente moteados; lo alimentaban tresbaterías AA de hasta dos años de duración.Casi 30 años después de su inspiración ori-ginal, el papel eléctrico de Sheridon erauna realidad, aunque con limitaciones.

La resolución del prototipo de lo quehoy se denomina SmartPaper (“papel in-teligente”) equivalía al modesto valor de100 puntos por pulgada (ppp). A efec-tos comparativos, la versión impresa deesta revista tiene una resolución de 1200ppp. Y como habían de utilizarse elec-trodos inflexibles para activar el mate-rial plegable SmartPaper (una películade caucho silicónico impregnado en aceitepara que puedan girar las cuentas de bi-cromato), esta versión de papel electró-nico era rígida como una tabla.

Sheridon espera que este año salgan almercado paneles de tamaño semejante quepuedan reescribirse fácilmente a través de unared inalámbrica. Para los grandes almacenes ycentros comerciales, sería de gran utilidad estetipo de señalización renovable. Aparecerán muypronto unos cartelitos SmartPaper menores para man-tener actualizados los precios en los estantes de lossupermercados.

Los periódicos o revistas del futuro —electrónicos,plegables y reutilizables— podrían ser realidad en po-cos años. En su concepción ideal, se tiraría de la hojade SmartPaper como de un rollo de papiro a travésde la ranura de un cilindro de aluminio. En el mo-delo funcional, unos electrodos alineados en el bordedel cilindro imprimirán noticias o reportajes de úl-tima hora en la superficie flexible y engomada delpapel, que estará protegido contra deterioros por unasláminas de plástico. Se están preparando, además, unascuentas de menor tamaño, necesarias para mejorar laresolución. En cuanto a la gama de colores, Sheri-don ha registrado una patente de coloración sustrac-tiva que utiliza cuentas Gyricon transparentes con dis-cos delgados para filtrar los colores cian, magenta yamarillo, a cada uno de los cuales se accede por di-ferentes niveles de tensión. Pese a todo, y por mu-cho que se le parezca, este papel electrónico jamástendrá la misma consistencia del papel real.

Marcar con tinta electrónica

El papel real, apto para la impresión, fue el puntode partida para el principal rival de Gyricon Me-

dia en el mercado del papel digital. Por distinto ca-mino que Sheridon, Joseph Jacobson buscaba en 1995un problema interesante que abordar para su trabajode posdoctorado en la Universidad de Stanford. Pre-paró un libro cuyas páginas pudieran reconfigurarseelectrónicamente para contener el texto de El Qui-jote, La Teoría General de la Relatividad o cual-quiera otra de los cientos de obras almacenadas enmemoria de silicio en el lomo del libro.

Por técnica de formación de imágenes Jacobsonutilizó la electroforesis, es decir, el movimiento departículas cargadas sometidas a un campo eléctricoen el seno de un líquido. En lugar de cuentas pig-mentadas, empleó microcápsulas de un polímero trans-parente que contenía un tinte líquido azul y partícu-las blancas. Cuando las partículas con carga positivade dióxido de titanio blanco permanecen en el ladovisible de las microcápsulas, se produce una páginablanca; al aplicar carga negativa al electrodo situadobajo la cápsula, estas partículas son atraídas hacia elotro lado y crean una imagen parecida a la tinta,hasta que un impulso eléctrico de sentido opuestorestablezca en su lugar el pigmento blanco. Al in-vertir el proceso se forman letras blancas sobre fondooscuro. Estas microcápsulas suspendidas en agua pue-den imprimirse, como si fueran tinta, en papel o enmateriales que soporten electrodos. Jacobson dio elnombre de “tinta electroforética”, o “tinta-e”, a estacomposición.

INVESTIGACIÓN Y CIENCIA, enero, 2002 71

3. JOSEPH JACOBSON, del Media Lab del MIT y E-Ink,se propone crear el efecto de un papel real que se im-prime a sí mismo. Su meta final es un cibercódigo, �ellibro final�, un volumen encuadernado de centenares depáginas escritas en tinta electrónica con suficientes pas-tillas de memoria para almacenar entera la Biblioteca delCongreso.

Page 74: Investigación y ciencia 304 - Enero 2002

Una vez contratado en el Media Lab del MIT en1995, continuó investigando en la tinta-e con dosalumnos, J. D. Albert y Barrett Comiskey. Los tresjuntos, acompañados por Russell Wilcox, fundaronen 1997 E-Ink Corporation en Cambridge. La nuevaempresa no tardó en atraer fondos de empresas y unabeca de investigación y desarrollo de la Agencia deProyectos de Investigación Avanzada para la Defensa(DARPA).

En 1999 E-Ink introdujo los primeros carteles paracomercios utilizando técnica propia. Los carteles eranrígidos, llevaban la marca Inmedia y medían 122 × 183centímetros, presentando sobre fondo azul unos ca-racteres blancos grandes en cursiva (con resoluciónequivalente a 2 ppp). Se probaron en varias tiendas,anuncios de titulares de algún periódico y tablonesde publicidad. Quedó comprobada la eficacia de loscarteles para aumentar la afluencia de público ylas ventas en los comercios que adoptaron el sistemaE-Ink, si bien los clientes deseaban una mayor va-riedad de tipos, colores y grafismos. Hasta que nodesarrolle una nueva generación de carteles para tien-das, E-Ink se ha retirado del mercado.

Jacobson no participa en las operaciones cotidia-nas de E-Ink, pero dedica la mayor parte de su tiempoa dirigir el Grupo de investigación sobre máquinasmoleculares del Media Lab. Michael McCreary, vi-cepresidente de investigación y desarrollo de E-Ink,explica que en el plan de actividades de la empresasiempre se han considerado los carteles comercialescomo un primer paso para probar la viabilidad de latinta electrónica. “Nuestra etapa siguiente será de-

sarrollar pantallas de alta resolución para aparatosportátiles.” Y como ejemplo enseña una pantalla rígi-da de mejor contraste (resolución 80 ppp) y visibledesde ángulos más abiertos que la pantalla monocro-ma normal de cristal líquido (LCD) de un ordena-dor de bolsillo.

En febrero, Philips Components, división de la ho-landesa Royal Philips Electronics, se aseguró los de-rechos mundiales exclusivos durante un período detiempo para fabricar y vender módulos visualizadorescon la técnica E-Ink para ayudantes personales digi-tales (PDA) y libros electrónicos a cambio de una in-versión millonaria en la compañía. Esta versión depapel electrónico consume sólo la centésima parte deuna pantalla LCD comparable, con lo que Philipspuede capitalizar una ventaja competitiva de sus apa-ratos de bolsillo en cuanto a vida de las baterías, queserá tangible en los dos años venideros.

Otro socio comercial, Lucent Technologies, conce-dió a E-Ink el derecho de utilizar su técnica del tran-sistor plástico desarrollada en los Laboratorios Bell,al tiempo que invertía en la empresa. En noviembrede 2000 la alianza dio como fruto la primera pan-talla flexible de tinta electrónica: un cuadrado decinco pulgadas (12,7 centímetros) de lado con la con-sistencia y el grosor de una alfombrilla de ratón ysólo 256 píxeles, en la que desfilaban patrones detablero de ajedrez, los nombres de las compañías yel logotipo de E-Ink. Esta demostración vino a pro-bar que podía fabricarse una matriz activa de cir-cuitos capaz de direccionar las microcápsulas de tintaelectrónica con materiales plásticos estampados encaucho sobre una lámina de plástico flexible.

En el siguiente abril, E-Ink y otro socio más, IBMResearch, habían anunciado su primera pantalla detinta electrónica con matriz activa de resolución ma-yor: una pantalla de 12,1 pulgadas de diagonal conresolución comparable a 83 ppp, que viene a ser ladefinición típica de la pantalla de un ordenador por-tátil. Para satisfacer las exigencias de la electrónica

72 INVESTIGACIÓN Y CIENCIA, enero, 2002

ESTADO OSCUROESTADO LUMINOSO

ESTADO OSCUROESTADO LUMINOSO

ELECTRODO

CON CARGANEGATIVA

CON CARGAPOSITIVA

CUENTAS DE GYRICON

MICROCAPSULAS DE E-INK

STEVE DITLEA se viene dedicando, desde hace muchosaños, a la alta divulgación de las aplicaciones técnicas dela física.

El autor

Las dos técnicas en desarrollo comercialpara visualizadores de tipo papel suscepti-bles de configuración electrónica se basanen cuentas microscópicas que cambian decolor en respuesta a la carga de unos elec-trodos cercanos. En el sistema SmartPaper,de Gyricon Media, se emplean cuentas sóli-das de dos tonos que rotan en su sitio(arriba). El descubrimiento de Sheridon con-sistió en obtener estas diminutas cuentas si-métricas vertiendo resinas negras y blancassobre un disco que giraba a muchas revo-luciones. La tinta electrónica de E-Ink utilizamicrocápsulas transparentes que contienenesferitas de pigmento móviles en el seno deun líquido (abajo). La fabricación aplica téc-nicas normalizadas y desarrolladas para re-cubrimientos microencapsulados en forma-tos comerciales.

ASI FUNCIONA EL PAPEL ELECTRONICO

Page 75: Investigación y ciencia 304 - Enero 2002

de IBM, los técnicos de E-Ink hicieron que sus mi-crocápsulas cambiaran de color diez veces más aprisaque en su formulación original. Y lograron mejo-rar el contraste eligiendo un color negro intensoen vez de azul para el tinte encapsulado.

Ya en mayo, E-Ink y la compañía japonesa Top-pan Printing introdujeron un prototipo de panta-lla de tinta electrónica en color. Utilizando unasredes de filtrado de color de Toppan, hoy muycomunes en las LCD normales, la pantalla dedemostración presentaba ocho colores distintos.Mediante esta técnica, E-Ink espera producirpantallas capaces de exponer 4096 colores, equi-parables a las pantallas de ordenadores de bol-sillo y de videojuegos.

Estos prototipos recientes son pasos que avanzaE-Ink hacia su meta final. En la tercera etapadel plan de actividades de E-Ink, ésta sería “elradiopapel”, un papel digital flexible con capaci-dad de alta resolución de color y susceptible de re-configurarse a través de una red de datos inalám-brica. Además, el radiopapel podría ser una realidadcomercial hacia 2005, y para entonces pueden habersedifundido técnicas similares procedentes de Gyricon uotras compañías.

E-Ink tendrá también que competir con los diodosfotoemisores orgánicos. A partir de componentes car-bonados semejantes a los plásticos que se utilizan enla pantalla flexible de E-Ink y Lucent, pueden obte-nerse semiconductores emisores de luz también ple-gables y con un rendimiento energético bastante efi-caz. El hecho de que sean Eastman Kodak, IBM yotras firmas de garantía financiera quienes empren-den tal desarrollo pronto dará credibilidad a esta al-ternativa al papel electrónico.

El libro final

Casi desde un principio, Jacobson ha incluido ensu concepción del futuro de la tinta electrónica

lo que él llama “libro final”. Comprendería cientosde páginas de un papel autoimprimible, llevando cadauna de ellas estampado un procesador independiente;estas páginas irían encuadernadas en un volumen enpasta con plaquetas de memoria en el lomo, sufi-cientes para almacenar todo el contenido de la Bi-blioteca del Congreso. Puesto que en una sola páginade papel tratado con tinta electrónica se puede re-producir cualquier página almacenada de texto, grá-ficos o hasta de vídeo, ¿por qué molestarse en reu-nir tantas páginas encuadernadas? Jacobson lo justificaapelando a la memoria espacial del lector: es más fá-cil localizar un determinado párrafo o ilustración ho-jeando a mano las páginas de un libro entero.

A medio camino entre el tomo de Jacobson y elrollo de Sheridon, existe otro formato susceptible deaplicarse a la publicación en papel electrónico. Setrata de una variante actualizada de los pliegos deimpresión, es decir, un número de páginas dado porpotencias binarias (8, 16 o 32) que se cortan de unaplancha impresa. En 1999 Robert Steinbugler, res-ponsable del programa de diseño estratégico de la

Compañía IBM, inventó un prototipo de diseño deperiódico electrónico: un dispositivo visualizador enforma de cartera, flexible y engomado, que contieneocho hojas de doble cara de papel digital (de mo-mento, sólo imitación en plástico). A través de en-trevistas con editores y lectores de periódicos, Stein-bugler llegó a la conclusión de que la disposición depáginas en paquete permitía avanzar o retroceder deun artículo a otro sin tener que rehacer sus textos,al tiempo que ofrecía la fortuita yuxtaposición de ar-tículos que todavía distingue a los periódicos impre-sos de su versión en línea, pantalla por pantalla.

Dada la apresurada búsqueda del papel electrónicoen estos días, tal vez no falte mucho para que los lec-tores de Investigación y Ciencia puedan elegir entreversiones electrónicas en folio, tomo encuadernado orollo de papiro.

4. ROBERT STEINBUGLER, responsable del programa dediseño estratégico de IBM, presenta su idea de un vi-sualizador de tipo cartera, flexible y engomado, con ochopáginas de doble cara de papel digital. El �periódico elec-trónico� combina la familiar experiencia de pasar las pá-ginas con la conveniencia de reescribir textos de modoinstantáneo.

INVESTIGACIÓN Y CIENCIA, enero, 2002 73

THE LAST BOOK. Joseph Jacobson en IBM Systems Journal,vol. 36, n.o 3, 1997.

Bibliografía complementaria

Page 76: Investigación y ciencia 304 - Enero 2002

El avance de nuestros co-nocimientos sobre la Tie-rra en los últimos 25 añosse funda, en gran parte,en el desarrollo de nue-

vos instrumentos y métodos de ob-servación. Prácticamente en todoslos campos de la geofísica, losavances de la microelectrónica hancontribuido al desarrollo de instru-mentos de medida de técnica di-gital con un rango dinámico muygrande. El avance en los ordena-dores de gran capacidad y rapidezde cálculo permite hoy el análisisde estos datos y su comparacióncon modelos cada vez más realis-tas de los procesos de la Tierra.

Entre los desarrollos más espec-taculares están, sin duda, las ob-servaciones de la Tierra desde sa-télites artificiales, que han creadouna nueva disciplina, la teledetec-ción. Los primeros satélites artifi-ciales se lanzaron en 1957, perohasta los años ochenta no empezóa aplicarse toda su potencialidadpara el estudio de la Tierra. To-dos sabemos lo que ha supuestopara la meteorología la observaciónglobal a través de las redes de sa-télites. Otro ejemplo es el del campode la geodesia espacial, que conobservaciones de satélites ha per-mitido establecer modelos muy exac-

tos del geoide o forma de la Tie-rra.

El establecimiento entre 1973 y1992 del sistema de localizaciónglobal GPS (Global PositioningSystem), aunque al principio crea-do para su uso militar, ha abiertoel campo a numerosas aplicacio-nes científicas en el campo de lageodesia y geofísica. Este sistemaconsiste en un conjunto de unos24 satélites en órbitas de unos20.000 km de altura, dispuestos deforma que en cualquier parte delmundo siempre hay al menos 4 so-bre el horizonte y permite deter-minar la posición de un punto conmucha exactitud, hasta del milí-metro.

El estudio del campo magnéticoterrestre también se ha beneficiadodel avance instrumental con el de-sarrollo de los magnetómetros ató-micos desde los años cincuenta y,más modernamente, los criogéni-cos, y con las observaciones desdesatélites desde los años sesenta.Merced a estas observaciones desdeel espacio, nos hemos acercado ala estructura de la magnetosfera,la última envoltura terrestre en laque está confinado el campo mag-nético de la Tierra. Con ordena-dores cada vez más potentes sehan ideado modelos realistas delorigen del campo magnético in-terno de la Tierra, problema queen el pasado se consideraba demuy difícil solución.

En sismología se ha producidotambién una verdadera revolucióncon el desarrollo de los sismógra-fos digitales de banda ancha en losaños ochenta. Estos sismógrafos, conuna respuesta plana desde 20 ciclos

por segundo hasta 1000 segundosy un alto rango dinámico, permi-ten registrar con notable precisiónterremotos lejanos y cercanos. Te-jen ya una red global bastante densade estaciones que han terminadopor desplazar a los sismógrafos tra-dicionales. Con los datos proporcio-nados por ellos se define mejor elproceso de fractura que da origena los terremotos y la estructura delinterior de la Tierra.

A través de Internet podemos re-cabar datos geofísicos de todo tipo,prácticamente en tiempo real, pormedio de los servicios de bancosde datos conectados con esta redglobal de comunicación. Al alcancede cualquier investigador se hallaahora la información observacio-nal que precise para su tarea, noimporta el campo en que trabaje.Por ejemplo, poco tiempo despuésde suceder un terremoto, un sis-mólogo puede disponer de los sis-mogramas digitales de estacionesen todo el mundo. Esta misma víade comunicación facilita el inter-cambio de datos e ideas, entre in-vestigadores en cualquier parte delmundo, con gran rapidez.

Estructura tridimensionalde la Tierra

Durante la primera mitad del si-glo XX se establecieron las

líneas generales de nuestro cono-cimiento sobre el interior de laTierra. En 1906 Richard Oldhamestableció la existencia del núcleoy su naturaleza fluida, y en 1912 Be-no Gutenberg midió su profundi-dad desde la superficie en 2900 km,medida que ha cambiado poco. En

74 INVESTIGACIÓN Y CIENCIA, enero, 2002

Las ciencias de la Tierraen el último cuarto de siglo

Agustín Udías

��� ����������� ������

������������ ������

������������ ������

��������

���� ���������������

AGUSTIN UDIAS, catedrático de laUniversidad Complutense, viene es-tudiando desde hace años la geofísi-ca local y general del planeta.

El autor

Page 77: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 75

Gracias a nuevos instrumentos y métodos de observación, así como a lautilización de ordenadores de gran capacidad y rapidez de cálculo y

memoria, los últimos 25 años han supuesto un gran adelanto para nues-tro conocimiento de la Tierra y sus envolturas, océanos y atmósfera y de

los procesos que se desarrollan en su seno

1. TRES SECCIONES A DISTINTA PROFUNDIDAD de un mo-delo tridimensional del manto terrestre con anisotropía ob-tenidas por estudios de tomografía sísmica. Los coloresrepresentan las anomalías de la velocidad de las ondasP (δδVP) divididas por el valor de la velocidad (VP), sepa-rando el componente horizontal (δδVPH/VPH) del vertical(δδVPV/VPV) para detectar la anisotropía. Las anomalías po-

sitivas (azul ) muestran las zonas del manto más frías ylas negativas (rojo) las más calientes. [Tomado de L. Bos-chi y A. Dziewonski, 2000. Whole Earth tomography fromdelay times of P, PcP and PKP phases: Lateral heteroge-neities in the outer core or radial anisotropy in the man-tle. Journal of Geophysical Research, vol. 105, págs. 13.675-13.696. (Copyright 2000, American Geophysical Union.)]

δVPH/VPH 0-193 km

1160-1353 km

2513-2707 km

-0,9 0,0 0,9

δVPV/VPV

Page 78: Investigación y ciencia 304 - Enero 2002

76 INVESTIGACIÓN Y CIENCIA, enero, 2002

1932 Inge Lehmann descubrió laexistencia del núcleo interno só-lido, siendo sólo fluido el externo.La discontinuidad entre la cortezay el manto fue descubierta en 1919por Andrija Mohorovicic.

Este conjunto de hallazgos sedebieron al análisis de las ondassísmicas y fueron el resultado delas observaciones realizadas conla primera generación de sismó-grafos. Cada vez que se produceun gran terremoto, las ondas quegenera iluminan el interior de laTierra, y permite a los que las es-tudian, a través de los sismogra-mas, deducir a partir de ellas laestructura de su interior. De estaforma, hacia 1970 se conocían concierta exactitud la distribución delas velocidades de las ondas sís-micas, la densidad y los coefi-cientes elásticos en el interior dela Tierra. Los modelos que repre-sentaban este interior eran de si-metría esférica y especificaban sólola distribución de tales parámetroscon el radio.

Los modelos se fueron afinando.Se estableció, con bastante deta-lle, la variación de estos paráme-tros con la profundidad. La velo-cidad de las ondas P y S aumentacon la profundidad en la cortezay el manto de la Tierra de formagradual. En el manto, la velocidadde las ondas P aumenta entre 8 y13,7 km/s y las de la S entre 4 y7,2 km/s. La densidad, por su parte,aumenta entre 3,3 y 5,6 g/cm3. Enel núcleo externo, a pesar de quela densidad aumenta de 5,6 a9,9 g/cm3, la velocidad de las on-das P disminuye a 8,1 km/s y lade las ondas S es nula. En el nú-

cleo interno, cuya densidad se ci-fra en 13,1 g/cm3, la velocidad delas ondas P es de 11,3 km/s y lade las ondas S, 3,7 km/s.

La distribución de temperaturasse conoce con menor exactitud.Muestra, sin embargo, un creci-miento rápido de la temperaturacon la profundidad, que en los pri-meros 100 km llega a los 1500 oC.A mayores profundidades, el aumen-to de la temperatura es más lentoy gradual, hasta los aproximada-mente 7000 oC en su centro. Tam-bién en este caso los modelos da-ban sólo la distribución de latemperatura con el radio.

Desde los años setenta, el adve-nimiento de una nueva técnica deanálisis de las ondas sísmicas ynuevos desarrollos en la instrumen-tación han abierto un nuevo caminoa nuestro conocimiento del interiorde la Tierra. La técnica en cues-tión, que abarca diferentes méto-dos, se denomina tomografía sís-mica. Los fundamentos de la teoríageneral de la tomografía se basanen los trabajos publicados en 1917por el matemático J. Radon. El de-sarrollo de su aplicación práctica,en 1963, se debe a A. Cormack.

Se ha extendido la aplicación dela tomografía a otros campos. Enmedicina se emplea para obtenerimágenes detalladas del interior delcuerpo humano, a partir de rayos Xque lo cruzan en muchas direc-ciones. En sismología, las prime-ras aplicaciones de las técnicasde tomografía se deben a K. Aki,A. Christofferson y E. S. Husebyeen 1976. La metodología consiste enobservar, en un número grande deestaciones, ondas sísmicas genera-

das por muchos terremotos, de modoque los rayos crucen, en múltiplesdirecciones, la parte de la Tierraque se desea estudiar.

Supongamos que queremos estu-diar el manto terrestre subyacentebajo una zona determinada. Debe-mos entonces distribuir un conjuntode estaciones sobre la zona, y ob-servar en ellas rayos que crucentodo el manto en diversas direc-ciones, provenientes de muchos te-rremotos. De esta forma, midiendola diferencia entre los valores delas observaciones y los deducidosteóricamente de un modelo preli-minar, se extraen las diferenciasentre la situación real y el modelo.

Esta metodología utilizaba, alprincipio, sólo los datos de los tiem-pos de llegada de las ondas, ge-neralmente de las ondas P, pero seha extendido también a sus ampli-tudes, y a los tiempos y amplitu-des de otros tipos de ondas, comolas superficiales. Los métodos tra-dicionales operaban sólo con unao dos dimensiones; se limitaban aconocer la distribución de los pa-rámetros de la Tierra con la pro-fundidad, o a lo más a lo largo decortes longitudinales. La metodo-logía de la tomografía sísmica per-mite obtener modelos en tres di-mensiones del interior de la Tierra.

En general, pues, estos modelosrepresentan estructuras tridimensio-nales. Se definen a partir de unmodelo en el que los parámetrosdependen sólo del radio, y nos pro-porcionan las anomalías, es decir,las diferencias entre los valores encada punto y los del modelo. Porejemplo, en el caso de que utilice-mos la velocidad de las ondas P, separte de un modelo en el que éstadepende sólo del radio. A travésBORDE DE EXTENSION

BORDE DESUBDUCCION

LITOSFERA

ASTENOSFERA

OCEANO CONTINENTE

2. ESQUEMA DEL MOVIMIENTO delas placas litosféricas en dos bordes,uno de extensión (dorsales oceáni-cas), en el que las placas se separancreándose nuevo suelo oceánico, yotro de subducción (cadenas monta-ñosas y arcos de islas), en el quelas placas chocan entre sí; la litos-fera oceánica se introduce por de-bajo de la continental. Las flechasmarcan el movimiento de las placas.La velocidad de las placas varía en-tre 1 mm y 8 cm por año.

Page 79: Investigación y ciencia 304 - Enero 2002

del análisis tomográfico, se obtie-nen, para cada punto, anomalías po-sitivas o negativas, es decir, regio-nes donde la velocidad es mayor omenor que la dada por el modelo.El resultado es un mapa tridimen-sional de las zonas donde las ve-locidades son mayores o menores.

Puesto que la velocidad de lasondas está relacionada con la ri-gidez del medio, velocidades ma-yores indican zonas de mayor ri-gidez y velocidades menores menorrigidez o mayor viscosidad. Po-demos también relacionar estas ano-malías con la temperatura, ya quelas partes más rígidas y de mayorvelocidad corresponden a regionesmás frías, y las de menor veloci-

dad a regiones más calientes. Enconsecuencia, las imágenes tomo-gráficas tridimensionales del inte-rior de la Tierra se hallan aso-ciadas con imágenestridimensionales de la distribuciónde la temperatura.

Por otro lado, sabemos que elinterior de la Tierra está a mayortemperatura que su superficie. Cabe,pues, que en su interior se pro-duzcan corrientes de conveccióntérmica. Estas corrientes son lasque se producen en un recipientede agua cuando se calienta por de-bajo. El agua caliente tiene menordensidad y asciende a la superfi-cie. Allí, el agua se enfría y, alaumentar, su densidad empieza a

descender otra vez hasta el fondo.Se establecen unas células de con-vección con corrientes ascendentesde agua caliente y descendentes deagua fría.

Se trata de un fenómeno que seaprecia lo mismo en el interior delmanto, donde la diferencia de tem-peratura entre su parte más pro-funda y la más superficial es deunos 2000 oC, que en el interiordel núcleo externo, donde la dife-rencia es de unos 1000 oC. En elcaso del manto el material es só-lido, aunque tiene cierta plastici-dad, que permite pequeñas veloci-dades de unos centímetros por año,mientras que el material del núcleoexterno es fluido y en él las velo-

INVESTIGACIÓN Y CIENCIA, enero, 2002 77

–10o–20o

50o

45o

40o

35o

–5o 0o 5o 10o 15o 20o

20o15o10o10o5o0o

50o

45o

40o

VILLMADR

EBRO

GRAS

TORI

GENO

TOUL MICH

MARS

ZIMM

UPAD

HFLK

OBER

SJDVFCLZ

HERS

DENT

PFAN

DELF

KOSG

MATE

NOTO

5 mm/año

CAGL

VENE

MEDI

GINA

HOHE

WARE WROC

MOPI

POTS

WSRT

BRUS

DOUR

BOR1

PENCGRAZ

GOPEWTZR

7203

3. VECTORES DE VELOCIDADES medidos en Europa portécnicas de geodesia espacial GPS (Global Positioning Sys-tem). Las velocidades varían entre 1 y 5 mm por año. [To-mado de J. M. Nocquet, E. Calai, Z. Altamimi, P. Sillard

y C. Boucher, 2001. Intraplate deformation in WesternEurope deduced from analysis of the ITRF97 velocity field.Jour. Geophys. Res. 106, 11.239-11.258. (Copyright 2001,American Geophysical Union.)]

Page 80: Investigación y ciencia 304 - Enero 2002

cidades son mayores, hasta algunoscentímetros por minuto.

Las imágenes de regiones ca-lientes del interior del manto y elnúcleo de la Tierra se relacionancon las corrientes de convecciónascendentes; las imágenes de re-giones frías, con las descenden-tes. De esta forma, las hipótesissobre la existencia de tales corrien-tes se confirman con las observa-ciones. Las imágenes tomográficasnos proporcionan, por lo tanto, uncuadro de la distribución de lascorrientes de convección en el in-terior de la Tierra. De ellas sepuede obtener su relación con loscontinentes y océanos y con la si-tuación de las grandes cadenasmontañosas.

La tectónica de placas postula laexistencia de zonas de subducción,donde la litosfera más fría se in-troduce dentro del manto, y de zo-nas de extensión, donde aflora ala superficie material caliente desdeel interior. Estas dos zonas se hanidentificado con corrientes de con-vección descendentes y ascenden-tes. Los resultados de la tomogra-fía sísmica han confirmadoexperimentalmente las hipótesis.

Movimiento en tiempo realde los continentes

La teoría de la tectónica de pla-cas, que se desarrolló hacia

los años sesenta, venía a dar la

razón a un incomprendido AlfredWegener, que ya en 1912 habíapropuesto la deriva de los conti-nentes. A partir de numerosas ob-servaciones de geofísica, geodesiay geología quedó establecido enesta teoría que la litosfera terres-tre, la capa más rígida de la su-perficie de la Tierra con un espe-sor de 100 kilómetros, se divideen placas, con siete principales,que se desplazan con un movi-miento relativo de una velocidadentre 1 y 8 cm por año.

Hace unos 180 millones de añoslos continentes conformaban un solosupercontinente, la Pangea de We-gener. Desde entonces se han idorompiendo y separando, hasta sureparto actual. El océano Atlán-tico, que no existía hace 180 mi-llones de años, se ha formado alsepararse América de Eurasia yAfrica. El mecanismo del movi-miento de los continentes, que We-gener nunca pudo explicar correc-

tamente, recibe ahora explicacióncon la teoría tectónica, al ser lascapas litosféricas, sobre las que es-tán situados los continentes, lasque se mueven. Las placas no coin-ciden con los continentes, sino quetienen parte continental y parte oce-ánica. Pueden moverse porque de-bajo de la litosfera se encuentrauna capa semiviscosa, la astenos-fera o capa débil, que permite eldeslizamiento sobre ella de la li-tosfera. En los bordes de las pla-cas se produce la mayoría de losterremotos.

Precisamente el movimiento delas placas es el que da origen aestos fenómenos. En sus bordes lasplacas se separan, chocan o se des-lizan horizontalmente, unas res-pecto a otras. Estos tres procesosdeterminan los tres tipos principa-les de límites de placas. Por ejem-plo, en la dorsal centroatlántica laplaca de América se separa de lade Eurasia, continuándose la aper-

78 INVESTIGACIÓN Y CIENCIA, enero, 2002

–12o –10o –8o –6o –4o –2o 0o 2o

–12o

34o

36o

38o

34o

36o

38o

–10o –8o –6o –4o –2o 0o 2o

MAR MEDIT

ERRANEOOCEANO

ATLANTICOIBERIA

AFRICA

4. MOVIMIENTO DE LAS PLACAS de Eurasia y Africa, en el borde sur de laPenínsula Ibérica (Iberia). La zona entre las líneas azules corresponde a la zonade deformación en la que se producen los terremotos. Los puntos rojoscorresponden a terremotos superficiales (profundidad menor de 30 km) y losverdes a terremotos más profundos (entre 30 y 150 km de profundidad). Lospuntos azules son los terremotos de 630 km de profundidad. La zona marcadaen verde corresponde a una zona de subducción. Las flechas indican el sen-tido del movimiento de colisión entre Africa e Iberia y de extensión este-oesteen el mar de Alborán. La velocidad del movimiento de las placas medida a par-tir de los terremotos del siglo XX varía entre 5,5 mm por año en el Golfo deCádiz, 0,6 mm por año en las Béticas y 2,7 mm por año en Argelia.

Page 81: Investigación y ciencia 304 - Enero 2002

tura de este océano; a lo largo delMediterráneo esta última placa cho-ca contra la de Africa, producién-dose poco a poco el cierre de nues-tro mar.

Hasta muy recientemente, el mo-vimiento de las placas sólo podíadeterminarse a partir de otras ob-servaciones, pero no de una formadirecta. Para el pasado geológico,el movimiento quedaba patente porel estudio del magnetismo de lasrocas o paleomagnetismo. El re-gistro magnético de rocas imana-das en el pasado, pertenecientes adiversos continentes, pone de ma-nifiesto que su situación relativaactual no corresponde con la quetuvo tiempo atrás. Por ejemplo, elestudio paleomagnético de rocas deEurasia y América del Norte nosdescubre que estos dos continentesestuvieron unidos en el pasado, parairse luego distanciando. Conociendoel tiempo en que estaban unidos ysu distancia actual deducimos la ve-locidad media de su desplazamiento,cifrada en unos 6 cm por año.

Para medir la velocidad actualde desplazamiento se recurre a los

terremotos acaecidos en un bordede placas. Con ese fin, se sumanlos desplazamientos, que se produ-cen en cada terremoto, para todoslos terremotos, durante un númerode años suficientemente grande. Di-vidiendo por el número de años,se obtiene el desplazamiento anual,es decir, su velocidad. Este mé-todo supone que el movimiento delas placas se da sólo en formabrusca produciendo terremotos, loque se conoce como movimientocosísmico.

Sin embargo, puede ocurrir quelas placas se muevan unas respectoa otras, no sólo en virtud de sa-cudidas bruscas o terremotos, sinotambién por un deslizamiento lentoplástico sin relación con tales epi-sodios. En este caso, sumando to-dos los terremotos, no obtendría-mos el valor correcto de la velocidad,sino otro menor.

Ante esta situación, la soluciónestá en medir directamente el mo-vimiento relativo de las placas. Sa-bemos de qué orden es su veloci-dad, es decir, entre milímetros yunos ocho centímetros por año. Ne-

cesitamos, pues, medir la distan-cia entre dos puntos a un lado yotro del borde de placas con unaexactitud semejante, operación re-petida a lo largo de varios años.Pero medir distancias grandes conexactitud de menos de un centí-metro no era, hasta hace muy poco,posible. Las medidas geodésicaspor triangulación son muy labo-riosas para llegar a ese nivel deprecisión, y tendrían que repetirseen períodos largos de tiempo paraapreciar su cambio. Las medidasmodernas de geodesia espacial, alas que nos hemos referidos al prin-cipio, permiten determinar, prácti-camente en tiempo real, la velo-cidad de las placas.

Desde hace unos veinte años sedispone de la técnica de medidasde interferometría de grandes ba-ses (VLBI, de Very Long Base In-terferometry). Requiere el desplie-gue de grandes antenas parabólicas,que registran señales procedentesdel espacio, de los cuásares porejemplo. Gracias a esa técnica noses dado medir con mucha exacti-tud la distancia entre dos antenas.

-30

-30

-20

-20

-10

-10

0

0

10

10

30 30

40 40

50 50

17

16

33

24

2528

29

31

3

44

241

25

31

34

48

49

56B00

1 2

4

10

6

12

18 19

43 54

55a

6

B00(2)

40

5 14

13

23

9

21

22

20

34

26

32 53

55b

B95(23)

B01

INVESTIGACIÓN Y CIENCIA, enero, 2002 79

5. MECANISMO de los terremotos superficiales (h<30 km)de magnitud mayor que 5 de la región Azores-Túnez delperíodo 1930-1999. En azul los mecanismos de falla dedesgarre, en verde los de fallas normales y en rojo los

de fallas inversas. Los primeros corresponden a zonas dedeslizamiento horizontal, los segundos a zonas de ex-tensión y los terceros a zonas de colisión (cortesía deE. Buforn).

Page 82: Investigación y ciencia 304 - Enero 2002

Repitiendo las medidas a lo largode varios años, puede determinarseel movimiento relativo entre ellas.

Pero ese tipo de antenas sóloexisten en muy pocos sitios. En lapráctica resulta más útil el sistemaGPS. Los detectores GPS son apa-ratos pequeños, de fácil transportey preparados para realizar campa-ñas de medidas en muchos pun-tos. Las medidas dan la posiciónde cada punto con una exactitudde milímetro referida a un sistemafijo de referencias. La repeticiónde estas medidas permite en po-cos años determinar, a través deun análisis muy riguroso y bas-tante complicado, el campo de ve-locidades relativas de una ciertaregión, en forma de vectores, quedan la magnitud del desplazamien-to anual y su dirección. Con laprecisión creciente de las medidasdel sistema GPS, aumenta tambiénla precisión de nuestras medidasde la velocidad del movimiento delas placas. Por ejemplo las defor-maciones en el interior de Europamedidas directamente por estosmétodos varían entre 2 y 5 mmpor año.

En las zonas de actividad sís-mica, la interacción tectónica delas placas produce deformacionesde la corteza terrestre que termi-nan por desencadenar los terremo-tos. Hasta hace muy poco, sólo sepodía calcular de una manera apro-ximada la deformación de una re-gión, teniendo en cuenta el tiem-po que ha pasado desde el últimogran terremoto y el valor, asimis-mo aproximado, de la velocidad delas placas. Por ejemplo, en el surde España, sumando todos los des-plazamientos producidos por los te-rremotos del siglo XX se obtienenvelocidades respecto a Africa en-tre 0,6 y 5,5 mm por año.

Las observaciones de GPS abrenla posibilidad de medir directa-mente tales deformaciones. Lacomparación entre los resultadosregistrados y los deducidos de ob-servaciones sísmicas permite se-parar la deformación que se trans-forma en el deslizamiento de losterremotos y la deformación queproduce un deslizamiento lentono sísmico. La medición directade las deformaciones de la cortezaterrestre, además de su interés para

estudiar la tectónica activa de unaregión, tiene también consecuen-cias prácticas en la evaluación delriesgo sísmico.

Conclusión

Los últimos 25 años han su-puesto un gran adelanto para

nuestro conocimiento de la Tierray sus envolturas, océanos y atmós-fera, y de los procesos que en suseno tienen lugar. Los avances hansido posibles gracias al desarrollode nuevos instrumentos y métodosde observación y la utilización deordenadores de potencia creciente.Hasta hace muy poco, las limita-ciones del cálculo reducían nues-tros modelos de la Tierra a repre-sentaciones muy sencillas, definidaspor un número exiguo de paráme-tros. Estos modelos no podían re-producir la complejidad de las si-tuaciones de la Tierra con fidelidad.

Hoy podemos abordar dicha com-plejidad con métodos de observa-ción y cálculo que nos permitenelaborar modelos realistas. Ade-más del interés teórico intrínsecode los modelos obtenidos, su apli-cación facilita la determinación delriesgo de los terremotos y la in-fluencia de la contaminación. Hoyen día, cuando somos más conscien-tes que nunca de la influencia delhombre en el delicado sistema dela Tierra, su conocimiento profun-do se hace imprescindible para es-tablecer las pautas que asegurensu conservación.

80 INVESTIGACIÓN Y CIENCIA, enero, 2002

THE EVOLVING CONTINENTS. B. F.Widley. John Wyley & Sons, Nue-va York; 1995.

SEISMIC MODELLING OF THE EARTHSTRUCTURE. Dirigido por E. Bos-chi, G. Ekström y A. Morelli. Edi-trice Compositoi, Bolonia; 1996.

EARTH’S DEEP INTERIOR. Dirigido porD. J. Crossley. Gordon & BreachScience Publ., Amsterdam; 1997.

GPS FOR GEODESY. Dirigido por P.J. G. Teunissen y A. Kleusberg.Springer Verlag; 1998.

EARTH. EVOLUTION OF A HABITA-BLE WORLD. J. I. Lunine. Cam-bridge University Press; 1999.

Bibliografía complementaria

Page 83: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 81

Page 84: Investigación y ciencia 304 - Enero 2002

82 INVESTIGACIÓN Y CIENCIA, enero, 2002

Los prototipos de bumerán tra-dicionales son objetos vo-ladores, hechos de madera,

con dos superficies de sustentaciónque forman un ángulo más o me-nos obtuso. Hace unos cuatro si-glos, los aborígenes transmitieroneste legado a los colonos austra-lianos de raza blanca, como mues-tra del progreso técnico de una so-ciedad de la edad de piedra. Lamayoría, utilizados para la caza,son pesados (“kylies”); ni con todala práctica del mundo volverán és-tos al punto de partida. Pero al-canzan más de 100 metros, si enel camino no matan un animal oencuentran algún obstáculo.

Los deportivos y lúdicos tienenunas superficies de sustentaciónalgo más angulares. Según el pesopor superficie (cantidad de masapor superficie alar) y la calidad

aerodinámica de sus superficies desustentación vuelven a su lanzadoren vuelos circulares de unos 10hasta 40 metros, siempre que sehayan lanzado con cierta habili-dad. Los hay de diferentes formasy tamaños.

El bumerán de dos alas, fácil detallar en un trozo de madera, tieneun movimiento complicado, ya quesu baricentro está por regla gene-ral en el ángulo fuera de la ma-dera, gira alrededor del bumerány viceversa. Los movimientos delbaricentro y del bumerán se su-perponen de tal manera que cadapunto de la madera describe cur-vas al estilo de las cicloides enforma de ondas o rizos. Felix Hess,quien en 1968 escribió un artículoen Scientific American y en 1975una disertación impresionante so-bre bumeranes, hizo visible las tra-yectorias de vuelo en un cielo noc-turno por medio de un rastroluminoso que dejaba una bombi-llita cargada mediante una batería,que iba montada cerca de la puntade un ala.

Por simplicidad nos ceñiremos albumerán cruciforme, de vuelo mástranquilo con el baricentro justo enel centro. Se trata de un tipo pocohabitual entre los aborígenes, loque se explica por su difícil fa-bricación con una técnica lítica. Enel museo de la ciencia de St. Paul(Minnesota) pude admirar algunosejemplares del noreste de Austra-lia, cuyas alas cruzadas se unierontrenzando ingeniosamente cuerdasde cuero.

Bumerán de cartón

Como objeto, a la vez, de en-tretenimiento y de contem-

plación me detendré en un modelode sencillez insuperable. Retornay, para dar una vuelta completa,le basta con la amplitud de una

oficina. A Michael Siems, campeónde lanzamientos de bumerán, ledebo el modo de confeccionarloscon un par de tiras de cartón, re-cortadas de los antiguos archiva-dores de documentos. Tómensedos tiras de cartón con un peso de300 gramos por metro cuadrado yun tamaño de 21 cm × 2 cm. Conuna goma elástica casera (diáme-tro de 1,5 cm) se unen formandouna cruz simétrica. Puesto que sólopodemos estirar la goma hasta cier-to punto, se monta el centro deuna tira con el extremo de la otra;a continuación se empuja la se-gunda tira hasta llegar al centro.Una grapa bien colocada podríasubstituir la goma. Para que el bu-merán siga la curva proyectada parasu vuelo, deben doblarse las cua-tro alas en la dirección deseadaantes del lanzamiento.

Al principio, el diestro tomarála cruz alada con su mano dere-cha verticalmente o muy ligera-mente inclinado hacia la derecha,el lado “vacío” hacia la izquierda,y lanzará el bumerán hacia delanteo en leve pendiente hacia arriba.(Los zurdos deben intercambiar aquíy en lo que sigue izquierda y de-recha.) Deteniendo la mano justoantes de soltarlo, le imprimimosun gran impulso de rotación y, encomparación, poco impulso haciaadelante. Si el bumerán pesa mu-cho, necesitará poca inclinación ha-cia la derecha para elevarse desdeel principio en virtud de las fuer-zas ascensionales; para los bume-ranes de cartón ligeros de cuatroalas la inclinación es superflua.

Felix Hess señala lo que a con-tinuación ocurre: “Primero pareceque el bumerán se aleje volandoen línea recta, pero enseguida girahacia la izquierda y también haciaarriba y vuelve con un arco muyabierto hasta el lanzador. En al-gún punto cercano al lanzador se

CURIOSIDADES DE LA FÍSICA

El vuelo del bumerán

Wolfgang Bürger

b

2

d πd < 4b

Page 85: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 83

TEORIA DEL VUELO DEL BUMERAN

Un bumerán lanzado hacia delante en posiciónvertical inclina de salida el plano de sus alas

y vuela describiendo una curva que está aproxi-madamente en un plano horizontal. Por las obser-vaciones de Hess comprobamos queel plano de las alas es siempre tan-gencial a la trayectoria de vuelo. (Unbumerán que hubiera diferido de estetipo de orientación habría sido em-pujado por las fuerzas de resistenciadel aire hacia la posición “correcta”.)La fuerza ascensional A de las alas,orientada perpendicularmente al planode las alas, se halla en equilibrio conla fuerza centrífuga Z = mv2/r y lafuerza de la gravedad G = mg (m yv son la masa y la velocidad del ba-ricentro del bumerán, r el radio decurvatura local de su trayectoria, αel ángulo entre la dirección normal al plano de lasalas y la horizontal, g la aceleración de la grave-dad). Del dibujo se obtienen una condición de equi-librio para las fuerzas orientadas verticalmente yotra para las horizontales: G = A sen α y Z = A cos α.

Barger y Olsson han calculado qué fuerza as-censional A experimenta un bumerán de cruzcuando su baricentro se aleja con una velocidadv en el plano de las alas y sus cuatro alas girancon una velocidad angular ω en el plano de és-tas. Para el cálculo se admite que todas las par-tes de las alas contribuyen en la fuerza ascen-sional del bumerán y que sus aportaciones sonproporcionales al cuadrado de las velocidades dela corriente de ataque:

donde u = ωl es la velocidad de la trayectoriacircular de la punta de las alas y l la longitud delas alas. El parámetro L = 2Q/(ρca), que tiene di-mensión de longitud, aparte de la densidad del aireρ depende sólo de características del bumerán: delcoeficiente de sustentación ca de sus alas y delpeso por superficie Q = m/(4bl), la razón entre lamasa m y la superficie alar 4bl (para un bumeránde cuatro alas de anchura b). Para un bumeránde oficina de m = 2,5 gramos con l = 10,5 cm yb = 2 cm, L será aproximadamente 1,2 metros, sipara ca se supone un valor de 0,5.

El momento de giro de las fuerzas ascensiona-les del aire lo elude el bumerán a la manera delgiroscopio: gira el plano de sus alas con una ve-locidad angular Ω = v/(L cos α) alrededor del ejevertical que pasa por su baricentro. Admitido que

el plano de las alas es siempre tan-gencial a la curva de la trayectoria,se deduce que la curva de la trayec-toria de un bumerán sigue el giro delplano de sus alas: v = r Ω. Por elimi-nación de Ω se infiere de las dos úl-timas ecuaciones que r = L cos α.

A diferencia de la velocidad de pre-cesión Ω, el radio local de la trayec-toria no depende de la velocidad v delbumerán. Este no vuela más lejos por-que se lance con más fuerza, sinosólo irá y girará más deprisa.

La resistencia del aire frena la ro-tación: u disminuye y con ello tam-

bién la fuerza ascensional A. Ya que G = A sen αpermanece constante, α tiene que aumentar: el bu-merán se tumba. Debido al factor L, r crece conel peso por superficie del bumerán (“bumeranes pe-sados siguen volando”) y deviene (debido al factorcos α) menor cuanto más se haya tumbado el planode las alas.

Si se eliminan de las ecuaciones de arriba lasmagnitudes A, α y r, obtendremos

y con ello también todas las otras magnitudes (A,sen α y así sucesivamente) en función de u. Paravolar, ha de empezar con una velocidad de girosuficientemente grande u0 > √3gL. Las ecuacionesson válidas hasta que se cumpla que u = √3gL yla velocidad v = 0 y el bumerán haya alcanzadoel centro de la trayectoria espiral (r = 0), girandocon la velocidad angular ω = √3gL/l. El plano desus alas está entonces dispuesto horizontalmente(α = π/2), y la fuerza ascensional aún puede aguan-tar su peso (A = G). Si se continúa reduciendo u,el juguete descenderá de inmediato, de un modoparecido al aterrizaje de un helicóptero.

Mientras la resistencia del aire frena la veloci-dad de giro u del bumerán volador, aumenta el pa-rámetro adimensional τ = √3gL/u. Desempeña la fun-ción de un tiempo que ordena el transcurrir delvuelo del bumerán. El verdadero transcurrir tem-poral en segundos resulta de una ecuación dife-rencial para el frenado del bumerán debido a laresistencia del aire. Sin resolver esta ecuación, po-demos estimar con su ayuda el tiempo del vuelo.Este depende sólo de las propiedades aerodinámi-cas del bumerán; para un prototipo ligero no llegaa los dos segundos. Crece, como la longitud L,con el peso por superficie: cuanto más pesado seael bumerán, más tiempo durará su vuelo.

α

AG

Z

Giróscopos y planeadores al mismo tiempo

A +mL

u2

3v2

2

Page 86: Investigación y ciencia 304 - Enero 2002

84 INVESTIGACIÓN Y CIENCIA, enero, 2002

para o describe un segundo rizomás pequeño, antes de caer al suelo.El plano de las alas adquiere unaposición tendente a la horizontal,casi absoluta al final del vuelo.”

El retorno del bumerán

Toda teoría física que se pro-ponga para explicar el vuelo

del bumerán ha de ofrecer res-puesta a tres cuestiones clave: ¿Porqué vuelve el bumerán y cuál esel diámetro de la trayectoria devuelta? ¿Qué proceso frena su vuelohasta detenerlo? ¿Por qué siempreacaba en posición horizontal?

Vayamos con la primera. Un bu-merán es tanto un planeador comoun giróscopo. Sus brazos son alasque experimentan una fuerza ensu movimiento hacia adelante ygiro a través del aire. La compo-

nente perpendicular al viento demarcha se llama “fuerza ascen-sional”, aun cuando en nuestrocaso no esté dirigida hacia arriba(véase el recuadro “Giróscopos yplaneadores al mismo tiempo”). Lafuerza ascensional empuja un bu-merán lanzado por diestros a unacurva hacia la izquierda. Simultá-neamente actúa un momento degiro que quiere volcar el bume-rán alrededor del eje de su di-rección de vuelo; el ala que girahacia delante experimenta un vientode marcha y una fuerza ascensio-nal correspondientemente mayorque la que va hacia atrás.

A la manera de un giroscopio,elude ese momento de rotación me-diante un giro (“precesión”) de suplano de vuelo. El bumerán retor-na como consecuencia del movi-miento en su trayectoria y de la pre-cesión giroscópica. La experiencianos enseña que la anchura del vue-lo apenas depende de la velocidadde lanzamiento; sí en cambio lavelocidad de vuelo y la velocidadangular, con la que el juguete giradurante su vuelo.

Respondamos a la segunda cues-tión. Planeadores y aviones de pa-pel realizan también un trabajo paravencer la resistencia del aire. Perounos y otros pueden en su vuelode descenso convertir la energía po-tencial de la gravedad en energíacinética y, por lo tanto, planear en

declive hasta que terminen en elsuelo. En cambio el bumerán pierdeparte de su energía cinética en formade trabajo para vencer la resisten-cia del aire. Por lo tanto, su vueloacaba tras un tiempo limitado.

Pese a su empeño, Hess no haencontrado una respuesta conclu-yente a la pregunta sobre el ori-gen de su inclinación hasta alcan-zar una posición horizontal. Expertosy aficionados, que atrapan los bu-meranes en su vuelo de retorno,corroboran que el plano de las alassiempre se inclina hacia la posi-ción horizontal. La gravedad ha deser, pues, la causa de que se si-túen así. En vez de acometer unvuelo de descenso, el bumerán buscala horizontal y aumenta con ellola parte orientada hacia arriba desu fuerza ascensional.

Una omisiónen el Laboratorio Espacial

No está a nuestro alcance de-sactivar la fuerza de la gra-

vedad en la Tierra. Pero donde noopera la gravedad —en una esta-ción espacial que describe una tra-yectoria balística— los bumeranesno deberían adoptar una posiciónhorizontal. En el programa “Juguetesen el espacio” incluido en el vuelodel Discovery de 1984 podrían ha-berlo probado los astronautas. Alno hacerlo, se perdió una oportu-nidad de oro.

Si lanzamos varios bumeranesconjuntamente retornan también

en formación, siempre que no so-ple el viento, por supuesto

Alaadelantada

Alaretrasada

v

v v

v

v

u

u

u

u

u+v

v-u

THE AERODYNAMICS OF BOOMERANGS.Felix Hess, en Scientific American,pág. 124; noviembre, 1968.

CLASSICAL MECHANICS, A MODERNPERSPECTIVE. V. D. Barger y M. E.Olsson. McGraw-Hill, pág. 171 (TheBoomerang). Nueva York, 1973.

BOOMERANGS, AERODYNAMICS ANDMOTION. Felix Hess. Disertación, Rijk-suniversiteit te Groningen, 1975.

Bibliografía complementaria

Page 87: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 85

En un país europeo, renombrado porsus artistas, sus vinos y sus revolucio-nes, un grupo de camioneros dio con laforma de lograr precios más bajos en elcombustible. Sencillamente, bloquearonlas carreteras y desafiaron a que los sa-casen de allí. Este problema está dedi-cado a ellos.

Consideremos una red pentagonal decarreteras de doble vía que conectan losvértices del pentágono (véase la figura).Supongamos que un camión puede via-jar en un minuto desde un vértice hastaotro contiguo. Mientras lo hace, ningúnotro vehículo puede usar la misma víaen ninguno de los dos sentidos. En esteproblema, cuatro camiones de repartoparten de cada vértice. Cada vehículoha de viajar después hasta uno de los

otros cuatro vértices; por ejemplo, loscuatro camiones que salen del vértice Atienen que acabar uno en cada uno delos vértices B, C, D y E. Como pro-blema preliminar, ¿será posible idear unaruta en la que cada camión alcance sudestino en un máximo de tres minutos?Se puede ver una solución en las figu-ras 1 a 4.

Pero el problema se complica cuandolos transportistas se declaran en huelga,en el fragor de la cual uno bloquea lasdos vías que conectan los vértices A yE (paso 5 de la figura). En ese caso,¿en qué tiempo mínimo se puede con-seguir que los vehículos de reparto al-cancen sus destinos? ¿Se podrá demos-trar que tal solución es la más rápida delas posibles?

Solución del problemadel mes pasado:

Para hacer máximaslas probabilidades desupervivencia, cada prisionerose atiene a esta regla:“Si veo dos coronas rojas, diréque la mía es azul, y si veodos coronas azules, diré quela mía es roja. En los demáscasos, pasaré.”Es seguro que siempre habráal menos dos coronas rojas odos azules.Si hay al menos dos rojas, seplantean cuatro posibilidades:1. Sólo A y B son rojas. Enton-

ces A y B pasarán. Enton-ces C dirá azul. Acierto.

2. Sólo B y C son rojas. B y Cpasan. A dirá azul. Acierto.

3. Sólo A y C son rojas. A y Cpasan. B dirá azul. Acierto.

4. A, B y C son rojas. Todosdirán azul, y todos habránfallado.

En el caso de que dos coronaspor lo menos sean azules seaplica un razonamiento aná-logo. Así pues, la regla ase-gura que los prisioneros gana-rán el 75 por cientode las veces. Si éstos puedenapostar distinto número depuntos, deberían acordar deantemano quiénes apostaránen primer, segundo y tercerlugar. El primero debería siem-pre apostar un puntoa que su corona es roja. Siel segundo ve que la coronadel primero es azul, deberíaapostar dos puntos a que lasuya es roja; si no, debe pa-sar. Si el tercero de los cauti-vos observa que las coronasde los otros dos son ambasazules, debe apostar cuatropuntos a que la suya es roja;de no ser así, debe pasar.A menos que los tres presoslleven coronas azules (lo queocurre en 1 de cada 8 casos),los prisioneros ganarán.

AVENTURAS PROBLEMÁTICASDennis E. Shasha

Parada discrecional

A

B

C

C

B

A

e

a

ab

bc

d

c

d

e

E

D C

B

A

d

b

ec

ad

d

b

c

a

E

D C

B

A

e

a

ab

bc

d

c

d

e

E

D

D

E

A

B

CD

E

1

2 3 4

5

DE CADA VERTICE del pentágono (1) parten 4 camiones. Durante el primer minuto, uno de loscamiones de cada vértice viaja en sentido horario por la vía exterior, al tiempo que otro camiónde cada vértice lo hace en sentido antihorario por la vía interior (2). En el segundo minuto, loscamiones, tanto en la vía exterior como en la interior, continúan viajando en sentido horariopara llegar a sus destinos (3). En el tercer minuto, uno de los dos camiones que todavía estánen cada vértice viaja en sentido horario por la vía exterior, mientras que el otro lo hace en sen-tido antihorario por la vía interior (4). La solución funciona también si se invierten todos los sen-tidos de recorrido. Pero, ¿qué ocurre si algunas de las vías están bloqueadas (5)?

Page 88: Investigación y ciencia 304 - Enero 2002

86 INVESTIGACIÓN Y CIENCIA, enero, 2002

La forma en que se añade in-formación a una situaciónincierta puede dar lugar a

enigmas y paradojas. Un ejemploya clásico en la teoría de la pro-babilidad es el problema de MontyHall. Otro no tan conocido, aun-que no menos interesante, es laparadoja de los dos sobres, quepresentaremos en este artículo peroa la que dedicaremos una exposi-ción detallada en el próximo.

Monty Hall es el presentador deun viejo concurso de la televisiónen Estados Unidos. En la fase fi-nal del concurso Monty enseña trescofres a un sufrido concursante. Enuno de ellos hay un gran premioy los otros dos están vacíos. Elconcursante elige nervioso uno delos cofres. Monty aparta entoncesel cofre elegido y mira lenta y te-atralmente en el interior de los otrosdos. Cierra de nuevo uno de ellos,toma el otro con las dos manos ylo vuelca ante los ojos del con-cursante y el público: está vacío.

El concursante suspira aliviado,aunque no tiene ninguna razón paraello. Monty, generoso, le enseñalos dos cofres que quedan cerra-dos y le ofrece la posibilidad dereconsiderar su decisión inicial:“Puede ahora escoger cualquiera deellos”, anuncia con un redoble debatería. ¿Qué debería hacer el con-cursante?

Mucha gente piensa que, una vezeliminado uno de los cofres, elpremio puede estar por igual enlos dos que quedan. Por lo tanto,no importa el cofre que se elija:la probabilidad de ganar el premioes del 50 %. Si a eso añadimosque, en la mayoría de la gente,modificar una decisión correcta pro-duce una sensación bastante másdolorosa que mantenerse en unaincorrecta, no es de extrañar quecasi todo el mundo se niegue a

cambiar de cofre. En una serie decharlas sobre probabilidad esceni-fiqué el concurso de Monty Hally todos los “concursantes” sin ex-cepción prefirieron quedarse con elcofre elegido en primer lugar.

Sin embargo, lo mejor que puedehacer el concursante es cambiar sudecisión inicial. Veamos por qué.Conviene primero que se imagineno un solo concurso, sino un grannúmero de ellos. Imagínese que elconcursante tiene oportunidad derepetir el juego 900 veces, es de-cir, imagínese 900 réplicas del con-curso, cada una con el premio enun cofre tomado al azar. Cuandoel concursante elige por primeravez uno de los tres cofres, es evi-dente que aproximadamente un ter-cio de las veces acertará y dos ter-cios de las veces se equivocará.Es decir, solamente en un terciode las réplicas, unas 300, el pre-mio está en el cofre elegido porel concursante. Monty descubre elcofre vacío y quedan dos cofrescerrados. Recordemos que sólo enun tercio de las réplicas el premioestá en el cofre elegido inicial-mente. En el resto de las réplicas,el premio estará en el otro cofre.

Por tanto, si el concursante man-tiene su decisión inicial, ganará untercio de las veces. Si cambia, ga-nará dos tercios de las veces. Esteargumento se muestra en la figura,en donde hemos supuesto 9 répli-cas del juego. En términos de pro-babilidad, podemos decir que laprobabilidad de ganar manteniendola decisión inicial es un tercio, yla probabilidad de ganar al cam-biar de cofre es de dos tercios.Los dos cofres no son equivalen-tes, como podía parecer a primeravista. Uno de ellos ha sido tomadoal azar entre tres cofres en prin-cipio iguales (con igual probabili-dad de contener el premio). El otro

ha sido el superviviente de la ins-pección realizada por Monty.

El problema de Monty Hall nosenseña dos cosas interesantes acercade la probabilidad y el azar. Laprimera es que, al introducir in-formación en un sistema, cambianlas probabilidades de los distintossucesos que pueden ocurrir en di-cho sistema. La segunda es másmetodológica: el problema de MontyHall es más difícil de entender sino se introducen las réplicas, esdecir, si se piensa en un únicoconcurso.

Veamos ahora la paradoja de losdos sobres, que tiene una formu-lación análoga al juego de MontyHall, pero que da lugar a una si-tuación bastante más sorprendentey cuya solución requiere adentrarseen conceptos más sutiles de la teo-ría de la probabilidad.

Ahora el presentador toma dossobres e introduce en uno de ellosuna cantidad de dinero x, desco-nocida para el concursante, y enel otro el doble de dicha cantidad,2x. El concursante elige uno de losdos sobres y lo abre. Supongamosque encuentra 1000 euros. El pre-sentador entonces le ofrece al con-cursante la posibilidad de cambiarsu elección original. ¿Cuál es laestrategia a seguir? En principio,los dos sobres parecen equivalen-tes y, por tanto, nadie creería quecambiar de sobre pueda suponeralguna ventaja. Sin embargo, en elsobre cerrado puede haber 2000euros o 500 euros. Como no sa-bemos nada de las cantidades in-troducidas en los sobres, cada unade estas posibilidades se dará conuna probabilidad 1/2. Por consi-guiente, en el sobre cerrado habrá,en media, una cantidad 2000/2 +500/2, es decir, 1250 euros. Si nosquedamos con el sobre abierto ga-namos 1000 euros, pero si cam-

JUEGOS MATEMÁTICOS

Información y juegos de azar: el problema de Monty Hally la paradoja de los dos sobres

Juan M. R. ParrondoJuan M. R. Parrondo

Page 89: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 87

biamos ganamos, en media, 1250euros. La mejor estrategia será,pues, cambiar.

Pero este argumento conduce auna extraña paradoja. El argumen-to no depende de la cantidad ha-llada en el primer sobre (supon-gamos que en él hemos encontradox euros; en el sobre cerrado ha-brá, en media, 2x/2 + (x/2)/2 = 5x/4,que es mayor que x. Es decir,independientemente de lo que en-contremos en el primer sobre, sicambiamos aumentaremos la ga-nancia media. ¿Para qué abrir elprimer sobre entonces? Antes deabrirlo ya sabemos que es mejorcambiar. Pero esta conclusión escompletamente absurda, porque po-

demos aplicar de nuevo el argu-mento, que nos aconseja cambiarotra vez de sobre. Actuaríamos asícomo el asno de Buridán, alter-nando indefinidamente nuestras pre-ferencias entre uno y otro sobre.La diferencia con el asno es queel argumento probabilístico que he-mos descrito nos estaría diciendoque, cada vez que cambiamos nues-tra preferencia de uno a otro so-bre, sin necesidad de abrirlos, es-tamos aumentando la gananciamedia. Hay que ser más necio queel asno para creerse semejante cosa.

Es evidente que en el argumentoexpuesto acerca del contenido delsobre cerrado hay una falacia. ¿Sabráel lector encontrarla?

2/3

1/3

PRIMERAELECCION

COFRE ABIERTOPOR MONTY

EL JUEGO DE MONTY HALL repetido nueve veces. En tres de ellasel concursante ha elegido el cofre premiado en su primera opción;en seis, el concursante elige un cofre sin premio. Después de queMonty abre uno de los cofres no elegidos (los rodeados por la lí-nea azul), los dos restantes no son equivalentes: el elegido en pri-mer lugar contiene el premio sólo un tercio de las veces, mientrasque el que ha sobrevivido a la inspección de Monty contiene el pre-mio dos tercios de las veces

Page 90: Investigación y ciencia 304 - Enero 2002

88 INVESTIGACIÓN Y CIENCIA, enero, 2002

IDEAS APLICADAS

Interruptores de pérdida a tierra

Mark Fischetti

NUCLEODEL

SOLENOIDE

MICROCIRCUITOLOGICO

Esas extrañas tomas de corriente de paredcon sus botones de prueba y reconexiónse ven cada día más. Ya exigido en al-

gunos países para cuartos de baño, cocinas, ga-rajes y enchufes al aire libre, el interruptor depérdida a tierra (o GFCI) puede protegernos dedesagradables sacudidas eléctricas o de la elec-trocución.

Acostumbra la gente suponerse protegida porlos automáticos y fusibles de los edificios. Peroesos interruptores actúan esencialmente ante cor-tocircuitos y sobrecargas en las tomas de corrien-te, que pueden recalentar el cableado eléctricodel edificio y promover un incendio. Los auto-máticos domésticos comunes no se disparan hastaque la corriente sobrepasa los 15 o 20 ampè-res, pero una corriente de sólo 0,1 ampère queatraviese un cuerpo humano puede causar unataque al corazón, asegura Matt Marone, físicode la Universidad de Mercer.

La mayoría de las sacudidas eléctricas case-ras se deben a una “pérdida a tierra” en unaherramienta o electrodoméstico. Un cable in-terno suelto o gastado, una salpicadura de aguae incluso una humedad fuerte electrifica el ex-terior del aparato. Entonces, por el cuerpo deuna persona puede pasar corriente hacia tierra,especialmente si esa persona está húmeda y to-cando un objeto metálico. Ahí es cuando unGFCI corta la corriente.

La construcción y funcionamiento internosconstituyen una elegante aplicación de las le-yes fundamentales de la electricidad y el mag-netismo. Su acción se inicia cuando la corrientede retorno a la toma de corriente procedente deun aparato eléctrico es menor que la corrienteque alimenta a ese aparato, lo cual delata una“fuga” por puesta a tierra. Un GFCI puede de-tectar fugas de sólo 0,005 ampère e interrum-pir la corriente en sólo 1/40 segundos.

Sin embargo, los GFCI no salvan a los ma-ñosillos caseros que enredan en las tomas decorriente sin desconectar el automático. “Si setocan los hilos negro y blanco con una y otramano y se está aislado del suelo con unas zapa-tillas o botas de suela de caucho, las corrien-tes de ida y vuelta a la toma están compensa-das; no hay pérdida a tierra”, dice Marone.“Pero podríamos morir porque la diferencia depotencial de 120 volt entre ambos brazos creauna corriente corporal que podría detenernos elcorazón.” Con la insensatez ni siquiera puedela física.

Las ideas para el texto y las ilustracionesse deben a Matt Marone, profesor de físicade la Universidad de Mercer, Macon (Georgia).

1. TOMA DE PARED. La corrientellega por el hilo activo (negro) y entraen el electrodoméstico por la ranuraestrecha del enchufe, para regresar alhilo neutro (blanco) por la ranura an-cha. Normalmente la intensidad de lacorriente es igual en cada hilo. Ahorabien, si dentro del electrodomésticohay una fuga y comienza a pasar atierra a través del cuerpo del usuario(una “pérdida a tierra”), una bobinasensora del interruptor de pérdida atierra (o GFCI) detecta que la corrientede retorno es menor. Entonces, un mi-crocircuito lógico activa un solenoidecuyo núcleo móvil libera un resorteque al instante abre un conmutador,interrumpiéndose el paso de corriente.Al pulsar el botón test (“prueba”) lacorriente pasa por una resistencia;crea ésta un desequilibrio que disparael solenoide. Al pulsar el botón de“reconexión”, el resorte vuelve a sercomprimido a su posición de funciona-miento normal.

Page 91: Investigación y ciencia 304 - Enero 2002

! SIN ESCAPE: Una sacudida eléctrica puedeconvertirse en electrocución cuando una personaque haya tocado la bobina de una tostadora conun cuchillo no puede separarse del utensilio. “Unaintensidad de sólo 0,01 puede contraernos losmúsculos” y mantenerlos así, afirma Matt Maro-ne, de la Universidad de Mercer. Ante esa si-tuación, otra persona deberá abrir el interruptoro el automático de la toma, tirar del enchufe o,en última instancia, empujar al accidentado, sinagarrarse a él, so pena de correr la misma suerte.

! LINEA ABAJO: Adecuadamente conectado, unGFCI puede proteger varios enchufes a lo largo

de la misma línea. Puede comprobarse opri-miendo el botón test, y enchufando entonces unaradio o una lámpara a la toma del GFCI y aotras cercanas para asegurarse de que no haycorriente.

! ELECTROCUCIONES: Las causas principalesson los cableados domésticos deficientes y pro-ductos de consumo defectuosos. Otras causas:tijeras de jardinería que cortan sus propios ca-bles de alimentación, rizadoras o secadoras decabello que caen en lavabos con agua y tala-dradoras que dan con un cable al perforar unapared.¿S

ABIA

UST

ED Q

UE...

?

BOBINA SENSORA

HILO ACTIVO

RESORTE

SOLENOIDE

HILONEUTRO

2. LOS HILOS ACTIVO Y NEUTRO se montan con ungran paralelismo dentro del GFCI. La corriente que pasapor cada uno genera un campo magnético, que a su vezinduce una tensión eléctrica en la bobina sensora que losrodea. Como ambas corrientes fluyen en sentidosopuestos, los campos casi se anulany la tensión neta en la bobina esprácticamente cero. Pero sila corriente de retorno(en el hilo neutro) baja,en la bobina se induceuna tensión más fuerte.Entonces, un compara-dor de voltaje indicaa un microcircuito lógicoque ponga en acciónel GFCI.

BOBINASENSORA

HILO ACTIVO

CORRIENTE

HILO NEUTRO SENTIDO DEL CAMPOMAGNETICO

3. UNA SACUDIDAo una electrocuciónpuede ser la consecuen-cia de tocar un conductorcon corriente o sujetaruna herramienta o elec-trodoméstico que estéinadvertidamente electri-ficado a causa de unfalso contacto interno,del agua e incluso unahumedad muy intensa.

INVESTIGACIÓN Y CIENCIA, enero, 2002 89

Page 92: Investigación y ciencia 304 - Enero 2002

90 INVESTIGACIÓN Y CIENCIA, enero, 2002

El otro día recibí uno deesos panfletos de pro-paganda por correo que apre-

mian a suscribirse a un curso adistancia sobre cómo mejorar lamemoria. Pensé que si supiera dóndeestaba o qué era mi memoria, ha-ría cualquier cosa por mejorarla.

Cierto es que se ha avanzadobastante en tales asuntos neurofi-siológicos, en parte gracias al tipode publicidad que por los años cin-cuenta del siglo XIX enviaron IsaacPitman y sus socios en su intentode promocionar una manera total-mente nueva de abordar la foné-tica inglesa. Sin embargo, sus es-fuerzos no obtuvieron ningúnresultado. Decidieron entonces ven-der cursos por correspondencia deuna técnica de escritura basada enla fonética, conocida hoy como ta-quigrafía.

El motivo de Pitman para inten-tar aproximar el inglés hablado alinglés escrito residía en su palma-ria disparidad. No intente el lectorpronunciar “Featherstonehaugh” sisu lengua materna no es el inglésde Oxford. Ni siquiera aunque losea el inglés norteamericano, aus-traliano, neozelandés, canadiense osudafricano. ¿Desiste? Es “Fanshaw”.Pitman creía que la paz mundialse conseguiría antes, porque al sim-plificar palabras tales como“Featherstonehaugh”, haciéndolasmás fáciles de leer y pronunciar,resultaría más sencillo someter atodos esos extranjeros a la influenciacivilizadora del inglés oxoniense.

La idea echó raíces, pero a es-cala mucho mayor de lo que lamente ingenua de Pitman podía ha-ber esperado. En 1897 apareció elAlfabeto Fonético Internacional, quefacilitó la pronunciación y transli-teración de todas las lenguas.

Un primer espada en fonética fueHenry Sweet, en quien se inspira-ría George Bernard Shaw para darvida al profesor Higgins en

Pygmalion. En la obra, Higginstranscribe la forma de hablar delpersonaje de Elisa; utiliza “hablavisible”, una serie de caracteresque había desarrollado mucho an-tes el padre de Alexander GrahamBell, profesor de declamación ymiembro fundador del ConsejoBritánico de Fonética. Hacia el de-cenio de 1870 Bell hijo andabaocupado representando sonidos paralos alumnos sordos a los que im-partía lecciones en Boston.

En esa tarea batallaba cuandodesarrolló el fonoautógrafo, apro-vechando un prototipo inventadopor alguien que cayó en el máscompleto de los olvidos, E. LeonScott de Martinville. El aparato eraen sus inicios bastante primitivo:los sonidos hacían vibrar una mem-brana mientras un pincel situadoal otro lado de la misma trazabafiguras sobre un vidrio ahumadomóvil. Con este aparato Bell pudoenseñar a sus alumnos cuál era laforma correcta del sonido que in-tentaban reproducir, de forma quelo pudieran comparar con sus pro-pios esfuerzos miméticos.

La idea probablemente la inspiróun artefacto desarrollado años an-

tes por Etienne J. Marey, un fi-siólogo francés que colocó una finamembrana en un tambor y puso elaparato allá donde deseaba paratransformar ritmos vitales en grá-ficos. Cuando una presión abom-baba la membrana, el aire del tam-bor se canalizaba por un tubo paragolpear otra membrana ajustada aotro tambor situado en el extremoopuesto del tubo. Montado en estasegunda membrana había un pun-tero que se movía en consecuen-cia y trazaba una línea. Con eltambor, vigente en medicina hasta1955, Marey podía reducir cual-quier vibración fisiológica a unatira gráfica. Le gustaba llamar pom-posamente a sus garabatos “el len-guaje de la vida”.

Que la innovación viniera deFrancia no deja de ser natural, ha-bida cuenta de que, a principio delsiglo XIX, los hospitales parisien-ses eran los más avanzados delmundo. Hasta los ingleses acudíana tomar notas. Lo nunca visto.

Los pases de visita, las gráficas,el diagnóstico estetoscópico y laestadística médica encontraron allípor primera vez una aceptación ge-neralizada. Y con todo ello, la in-cuestionable autoridad de los mé-dicos, que debemos en parte aNapoleón y a su idea de ganar lasbatallas basándose en los números.Los soldados del ejército francésse contaban con cifras de seis ce-ros, después de ser el primero enestablecer el reclutamiento en todoel país. Inevitablemente miles dejóvenes soldados marchaban delcampo de batalla al hospital, siem-pre disciplinados y obedientes.

Los números tuvieron también suimportancia en técnica médica.Porque ahora los galenos disponíande tantos heridos de guerra que elhospital ya podía recoger cantida-des ingentes de datos estadísticosque permitieran establecer la efi-cacia de la evaluación y el trata-

NEXOSJames Burke

Temas muy intelectuales

Page 93: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 91

miento del paciente. Asíempezaron a aparecer alpie de la cama esas ca-prichosas líneas que des-criben la respiración delpaciente, su temperaturay frecuencia cardíaca ycualquier otra determi-nación física que puedareducirse a líneas y nú-meros.

A finales del sigloXIX, todo ello allanó elcamino para la intro-ducción en el descono-cido campo de los tras-tornos psicológicos y sutratamiento de una no-vísima técnica de ori-gen vienés llamada mes-merismo. Los ayudantesde Franz A. Mesmeriniciaban el examen delenfermo con la identifi-cación de sus “polosmagnéticos”, para queluego hiciera apariciónel propio Mesmer, tocado con som-brero de plumas y una larga tú-nica. Mediante una precisa per-cusión en determinadas zonas delcuerpo del paciente pretendía trans-mitir una misteriosa “influencia”curativa.

A pesar de que algunos prohom-bres de la ciencia, así BenjaminFranklin, tildaran de falsario aMesmer, su influencia persistió. Laidea, al fin y al cabo, tenía másde trescientos años de vida. Elmismo Descartes postulaba que unespíritu vital emanaba de la glán-dula pineal y alcanzaba los ner-vios. Por esta razón, hacia 1820otros dos buhoneros, Franz J. Gally Johannes C. Spurzheim, abrieronla nueva “ciencia” de la frenolo-gía. Se basaba en la noción de queun líquido influyente se originabaen 37 órganos del cerebro distin-tos, cada uno de ellos responsablede una determinada característicamoral, sexual o intelectual. De estaforma era posible conocer el ca-rácter de una persona a partir delas prominencias óseas del cráneoque las cubría. A modo de ejem-plo, un cierto chichón ubicado de-trás de la oreja izquierda señalabaa un buen amante.

En 1876 Cesare Lombroso, di-rector de un asilo de enfermos men-

tales, estudió miles de cabezas (devivos y cadáveres) y llegó a laconclusión de que la teoría de laevolución de Darwin, según la cualel hombre descendía del mono, eraacertada. Fue Lombroso quien su-girió que los locos y los crimina-les, con una frente menos recta delo que cabría esperar, suponían unretroceso en la escala evolutiva.La palabra Neanderthal pasó a es-tar de moda, tras el reciente des-cubrimiento alemán de huesos an-tiguos en el valle Neander.

Algunos conservadores interpre-taron las teorías de Lombroso so-bre las características criminalescomo indicadoras de que la cri-minalidad era congénita, de formaque la única duda se planteaba en-tre una condena a cadena perpe-tua o la simple ejecución del in-dividuo. Los liberales vieron en laidentificación de las prominenciasla posibilidad de la rehabilitacióny de la reforma de las prisiones.La asistencia social se encontró deesta manera con una nueva herra-mienta para la investigación y laautorreforma.

Tal vez el resultado más asom-broso del trabajo de Lombroso fueel efecto que tuvo sobre un jovenque le sirvió de ayudante en 1872.Como parte de su trabajo, realizó

numerosas necropsias. Intrigado porel debate sobre las prominenciasrelacionadas con el conocimiento,empezó a realizar finos cortes decerebro en su cocina y a estudiar-los con el microscopio de un tíode su mujer, que resultó ser ana-tomopatólogo.

En 1873, tal vez estimulado porla nueva química de la fotografía,colocó una muestra de cerebro enun baño de bicromato potásico ycloruro de osmio; la sumergió luegoen una solución de nitrato de plata.Cortó secciones muy finas del ma-terial, las dejó secar y las transi-luminó. Así vio algo que cambiólo que pensamos sobre cómo pen-samos. Lo que Camillo Golgi iden-tificó sobre un fondo de tejido decolor dorado, en cuyo seno se ha-cían visibles, fueron las células delcerebro que hoy llevan su nombre,en un nítido y preciso color negrogracias a la tinción. A partir deese experimento singular iniciarásu andadura la ciencia de la neu-rofisiología.

Si alguien, alguna vez, descubredónde reside la memoria y cómomejorarla, el lector se lo deberáagradecer a Golgi y los fanáticosde la frenología. Y a ese mensajede correo de propaganda que men-cioné al principio (¿se acuerda?).

Page 94: Investigación y ciencia 304 - Enero 2002

92 INVESTIGACIÓN Y CIENCIA, enero, 2002

Evolución

Trasfondo y resonancia

NAISSANCE ET DÉVELOPPEMENTDU VITALISME EN FRANCE DE LADEUXIÈME MOITIÉ DU 18E SIÈCLEÀ LA FIN DU PREMIER EMPIRE, porRoselyne Rey. Voltaire Foundation;Oxford, 2000.

DIE ENTDECKUNG DER EVOLUTION.EINE REVOLUTIÖNARE THEORIEUND IHRE GESCHICHTE, por Tho-mas Junker y Uwe Hossfeld. Wissen-schaftliche Buchgesellschaft; Darm-stadt, 2001. LE DÉVELOPPEMENTDE LA PALÉONTOLOGIE CONTEM-PORAINE, por Cédric Grimoult.Librairie Droz; Ginebra, 2000.

DARWIN’S MENTOR JOHN STEVENSHENSLOW, 1796-1861, por S. M.Walters y E. A. Stow. CambridgeUniversity Press; Cambridge, 2001.THE CORRESPONDENCE OF CHAR-LES DARWIN. Volumen 12. 1864.Edición preparada por FrederickBurkhardt et alii. Cambridge Uni-versity Press; Cambridge, 2001.

THE UNFIT. THE HISTORY OF ABAD IDEA, por Elof Axel Carlson.Cold Spring Harbor LaboratoryPress; Cold Spring Harbor, 2001.DARWINISM IN PHILOSOPHY, SO-CIAL SCIENCE AND PUBLIC POLICY,por Alex Rosenberg. CambridgeUniversity Press; Cambridge, 2000.MORPHOLOGISCHE METHODEN INDER EVOLUTIONFORSCHUNG, porChristine Hertler. Verlag für Wis-senschaft und Bildung; Berlín, 2001.

Si en biología, parafraseando aTheodosius Dobzhansky, nada

tiene sentido a menos que se leconsidere desde una óptica evolu-cionista, deberemos preguntarnosqué es lo que evoluciona. Lo vivo,ciertamente. Pero, ¿a qué llamamosvida? Al conjunto de funciones quese resiste a morir, responderá Marie-François-Xavier Bichat en el albadel siglo XIX. La doctrina que, des-de media centuria antes, postulaba

que tales funciones no se reducíana procesos físicos y químicos re-cibió el nombre de vitalismo (Nais-sance et Développement du Vitalismeen France), un movimiento origi-nado en la facultad de medicina deMontpellier que tuvo en la En-cyclopédie una privilegiada caja deresonancia.

No debemos asociar las raícesdel vitalismo con el dualismo car-tesiano, defensor tenaz del meca-nicismo. Sí cabe enlazarlo con lateoría del arqueo (forma sutil yvolátil que alentaba al organismo)de su coetáneo J. B. van Helmonty con todos los que admitían unprincipio organizador interno, unafuerza vital.

El vitalismo ilustrado surge dela frustración de la iatroquímica yde la iatrofísica. Los modelos dela física y la química se reputanimpropios por naturaleza para darcuenta del organismo, sistema queno se forma como las máquinascreadas por el hombre, sino quese desarrolla a través de una epi-génesis admitida. Varias obras con-vergen, en el ecuador del siglo XVIII,en la fundamentación de sus tesis,en particular, el Traité des systèmesde Condillac, que recoge la dobleherencia de Locke y de Newton,el Specimen novi medicinae cons-pectus de Le Caze y la exposicióndoctoral de Bordeu De sensu ge-nerice considerato.

Dos son, en esa tendencia, laspropiedades distintivas de los or-ganismos; a saber, la irritabilidady la sensibilidad, reducida aquéllaen última instancia a ésta. La re-misión de la Encyclopédie resultaelocuente: “Irritabilidad, véase Sen-sibilidad”. En la obra de Dideroty d’Alembert hallamos compen-diada la gavilla de intereses de losvitalistas, que podemos sintetizaren las contribuciones de Jean-Jacques Ménuret de Chambaud so-bre “economía animal”, “inflama-ción”, “espasmo”, “pulso” y un largoetcétera, con la aportación de Bordeusobre la “crisis”.

Al vitalista, neohipocrático, leimporta el individuo en su totalidad.

Lo comprobamos en su epígonomáximo del final de esa centuriay comienzos del siglo XIX, Bichat.Formado con Marc-Antoine Petit,sostuvo que la patología debía ba-sarse en la estructura de los teji-dos, con independencia de su lo-calización en los órganos. Lostejidos difieren entre sí por la com-posición de sus propiedades vita-les y disposición de sus fibras. Laspropiedades del tejido dependen dela organización (extensibilidad ycontractilidad), en tanto que laspropiedades vitales dependen de lavida. Como indica en el prefaciode sus Recherches sur la vie et lamort, se propuso unir el métodoexperimental (recurrió a la vivi-sección) con las perspectivas filo-sóficas de largo alcance. En suAnatomie générale busca la sínte-sis de los conocimientos anatómi-cos, fisiológicos y patológicos dela época, incluidos los químicos.

El vitalismo no muere con Bichaten 1802. Al evocar en Lavoisier yBichat las dos grandes tendenciasfilosóficas que se oponen desde elorigen de la ciencia, reduccionistauna y autonomista la otra, escribíaClaude Bernard: “esta lucha tanvieja no ha terminado todavía.¿Cómo debería terminar? ¿Triunfaráuna sobre la otra? No lo creo.”

En una perspectiva muy distintase sitúa, sin embargo, Jean-Baptistede Lamarck (Die Entdeckung derEvolution y Le Développement dela Paléontologie Contemporaine).Negaba éste la existencia de fuer-zas vitales internas, pero defendíala transformación del organismo ainstancia de fuerzas externas. Elmedio modifica la herencia. Lamarckse había forjado un sólido bagajebotánico, que completó, llegada laRevolución, con su dedicación almundo invertebrado. Dominaba lavariabilidad e historia fósil de losmoluscos. Gracias a sus apuntesmanuscritos se ha reconstruido laevolución de su pensamiento. Sien enero de 1799 enseñaba el ca-rácter constante de las especies,año y medio más tarde proponíala transformación de las mismas,

LIBROS

Page 95: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 93

que ejemplificaba en el co-tejo de moluscos fósiles yrepresentantes actuales.

Subrayó la apariencia dis-tinta que manifestaban lasplantas si las semillas sesembraban en entornos di-ferentes. Advirtió tambiénque las plantas cultivadasa partir de semillas silves-tres producían especímenescon algunos rasgos pecu-liares. A estas variacioneslas llamó degradaciones.Introdujo la teoría de latrayectoria u orden seguidopor la naturaleza, lo quemás tarde se denominaráevolución. En su opinión,la forma más elemental devida surgía por generaciónespontánea. Por compleji-dad en su relación con elmedio, se habían ido cons-tituyendo dos líneas prin-cipales, una que arrancabade los infusorios y otra quepartía de los vermes.

Lamarck no apela a ningún epi-sodio de extinción. Lo contrario delpaladín del fijismo, Georges Cuvier,quien presenta numerosas pruebasen su favor en su exposición dela teoría de las catástrofes, tesisésta que no habría de resistir losdescubrimientos acumulados por lapaleontología estratigráfica. En elprimer tercio del siglo XIX, los na-turalistas multiplican el número derevoluciones del globo para expli-car la desaparición periódica de losorganismos. Cuvier postula tres, enlas fronteras de las grandes erasgeológicas. Sus seguidores Elie deBeaumont y Alcide d’Orbigny in-dican más de una veintena.

Las ideas transformistas de La-marck cobran en Francia un par-ticular impulso con Etienne GeoffroySaint-Hilaire, antagonista de Cuvier.Gran Bretaña no se muestra re-ceptiva a las teorías lamarckistas,aunque de ellas se hace eco CharlesLyell en el segundo volumen de susPrinciples of Geology. En Alemaniael pensamiento biológico inmediatoa Imamnuel Kant (partidario de lainmutabilidad de las especies, aun-que con cierta plasticidad de lasmismas en línea con Aristóteles ylos medievales) gira en torno a laNaturphilosophie de Friedrich Schel-

ling y Lorenz Oken, quienes recha-zan las tendencias reduccionistas ymecanicistas.

Entre los años treinta y cincuentadel XIX se producen una serie deavances espectaculares en fisiolo-gía, citología y embriología, queprepararán el camino a la recep-ción de la teoría darwinista. Otrasinfluencias determinantes son másdomésticas (Darwin’s Mentor JohnStevens Henslow y The Correspon-dence of Charles Darwin). El ha-ber dado con Henslow, comentabaDarwin, constituyó la circunstan-cia de mayor peso en su carrera.Discípulo, primero, le introdujo enla historia natural y le guió es-tando incluso embarcado en elBeagle.

Henslow, el mayor de una fa-milia mesocrática de 11 hijos, re-cibió a los catorce años un premioque despertó su entusiasmo por laexploración naturalista, Viajes deAfrica, de Levaillant. Estudió quí-mica con Cumming, mineralogíacon Clarke y geología con Sedgwick.Este le invitó a una excursión decampo a la isla de Wight, para co-nocer in situ los estratos rocosos,origen, con otro viaje que realizósolo a la isla de Man, de TheGeological Drescription of Anglesea.

Lo mismo que Sedgwick,Henslow supo entender elsentido simbólico del Gé-nesis en su descripción deltiempo geológico de lacreación. Hombre de menteabierta, aunque alejado delas especulaciones de Lyell,le recomendó a Darwin lalectura de sus Principles.En 1822 Henslow sucedióa Clarke en la cátedra demineralogía, a la que re-nunció años más tarde porla de botánica. Su primeraaportación escrita en estedominio es el programa oSyllabus del curso. En lalista de libros allí recomen-dados encontramos cuatromanuales, dos de Augustede Candolle y otros dos deJames Edward Smith. Nose despegaría nunca de lasombra del gran botánicosuizo. En 1835 publicó unosPrinciples of Descriptiveand Physiological Botany,

divididos en una parte “descrip-tiva” y otra “fisiológica”. Aunque nose muestra particularmente inno-vador, sí relaciona forma y fun-ción, que tanto influiría en Darwin.Aplica métodos cuantitativos, comoen el caso de la disposición espiralde las escamas de los conos dePicea excelsa.

Henslow recibe del impresor unode los primeros ejemplares delOrigen de las especies, acompa-ñado de una carta de su autor. Trasleerlo, visita a Darwin en febrerode 1860. “Aunque siempre he ex-presado mi mayor respeto por lasopiniones de mi amigo, confiesa,le he dicho que no puedo aceptarsus especulaciones sin ver pruebasmás sólidas de las que ha apor-tado”. Muchos pensarán como ély lo harán público. Uno de losmás sólidos, Louis Agassiz. A éstele escribía Darwin el 12 abril de1864: “Muy señor mío: Por culpade una prolongada enfermedad yausencia de Londres, he recibidohace sólo escasos días un ejem-plar de su Métodos de estudio conalgunas otras publicaciones, asícomo su amable nota de presenta-ción a Mr. Lesly. Le agradezco vi-vamente el regalo. Sé con qué ener-gía se opone usted a casi todo

Georges Cuvier (1769-1832)

Page 96: Investigación y ciencia 304 - Enero 2002

94 INVESTIGACIÓN Y CIENCIA, enero, 2002

cuanto escribo, pero me satisfaceprofundamente que no ponga enello ninguna animosidad personal,lo que sí ha ocurrido con antiguosamigos míos ingleses. Con mi máscordial agradecimiento y respetosincero.”

Ese año de 1864 fue un año pro-ductivo para Darwin. Su epistola-rio revela el profundo impacto desu teoría sobre el origen de las es-pecies. En mayo envió su artículo“Tres formas de Lythrum salicaria”a la Sociedad Linneana de Londres,donde aportaba pruebas que res-paldaban su idea de que el di-morfismo y el trimorfismo floralconstituían adaptaciones para ase-gurar la polinización cruzada. Avan-zado el verano, había acabado elprimer borrador de ”Sobre los mo-vimientos y hábitos de las plantastrepadoras”. Retomó de nuevo el ma-nuscrito que iba a convertirse enLa variación de los animales y lasplantas bajo domesticación, queafianzaba la tesis expuesta en Origin.Sus seguidores le enviaban noticiasreconfortantes. Ernst Haeckel, desdeAlemania, le remitió su lección pú-blica sobre la teoría de la selec-ción natural y le informaba del pro-greso de la teoría en los círculos

alemanes y suizos. Pero tambiénsupo de las reseñas negativas deMarie-Jean-Pierre Fleurens, secre-tario de la Academia Francesa deCiencias, y de Rudolf Albert vonKolliker, un reputado fisiólogo suizo.Francia fue, en efecto, uno de lospaíses más refractarios al darwi-nismo. Tampoco Italia mostró enun comienzo excesivo fervor. EnEspaña el médico valenciano Pere-grín Casanova fue, con mucho, sumás apasionado propagador, víaHaeckel.

Las tesis darwinistas trajeron uncambio radical en los planteamientosbásicos de las ciencias naturales, dela paleontología a la ecología, pa-sando por la morfología y sistemá-

tica, citología y fisiología. A fina-les de los años sesenta, incorpora-ban las ideas darwinistas el Manualde botánica de Julius Sachs, laMorfología general de las plantasde Wilhelm Hofmeister y la se-gunda edición de los Fundamentosde anatomía comparada de Gegen-baur. De la paleontología, se pre-sumía, vendría su apoyo principal,esperanza que se hizo realidad enla evolución de los équidos estu-diada por Wladimir O. Kowalesky.

Al amparo del darwinismo se aco-gieron tendencias sociales y polí-ticas aniquiladoras que venían detiempo atrás (The Unfit) y proclama-ban, cuando menos, la segregaciónde enfermos mentales, mendigos yotros “degenerados”. Una línea depensamiento que no se extinguiócon la derrota nazi, sino que hareverdecido en sutiles metamorfo-sis de carácter identitario y exclu-yente. Ayer y hoy la justificaciónúltima residía en la herencia.

Salvo alguna matización (la aso-ciación de un mal físico a una trans-gresión moral, propia de la tradi-ción veterotestamentaria, fuerechazada de plano en el NuevoTestamento), pocos podrían haberredactado un libro tan sólido sin lacapacitación profesional de ElofAxel Carlson, genético e historia-dor de su disciplina. Busca éste losprecedentes inmediatos en Herbert

Étienne Geoffroy Saint-Hilaire(1772-1844)

FRANZ BOAS AMONG THE INUIT OF BAFFIN ISLAND,1883-1884. Introducción y coordinación de LudgerMüller-Wille. Traducción de William Barr. Universityof Toronto Press; Toronto, 1998.

Franz Boas, nacido en Minden, Alemania, el 9 de juliode 1858, y fallecido en Nueva York el 21 de diciembre

de 1942, está considerado como el fundador de la mo-derna antropología de campo y académica de los EE.UU.Formado en la universidad alemana, y doctorado en fí-sica en Kiel (1881), muy pronto manifestó su interés porla geografía ártica y comenzó a recopilar información so-bre los esquimales y sus formas de vida. Dos años des-pués de obtener el título académico, consiguió los me-dios que le permitieron dirigirse a la Isla de Baffin, y aquíentre 1883-1884, realizó su trabajo de campo entre losinuit, esquimales de la región. Tenía entonces 24 años.

La importancia histórica de este libro consiste en el he-cho de que nos ofrece los diarios, notas y cartas decampo escritas por Boas durante el tiempo de su per-manencia entre los inuit. Incluyen, por lo tanto, sus re-flexiones e intereses conforme iba desarrollando su estu-

dio sobre la vida cotidiana de los indígenas de Baffin.Estos materiales conducen, en todo caso, a entender lasexperiencias ambientales de Boas con los inuit, y lo quees más importante: nos permite penetrar en los entresi-jos del modo de construir una monografía etnográfica decampo. En realidad, viene a ser la historia del cómo secomienza y del cómo se concluye un trabajo de campoen determinadas condiciones de clima, de recursos y deuna inicial extrañeza cultural del antropólogo en relacióncon los modos de vivir los indígenas.

Este libro incluye, además, el “Diario” de Wilhelm Weike,que fuera criado de la familia de Boas y que éste incor-poró a la expedición. Se trata, pues, de dos perspectivasdiferentes, la del científico Boas, y la del sencillo Weike,dos modos de percibir lo mismo cuando las relaciones so-ciales de ambos con los inuit eran, de hecho, distintas.

Al respecto de los intereses iniciales de Boas, cabe sig-nificar influencias muy definidas en sus estudios como lasque recibió directamente de Theobald Fischer, geógrafo,Friedrich Ratzel, geógrafo y etnógrafo alemán, de AdolfBastian, etnólogo, y de Rudolf Virchow, antropólogo, apartede Ernst Haeckel, zoólogo de gran predicamento cientí-fico en aquel tiempo y creador del concepto de ecología.Estas influencias estuvieron presentes en su enfoque de

Antropología de campo

Page 97: Investigación y ciencia 304 - Enero 2002

INVESTIGACIÓN Y CIENCIA, enero, 2002 95

Spencer, quien acuñó la expresión“supervivencia del más adaptado”seis años antes de que Darwin pu-blicara su teoría del origen de lasespecies por selección natural. Elcredo racial lo enuncia en 1853Joseph Arthur en su Desigualdadde las razas humanas, que sitúa enla cúspide a los arios. No se que-dará atrás Benedict Augustin Morelen el Traité des dégénerescencesphysiques, intellectuelles, etmorales de l’espèce humaine,et des causes qui produissentces vérités maladives (1857);sostiene que la degeneracióncausada por entornos desfa-vorables conduce a una de-gradación de la herencia.

Desde 1859, cuando apa-rece la tesis de la selección,y sobre todo, tras su apli-cación en 1871 al hombrepor el propio Darwin enDescent of man, al poco deHereditary genius, de Fran-cis Galton, se conforman doscorrientes eugenésicas, de-nominadas negativa y posi-tiva, según el énfasis puestoen las medidas “correctoras”.Defienden lisa y llanamentela reclusión y esterilizaciónde pícaros, dementes y cri-minales, los eugenistas nor-teamericanos, escandinavosy alemanes sobre todo. Gal-

ton y otros proponían una mejoraa través de la higiene social. Muchose adelantó con las medidas deextensión de la sanidad y la hi-giene, aunque en muchos casos esavoluntad venía lastrada de prejui-cios, del propio Galton incluso,cuando animaba a incorporar latradición alemana del matrimoniode profesores con hijas de otrosprofesores.

El darwinismo tornaría a sus lí-mites, mucho más afianzados, enel segundo cuarto del siglo, con lateoría sintética de la evolución, quemancomunaba la genética con lapaleontología y la sistemática. Aus-piciaron su nacimiento y confor-mación una serie de trabajos deci-sivos: Genética y origen de lasespecies (1937), de Theodosius Dob-zhansky, La nueva sistemática

(1940), coordinada por JulianHuxley, Sistemática y origende las especies (1942), deErnst Mayr, Tempo y modoen evolución (1944), deGeorge Gaylord Simpson, yVariación y evolución de lasplantas (1950), de G. LedyardStebbins.

Con el tiempo, el neo-darwinismo dio pie a unanueva visión de la filosofíade la vida (Darwinism in Phi-losophy, Social Science andPublic Policy). Debe éstafundarse, por definición, enel conocimiento científico delas entidades y procesos vi-vos. Los propios investiga-dores comienzan a hablar dela ontología del gen comoherramienta unificadora de

John Stevens Henslow,1796-1861

campo, y todas ellas se convirtieron muy pronto en unapluralidad epistemológica que Boas reunió en una parti-cularidad científica, la de antropología, específicamente ladel Artico.

En el comienzo de su estudio de campo, predominó enBoas la influencia geográfica, y a ésta dedicó su atenciónmás cuidadosa. Se trataba, primero, de establecer hastaqué punto existía una relación dinámica entre el espacioártico con sus hielos y estaciones climáticas, con sus ani-males, marinos y terrestres, percibidos como recursos vi-tales de los grupos inuit, y las migraciones estacionalesque emprendían estos indígenas en función, incluso, delgrosor de los hielos que daban cuenta de la presencia oausencia de las focas, tanto como podían indicarlo, ade-más, las temperaturas de cada temporada. Boas significóla relación entre las formas de organización social de losindígenas y el condicionamiento de éstas en función de lanaturaleza ambiental en la que vivían. En el inicio, pues,para Boas esta relación de lo ecológico con la forma devida constituía la clave explicativa de las estrategias es-tacionales de los inuit, y de la influencia de éstas en susinstituciones operativas, los vocabularios, las temáticas, elfolklore, la ideología, la estética y la ética. El punto dereferencia era naturalista, y en este sentido la documen-

tación que nos transmiten los diarios, las notas y las car-tas nos indican la prevalencia de un tratamiento holísticode los problemas de campo a partir, especialmente, delestudio de una primera realidad que tendría el carácter deun primer determinismo ecológico.

Las aportaciones de esta clase de documentación nospermiten observar el proceso de transformación progre-siva de los intereses de Boas, pues a medida que defi-nía la dinámica de la organización social en términos delmodo ambiental que la condicionaba, al mismo tiempoaprendía la lengua de los inuit, vivía con éstos su so-ciedad cotidiana, y comía sus alimentos en forma de unarelación comunitaria. Así, mientras vivía el mundo econó-mico, la técnica aplicada, el mundo material, en suma, seadentraba en el conocimiento del folklore y de las ideasdel grupo indígena, todo lo cual acabaría definiéndose porBoas como antropología cultural, una donde el accidentegeográfico, el hielo y el clima, se convertían en variablesdel modo de construir una forma cultural. La monografíaclásica de Boas, The Central Eskimo, sería un referentede cómo son los deberes de un empirista en su intentode percibir y construir la realidad del otro. Los diarios se-rían el diseño mental de la experiencia de campo.

—CLAUDI ESTEVA FABREGAT

Page 98: Investigación y ciencia 304 - Enero 2002

96 INVESTIGACIÓN Y CIENCIA, enero, 2002

la biología. La secuenciación ge-nómica de una levadura, un ne-mátodo, una mosca, una planta yel hombre ha puesto de manifiestoque los eucariotas comparten ge-nes que determinan funciones bio-lógicas clave. Lo que el filósofollamaría regularidad y universali-dad del objeto a estudiar.

Algunos, Rosenberg entre ellos,proponen que sea la ciencia la queoriente la epistemología y la me-tafísica. Esa tendencia naturalista,así se la llama, cuenta entre suspilares últimos el principio de laselección. Pero si toda epistemo-logía debe ser normativa, resultaharto difícil justificar esa propie-dad en el marco naturalista. Si algocaracteriza a los seres vivos, y losdistingue de los inertes, es la ex-cepción, la variabilidad, el influjode las condiciones externas, etcé-tera. Lo que no significa que elavance de la biología molecular,de la termodinámica de los pro-cesos irreversibles, de la teoría de

juegos y de otros constructos es-tadísticos no confieran creciente ri-gor sistemático a las ciencias dela vida y permitan aproximacionesmás o menos generales, vale de-cir, predictivas.

El neodarwinismo ha incididotambién en el desarrollo de lasteorías morfológicas (Morphologis-che Methoden in der Evolutionfor-schung). Puntal la morfología, asu vez, del asentamiento de las te-sis evolutivas, Darwin la conside-raba el alma de la historia natural.Se nos ofrecen hoy varios enfo-ques sobre la representación delplano corporal y su reconstrucciónen el curso de la historia. Hastadiez recoge Christine Hertler ensu monografía de grado, elabora-dos atendiendo a su génesis. Nique decir tiene que, por tratarsede un mismo asunto, los métodosse solapan, imbrican y comple-mentan a menudo.

En la morfología filogenética ysistemática filogenética el criterio

fundamental se halla en los ca-racteres. Así operan cladismo y ta-xonomía numérica, por ejemplo. Enel bien entendido de que los ca-racteres no se ciñen a los indivi-duos y especies, sino a clases ygrupos filogenéticos, como puedeser la sistemática de los mamífe-ros. Se trata de un método quehace especial hincapié en las se-mejanzas, esto es, en las homolo-gías y apomorfías.

Por su parte, la morfología fun-cional recrea los sistemas de es-tructura-función; pensemos, porejemplo, en la evolución de la ho-motermia y la construcción de lospulmones. Otros métodos parten dela paleontología, donde descubrenlargos períodos de estasis saltea-dos por instantes de especiaciónrápida, otros de la biología del de-sarrollo (conservación de secuen-cias de ADN) y otros la anatomíacomparada (contrastes entre agna-tos y gnatostomos).

—LUIS ALONSO

BiodiversidadDIVERSITÉ BIOLOGIQUE. LES PERSPECTIVES DU SIÈCLENAISSANT, por Gregor Klaus, Jörg Schmill, BernhardSchmid y Peter J. Edwards. Birkhäuser; Basilea, 2001.

Dice Edward Wilson que el mayor milagro de nues-tro planeta es la increíble variedad de sus for-

mas de vida. Impulsada por el motor de la evolución,la vida tiende a la diversificación extrema, y ello haconducido a una espectacular atomización de espe-cies. Pero la biodiversidad está en crisis debido alprodigioso incremento del ritmo de extinción de espe-cies. ¿Qué se pierde con la caída de biodiversidad?¿Cuántas especies pueden desaparecer sin que seproduzcan trastornos graves en los ecosistemas? ¿Cuáles el tamaño mínimo que debe tener una reserva paraque se puedan mantener todas las especies que que-remos preservar en ella?

La respuesta a ese tipo de preguntas es el primerpaso para hallar soluciones a los problemas realesque vayan surgiendo. Diversité biologique es un ejem-plo de cómo se puede caminar en este sentido, apli-cado al caso de Suiza, un país desarrollado y con unpatrimonio biológico seriamente amenazado. El librorecoge los resultados de un proyecto de investigaciónde ocho años de duración, en el que han participadouna cincuentena de científicos. Su rigurosa presenta-ción le convierte en un valioso manual de diagnósticoy terapia de problemas de la biodiversidad.

Las primeras páginas describen el patrimonio bioló-gico del país y las amenazas que se ciernen sobreel mismo. Se destaca la profunda influencia de unaordenación territorial en mosaico, con un porcentajemuy alto de la superficie ocupado por cultivos, pero

en el que destacan ecosistemas especialmente biodi-versos, como los pastizales pobres. El tercio del libroque sigue se dedica a diagnosticar los problemas,desde la industrialización del paisaje hasta el cambioclimático. Se resaltan los obstáculos que representanla creciente urbanización, la agricultura extensiva, laexpansión de la red de carreteras, etc. Pero, tambiénse describen las experiencias de fragmentación reali-zadas en los pastizales pobres, que ilustran las rela-ciones entre área y número de especies, de interésen la ordenación del territorio y la preservación de labiodiversidad.

La parte dedicada a estrategias ocupa la mitad fi-nal del libro y nos habla de respuestas a los proble-mas. Se revisan las leyes que tienen incidencia enconservación. Se exponen sugerencias prácticas paraoptimizar la preservación de la biodiversidad en un te-rritorio muy fragmentado, basadas en ampliar las zo-nas protegidas y conectarlas entre sí. En todo el asunto,un aspecto clave es contar con la complicidad de losagricultores, responsables de la gestión de una granparte del territorio. Y aquí las propuestas no se limi-tan a discursos teóricos, sino que tratan de implicaral agricultor en la solución de problemas, ofreciéndolepropuestas (mantenimiento de barbechos florales, dezonas de compensación, de corredores, etc.) que, apartede estar correctamente financiadas, resulten convin-centes para su particular idiosincrasia. Finalmente, sepropone el desarrollo de un sistema de seguimientosistemático que permita observar a la vez las modifi-caciones ambientales y las acciones de las autorida-des responsables.

—XAVIER BELLÉS

Page 99: Investigación y ciencia 304 - Enero 2002

9 770210 136004

0 0 3 0 5

FEBRERO 20024,81 EURO 800 PTA.

CRISTALES FOTONICOS •• ORIGENES DE LA INFORMATICA PERSONAL

Alimentación en Harappa

ESTRELLAS PRIMIGENIAS

ANGIOGENESIS

BIOLOGIA DEL ULTIMOCUARTO DE SIGLO

ESTRELLAS PRIMIGENIAS

ANGIOGENESIS

BIOLOGIA DEL ULTIMOCUARTO DE SIGLO

VASOS DE VIDA Y DE MUERTE, por Rakesh K. Jain yPeter F. CarmelietCuando sea posible regular la formación de vasos sanguíneos nue-vos, angiogénesis, se contará con un nuevo tipo de tratamiento delcáncer o de las enfermedades del corazón. Los ensayos en sereshumanos con la primera generación de fármacos desarrollados coneste objetivo se encuentran en la última fase de experimentación.

ALIMENTACION EN HARAPPA, por Dietrich SahrhageLos arqueólogos saben todavía poco sobre la antigua cultura delvalle del Indo. Sin embargo, las representaciones pictóricas, los hallaz-gos óseos y los restos de redes de pesca hablan a favor de que elpescado era la principal fuente de alimentación.

INDIA, PAQUISTAN Y LA BOMBA, por M. V. Ramanay A. H. NayyarCuando EE.UU. movilizaba sus fuerzas armadas en los días quesiguieron a los ataques terroristas del 11 de septiembre, la atenciónmundial convergía en Paquistán, país crucial para las operacionesmilitares en Afganistán.

LA BIOLOGIA EN EL ULTIMO CUARTO DE SIGLO,por José María ValderasLa aparición de nuevas técnicas —pinzamiento de membrana, secuen-ciación automática y procesos avanzados de formación de imáge-nes—, sumada al creciente conocimiento molecular de los materia-les biológicos han acelerado el desarrollo de las ciencias de la vidaen los últimos 25 años.

FITOCROMOS Y DESARROLLO VEGETAL, por JaimeF. Martínez García, Elena Monte y Francisco J. Ruiz CantónLos fitocromos son unos pigmentos vegetales que controlan diferen-tes aspectos del desarrollo e informan a las plantas de los cambiosoperados en el entorno para optimizar su crecimiento.

CRISTALES FOTONICOS: SEMICONDUCTORES DELUZ, por Eli YablonovitchMateriales nanoestructurados con formaciones ordenadas de aguje-ros podrían conducir a una revolución optoelectrónica, haciendo conluz lo que los semiconductores realizan con electrones.

LAS PRIMERAS ESTRELLAS DEL UNIVERSO, porRichard B. Larson y Volker BrommCon una masa y un brillo excepcionales, las estrellas primigeniascambiaron el curso de la historia cósmica.

LOS ORIGENES DE LA INFORMATICA PERSONAL,por M. Mitchell WaldropNi Gates, ni Jobs, ni Wozniak. Los cimientos de los modernos orde-nadores interactivos fueron echados decenios antes.

Seguiremos explorandolos campos del conocimiento