investigación y ciencia 380 - mayo 2008

99
7/18/2019 Investigación y ciencia 380 - Mayo 2008 http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 1/99 Edición española de 9 770210 136004 0 0 3 8 0  COMPUTACION Ordenadores cuánticos ¿Una falsa revolución? GEOLOGIA Rotura de las placas tectónicas MEDIO AMBIENTE ¿Salvaremos al atún rojo? NEUROLOGIA Función de la sustancia blanca COSMOLOGIA Cuando el universo borre las huellas de su propio origen ñola de El fin de la

Upload: renzo-becker

Post on 02-Mar-2016

639 views

Category:

Documents


6 download

DESCRIPTION

Revista Investigación y ciencia 380 - Mayo 2008-El fin de la cosmología: Cuando el universo borre las huellas de su propio origen-Ordenadores cuánticos ¿Una falsa revolución?-Rotura de las placas tectónicas-¿Salvaremos al atún rojo?-Función de la sustancia blanca

TRANSCRIPT

Page 1: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 1/99

Edición española de

9 7 7 0 2 10 1 3 6 0 0 4

0 0 3 8 0

 COMPUTACIONOrdenadores cuánticos¿Una falsa revolución?

GEOLOGIARotura de lasplacas tectónicas

MEDIO AMBIENTE¿Salvaremosal atún rojo?

NEUROLOGIAFunción de lasustancia blanca

COSMOLOGIACuando el universo

borre las huellas

de su propio origen

ñola de

El fin de la

Page 2: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 2/99

La colisión de las placas tectónicas produce tensiones y calor que resultan en la deformaciónde los continentes.

SUMAR IO

Mayo de 2008/ Número 380

Se corre el r iesgo de una carrera de armamentos espacial . El monol ito funerario que abriga los restos morta les de Janaab’ Pakalse descubrió en el Templo de las Inscripciones de Palenque.

ART ICULOS

COSMOLOGIA

14 ¿El fin de la cosmología?Lawrence M. Krauss y Robert J. Scherrer 

Un universo en aceleración borra las huellas de su propio origen.

ARMAMENTO

22 Guerra espacialTheresa Hitchens

Un reciente cambio en la estrategia militar de EE.UU.y determinadas actuaciones chinas amenazan con iniciaruna nueva carrera de armamentos espacial. Pero,¿beneficiaría a algún país instalar armas en el espacio?

GEOLOGIA

31 Rotura de las placas tectónicas J. B. Murphy, G. Gutiérrez Alonso, R. D. Nance, J. Fernández Suárez, J. D. Keppie, C. Quesada, R. A. Strachan y J. Dostal 

Las cicatrices de antiguas colisiones marcan el caminopor donde los continentes vuelven a romperse.

ARQUEOLOGIA

47 Cultos funerarios mayasVera Tiesler 

Los mayas actuales conservan ritos funerarios de una culturamilenaria basada en la continuidad cíclica entre la viday la muerte, la creación y la destrucción.

NEUROLOGIA

54 ¿Qué función cumple la sustancia blanca?R. Douglas Fields

La investigación reciente demuestra que la sustancia blanca delcerebro interviene en el aprendizaje y en la enfermedad mental.

CIENCIA DE LA COMPUTACION

62 Los límites de la computación cuántica  Scott Aaronson

Las computadoras cuánticas podrían ser velocísimas

en tareas muy concretas. En la mayoría de los problemasapenas descollarían sobre los ordenadores de hoy.

31

4722

Page 3: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 3/99

La mielina envuelve un axón como si se tratara de una cinta aislante,con 150 capas concéntricas entre nódulos.

Los astrónomos del futuro no encontrarán pruebas de la naturaleza real del universo.

14

SALUD PUBLICA

70 Dificultadesde la epidemiología laboralCarole Bass

El mayor estudio sanitario jamás realizadoen plantas industriales aplica técnicas punteraspara investigar un aparente conglomeradode casos de cáncer.

SEGURIDAD

78 El atún rojo en peligroRichard Ellis

¿Habrá que domesticar la especie para salvaral atún rojo, uno de los peces más maravillososy amenazados del océano?

3 CARTAS AL DIRECTOR

4 HACE...

50, 100 y 150 años.

5 PUESTA AL DIA

La ecuación que Hoyle omitió...

Prepararse para la gripe...

Cultivo de vasos sanguíneos.

6 APUNTES

Energía... Conducta... Enfermedades

infecciosas... Geometría... Nanotecnia.

8 CIENCIA Y SOCIEDAD

¿Amantes o rivales?...

Autosincronización...

Anemia de Fanconi.

42 DE CERCA

Electrolitos ultrafinos,

por Gemma Garcia Alonso

44 PERFILES

Michael Wigler: un díscolo frente a los

mendelianos, por Nikhi Swaminathan

46 DESARROLLO SOSTENIBLE

El cambio climático después de Bali,

por Jeffrey D. Sachs

88 CURIOSIDADES

DE LA FISICA

Antiparalelogramos, ruedas y émbolos,

por Norbert Treitz 

90  JUEGOS MATEMATICOS

Encuestas electorales,

por Juan M.R. Parrondo

92 IDEAS APLICADAS

Lámparas, por Mark Fischetti 

94 LIBROS

Cáncer. Epidemiología

78

SECC IONES

El atún rojo alcanza velocidades de 80 kilómetros por horay migra a través de océanos.

54

Page 4: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 4/99

DIRECTOR GENERAL José M.a Valderas GallardoDIRECTORA FINANCIERA Pilar Bronchal GarfellaEDICIONES Juan Pedro Campos Gómez  Laia Torres CasasPRODUCCIÓN

 M.a

 Cruz Iglesias Capón  Albert Marín GarauSECRETARÍA Purificación Mayoral MartínezADMINISTRACIÓN Victoria Andrés LaiglesiaSUSCRIPCIONES Concepción Orenes Delgado  Olga Blanco RomeroEDITA Prensa Científica, S.A. Muntaner, 339 pral. 1.a

08021 Barcelona (España)Teléfono 934 143 344 Fax 934 145 413www.investigacionyciencia.es

SCIENTIFIC AMERICAN

EDITOR IN CHIEF John RennieEXECUTIVE EDITOR Mariette DiChristinaMANAGING EDITOR Ricki L. Rusting

CHIEF NEWS EDITOR Philip M. YamSENIOR WRITER Gary StixEDITORS Mark Alpert, Steven Ashley, Peter Brown, Graham  P. Collins, Mark Fischetti, Steve Mirsky, George Musser  y Christine SoaresCONTRIBUTING EDITORS W. Wayt Gibbs, Marguerite Holloway,  Michelle Press, Michael Shermer, Sarah SimpsonART DIRECTOR Edward BellPRODUCTION EDITOR Richard Hunt

CHAIRMAN Brian NapackPRESIDENT Steven YeeVICE PRESIDENT AND MANAGING DIRECTOR, INTERNATIONAL

  Dean SandersonVICE PRESIDENT Frances NewburgVICE PRESIDENT, FINANCE, AND GENERAL MANAGER Michael Florek

COLABORADORES DE ESTE NUMERO

Asesoramiento y traducción:

M.ª Rosa Zapatero Osorio: ¿El fin de la cosmología?; J. Vilardell:Guerra espacial, Hace... e Ideas aplicadas; Gabriel Gutiérrez Alonso: Rotura de las placas tectónicas; Anna Ferran: ¿Qué función cumple

lasustancia blanca?; Luis Bou: Los límites de la computación cuántica,Puesta al día y Apuntes; Joandomènec Ros: El atún rojo en peligro;Bruno Moreno: Cartas al director ; Marián Beltrán: Ciencia y sociedad 

y Desarrollo sostenible; Angel Garcimartín: Perfiles; Jürgen Goicoechea:Curiosidades de la física

Portada: Phil Saunders, Space Channel Ltd.

SUSCRIPCIONES

Prensa Científica S. A.Muntaner, 339 pral. 1.a

08021 Barcelona (España)Teléfono 934 143 344

Fax 934 145 413

Precios de suscripción:

  Un año Dos años

España 65,00 euro 120,00 euro

Resto del mundo 100,00 euro 190,00 euro

Ejemplares sueltos:

El precio de los ejemplares atrasadoses el mismo que el de los actuales.

Difusión

controlada

Copyright © 2008 Scientific American Inc., 415 Madison Av., New York N. Y. 10017.

Copyright © 2008 Prensa Científica S.A. Muntaner, 339 pral. 1.a 08021 Barcelona (España)

Reservados todos los derechos. Prohibida la reproducción en todo o en parte por ningún medio mecánico, fotográfico o electrónico,así como cualquier clase de copia, reproducción, registro o transmisión para uso público o privado, sin la previa autorizaciónescrita del editor de la revista. El nombre y la marca comercial SCIENTIFIC AMERICAN, así como el logotipo correspondiente,

son propiedad exclusiva de Scientific American, Inc., con cuya licencia se utilizan aquí.

ISSN 0210136X Dep. legal: B. 38.999 – 76

Imprime Rotocayfo-Quebecor, S.A. Ctra. de Caldes, km 3 - 08130 Santa Perpètua de Mogoda (Barcelona)

Printed in Spain - Impreso en España

DISTRIBUCION

para España:

LOGISTA, S. A.

Pol. Ind. Pinares LlanosElectricistas, 328670 Villaviciosa de Odón(Madrid)Teléfono 916 657 158

para los restantes países:

Prensa Científica, S. A.

Muntaner, 339 pral. 1.a

08021 Barcelona

PUBLICIDAD

Madrid:MMCATALAN PUBLICIDADM. Mercedes Catalán RojasRecoletos, 11 3.º D28001 MadridTel. y fax 915 759 278Móvil 649 933 834

Cataluña:QUERALTO COMUNICACIONJulián QueraltóSant Antoni M.a Claret, 281 4.o 3.a

08041 BarcelonaTel. y fax 933 524 532Móvil 629 555 703

Page 5: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 5/99INVESTIGACION Y CIENCIA, mayo, 2008 3

C A R TA S A L D I R E C T O R

Una cuestión semánticaEn el artículo “La red semántica en ac-ción”, del pasado febrero, Lee Feigen-baum, Ivan Herman, Tonya Hongser-meier, Eric Neumann y Susie Stephensdescriben el desarrollo de la Red Semán-tica, una serie de formatos y lenguajespara encontrar y analizar informaciónfácilmente en Internet. El problema con este sistema es que resulta difícilponerse de acuerdo en cómo definirexactamente todos los conceptos. Cual-quier aplicación informática que inten-

te normalizar su ontología distorsionaránecesariamente lo que algunos quieranexpresar.También me preocupa que, según la ló-gica formal tradicional, si existe una solacontradicción, es posible sacar todas   lasconclusiones posibles  y también  susopuestos.

Robert W. Jones

Universidad estatal de Emporia, Kansas

FEIGENBAUM Y HERMAN CON-TESTAN: Es cierto que existen discrepan-

cias entre las distintas ontologías, pero laRed Semántica no se basa en una únicaontología de alcance general. Se construyea partir de pequeñas comunidades de in-dividuos con una mentalidad parecida que

 pueden ponerse de acuerdo acerca de lostérminos que usen. Por lo tanto, las apli-caciones pueden interactuar sin necesidadde que se intente llegar a un consenso glo-bal: un sistema que presenta los productosde un establecimiento a los clientes recibeinformación de las bases de datos de los

 proveedores (que, probablemente, utiliza-

rán formatos heterogéneos) y antes de mos-

trarla a los clientes la traduce a la onto-logía elegida por el establecimiento. Los

 programas automáticos para cumplimen-tar las declaraciones de impuestos tomanlos datos bancarios, conformados según lasontologías de cada banco, y los traduce ala ontología del formulario de la declara-

ción de impuestos. No es necesario dispo-ner de ontologías globales; una aplicaciónsólo necesita traducir los términos relevan-tes para una transacción en particular aun vocabulario común. Por supuesto, aun-que el acuerdo sólo tiene que ser local, laadopción de un vocabulario existente faci-lita el uso compartido y la integración dela información.En cuanto a los peligros de utilizar la ló-

 gica tradicional, en la Red Semántica “in- ferencia” puede definirse como el descubri-miento de nuevas relaciones. Sin embargo,

las inferencias dentro de esta red se llevana cabo dentro de un subconjunto restrin-

 gido, “protegido”, de la lógica de primerorden. El razonamiento ontológico en laRed Semántica no utiliza toda la fuerzade la lógica de primer orden (o de órdenessuperiores) y, por lo tanto, evita algunasde las peligrosas conclusiones que puede

 provocar una contradicción inferida.

¿180 grados de equivocación?En su perfil de Hugh Everett y su in-

terpretación de la mecánica cuántica ba-sada en una pluralidad de mundos, “Losmuchos mundos de Hugh Everett” (fe-brero), Peter Byrne afirma que Bryce S.DeWitt dio un giro de 180 grados [conrespecto a la teoría de Everett] y se con-virtió en su más firme defensor, sugi-riendo así que anteriormente DeWitt te-nía una opinión negativa de la teoría.De hecho, DeWitt defendió el trabajode Everett desde el principio. DeWittfue el responsable de facto  de una sec-ción publicada en el número de julio de

1957 de Reviews of Modern Physics   quecontenía las actas de un congreso de fí-sica que él y yo habíamos organizadoen enero de aquel año (él no era el di-rector habitual de la revista). DeWittdecidió incluir la tesis de Everett en lasactas, aunque Everett no había asistidoal congreso. DeWitt había leído la tesisa petición de John Archibald Wheeler,pero Wheeler tenía dudas sobre un tra-bajo que cuestionaba la manera en queNiels Bohr entendía la mecánica cuán-tica. DeWitt, en cambio, lo consideró

“nuevo y estimulante”.

 Algunos años después, DeWitt descubrióque el artículo de Everett había “caídoen el olvido inmediatamente” y decidióiniciar una campaña de publicidad. Estacampaña no fue un giro de 180 gradosen su postura, sino la continuación delinterés que mostró en 1957 por el tra-

bajo de Everett.No escribo esto como la viuda de Bry-ce, sino como colega de Bryce S. DeWitt,una colega que sabía estar en desacuerdocon él cuando era necesario. Deseo corre-gir una exposición equivocada de un he-cho histórico.

Cecile DeWitt-Morette

Catedrática emérita Jane and Roland

Blumberg Centennial

Universidad de Texas en Austin

BYRNE CONTESTA: Los datos históri-

cos muestran que, inicialmente, a DeWittno le convencía la teoría de Everett. “Sim-

 plemente, yo no me bifurco”, escribió enmayo de 1957. Abandonó esa objecióncuando Everett indicó que la Tierra se mue-ve aunque no nos demos cuenta de ello.

Hugh Everett propuso la existencia

de innumerables universos, engendrados

en cada medición.

Erratum corrige

En la revista de abril 2008, núm. 379,

en el artículo “Microquimerismo”,

en los recuadros “¿Dónde se alojan

las células?” y “Preguntas habituales

sobre el microquimerismo”, donde

dice “médula espinal” léase “médula

ósea”.

Page 6: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 6/99

HACE . . .

Recopilación de Daniel C. Schlenoff  

...cincuenta añosEl yo. «La mayoría de nosotros vivimos tras un

muro o pantalla de humo que en cierta medi-da oculta nuestros auténticos pensamientos, sen-timientos, creencias, deseos, gustos y repulsio-nes. Pero la autorrevelación es algo que rebasanuestras meras posibilidades de mostrarnos conbuena o mala disposición a ella. A menudo, laspersonas no pueden revelarse a sí mismas, niaunque quieran, pues desconocen su yo autén-tico: lo que realmente desean, sienten o creen. A ese fenómeno del extrañamiento de uno mis-mo Karen Horney lo ha denominado ‘autoalie-nación’; ha descubierto que es característico delos neuróticos. Puede que sea representativo

de la sociedad moderna que tanta gente recu-rra al diván del psicoanalista para conocerse así mismo.»

Dinamo terrestre. «La mayor dificultad con que han to-pado los intentos de explicar el campo magnético terrestre hasido la introducción de la fuerza motriz que produce la sime-tría general del campo global. Hemos de admitir que el cam-po está generado por corrientes eléctricas circulares que secierran sobre sí mismas. Con una configuración así no hay ala vista lugar alguno donde insertar una fuerza motriz, seauna batería u otra cosa. Pero la teoría de la dinamo explicala fuerza motriz como consecuencia de la rotación del plane-

ta. La rotación es responsable de que los bucles cerrados delas corrientes parásitas tengan el mismo sentido.

—Walter M. Elsasser»

...cien añosRevista para invidentes.  «La planta de impresión másblanca del mundo es sin duda aquella donde se edita la re-vista  Ziegler  para invidentes. Es obvio que así sea. No se em-plean tipos de imprenta y nadie encontrará allí tintas de nin-guna clase, salvo, claro está, en la sala de redacción. Lapublicación semanal se distribuye de forma gratuita entre las

personas de EE.UU. y Canadá capaces de leer el alfabeto depuntos. En la sala de composición hay dos máquinas: unaconfecciona las planchas para la edición en el código de pun-tos de Nueva York; la otra se emplea para la edición en el sis-tema Braille americano. Desgraciadamente, ambos sistemastáctiles están muy generalizados en el país.»

[NOTA: El “New York Point” es el código de puntos para lectores

invidentes que desarrolló a mediados del siglo XIX  William Bell Wait;

competía con el sistema Braille americano.]

Tractor “oruga”. «Durante los meses pasados las autorida-des militares británicas han estado experimentando con un

nuevo tipo de tractor para transportar vehículos pesados so-

bre terrenos escabrosos e inestables. En suma, su fin es arras-trarse por el suelo valiéndose de una serie de zapatas dispues-tas a lo largo de la periferia de dos pesadas cadenas lateralesque pasan sobre las ruedas de proa y popa. Por lo peculiar desu movimiento, los soldados del centro militar de Aldershot,donde presta servicio, lo bautizaron de inmediato como “laoruga”. El ingenio es invención de Mr. David Roberts.»

[NOTA: Las patentes de este invento se vendieron a Benjamín Holt,

cofundador de Caterpillar Tractor Co.]

Vuelos furtivos. «Poco después de recibirse los primerosinformes acerca de los vuelos que realizaban los hermanos Wright para probar su aeroplano, un gran número de corres-ponsales de periódicos visitaron el escenario de las pruebasentre las elevadas y puntiagudas dunas de arena de la costade Carolina del Norte, al sur de Norfolk (Virginia). Sin em-bargo, los hermanos se negaban a efectuar vuelo alguno cuan-do los reporteros se acercaban, por lo cual los periodistas sevieron obligados a permanecer escondidos a una milla de dis-tancia de los acontecimientos y limitarse a observar la máqui-na, cuando ésta volaba, desde lejos a través de un catalejo.»

...ciento cincuenta añosSu majestad el algodón.  «Justo antes de la última crisismonetaria, el algodón había alcanzado un precio tan elevado,que los fabricantes británicos de telas e hilos se vieron obliga-dos a reducir la producción y, como consecuencia, fuertemen-te incitados a idear otra forma de asegurarse un abastecimien-to abundante a precios inferiores. Al depender de EE.UU. paralas cuatro quintas partes del consumo, el algodón americanose consideraba el rey, por lo que buscaron ayuda en otras re-giones. La última expedición, organizada bajo el mando delfamoso doctor Livingstone, tiene como uno de sus principa-

les objetivos fomentar el cultivo del algodón en Africa.»

Tractor de oruga para transportar cargas en terrenos difíciles, 1908

4  INVESTIGACION Y CIENCIA, mayo, 2008

   S   C

   I   E   N   T   I   F   I   C   A   M   E   R   I   C   A   N ,

   V   O   L .

   X   C   V   I   I   I ,   N .   º

   2   0 ,

   1   6   D   E   M   A   Y   O   D   E   1   9   0   8

Page 7: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 7/99INVESTIGACION Y CIENCIA, mayo, 2008 5

P U E S TA A L D I A

¿Qué ha sido de ...?

Recopilación de Philip Yam

Prepararse para la gripeLo más probable es que la próxi-

ma pandemia de gripe se pro-

duzca cuando una mutación deun virus de gripe aviaria o por-

cina lo capacite para infectar

células humanas. En el número

de enero de Nature Biotechno-

 logy , se informa que la mutación

crítica consistirá en que el virus

desarrolle la facultad de anclar-

se sobre una variedad especial

de unos receptores de las células

pulmonares, los alfa-2-6-glica-

nos. Esos receptores son de dos

tipos: en forma de sombrilla y

cónicos. En los humanos, la ver-sión en sombrilla (la más abun-

dante) abre las puertas a enfer-

medades graves. Ese descubri-

miento explica que algunas

cepas de gripe se adosen a las

células pero apenas infecten a

los humanos (los virus se anclan

a receptores cónicos); asimismo,

podría utilizarse para rastrear

adaptaciones a la gripe y abre

vías para el desarrollo de nuevos

tratamientos.

Cultivo de vasossanguíneosCon el objetivo de cultivar órga-

nos de repuesto, se han utilizado

“andamiajes” que incitan a las

células a organizarse de deter-

minadas formas. Pero es necesa-

rio refinar los materiales de an-

damiaje y su disposición geomé-

trica, entre otros factores [véase 

“Ingeniería de tejidos: urdimbres

poliméricas”, por Robert Langer

y Joseph P. Vacanti; INVESTIGACIÓN Y  CIENCIA,  junio de 1999]. En

el número de 1 de enero de

2008 de  Advanced Mate-

 rials , expertos del Instituto

de Tecnología de Massa-

chusetts exponen el

modo en que una

serie de surcos y

resaltes de 600

nanómetros

trazados sobre un sustrato de

silicona proporcionó sendas don-de crecieron células progenito-

ras endoteliales. Esas células,

cultivadas en tres dimensiones,

formaron tubos que podrían

operar a modo de capilares. El

problema consiste ahora en in-

troducir tales constructos en

nuestro organismo.

Disparidad pertinazUn estudio efectuado a lo largo

de más de siete años sobre una

población de unos 2000 niñosviene a respaldar la influencia del

entorno en el cociente intelectual

(CI). Se realizó un seguimiento

de los residentes (afroamericanos,

en su mayoría) de seis barriadas

deprimidas de Chicago. Se des-

cubrieron notables y pertinaces

descensos en su destreza verbal,

en comparación con sus homó-

logos de barrios más favoreci-

dos. Los niños que abandonaron

esas áreas deprimidas seguían

presentando, años después, des-censos de cuatro puntos en

su CI, equivalentes a un año

de escolarización. Esos ha-

llazgos se dieron a conocer

por Internet en Procee-

dings of the Natio-

 nal Academy of

 Sciences USA, el

19 de diciembre

de 2007.

La ecuación que Hoyle omitióLa omisión de una ecuación esencial ha podido negarle a sir

Fred Hoyle todo el reconocimiento que merecía por un artículosobre la formación de elementos químicos en las estrellas.

Hoyle, fallecido en 2001 a los 86 años, fue un personaje cien-

tífico con ribetes trágicos. Jamás aceptó la teoría de la gran

explosión (“Big Bang”); prefirió la idea de un cosmos estacio-

nario. Posteriormente abrazaría la hipótesis de que la vida

terrícola tuvo origen extraplanetario. Es probable que esas

actitudes le costaran un premio Nobel.

Pero antes de verse desdeñado, Hoyle, en un trabajo de

1954 publicado en  Astrophysical Journal , efectuó lo que hu-

biera sido una aportación científica imperecedera. Exponía allí

un proceso por el cual, en las estrellas de masa 10 veces la

de nuestro Sol, el hidrógeno y el helio del núcleo se irían

convirtiendo en elementos más pesados a través de una seriede reacciones de fusión nuclear a temperaturas progresiva-

mente superiores. Por fin, cuando la estrella explosionara,

formando una supernova, esos elementos serían proyectados

al espacio y, dispersos, servirían de gérmenes para sistemas

estelares todavía en gestación. Antes del trabajo de Hoyle,

numerosos expertos creían que esos elementos debían haber

nacido durante la gran explosión.

Según Donald Clayton, de la Universidad de Clemson y

colaborador de Hoyle, los expertos, para explicar la nucleosín-

tesis, en lugar de citar dicho estudio solían referirse a otro

artículo de 1957, con Hoyle de coautor, que se centraba en

otros aspectos del problema. Clayton observó que en 30 de

los más importantes artículos sobre nucleogénesis publicadosentre 1960 y 1973, eran 18 los que citaban el trabajo de 1957,

y sólo uno se refería al artículo de Hoyle de 1954.

En  Science  de 21 de diciembre de 2007, Clayton atribuye

la cita indebida a la omisión de una ecuación de fácil deduc-

ción, implícita en el estudio de 1954. “La ecuación de Hoyle”,

como Clayton la llama, relaciona la masa de los elementos

pesados eyectados por las estrellas moribundas con la rapidez

de su deceso y con el cambio de concentración de los diversos

isótopos producidos durante sucesivas reacciones nucleares.

“Hoyle era un excelente matemático”, señala Clayton. “Es una

lástima que optase por no escribir la ecuación.”

 —J. R. Minkel 

   H   U

   L   T   O   N  -   D   E   U   T   S   C   H    C

   O   L   L   E   C   T   I   O   N    C

   o   r    b   i   s    (   H   o   y    l   e    )   ;   K   A   R   L   G   R   U   P   E

   G   e   t   t   y   I   m   a   g   e   s    (   e   s   t   u

    d   i   a   n   t   e    )   ;

   C   H

   R   I   S   T   O   P   H   E   R

   B   E   T   T   I   N   G   E   R

   I   n   s   t   i   t   u   t   o    d   e   T   e   c   n   o    l   o   g    í   a    d   e   M   a   s   s   a   c    h   u   s   e   t   t   s    (   c    é    l   u    l   a   s    )

Sir Fred Hoyle

Las células crecen según el

patrón grabado en el substrato.

Page 8: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 8/996  INVESTIGACION Y CIENCIA, mayo, 2008

APUNTES

ENERGIA

Mejor etanol con hierbas

Para producir etanol, una gramínea perenne, Pa-

 nicum virgatum o pasto varilla, conocida en Nor-

teamérica por  switchgrass , parece constituir una op-

ción factible, y preferible al maíz. Los campesinos,en colaboración con el departamento de agricultura

de Estados Unidos, han cultivado y supervisado esta

planta perenne de Norteamérica, que a menudo crece

silvestre en las lindes de los campos. Concretamente,

para estabilizar la planta, se rastrearon las semillas,

los abonos utilizados para reforzar su crecimiento, el

combustible consumido para cosecharla y la pluvio-

metría de las áreas estudiadas. El estudio, de cinco

años de duración, ha demostrado que esa gramínea

cultivada en parcelas de 3 a 9 hectáreas

produciría entre 5,2 y 11,1 toneladas de

pacas de hierba por hectárea, dependiendo

de la lluvia caída. Procesados en biorrefineríasadecuadas (que ya están en construcción)

estos cultivos habrían generado un 540

por ciento más de energía de la utilizada

para cultivarlas, en comparación con tan

sólo un 25 por ciento más de retorno energético

en el caso del etanol obtenido del grano.

— David Biel lo

CONDUCTA

Cooperación quisquillosa

Con el fin de explica por qué surge y persiste en las pobla-

  ciones la cooperación de individuos que no guardan paren-

tesco entre sí, unos investigadores británicos han desarrollado

un modelo computacional en el que los jugadores cuentan con

diversos grados de cooperatividad (disposición a permitir que

los socios aumenten beneficios a cuenta del jugador) y quis-

quillosidad (la disposición a abandonar a los socios según el

trabajo en equipo que éstos realicen). Tras cada ronda del jue-

go, un individuo recibe un pago que refleja el esfuerzo que los

dos compañeros que forman un equipo ejercen. Sin embargo,

los individuos salen mejor librados cuando consiguen que sean

sus compañeros quienes hagan el trabajo. Después del pago,

los jugadores pueden continuar juntos hasta la próxima ronda

u optar por divorciarse del otro, en cuyo caso se les asociará

al azar con otro jugador. Dado que los jugadores que se divor-

cian repetidamente han de pechar con costos más elevados que

quienes siguen juntos, la cooperación y la quisquillosidad cre-

cen al alimón cuando se juegan muchas rondas (que equivalen

a largas vidas).

—Philip Yam

Infección de frambesia, la bacteria Treponema

 pertenue, emparentada con la espiroqueta de la sífilis.

Nuevas pruebas genéticas respaldan la opinión de que fue Colón quien introdujo la sí-

  filis en Europa. La primera epidemia de sífilis registrada aconteció en 1495, dato que

durante siglos ha alimentado el debate sobre si la espiroqueta llegó de las Américas o si

existía previamente en el Viejo Continente, pero sin que se la distinguiese hasta 1500 de

otras enfermedades de la piel. Con el fin de averiguar los orígenes de la sífilis, científicos

de la Universidad Emory y sus colaboradores han comparado genéticamente cepas de espi-roqueta procedentes de todo el mundo con bacterias emparentadas, y han observado que

los parientes más cercanos eran variantes sudamericanas de la frambesia, una enfermedad

que se contagia por contacto epidérmico y geográficamente limitada a zonas húmedas y

cálidas. Una teoría sugiere que la sífilis solamente empezó a transmitirse por vía sexual tras

su llegada a Europa, donde el clima, más frío, y el uso de ropas limitaban sus otras posibles

formas de difusión. Los investigadores conjeturan que, en última instancia, los ancestros

de la sífilis pueden ser tan antiguos como la humanidad. Habrían dado el salto a América

debido a migraciones milenios antes de la llegada de Colón.

—Charles Q. Choi 

ENFERMEDADES INFECCIOSAS

Nuevo Mundo, enfermedad nueva

Los hierbajos superan al maíz

para la producción eficiente de etanol.

   C   H

   A   R   L   I   E   N   E   I   B   E   R   G   A   L   L   A   P   P    h   o   t   o    (    h   i   e   r    b   a   j    o   s    )   ;   C   D   C   /   D   R .

   P   E   T   E   R   P   E   R   I   N   E    (   P   H   I   L   #   3   8   4   2

    ) ,   1   9   7   9    (   i   n    f   e   c   c   i    ó   n    d   e    f   r   a   m    b   e   s   i   a    )

Page 9: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 9/99INVESTIGACION Y CIENCIA, mayo, 2008 7

   H   I   S   A   S   H   I   N   A   I   T   O    (     c     r      i     s     t     a      l    )   ;   M   A   T   T   C   O   L   L   I   N   S    (      d      i      b    u      j     o    )

Pista libre

El año pasado, la NASA dejó de publicar

datos útiles de su estudio sobre seguri-

dad del transporte aéreo, pues la agencia

consideró que mermarían la confianza

del público. Pero otro estudio hace ver

que los siniestros resultantes de errores

del piloto en los transportes aéreos esta-

dounidenses descendió entre 1983 y 2002.

El análisis, debido a Susan P. Baker y sus

colaboradores de la Universidad Johns

Hopkins atribuye las mejoras a la superior

formación de las tripulaciones y a los

avances técnicos, que proporcionan datos

más exactos y fiables sobre la posición de

la aeronave o el mal tiempo. Sin embargo,

la tasa general de siniestros permanece

sensiblemente constante, debido, tal vez,

al mayor número de errores del personal

de tierra y de los controladores aéreos,

obligados a gestionar muchos más vuelos

que en el pasado.

TOTAL DE SINIESTROS ANALIZADOSEN EL ESTUDIO: 558

SINIESTROS PROVOCADOS

POR ERRORES DE PILOTAJE: 180

SINIESTROS DEBIDOS A OTRAS

CAUSAS: 378

SINIESTROS POR ERROR DE PILOTA-

JE POR 10 MILLONES DE VUELOS EN:

1983-1987: 14,2

1998-2002: 8,5

DESCENSO EN SINIESTROSPOR ERROR DE PILOTAJE POR CADA

10 MILLONES DE VUELOS:

POR DECISIONES INCORRECTAS:

DE 6,2  A 1,8

POR INTERACCION DEFICIENTE DE

LA TRIPULACION: DE 2,8 A 0,9

POR HABER AFRONTADO MAL CON-

DICIONES DE VIENTO O DE LA PISTA

DEFICIENTES: DE 2,5 A 0,54

FUENTE : Aviation, Space and Environmental

Medicine, enero de 2008

Los diamantes son rarezas no sólo entre

  los minerales, sino también en las mate-

máticas. La estructura cristalina del diaman-

te posee dos notas distintivas esenciales: susimetría es máxima, es decir, no es posible

reordenar sus componentes y lograr que la

estructura resulte más simétrica de lo que

ya es, y por otra parte cuenta con un poten-

te tipo de isotropía, pues ofrece el mismo

aspecto al ser examinado desde la dirección

de cualquier arista. En el número de febrero

de Notices of the American Mathematical

 Society , Toshikazu Sunada, de la Universi-

dad nipona de Meiji, señala que de entre

un universo, en teoría infinito, de cristales

que matemáticamente podrían existir, sólo

hay otro que comparta estas propiedadescon el diamante. Mientras que el diamante

constituye una malla de anillos hexagona-

les, su pariente está formado por anillos de

10 lados.

Sunada estaba en la creencia de que nadie

había descrito con anterioridad este objeto

(al que él bautizó K4). Pero tras haber publi-

cado su trabajo, químicos y cristalógrafos le

informaron que hacía mucho que tenían no-

ticia del cristal, llamado (10,3)-a

por A. F. Wells en 1977. El gemelo

matemático del diamante existe,

en una variante ligeramente dis-torsionada, como una estructura

de átomos de silicio en siliciuro

de estroncio.

—Charles Q. Choi 

GEOMETRIA

Matemática cristalina

Dos entre una infinidad: sólo

el cristal de diamante y el

cristal K4 —también llamado

(10,3)-a—, aquí representado

cuentan con simetría máxima y

ofrecen el mismo aspecto al ser

vistos desde cualquier arista.

DATOS

Para detectar lo que las rodea, las células utilizan las proteínas receptoras que

  tachonan su superficie. Estos receptores se ligan a moléculas específicas y

desencadenan así una cascada de acontecimientos bioquímicos, que desembocan

en conductas celulares, como la secreción de hormonas o la destrucción de pató-

genos. Pero antes de que los receptores puedan activarse, a menudo tienen que juntarse unos con otros. Donald Ingber, de la facultad de medicina de Harvard, y

sus colaboradores han demostrado que pueden controlar esta activación mediante

partículas de óxido férrico unidas a moléculas de dinitrofenil (DNP), que se ligan

a los receptores de los mastocitos, productores de histamina. Estas perlitas de

30 nanómetros de diámetro se atraen entre sí cuando se las magnetiza y fuerzan a

los receptores a apiñarse y activarse. Los investigadores detectaron un pico en las

concentraciones de calcio del interior de las células, el primer paso en la secreción

de histamina. Esta técnica podría permitir biosensores más livianos y de menor

consumo energético para la detección de patógenos o nuevas formas de suminis-

trar fármacos al organismo.

— J. R. Minkel 

NANOTECNIA

Control magnético de células

Page 10: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 10/998  INVESTIGACION Y CIENCIA, mayo, 2008

¿Amantes o rivales?Nuevas investigaciones genéticas indican que los humanos modernos se cruzaron con el Homo erectus

C I E N C I A Y S O C I E D A D

 La cuestión de si los humanos mo-  dernos se cruzaron o guerrearon

con sus congéneres de otras especies hasido tema de debate, a menudo enco-nado, durante décadas. Murray Cox, dela Universidad de Arizona, ha descubier-to los indicios más claros hasta ahora deque los humanos modernos se cruzaroncon Homo erectus , una especie surgidahace alrededor de dos millones de añosy de la que muchos creen que se en-cuentra en la línea evolutiva que llega

hasta nosotros.La tesis de una propagación “a partir

de Africa” se basa fundamentalmente enestudios del cromosoma Y sumados a losde las mitocondrias, estructuras genera-doras de energía en la célula que tienensu propio pequeño genoma y se trans-miten por línea femenina. Toda la mo-derna variación de estas secuencias seremonta a Africa y muestra antepasadoscomunes hasta cierto punto recientes.(La ausencia de fósiles que sean híbri-dos también apoya esta idea.)

Según Cox, existen, sin embargo,muchos otros lugares donde pueden es-tar escondidos los genes de nuestrosparientes. Estudiando las característicasgenéticas de las poblaciones humanasmodernas, su equipo ha hallado una re-gión del cromosoma X, la RRM2P4,que muestra grandes diferencias entrepersonas de distintos lugares, se-ñal de una antigua separacióngenética. Para precisar los orí-genes de ese gen, los investiga-dores secuenciaron 250 indivi-

duos, la mitad procedente de Africa y, el resto de China, AsiaCentral, País Vasco e islas delPacífico.

Tras delimitar la fecha de su separa-ción según las diferencias entre las se-cuencias genéticas, los investigadoresconcluyeron que la última vez que lasdistintas formas de RRM2P4 compartie-ron un antepasado común fue hace al-rededor de dos millones de años, más omenos cuando Homo erectus  emigró des-de Africa hasta Asia. Y la variante más

antigua parece haberse originado en Asia,

el único lugar, casi, donde se encuentraen la actualidad.

Cox cree que la combinación entregran antigüedad y orígenes asiáticos esconvincente. Los fósiles sugieren que elH. erectus   podría haber sobrevivido en

 Asia hasta hace aproximadamente 30.000años, solapándose con los humanos mo-dernos durante alrededor de 15.000 años.La variante del gen es más común pre-cisamente donde se encuentran fósilesdel H. erectus , dice Cox, que expone su

descubrimiento en el número de enerode Genetics . El equipo también utilizó

nuevas técnicas estadísticas para demos-trar que es considerablemente más pro-bable que el gen surgiera en Asia y noen Africa. La posibilidad de que hubie-ra cruzamiento entre el H. erectus   y loshumanos modernos es lo más sorpren-dente, añade, porque la mayoría de losinvestigadores cree que no hay indiciosde que hayamos intercambiado nuestros

genes con los de los neandertales, que

tienen un parentesco más cercano connosotros.

Otros observan que hay muchos fac-tores que pueden crear divisiones gené-ticas profundas entre los grupos huma-nos. Nadie discute que la mayor partede nuestro genoma tiene un origen afri-cano reciente. Pero esa preponderanciahace difícil determinar qué aspectos po-drían ser el legado de un cruzamientode menor intensidad con otras líneasevolutivas y cuáles deberse al puro azar.

 A lo largo de todo el genoma, algunosgrupos mostrarían grandes diferenciasaunque hubieran salido todos de Africaal mismo tiempo, explica Peter Under-hill, de la Universidad de Stanford.“Cuando uno ve estos resultados, ¿sonrealmente representativos de que algo

singular ocurrió, o son sólo extremosde las distribuciones normales? Paramí, es una cuestión que sigue abier-ta”, afirma.

Otra posibilidad es que la formaasiática de RRM2P4 hubiese estado

presente en un grupo que salió de Africa y más tarde se extinguió en

 Asia. O simplemente, que no se hu-biera examinado al suficiente númerode africanos como para encontrarlo; de

hecho, la secuencia de ADN queCox y sus colaboradores piensanque vino del H. erectus  se halló enun africano. Peter Forster, de laUniversidad Anglia Ruskin deCambridge, que se dedica a la pa-leogenética, sostiene que este des-cubrimiento da a entender que el

RRM2P4 asiático probablementesí se originó en Africa. Encon-trar ese gen en un africano arrui-na la idea de un antiguo cruce.

Cox lo rebate diciendo que la secuen-cia RRM2P4 de este africano es idénti-ca a la del grupo asiático y sugiere queesta persona probablemente descendióde inmigrantes asiáticos recientes. Elequipo también tiene datos preliminaresde una segunda región de ADN quemuestra una separación igualmente an-tigua; un grupo parece ser exclusivamen-

te asiático.    R   E

   G   I   S   B   O   S   S   U       S

    y    g    m    a      /      C    o    r      b      i    s

Según un nuevo estudio genético, los humanos modernos

pudieran haberse cruzado con Homo erectus.

Page 11: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 11/99INVESTIGACION Y CIENCIA, mayo, 2008 9

El gen de una sola persona no puedezanjar la cuestión, según Rosalind Har-ding, de la Universidad de Oxford. Aunasí, varios estudios sugieren que el geno-ma humano registra sorprendentes y pro-fundas separaciones entre poblaciones.Su grupo, por ejemplo, ha descubierto

que parte del gen de la hemoglobina pa-rece muy antiguo. Si continúan descu-briéndose antiguas secuencias, con eltiempo los paleogenéticos podrían con-vencerse de que todos llevamos un pe-queño erectus   en la sangre.

 John Whitfield

 Autosincronización de autómatas celularesPara sincronizar un autómata celular con otro o consigo mismo, basta igualar entre sí 

una fracción de sus casillas mayor que un valor crítico

 Los sistemas extensos presentan pa-  trones que, una vez adquiridos,

pueden ser estáticos en el tiempo. Engeneral, se trata de patrones inestables:ante cualquier pequeña perturbación, elsistema que los exhibe evoluciona haciauna dinámica espaciotemporalmente com-

 pleja, según una denominación habitual.Significa que no hay una estructura re-petida, ni en el espacio ni el tiempo, a

lo largo de la evolución del sistema.La evolución de los valores de la bol-

sa puede servirnos de ejemplo del tipode sistemas al que nos referimos. Cual-quier periodicidad en su estructura val-dría de herramienta de predicción y anu-laría su carácter aleatorio, impredictible.Como ejemplo contrapuesto sirva el des-

pliegue de la información del ADN deun ser vivo en sus primeras fases. Si nohay errores de decodificación, acaba ge-nerando la forma característica de un in-dividuo típico de la especie correspon-diente. Sería el patrón fijo hacia el queevoluciona ese sistema extenso.

Se han desarrollado, en los últimosaños, diferentes técnicas de sincroniza-ción que, en principio, valdrían para dis-

cernir cuáles son los patrones fijos de unsistema extenso. Expliquemos primerode forma sencilla en qué consiste el fe-nómeno de la sincronización. De dos omás sistemas que tienen un comporta-miento similar en el tiempo, aunque seacon un cierto desfase, decimos que es-tán sincronizados. A no ser que los sis-

temas sean idénticos y las condicionesiniciales hayan sido las mismas, esta con-sonancia dinámica requiere un intercam-bio de información entre ambos siste-mas.

En condiciones normales, el intercam-bio de información se realiza de una for-ma continua en el tiempo y exige la vi-sibilidad total o parcial entre ambossistemas. Esta estrategia se ha aplicado

en multitud de situaciones, sobre todoentre osciladores caóticos, bajo muy di-ferentes técnicas. Cuando se unen mu-chas de estas unidades, se recurre a laintroducción en la dinámica individualde cada unidad de un campo medio,bien sea aditivo, bien sea multiplicativo,para provocar la sincronía de todo el

DESCUBRIR ANTEPASADOS EN NUESTROS GENES

Los investigadores llevan tiempo debatiendo acerca de dos teorías generales sobre el

origen de los humanos modernos; si nuestros antepasados salieron de Africa en una

sola oleada hace menos de 100.000 años o si somos el resultado de varias oleadas

que salieron de Africa y se cruzaron. Hay algo en lo que todos están de acuerdo y es

que leer nuestra historia en los genes está plagado de dificultades. Cada vez resultamás fácil recopilar cantidades de información, pero determinar qué secuencias utilizar,

a quiénes tomar la muestra y cómo identificar los legados genéticos de la selección

natural, la migración y los cuellos de botella de la población, es dificilísimo. Incluso

análisis relativamente sencillos implican suposiciones y conjeturas elaboradas y pue-

den suponer un trabajo de miles de horas delante del ordenador.

AUTOMATA 1

INFORMACION

σ(t +1) = (Γ p  • Φ)[σ(t )]

t 1   σ1

Φ

Γ p 

Φ

σ2

t 2

AUTOMATA 2 AUTOMATA 1

INFORMACION

t +1

σ1

σ2   σ1

Φ

Γ p 

AUTOMATA 2

σ(t +1) = Γ p [(σ1(t ), σ2(t ))] = Γ 

p [(σ(t ), Φ[σ(t )])]

1. Técnica de sincronización estocástica de dos autómatas celulares

(AC), σ1 yσ2, que evolucionan bajo la reglaΦ ( izquierda). El operador

estocástico Γ p, comandado por el parámetro p, con 0 < p < 1, se en-

carga de elegir aleatoriamente en cada iteración una proporción p 

de entre todos los sitios de ambos AC y de hacerlos iguales. Técnica

de autosincronización estocástica (derecha). En este caso, el papel

de uno de los AC lo desempeña la “iteración presente”, σ1 = σ(t ),

y el otro AC es la “iteración anterior”,σ2 = σ(t  – 1).

Page 12: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 12/9910  INVESTIGACION Y CIENCIA, mayo, 2008

conjunto. En este caso, cada uno de loselementos no tiene conocimiento exac-to de la dinámica ni de una ni de variasde las unidades de ese conjunto; sólo po-seerá información del comportamientomedio del sistema global.

Cuando los sistemas son extensos, la

visibilidad completa se hace también in-viable en la práctica por el gran flujo deinformación que habría que habilitar en-tre ambos sistemas. De nuevo, es másrealista suponer que los sistemas no re-sultan completamente visibles entre ellosy que, por tanto, sólo pueden intercam-biar información parcial de su actual es-tado dinámico, entre partes fijas de di-chos sistemas o entre partes seleccionadasal azar (sincronización estocástica ). La li-mitación en el traspaso de informaciónhace prever la existencia de una cantidad

mínima de la misma cuya superación lle-va a los sistemas a sincronizarse.

Pero pensemos ahora que, en vez decontar con dos sistemas extensos distin-tos, tenemos uno solo, tomado en dostiempos distintos. Si de alguna manerase aplica la estrategia anterior entre lasestructuras que presenta el sistema enesos dos tiempos diferentes, podría ge-nerarse, en principio, una sincronizaciónde estructuras actuales con estructurasde su pasado. El sistema sufriría el fenó-meno que hemos denominado autosin-

cronización. Quiere decir que el sistemaquedaría congelado en una estructura fijaen el tiempo. Podría pensarse entoncesen emplear este método para encontrarsus estructuras fijas.

Del mismo modo, si en vez de tomardos configuraciones a dos tiempos dis-tintos, se toma una sola de ellas, porejemplo la estructura actual del sistema,y ésta se divide a cada tiempo en dospartes a las que se aplica el método desincronización, la evolución del sistemapuede derivar en una estructura final si-

métrica respecto a la frontera que sepa-ra las dos partes espaciales en que se di-vidió. Es lo que hemos dado en llamarautosincronización por simetría .

Hemos ensayado todas estas técnicassobre los sistemas dinámicos extensosmás sencillos que podemos encontrar:los autómatas celulares . Un autómata ce-lular (AC) es un sistema extenso discre-to en el espacio y en el tiempo. La ver-sión unidimensional de un AC estáformada por una ristra de N  sitios o cé-lulas, numerados por el índice i  = 1,...,

N , donde la variable local σi  puede to-

mar un valor binario, o bien 0 o bien1. El valor de cada uno de los sitios enel tiempo t  representa una configuracióndel sistema. La nueva configuración atiempo t + 1 viene determinada por laregla Φ  de evolución del sistema.

En condiciones normales se trabajacon un acoplamiento a primeros veci-nos, es decir, el valor σi (t   + 1) es fun-ción de los valores que el sistema tomaen el propio sitio σi (t ) y de los dos ve-cinos más próximos, esto es, σi– 1(t ) y

Regla 150

0 = blanco1 = negro

p = 0,9

2. Evolución de un AC bajo

la regla 150 y la técnica

de autosincronización

estocástica. La ristra

espacial de sitios es el eje

horizontal y la evolución

temporal es el eje verti-

cal, de arriba hacia abajo.El sistema no se congela

en ningún patrón estable,

sino que se establece una

competición entre los pa-

trones estacionarios de la

regla 150: los elementos

11, 01 y 00.

3. Evolución espaciotemporal de las reglas 18 y 150 bajo la técnica de autosincronización

estocástica por simetría. Obsérvese que las dos mitades en las que se parte el sistema

se autosincronizan después de una fase transitoria, hecho que puede observarse por la

simetría especular que presentan los patrones. Se ofrece, además, una tabla que muestra el

parámetro crítico pc para las diferentes reglas cuando evolucionan bajo ese tipo de autosin-

cronización.

Regla 18

p > pc

Regla 150

Regla 18

0,25

22

0,27

30

1,00

54

0,20

60

1,00

90

0,25

105

0,37

110

1,00

122

0,27

126

0,30

146

0,25

150

0,37

182

0,25pc

Page 13: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 13/99INVESTIGACION Y CIENCIA, mayo, 2008 11

σi+1(t ). Así, podemos escribir la evolu-ción dinámica del AC de la forma: σ(t  + 1) = Φ[σ(t )], que localmente se expre-sa σi (t   + 1) = ϕ[σi -1(t), σi   (t ), σi +1(t )],siendo ϕ  la particularización local de laregla Φ.

Hay que observar que, para cada cé-

lula, hay 23

  posibles entornos distintosy cada uno de ellos puede tomar unode los valores binarios, con lo cual elnúmero de reglas distintas posibles esde 28. La forma de aplicar una de esasreglas es pasar a binario el número de-cimal que representa la regla correspon-diente y asignar, por orden correlati-vo, cada uno de los 8 bits de esarepresentación a cada uno de los 8 po-sibles entornos. Así, por ejemplo, la reglaΦ = 18 en binario es 00010010, con locual su particularización es como sigue:

ϕ(0,0,0) = 0, ϕ(0,0,1) = 1, ϕ(0,1,0) =0, ϕ(0,1,1) = 0, ϕ(1,0,0) = 1, ϕ(1,0,1)= 0, ϕ(1,1,0) = 0 y ϕ(1,1,1) = 0.

Cada una de estas reglas produce unaevolución dinámica distinta. Stephen

 Wolfram clasificó en los años ochentalas diferentes estructuras que generan las256 reglas en cuatro grandes grupos concomportamientos distintos. Uno de es-tos grupos corresponde a las reglas queproducen un comportamiento espacio-temporal complejo; es el caso de las re-glas 18, 22, 90 y 150.

Nos hemos centrado en ensayar lastécnicas de autosincronización antes ex-plicadas sobre este tipo particular deautómatas. La técnica de sincroniza-ción estocástica de dos AC se resumeen el esquema de la  figura 1 a la iz-quierda . El operador estocástico Γ  p, co-mandado por el parámetro  p, con 0 < 

 p <  1, se encarga de elegir aleatoria-mente en cada iteración una propor-

ción  p de entre todos los sitios de am-bos AC y de hacerlos iguales. Todas lasreglas presentan una transición a la sin-cronización para un  p  crítico ( pc ) quevale alrededor de 0,25. La aplicaciónde esta metodología a un solo AC, laautosincronización, se presenta en la

 figura 1 a la derecha .En general, esta técnica no llega a

congelar al autómata en una estructura,

tal como se muestra en la  figura 2 parala regla 150, donde se establece unacompetición entre los diferentes patro-nes estacionarios del sistema. Este com-portamiento encuentra una excepciónnotable en la regla 18, que sí llega acongelarse en su estructura estable, quees el patrón nulo.

En el caso de la autosincronizaciónpor simetría, cuyo esquema se muestra

en la  figura 4 , el sistema se autosincro-niza para todas las reglas que presentanuna simetría derecha-izquierda, ϕ[σi -1(t),σi  (t ), σi +1(t )] = ϕ[σi +1(t), σi (t ), σi-1(t )],tal como las reglas 18 y 150 que se mues-tran en la  figura 3. En la tabla inferiorde la ilustración se dan también los va-lores críticos pc  para los que se consiguela autosincronización por simetría en lasdiferentes reglas.

Ricardo López Ruiz 

Dpto. de Informática,

Facultad de Ciencias y BIFI,

Universidad de Zaragoza 

 Juan Roberto Sánchez 

Dpto. de Física, Facultad de Ingeniería,

Universidad Nacional de Mar del Plata,

 Mar del Plata, Argentina 

 El ADN de las células se halla expues-  to a la agresión por parte de agen-

tes físicos y químicos del medio. Cual-quier daño en el ADN reviste un peligroespecial, ya que puede ocasionar la muer-te de la célula o la transformación deésta en cancerígena. Las células cuentan

con un repertorio de mecanismos de

protección y reparación del ADN quegarantizan su supervivencia. La disfun-ción de esos mecanismos constituye lacausa de numerosas enfermedades, leta-les algunas.

En contraposición, esos mismos me-canismos de reparación son la causa de

la escasa eficacia de tratamientos de qui-

mioterapia en algunos tumores. Los agen-tes quimioterapéuticos (el cis -platino, porejemplo) suelen lesionar el ADN, dañoque impide la correcta duplicación del

 ADN y determina, en última instancia,la muerte celular. El tumor acaba elimi-nándose porque las células tumorales se

dividen a una velocidad desmesurada y,

AUTOMATA

INFORMACION

σ(t +1) = Γ [Φ(σ(t ))] = Γ [Φ(σ1(t ), σ2(t ))]

t    σ(t )

σ(t +1)t +1

σ1   σ2

Φ

Γ 

σ1   σ2

4. Técnica de autosincronización estocástica por simetría. En este caso el papel de uno de

los autómatas celulares lo desempeña una mitad de la iteración presente, σ1 = [σ i  (t ), i  = 1,..., N/2], y el otro autómata celular es la parte restante, σ2 = [σ i  (t ), i = N/2+1,..., N].

 Anemia de FanconiLa comprensión de los fallos moleculares que subyacen bajo este trastorno genético nos permitirá

conocer mejor los mecanismos de reparación del ADN y promover una quimioterapia más eficaz 

Page 14: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 14/99

por tanto, son más sensibles a la quimio-terapia. No obstante, las demás célulasdel organismo también sufren el ataquedel agente quimioterapéutico, sobre todolas que se dividen continuamente, comolas progenitoras del cabello o las precur-soras de las células sanguíneas. De esa

acción generalizada de la quimioterapiase derivan la caída del cabello y otrosefectos secundarios indeseados.

Los mecanismos naturales de repara-ción del daño celular hacen, pues, que,en muchos casos, deba administrarse unadosis de quimioterapia muy alta. En efec-to, para eliminar las células tumorales,el fármaco debe doblegar los mecanis-mos de protección. Se ha visto tambiénque algunos tumores de ovario que sue-len tratarse con cis -platino, acaban de-sarrollando resistencia a este compuesto;

la terapia pierde entonces toda eficacia.

Parte de la investigación en quimio-terapia se centra en los mecanismos dereparación del daño génico. Si se logra-ra provocar en la célula tumoral la dis-función de esos mecanismos de protec-ción, se rebajaría la dosis necesaria dequimioterapia y, por tanto, se recorta-

rían los efectos secundarios. Además, seevitaría el desarrollo de tumores resisten-tes al tratamiento. La investigación so-bre la base molecular de enfermedadescausadas por la disfunción del sistemade reparación y protección génica haarrojado luz sobre los mecanismos celu-lares de resistencia contra agentes anti-tumorales.

La anemia de Fanconiy la ruta FA/BRCAUna de esas enfermedades es la anemia

de Fanconi. Este trastorno genético hu-

mano se caracteriza por presentar unfallo medular progresivo, que suele con-llevar trombopenia (descenso del re-cuento de plaquetas) o pancitopenia(descenso del recuento total de célulassanguíneas). La acompañan otros tras-tornos hematológicos (síndrome mielo-

displásico o leucemia mieloide aguda),así como una cohorte de anomalíascongénitas, endocrinopatías y tumoressólidos.

Las células de los pacientes con ane-mia de Fanconi se muestran muy sen-sibles ante determinados agentes citoes-táticos, como la mitomicina C, el die-poxibutano y el cis -platino, que inducenun tipo particular de daño en el ADN:los enlaces cruzados. Los enlaces cruza-dos impiden el avance de la horquillade replicación y generan roturas en la

cadena de ADN. De ahí que tales pa-

La célula cuenta con meca-

  nismos que reparan las

horquillas de replicación blo-

queadas. El cis-platino (agen-te quimioterapéutico) genera

entre las dos cadenas de ADN

enlaces cruzados (1) que impi-

den el avance de la horquilla

de replicación ( 2). Por ello, se

producen roturas en el ADN.

La ruta FA/BRCA se encarga

de reparar la rotura; si falla

esa vía, la célula, incapaz de

dividirse, muere ( 3).

Para reparar la rotura, se

fosforila la histona H2AX,

al propio tiempo que se

monoubiquitina la proteína

FANCD2 mediante el complejo

FA ( 4). Una vez activada,

FANCD2 se dirige al sitio del

daño, atraída por la H2AX

fosforilada ( 5). FANCD2

permite la carga de proteínas

de reparación por recombina-

ción homóloga, como BRCA2

y RAD51 (6). La rotura se

repara (7 ). La maquinaria de

replicación se coloca otra vez

sobre la cadena de ADN y

prosigue la replicación (8).

1 2 3

 4

 567 

8

Cis-platino

La célula continúasu procesode división

La célulamuere

Maquinariareplicación La ruta FA/BRCA

es funcional

Complejo FA

Ub

Ub

D2

D2

RAD51

BRCA2

D2

D2

P-H2AX

La ruta FA/BRCAno es funcional

y el daño no puedeser reparado

RUTA FA/BRCA

12  INVESTIGACION Y CIENCIA, mayo, 2008

Page 15: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 15/99INVESTIGACION Y CIENCIA, mayo, 2008 13

cientes presenten mayor número de ro-turas cromosómicas que una personasana.

Bajo la anemia de Fanconi subyaceun fallo en la ruta FA/BRCA, la vía mo-lecular encargada de la reparación delas horquillas de replicación bloqueadas.

Se conocen hasta 13 genes responsablesde la enfermedad: FANCA, FANCB,FANCC, FANCD1/BRCA2, FANCD2,FANCE, FANCF, FANCG, FANCI, FAN-CJ/BRIP1, FANCL, FANCM  y FANCN/ PALB2 . Tres (FANCD1, FANCJ   yFANCN ) son también genes de suscep-tibilidad al cáncer de mama.

La mayoría de los productos de esosgenes se unen para formar el comple-

 jo proteico FA, cuya función estr iba enactivar la proteína central de la ruta:FANCD2. Una vez activada mediante

monoubiquitinización, FANCD2 se di-rige al sitio dañado; allí se colocalizacon otras proteínas, como FANCD1/BRCA2, que llevan a cabo la repara-ción del daño por recombinación ho-móloga.

En el sistema de regulación de la rutaFA/BRCA participan numerosas molécu-las: quinasas (ATR), proteínas de señali-zación del daño (H2AX) y otras (USP1,BRCA1, NBS1 o BLM); las tres últimasproteínas intervienen a su vez en otrasvías de reparación del daño celular: su

defecto causa otras enfermedades rarascon predisposición al cáncer, como lossíndromes de Bloom o de Nijmegen.

Las personas que sufren anemia deFanconi corren un riesgo muy alto decáncer. Desarrollan leucemias o tumoressólidos, sobre todo en cabeza y cuello, aedades tempranas. El tratamiento delcáncer en esos pacientes entraña una grancomplejidad, pues la hipersensibilidad desus células ante los agentes quimiotera-péuticos hace que el tratamiento elimi-ne todas las células de su organismo, y

no sólo las tumorales. Si lográramos blo-quear la ruta FA/BRCA en las célulastumorales de una persona con un tumorincipiente, se volverían hipersensibles ala quimioterapia, de forma que la elimi-nación del tumor requeriría una dosismenor.

Inhibición de la ruta FA/BRCACon ese objetivo, se ha realizado un ex-perimento in vitro  con células tumora-les, basado en la inhibición de la pro-teína FANCD2 y el posterior estudio

de la sensibilidad a agentes inductores

de enlaces cruzados. Por gen diana seeligió a FANCD2   para la inhibición,pues desarrolla la función principal enla ruta FA/BRCA. La investigación so-bre portadores de versiones mutadas deese gen ha demostrado que todos los pa-cientes cuentan con un pequeño por-

centaje de proteína funcional; de lo quecabe inferir que la ausencia total de estaproteína resulta letal. Además, ese genconstituye uno de los pocos genes Fan-coni que se han conservado en el cursode la evolución.

Para inhibir la síntesis de la proteí-na FANCD2 se ha aplicado la técnicade interferencia por ARN. Se liberanpequeñas moléculas de ARN en el me-dio celular, que obstruyen la expresióndel ARN mensajero que codifica parael gen FANCD2 . Con ello se impide

la síntesis de la proteína correspon-diente.

 A través de ese método se ha conse-guido que las células tumorales tripli-quen su sensibilidad ante la quimiote-rapia, tras reducir en un 50 por cientola cantidad total de proteína FANCD2.La técnica de interferencia por ARN seha aplicado en diversos ensayos de tra-tamiento del cáncer y otros trastornos,sobre todo enfermedades de origen ví-rico. Algunas de esas aplicaciones se en-cuentran ya en fase de ensayo clínico.

 Aunque se trata de una técnica nove-dosa, la interferencia por ARN ofreceun notable potencial terapéutico y ver-satilidad.

Se han propuesto estrategias alterna-tivas para bloquear la ruta FA/BRCA.Una de ellas, el uso de inhibidores deFANCD2. Para determinar la actividadde esos inhibidores, se ensayaron milesde sustancias; cuatro de ellas lograronintensificar la sensibilidad de las célu-las al cis -platino, lo que las convertíaen potenciales fármacos complementa-

rios en el tratamiento quimioterapéuti-co. Aunque se halla todavía en los al-bores de su desarrollo, esa nuevaestrategia terapéutica ha cosechado re-sultados alentadores.

Maria Castellà y Jordi Surrallés

Unidad de Genética,

Dpto. Genética y Microbiología,

Universidad Autónoma de Barcelona 

 y Centro de Investigación Biomédica en Red

de Enfermedades Raras (CIBERER),

Instituto de Salud Carlos III,

Bellaterra, Barcelona 

Page 16: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 16/9914  INVESTIGACION Y CIENCIA, mayo, 2008

¿El fin de la

cosmología?

Page 17: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 17/99INVESTIGACION Y CIENCIA, mayo, 2008 15

Un artículo de I C-  que hubiese tratado hace cien años  sobre la historia y la estructura a gran

escala del universo apenas si habría dicho algoque fuese cierto. En 1908 se creía que nuestragalaxia era todo el universo. La llamaban “eluniverso isla”, como si fuera un cúmulo aisladode estrellas en medio de un vacío infinito.Hoy sabemos que nuestra galaxia es sólo unaentre las más de 400.000 millones de galaxiasobservables. En 1908, el consenso científico

admitía que el universo era estático y eterno.No se sospechaba ni remotamente que hubiesenacido de una “gran explosión”. Se ignorabaque los elementos ligeros se sintetizaron enlos primeros instantes de esa gran explosióny luego en el interior de los núcleos de lasestrellas. Nunca se pensó en la expansión delespacio y en que la materia lo curvase. Elconocimiento de que el espacio está bañadoen radiación, imagen fantasmagórica del fríorescoldo de la creación, tuvo que esperar aldesarrollo de técnicas modernas concebidas nopara explorar la eternidad, sino para llamar

por teléfono a casa.Es difícil pensar en un área del saber que

haya cambiado más en los últimos cien añosque la cosmología. Pero, ¿debe la ciencia delfuturo reflejar siempre más conocimiento em-pírico que el que existía en el pasado? Nuestrotrabajo reciente sugiere que, a escalas cósmicas,la respuesta es no. Podríamos estar viviendo enla única época de la historia del universo en laque resulta posible adquirir un conocimientopreciso de su verdadera naturaleza.

Un descubrimiento impresionante de hacecasi diez años motivó nuestra reflexión. Dos

equipos de astrónomos reconstruyeron la ex-

CONCEPTOS BASICOS

Hace diez años, se produjo

un descubrimiento revo-

lucionario: la expansión

del universo se está ace-

lerando. Todavía hoy se

investiga para determinar

las consecuencias. La acelerada expansión

llegará a hacer que todas

las galaxias, salvo las

pocas ligadas gravitato-

riamente a la nuestra, se

nos pierdan de vista para

siempre. Quedarán así

eliminados los puntos

que sirven de referencia

para medir la expansión

y se diluirán los productos

más distintivos de la gran

explosión hasta resul-tar imperceptibles. En

resumen, se borrará toda

prueba de que un día hubo

una gran explosión.

A nuestros descendientes

más lejanos, el universo

les parecerá una laguna

de estrellas sumergidas

en un vacío infinito y sin

cambios.

¿Cuánta sabiduría ha

borrado ya el universo?

   S   L   I   M    F

   I   L   M   S

Un universo en aceleraciónborra las huellas de su propio origen

Lawrence M. Krauss y Robert J. Scherrer

1. PLANETA SOLITARIO. A medida que el espaciose vacíe debido a la aceleración de la expansióncósmica, la galaxia donde se encuentra la Tierrase irá rodeando de una total oscuridad.

Page 18: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 18/9916  INVESTIGACION Y CIENCIA, mayo, 2008

pansión del universo a lo largo de los últi-mos cinco mil millones de años. Vieron queparece acelerarse. Se cree que la fuente de talantigravedad cósmica es una nueva forma de“energía oscura”, asociada al espacio vacío. Algunos teóricos, entre ellos uno de nosotros(Krauss), habíamos anticipado este nuevo re-

sultado a partir de unas mediciones indirectas,pero son las observaciones directas las quecuentan en física.

La aceleración del universo implica que elespacio vacío contiene tres veces más energíaque todas las estructuras cósmicas que obser-vamos hoy día: las galaxias, los cúmulos y lossupercúmulos de galaxias. Paradójicamente, Albert Einstein fue el primero en plantearla existencia de esta forma de energía, perocon el fin de mantener un universo estáti-co. La llamó constante cosmológica [véase  “Antigravedad cosmológica”, por Lawrence

M. Krauss; I C, marzode 1999].

La energía oscura tendrá un impacto enor-me en el futuro del universo. Junto con elcosmólogo Glenn Starkman, de la Universidadde la Reserva Case del Oeste, Krauss explorólas consecuencias que esa energía comportaráen el destino de la vida. El pronóstico noes bueno. Un universo con una constante

cosmológica se convertirá en un lugar muypoco hospitalario. La constante cosmológicaproduce un “horizonte de sucesos” fijo, unasuperficie imaginaria, más allá de la cual ni lamateria ni la radiación nos pueden alcanzar.El universo se parecerá a un agujero negrovuelto de dentro hacia fuera, donde la ma-

teria y la radiación permanecerán atrapadasallende el horizonte, no aquende. Significaque el universo observable contiene sólo unacantidad finita de información; el procesadode la misma (y la vida) no podrán durar parasiempre [véase   “El sino de la vida en el uni-verso”, por Lawrence M. Krauss y Glenn D.Starkman; I C, febrerode 2000].

Mucho antes de que esta limitación de lainformación se convierta en un problema, lamateria en expansión del universo habrá sidoconducida fuera del horizonte de sucesos. Es-

tudiaron el proceso Abraham Loeb y KentaroNagamine, por entonces en la Universidad deHarvard. Dedujeron que el Grupo Local deGalaxias (la Vía Láctea, Andrómeda y unahueste de galaxias enanas que giran alrededorde ambas) se derrumbará sobre sí mismo paraformar un supercúmulo de estrellas solitario eimponente. Las demás galaxias se perderán másallá del horizonte de sucesos. Ocurrirá dentro

EL UNIVERSO CRECE, LAS VISTAS MENGUAN

3  Las galaxias lejanas (las que no están ligadas

a nosotros por gravedad) se van más allá de

nuestro rango de visión. Mientras tanto, la

gravedad atrae a las galaxias cercanas.

Galaxia

Región observable

Regióndel espacio

NOTA: Puesto que el espacio se

expande de manera uniforme,

cualquier alienígena vería el mismo

efecto en otras galaxias.

Lawrence M. Krauss y RobertJ. Scherrer comenzaron a

trabajar juntos hace dos años,

mientras Krauss pasaba un año

sabático en la Universidad Van-

derbilt, de Nashville. Krauss, de la

Universidad de la Reserva Case

del Oeste, dirige el Centro para

la Educación e Investigación en

Cosmología y Astrofísica. Scherrer

es cosmólogo, director del depar-

tamento de física y astronomía de

Vanderbilt, y autor de relatos de

ciencia-ficción.

Los autores

   S   L   I   M    F

   I   L   M   S

1  En el comienzo de la

aceleración observamos el

mayor número de galaxias

que jamás podremos ver.

2  La región visible crece, pero el

universo en su conjunto crece aún

más deprisa, por lo que apreciamos

una fracción menor del espacio que

hay fuera.

El universo podría ser infinito. Pero consideremos lo que le ocurre al espacio de nuestro alrededor ( esfera decolor púrpura), del que sólo podemos ver parte (esfera interior amarilla). Con la expansión del espacio, las

galaxias ( puntos naranjas) se esparcen. Como a la luz le lleva tiempo propagarse, los observadores terrestres

(o nuestros predecesores o descendientes) contemplan un volumen del espacio en continuo crecimiento; las ga-

laxias más distantes acaban alejándose de nosotros a una velocidad que impide

que la luz que emitan a part ir de ese momento nos llegue jamás. Hace seis

mil millones de años, la expansión comenzó a acelerarse.

Page 19: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 19/99INVESTIGACION Y CIENCIA, mayo, 2008 17

de unos 100.000 millones de años. Aunqueparezca mucho tiempo, no es nada comparadocon el desierto de la eternidad.

Pilares que ceden¿Qué podrían llegar a saber de la historia deluniverso los astrónomos de un mañana leja-

no, habitantes en un aislado supercúmulo deestrellas? Para abordar la cuestión, recordemoslos pilares sobre los que descansa nuestro co-nocimiento de la gran explosión.

El primero es la teoría de la relatividadgeneral de Einstein. Durante casi 300 años, lateoría de Newton de la gravitación universalsirvió de cimiento para la astronomía. La teoríade Newton predice muy bien los movimientosde los objetos a escalas terrestres y galácticas,pero es incapaz de lidiar con cantidades infi-nitas de materia. La relatividad general triunfasobre esta limitación. Poco después de que

Einstein publicara la teoría en 1916, Willemde Sitter resolvió las ecuaciones de la relati-vidad general para un universo simplificadoque incorporaba la constante cosmológica deEinstein. El trabajo de De Sitter parecía re-producir la percepción del universo que setenía entonces: una “isla” galáctica sumergidaen un gigantesco vacío estático.

Los cosmólogos se percataron enseguidade que la estática era una mala interpreta-ción. El universo de De Sitter estaba en eter-na expansión. Tal y como Georges Lemaîtreaclaró más tarde, las ecuaciones de Einsteinpredicen que un universo estático, infinito yhomogéneo es imposible. El universo se ha

de expandir o contraer. De ese enfoque nacióla que más tarde se denominaría teoría de lagran explosión.

El pilar siguiente se colocó en los añosveinte del siglo pasado, al descubrirse la ex-pansión del universo. El primero en obtenerdatos relativos a la expansión fue Vesto Slipher,quien se valió de los espectros de las estrellaspara medir las velocidades de las galaxias cer-canas. Las ondas de la luz procedentes de unaestrella que se acerca a la Tierra se comprimen,acortando la longitud de onda y haciendo quela luz sea más azul. Las ondas de la luz de

un objeto que se aleja de nosotros se estiran,con lo que la longitud de onda es mayor y laluz más roja. Slipher determinó si las estre-llas se mueven hacia nosotros o se alejan y aqué velocidad midiendo el alargamiento o lacompresión de la luz procedente de galaxiasdistantes. (En aquel momento, los astrónomostodavía no estaban seguros de que las manchasluminosas que hoy llamamos “galaxias” fuerancuerpos independientes de estrellas, y no me-ras nubes de gas situadas dentro de nuestrapropia galaxia.) Slipher halló que casi todaslas galaxias se alejaban de nosotros. Parecía

que estábamos sentados en el centro de unadescontrolada expansión.

No obstante, el crédito por haber descubier-to la expansión del universo no se le concedea Slipher, sino a Edwin Hubble, quien no sólomidió la velocidad de las galaxias cercanas, sinotambién las distancias a que se encontraban.Sus mediciones condujeron a dos conclusio-nes que justifican su fama. Primero, Hubblecomprobó que las galaxias se hallan tan lejos,que forman en verdad conjuntos autónomos deestrellas, igual que nuestra propia galaxia.

Segundo, descubrió una sencilla relación

entre la distancia de las galaxias y sus velocida-des. La velocidad es directamente proporcionala la distancia: una galaxia dos veces más lejanaque otra se mueve dos veces más deprisa. Estarelación entre la distancia y la velocidad esprecisamente la que corresponde a un universoque se expande. Las mediciones de Hubble sehan refinado desde entonces; últimamente, pormedio de la observación de supernovas lejanas.El resultado ha sido el descubrimiento de laenergía oscura.

El tercer pilar es la débil radiación del fondode microondas, descubierta accidentalmente

en 1965 por dos físicos de los laboratorios

4  Con el tiempo, no veremos

más que una supergalaxia

y un vacío insalvable.

Page 20: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 20/9918  INVESTIGACION Y CIENCIA, mayo, 2008

Bell, Arno Penzias y Robert Wilson, mientrasrastreaban fuentes de interferencias de radio.Pronto se estableció que esa radiación cons-tituía una reliquia de las primeras fases de laexpansión del universo. La radiación de fondomanifiesta que el universo comenzó siendo ca-liente y denso, para ir enfriándose y diluyendodesde entonces.

El último pilar observacional de la granexplosión es la idoneidad de un universo pri-mitivo caliente y denso para la fusión nuclear.Cuando el universo alcanzó una temperaturade entre mil millones y diez mil millones de

kelvin, los núcleos más ligeros se fundieronen núcleos más pesados: la nucleosíntesis de lagran explosión. Tal proceso sólo puede ocurrirdurante unos pocos minutos mientras el uni-verso se expande y se enfría; la fusión, por ello,no pasó de los elementos más ligeros. La mayorparte del helio del universo se produjo en esosminutos, así como del deuterio o hidrógenopesado. Las cantidades relativas de helio ydeuterio coinciden con las predicciones de lanucleosíntesis de la gran explosión, un sólidorespaldo para la teoría, al tiempo que propor-ciona una estimación precisa de la cantidad de

protones y neutrones en el universo.

Cielos oscuros¿Qué verán los científicos cuando miren alcielo dentro de 100.000 millones de años? Sintelescopios, percibirán lo mismo que hoy: lasestrellas de nuestra galaxia. Las estrellas másbrillantes y de mayor masa habrán consumi-do todo su combustible nuclear, pero aúnbrillarán en la noche muchas estrellas máspequeñas. Habrá una verdadera diferenciacuando construyan telescopios que puedanobservar otras galaxias. ¡No verán ninguna!Las galaxias próximas se habrán fundido conla Vía Láctea; entre todas integrarán una ga-

laxia solitaria y enorme. Las demás habrándesaparecido hace tiempo allende el horizontede sucesos.

La desaparición de las galaxias no seráinmediata, sino gradual. Su corrimiento alrojo se irá haciendo infinitamente mayor amedida que se aproximen al horizonte. Kraussy Starkman calcularon que superará el valorde 5000 en todas las galaxias dentro de cienmil millones de años y llegará a 1053  a los10 billones de años; para entonces, los ra-yos cósmicos de muy alta energía tendránun corrimiento al rojo tan elevado, que su

longitud de onda superará el tamaño del hori-    D   O

   N   D   I   X   O   N

HOY, los tres pilares son muy perceptibles. Ob-servamos que las galaxias distantes se alejan denosotros (flechas rojas), mientras que las cercanasse reagrupan ( azul ); la radiación de fondo bañatodo el espacio; y el gas cósmico aún conserva lamezcla química producida al principio de la granexplosión.

DENTRO DE MILES DE MILLONES DE AÑOS, lasgalaxias cercanas se habrán fusionado y las máslejanas habrán escapado a nuestra vista. Laradiación de fondo se habrá diluido hasta nivelesindetectables. Las múltiples generaciones deestrellas habrán contaminado la mezcla químicaoriginal.

AMNESIA COSMICALa actual aceleración de la expan-sión cósmica no es la única mane-ra en la que el universo destruyela información sobre su pasado.

INFLACION COSMICAEs posible que la expansión

también se acelerara muy pronto

en la historia cósmica. Habría

borrado casi todos los restos de

un universo anterior, incluyendo

lo que sucediese en la propia

gran explosión.

AGUJEROS NEGROSEstos sumideros cósmicos no sólo

se tragan los objetos, sino la

información que guardan, que se

pierde para siempre.

MEDICIONES CUANTICASCuando se mide un sistema

cuántico, adquiere un estado

determinado y se borran las

muchas combinaciones posibles

que ese sistema podría haber

tenido.

La aceleración de la expansión cósmica del universo ha empezado ya a minar los tres pilares observacionales

de la teoría de la gran explosión: el alejamiento mutuo de las galaxias, la radiación del fondo cósmico de

microondas y las cantidades relativas de elementos químicos ligeros, como el hidrógeno y el helio.

EL APOCALIPSIS DE CONOCIMIENTO

Supergalaxia

Page 21: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 21/99INVESTIGACION Y CIENCIA, mayo, 2008 19

zonte. Estos objetos serán, sin duda, invisiblespara el hombre.

Como resultado, el descubrimiento crucialde Hubble de la expansión del universo seráirreproducible. La materia en expansión habrádesaparecido detrás del horizonte y lo quequede pertenecerá a un cúmulo de estrellas

ligado por gravedad. Para los astrónomos delfuturo, el universo observable se asemejará bas-tante al “universo isla” de 1908: un conjuntode estrellas, único, enorme, estático y eterno,rodeado por un espacio vacío.

La experiencia nos dice que a pesar dedisponer de datos, el modelo cosmológicocorrecto no siempre resulta obvio. Recuérde-se que algunos astrofísicos recuperaron entre1940 y 1960 la idea de un universo eterno.El edificio de la cosmología observacionalse apoyaba por entonces sólo en el descu-brimiento de Hubble de la expansión del

universo. El universo se encontraba, decían,en un estado de continuo equilibrio. Se crea-ba materia mientras proseguía la expansión;por lo tanto, el universo, como un todo, nocambiaba con el tiempo. Esta idea, que acabóen un callejón sin salida intelectual, pone demanifiesto la clase de nociones equivocadasque pueden surgir cuando no hay datos ob-servacionales adecuados.

¿Dónde más podrían buscar los astrónomosdel futuro pruebas de la gran explosión? ¿Lespermitiría la radiación del fondo de microon-das examinar la dinámica del universo? No.

Con la expansión del universo las longitudesde onda de la radiación de fondo se estirantambién y la radiación se vuelve más difusa. A la edad de cien mil millones de años, laslongitudes de onda más intensas del fondo ten-drán una escala de un metro, correspondientea las radioondas y no a las microondas. Laintensidad de la radiación habrá caído a unabillonésima parte; podría dejar de observarsepara siempre.

Más lejos en el tiempo, el fondo cósmicollegará a ser completamente indetectable. Elespacio entre las estrellas de nuestra galaxia

se halla ocupado por un gas ionizado de elec-trones. Las radioondas de baja frecuencia nopueden penetrar en este gas; son absorbidaso reflejadas. Un efecto parecido constituye larazón de que se sintonicen de noche frecuen-cias de radio de AM lejos de las ciudades deorigen: las radioondas se reflejan en la ionos-fera y son devueltas a la superficie. El mediointerestelar viene a ser una gran ionosfera queimpregna la galaxia. Una radioonda de menosde un kilohertz de frecuencia (una longitudde onda superior a los 300 kilómetros) nopuede entrar en nuestra galaxia. No cabe en

la Vía Láctea una radioastronomía por debajo

del kilohertz. Cuando el universo alcance unaedad 25 veces superior a la actual, el fondo demicroondas se habrá dilatado por encima deesta longitud de onda y será indetectable paralos residentes de la galaxia. Antes incluso, lasdébiles estructuras de esta radiación de fondo,que tanta información han proporcionado a los

cosmólogos del presente, se habrán silenciadopara los investigadores.

Ardiendo¿Permitiría la medición de las cantidadesrelativas (“abundancias”) de los elementosquímicos conocer la gran explosión a loscosmólogos del futuro? Una vez más, la res-puesta es negativa. Podemos analizar la nu-cleosíntesis de la gran explosión porque lasconcentraciones de deuterio y helio no hanevolucionado mucho desde que se crearonsus núcleos, hace catorce mil millones de

años. Aunque el helio se fabrica en las es-trellas en el curso de las reacciones de fusiónnuclear, su concentración ha aumentado sóloen un porcentaje pequeño. Según los astró-nomos Fred Adams y Gregory Laughlin, dela Universidad de Michigan en Ann Arbor,esa fracción podría crecer hasta un 60 porciento tras muchas generaciones de estrellas.Un observador de un futuro distante encon-traría que el helio producido por generacionessucesivas de estrellas abundaría mucho másque el helio primordial.

Hoy día, la prueba más limpia de la nu-

cleosíntesis de la gran explosión la proporcionala cantidad relativa de deuterio. Nuestras mejo-res mediciones de la concentración de deuterioprimordial proceden de las observaciones de lasnubes de hidrógeno iluminadas, desde atrás,por cuásares, faros muy lejanos y brillantes po-siblemente encendidos por los agujeros negros.En el futuro lejano, lo mismo las nubes de gasque los cuásares habrán atravesado el horizontede sucesos y se habrán perdido de vista parasiempre. Sólo se observará el deuterio de lagalaxia. Pero las estrellas destruyen el deuterio;apenas sobrevive una pequeña cantidad. Aun

cuando los astrónomos del futuro observarandeuterio, no lo relacionarían con la gran ex-plosión. Las reacciones nucleares en las queintervienen rayos cósmicos de alta energía,estudiadas hoy como posible fuente de partedel deuterio observado, les parecerán un origenmás verosímil.

 Aunque las cantidades relativas de los ele-mentos ligeros no proporcionarán una pruebadirecta de una gran explosión caliente, sí ha-rán que la cosmología del futuro difiera de lacosmología ilusoria de un siglo. Astrónomos yfísicos que sepan de física nuclear deducirán

que las estrellas consumen material nuclear.   L   I   S   A   A   P   F   E   L   B   A   C   H   E   R

60%20% 20%

PERDIDA DE LOS

INDICIOS QUIMICOS

El universo contiene sobre todohidrógeno y helio producidos enlos tres primeros minutos de lagran explosión. Las estrellas hanconvertido parte del hidrógenoen helio, si bien en un porcentajepequeño. Las cantidades relativasde estos elementos representanuna prueba observacional crucialpara la teoría de la gran explo-sión. En el futuro, con la continuaproducción estelar de nuevomaterial, no será así.

76%

2%

24%

Gran explosión (+ unos minutos)

Día de hoy

1 billón de años

 Hidrógeno

Helio  Elementos más pesados  que el helio

28%70%

Page 22: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 22/9920  INVESTIGACION Y CIENCIA, mayo, 2008

Si supusiesen además, incorrectamente, que

todo el helio observado fue producido porgeneraciones anteriores de estrellas, podríanponer un límite superior a la edad del uni-verso. Llegarían a la conclusión de que suuniverso galáctico no es eterno, que su edades finita. Sin embargo, el origen de la ma-teria que estarían viendo seguiría siéndolesdesconocido.

¿Y la idea con la que empezaba este ar-tículo, que la teoría de la relatividad de Eins-tein predice un universo en expansión y, portanto, una gran explosión? Los habitantesdel universo en un futuro lejano deberían

hallarse capacitados para descubrir la teoría dela relatividad general a partir de medicionesprecisas de la gravedad de su propio sistemasolar. El uso de esta teoría para inferir la granexplosión, no obstante, descansa en las obser-vaciones de la macroestructura del universo.La teoría de Einstein predice un universoen expansión sólo si el universo es homogé-neo. El universo que nuestros descendientesexplorarán será de todo menos homogéneo.Consistirá en una isla de estrellas sumergidaen una vasta oscuridad. Se parecerá al univer-so isla de De Sitter. El futuro último que le

aguarda al universo observable es derrumbarse

sobre sí mismo hasta convertirse en un agujero

negro. Lo que le sucederá a nuestra galaxiaen un futuro lejano.

Solos en la nada¿No habrá forma de que nuestros descendien-tes perciban la expansión del universo? Másacá del horizonte de sucesos, un fenómenoseguirá delatando la aceleración, al menossegún entendemos ahora la relatividad gene-ral. Al igual que el horizonte de sucesos deun agujero negro, el horizonte cosmológicode sucesos también emite radiación. Pero latemperatura asociada a esta radiación es in-

mensurablemente pequeña, unos 10–30 kelvin. Aunque los astrónomos lograran detectarla,la atribuirían, quizás, a cualquier otra fuentemayor de ruido.

Los futuros observadores, si fuesen ambicio-sos, lanzarían sondas para que escaparan de lasupergalaxia y sirvieran de puntos de referenciade la expansión cósmica. Que se les ocurriesehacer tal cosa parece improbable. Ahora bien,incluso en el caso de que lo hiciesen, se ne-cesitarían miles de millones de años, por lomenos, para que una sonda alcanzara un puntodonde la expansión perturbase su velocidad

notablemente: además, la sonda debería tener    D   O

   N   D   I   X   O   N

FUNDIDO EN NEGRO

HITOS COSMICOS

10–30 segundosLa inflación cósmica

100 segundosSe crean el deuterio y el helio

400.000 añosSe libera la radiación de microondas

Ocho mil millones de añosLa expansión comienza a acelerarse

13.700.000.000 añosHoy día

Veinte mil millones de añosLa Vía Láctea y Andrómeda

colisionarán

100.000 millones de añosLas demás galaxias se harán

invisibles

1 billón de añosLos isótopos primordiales se habrán

perdido o se diluirán

100 billones de añosLa última estrella se agota

LA BANDA DIFUSA que cruza el cielo es el disco de la Vía Láctea. Unaspocas galaxias cercanas, como Andrómeda y las Nubes de Magallanes,son perceptibles a simple vista. Los telescopios revelan la existencia demiles de millones de galaxias más.

ANDROMEDA se ha ido moviendo hacia nosotros y ahorallena el cielo. El Sol ha evolucionado hacia la fase de giganteroja para después agotarse y dejar a la Tierra sumida en unaexistencia desolada.

AHORA TRANSCURRIDOS 5000 MILLONES DE AÑOS

Page 23: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 23/99INVESTIGACION Y CIENCIA, mayo, 2008 21

una energía equiparable a la de una estrella

para comunicarse con sus creadores desde unadistancia tan inmensa.

Por tanto, los observadores del futuro quizápredigan que el universo acabará con una grancontracción local; ignorarán la expansión eter-na que se deriva de la constante cosmológica.Su universo no se iría extinguiendo; terminaríaen una catástrofe.

Todo esto nos conduce inexorablemente auna conclusión muy peculiar. El intervalo enel que unos observadores inteligentes puedendeducir la verdadera naturaleza del universoen expansión tal vez sea muy corto. Algunas

civilizaciones podrían basarse en archivos his-tóricos antiguos; este mismo artículo podríaformar parte de ese archivo, si es que sobre-vive a miles de millones de años de guerras,supernovas, agujeros negros y otros incon-tables peligros. Que les resulten creíbles esotra cuestión. Las civilizaciones que carezcande ese tipo de archivos estarán condenadasa permanecer por siempre ignorantes de lagran explosión.

¿Por qué es el universo tan especial enel presente? Muchos opinan que la exis-tencia de la vida proporciona un efecto de

selección que explicaría las coincidencias

asociadas con el momento actual [véase  “El

principio antrópico”, por George Gale; I-  C, febrero de 1982].Nuestra reflexión nos conduce a una ense-ñanza diferente.

Primero, cabe que ésta no sea la prime-ra vez que la información del universo sepierde a causa de la expansión acelerada. Si,muy al principio, el universo pasó por unperíodo de inflación, la rápida expansión deaquella era borró del universo hoy observa-ble casi todos los detalles de la materia y laenergía preexistentes. Sin duda, una de lasmotivaciones iniciales de los modelos infla-

cionarios era liberar el universo de objetoscosmológicos problemáticos, por ejemplo losmonopolos magnéticos, que quizás abundaronen el pasado.

 Y una lección más importante. Si bien so-mos afortunados por vivir en un momento enel que ha sido posible dar con los pilares dela gran explosión, cabe imaginar que otros as-pectos fundamentales del universo han dejadode poder observarse. ¿Qué nos hemos perdido?Más que sentirnos orgullosos, deberíamos serhumildes. Quizás algún día descubramos quees mucho lo que ignoramos del universo ac-

tual, que tan bien creemos conocer.

LA SUCESORA de la Vía Láctea es una supergalaxiaen forma de bola. La Tierra podría flotar, abandonada,por sus aledaños. Las demás galaxias no están al alcancede la vista.

LAS LUCES SE APAGAN. Las últimas estrellas se agotan. Aparte de algu-nos agujeros negros, que brillarán débilmente, y de las luces artificialesque alguna civilización encendiese, el universo queda a oscuras. La ga-laxia se derrumbará sobre sí misma y se convertirá en un agujero negro.

TRANSCURRIDOS CIEN MIL MILLONES DE AÑOS TRANSCURRIDOS 100 BILLONES DE AÑOS

LIFE, THE UNIVERSE AND NOTH-

ING: LIFE AND DEATH IN AN EVER-

EXPANDING UNIVERSE. LawrenceKrauss y Glenn Starkman en

 Astrophysical Journal , vol. 531,n.o 22, págs 22-30; marzo 2000.

THE FIVE AGES OF THE UNIVERSE:

INSIDE THE PHYSICS OF ETERNITY.

Fred C. Adams y Greg Laughlin.Free Press, 2000.

ATOM: A SINGLE OXYGEN ATOM’S

JOURNEY FROM THE BIG BANG TO

LIFE ON EARTH ... AND BEYOND.Lawrence M. Krauss. Back BayBooks, 2002.

THE RETURN OF A STATIC UNI-

VERSE AND THE END OF COSMOL-

OGY. Lawrence M. Krauss yRobert J. Scherrer en Journal ofGeneral Relativity and Gravita-tion, vol. 39, n.o 10, págs.1545-1550; octubre 2007.

Bibliografíacomplementaria

Page 24: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 24/9922  INVESTIGACION Y CIENCIA, mayo, 2008

Page 25: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 25/99INVESTIGACION Y CIENCIA, mayo, 2008 23

   I   L   U   S   T   R   A   C   I   O   N   E   S   D   E   K   E   N   N   B   R   O   W   N

En la guerra, no hay que atacar en con-trapendiente a un enemigo que ocupe lasalturas. No hay que trabar combate cuandocargue partiendo de las alturas. Atráigaseleal combate en terreno llano.

—Sunzi, estratega militar chino Arte de la guerra , circa 500 a.C.

Desde la Antigüedad, adueñarse de las  alturas y conservarlas forma parte de  las doctrinas militares clásicas. No

nos extrañe, pues, que, ahora que los seres

humanos y sus máquinas han irrumpido enel espacio ultraterrestre, los jefes militaresconsideren las órbitas terrestres cruciales parala actividad guerrera. Pero hasta hace pocose había mantenido como norma no armarel espacio, pese a que no hubiera tratadosni leyes internacionales que explícitamenteprohibieran poner en órbita sistemas o armasno nucleares antisatélite. Los países en su ma-yoría rechazaban tales armas, por el temor ala posibilidad de desestabilizar el equilibrioglobal de poderes con una costosa carrera dearmamentos espaciales.

Ese consenso corre ahora peligro de desha-cerse. En octubre de 2006, la administraciónBush adoptó una nueva Política Nacional parael Espacio, formulada un tanto vagamente, quereivindica para EE.UU. el derecho a ejercerel “control del espacio” y rechaza “los nuevosregímenes legales u otras restricciones que pre-tendan prohibir o limitar el acceso o el uso delespacio por parte de Estados Unidos”.

Tres meses después, la República PopularChina conmocionó al mundo abatiendo unode sus propios satélites meteorológicos Fen-gyun, que van estando ya caducos, acto que

dio por resultado una granizada de peligrosa

basura espacial y un diluvio de protestas in-ternacionales, por no hablar de los chorrosde tinta vertidos en los círculos políticos ymilitares estadounidenses. El lanzamiento fuela primera prueba en más de dos decenios deun arma específicamente antisatélite. Chinaes el tercer país que exhibe un arma de esetipo, tras EE.UU. y la Federación Rusa. Sepreguntaron muchos observadores si la pruebano sería el primer paso de una era de guerraespacial en ciernes.

Sostienen los críticos que no está claroen absoluto que desarrollando los medios

para una guerra espacial se refuerce la se-guridad de un país. Después de todo, lossatélites e incluso las armas orbitales son,por su propia naturaleza, fáciles de locali-zar y rastrear, y es probable que persistanvulnerables a un ataque, cualesquiera quesean las defensas que se monten para pro-tegerlos. Además, desarrollar unos sistemasantisatélite desembocaría a buen seguro enuna carrera de armamentos, enormementecara y potencialmente desbocada, conformeotros países concluyeran que ellos, también,debían entrar en liza.

Los propios ensayos de los medios necesa-rios para librar batallas en el espacio —por nodecir nada de una verdadera batalla— gene-rarían unas enormes cantidades de restos queseguirían orbitando alrededor de la Tierra.Los impactos de esa basura espacial contrasatélites y vehículos espaciales tripulados aunas velocidades de varios kilómetros porsegundo amenazarían las telecomunicacionespor satélite, las predicciones meteorológicas, lanavegación de precisión, e incluso el mandoy control militar. Podrían devolver la econo-mía mundial al decenio de los cincuenta del

siglo pasado.

CONCEPTOS BASICOS

Aunque las “alturas” del

espacio parecen ofrecer

unas claras ventajas

militares, los gobiernos

se han venido resistiendo

a instalar armas en órbita

terrestre. Esa estrategia

prudente podría estar

cambiando.

La Política Nacional para

el Espacio adoptada por

EE.UU. en 2006 parecíaabrir el camino a una

ulterior militarización del

espacio. Poco después,

China ensayaba un misil

antisatélite lanzado desde

tierra.

Pero el armamento espa-

cial podría desencadenar

una costosa carrera arma-

mentística internacional.

Los satélites y las armas

espaciales seguirán siendo

vulnerables, cualesquieraque sean las defensas que

se provean.

Y la actividad bélica en

el espacio, o incluso las

pruebas “en vivo” de las

armas, podrían originar

tal cantidad de basura

espacial, que las órbitas

terrestres se volverían

intransitables para los

satélites civiles y las naves

espaciales tripuladas.

Un reciente cambio en la estrategia militar de EE.UU.y determinadas actuaciones chinas amenazan con iniciaruna nueva carrera de armamentos espacial. Pero, ¿beneficiaríaa algún país instalar armas en el espacio?

Theresa Hitchens

1. EL CONCEPTO DE ARMA ESPACIAL comprende toda una variedad de destructores

de satélites —proyectiles, armas de láser y de microondas—, así como armas lanza-

das desde el espacio contra objetivos en tierra, tales como los revienta-búnkeres de

tungsteno apodados “barras de Dios”.

Page 26: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 26/9924  INVESTIGACION Y CIENCIA, mayo, 2008

La vuelta de “La guerrade las galaxias”Desde el alba de la era espacial, los planifi-cadores de defensa vienen dándole vueltas alas armas antisatélite y a las emplazadas en elespacio, con miras a aprovechar las ventajasmilitares de la cota alta por antonomasia. Aca-

so el esfuerzo más destacado fuera la Iniciativade Defensa Estratégica, IDE, del presidenteReagan, burlonamente llamada “Guerra delas Galaxias” por sus críticos. La estrategiamilitar estadounidense no ha adoptado hastaahora armas de ese tipo.

Suele definirse a las armas espaciales comosistemas destructivos que operan en el espa-cio ultraterrestre estacionadas en órbita o trashaber sido lanzadas directamente desde tierra.La categoría incluye las armas antisatélite; lossistemas de láser en los que se combinan lá-seres basados en tierra con espejos instalados

en dirigibles o en satélites para reflejar unhaz láser más allá del horizonte terrestre; y lasplataformas orbitales que dispararían proyec-tiles o haces energéticos desde el espacio. (Esimportante señalar que todos los países evi-tarían, sin duda, el empleo de un cuarto tipo

de arma antisatélite, las explosiones nuclearesa gran altitud. El impulso electromagnéticoy la nube de partículas fuertemente cargadasprocedentes de una detonación de esa natu-raleza inutilizaría o destruiría casi todos lossatélites y vehículos espaciales tripulados enórbita [véase   “Explosiones nucleares en órbi-

ta”, por Daniel G. Dupont; I C, agosto 2004].)Pero cualquier cosa que se diga sobre armas

espaciales tropezará con una réplica política.No hace mucho, algunos de sus partidariostrataron de ampliar la lista que acabo deexponer para incluir dos técnicas ya exis-tentes, que implican atravesar el espacio: losmisiles balísticos intercontinentales (ICBM)y los sistemas de guerra electrónica basadosen tierra. Su existencia, así se aduce, quitasentido a toda consideración sobre si debenconstruirse o no sistemas de armas espacia-

les. Según la definición revisada, ya existen“armas espaciales”. Pero, cualquiera que seael significado exacto de la expresión “armasespaciales”, las cuestiones que éstas suscitantienen poco de nuevo para los grupos deexpertos y los círculos de Washington liga-dos a la planificación militar. ¿Es deseable,es siquiera viable, incorporar a la estrategiamilitar de Estados Unidos armas antisatélitey armas disparadas en órbita?

La nueva Política Nacional para el Espacio,combinada con el ensayo chino, apremia eldebate entre bastidores. Numerosos jefes mi-

litares norteamericanos expresaron su alarmatras el ensayo de los chinos. Les preocupabaque China, en un conflicto por Taiwán, pu-diera amenazar a los satélites estadounidensesen órbita terrestre baja. En abril de 2007,Michael Moseley, jefe del estado mayor de laFuerza Aérea de EE.UU., comparó la prue-ba antisatélite china con el lanzamiento delSputnik soviético en 1957, que intensificósingularmente la carrera de armas durantela guerra fría. Moseley reveló también queel Pentágono había empezado a revisar lasdefensas de los satélites del país; el espacio

ultraterrestre es ahora, afirmó, un “terrenoen disputa”.

En el Congreso, las reacciones fueron laspredecibles. Los “halcones de China”, conser-vadores como el senador por Arizona Jon Kyl,reclamaron enseguida el desarrollo de armasantisatélite e interceptores estacionados en elespacio para contrarrestar la capacidad china.Mientras tanto, políticos más moderados, en-tre ellos el miembro por Massachusetts de laCámara de Representantes Edward Markey,instaron a la administración Bush a iniciarnegociaciones al objeto de prohibir todas las

armas espaciales.

INTERCEPTORES CINETICOS

VIABILIDAD: Alta

PRESUPUESTOS ESTIMADOS (dólares)*:

Interceptor cinético con base en tierra (adaptación del programa  existente de defensa contra misiles balísticos): 0-3000 millones Interceptor cinético lanzado desde el aire: 3000 millones

Aparte de perturbar las radiocomunicaciones o atacar las estaciones de control

en tierra, posiblemente el modo más simple de inutilizar un satélite sea lanzar una

carga útil a bordo de un misil para que colisione con el blanco orbital. Los misiles de

alcance medio con que cuentan una docena

de países pueden alcanzar las órbitas

terrestres bajas (de 100 a 2000 kilómetros).

Los satélites que se hallen en esas órbitas

pueden ser atacados por pequeños vehícu-

los destructores lanzados desde el a ire. El

asalto a un objetivo en las más altas órbitas

geoestacionarias (unos 36.000 kilómetros)

requiere un motor de lanzamiento muchomás potente, que hoy sólo poseen ocho paí-

ses y consorcios espaciales. Pero la autén-

tica dificultad técnica consiste en guiar y

maniobrar, con la precisión necesaria, el

vehículo destructor hacia su blanco.

*Las estimaciones suelen incluir el desarrollo y los gastos de adquisición asociados a la construcción del sis-tema y a su mantenimiento en servicio durante 20 años.

FUENTE: Aiming the Heavens: A preliminary Assess-ment of the Potential Cost and Cost-Effectiveness ofSpace-Based Weapons , por Steven Kosiak. Centro deEstimaciones Estratégicas y Presupuestarias.

Page 27: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 27/99INVESTIGACION Y CIENCIA, mayo, 2008 25

El juego de las potenciasQuizá sea aún más inquietante que otros paí-ses, incluido el rival regional de China, la In-dia, pudieran sentirse impulsados a conseguiren el espacio capacidades no sólo defensivas,sino también ofensivas. A este respecto, elsemanario estadounidense Defense News   ci-

taba la declaración de responsables indios dedefensa, que mantenían oculta su identidad:su país había empezado ya a desarrollar suspropias armas antisatélite de energía cinética(no explosivas, sino de destrucción por im-pacto) y laséricas.

Si la India emprende ese camino, su archie-nemigo Pakistán seguirá el ejemplo. Como laIndia, Pakistán dispone de un programa demisiles balísticos avanzado, que incluye misilesbalísticos de alcance medio capaces de lanzarun sistema antisatélite. El propio Japón, latercera potencia asiática, podría unirse a tal

carrera espacial. En junio de 2007 la Dietanipona empezó a considerar un programa res-paldado por el gobierno de Fukuda que per-mitiría el desarrollo de satélites para propósitos“militares y de seguridad nacional”.

En cuanto a Rusia, tras la prueba de loschinos reiteró su postura contra la armamen-tización del espacio. Pero, a la vez, no quisocriticar los actos de Pekín y en cambio culpóa EE.UU. Los esfuerzos norteamericanos paraconstruir un sistema defensivo con misiles,acusó Putin, y los cada vez más agresivos planesde Estados Unidos de instalarse militarmente

en el espacio estaban provocando las reaccio-nes de China. Sin embargo, Rusia misma,como gran potencia presente en el espacioque ha incorporado satélites a su estructurade defensa nacional, se vería en apuros paraeludir su entrada en una carrera de armas enel espacio.

Dada la proliferación de agencias espaciales,los partidarios de una estrategia decidida deguerra espacial opinan que resulta inevitable lapresencia de armas en el firmamento y que lomejor para EE.UU. es llegar allí los primeros ybien armados. Las armas antisatélite y las esta-

cionadas en el espacio, aducen, serán necesariasno sólo para defender los satélites comercialesy militares estadounidenses, sino también paranegar a cualquier adversario el uso del espaciocon el fin de mejorar la operatividad de susfuerzas en el campo de batalla.

 Ahora bien, toda carrera armamentísticaen el espacio desestabilizaría casi con todaseguridad el equilibrio de las potencias, mul-tiplicando así los riesgos de conflicto global.En una competición tan apresurada —en elespacio o donde sea—, a duras penas podríamantenerse el equilibrio. Y aunque las primeras

potencias lograsen una situación de estabilidad,   E   S

   A

LOS ACTORES

Desde los inicios de la era

espacial, ha incrementado

la lista de países, entidades

multinacionales y consorcios

privados que se han mostrado

capaces de poner satélites en

órbita y, por tanto, en poten-

cia, de derribar uno de ellos.

La principal preocupación

entre los observadores es que

todo esfuerzo de EE.UU. por

desarrollar armas orbitales

impulsaría a la República

Popular China, la Federación

Rusa y otros a sumarse a una

costosa carrera de armas en

el espacio.

CON ARMAS ANTISATELI-TE BASADAS EN TIERRADEMOSTRADASChina, Rusia, EE.UU.

CON CAPACIDAD PARALLEGAR A ORBITASGEOESTACIONARIAS

(36.000 km de altitud)Agencia Espacial Europea

(Alemania, Austria, Bélgica,

Dinamarca, España, Finlan-

dia, Francia, Grecia, Irlanda,

Italia, Luxemburgo, Noruega,

Países Bajos, Portugal, Reino

Unido, Suecia, Suiza), Francia,

International Launch Services 

—Servicios Internacionales

de Lanzamientos— (Rusia,

EE.UU.), Japón, Sea Lunch 

—Lanzamientos desde el

Mar— (Noruega, Rusia,

EE.UU., Ucrania)

CON CAPACIDAD PARALLEGAR SOLO A ORBITASTERRESTRES BAJAS (entre100 y 2000 km de altitud)India, Israel, Pakistán,

Ucrania

Page 28: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 28/9926  INVESTIGACION Y CIENCIA, mayo, 2008

no estaría garantizado que ambos bandos lopercibieran de ese modo. En cuanto uno deellos creyera que perdía posiciones respectoal otro, se sentiría tentado a lanzar un ataquepreventivo, antes de que empeorasen las cosastodavía más. Irónicamente, lo mismo valdríapara el bando que creyera haber logrado una

ventaja. En este caso, experimentaría una fuer-te tentación de atacar primero, antes de quese recuperase el adversario. Por último, unacarrera de armamentos espacial incrementa-ría el riesgo de que un mero error técnicodesatara las hostilidades. En el vacío lejanocostaría mucho distinguir con nitidez un actointencionado de otro accidental.

Interceptores de impacto directoSegún estimaciones de responsables de las fuer-zas armadas y de la inteligencia de EE.UU., ytambién de expertos independientes, los chinos

debieron de destruir su satélite meteorológicocon un vehículo de energía cinética propulsadopor un misil balístico de dos etapas de alcancemedio. En principio, tales armas antisatélite deascenso directo constituyen el procedimientomás sencillo para eliminar satélites. Unos docepaíses y consorcios pueden llegar a las órbitasterrestres bajas (entre 100 y 2000 kilómetrosde altura, más o menos) con misiles de alcancemedio; ocho de esos países pueden alcanzarlas órbitas geoestacionarias (a unos 36.000kilómetros de la Tierra).

Pero la auténtica dificultad técnica de los ve-

hículos destructores por impacto no está en lacapacidad de lanzamiento, sino en las técnicasde maniobra y guiado de precisión necesariaspara dirigir el vehículo hasta el blanco. Hastaqué punto domina China esas técnicas no estámuy claro. Dado que el satélite meteorológicoseguía en servicio cuando fue destruido, losoperadores chinos debían de conocer su po-sición exacta en cada instante.

Láseres con base en tierraEl ensayo del ingenio antisatélite chino deascensión directa siguió casi inmediatamente a

unas noticias de septiembre de 2006, según lascuales los chinos habrían conseguido “pintar”—iluminar— los satélites espía norteamerica-nos con un láser de base en tierra. ¿Tratabarealmente Pekín de “cegar” los satélites o da-ñarlos de alguna otra manera? No se sabe.En Washington no parece que haya consensoacerca de las intenciones chinas. Quizá Chinasimplemente estaba probando qué tal iban susestaciones de seguimiento por láser de bajapotencia con las plataformas norteamericanasde observación orbital.

 Aun así, la prueba constituyó una pro-

vocación. No siempre hay que “freír” elec-

trónicamente un satélite para dejarlo fuerade servicio. La prueba del sistema MIRACL(“MidInfraRed Advanced Chemical Laser”,láser químico avanzado del infrarrojo medio)que el ejército de Estados Unidos efectuóen 1997 mostró que los satélites diseñadospara recoger imágenes ópticas pueden quedar

temporalmente inutilizados —saturados— porhaces de baja potencia. Los espías orbitalesse cuentan entre los satélites vulnerables aesos ataques.

En los años setenta, EE.UU. y la ex UniónSoviética iniciaron la experimentación con ar-mas láser antisatélite. Los expertos de ambospaíses se centraron en los numerosos proble-mas implicados en la construcción de unossistemas de láser de alta potencia que tuvieranuna capacidad fiable de destruir, desde tierra,satélites de baja altitud. Esos sistemas seríanguiados mediante “óptica adaptativa”: espe-

 jos deformables y preparados para compensarcontinuamente las distorsiones atmosféricas.Pero los láseres de alta potencia consumiríancantidades ingentes de energía, y aun así elalcance y la efectividad de los haces se veríangravemente limitados por la dispersión, por laatenuación al atravesar humos y nubes, y porla dificultad de mantener el haz sobre el blancoel tiempo suficiente para causar daños.

Durante el desarrollo de la IDE, EE.UU.llevó a cabo varios experimentos con láserdesde Hawai. En un ensayo se hacía que unhaz rebotase en un espejo montado en un sa-

télite. Siguen realizándose experimentos conláseres en el Polígono Optico Starfire, de labase Kirtland de la Fuerza Aérea, en NuevoMéxico. La documentación presupuestaria delPentágono de los años fiscales 2004 a 2007incluía, entre los objetivos de las investigacio-nes del Starfire, las operaciones antisatélite,lo que quedó suprimido en los documentospresupuestarios del año fiscal 2008 despuésde que el Congreso hiciera averiguaciones.El sistema de Starfire incorpora una ópticaadaptativa que estrecha el haz láser emitido yaumenta así la concentración de energía. Esta

característica no es necesaria para la forma-ción de imágenes, ni para el seguimiento detrayectorias, un indicio más de que el Starfirepodría emplearse como arma.

Pese a decenios de trabajos, las versionesaptas para el combate de armas de energíadirigida parecen lejanas, de momento. Ciertodocumento de planificación de la fuerza aéreapredecía en 2003 que un arma con base entierra capaz de “lanzar rayos láser a la atmósferapara [aturdir o aniquilar] satélites [de órbitabaja]” podría estar disponible entre 2015 y2030. Dado el estado actual de las investiga-

ciones, esas fechas parecen optimistas.

EL ALEGATO

EN CONTRA

1 Es muy probable que

todos los satélites y las

armas basadas en el espacio

sigan siendo muy vulnerables

a los ataques.

2 El desarrollo de armas

antisatélite avanzadas

desencadenará probable-

mente una nueva carrera de

armamentos internacional.

3 El costo de las armas

espaciales es enorme.

4 Las pruebas y la utiliza-

ción de las armas espa-

ciales podría dejar ingentes

cantidades de desechos en

órbita, una auténtica amena-

za contra los satélites y naves

espaciales tripuladas.

Page 29: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 29/99INVESTIGACION Y CIENCIA, mayo, 2008 27

Satélites co-orbitales Adelantos recientes en sensores miniaturi-zados, ordenadores embarcados de gran po-tencia y motores cohete de alto rendimientohan hecho cada vez más viable una terceratécnica antisatélite: el microsatélite ofensivo(véase el recuadro  “Satélites co-orbitales”).

Un ejemplo de la potencialidad de éste noslo ofrece el proyecto Serie de Satélites Ex-perimentales (XSS) de la Fuerza Aérea, queestá desarrollando microsatélites que ejecu-ten “operaciones autónomas de proximidad”en derredor de satélites de mayor tamaño.Los primeros microsatélites del programa,los XSS-10 y XSS-11, fueron lanzados en2003 y 2005. Aparentemente destinados ainspeccionar satélites mayores, esos micro-satélites podrían también tomar como blancode una embestida a otros satélites o transpor-tar explosivos o equipos de energía dirigida,

tales como sistemas de radiointerferencia oemisores de microondas de gran potencia.Los documentos presupuestarios de la fuerzaaérea muestran que la XSS está vinculada aun programa, denominado Técnicas de Armas

 Avanzadas, dedicado a la investigación sobresistemas militares de láser y microondas.

Durante la guerra fría, la Unión Soviéticadesarrolló, ensayó e incluso declaró operativoun sistema co-orbital antisatélite, un intercep-tor maniobrable con una carga útil explosivaque se lanzaba desde un misil para colocarloen una órbita cercana a un satélite blanco en

órbita terrestre baja. El ingenio venía a seruna “mina espacial” inteligente. Se probó en1987 por última vez y probablemente ya noesté operativo. Hoy un interceptor de ese tiposería posiblemente un microsatélite que se esta-cionaría en una órbita que se cruzaría con lasórbitas de varios de sus objetivos potenciales.Podría entonces activarse a voluntad duranteuna aproximación.

En 2005 la fuerza aérea expuso un progra-ma que proporcionaría “conciencia situacionallocalizada” en el espacio y “caracterización deanomalías” para satélites anfitriones amisto-

sos en órbita geoestacionaria. El programa seconoce como ANGELS (autonomous nanosate-llite guardian for evaluating local space , guar-dián autónomo nanosatélite para evaluaciónespacial local), y el renglón presupuestarioque, según se cree, se refiere a él se centra enla consecución de “capacidades de evaluaciónespacial de alto valor para la defensa”, inclui-do un “sensor de alerta para detección devehículos de ascensión directa o co-orbitales”.Es evidente que tales nanosatélites guardia-nes podrían servir, adecuadamente manejadosen las cercanías de satélites enemigos, como

armas ofensivas.

SISTEMAS DE ENERGIA DIRIGIDA

VIABILIDAD: Media

PRESUPUESTOS ESTIMADOS (dólares): Láser emplazado en tierra

  4000-6000 millones

Láser emplazado en el espacio:

  (de potencia baja a alta):

  3000-60.000 millones

Emisor de microondas

  emplazado en el espacio:

  200-5000 millones

Haces de láser procedentes de tierra guia-

dos con precisión hacia el blanco mediante

óptica adaptativa (espejos deformables

que compensan la perturbación atmosfé-

rica) podrían saturar, inutilizar o destruirsatélites de órbita terrestre baja . Los láseres

de potencia media podrían “deslumbrar” a

los satélites de toma de imágenes ópticas o

dañar sus detectores sensibles. Los láseres de

alta potencia “freirían” los satélites dañando

su electrónica e incluso perforando su fusela-

 je. Como en cualquier momento los blancos or-

bitales rápidos se hallan en su mayoría sobre

el horizonte terrestre, las bases de tierra

podrían también dirigir haces de láser

hacia espejos de transferencia, monta-

dos en dirigibles o en satélites, que

redirigirían los haces hacia los

blancos.

SATELITES

CO-ORBITALES

VIABILIDAD: Media-Alta

PRESUPUESTOS ESTIMADOS (dólares):

Interceptor emplazado en el espacio (cinético  o de otro tipo): 5000-19.000 millones

Perturbador de radiofrecuencias emplazado

  en el espacio: no disponible

Mina espacial: 100-2000 millones

Las armas antisatélite de pequeño ta-

maño, o microsatélites, serían transpor-

tadas hasta las mismas órbitas que sus

objetivos, donde los seguirían muy de

cerca o se adherirían a ellos. Ya situadas,

esas “minas espaciales” podrían realizar

el ataque, al recibir la orden, con explo-

sivos, pequeños proyectiles, sistemasperturbadores de radiofrecuencia o emi-

sores de microondas de gran potencia, o

simplemente colisionando con el blanco.

En uno de los primeros diseños, la basura

espacial resultante se recogía en el llama-

do matamoscas, o gran red (derecha).

Page 30: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 30/9928  INVESTIGACION Y CIENCIA, mayo, 2008

La lista sigue. Un “satélite parásito” se pe-

garía a los talones e incluso se adheriría a unobjetivo en órbita geoestacionaria. El Farsat,mencionado en un apéndice al informe de2001 de la Comisión [Donald] Rumsfeldpara el Espacio, “se estacionaría en una ór-bita ‘almacén’ (quizá con muchos microsaté-lites en su interior), relativamente lejos de suobjetivo, aunque listo para una maniobra deimpacto”.

Por último, hace algún tiempo la fuerzaaérea propuso un sistema de armas de ra-diofrecuencia emplazado en el espacio, “unaconstelación de satélites dotados de trans-

misores de radiofrecuencia de gran potenciacon la capacidad de desorganizar, destruir oinutilizar una amplia variedad de equiposelectrónicos y sistemas de mando y controlde nivel nacional”.

Los documentos de planificación de la fuer-za aérea posteriores a 2002 preveían que tales

técnicas surgirían después de 2015. Pero ex-pertos externos creen que las armas orbi-

tales de radiofrecuencia y microondasya son hoy técnicamente viables ypodrían desplegarse en un futuro

próximo.

Bombarderos espaciales Aunque no se le define como arma espa-cial, el Vehículo Aéreo Común o Vehículo deTécnica Hipersónica (CAV), del Pentágono,entra en esta exposición porque, lo mismo

que un ICBM, atravesaría el espacioy golpearía objetivos terrestres. Se

trata de un vehículo hipersónicoplaneador, no propulsado pero muy

maniobrable, que se desplegaría desde unavión espacial hipersónico, se zambulliría enla atmósfera y dejaría caer bombas convencio-nales sobre blancos terrestres. Recientemente,

el Congreso empezó a dotar de fondos alproyecto; mas, para no atizar una potencialcarrera de armamentos en el espacio, ha pro-hibido todo trabajo encaminado a instalararmas en el CAV. Aunque los técnicos estánavanzando sin pausa en las técnicas básicasde este programa, tanto el vehículo como suavión espacial nodriza se hallan a deceniosvista, se supone.

Parte de la sensibilidad del Congreso anteel diseño del CAV puede deberse a otra ideade arma espacial mucho más controvertida, sibien con propósito parejo: los haces de barras

hiperveloces que se lanzarían sobre la Tierradesde plataformas espaciales. Hace deceniosque los ingenieros de la Fuerza Aérea piensanen cómo situar en órbita unas armas que pu-dieran atacar blancos terrestres, en particularbúnkeres enterrados “reforzados” y escondri-

 jos de armas de destrucción masiva. Común-

OTROS SISTEMAS ANTISATELITE

Posiblemente, la mayoría de las principales potencias militares ha experimentado con siste-

mas de radiofrecuencia basados en tierra capaces de inutilizar los sistemas de comunicaciones

de los satélites. Además, todos los países poseedores de misiles balísticos con ojiva nuclearpodrían detonar un arma atómica en órbita, lo que causaría estragos entre la mayoría de los

satélites y vehículos espaciales.

PRESUPUESTOS ESTIMADOS:

Perturbador de radiofrecuencias basado en tierra:  decenas de millones de dólares Arma nuclear (para países ya poseedores  de misiles con ojivas nucleares): mínimo

VIABILIDAD: Baja

PRESUPUESTO ESTIMADO (dólares):

Bombardero espacial: 4000 millones

BOMBARDEROS ESPACIALES

El Vehículo Aéreo Común o Vehículode Técnica Hipersónica, del Pentá-

gono, no es por definición un arma

espacial, pero para atacar un blanco en

tierra a la hora o dos de su despliegue

atravesaría el espacio ultraterrestre.

Podría ser situado en órbita desde un

avión espacial hipersónico. A continua-

ción planearía sin propulsión a través de

la atmósfera hasta lanzar su munición

convencional sobre objetivos en tierra.

Page 31: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 31/99INVESTIGACION Y CIENCIA, mayo, 2008 29

mente conocidos como “barras de Dios”, loshaces estarían formados por largas barras detungsteno, de hasta seis metros de longitudy 30 centímetros de anchura. Cada una se-ría arrojada a gran velocidad desde una naveespacial en orbita y guiada hacia su blanco auna velocidad impresionante.

Pero los costes y las leyes de la física obs-

taculizan su viabilidad. Asegurar que la fric-ción de reentrada no vaporice ni deforme losproyectiles a la vez que éstos mantienen unatrayectoria de vuelo precisa y casi vertical,sería dificilísimo. Indican los cálculos que laeficacia de las barras no explosivas resultaríasimilar a las municiones corrientes. Además,resultarían exorbitantes los gastos de subirhasta alturas orbitales unos proyectiles de talpeso. Por tanto, pese al incesante interés quedespiertan, las barras de Dios parecen seguiren el ámbito de la ciencia ficción.

Obstáculos de las armas espacialesEntonces, ¿qué impide a EE.UU. (y a otrospaíses) perseguir decididamente la construc-ción de armas espaciales? La presión en contraes triple: oposición política, dificultades téc-nicas y costos elevados.

La ciudadanía norteamericana está profun-damente dividida sobre el acierto o no deincorporar la guerra espacial a la estrategianacional militar. Los riesgos son múltiples. Yahe comentado antes las inestabilidades propiasde una carrera armamentística, pero cuandose trata de potencias nucleares hay una cues-

tión adicional, relativa a la estabilidad. Desde

siempre, los satélites espía y de alerta precozdesempeñaron un papel crucial en rebajar eltemor a un ataque nuclear por sorpresa. Pero silas armas antisatélite los inutilizasen, la incer-tidumbre y desconfianza consiguientes podríandesembocar en una catástrofe.

Uno de los retos técnicos más graves queplantean las armas espaciales es la prolifera-

ción de basura espacial, a la que aludí antes.Según investigadores de la fuerza aérea, dela NASA y de Celestrak (un sitio indepen-diente en la Red, con información sobre lossatélites en órbita), la prueba de los chinosdejó como restos una nube de más de 2000trozos del tamaño de pelotas de béisbol omayores, que giraban en órbita alrededordel planeta a una altitud variable, entre 200y 4000 kilómetros. Quizá quedaran sueltosotros 150.000 objetos de un centímetro omás de sección. Las altas velocidades orbi-tales hacen que incluso los más minúsculos

desechos espaciales resulten peligrosos paralas naves espaciales de todo tipo.

Las estaciones terrestres no pueden contro-lar ni rastrear fiablemente objetos en órbitaterrestre baja de tamaño inferior a unos cincocentímetros (del orden de un metro en órbitageoestacionaria) para posibilitar las maniobraselusivas de los satélites. De hecho, para noser dañados por la basura espacial china, dossatélites estadounidenses tuvieron que alterarel rumbo. Los disparos de una guerra en elespacio convertiría éste en un entorno con-taminado, no apto para la navegación de los

satélites de órbita terrestre.   O   F

   I   C   I   N   A   D   E   L   P   R   O   G   R   A   M   A   D   E   R   E   S   I   D   U   O   S   O   R   B   I   T   A   L   E   S   D   E   L   A   N   A   S   A

CUANDO EL POLVO

NO SE DESPEJA

Un conflicto militar en el espacio podría

liberar una nube de desechos capaz de dañar

o destruir los satélites y las naves espacialestripuladas que circunvuelan la Tierra. A velo-

cidades orbitales, incluso los más minúsculos

objetos podrían penetrar a fondo en un

vehículo y destrozar equipos vitales (derecha).

Los resultados de una detonación nuclear en

el espacio podrían ser aún peores: el impulso

electromagnético y la descarga de partículas

cargadas degradarían casi por completo inclu-

so los sistemas electrónicos mejor apantalla-

dos que hubiera en órbita. Una guerra en el

espacio podría devolver la economía mundial

a los años cincuenta del siglo pasado, pues las

comunicaciones, la navegación, la meteoro-

logía y otros servicios avanzados vía satéliteresultarían impracticables durante años.

2. PERFORACION en el

satélite Solar Maximum

Mission tras una colisión con

basura espacial minúscula.

Theresa Hitchens dirige el Cen-

tro de Información de Defensa en

Washington, D.C., y es responsa-ble de su Proyecto de Seguridad

en el Espacio, en cooperación

con la Fundación Secure World.

Es autora de Future Security in

 Space: Charting a Cooperati ve

Course (2004) y fue directora de

 Defense News entre 1998 y 2000.

Se ha especializado en las fuerzas

armadas, la industria de defensa

y asuntos de la OTAN. En fechas

más recientes, Hitchens prestó

sus servicios como directora de

investigación del Consejo Anglo-

Americano de Información sobre

Seguridad, un comité de expertos.

La autora

Page 32: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 32/9930  INVESTIGACION Y CIENCIA, mayo, 2008

Emplazar las armas en órbitas presentatambién unos difíciles obstáculos técnicos.Resultarían tan vulnerables como los satélitesa toda clase de agentes externos: basura es-pacial, proyectiles, señales electromagnéticas,incluso micrometeoritos naturales. Protegerlas armas espaciales de esas amenazas sería

además impracticable, sobre todo porque serequerirían unas protecciones voluminosas,que supondrían una masa adicional, con lamultiplicación consiguiente de los costos delanzamiento. Las armas orbitales serían esen-cialmente mecanismos autónomos, que co-meterían errores operativos y probablementesufrirían averías. Puesto que no resulta de-masiado difícil predecir las trayectorias de losobjetos en órbita, no podrían disimularse talesarmas voluminosas. Y como los satélites enórbita terrestre baja se sitúan en la vertical sólounos pocos minutos cada vez, mantener uno

de ellos constantemente al alcance requeriríaun gran número de armas.

Por último, está el alto precio de llegar alespacio y operar allí; se cifra entre 4000 y20.000 dólares por kilogramo para alcanzarlas órbitas terrestres bajas y entre 30.000 y40.000 dólares por kilogramo para las órbitasgeoestacionarias. Cada arma instalada en elespacio requeriría su sustitución en períodos deentre siete y 15 años; tampoco serían barataslas reparaciones en órbita.

Alternativas a la guerra en el espacio

Dados los riesgos de la guerra espacial para laseguridad nacional e internacional, así comolos obstáculos técnicos y financieros a superar,resultaría como mínimo prudente que los paí-ses presentes en el espacio hallaran un modode prevenir una carrera armamentística en él.EE.UU. se ha orientado a la reducción dela vulnerabilidad de su flota de satélites y aexaminar opciones alternativas que lo liberende la dependencia de los servicios vía satélite.En cambio, la mayoría de los demás paísescon capacidad espacial están a la busca demedidas multilaterales diplomáticas y legales.

Las opciones abarcan desde tratados que pro-hibirían las armas antisatélite y las emplazadasen el espacio hasta medidas voluntarias quecontribuirían a consolidar la transparencia yla confianza mutua.

La administración Bush se ha opuestofirmemente a cualquier clase de negociaciónsobre armas espaciales. Los contrarios a losacuerdos multilaterales sobre la cuestión sos-tienen que las otras partes (particularmenteChina) se sumarán, aunque seguirán abas-teciendo sus arsenales secretos, pues esasviolaciones del tratado no pueden detectar-

se. Alegan, además, que EE.UU. no puede

permanecer inactivo mientras sus adversariospotenciales se hacen con unos recursos es-paciales que podrían reforzar su capacidadofensiva en tierra.

Los partidarios de los tratados interna-cionales replican que, si no se negocian esosacuerdos, se perderán muchas posibilidades.

Una carrera de armamentos en el espacio po-dría acabar comprometiendo la seguridad detodos los países, incluida la de EE.UU., a lavez que tensaría las capacidades económicasde los competidores hasta el punto de rup-tura. Y mientras muchos defensores de unaprohibición de armas espaciales admiten queserá difícil elaborar un tratado totalmenteverificable —puesto que la técnica espacialpuede emplearse para fines tanto civiles comomilitares—, ya existen tratados en vigor queno requieren una verificación estricta. Un buenejemplo de ello es la Convención sobre Armas

Biológicas.Ciertamente, una prohibición de pruebas

y empleo (no del despliegue) de la clase dearmas espaciales más peligrosas a corto pla-zo —los sistemas antisatélite destructivos (envez de los perturbadores)— sería fácilmenteverificable, porque los observadores en tierrapueden detectar la basura orbital. Además,todo signatario de un tratado sabría que todossus lanzamientos serían rastreados desde tierray que todo objeto sospechoso en órbita seríaetiquetado como tal de inmediato. El clamorinternacional que resultaría de unas violaciones

tan patentes del tratado podría disuadir a losvioladores en ciernes.

Pero desde mediados de los noventa no seprogresa para establecer un nuevo régimenespacial multilateral. EE.UU. ha bloqueado enla Conferencia de las Naciones Unidas sobreDesarme, en Ginebra, los esfuerzos para iniciarnegociaciones sobre un tratado de prohibiciónde armas espaciales. China, mientras, ha rehu-sado aceptar nada que sea menos que eso. Portanto, siguen estancadas medidas intermedias,tales como la construcción voluntaria de unmarco de confianza, el control del tráfico es-

pacial o un código de conducta responsablepara los países presentes en el espacio.

La guerra en el espacio no es inevitable.Pero el reciente cambio en la política deEE.UU. y los actos provocativos de Chinahan puesto de relieve que el mundo se acercaa una encrucijada. Los países deben hacercuestión de interés propio la prevención delas pruebas y el empleo de armas orbitales.Los gobiernos deben decidir sin tardanza sies posible mantener una exploración del es-pacio pacífica que ya ha durado medio siglo.Cualquier opción alternativa sería inacepta-

ble para todos.

REPORT OF THE COMMISSION TO

ASSESS UNITED STATES NATIONAL

SECURITY SPACE MANAGEMENT

AND ORGANIZATION. Informede la Comisión Rumsfeld parael Espacio, 2001. Disponibleen www.fas.org/spp/military/commission/report.htm

THE U.S. AIR FORCE TRANSFOR-

MATION FLIGHT PLAN. FutureConcepts and TranformationDivision, noviembre 2003. Dis-ponible en www.af.mil/library/posture/AF_TRANS_FLIGHT_PLAN-2003.pdf 

THE PHYSICS OF SPACE SECURITY:

A REFERENCE MANUAL. DavidWright, Laura Grego y LisbethGronlund. American Academyof Arts and Sciences, 2005.

CHINA’S ASAT TEST: MOTIVATIONS

AND IMPLICATIONS. PhilipC. Saunders y Charles D. Lutes.Informe especial del INSS,Institute for National StrategicStudies. National DefenseUniversity, 2007.

Centro de Información deDefensa del Instituto Mundialde seguridad: www.cdi.org

Bibliografíacomplementaria

Page 33: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 33/99INVESTIGACION Y CIENCIA, mayo, 2008 31

Cuando las aves evolucionaron a partir delos reptiles, hace entre 100 y 200 millo-nes de años, nacía el océano Atlántico.

Su formación señalaba la destrucción de unsupercontinente, Pangea, en el que todos loscontinentes de la Tierra se habían reunido paraformar una isla gigante rodeada por un océanoglobal. Pangea no es el único supercontinentede la historia de la Tierra, pero sí el más recien-

te. Las masas continentales actuales han deri-vado alrededor del globo terráqueo chocandounas con otras y separándose posteriormentevarias veces durante los últimos 3000 millonesde años. Esos ciclos de confrontación y dis-persión continental han afectado a la cortezaterrestre, el manto subyacente, la atmósfera,el clima y la vida en el planeta.

De la misma forma que las colisiones con-tinentales originan cadenas montañosas, las ro-turas generan profundos valles intracontinen-tales (rifts , como el Gran Valle del Rift en eleste del continente africano) o, si la separación

va a más, cuencas oceánicas. Pero no todos losocéanos se crean por la rotura y separaciónde grandes bloques continentales. Algunos seforman cuando pequeños y estrechos “micro-continentes” (del tamaño y forma de NuevaZelanda o Japón) se desgajan del margen deun bloque continental y se alejan, creando trassu paso una nueva cuenca oceánica. Stephen

 Johnston, de la Universidad de Victoria, llamaa esos esbeltos titanes “continentes acintados”(“ribbon continents”); junto con las cuencasoceánicas asociadas a su origen, desempeñanuna función fundamental en la dinámica de

la corteza terrestre.

Nuestro grupo ha investigado la formaciónde un cuerpo oceánico extinto: el océano Rei-co, que nació hace unos 500 millones de años.Debe su nombre a Rea, esposa de Cronos ymadre de Zeus en la mitología griega. Eseocéano se creó cuando dos continentes acin-tados, Avalonia y Carolina, se desprendierondel margen septentrional de Gondwana (unantiguo continente de enorme extensión que

incluía las actuales Africa, Sudamérica, India, Australia y Antártida). La colisión continentalque selló el cierre del océano Reico, hace entreunos 350 y 300 millones de años, constitu-yó uno de los episodios fundamentales de laformación de Pangea.

 Aunque se conocen las masas continen-tales que rodeaban el océano Reico y loshitos temporales que marcan su nacimientoy muerte, hasta fecha reciente no se habíanidentificado sus márgenes; tampoco las causas,los mecanismos y el momento del inicio de suapertura; ni la razón por la cual las tensiones

que determinaron su apertura se invirtierontras unos centenares de millones de años ylo cerraron de nuevo. Cuestiones todas ellasfundamentales para la geología.

Nuestras investigaciones muestran queel desgajamiento de Avalonia y Carolina deGondwana ocurrió a lo largo de una “cica-triz” de la corteza, una línea cuya estructurase hallaba debilitada tras haber sufrido, haceunos 650 millones de años, un episodio previode orogénesis. El hallazgo reviste suma im-portancia: sugiere que las zonas de debilidadpreexistentes, próximas a los bordes continen-

tales, controlan la creación y el movimiento de

CONCEPTOS BASICOS

Las masas continentales

actuales han derivadoalrededor del globo

terráqueo chocando unas

con otras y separándose

luego varias veces durante

los últimos 3000 millones

de años.

El océano Reico, ahora ex-

tinto, nació hace unos 500

millones de años. Estudios

geoquímicos y paleomag-

néticos indican que se

creó por el desgajamiento

de Avalonia y Carolina,dos continentes acintados

del margen septentrional

del supercontinente Gond-

wana.

La tracción de una placa

en subducción causó la

reapertura de una antigua

sutura, una zona de de-

bilidad cortical generada

por un episodio previo de

orogénesis ocurrido 150

millones de años antes.

Las cicatrices de antiguas colisiones marcan el camino

por donde los continentes vuelven a romperse

J. Brendan Murphy, Gabriel Gutiérrez Alonso, R. Damian Nance,

Javier Fernández Suárez, J. Duncan Keppie, Cecilio Quesada,

Rob A. Strachan y Jaroslav Dostal

Page 34: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 34/9932  INVESTIGACION Y CIENCIA, mayo, 2008

   F   O

   T   O   G   R   A   F   I   A   D   E   L   O   S   A   U   T   O   R   E   S   /   A   m   e   r   i   c   a   n   S   c   i   e   n   t   i   s   t

los continentes acintados. Y determinan, portanto, los lugares donde se generarán nuevosocéanos. Si estamos en lo cierto, es probableque la geografía moderna refleje una red decicatrices de la corteza, formadas durante su-cesivas fases previas de actividad tectónica.

Geología del océano ReicoLa colisión entre masas continentales que cerróel océano Reico corresponde a la culminaciónde un largo período orogénico en el margenseptentrional de Gondwana. Las tensiones im-plicadas crearon la cadena de los Apalaches en

Norteamérica oriental, las montañas Variscasen Europa (cuyos fragmentos se encuentranrepartidos desde la Península Ibérica y GranBretaña hasta Turquía), las montañas del Anti-

 Atlas en el noroeste de Africa (Marruecos) y losancestrales Andes septentrionales (Venezuelay Colombia). Al par que esas montañas ibanemergiendo, cifraban la información que nospermite conocer hoy la evolución del océanoReico.

Sin embargo, la rotura y desmembramientode Pangea dispersó esos terrenos , o porcionesde corteza continental, en un área extensa. Se

ha destruido la mayoría de las pruebas de la

existencia del océano Reico. Casi todas las rocasque formaron parte del fondo desaparecieronpor subducción (se deslizaron por debajo dealguna de las placas vecinas, donde en ocasionesse fundieron con el manto viscoso del interiorde la Tierra). Reconstruir la geología del océa-no Reico viene a ser, pues, como resolver un“sudoku” con demasiados cuadros en blanco.Con todo, merced al trabajo de los geólogosdurante los últimos 40 años, se ha identificadouna serie de yacimientos clave que arrojan luzsobre la historia de ese océano extinto.

Las zonas de debilidad cortical que determi-

naron el origen del océano Reico se generarondurante eventos tectónicos acaecidos con mu-cha anterioridad. Para entender las tensionesque influyeron en la formación del océano Rei-co debemos retrotraernos hasta hace entre 650y 500 millones de años, cuando los márgenesamazónicos y africanos de Gondwana (su lí-mite septentrional en las coordenadas actuales)sufrieron cambios de gran complejidad.

La mayoría de los geólogos piensan que,al tiempo que se constituía Gondwana, haceentre 600 y 550 millones de años, una impo-nente masa continental se separó del este de

Gondwana, donde se encontraba Amazonia

1. LA COLISION DE LAS PLACASTECTONICAS produce tensio-

nes y calor que resultan en la

deformación de los continentes.

Este afloramiento en la costa

de Cornualles, en el sudeste del

Reino Unido, muestra un plega-

miento causado por el calor y la

presión asociados a la colisión

de las placas.

Page 35: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 35/99INVESTIGACION Y CIENCIA, mayo, 2008 33

(la parte norte de Sudamérica), creandolos continentes de Laurencia (el germende Norteamérica) y Báltica (la actual Es-candinavia y parte de Rusia). La derivade esos continentes, que se alejaban deGondwana, dio lugar al océano Jápeto(en la mitología griega, hermano de Rea

y padre de Atlas, quien dio nombre alocéano Atlántico).La evolución del margen septentrio-

nal de Gondwana guarda semejanza conla que experimentan hoy las MontañasRocosas de Norteamérica y los Andesde Sudamérica. La geología de esos tresenclaves (dos modernos y otro ancestral)entraña la subducción de corteza oceá-nica y la separación de bloques conti-nentales (como Baja California), con laconsiguiente generación de grandes can-tidades de magma (rocas fundidas). La

composición química de las rocas ígneas(rocas resultantes del enfriamiento y soli-dificación del magma) que se generaronen el margen de Gondwana es semejantea la composición de las rocas ígneas delos Andes; ambas son características delmagma creado por encima de una zonade subducción.

Ese margen aflora hoy, en forma deterrenos, en cinturones orogénicos  (cadenasde montañas o los restos de las mismasuna vez erosionadas) más jóvenes; sinembargo, la asociación anterior de estos

terrenos con el margen de Gondwanase basa en las semejanzas halladas en lalitología y en el registro fósil. Tambiénlos estudios paleomagnéticos, que exa-minan la orientación de los mineralesmagnéticos en las rocas, indican queesos terrenos se formaron a la mismalatitud que el margen septentrional deGondwana. Los restos de esos antiguosvolcanes y cámaras magmáticas, ahora vi-sibles merced al levantamiento y erosiónde la corteza, muestran que la actividadmagmática terminó hace entre 600 y 540

millones de años, probablemente debidoal desarrollo de un sistema de fallas aso-ciado a la colisión de una dorsal oceánicacontra la zona de subducción.

Esa situación guarda semejanza conla colisión que se produjo, hace unos30 millones de años, entre la dorsal delocéano Pacífico Oriental y una zona desubducción en el oeste de Norteamérica:originó la falla de San Andrés y provocóla desaparición del magmatismo relacio-nado con la subducción en el sudoestede los EE.UU. y el noroeste de México.

Durante ese intervalo temporal, a lo largo

del margen septentrional de Gondwana,algunos terrenos fueron transportados agrandes distancias (hasta miles de kiló-metros) en paralelo al mismo, de maneraparecida a lo que ocurre hoy en la costaoccidental de Norteamérica, a lo largo dela falla de San Andrés.

Hace entre 540 y 500 millones deaños, la dinámica de las placas tectó-nicas en el norte de Gondwana estuvodominada por fallas del tipo de la de San

 Andrés. Cesó la subducción; la región seconvirtió en una plataforma continentalestable en la que se depositaban rocassedimentarias. Ese intervalo coincidecon la aparición, a escala mundial, defósiles con concha; en los sedimentoscorrespondientes a esas edades abundanrestos de tales organismos.

En cada terreno, el registro rocoso

de entre 650 y 500 millones de años deedad demuestra que estuvieron abiertosa un océano durante todo ese interva-lo, aunque cambiaran las condicionestectónicas. Hace unos 500 millones deaños, se acabó la semejanza geológicaentre terrenos, anuncio del desarrollo delocéano Reico. Algunos de los terrenosdel margen de Gondwana, como losque constituyen la Península Ibérica yOaxaca (sur de México), muestran quelos sedimentos se depositaron en aguascada vez más profundas, hace entre 500 y

440 millones de años. En otros terrenos,como Carolina y Avalonia (hoy en los

 Apalaches), los sedimentos de ese pe-ríodo son mucho más finos, lo que debeinterpretarse como una mayor distanciade una fuente de abundantes sedimentos(Gondwana). Un cambio que indica laapertura del océano Reico. Asimismo,los fósiles de esa época procedentes deCarolina y Avalonia difieren cada vez másde los fósiles de Gondwana.

Las propiedades magnéticas de las ro-cas de hace unos 460 millones de años

muestran que Avalonia se encontrabaentre 1700 y 2000 kilómetros al nortedel margen de Gondwana. De lo que seinfiere que el océano Reico se abría a unavelocidad de entre 7 y 8 centímetros poraño. Avalonia y Carolina eran entoncesdos continentes acintados, similares aNueva Zelanda, que separaban el océano

 Jápeto, al norte, del Reico, al sur (de lamisma manera que Nueva Zelanda se-para el océano Pacífico, al este, del marde Tasmania, al oeste). Sin embargo,mientras Avalonia y Carolina derivaban

hacia el norte, el margen septentrional de

Gondwana permanecía fijo a una latituden torno a 60o  sur y el margen sur deLaurencia a unos 10o  sur. Por tanto, laapertura del océano Reico al sur de esosterrenos se veía compensada por el cierredel Jápeto al norte de los mismos.

De los datos paleomagnéticos se des-prende que, hace unos 440 millones deaños, Avalonia se hallaba muy cerca deBáltica (Europa occidental) y de Lau-

rencia oriental. Durante los siguientes    B   A

   R   B   A   R   A   A   U   L   I   C   I   N   O   /   A   m   e   r   i   c   a   n   S   c   i   e   n   t   i   s   t

Mar  de Tethys

Hoy

Hace 225 millones de años

Hace 65 millones de años

PANGEA

        P       a      n          t         h

       a                          l

      a        s       s      a

2. LA ROTURA Y DESMEMBRAMIENTO

DE PANGEA, que comenzó hace unos 200

millones de años, creó el océano Atlántico

entre América y las actuales Europa y Africa.

Al propio tiempo, el océano Tethys, que se

extendió entre la India y Asia, y entre Africa

y Europa, se cerró conforme esos dos pares

de continentes colisionaban. Durante ese

período, el océano que ocupaba casi todo el

planeta, Panthalassa, se fue reduciendo al

actual océano Pacífico, que sigue menguan-

do a medida que es subducido en casi todo

su perímetro.

Page 36: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 36/99

   B   A

   R   B   A   R   A   A   U   L   I   C   I   N   O   /   A   m   e   r   i   c   a   n   S   c   i   e   n   t   i   s   t

De acuerdo con la teoría de la tec tónica de placas, la Tierra consta de

  una capa externa rígida, la litosfera, de entre 100 y 150 kilómetros

de espesor; debajo hallamos la astenosfera, una capa más caliente (a másde 1100 oC), plástica (deformable), que forma parte del manto. A la ma-

nera de una cáscara de huevo resquebrajada, la litosfera se halla dividida

en unos 20 fragmentos, o placas, que se desplazan alrededor del globo a

velocidades inferiores a 10 centímetros al año. Según se van moviendo,

interactúan unas con otras: colisionan, se separan y se deslizan. A corto

plazo, esas interacciones generan tensiones que se liberan en forma de

terremotos. En el transcurso de millones de años, se levantan cordilleras

donde las placas colisionan y se forman océanos donde éstas divergen

y se separan.

Los continentes se hallan incrustados en esas placas; se desplazan de

modo pasivo y solidario con ellas. A lo largo de millones de años, los movi-

mientos tectónicos han abierto y cerrado cuencas oceánicas enteras. Como

botón de muestra, el alejamiento de América respecto de Europa y Africa

durante los últimos 180 millones de años ha abierto el océano Atlántico,

que continúa creciendo. El mapa del mundo que conocemos ahora corres-

ponde, pues, a un fotograma de una película continua.

La fuerza que mueve esos continentes proviene de una cordillera

submarina que discurre a lo largo de todo el Atlántico y que pertenece a un

sistema global de cordilleras, o dorsales, mesooceánicas. En esas dorsales,

el magma caliente que surge del manto subyacente crea litosfera. A la

par que se crea nueva litosfera, se van separando cada vez más las placas

adyacentes a la dorsal oceánica.

Dado que la superficie del planeta es constante, la creación de litosfera

debe compensarse con la destrucción de litosfera antigua, en algún otro

lugar, mediante subducción. Conforme el océano Atlántico se ha ido

abriendo, el movimiento de América hacia el oeste ha provocado que el

fondo del océano Pacífico se haya subducido bajo ésta.Cuando las placas convergen, la más densa es empujada por debajo de

la más ligera y entra en el manto, donde se consume. La corteza oceánica,

por lo común más densa que la corteza continental, suele subducir por

debajo de placas continentales. Donde convergen dos placas oceánicas, se

subduce la más antigua (y, por tanto, más densa). Por esa razón, la edad

del fondo oceánico no alcanza los 180 millones de años, mientras que los

continentes llegan hasta los 4000 millones de años de edad.

La subducción es responsable, directa o indirectamente, de la orogenia.

Conforme las placas oceánicas, frías y densas, descienden hacia el interior

de la Tierra, se van calentando y fundiendo. El magma que se produce,

menos denso, asciende hacia la superficie: alimenta volcanes y calienta la

corteza continental adyacente para erigir montañas.

La colisión de un continente con continentes acintados o islas oceánicas

(denominados en conjunto terrenos) corresponde a otra forma de oroge-

nia. Todos los océanos modernos contienen islas (Nueva Zelanda y las islas

Filipinas, por ejemplo), que se agregarán, por acreción, a un continente si

el fondo oceánico entre esas dos masas emergidas se consume por subduc-

ción. La colisión resultante produce actividad magmática y deformación

de las rocas, lo que resulta en la generación de nuevas montañas. Así ha

sucedido en el oeste de Norteamérica, donde las colisiones de numerosos

terrenos durante los últimos 200 millones de años han ido añadiendo más

de 500 kilómetros de continente al borde occidental de la placa Norteame-

ricana.

Si la placa que subduce contiene corteza continental, la colisión entre

continentes produce montañas imponentes: éste es el caso del Himalaya,

creado tras la colisión entre la India y el sudeste de Asia, y de los Alpes,

nacidos del choque entre Africa del nor te y Europa meridional.

PRINCIPIOS BASICOSDE LA TECTONICA DE PLACAS

Sutura

Cuenca

Falla inversao cabalgamiento

Falla inversao cabalgamiento

Cu

Litosfera

LA SUBDUCCION DE LITOSFERA en la astenosfera calienta el manto

y la corteza suprayacente; ello produce magma que puede acabar

en la superficie en forma de volcanes. Los Andes ofrecen un ejemplo

moderno de ese proceso ( a). La subducción acerca islas volcáni-

cas, que colisionan con el continente ( b), dando lugar a montañas

formadas por acreción (c). Las cordilleras del oeste de Norteamérica

derivan de varios episodios de acreción ocurridos durante los últi-

mos 200 millones de años. La subducción atrae continentes enteros

uno contra otro: se cierran así cuencas oceánicas (d ) y se producen

colisiones continentales (e), que generan cadenas montañosas,

como se observa en los Alpes y el Himalaya.

Océano estrechándose

Cortezacontinental

Litosfera

Astenosfera

Prisma

de acreciónFosa

Arcomagmático

Océano

Litosfera oceánica

Astenosfera

2 1

Océano

Litosferaoceánica

Astenosfera

Magma

Arco de islas Arco de islas12

Océano

Corteza oceánica

Manto litosférico

Astenosfera

Cortezacontinenta

Manto litosfé

Placa sudamericana

VolcánandinoPrisma

de acreciónFosa

Placade Nazca

Magma

Interiorcontinen

 a

 b

c

e

34  INVESTIGACION Y CIENCIA, mayo, 2008

Page 37: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 37/99INVESTIGACION Y CIENCIA, mayo, 2008 35

30 millones de años, los tres continentescitados convergieron hasta colisionar paracrear un continente mayor: Laurusia. Laamalgamación de continentes cerró elocéano Jápeto, generando en su lugarla cordillera Caledoniana. A partir deese momento y a medida que el océa-

no Reico era subducido bajo Laurusia,el supercontinente se movía atraído oarrastrado hacia el sur, donde se hallabaGondwana. Los dos continentes com-pletaron así el cierre del océano Reicopara integrar Pangea, hace entre 340 y290 millones de años, dando lugar a laformación de la cordillera Varisca.

Queda una cuestión pendiente: ¿porqué se formó el océano Reico en el lugaren que éste se inició? Para dilucidarla,nos centraremos en los mecanismos encuya virtud Avalonia y Carolina se se-

pararon de Gondwana hace unos 485millones de años.

Zonas de debilidad corticalLos terrenos, al chocar contra los már-genes continentales, desempeñan unafunción básica en el desarrollo de las

cordilleras. El margen occidental de Nor-teamérica ofrece un buen ejemplo. Allí,las sucesivas colisiones de terrenos hanprovocado pulsos de actividad orogénicaque han resultado en la formación de lasMontañas Rocosas.

De acuerdo con nuestra investiga-ción, el lugar donde se constituyó elocéano Reico vino determinado porepisodios geológicos ocurridos 150 mi-llones de años antes, que generaron alo largo del margen septentrional deGondwana zonas de debilidad cortical.

¿De qué modo se formaron esas cica-trices geológicas?

 A tenor de la información recabada,las rocas ígneas que se formaron en elmargen septentrional de Gondwana hace

entre 630 y 570 millones de años puedenclasificarse en dos grupos, en función dela edad y la composición del material apartir del cual se originaron. Un grupocorresponde a magmas que provienende la fusión de un “basamento” (rocassobre las que se depositaron las rocas se-

dimentarias) continental y más antiguo.El otro grupo incluye magmas derivadosde un basamento más joven (de unos1000 millones de años).

La edad del basamento que se fundiópara dar lugar al magma que originólas rocas ígneas se deduce a partir de lacomposición isotópica de las mismas, enconcreto, de la relación entre isótoposde samario (Sm) y de neodimio (Nd).La relación isotópica del neodimio, εNd,indica el momento en que una roca seformó a partir del manto terrestre. Aun-

que la roca se vuelva a fundir, mantienesu relación isotópica hasta que se rein-corpora al manto.

El grupo de rocas ígneas de Gond- wana de procedencia más antigua se   F

   O   T   O   G   R   A   F   I   A   D   E   L   O   S   A   U   T   O   R   E   S

3. PLEGAMIENTO SINCLINAL en el valle del

río Narcea, Asturias. Las rocas se formaron

durante la apertura del océano Reico y se

deformaron cuando éste se cerró.

Page 38: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 38/9936  INVESTIGACION Y CIENCIA, mayo, 2008

hallan hoy en el noroeste de Francia, elsur de la Península Ibérica y en algunoslugares de Alemania. Esas rocas suelenpresentar valores de εNd negativos (entre+1,6 y –9,9). El guarismo significa que,aunque formadas las rocas a partir de unmagma que se solidificó hace unos 600millones de años, el magma en cuestiónprovenía de los restos fundidos de uncontinente creado hace entre 1000 y2000 millones de años.

Rocas de ese continente afloran hoy en

el noroeste de Francia. Scott Sampson,de la Universidad de Syracuse, y RichardD’Lemos, de la Universidad de OxfordBrookes, han determinado la edad delbasamento: unos 2100 millones de años.La composición isotópica de Sm y Ndindicaría, por tanto, que durante la for-mación de las rocas se habría producidola fusión del basamento de 2100 millo-nes de años con magmas más jóvenes, o

 juveniles, provenientes del manto. Loscálculos de Sampson y D’Lemos guardanuna estrecha semejanza con los que se

obtienen para un extenso afloramiento

de basamento situado en Africa occi-dental. Casi todas las reconstruccionesde la geografía de nuestro planeta en eseperíodo (hace entre 600 y 550 millonesde años) sitúan el basamento de Africaoccidental en el margen septentrionalde Gondwana. Apoyados en tales datos,suponemos que el grupo de rocas ígneasde procedencia más antigua se origina-ron en la fusión del basamento de Africaoccidental.

El segundo grupo de rocas ígneas del

margen septentrional de Gondwana sehalla en el este de Norteamérica, el surde Gran Bretaña, el centro y el norte dela Península Ibérica, y algunas regionesdel este de Alemania, República Che-ca y Polonia. Esas rocas ígneas suelenpresentar valores de εNd positivos (entre+5,0 y –1,0), que se corresponden conedades de entre 750 y 1100 millones deaños. El mínimo solapamiento con losvalores obtenidos para el primer grupode rocas da a entender que, pese al pare-cido externo, las rocas ígneas de edades

comprendidas entre 630 y 570 millones

de años derivaron de basamentos dis-tintos. Las del primer grupo surgieronde magmas procedentes de rocas másantiguas, de unos 2100 millones deaños de antigüedad; las del segundogrupo, de magmas que emergieron mástarde, hace entre 1100 y 750 millones

de años.Otros hallazgos respaldan nuestra hi-pótesis. En las rocas sedimentarias quese intercalan con las rocas ígneas, descu-brimos fragmentos de rocas erosionadasque se acumularon en antiguas cuencasde drenaje. A partir de la desintegra-ción de isótopos radiactivos de uranio,argón y potasio, se ha determinado laedad de algunos minerales de las rocaserosionadas; en particular, circón y micablanca. En el primer grupo de rocas íg-neas, las edades estimadas se agrupan en

los intervalos siguientes: 600-650 mi-llones de años, 2000-2200 millones deaños y 2400-2600 millones de años. Enel segundo grupo las edades son otras:1000-1200 millones de años, alrededorde 1500 millones de años y 1800-2000millones de años. Confirman tales datosque los dos grupos de rocas sedimenta-rias se hallaban unidas a dos sistemas dedrenaje continental cuando se formaron;resultan de la erosión de rocas creadas enperiodos distintos. Es más, las edades delos circones del primer grupo de rocas

ígneas coinciden con las de la potencialárea fuente, el basamento de Africa oc-cidental, lo que ratifica su conexión conel oeste africano.

En cuanto a la fuente del segundogrupo de rocas ígneas, hallamos una pis-ta en la edad de las rocas fuente: entre1100 y 750 millones de años, según lasrelaciones isotópicas de Sm y Nd. Enesa época tuvo lugar un episodio cru-cial para la geografía de nuestro planeta.Hace entre 1000 y 1100 millones deaños, la colisión de múltiples fragmentos

continentales provocó el levantamien-to de grandes cadenas montañosas y laformación del supercontinente Rodinia(de “patria” en ruso). Más tarde, haceunos 750 millones de años, se produjoun desarrollo generalizado de platafor-mas continentales y magmas derivadosdel manto, fenómeno que remite a laposible rotura y desmembramiento delsupercontinente.

La edad del magma a partir del cual seformó el segundo grupo de rocas ígneascoincide, pues, con la extensión temporal

de la existencia de Rodinia. Sin embargo,    B   A

   R   B   A   R   A   A   U   L   I   C   I   N   O   /   A   m   e   r   i   c   a   n   S   c   i   e   n   t   i   s   t

Roturao desmembramiento

Supercontinente

+

+

+

Basamento juvenil

Basamento antiguo

Terrenos acrecidos:Zona de subducción

Margen pasivo

Orogenia de colisión

Introversión

Extraversión

 a

 b

d

c

Litosferaantigua

Litosferamoderna

4. LOS SUPERCONTINENTES están bañados por un océano “exterior”, rodeados sus

márgenes por zonas de subducción y regiones volcánicas ( a). La rotura y dispersión de un

supercontinente crea nuevos océanos “interiores” entre los continentes que se dispersan

( b). El registro geológico indica que los océanos exteriores (c) e interiores (d ) se cierran para

generar un supercontinente ulterior. Los triángulos indican los terrenos que se han formado

a partir de basamento juvenil ( rojo) o antiguo ( morado).

Page 39: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 39/99INVESTIGACION Y CIENCIA, mayo, 2008 37

el basamento progenitor no pudo habersido el propio continente de Rodinia,ya que su corteza continental era másantigua; debió proceder directamente delmanto situado por debajo de Mirovoi(“mundo” en ruso), el océano que ro-deaba a Rodinia. El segundo grupo de

terrenos se originó en mar abierto, no enel continente. Además, debieron colisio-nar y amalgamarse al margen norte deGondwana antes del inicio del procesode subducción mencionado (que tuvolugar entre hace 635 y 570 millones deaños), pues durante esa época aparece enlas nuevas rocas ígneas la “firma” juvenildel segundo tipo de basamento.

La colisión de terrenos con un mar-gen continental se denomina acreción.Constituye uno de los mecanismos deformación de cordilleras que contienen

rocas deformadas y recristalizadas, estoes, metamórficas . En cuanto al segundogrupo de terrenos, la presencia de rocasmetamórficas en el sur de Gran Bretañay en algunos sectores de Norteaméri-ca oriental (sur de Terranova, Maine yCarolina) demuestra la acreción de losterrenos con Gondwana, hace entre 680y 650 millones de años. El primer grupode terrenos, en cambio, no muestranindicio alguno de acreción. Lo mismoque antes, semejante observación su-giere que esos terrenos se situaban a lo

largo del margen de Gondwana, dondese hallaba el cratón de Africa occidental;reflejan, por tanto, el reciclado in situ de la corteza.

El contraste entre los terrenos quese hallaban a lo largo del margen deGondwana y los que fueron agregados,por acreción, a dicho margen reclamala existencia de una gran separación,o sutura, entre ellos. El occidente deNorteamérica ofrece otro ejemplo de esetipo de suturas. Desde hace 150 millo-nes de años, varios terrenos del océano

Pacífico han sido arrastrados y agre-gados, por acreción, a Norteamérica,produciendo varios pulsos orogénicos.Resultado de tal proceso, se produjouna importante sutura entre los terrenosacrecidos y la corteza más antigua deNorteamérica y, en nuestro estudio, deGondwana.

Origen del océano ReicoEl océano Reico se formó, pues, por larotura y separación de Avalonia y Caroli-na, los mismos terrenos que habían sido

agregados al margen de Gondwana 160   R   E

   C   O   N   S   T   R   U   C   C   I   O   N   B   A   S   A   D   A   E   N   D   A   T   O   S   D   E   S   E   R   G   E   I   P   I   S   A   R   E   V   S   K   Y ,   U   N   I   V   E   R   S   I   D   A   D   D   E   E   D   I   M   B   U   R   G   O ,   G   R   A   N   B   R   E   T   A    Ñ   A   /   S   T   E   P   H   A   N   I   E   F   R   E   E   S   E   /   A   m   e   r   i   c   a   n

   S   c   i   e   n   t   i   s   t

Orógenos antiguos(1,5-1,0 Ga)

Corteza juvenil(1,0 - 0,8 Ga)

ESCUDODE ARABIA

AVALONIA

LAURENCIA

BALTICA

AFRICAOCCIDENTAL AMAZONIA

INDIA

CHINAMERIDIONAL

KALAHARI

AUSTRALIA

SIBERIA

PoloSur

+

GONDWANA

Tierras bajas Orógeno interior Orógeno periférico Mar somero Océano profundo

LAURENCIA

SIBERIA

BALTICA

GONDWANA

5. EL SUPERCONTINENTE DE RODINIA comenzó a disgregarse hace unos 800 millones de

años. Se muestran los restos de las antiguas cordilleras (verde) y los lugares donde se

supone que hubo corteza juvenil ( rojo), parte de la cual formó posteriormente Avalonia y

Carolina. Si bien se desconoce la posición exacta de la corteza en cuestión, la hemos situado

—para facilitar la ilustración de los procesos que se describen— alejada de los grandes

cratones (masas continentales estables), a los que se habían agregado, por acreción, hace

unos 550 millones de años. (Ga equivale a mil millones de años.)

6. EL OCEANO JAPETO comenzó a formarse entre Gondwana y Laurencia hace entre 650 y

550 millones de años. Los orógenos interiores corresponden a las cordilleras formadas por

la colisión de grandes placas tectónicas. Los orógenos periféricos se generan por subduc-

ción y acreción de terrenos en los bordes de los continentes o de los supercontinentes. En

negro se marcan las zonas de subducción en los márgenes de Gondwana.

Page 40: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 40/99

   S   T

   E   P   H   A   N   I   E   F   R   E   E   S   E   /   A   m   e   r   i   c   a   n   S   c   i   e   n   t   i   s   t

El estudio del pasado geológico de un terreno

  equivale al estudio genealógico de una per-

sona. Durante siglos, ciertos rasgos propios de

nuestros antepasados se han perdido (el acento

local, por ejemplo), pero otros se han manteni-

do al transmitirse de generación en generación

(apellidos, canciones y bailes tradicionales). Deigual modo, el paso del tiempo ha borrado en

las rocas innumerables vínculos con el pasado.

Con todo, algunos persisten: entre ellos, la

composición isotópica. La relación de isóto-

pos de los elementos del grupo de las tier ras

raras samario (Sm) y neodimio (Nd) refleja el

momento en que los componentes de las rocas

cristalizaron a partir del manto terrestre.

Los isótopos corresponden a átomos de un

mismo elemento que difieren ligeramente en la

masa. Numerosos elementos presentan varios

isótopos, algunos de los cuales son inestables,

radiactivos. Esos isótopos se convierten de

forma espontánea, mediante un proceso que

desprende energía, en otros isótopos más esta-

bles. El tiempo que tarda la mitad del “elemento

progenitor” (inestable) en convertirse en el

“elemento hijo” (más estable) se denomina vida

 media; es una constante característica de cada

elemento. La vida media y la relación entre los

isótopos “padre” e “hijo” se usan para calcular

el tiempo transcurrido desde que comenzó

la desintegración. Para rocas volcánicas, ese

tiempo corresponde a la edad de cristalización,

el tiempo que ha transcurrido desde que cristali-

zaron los minerales que los integran, es decir, la

edad de la roca.Don DePaolo, de la Universidad de California

en Berkeley, y otros pioneros de la geología

isotópica han demostrado que la transforma-

ción isotópica de Sm en Nd constituye uno de

los mejores trazadores de los procesos ígneos

y tectónicos. Esos dos elementos presentan

propiedades químicas semejantes. Sin embar-

go, en los lugares donde el manto comienza

a fundirse, el Nd (el más ligero de los dos) se

concentra en el magma líquido que es extraído

del manto y el Sm (más pesado) se concentra

en el manto que no se ha fundido, o manto

empobrecido.

El valor medio para la relación de Sm/Nd en

toda la Tierra es de 0,32. Sin embargo, dada la

tendencia del Nd a concentrarse en los magmas

que escapan desde el manto hacia la corteza

y del Sm para concentrarse en el manto empo-

brecido, la relación isotópica es menor en las

rocas de la corteza (en torno a 0,2) y mayor en el

manto empobrecido (alrededor de 0,5).

El samario-147 (147Sm) es un isótopo radiac-

tivo que se desintegra en el isótopo estable

neodimio-143 (143Nd). Conforme disminuye la

cantidad de 147Sm, aumenta la de 143Nd. La vida

media para esa transformación es de 106.000

millones de años.

El neodimio-144 también es estable, pero

no se genera a partir de la transformación

radioactiva, por lo que su proporción en una

roca no cambia con el tiempo. Dado que el 143Nd

aumenta con el tiempo y el 144Nd se mantiene,

la relación entre ambos (143Nd/144Nd) se ha

elevado en las rocas de la corteza, del manto ydel total de la Tierra. Pero dado que la relación

Sm/Nd es mayor en el manto empobrecido que

en el total de la Tierra, mayor a su vez que en

la corteza, la transformación de 147Sm en 143Nd

determina que la relación 143Nd/144Nd aumente

con mayor prontitud en el manto empobre-

cido que en el total de la Tierra, y con mayor

celeridad todavía en el total de la Tierra que

en la corteza. En consecuencia, la composición

isotópica Sm-Nd de los magmas generados en

el manto empobrecido difiere de los generados

en la corteza.

Los magmas mantienen la relación143Nd/144Nd de la fuente que los originó. Los

magmas formados por manto fundido presenta-

rán, pues, una relación 143Nd/144Nd mayor que

los magmas derivados de fundidos corticales.

Cuando se conoce el momento en que cristali-

zaron esos fundidos, se aplica una corrección

para las transformaciones radiactivas y se dedu-

ce la relación 143Nd/144Nd en el magma inicial.

La relación inicial (143Nd/144Nd)0 constituye la

huella dactilar que registra el origen de esos

magmas. Así, las rocas volcánicas que han de-

rivado recientemente del manto difieren de las

que proceden del reciclado de antiguas cortezas

continentales, o de las que corresponden a unamezcla de ambas.

En términos absolutos, las diferencias entre

la relación 143Nd/144Nd de las rocas mantélicas

y corticales son reducidas. Para trabajar con

mayor comodidad, se define un parámetro, εNd,

que refleja la diferencia entre la relación inicial143Nd/144Nd en la roca estudiada y la que tendría

el total de la Tierra cuando cristalizó la roca.

Según ese criterio, εNd para el total de la Tierra

calculado para cualquier edad tomaría un valor

igual a cero. Dado que la relación 143Nd/144Nd

aumenta con mayor celeridad en el manto

empobrecido y más lentamente en la corteza

que en el total de la Tierra, los valores de εNd se

hacen, andando el tiempo, más positivos para

el manto empobrecido y más negativos para la

corteza. Esa evolución temporal corresponde a

la “línea de crecimiento”.

En la práctica, los geólogos usan esos

principios a la inversa. Para las rocas derivadas

de la corteza se calcula una línea de creci-

miento (la variación de εNd con el tiempo); se

interpola luego hacia atrás, hasta que corta la

línea de crecimiento del manto empobrecido.

La intersección de las dos líneas de crecimiento

corresponde al momento en que la roca tendría

la misma composición isotópica que su origen

en el manto empobrecido, es decir, el momento

en que los componentes de esa roca fueron ex-

traídos del manto. Los cálculos deben aplicarse

con precaución, pues a medida que los magmas

ascienden hacia la superficie se mezclan con

otros fundidos de origen distinto; las mues-

tras procedentes de magmas mezclados dan

resultados poco fiables. Afortunadamente, los

geólogos detectan, mediante otros indicadores

geoquímicos, si ha habido mezcla, de modo que

las rocas de origen incierto se excluyen de los

cálculos.

MARCADORES ISOTOPICOS

  ε    N

    d

R o c a s  c o r t i c a l e s  c o n t i n e n t a l e s 

T  o  d  a  l  a  T  i  e  r  r  a 

M    a   n   t    o    e   m   

 p   o   b   r   e   c   i    d    o   

Hoy

   1   4   3   N    d   /   1   4   4   N    d

TiempoEntonces

HoyTiempo

Entonces

mezcla

mezcla

 M a n t o  e m p o b r e c i d o 

Toda la Tierra

Edad modelo

TDM

T3 T2 T1

0

 C o r  t e  z

 a  a n  t  i g 

 u a

+

EL MANTO EMPOBRECIDO retiene mayor pro-

porción de samario (Sm) respecto de neodimio

(Nd) que el magma líquido que constituirá la

corteza continental. Así, el manto empobreci-

do presenta una relación Sm/Nd (~0,5) mayor

que la del total de la Tierra (~0,32) o la de la

corteza continental (~0,2). Esas relaciones,

 junto con la constante desintegración de 147Sm

en 143Nd, explican que la relación 143Nd/144Nd

aumente con mayor celeridad en el manto

empobrecido que en el total de la Tierra o enla corteza continental ( arriba). La diferencia

en las relaciones iniciales entre el manto

empobrecido y la corteza o el total de la Tierra

(que se considera 0) se expresan en forma

de εNd. A partir de la relación Sm/Nd y el valor

del εNd de una muestra de roca (calculado para

su edad de cristalización), se determina la línea

de crecimiento ( abajo, línea azul ) que, una vez

proyectada, cruza la línea correspondiente al

manto empobrecido. Esa intersección indica la

edad “modelo” del manto empobrecido (T  DM),

la edad a la que la corteza derivó del manto

(T  2). La mezcla de magma juvenil con corteza

antigua (T 1) arroja resultados falsos (T  3).

38  INVESTIGACION Y CIENCIA, mayo, 2008

Page 41: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 41/99INVESTIGACION Y CIENCIA, mayo, 2008 39

   S   T

   E   P   H   A   N   I   E   F   R   E   E   S   E   /   A   m   e   r   i   c   a   n   S   c   i   e   n   t   i   s   t

OcéanoReico

Laurencia

Terrenosde Avalonia

Gondwana Terrenos cratónicosPolo Sur

Polo Sur

Ecuador Ecuador

Hace 540 Ma Hace 500 Ma

Hace 480 Ma ca. 470 Ma

Hace 450 Ma Hace 430 Ma

Océanos Jápeto y Reico

Cratones

Basamento de Avalonia

Basamento cadomiense

Núcleo y manto(excepto manto litosférico)Manto litosférico

Corteza oceánica Arco volcánico tacónico

A

BB

A

7. RECONSTRUCCIONES GLOBALES Y SECCIONES GEOLOGICAS. Esta

serie muestra las fuerzas que generaron el océano Reico y deter-

minaron su evolución hace entre 540 y 430 millones de años (Ma).

Hace 540 millones de años, el océano Jápeto se extendía desde Lau-

rencia a Gondwana; contaba con una dorsal mesooceánica ( blanco).

Los terrenos más juveniles, Avalonia y equivalentes (verde claro),

se movieron hacia el norte, deslizándose al lado de los que tenían

un basamento más antiguo (verde), a lo largo de todo el margen de

Gondwana. Hace 500 millones de años, la subducción hacia el sur

que se originó al norte del océano Jápeto comenzó a cerrarlo, crean-

do un arco volcánico ( rojo). Tal y como describe Cees van Staal, del

Servicio Geológico del Canadá, hace 480 millones de años Laurencia

colisionó con esos arcos volcánicos; ello provocó la inversión de la

dirección de subducción, con la subducción consiguiente de la dor-

sal mesooceánica de Jápeto. Desde ese momento, la corteza oceáni-

ca por debajo de Laurencia y en el margen de Gondwana pertenece

a extremos distintos de la misma placa litosférica. La tracción de la

placa causada por la subducción de Laurencia pudo haber provo-

cado la reapertura de la sutura entre Gondwana y Avalonia; ello

habría generado el océano Reico conforme Avalonia derivaba hacia

el norte, alejándose de Gondwana. Hace entre 470 y 450 millones de

años, la subducción bajo el margen septentrional de Avalonia pro-

dujo un nuevo conjunto de arcos volcánicos. Hace 430 millones de

años, Avalonia se había agregado, por acreción, a Báltica y luego a

Laurencia, lo que supuso el cierre del océano Jápeto. (Las secciones

no se han dibujado a escala.)

Page 42: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 42/9940  INVESTIGACION Y CIENCIA, mayo, 2008

millones de años antes. Ambos continen-tes acintados se situaban entre el océanoy la sutura con la masa continental prin-

cipal. Según los datos paleontológicos ymagnéticos, la mayoría de los terrenossituados entre la sutura y el continentepermanecieron unidos a Gondwana.

El primer episodio relacionado con lafractura que dio lugar al nacimiento delocéano Reico sucedió hace entre 540 y

490 millones de años, una vez cesó la actividad magmática relacionada conla subducción bajo el margen septen-trional de Gondwana. A esa rotura lesiguió una importantísima acumulaciónde sedimentos provenientes del margencontinental, acompañada de actividadvolcánica local. Es posible que Avaloniay Carolina se separasen del margen nortede Gondwana moviéndose en paraleloal mismo, a lo largo de la sutura (elactual golfo de California se ha abier-to de manera similar, lo que está cau-

sando el movimiento de la penínsulade Baja California por la Falla de San

 Andrés). Los datos paleontológicos ypaleomagnéticos sugieren que, duranteese período, las vías marinas en el nortede Gondwana eran, como el golfo deCalifornia, estrechas.

Un segundo episodio relacionado conla apertura del océano Reico comen-zó hace unos 490 millones de años,cuando Avalonia y Carolina empeza-ron a derivar hacia el norte a través delocéano Jápeto. El aumento progresivo

de la separación respecto de Gondwana

queda reflejado en los conjuntos fósilesde esta época.

Hace unos 460 millones de años, Ava-lonia ya se hallaba a unos 40o latitud sur,o, lo que es lo mismo, entre 1700 y 2000kilómetros al sur de Laurencia; el margende Gondwana permanecía a unos 60o 

latitud sur. Ello indica que Avalonia sedesplazaba hacia el norte a una velocidadde 6 a 8 centímetros anuales. Parece queCarolina se hallaba más al norte todavíay desconectada de Avalonia. La situaciónde ambos terrenos, separados de Gond-

 wana y Laurencia, sugiere que eran islassimilares a Nueva Zelanda, cuya derivahacia el norte fue cerrando de modoprogresivo el océano Jápeto, al tiempoque el océano Reico se abría por detrásde ellas.

En conjunto, los datos muestran que

los lugares donde se produjo la roturaque ocasionó la apertura del océano Reicose corresponden con la reactivación delas zonas de sutura generadas, hace unos650 millones de años, por la acreción enel margen de Gondwana de terrenos for-mados por corteza juvenil. Se desarrolla-rían esfuerzos tensionales que reactivaronesa antigua herida y separaron los terrenospor el costado que daba al océano.

El mecanismo que produjo la roturay posterior deriva del terreno (“rift-to-drift”) no se conoce con precisión. Pero

se han propuesto varios modelos. Duran-te episodios de subducción, los terrenosse separan del margen continental al queestaban unidos si la placa que subduceretrocede y se enrolla (“roll back”) a me-dida que desciende hacia el manto. Esetipo de subducciones se han detectadoen la actualidad en el Pacífico occidental.Sin embargo, los terrenos que se separanasí, suelen permanecer unidos al margencontinental del que se han desprendido;muchos de ellos vuelven a agregarse almismo. En el caso de Avalonia y Caroli-

na, no hay pruebas claras de que sufrieranun proceso de ese tipo.

Otro modelo —más probable— paraexplicar la apertura del océano Reicose deduce a partir de la cronología dela principal fase de rotura, que empezóhace unos 490 millones de años. Enaquel momento, en el norte del océano

 Jápeto se estaba produciendo la acre-ción de terrenos oceánicos y la colisióncon la dorsal centrooceánica, lo quecausó deformaciones en las rocas delmargen meridional de Laurencia. Se

inició a continuación una nueva etapa    S   T

   E   P   H   A   N   I   E   F   R   E   E   S   E   /   A   m   e   r   i   c   a   n   S   c   i   e   n   t   i   s   t

+10

+6

+2

-2

0

-6

-10

-14

0 0,4 0,8 1,2 1,6 2 2,4 0 0,4 0,8 1,2 1,6 2 2,4

+10

+6

+2

-2

0

-6

-10

-14

Tiempo (Ga) Tiempo (Ga)

Tipo avalónico Tipo cratónico

Cadomia

Gneises de Icart

Saxo-Thuringia

Oaxaqia

M a n t o  e m p o b r e c i d o M a n t o  e m p o b r e c i d o 

Toda la Tierra

AmalgamaciónRotura Rodinia

Carolina

Avalonia

      ε   N    d

    (   R   e    l   a   c    i    ó   n

    i   s   o   t    ó   p    i   c   a    )

Toda la Tierra

8. LA RELACION ISOTOPICA DEL NEODIMIO (εNd) indica en qué momento una roca emergió

del manto terrestre. Esa “firma” isotópica se mantiene constante hasta que la roca se vuel-

ve a incorporar al manto (no se altera aunque la roca se funda y recicle). Las rocas ígneas del

margen septentrional de Gondwana se agrupan en dos conjuntos de edades. Los terrenos

acrecidos (más jóvenes, a la izquierda) se formaron a partir de fragmentos fundidos de

corteza juvenil, creada a partir del manto empobrecido de hace entre 750 y 1100 millones

de años. Los terrenos cratónicos (más antiguos, a la derecha) constaban de restos fundidosde corteza continental más antigua, extraída del manto hace entre 1500 y 2100 millones de

años. Los terrenos acrecidos que se muestran incluyen Avalonia (que en la actualidad ocupa

parte de Norteamérica y el sur de Gran Bretaña) y Carolina (parte del este de los EE.UU.).

Los terrenos cratónicos incluyen Cadomia y los gneises de Icart (noroeste de Francia), el

terreno de Sajonia-Turingia (Alemania) y Oaxaquia (México). El área de los terrenos acreci-

dos coincide con el tiempo de existencia del supercontinente Rodinia; las flechas indican la

formación y el inicio de la dispersión. El área para los terrenos cratónicos es más antigua y

también más amplia. (Ga equivale a mil millones de años.)

J. Brendan Murphy es profesor de geología

estructural, tectónica y petrología en la Univer-

sidad de San Francisco Javier, en Nueva Escocia.

Gabriel Gutiérrez Alonso imparte clases de

geología estructural y dinámica global en la

Universidad de Salamanca. R. Damian Nance 

profesa en la Universidad de Ohio en Athens. Ja-vier Fernández Suárez enseña geoquímica en

la Universidad Complutense de Madrid. Duncan

Keppie es profesor de la Universidad Nacional

Autónoma de México; trabaja desde hace

más de 40 años en universidades y servicios

geológicos de EE.UU., Zambia, Canadá y México.

Cecilio Quesada es investigador en el Instituto

Geológico y Minero de España; se dedica al

estudio de la evolución tectónica de la Península

Ibérica. Rob A. Strachan desarrolla su labor

investigadora en la Universidad de Portsmouth.

Jaroslav Dostal es profesor emérito de petro-

logía y geoquímica en la Universidad de Saint

Mary en Nueva Escocia.

© American Scientist Magazine.

Los autores

Page 43: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 43/99INVESTIGACION Y CIENCIA, mayo, 2008 41

de subducción bajo el margen de Laurencia.Después de la colisión de la dorsal, la nuevazona de subducción quedaría conectada conel margen septentrional de Avalonia y Ca-rolina. A medida que una placa subducentesufre cambios mineralógicos que aumentansu densidad, ejerce una fuerza de tracción

(“slab-pull”) sobre la parte de la placa alejadade la zona de subducción (lo mismo ocurrecuando el extremo de un mantel sobresale enexceso por el borde de la mesa y arrastra elresto del mantel, incluidas las migas que hayaencima). Quizás Avalonia y Carolina fuerondesgajadas de Gondwana por la tracción queejerció su propia placa al ser subducida bajoel margen de Laurencia.

Formación de PangeaLa aglomeración de continentes que destruyóel océano Reico culminó con la colisión de

Gondwana con Laurusia, un episodio cru-cial para la formación de Pangea. El estudiodel origen y la evolución de esa extinta masade agua resulta, por tanto, fundamental paracomprender las fuerzas que crearon Pangea.El océano Reico se abrió con la partida deuno o dos continentes estrechos del margenseptentrional de Gondwana (Carolina y Ava-lonia). Mediante técnicas de caracterizacióny trazado isotópico, se demuestra que esosterrenos se formaron en el océano Mirovoi,hace entre 750 y 1100 millones de años, yque se agregaron a Gondwana hace unos 650

millones de años. Una zona de debilidad, osutura, debió separar del antiguo margen deGondwana esos terrenos recién acrecidos. Lasubsiguiente subducción bajo ese margen,que comenzó hace 635 millones de años yen algunos lugares llegó a durar más de 90millones de años, generó una poderosa activi-dad magmática en los terrenos acrecidos y enla corteza más antigua de Gondwana (Africaoccidental).

Hace entre 540 y 500 millones de años, elcese de la subducción instó el establecimientode un entorno de plataforma continental en

dicho margen de Gondwana. Hace unos 490millones de años, los terrenos que se habíanido agregando, por acreción, al margen deGondwana (Avalonia y Carolina) comenzarona separarse de ese margen; hace unos 460 mi-llones de años, ya habían migrado unos 2000kilómetros hacia el norte. Creemos que esosterrenos fueron desgajados de Gondwana por-que la tracción de la placa que subducía bajo elmargen de Laurencia causó la reapertura de laantigua sutura. La ubicación del océano Reicohabría venido determinada por la existencia deuna zona de debilidad cortical, generada en

colisiones anteriores.

USE AND ABUSE OF CRUSTFORMATION AGES. N. T. Arndt yS. L. Goldsteinen en Geology ,vol. 15, págs. 893-895; 1987.

MODELS OF RODINIA ASSEMBLY

AND FRAGMENTATION. S. A.Pisarevsky, M. T. D. Wingate,C. M. Powell, S. Johnson yD. A. D. Evans en ProterozoicEast Gondwana: Supercontinent

 Assembly and Breakup, dirigidopor M. Yoshida, B. Windley yS. Dasgupta, págs. 35-55. TheGeological Society, Special Pu-blication 206; Londres, 2003.

HOW DO SUPERCONTINENTS

FORM? J. B. Murphy y R. D.Nance en American Scient ist ,vol. 92, págs. 324-333; 2004.

ORIGIN OF THE RHEIC OCEAN:

RIFTING ALONG A NEOPROTE-

ROZOIC SUTURE? J. B. Mur-phy, G. Gutiérrez Alonso,R. D. Nance, J. FernándezSuárez, J. D. Keppie, C. Quesa-da, R. A. Strachan y J. Dostalen Geology , vol. 34, págs.325-328; 2006.

Bibliografíacomplementaria

Page 44: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 44/99

Electrolitos ultrafinosGemma Garcia Alonso

D E C E R C A

 Entre los dispositivos que ofrecen una nueva vía, más  limpia y eficiente, para la explotación de la energía

eléctrica destacan las pilas de combustible de óxido sólido.Uno de los electrolitos más utilizados en esas pilas es la cir-cona estabilizada con itrio (YSZ, de sus siglas en inglés).Corresponde a un óxido de zirconio en el que una parte delzirconio se sustituye por itrio con el fin de generar vacantesaniónicas. Sus propiedades le confieren un gran potencialtécnico: elevada estabilidad química y mecánica, y conduc-tividad iónica pura en un amplio rango de temperaturas ypresiones parciales de oxígeno.

Para mejorar las prestaciones de las pilas de combusti-

ble a temperaturas inferiores es necesario reducir el espe-sor de los electrolitos. En el último decenio, han empeza-do a desarrollarse técnicas de deposición que permitenobtener electrolitos densos con espesores inferiores a10 micrometros. Suelen depositarse sobre uno de loselectrodos que hace de soporte mecánico, generalmenteel ánodo.

Los cermets (materiales compuestos cerámico-metal) deNi-YSZ son los mas utilizados en la construcción delánodo (en ocasiones se usa calcio en vez de itrio). Engeneral, se obtienen mezclando óxido de níquel y el propiomaterial de electrolito (YSZ). Al someterlos a una atmósfe-ra reductora (como es el caso en las condiciones de trabajode las pilas de combustible de óxido sólido en el ánodo), elóxido de níquel se reduce formando partículas de níquelconductor eléctrico y los poros necesarios para la difusióndel oxígeno.

Una técnica novedosa, la deposición química en fasevapor mediante inyección pulsada de la solución obtenida a

partir de precursores organometálicos, facilita la obtenciónde capas densas de gran calidad cristalina con alta velocidadde crecimiento sobre superficies densas o porosas. Ofreceuna vía prometedora para la obtención de electrolitossólidos de YSZ sobre sustratos porosos de tipo cermet. Lasimágenes muestran algunos ejemplos de esos electrolitosultrafinos.

   G   E

   M   M   A   G   A   R   C   I   A   ;   F   O   T   C   I   E   N   C   I   A   0   3   /   I   C   M   A   B  -   C   S   I   C    (   m   u   e   s   t   r   a    d   e    f   e   c   t   u   o   s   a    )

1. Microscopía electrónica de barrido de una capa

de YSZ depositada sobre un sustrato cerámico de alúmina  

con gradiente de porosidad.

Page 45: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 45/99INVESTIGACION Y CIENCIA, mes, año 43

2. Microscopía electrónica de transmisión de una capa de YSZ crecida sobre

un sustrato monocristalino de alúmina. Se observan distintos regímenes

de crecimiento (primero epitaxial y luego columnar).

3. Microscopía electrónica de barrido de una capade YSZ depositada sobre un sustrato de NiO-CaSZ

fundido mediante láser. A la izquierda, se obser-

van las lamelas (paralelas al plano de la imagen)

de CaSZ y de níquel, y los poros formados tras la

reducción. Abajo, una muestra defectuosa: la fusión

por láser ha producido burbujas, en cuyas paredes

se distinguen las láminas de CaSZ intercaladas por

poros y partículas de níquel.

 

CRECIMIENTOCOLUMNAR

CRECIMIENTOEPITAXIAL

SUSTRATO

100 nm

3800 nm

Page 46: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 46/9944  INVESTIGACION Y CIENCIA, mayo, 2008

Michael Wigler:Un díscolo frente a los mendelianosValiéndose de la teoría clásica sobre la herencia, los expertos han buscado sin éxito los genes

responsables del autismo. Michael Wigler cree que ha descubierto el mecanismo en virtud del

cual el trastorno persiste generación tras generación

Nikhil Swaminathan

PERF ILES

 Si se le pregunta a Michael Wigler acer-  ca de la base genética del autismo,

responde que no sirven los métodos clási-cos de la genética para detectar mutacio-nes causantes de un trastorno en familias

con varios miembros afectados. Aunquela mayoría de los expertos admite que elentorno influye en la aparición de la en-fermedad, el autismo posee un fuertecomponente genético: si de dos gemelosidénticos uno es autista, el otro tiene un70 por ciento de probabilidades de pade-cer el trastorno, un factor de riesgo casi10 veces mayor que el observado en ge-melos no idénticos o en hermanos. Masnada se ha conseguido tras largos añose ingentes sumas de dinero que se hanempleado en la búsqueda de genes liga-

dos al trastorno.Según Wigler, del Laboratorio de Cold

Spring Harbor en Long Island, la clavepara identificar la base genética del autis-mo se halla en las mutaciones espontá-neas, las alteraciones en la línea parentalque se manifiestan como novedad en ladescendencia. En 2006, demostró queciertos fenómenos espontáneos interve-nían en algunos casos de autismo. For-muló luego una controvertida teoría so-bre la genética del trastorno. Sugiere quelas mujeres, que padecen el autismo con

una tasa cuatro veces menor que los varo-nes, pueden ser portadoras del perfil ge-nético de la enfermedad y transmitirloluego a sus hijos.

 Wigler sostiene que los estudios gené-ticos clásicos han fallado porque se hanescogido familias con más de un hijoautista para buscar diferencias en unabase en todo el código genético. Esas di-ferencias, que afectarían a la conectividadneural, corresponden a la adición, la de-leción o la sustitución de una base; sedenominan polimorfismos de un solo

nucleótido (SNP, de las siglas en inglés).

Descubrir SNP compartidos por personasautistas permitiría detectar individuoscon un riesgo elevado de heredar la alte-ración o de transmitirla.

El problema es que casi nunca se han

examinado los mismos lugares de los mis-mos genes: se han imputado loci en 20 delos 23 pares de cromosomas del genoma.En la opinión de Portia Iversen, madre deun chico autista de 15 años y fundadorade la asociación Curemos el Autismo Ya,la pista de los SNP ha llegado a un calle-

 jón sin salida.Los que trabajan con SNP trataron de

esquivar las críticas alegando que el autis-mo es un trastorno de gran complejidad,determinado por una suerte de “conjun-ción planetaria”, es decir, que contribu-

yen cuatro o cinco loci y, si se da la confi-guración errónea de alelos en esos cuatroo cinco loci, se padecerá la alteración.

 A Wigler, que durante tres decenios hacosechado importantes éxitos en genética,no le basta esa justificación. En 1981, ais-ló la superfamilia de genes RAS , el primergrupo de oncogenes en ser identificado.En los años noventa desarrolló un méto-do para muestrear segmentos del genoma,que facilitaba y abarataba la comparacióndel ADN. Empleó luego esa técnica debiochips, el análisis representacional de mi-

cromatrices de oligonucleótidos, para es-crutar el ADN en busca de alteracionesque pudieran causar cáncer.

En su primera toma de contacto conel autismo, Wigler, en estrecha colabora-ción con Jonathan Sebat, también delCold Spring Harbor, se propuso determi-nar la influencia de las variaciones en elnúmero de copias, un tipo de mutaciónespontánea, en este trastorno. Esas muta-ciones afectan al número de copias de ungen que posee una persona. Antes de quese secuenciara el genoma humano, los ex-

pertos creían que cada individuo poseía    B   R

   I   A   N   M   A   R   A   N   A   N   P   I   N   E   D   A

MICHAEL WIGLER

PENSAMIENTOS ESPORADICOS: Propone

que las mutaciones espontáneas, además de

las mutaciones que siguen los patrones clá-

sicos de la herencia mendeliana, explican el

desconcertante comportamiento hereditariodel autismo.

TRASTORNO MISTERIOSO: Los síntomas

del autismo van desde deficiencias cogniti-

vas hasta un comportamiento asocial y

obsesivo. En EE.UU., afecta a uno de cada

150 niños.

TEJER UNA RED TUPIDA: Cree que su teo-

ría unificada del autismo puede ayudar tam-

bién a explicar la esquizofrenia, la depre-

sión, la obesidad mórbida, la diabetes y

otros trastornos genéticos complejos.

Page 47: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 47/99INVESTIGACION Y CIENCIA, mayo, 2008 45

dos alelos, o copias, de un gen:uno heredado del padre y otrode la madre.

En 2004, el grupo de ColdSpring Harbor halló que, in-cluso en individuos sanos,podía ocurrir que una copia

de un gen faltara (o se aña-diera) en el genoma, debido areorganizaciones a gran escaladel material genético. (Talesreorganizaciones se conocíandesde hacía años; se les atri-buían manifestaciones particu-lares de numerosos trastor-nos, entre ellos la enfermedadde Huntington.) Centrándo-se en familias con un solomiembro autista, demostra-ron en marzo de 2007 que

hasta un 10 por ciento de loscasos de autismo no heredadopodrían deberse a variacionesespontáneas en el número decopias. Wigler y Sebat encon-traron que las alteraciones es-tructurales correspondían so-bre todo a deleciones, quedejaban al individuo con unacopia de un gen particular yprovocaban, en algunos casos,la disfunción de ese gen (ha-ploinsuficiencia).

En julio de 2007, Wiglerpublicó un artículo que pre-sentaba una teoría unificada sobre el au-tismo. Examinó los datos de familias convarios miembros autistas; consideró facto-res hereditarios y espontáneos. Se centróen las familias cuyos dos hijos mayores es-taban afectados. Halló que el tercer hijovarón tenía un 50 por ciento de posibili-dades de sufrir el trastorno; en el caso deuna niña, el riesgo se reduce al 20 porciento.

 A partir de esos datos, Wigler de-

sarrolló una hipótesis de dos niveles. Lagran mayoría de las familias caen en lacategoría de bajo riesgo, en la cual loshijos afectados poseen una mutación es-pontánea, ya sea una variación en el nú-mero de copias o una mutación puntual.En las familias de alto riesgo (que pue-den llegar a albergar el 25 por ciento detodos los casos de autismo) el trastornose manifiesta cuando un individuo noafectado, normalmente una mujer, esportador de una mutación esporádica yla trasmite en forma de alelo dominante.

Si la descendencia es masculina, la pro-

babilidad de desarrollar autismo ronda el50 por ciento.

En la opinión de Deborah Levy, direc-tora del laboratorio de investigación psi-cológica del Hospital McLean de la facul-tad de medicina de Harvard, la teoría de

 Wigler ofrece un nuevo marco para el es-tudio del trastorno. En vez de un grannúmero de genes con escasos efectos, setiene un solo gen responsable; aunqueson muchos los genes (hasta 100, según

 Wigler) que pueden desempañar esa fun-ción.

 Wigler explica que algunos genes alte-rados o suprimidos de forma esporádicamuestran una elevada penetrancia (pro-porción de individuos portadores de ungenotipo que muestran el fenotipo espe-rado); ello conlleva un alto riesgo, sobretodo para los varones. Esas mutacionesinsidiosas suelen desaparecer al cabo dedos o tres generaciones, pero el autismoprobablemente persiste como fenotipoporque los portadores, en su mayoría mu-

 jeres, poseen genes modificadores que los

protegen. No parece, sin em-bargo, probable que tales genesdefiendan a la descendenciamasculina. Según Wigler, lastasas de autismo son demasia-do elevadas para atribuir la ma-yoría de los casos a mutaciones

espontáneas. No podemos ol-vidar que convivimos con laevolución.

Si unos expertos consideranque el modelo de mutacionesespontáneas de Wigler ofreceuna manera más simple deabordar la genética de la enfer-medad, otros lo encuentran in-completo. Aducen éstos que lateoría no da cuenta de los ca-sos de familias con un niñoautista en las cuales los parien-

tes de segundo o tercer gradotambién se ven afectados, o enlas cuales los parientes de pri-mer grado muestran síntomasleves del trastorno. El modelotampoco explica por qué lasniñas no desarrollan el autismocon la misma frecuencia quelos niños.

 Wigler cree que una estadís-tica más completa ayudaría ademostrar su teoría. Así, la dis-crepancia entre niños y niñas

quedaría explicada si los modi-ficadores genéticos fueran es-

pecíficos del sexo, un efecto que se mani-festaría en madres normales que tuvieranuna niña autista. Wigler admite que no esla clase de teoría con la que uno se quedatranquilo porque resuelve el misterio,sino de las que te despiertan por la nochepara que sigas trabajando.

 Wigler recuerda una película que lecausó un gran impacto: Alejandro Magno,la historia del conquistador macedoniorodada por Robert Rossen en 1956, a la

que su abuelo le llevó a ver cuando conta-ba nueve años. En ella, Alejandro se en-frenta al nudo gordiano, una cuerda conuna lazada mítica sobre la que pesaba elaugurio de que quien la desatara conquis-taría Asia. En vez de tratar de desenredarla maraña, Alejandro desenfunda su espa-da y corta la cuerda.

 Wigler aprendió de esa historia que aveces no vemos la solución a un proble-ma porque no lo miramos directamente.Pero sólo con más datos se verá si susideas sobre el autismo van derechas a la

cuestión.   M   I   C   H   A   E   L   M   A   C   O   R   S   a   n   F   r   a   n   c   i   s   c   o   C    h   r   o   n   i   c    l   e   /   C   o   r    b   i   s

ROMPECABEZAS GENERACIONAL: algunas personas sanas podrían

ser portadoras de genes del autismo, lo que permitiría explicar el

patrón hereditario de este trastorno.

Page 48: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 48/9946  INVESTIGACION Y CIENCIA, mayo, 2008

El cambio climático después de BaliCon técnicas de coste asequible se puede prevenir el calentamiento global fomentando,

al mismo tiempo, el crecimiento económico

 Jeffrey D. Sachs

D E S A R R O L L O S O S T E N I B L E

 El acuerdo, al que se llegó en Bali elpasado diciembre, de iniciar dos

años de negociaciones sobre el cambioclimático fue una buena noticia, unejemplo raro de cooperación internacio-nal en un mundo que parece sumido enuna espiral de conflictos. Los más cínicospodrían señalar que el único avance fuellegar al acuerdo de seguir hablando. Su

cinismo todavía podría confirmarse. Contodo, se ha avanzado en el entendimientode que tomar medidas serias para contro-lar el clima es factible a un coste modes-to. Una convergencia digna de reseñar.

Las cuentas son cada vez más claras. Silos ingresos de las naciones ricas siguenaumentando y las naciones pobres conti-núan desarrollándose, acortándose las di-ferencias entre unas y otras, para 2050 laeconomía global podría haberse multipli-cado por seis y el consumo de energía,aproximadamente por cuatro. Actual-

mente, las emisiones de dióxido de carbo-no (CO2) generadas por el hombre sonde alrededor de 36.000 millones de tone-ladas anuales, de las cuales 29.000 millo-nes se deben a la quema de combustiblesfósiles y a los procesos industriales, y entorno a otros siete mil millones resul-tan de la deforestación tropical.

En términos generales, el incre-mento del nivel de CO2  por cada30.000 millones de toneladas emitidases de alrededor de dos partes por millón(ppm). La concentración actual de CO2 

en la atmósfera se cifra en torno a 380ppm, cuando a comienzos de la era in-dustrial, hacia 1800, era de 280 ppm. Así,para llegar a las 440 ppm hacia mediadosde siglo —un nivel perfectamente alcan-zable y todavía “saludable” en términosde sus probables consecuencias para elcambio climático, pero 60 ppm superioral actual— la acumulación de emisionesen la atmósfera debería mantenerse alre-dedor de los 900.000 millones de tonela-das, o en torno a los 21.000 millones detoneladas al año de promedio hasta 2050.

Este objetivo podría alcanzarse poniendo

fin a la deforestación y reduciendo un ter-cio nuestras emisiones actuales produci-das por los combustibles fósiles.

¿Puede la economía mundial consumircuatro veces más energía primaria redu-ciendo al mismo tiempo una tercera partede las emisiones?

Parece que existe una estrategia básicaprometedora: producir una electricidad

prácticamente libre de emisiones a travésde la movilización masiva de energía solary nuclear y la captación y almacenamien-to de dióxido de carbono en centrales decombustión de carbón. Con una red eléc-trica general limpia, la mayor parte de lasemisiones restantes puede también con-trolarse. En menos de un decenio, losautomóviles híbridos recargables en la red

eléctrica consu-mirán probable-mente menos de2,5 litros cada

100 km. Laelectricidad limpia

podría producir hidró-

geno para vehículos impulsados por pilasde combustible y reemplazar las calderasdomésticas. A los mayores emisores in-dustriales se les podría instar (o incitarpor medio de impuestos y permisos nego-ciables) a que capturen cierta cantidad desus emisiones de CO2 o reconviertan par-te de sus procesos para seguir funcionan-do con pilas eléctricas y electricidad pri-maria limpia.

La captación y almacenamiento decarbono en centrales eléctricas de com-bustión de carbón sólo incrementaría el

coste de la electricidad tres céntimos de

dólar por kilowatt-hora, según un infor-me especial del Panel Intergubernamentalsobre Cambio Climático. La conversióntotal de EE.UU. a energía solar puedeimplicar un incremento del coste de alre-dedor de cuatro céntimos por kilowatt-hora, y la electricidad tendría un coste to-tal del orden de ocho a nueve céntimosde dólar por kilowatt-hora. Con este in-

cremento, que supone mucho menos deluno por ciento de los ingresos anualesmundiales, se produciría la conversión auna red eléctrica limpia. En el resto de lossectores el coste será igualmente bajo.Con el ahorro de combustible que supon-drán los coches de bajas emisiones se po-dría fácilmente sufragar las baterías o pi-las de combustible. Calentar los edificiosde viviendas con electricidad (o un siste-ma mixto) en vez de calderas proporcio-nará en general un ahorro neto, especial-mente si se combina con la mejora del

aislamiento.Las negociaciones de Bali tendrán éxi-

to si el mundo se preocupa también deapoyar la pronta adopción de técnicasde bajas emisiones. Ni las cuestiones deculpabilidad, ni el reparto de los costes,

ni la elección de los mecanismos de con-trol son tan importantes como el rápidodesarrollo técnico y su despliegue, respal-dados por un mecanismo de control ele-gido por cada país.

Si las técnicas menos contaminantesresultan de bajo coste, como parece vero-

símil, los países ricos podrán permitirselimpiar sus propios sistemas de energía y,a la vez, cargar con parte de los costes delos países pobres para que puedan realizarlas conversiones necesarias. El control cli-mático no es un juego moral. Es princi-palmente un reto técnico práctico y via-ble que, de llevarse a cabo correctamente,se puede conjugar con las necesidades yaspiraciones de una economía global encrecimiento.

 Jeffrey D. Sachs es director del Instituto de la

Tierra de la Universidad de Columbia.

Page 49: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 49/99INVESTIGACION Y CIENCIA, mayo, 2008 47

E

l año 1492 marca el primer contacto  entre la Europa renacentista y el Nue-

  vo Mundo. Pero hasta el inicio del si-glo los exploradores españoles no llegarona conocer las altas culturas que ocupaban elsur de México y Centroamérica. Cuando en1517 Francisco Hernández de Córdoba pusoel pie en Yucatán, quedó maravillado. Descu-brió la civilización maya, distinta de todas lasconocidas por los europeos.

El origen de los mayas se remonta al se-gundo milenio antes de Cristo. Compartennumerosos elementos culturales con el restode Mesoamérica: creencias escatológicas, cul-to funerario, escritura, calendario, sistema de

cómputo vigesimal, construcciones de basa-mentos piramidales, juegos de pelota y unaagricultura intensiva centrada en el maíz, frijol,calabaza y chile.

El territorio maya corresponde a la mayorárea cultural de la Mesoamérica prehispánica.Cubre el sudeste del territorio mexicano ac-tual, toda Guatemala, Belice, Honduras y ElSalvador; comunica con el océano Pacífico, elgolfo de México y el Caribe.

CosmologíaEn comparación con las mitologías clásicas

europeas, sabemos muy poco de la antigua

cosmovisión de los mayas. Sabido es que, conla conquista, se produjo una fatal destrucción

del legado escrito. Apenas se conservan librosprehispánicos sobre la visión que del cosmostenía este pueblo milenario. Los investigadoresrecurren a otras fuentes: las crónicas de Indias,obras de arte e inscripciones prehispánicas ytradiciones orales modernas, reminiscencias delas ideas y las creencias de la antigüedad.

 A diferencia de la cultura occidental, basadaen el concepto de un “destino final”, los ma-yas admitían un curso del universo y cuantocontenía. Pensaban que la vida y la muerte,la creación y la destrucción, coexistían y secomplementaban en una necesaria oposición

dinámica. Ese eterno devenir se desarrollabaen un espacio cósmico estratificado, mantenidopor las ramas, el tronco y las raíces de unaceiba gigantesca, árbol sagrado consideradoaxis mundi  (eje del mundo). En esa estructura,las capas celestes yacían sobre la superficieterrestre y ésta se asentaba sobre las esferasdel inframundo.

En esa cosmología, también el centro de laTierra, o  xibalba , ocupaba un lugar definido:un sitio obscuro donde gobernaban los señoresde la noche. Ahí residía el dios esqueletizado,o señor de la muerte, Yum Cimih. Daban ac-

ceso al inframundo ríos, ojos de agua, cenotes,

CONCEPTOS BASICOS

Los antiguos mayas con-

cebían el mundo como uncosmos estratificado. En

el centro yacía el xibalba  

(inframundo), un obscuro

lugar subterráneo al que

se accedía a través de ríos,

cuevas y cenotes.

Los muertos habitaban

en el xibalba  y ejercían su

poder sobre los vivos. Por

ello se conmemoraban

y veneraban mediante

ceremonias, ofrendas y

sacrificios.

La bioarqueología y la

arqueología funeraria

estudian los ritos funera-

rios mayas prehispánicos

a partir de sus vestigios

materiales. Ambas han

arrojado datos novedosos

sobre la vida y la muerte

de jefes mayas, como

lo demuestra el estudio

del mausoleo de Janaab´

Pakal en Palenque.

Los mayas actuales conservan ritos funerarios de una cultura milenariabasada en la continuidad

cíclica entre la vida  y la muerte, la creación y la destrucción

Vera Tiesler

Cultos funerarios

mayas

   C   A

   L   C   A   D   E   L   A   P   A   R   T   E   C   E   N   T   R   A   L   Y   D   E   R   E   C   H   A   D   E   L   V   A   S   O   P   O   L   I   C   R   O   M   O   K   E   R   R

   1   3   7   7   ;   R   E   D   I   B   U   J   A   D   O   P   O   R   V   E   R   A   T   I   E   S   L   E   R

Page 50: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 50/9948  INVESTIGACION Y CIENCIA, mayo, 2008

cuevas rocosas y las cavernas de las cadenasmontañosas detrás del horizonte.

Muerte, luto y conmemoraciónLos mayas creían en la vida después de la muer-

te, como parte fundamental de un continuo

cambio perenne de generación, destrucción yrenovación. Según el mito quiché del PopolVuh, la cabeza del difunto gemelo Hunahpú setransformó en un jícaro; en esa forma fecundóa una joven y de ese modo resucitó. En otraocasión, los huesos molidos de Hunahpú y

 Xbalanqué “germinaron” en el fondo de un

río, de donde renacieron los dos.Los mayas quichés actuales de Chichicaste-nango creen que el alma del muerto se reúnecon los ancestros; se asegura así la renovaciónde la vida. Bajo esa creencia subyace la ideaquiché de la continuidad cíclica de la vida,contenida en el término Jaloj-K’exoj . Esa expre-sión constituye la parte central de numerosasoraciones tradicionales. Expresa dos tipos decambio: el primer término,  Jal , designa lastransformaciones que se experimentan a lolargo de la vida (nacimiento, crecimiento yvejez); el segundo, K’ex , se refiere al cambio

generacional, a la renovación cíclica de la vida.Para la vida individual, ese cambio implica lasustitución, la muerte y la conversión en ances-tro. En conjunto, los dos cambios renuevan yperpetúan la vida y, con ello, la sociedad.

Con el concepto de Jaloj-K’exoj  guarda tam-bién relación la creencia de que la vida nacede la muerte. Los quiché lo expresan meta-fóricamente cuando comparan el desarrollode la vida humana con el crecimiento de lasplantas: las semillas de maíz corresponden a los“enterrados” o “pequeños cráneos”, los vástagosde una planta son “caras” que han salido y el

niño recién nacido “retoña” o “regresa”.La continuidad simbólica entre la vida y

la muerte se manifiesta en el devenir indi-vidual después del fallecimiento. Los mayasactuales de Yucatán siguen considerando lamuerte como el paso a otro estado. Duranteesa transición, y también después, permanecenlos lazos directos entre los familiares y el difun-to, al que se apoya en su trayecto al  xibalbá .Durante el tránsito, la forma de existenciadel finado se altera sólo al desintegrarse ensus componentes vitales: el espíritu inmortal(teyolía  o chu’lel ) y el cuerpo carnal ( puczikal ),

que se desvanece y muere al igual que el nagual  o alter ego  animal del desvanecido.

Las tradiciones funerarias del norte de Cam-peche recogen las antiguas creencias de con-tinuidad entre vida y muerte, entre vivos ymuertos. Se reflejan en la forma de comuni-cación con los muertos, en el tratamiento quereciben al ser enterrados y en las exhumacionesque se realizan, dos o tres años después, paralimpiar sus osamentas y colocarlas en osariosabiertos. Para los campechanos, los osariosson como casitas: “...Allá se meten los huesos.Depende de uno si se le pone puertita, ya sea

de vidrio o de madera; pero cuando le vaya a

1. LA EXUBERANTE

COSMOLOGIA MAYA aparece

labrada en la lápida mortuoria

que cubría el sarcófago del

gobernante Janaab’ Pakal

(centro).    M   E   R   L   E   G   R   E   E   N   E ,

   R   E   D   I   B   U   J   A   D   O   P   O   R   M   I   R   N   A   S   A   N   C   H   E   Z

Page 51: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 51/99

rezar se abre para que le dé el aire. Las casitasson para toda la familia; también se puedenponer amigos”.

Los cuidados en honor a los muertos se

reinician cada noviembre, mes de conviviocon los familiares que da comienzo con el Díade los Fieles Difuntos y termina treinta díasdespués con una fiesta de despedida. Duranteese tiempo, se mandan y reciben mensajes delos muertos que están de visita. Los familiaresse preparan para la ocasión: limpian y “visten”las osamentas; reparan y pintan las tumbas. Laarquitectura de las criptas individuales y colec-tivas guarda semejanza con las fachadas de lascasas, lo que confiere a los cementerios localesun aire de pequeñas ciudades mortuorias.

Prácticas funerariasSegún las antiguas creencias, el finado, ahoraen su estado incorpóreo, retenía ciertos po-

deres. Su cuerpo se consideraba una reliquia,ya que constituía el punto de enlace entresu nuevo lugar de permanencia y la tierra;se hallaba entre los vivos y los muertos. Fray

Diego de Landa afirmaba, en referencia a losmayas yucatecos del siglo , que los vivosproporcionaban maíz, bebida y moneda a susdifuntos con la finalidad de que no les faltasenada en la otra vida. El lugar del enterra-miento solía ser la misma residencia, antescompartida y ahora ocupada por los familiaressupervivientes.

El luto y la conmemoración de los ante-pasados hacen patente la importancia que surecuerdo tenía para la vida cotidiana, sobretodo en una sociedad regida por la estruc-tura familiar y los lazos de parentesco. La

memoria colectiva otorgaba una identidad acada descendiente y una identificación conel grupo.

   I   N

   V   E   S   T   I   G   A   C   I   O   N   Y   C   I   E   N   C   I   A    (   m   a   p   a    )   ;   V   E   R   A   T   I   E   S   L   E   R    (   a    b   a   j    o    )

Tula

Teotihuacán

TenochtitlánPalenque

Chichén Itzá

Oxkutzcab

UaxactúnTical

Ucanal

Machaquila

Seibal

Xkipché

Yucatán

MEXICO

BELICE

HONDURAS

EL SALVADOR

GUATEMALA

2. EL TERRITORIO MAYA cubre el

sudeste del territorio mexicano

actual, toda Guatemala, Belice,

Honduras y El Salvador.

3. TRONCO ESPINOSO DE UNA

CEIBA, árbol considerado el ejedel mundo ( axis mundi ) en la

mitología maya.

Page 52: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 52/9950  INVESTIGACION Y CIENCIA, mayo, 2008

Los vestigios materiales que se han halladoen los yacimientos mayas prehispánicos ponende manifiesto la riqueza de los ritos mortuo-rios. Subrayan, además, la importancia que elculto a los muertos revestía para los mayas.Diversas en número y calidad, las ofrendas delinterior de las sepulturas constan de objetos

de atuendo y de uso cotidiano. Los espaciosmortuorios (desde los pozos sencillos excavadosen la tierra, hasta las criptas y las cámaras fu-nerarias ricamente ataviadas del primer mileniodespués de Cristo) se distribuyen sobre tododebajo de las áreas residenciales. También lascuevas, los ojos de agua, los cenotes y otrascavidades naturales servían como receptáculosde cuerpos y osamentas.

El culto a los antepasados no se extendíade forma simétrica a todos los difuntos, sinoque privilegiaba a los miembros regentes, comochamanes y gobernantes. Esos jerarcas se con-

sideraban dotados de poderes especiales, puesfungían como intermediarios entre sus descen-dientes y los dioses, para, incluso después de sudeceso, asegurar el bienestar y la continuidaddel grupo. Las pompas fúnebres celebradasen ocasión de la muerte de un jefe local y sumismo lecho mortuorio en los aposentos delpoder de los centros urbanos no respondensólo a una motivación religiosa, sino tambiéna una estrategia para la legitimación de lasupremacía política y la reafirmación de lascondiciones sociales del grupo al frente dela sociedad.

Las edificaciones funerarias mayas más ela-boradas datan del primer milenio después deCristo, época de auge social y político queterminó con el colapso de las estructuras depoder y el ulterior abandono de zonas ex-tensas de la Tierras Bajas Centrales. De esetiempo se conocen un gran número de estelasconmemorativas y cámaras funerarias; algunascontienen féretros monolíticos. Los jefes solíansepultarse amortajados y cubrirse con pigmen-to rojo antes de enterrarlos en la tumba. Ahíse les agregaba una abundante cantidad deobjetos suntuarios y, con frecuencia, el cuerpo

de acompañantes sacrificiales.

Sacrificios humanos A la muerte natural le seguían el luto y laconmemoración de familiares y deudos. Lamuerte ritual y los tratamientos postsacrifi-ciales, en cambio, tenían otra connotación.El difunto cobraba vida al fungir como in-termediario con lo sagrado. Las prácticassacrificiales mayas anteceden en más de unmilenio a las toltecas y aztecas. Al igual quepara los grupos del Altiplano Central mexi-cano, el sacrificio humano era para los mayas

la máxima expresión religiosa, el mejor medio    P   A

   T   R   I   C   I   A   T   A   M   E   S    (    f   o   t   o   g   r   a    f    í   a    )

EL MAUSOLEODEL REY PAKAL

E

n los años cincuenta del siglo pasado, el equipo de arqueólo-

  gos liderado por Alberto Ruz Lhuillier descubrió en Palenque el

monolito funerario que abriga los restos mortales del monarca K’inich

 Janaab’ Pakal . La minuciosa excavación del núcleo del Templo de las

Inscripciones condujo al que se considera uno de los grandes hallazgos

arqueológicos mundiales. Las investigaciones epigráficas indican que

Pakal nació en 603 y fue entronizado a los doce años. Tras dominar la

escena política durante más de medio siglo, falleció a los ochenta años

para unirse con sus ancestros en un altar en la casa de las nueve figuras,

que adecuó su hijo y sucesor al trono Chan Balam.

Los preparativos para el funeral del rey comenzaron años antes de su

muerte. El mismo Pakal supervisó la construcción del mausoleo en sus

primeras fases. Su hijo encargaría después la decoración de las paredes

y el monumental sarcófago. El cuerpo del rey se bañó de forma alternada

con cinabrio rojo y materiales orgánicos de tono negruzco. Portaba

consigo su rico atuendo personal, confeccionado en jadeíta y concha:

un pectoral, aretes esgrafiados, pulseras y anillos; le cubría la cara una

máscara de teselas del mismo material. Abundantes utensilios y objetos

suntuarios le acompañaron en su última morada. Una vez cerrada la

cavidad, el acceso monolítico se selló con una ofrenda de víctimas

sacrificiales. Frente a la entrada de la cámara funeraria se halló un arca

que contenía los restos articulados de, por lo menos, cinco personas.Los

estudios bioarqueológicos de la osamenta de Pakal no hallaron vestigios

de enfermedades carenciales. El joven aspirante al t rono creció, pues,

sin privaciones y en unas condiciones de vida favorables. Gozaba de una

buena alimentación y llevaba una vida sedentaria. Sin embargo, se le de-

tectó osteoporosis degenerativa crónica, asociada a un proceso ar trítico

de la espina dorsal, que le habría causado dolor de espalda durante los

últimos años de vida.

RESTOS MORTALES de K’inich Janaab’

 Pakal , gobernante de Palenque.

Una capa de cinabrio les confiere

esta intensa coloración rojiza.

Page 53: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 53/99INVESTIGACION Y CIENCIA, mayo, 2008 51

para obtener el beneplácito y la intervenciónde los dioses, y garantizar así el bienestar dela comunidad. El sacrificio consistía en ladestrucción de la vida misma, la donaciónde las esencias vitales y la invocación de losagrado.

Según los cronistas, las víctimas solían seresclavos, prisioneros de guerra, huérfanos ohijos de los propios miembros de la comu-nidad, que eran entregados para el sacrificio.La preparación de la ceremonia culminantepodía durar varios meses. La ejecución se rea-

lizaba por extracción del corazón, estando la

víctima en posición supina, o decapitación.Otras formas de matar, menos documentadas,correspondían a la lapidación, el ahogamien-to y la muerte a saetazos. Tras la ejecución,el cuerpo de la víctima —ahora parte de losagrado— podía seguir siendo objeto de ritospóstumos.

Sabemos por la iconografía y las marcasantropogénicas halladas en restos humanos,que los mayas desollaban, descarnaban ydesmembraban a algunas víctimas. Según

De Landa y Sánchez de Aguilar, los frag-mentos de los cuerpos se distribuían entrelos sacerdotes; luego se enterraban frente alos templos y adoratorios, se abandonabanen el monte o se arrojaban en pozos secos,cenotes y cuevas.

Arqueología mortuoria¿Cómo investigar los ritos funerarios mayasprehispánicos? ¿De qué nos valemos para reco-nocer la muerte ritual en sus múltiples facetasy expresiones, tangibles e intangibles? En laarqueología funeraria mayista, interdisciplina-

ria, confluyen la arqueología, la antropologíafísica, la historia del arte y la epigrafía (estudiode inscripciones y glifos).

En el área maya, la investigación de losritos funerarios prehispánicos se enfrenta aun estado de conservación de los restos hu-manos muy precario. De ahí el interés de losestudios tafonómicos, que evalúan los fac-tores extrínsecos e intrínsecos que influyenen la descomposición de los cuerpos. Se haincrementado, además, la investigación de loscomplejos funerarios desde el enfoque nove-doso de la “bioarqueología”, que estudia los

restos humanos en su contexto, y desde una

4. VERTEBRAS CERVICALES

HUMANAS halladas en

los aposentos reales de la

metrópolis clásica de Calakmul,

en Campeche. A la izquierda,

tercera vértebra cervical con

corte horizontal que indica

una posible decapitación.

La vértebra de la derecha

presenta otro tipo de marcas

antropogénicas: cortes por

deslizamiento sucesivo que

evidencian un desprendimiento

póstumo de partes blandas.

   V   E

   R   A   T   I   E   S   L   E   R   ;   P   R   O   Y   E   C   T   O   A   R   Q   U   E   O   L   O   G   I   C   O   C   A   L   A   K   M   U   L    (   I   N   A   H    )

Page 54: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 54/9952  INVESTIGACION Y CIENCIA, mayo, 2008

óptica biocultural. El marco teórico de esadisciplina requiere la estrecha colaboraciónde especialistas y el aprovechamiento de losdatos extraídos de los trabajos histológicos ymoleculares. El desarrollo de la bioarqueologíaestá cosechando resultados e interpretacionescada vez más atractivos. La reciente recreaciónde los linajes dinásticos se ha basado en laepigrafía.

 Añádase que el estudio forense ha permi-tido perfilar la biografía de los soberanos de

Calakmul, Copán y Tikal. Arrojan luz no sólosobre aspectos específicos de su vida (lugar

de nacimiento, residencia, enfermedades yaspecto físico), sino también sobre las pom-pas fúnebres que se celebraron en su honor yconmemoración.

El mausoleo del rey PakalEl estudio del mausoleo de Janaab’ Pakal dePalenque marca el ritmo de los avances ennuestro conocimiento de la vida y la muerteen la sociedad maya. El descubrimiento, en losaños cincuenta del siglo pasado, del monolito

funerario que abriga los restos mortales dePakal se considera uno de los grandes hallazgos

   ©    i   S

   t   o   c    k   p    h   o   t   o    (   a   r   r   i    b   a    )   /   V   E   R   A   T   I   E   S   L   E   R    (   a    b   a   j    o    )

6. LAS OSAMENTAS de una mujer y un hombre comparten el espacio de un osario en Pomuch,

Campeche. Sus familiares las han “vestido” con una tela bordada con coloridos motivos florales que

lleva el nombre de la difunta.

Vera Tiesler obtuvo el doctorado

en antropología por la Universi-

dad Nacional Autónoma de Méxi-

co. Complementó su formación

con estudios de historia, medicina

y antropología física. Desde 2000

es profesora investigadora en la

facultad de ciencias antropológi-

cas de la Universidad Autónoma

de Yucatán en Mérida. Centra su

trabajo en la paleodemografía,

histología y patología, prácticas

bioculturales, tafonomía y ritos

funerarios mayas.

La autora

5. LOS TRES TEMPLOS DE

PALENQUE fueron empleados

por la elite como lugares de

culto y sepultura. Al frente, el

templo de las Inscripciones.

Page 55: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 55/99INVESTIGACION Y CIENCIA, mayo, 2008 53

arqueológicos mundiales. La minuciosa excava-ción del núcleo del Templo de las Inscripcionesde Palenque condujo al equipo de arqueólogosliderado por Alberto Ruz Lhuillier hasta lamonumental cámara funeraria.

Unos veinte años después de ese descubri-miento, la epigrafía descifraba las inscripcionesque asignaban nombre y cronología vital aldignatario. Según éstas, K’inich Janaab’ Pakal  nació en 603 y fue entronizado a los doceaños. Tras dominar la escena política durantemás de medio siglo, falleció a los ochentaaños.

Los preparativos para el funeral de Pakalcomenzaron años antes de su muerte. El mis-mo supervisó la construcción del mausoleoen sus primeras fases. Después, su hijo ysucesor al trono, Chan Balam, encargaría ladecoración de las paredes y del monumentalsarcófago que hoy se reconoce por su ele-gante ejecución y simbología. En su últimamorada en la cámara de las nueve figuras,acompañaron a Pakal abundantes utensiliosy objetos suntuarios.

Una vez cerrada la cavidad, el acceso mo-nolítico se selló con una ofrenda de víctimas

sacrificiales, que habrían de acompañar al se-

midivino ancestro Janaab’ Pakal. Frente a laentrada de la cámara funeraria en el Templode las Inscripciones se halló una enigmáticaarca de piedra sellada. La excavación abrió elcontenido de la misma: los restos articuladosde por lo menos cinco personas, adultos ymenores de edad, acomodados apretadamen-te en su interior para acompañar al difuntoPakal.

Los estudios bioarqueológicos de la osa-menta confirmaron la avanzada edad de Pakal,asentada en las inscripciones. No se hallaronvestigios de enfermedades carenciales. El joven

aspirante al trono creció, pues, sin privacionesy en unas condiciones de vida favorables. Go-zaba de una alimentación equilibrada y llevabauna vida sedentaria. Sin embargo, se le detectóosteoporosis degenerativa crónica, asociada aun proceso artrítico de la espina dorsal que lehabría causado dolor de espalda durante losúltimos años de vida.

Este breve recorrido por la muerte, el lutoy la conmemoración entre los mayas nos hapermitido vislumbrar la riqueza y creatividadde sus ritos funerarios, al tiempo que muestrala integración de los mismos en los códigos

sociales e ideologías.   V   E

   R   A   T   I   E   S   L   E   R

COSTUMBRES FUNERARIAS DE

LOS ANTIGUOS MAYAS. AlbertoRuz Lhuillier. Universidad Na-cional Autónoma de México;México, D.F., 1991.

LIVING WITH THE ANCESTORS.

KINSHIP AND KINGSHIP IN AN-

CIENT MAYA SOCIETY. PatriciaA. McAnany. University ofTexas; Austin, 1995.

ANTROPOLOGIA DE LA

ETERNIDAD: LA MUERTE EN LA

CULTURA MAYA. Dirigido porAndrés Ciudad Ruiz, Mario

Humberto Ruz Sosa y MaríaJosefa Iglesias Ponce deLeón. Sociedad Española deEstudios Mayas/UniversidadNacional Autónoma de Méxi-co, Madrid, 2003.

K’INICH JANAAB’ PAKAL DE

PALENQUE. VIDA Y MUERTE

DE UN GOBERNANTE MAYA .Vera Tiesler y Andrea Cucina.Universidad Nacional Autóno-ma de México/UniversidadAutónoma de Yucatán; Méxi-co, D.F., 2005.

Bibliografíacomplementaria

7. LOS CEMENTERIOS CAMPECHANOS que se encuentran a lo largo del Camino Real entre Campeche y

Mérida constituyen un verdadero hogar para los difuntos y un lugar de convivio con los familiares. Las

criptas y las fachadas de los osarios les confieren el aspecto de ciudades en miniatura. En la fotografía, el

cementerio de la pequeña comunidad de Poc-Boc.

Page 56: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 56/9954  INVESTIGACION Y CIENCIA, mayo, 2008

CONCEPTOS BASICOS

La sustancia blanca,

que se consideraba un

tejido pasivo, participa de

manera activa en el apren-

dizaje y las disfunciones

cerebrales.

La sustancia gris (neuro-

nas) es responsable del

razonamiento y el cálculo

mental. La sustancia

blanca (axones recubier-

tos de mielina) controla

las señales compartidas

por las neuronas; coordina

el trabajo en equipo de las

regiones del cerebro.

Una nueva técnica de

resonancia magnética, la

tractografía por tensor de

difusión, muestra la sus-

tancia blanca en acción.

Pone de relieve la función

de la misma, subestimada

hasta ahora.

Cuando nacemos, la mieli-

na está sólo parcialmente

formada; se desarrolla

luego de modo gradual

hasta la mitad de la

segunda década de vida.

El ritmo y la comple-

ción de la mielinización

influyen en el aprendizaje,

el autocontrol y ciertas

enfermedades mentales

como la esquizofrenia, el

autismo y la mitomanía.

¿Qué función cumpleQué función cumple

  la sustanciala sustancia

¿Qué función cumple

  la sustancia

Imagínese la posibilidad de observar a travésdel cráneo para averiguar qué es lo quehace que un cerebro sea más inteligente

que otro. O descubrir si ciertos rasgos ocul-tos podrían favorecer la esquizofrenia o ladislexia. Una nueva técnica de formación deimágenes está arrojando luz sobre la fisiologíacerebral. Los resultados revelan un fenómenosorprendente: la inteligencia y varios trastor-nos mentales podrían depender de conexio-nes cerebrales constituidas exclusivamente desustancia blanca.

La sustancia gris corresponde al lugar

donde se elaboran los cálculos mentales y sealmacenan los recuerdos. Constituye la capasuperficial del cerebro; consta de somas neu-ronales densamente agrupados (la parte concapacidad de decisión de las neuronas). Debajode la misma se encuentra la sustancia blanca,que ocupa casi la mitad del cerebro humano,una proporción menor en otros animales. Lasustancia blanca está formada por millones devías de comunicación, cada una compuestapor un cable largo e independiente, el axón,cubierto por una sustancia blanca y grasa: lamielina. A la manera de las líneas principales

de una red telefónica nacional, esos cablesblancos comunican las neuronas de una regióndel cerebro con las de otras regiones.

Durante decenios, los neurocientíficos hanmostrado escaso interés por la sustancia blanca.Consideraban que la mielina era una simplevaina aislante y los cables que ceñían, merasvías pasivas. Las teorías sobre el aprendizaje, lamemoria y los trastornos mentales se centrabanen los fenómenos moleculares que ocurrían enel interior de las neuronas y en las sinapsis, losdiminutos puntos de contacto entre éstas.

Los expertos se están percatando ahora de

que han subestimado la función de la sustan-

cia blanca en la transmisión de informaciónentre regiones cerebrales. Nuevos estudiosrevelan que la extensión de la sustancia blancavaría de un sujeto a otro en razón de susexperiencias mentales o a causa de ciertasdisfunciones. También experimenta cambiosconforme el individuo aprende o practicauna destreza; por ejemplo, tocar el piano.Las neuronas de la sustancia gris ejecutanlas actividades mentales y físicas; la sustan-cia blanca participaría en la adquisición dehabilidades mentales y sociales, y explicaríala dificultad que presentan los perros viejos

en aprender nuevos trucos.

Estimulación de la mielinizaciónLa mielina, que confiere a la sustancia blancasu color, ha constituido una fuente de miste-rios. Durante más de un siglo, los científicoshan venido examinando las neuronas a travésdel microscopio: observaban unas fibras largas,los axones, que se extendían desde un somaneuronal hasta otro vecino, de forma parecidaa un dedo alargado y estirado. Cada axón es-taba cubierto por un gel cristalino grueso. Losanatomistas supusieron que la capa grasa debía

aislar los axones, igual que el revestimiento degoma de un cable de cobre. No obstante, ungran número de axones, sobre todo los máspequeños, carecían de cubierta. Asimismo, a lolargo de las fibras aisladas, aproximadamentea cada milímetro, aparecían interrupciones dela vaina aislante. Esas porciones desnudas sedenominaron nódulos de Ranvier, en honor deLouis-Antoine Ranvier, que los descubrió.

Se sabe que los impulsos nerviosos recorrenlos axones cien veces más deprisa cuando sehallan cubiertos de mielina y que la mielinaenvuelve un axón como si se tratara de una

cinta aislante, con hasta 150 capas concén-

R. Douglas Fields

Page 57: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 57/99INVESTIGACION Y CIENCIA, mayo, 2008 55

   E   S

   C   U   L   T   U   R   A   D   E   M   A   R   G   I   E   M   C   D   O   N   A   L   D ,

   F   O   T   O   G   R   A   F   I   A   D   A   P   O   R   F   R   A   N   K   R   O   S   S

blanca?blanca?

tricas entre nódulos. La sustancia se fabricaen láminas. De ello se encargan dos tipos decélulas gliales.

La neuroglía corresponde a un conjunto decélulas que, si bien no son neuronas, abun-dan en el cerebro y el sistema nervioso [véase  “Células de la glía”, por R. Douglas Fields;

I C, junio de 2004].

Los oligodendrocitos, unas células gliales conforma de pulpo, construyen la envoltura.

Las señales eléctricas, que no pueden esca-parse a través de la vaina de mielina, circulanvelozmente por el axón de un nódulo a otro.En los nervios fuera del cerebro y de la mé-dula espinal, unas células gliales alargadas, las

células de Schwann, sintetizan la mielina.

1. LA ESCULTURA corresponde a

una vista superior de la cabeza:

se muestran la corteza cerebral

(cobre) y la sustancia blanca

(centro).

La sustancia blanca del cerebrose consideraba soporte pasivo

de la actividad neuronal.La investigación reciente

demuestra que intervieneen el aprendizaje

 y en la enfermedadmental

Page 58: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 58/9956  INVESTIGACION Y CIENCIA, mayo, 2008

   J   E   N   C   H   R   I   S   T   I   A   N   S   E   N    (   i    l   u   s   t   r   a   c   i    ó   n    )   ;   D   E   R   E   K   J   O   N   E   S   U   n   i   v   e   r   s   i    d   a    d    d   e   C   a   r    d   i    f    f    (   t   r   a

   c   t   o   g   r   a    f    í   a    d   e    l   c    í   n   g   u    l   o    )

¿QUE ES LA SUSTANCIA BLANCA?

56

¿QUE ES LA SUSTANCIA BLANCA

Cíngulo

Cuerpo calloso

Corteza

Cuerpo calloso

Sustancia blanca

Sustancia gris

Cíngulo

Neurona

Mielina

Axón

La sustancia blanca ocupa casi la mitad del cerebro. Consta de millones de

cables ( blanco) que conectan neuronas ( sustancia gris) de distintas regio-

nes del cerebro; el entramado guarda semejanza con las líneas principales

de la red telefónica nacional.

El cuerpo calloso,una masa de cables desustancia blanca, poneen comunicación a los hemisferiosizquierdo y derecho. En cada lado, loscables se extienden hacia arriba y haciafuera en dirección a la corteza, creando elcíngulo. Una nueva técnica de formación deimágenes cerebrales, la tractografía portensor de difusión, representa el trazado delcableado.

Cada cable conecta una neurona de unaregión con otra neurona de otro lugar. Un cablecorresponde a un axón aislado con mielina decolor blanco lechoso.

Sin la mielina, la señal se escapa y se disipa.Para conseguir una velocidad de conducciónmáxima, el grosor del aislante debe guardaruna proporción determinada con el diámetrode la fibra que envuelve. La relación óptimaentre el diámetro del axón desnudo y el diá-metro total de la fibra (incluida la mielina) es

de 0,6. Se desconoce el modo en que “saben”los dendrocitos el número de capas de aislantenecesarias para crear el grosor apropiado enaxones de diferente diámetro. Pero en fechareciente, Klaus-Armin Nave, del Instituto MaxPlanck de Medicina Experimental en Gotinga,descubrió que las células de Schwann detectanuna proteína que reviste los axones: la neurre-gulina. Si se aumenta o inhibe la cantidad deesa proteína, la célula de Schwann producemayor o menor número de capas de mielinaalrededor del axón. Curiosamente, muchaspersonas que sufren trastorno bipolar o es-

quizofrenia poseen un defecto en el gen queregula la síntesis de esa proteína.

La mielinización se produce a edades distin-tas. En el recién nacido, la mielina predominasólo en unas pocas regiones cerebrales; aumenta

luego a un ritmo irregular. En ciertos lugaresla deposición del aislante no termina hasta los25 o 30 años. Cuando el individuo alcanza laedad adulta, la mielinización progresa comouna onda, desde la parte posterior de la cortezacerebral (nuca) hasta la parte frontal (frente).Termina en los lóbulos frontales, las regiones

responsables de la planificación, el juicio y elrazonamiento de nivel superior, capacidadesque se adquieren sólo con la experiencia. Seha conjeturado que la escasez de mielina enel prosencéfalo explica que los adolescentesno posean la capacidad de los adultos paratomar decisiones. Ante tales observaciones, sepresume la importancia crítica de la mielinapara la inteligencia.

Se admite también que el proceso de re-vestimiento de los axones no termina hastael principio de la edad adulta, pues en eseperíodo inicial los axones continúan crecien-

do, se ramifican y orientan en función de laexperiencia del individuo. Una vez los axonesse hallan mielinizados, los cambios que expe-rimentan son más limitados. Durante años,persistió el debate en torno a determinadas

R. Douglas Fields dirige la

sección de desarrollo y plastici-

dad del sistema nervioso en el

estadounidense Instituto Nacional

de Salud Infantil y Desarrollo

Humano. Ha escrito varios artícu-

los para Mente y cerebro y paraInvestigación y Ciencia.

El autor

Page 59: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 59/99INVESTIGACION Y CIENCIA, mayo, 2008 57

cuestiones abiertas: ¿está programada la mie-linización o son nuestras experiencias vitaleslas que determinan el número de capas y, enconsecuencia, influyen en nuestro aprendizaje?¿Aumenta con la mielina nuestra capacidadcognitiva? ¿Se encuentra acaso restringida lacognición en las regiones donde la mielina no

se ha acumulado todavía?Fredrick Ullén, pianista virtuoso y profesoren el Instituto del Cerebro de Estocolmo, seempeñó en despejar los interrogantes. En elaño 2005, con sus colaboradores aplicó unanueva técnica de formación de imágenes cere-brales, la tractografía por tensor de difusión,para examinar el encéfalo de pianistas profe-sionales. Esa técnica utiliza el mismo aparatode resonancia magnética nuclear que operaen los hospitales, pero se basa en la aplica-ción de distintos algoritmos y tipo de campomagnético.

Se crean imágenes de múltiples seccionesdel cerebro que, en conjunto, generan unaimagen tridimensional. Las secciones repre-sentan los vectores que definen el movimientodel agua en el tejido; los vectores se definenmatemáticamente en forma de tensores (ma-trices 3 × 3 de vectores). En la sustancia grislas señales del tensor de difusión son débilesporque el agua se orienta de forma simétrica.Pero a lo largo de los cordones de axonesel agua se orienta de forma asimétrica; estepatrón irregular ilumina la sustancia blancay expone las vías principales de transferencia

de información entre las regiones cerebrales.Cuanto mayor sea la cobertura de mielina yla unión entre fibras, mayor será la intensidadde la señal del tensor de difusión.

Ullén descubrió que, en los pianistas pro-fesionales, ciertas regiones de sustancia blancase hallaban más desarrolladas que en las per-sonas legas. Las regiones implicadas poníanen conexión partes de la corteza cerebral fun-damentales para la digitación con zonas quedirigen otros procesos cognitivos que operancuando se interpreta música.

También halló que cuantas más horas al

día había ensayado un músico a lo largo deltiempo, más intensas eran las señales del tensorde difusión en esos cordones de materia blan-ca; asimismo, los axones presentaban mayornúmero de capas de mielina o una unión másestrecha. Quizá los axones sencillamente se ha-bían extendido, con lo que habrían requeridomayor cobertura de mielina para mantener elcociente óptimo de 0,6. Mientras no se realiceuna autopsia, la pregunta permanecerá abierta.Con todo, el descubrimiento reviste importan-cia, pues demuestra que el aprendizaje de unahabilidad compleja produce cambios notables

en la sustancia blanca, una estructura cerebral

que no contiene somas neuronales ni sinapsis,sólo axones y neuroglía.

La investigación sobre animales, cuyo ce-rebro sí se examina físicamente, revela que lacobertura mielínica cambia en función dela experiencia mental y el entorno del animaldurante el crecimiento. En 2005, William T.Greenough, de la Universidad de Illinois enUrbana-Champaign, demostró que las ratasque crecían en un entorno de estimulación(con acceso a múltiples juguetes e interacciónsocial) presentaban fibras más mielinizadas enel cuerpo calloso, un haz apretado de axones

que pone en conexión los dos hemisferioscerebrales.

Los resultados parecen concordar con los es-tudios que ha llevado a cabo Vincent J. Schmi-thorst, del Hospital Infantil de Cincinnati,mediante la técnica del tensor de difusión. Secomparó la sustancia blanca de niños de edadescomprendidas entre 5 y 18 años. Se halló unacorrelación directa entre el desarrollo de laestructura de la sustancia blanca y el cocienteintelectual. Otras investigaciones ponen demanifiesto que los niños desatendidos poseenhasta un 17 por ciento menos de sustancia

blanca en el cuerpo calloso.   P   H

   I   L   I   P   S   H   E   A   L   T   H   C   A   R   E    (   a   p   a   r   a   t   o    )   ;   Z   E   P   H   Y   R   /   P   H   O   T   O   R   E   S   E   A   R   C   H   E   R   S ,

   I   N   C .

    (   i   m

   a   g   e   n   e   n   c   o    l   o   r    )   ;   J   O   E   G   A   L   L   I   V   A   N   U    l   s   t   e   r   M   e    d   i   c   a    l   a   n    d   S   u   r   g   i   c   a    l   S   p   e   c   i   a    l   i   s   t   s    (

   i   m   a   g   e   n   e   n    b    l   a   n   c   o   y   n   e   g   r   o    )

Frente

Parte posterior

2. LA RESONANCIA MAGNETI-CA al uso ( arriba) ofrece una

representación aproximada de

la sustancia blanca ( zonas gris

oscuro, abajo a la izquierda).

Una nueva técnica de resonan-

cia magnética, la tractografía

por tensor de difusión, pone de

relieve la estructura con mayor

detalle ( abajo, derecha): el

color rojo y el amarillo indican

una mayor organización de la

sustancia blanca.

Page 60: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 60/9958  INVESTIGACION Y CIENCIA, mayo, 2008

Función cerebralEsos hallazgos indican que la experiencia influyeen la mielinización y que la mielina acumuladarefuerza el aprendizaje y mejora las destrezas.

 Admitido eso, hemos de dar con una explicaciónverosímil sobre el modo en que la abundanciade mielina estimula las funciones intelectuales,

así como una prueba directa de que su defectoaltera las capacidades mentales.En nuestro laboratorio hemos descrito varios

mecanismos mediante los cuales la experienciainfluye en la mielinización. En el cerebro, lasneuronas descargan impulsos a lo largo de losaxones. Si se hacen crecer neuronas de feto deratón en placas de cultivo provistas de electro-dos de platino, se pueden imponer patrones deimpulsos en las mismas. Mediante ese método,descubrimos que los impulsos provocados re-gulaban genes específicos en las neuronas. Unode ellos correspondía a L1-CAM, una proteína

“pegajosa” que resulta esencial para adherirla primera capa que ciñe al axón cuando lamielina empieza a acumularse.

Observamos también que la neuroglía “acu-sa” los impulsos descargados a lo largo delos axones y que el tráfico detectado altera elgrado de mielinización; un tipo de célula glial,el astrocito, libera un factor químico cuando

nota un mayor flujo de impulsos. Ese códigoquímico estimula en los oligodendrocitos lasíntesis de mielina. Los niños que contraenla enfermedad de Alexander, un trastorno letalque provoca retraso mental y alteración de lamielina, poseen una mutación en un gen delastrocito.

Para mejor expresar la relación de la sustan-cia blanca con la capacidad cognitiva podemosvalernos de una analogía. A la manera de In-ternet, diríase que la información del cerebrodebería transmitirse lo más rápido posible. Paraello, todos los axones tendrían que hallarsemielinizados por igual. Ahora bien, en neu-rología, más veloz no significa necesariamentemejor. La información debe recorrer distanciasenormes entre los centros cerebrales. Cadacentro desempeña una función determinada yenvía sus datos a otra región para que realicela etapa siguiente del análisis.

En el aprendizaje de una actividad compleja(tocar el piano, por ejemplo), los mensajesvan y vienen entre numerosas regiones; unainformación que fluye a través de distintasdistancias ha de llegar de forma simultáneaa un lugar y en un instante precisos. Paraconseguir tal coordinación son necesarios losretrasos. Si todos los axones transmitieran in-

FORMACION DE LA MIELINA

ENFERMEDADES

CONOCIDAS

Se sabe que la deficiencia o

ausencia de mielina en el sistema

nervioso central causa diversas

enfermedades degenerativas,

entre ellas:

ESCLEROSIS MULTIPLE 

(degeneración del sistemanervioso central)

PARALISIS CEREBRAL 

(disfunción grave del controlmuscular)

ENFERMEDAD DE ALEXANDER

(destrucción del sistemanervioso central)

Los axones largos aislados conmielina transportan señales entre

neuronas a mayor velocidad que los

axones sin mielinizar. Los oligo-

dendrocitos fabrican la membrana

grasa y envuelven el axón con capas

concéntr icas, de 10 a 150. Varios

factores estimulan la mielinización.

Los astrocitos “acusan” las señales

que circulan por los axones y trans-

miten los mensajes químicos a los

oligodendrocitos. Abajo, una imagen

de microscopio electrónico muestra la

mielinización de un axón ( rojo).

OligodendrocitoAstrocito

Vaina de mielina

Axón

Nódulode Ranvier

Neurona

Oligodendrocito

Axón

   V   A   R   I   S   H   A   S   H   U   K   L   A    (   m   i   c   r   o   g   r   a    f    í   a    )   ;   A   L   A   N   H   O   O   F   R   I   N   G   N   I   H   M   e    d   i   c   a    l   A   r   t   s    (   i    l   u   s   t   r   a   c   i    ó   n    )

Page 61: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 61/99

Page 62: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 62/9960  INVESTIGACION Y CIENCIA, mayo, 2008

ciales de mielinización tiene consecuencias depor vida.

Existen numerosas pruebas de que la es-quizofrenia corresponde a un trastorno deldesarrollo relacionado con una conectividaddeficiente. Los médicos siempre se han pre-guntado por qué esa enfermedad aparece tí-

picamente durante la adolescencia. Aconteceque, en ese período, alcanza su máximo lamielinización del prosencéfalo. Aquí las neu-ronas se han establecido hace tiempo, perola mielina cambia, lo que despierta sospechassobre su influencia.

 Además, alrededor de una veintena de estu-dios realizados en los últimos años concluyenque la sustancia blanca se halla alterada (poseemenos oligodendrocitos de lo normal) en variasregiones del cerebro esquizofrénico. Y cuandoempezaron a aplicarse los microchips de ADN(técnica diagnóstica basada en el análisis simul-

táneo de miles de genes), los investigadores sesorprendieron al descubrir que un gran númerode los genes mutados y ligados a la esquizofre-nia participaban en la mielinización.

Se han detectado también anomalías en lasustancia blanca de las personas afectadas porel trastorno de déficit de atención con hiperac-tividad, trastorno bipolar, trastornos del len-guaje, deterioro cognitivo asociado a la edad,enfermedad de Alzheimer y mitomanía.

Por supuesto, el desarrollo insuficiente o de-bilitamiento de la mielina podría ser resultadode la señalización deficiente entre neuronas, no

su causa. Después de todo, la función cognitivadepende de la comunicación neuronal a travésde las sinapsis en la sustancia gris de la corteza,donde operan la mayoría de las sustancias psi-coactivas. Pero la comunicación óptima entrelas regiones cerebrales, esencial para un buenfuncionamiento intelectual, se asienta sobrela sustancia blanca que las conecta. En 2007,Gabriel Corfas, del Hospital Infantil de Bos-

ton, demostró que la destrucción de los genesde los oligodendrocitos (no de las neuronas) deratones acarreaba alteraciones notables en la

conducta, semejantes a la esquizofrenia. Y losefectos en el comportamiento guardan relacióncon uno de los mismos genes, el de la neurre-gulina, que aparece alterado en la biopsia decerebros esquizofrénicos.

La pregunta del huevo o la gallina sobre silos cambios mielínicos alteran las neuronas osi son los cambios en la estructura neuronal losque alteran la mielina se resolverá de la formaacostumbrada en ese tipo de dilemas: medianteel reconocimiento de que existe una estrechainterdependencia entre ambos fenómenos. Lamielinización de las células gliales responde a

modificaciones en el diámetro del axón, pero laspropias células regulan también dicho diámetroy determinan si un axón sobrevivirá o no. Porbotón de muestra, en la esclerosis múltiple, losaxones y las neuronas mueren tras la desmieli-nización desencadenada por la enfermedad.

Reestructuración en edad avanzada A medida que va madurando nuestro cerebro,de la infancia a la edad adulta, mejora la pre-cisión de las conexiones entre las regiones. Lacalidad de las conexiones podría determinar lacalidad del aprendizaje de ciertas habilidades

a determinad edad.Los estudios de Ullén sobre pianistas ex-

pertos revelaron que la sustancia blanca estabamás desarrollada en el cerebro de los individuosque habían empezado a tocar el instrumento auna edad más temprana. En las personas queaprendieron después de la adolescencia, la for-mación de sustancia blanca había aumentadosólo en el prosencéfalo, la región que todavíaexperimentaba mielinización.

De ese fenómeno cabe inferir que el ais-lamiento de las fibras nerviosas determina,en cierta medida, “ventanas” de edad para el

aprendizaje de nuevas destrezas: intervalos de    I   N

   T   I   S   T .

   C   L   A   I   R   G   e   t   t   y   I   m   a   g   e   s

DESARROLLO DEL CEREBRO

3. LOS PIANISTAS PROFESIO-

NALES presentan en ciertas

regiones mayor mieliniza-

ción que las personas legas,

lo que da pie a suponer la

influencia de esa vaina en

el aprendizaje. Además,

la sustancia blanca es más

extensa en los pianistas que

empiezan a practicar antes

de los once años que en los

que inician su formación du-

rante la adolescencia o más

tarde. Cabe, pues, conjeturar

que existen períodos críticos

para la adquisición de des-

trezas superiores.

Cuando nacemos, el número deaxones recubiertos de mielina esbajo. En su mayoría, la adquieren conel tiempo, desde la parte posteriorde la corteza cerebral hacia la partedelantera. En la secuencia que aquí

se muestra, realizada por PaulThompson, de la Universidad deCalifornia en Los Angeles, se ilustrala reducción de las neuronas y elaumento de la mielina. Las áreas de-dicadas a funciones básicas, como lavisión ( parte poster ior), se completanantes de los cuatro años de edad; lesiguen las áreas del lenguaje y, porfin, del autocontrol (frente). 4 años

Frente

Parteposterior

   M   a   y   o   r   p   r   o   p   o   r   c   i   ó   n

   d   e   s   u   s   t   a   n   c   i   a   b   l   a   n   c   a

   M   a   y   o   r   p   r   o   p   o   r   c   i   ó   n

   d   e   s   u   s   t   a   n   c   i   a   g   r   i   s

Page 63: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 63/99INVESTIGACION Y CIENCIA, mayo, 2008 61

oportunidad o períodos críticos durante loscuales se adquieren, o se aprenden con mayorfacilidad, ciertas habilidades. Si estudiamos un

idioma después de la pubertad, tenderemosa hablarlo con el acento de nuestra lenguamaterna; si lo aprendemos durante la infancia,lo hablaremos como un nativo. Se debe esadisparidad a los circuitos cerebrales que de-tectan el habla, que se reestructuran según lossonidos que escuchamos sólo de niños.

Con el tiempo, perdemos las conexiones quenos permitirían distinguir los sonidos peculiaresde un idioma extranjero. En términos evoluti-vos, después de los primeros años de vida, elcerebro carece de motivos para mantener lasconexiones que sirven para detectar sonidos que

nunca ha oído. Esos períodos críticos explicantambién que los niños se recuperen mejor quelos adultos de una lesión cerebral.

En la mielina se han identificado proteínasespecíficas que evitan que los axones se ramifi-quen y establezcan nuevas conexiones. MartinE. Schwab, de la Universidad de Zúrich, des-cribió la primera entre las diversas proteínas demielina que provocan que las nuevas ramifica-ciones de los axones se atrofien de forma instan-tánea con el contacto. Se trataba de la proteínaNogo (hoy, Nogo-A). Si se la neutraliza, losanimales con una lesión en la médula espinal

reparan las conexiones dañadas y recuperan lasensibilidad y el movimiento. En fecha recien-te, Stephen M. Strittmatter, de la Universidadde Yale, descubrió que el período crítico paraestablecer, vía experiencia, conexiones cerebralesse reiniciaba con la inhibición de las señales deNogo. En ratones viejos, la destrucción de laproteína provocaba la reestructuración de lasconexiones para la visión.

Si el proceso de mielinización puede darsepor concluido a los 20 años de edad de lapersona, ¿mantiene el cerebro su plasticidad alo largo de la edad mediana y avanzada? Los

estudios demuestran que el ejercicio mental en

una persona de 60, 70 y 80 años retrasa la apa-rición de la enfermedad de Alzheimer. Y ¿cómoaumenta la sabiduría de una persona a lo largo

de su vida? Son preguntas sin respuesta todavía.Nadie ha abordado las modificaciones de lamielina en animales viejos. Otros experimentosindican que la mielinización continúa hasta los50 años, pero a un ritmo más lento.

Sin duda, la sustancia blanca desempeña unafunción fundamental en los tipos de apren-dizaje que exigen un ejercicio prolongado yrepetición, así como la integración generalizadaentre regiones distantes de la corteza cerebral.

 A los niños cuyo cerebro todavía se halla en fasede mielinización les resulta más fácil adquirirnuevas habilidades que a sus abuelos. Para di-

versas capacidades intelectuales y atléticas, si unindividuo desea alcanzar un nivel elevado debeempezar a ejercitarlas a una edad temprana. Elcerebro que poseemos hoy lo construimos alinteraccionar con el entorno cuando estábamoscreciendo y nuestras conexiones neuronalesestaban todavía mielinizándose. Por muchoque cultivemos una destreza, nunca podremosconvertirnos en un pianista, jugador de ajedrezo tenista de fama internacional, a menos quehayamos empezado de niños.

Las personas mayores pueden seguir apren-diendo. Por supuesto. Pero a través de un tipo

distinto de aprendizaje, basado en la interven-ción directa de las sinapsis. Dado que el en-trenamiento intensivo favorece la excitación delas neuronas, existe la posibilidad de que estadescarga neuronal estimule la mielinización.

Quizás algún día, cuando sepamos cuándoy por qué se forma la sustancia blanca, sedesarrollarán tratamientos para modificarla,incluso cuando envejece. Para ello, necesitamosidentificar la señal que ordena a un oligoden-drocito la mielinización de un axón y no deotro vecino. Esa información clave, oculta enlas profundidades de la sustancia gris, espera

salir a la luz con las futuras investigaciones.   P   A

   U   L   T   H   O   M   P   S   O   N   U .   C .   L .

   A .

    (   i   m    á   g   e   n   e   s    d   e    l   a   s   u   s   t   a   n   c   i   a   g   r   i   s    )

8 años 12 años 16 años 20 años

MYELINATION: AN OVERLOOKED

MECHANISM OF SYNAPTIC

PLASTICITY? R. Douglas Fieldsen Neuroscientist , vol. 11, n.o 5,págs. 528-531; 2005.

EXTENSIVE PIANO PRACTIC-

ING HAS REGIONALLY SPECIFIC

EFFECTS ON WHITE MATTER DE-VELOPMENT. Sara L. Bengtssonet al. en Nature Neuroscience,vol. 8, n.o 9, págs. 1148-1150;septiembre 2005.

ASTROCYTES PROMOTE MYELINA-

TION IN RESPONSE TO ELECTRICAL

IMPULSES. T. Ishibashi et al. enNeuron, vol. 49, págs. 823-832;2006.

HOW TO GROW A SUPER ATHLETE.D. Coyle en Play Magazine (New York Times Sports), 4 demarzo, 2007.

Bibliografíacomplementaria

Page 64: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 64/99

Scott Aaronson

Las computadoras cuánticas podrían ser velocísimasen tareas muy concretas. En la mayoría de los problemas

apenas descollarían sobre los ordenadores de hoy

LOS

LIMITES DE LA

  omputacComputac

62  INVESTIGACION Y CIENCIA, mayo, 2008

   I   L   U

   S   T   R   A   C   I   O   N   E   S   D   E   D   U    Š   A   N    P

   E   T   R   I   C    ˇ   I   C    ´

Un error frecuente —recuérdese, por ejemplo, Te Economist   de 15 de  febrero de 2007— consiste en afirmar que, en teoría, las computadoras  cuánticas podrían resolver rápidamente una colección de problemas

de singular dificultad, los llamados problemas NP-completos, algo que hastael momento no se puede hacer ni aun con los ordenadores más potentes. Sepresumía que las computadoras cuánticas podrían lograr tal hazaña porquepermitirían el procesamiento simultáneo de todas las posibles soluciones.

Si en verdad fuese posible construir semejante computadora mágica, capazde resolver un problema NP-completo en un abrir y cerrar de ojos, el mundo

se convertiría en un lugar muy diferente. Podríamos, por ejemplo, ordenarlea nuestra mágica computadora que buscase posibles regularidades en las fluc-tuaciones de los mercados de valores, en las series de datos meteorológicos oen la actividad cerebral. A diferencia de los ordenadores actuales, cuya pro-gramación exige una perfecta comprensión de los problemas, la elucidaciónde tales regularidades sería enteramente rutinaria; no exigiría un conocimientodetallado de la sustancia del problema.

La computadora mágica podría, asimismo, automatizar la creatividad ma-temática. Podríamos pedirle a nuestra computadora que examinase todas lasposibles demostraciones o refutaciones de un problema sin resolver que con-tuvieran hasta, sea por caso, mil millones de símbolos. (Si una demostraciónse extendiese más, ¿quién iba a leerla?)

Si las computadoras cuánticas prometieran estas fuerzas matemáticas cuasi-

divinas, su aparición sería, a buen seguro, coetánea de los viajes por el hipe-respacio y los escudos antigravitatorios. Pero si bien es cierto que no debemosaceptar las habituales hipérboles, a mi entender no es menos erróneo desdeñarla computación cuántica como pura ciencia ficción. Lo que se ha de hacer esaveriguar dónde se encuentran sus límites.

En los 26 años que han transcurrido desde que Richard Feynman propu-so la idea de computación cuántica, las ciencias del cómputo han realizadoenormes progresos en la averiguación de los tipos de problemas donde lacomputación cuántica sería eficaz. De acuerdo con nuestros conocimientosactuales, sí  proporcionarían   aceleraciones impresionantes en unos cuantosproblemas concretos: por ejemplo, para descifrar los códigos criptográficoshoy ampliamente utilizados en las transacciones monetarias por Internet. Enel caso de otros problemas, sin embargo, como los de jugar al ajedrez, las

reservas de plaza en las líneas aéreas o la demostración automática de teore-

Page 65: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 65/99

ón cuánticaión cuántica

INVESTIGACION Y CIENCIA, mayo, 2008 63

mas, las computadoras cuánticas sufrirían demuchas de las limitaciones algorítmicas quehoy padecen los ordenadores clásicos.

Estas limitaciones son completamenteindependientes de las dificultades prácticas

que entraña la construcción de computadorascuánticas, como la decoherencia (interacciónindeseada entre la computadora cuántica y suentorno, que introduce errores). En particular,las limitaciones matemáticas de lo programa-ble en un ordenador persistirían aunque sepudiera construir una computadora cuánticaque no sufriese en absoluto los efectos de ladecoherencia.

Difícil, más difícil todavía, dificilísimo¿Cómo es posible que una hipotética compu-tadora cuántica pueda proporcionar grandes

aceleraciones en determinados problemas, asíel descifrado de códigos, y no pueda hacerlo,en cambio, en otros? ¿Acaso un ordenadorrápido no es siempre rápido? Pues no, y laexplicación nos lleva directamente al meollointelectual de la ciencia de la computación. Enesta ciencia, lo más importante de un proble-ma es la rapidez con que aumenta el tiemporequerido para resolverlo conforme crece sutamaño. El tiempo se mide por el númerode pasos elementales necesarios para que elalgoritmo llegue a una solución.

Si efectuamos una multiplicación por el mé-

todo que aprendimos en la escuela elemental,el cálculo del producto de dos números de n cifras requiere una cantidad de tiempo quecrece con n2, el cuadrado del número de dígitos(el tiempo empleado es un “polinomio en n).Pero la descomposición de un número en susfactores primos, utilizando incluso los métodosmás avanzados conocidos, exige un tiempo queaumenta en función exponencial del númerode dígitos (más en concreto, como 2 elevadoa la raíz cúbica del número n). La descom-posición en factores constituye un problemaintrínsecamente más difícil que la multiplica-

ción, y cuando se llega a millares de dígitos,

tal diferencia adquiere una importancia muchomayor que la diferencia entre un Commodore64 y un superordenador.

El tipo de problemas que los ordenadorespueden resolver en tiempos de duración ra-

zonable, incluso para valores grandes de n,son aquellos para los que existe un algoritmoque requiere un número de pasos que crececomo una potencia de n  con exponente fijo,como n, o n2  o n2,5. De tales algoritmos sedice que son “eficientes”. Los problemas reso-lubles mediante algoritmos eficientes se diceque pertenecen a la clase de complejidad P,abreviatura de “tiempo polinómico”.

He aquí un ejemplo sencillo de problemade clase P: Dado un mapa de carreteras, ¿esalcanzable cada ciudad desde otra ciudad cual-quiera? P contiene asimismo problemas cuyas

soluciones eficientes no son tan obvias. Seapor caso: Dado un número entero, ¿es primo(como el 13) o es compuesto (como el 12)?Dada una lista de hombres y mujeres quedesean casarse unos con otros, ¿será posibleasociar a cada persona con una que quierecasarse con ella?

Supongamos, en cambio, que se nos pro-porcionan las dimensiones de una serie decajas y que deseamos encajarlas en el maleterodel coche. O que se nos entrega un mapa ydeseamos colorear cada región de rojo, de azulo de verde, de modo que no haya dos regiones

fronterizas del mismo color. O que se disponede una lista de islas conectadas por puentesy deseamos un recorrido de ida y vuelta quevisite cada isla exactamente una vez. Aunque seconocen para estos problemas algoritmos queson algo mejores que el puro tanteo de todaslas posibles soluciones, no se conoce ningunoque sea fundamentalmente mejor. Todos losalgoritmos conocidos necesitarán de tiemposde ejecución que crecerán exponencialmentecon el tamaño del problema.

Resulta que los tres problemas que acabode mencionar comparten una propiedad muy

interesante: en el fondo, todos son “el mismo

CONCEPTOS BASICOS

Las computadoras

cuánticas se valdrían de

las extrañas reglas de la

mecánica cuántica para

procesar información de

maneras que resultarían

imposibles en un ordena-

dor común.

Podrían resolver ciertos

problemas, como la

factorización de númerosenteros, a velocidades

vertiginosas en compa-

ración con lo que puede

hacerse, en el mejor de los

casos, con ordenadores

clásicos. Pero los análisis

llevan a pensar que en la

mayoría de los proble-

mas las computadoras

cuánticas sólo superarían

ligeramente a las máqui-

nas ordinarias.

Raras alteraciones delas leyes físicas podrían

consentir la construc-

ción de computadoras

que resolviesen amplias

categorías de problemas

difíciles. Pero alteraciones

así no parecen verosími-

les. La imposibilidad de

resolver estos problemas

en el mundo real tal vez

debería ser considerada

un principio fundamental

de la física.

Page 66: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 66/9964  INVESTIGACION Y CIENCIA, mayo, 2008

problema”, en el sentido de que, de existirun algoritmo eficiente para uno cualquierade ellos, se dispondría de algoritmos eficien-tes para los demás. Stephen A. Cook, de laUniversidad de Toronto, Richard Karp, dela Universidad de California en Berkeley, yLeonid Levin, ahora en la de Boston, llegarona esta notable conclusión hace más de 30 años,fechas en las que desarrollaron la teoría deNP-completitud.

NP es abreviatura de “tiempo polinómi-

co no determinista”. No se preocupe por elsignificado de esa expresión. En esencia, elconjunto NP está constituido por la clase deproblemas para los cuales, una vez halladauna solución, se puede verificar en tiempopolinómico (algo así como n2  o similar) quetal solución es correcta, a pesar incluso deque tal solución resulte difícil de hallar. Si senos da un mapa que contiene miles de islasy puentes, es posible que se necesiten añospara hallar un circuito que visite cada islauna sola vez; ahora bien, si nos es presentadoun circuito concreto, no es difícil saber si ese

circuito constituye una solución. Cuando un

problema goza de esta propiedad, se dice quepertenece a NP. La clase NP abarca un enor-me número de problemas de interés práctico.Cabe señalar que todos los problemas P sonasimismo problemas NP; expresado de otromodo, la clase P está contenida en la claseNP. Pues si es posible resolver un problema

rápidamente, la solución obtenida tambiénpodrá verificarse con presteza.Los problemas NP-comple-

tos son, en esencia, los pro-blemas de máxima dificultad

de la clase NP. Constituyenlos problemas que poseen la

propiedad enunciada por Cook,Karp y Levin: de hallarse un algo-

ritmo eficiente para uno cualquierade ellos, podría ser adaptado para

resolver los demás problemas NP.El hallazgo de un algoritmo eficiente

para un problema NP-completo entra-ñaría que la idea que en este momentotienen los científicos de la computación de

las clases P, NP y NP-completa es totalmen-te errónea, pues tal hallazgo supondría quetodos los problemas NP (incluidos los NP-completos) son en realidad problemas de claseP. Dicho con otras palabras, la clase P sería lamisma que la clase NP, P = NP.

¿Existe realmente tal algoritmo? ¿Es P igual aNP? Tal es, literalmente, la pregunta del millónde dólares: el Instituto Clay de Matemáticas, enCambridge, Massachusetts, ofrece un premio

de un millón de dólares por su elucidación.En el medio siglo transcurrido desde quese formuló el problema, no se ha descubier-to un algoritmo eficiente para un problema NP-completo. En consecuencia, los expertosen computación de hoy están de acuerdo enque P no es igual que NP, P ≠ NP, aunquetodavía nuestro saber no alcance para com-prender por qué es así, o para demostrarloy dar a esa aserción carácter de teorema.

Lo que la computación cuánticapuede hacer

Si se concede que P ≠ NP, queda tan sólo unaesperanza para resolver problemas NP-comple-tos en tiempo polinómico, a saber, generalizarlo que entendemos por “computadora”. Pare-ce, a primera vista, que la mecánica cuánticapodría suministrarnos precisamente el tipo derecursos necesarios. La mecánica cuántica haceposible el almacenamiento y manipulaciónde una vasta cantidad de información en losestados de un número no muy grande de par-tículas. Para comprender cómo se puede logrartal cosa, imagine que tenemos 1000 partículasy que cada partícula, al ser medida, se nos

presenta con espín hacia arriba o hacia abajo.

Computación cuántica:Los físicos están persiguiendo con tenacidad la construcción de computadoras cuánticas,

que sacarían provecho de la mecánica cuántica y sus peculiaridades para lograr una

eficiencia mayor que la conseguida por los ordenadores en uso.

1  La característica fundamental de una computadora cuántica es que no utiliza bits,

sino qubits. Un qubit puede quedar plasmado en una par tícula,un electrón por ejemplo, con “espín hacia arriba” (en azul ) que

representa un 1 o “espín hacia abajo” (en rojo) que representa

un 0, y estados cuánticos —“superposiciones”— que com-

portan simultáneamente un espín arriba y un espín abajo

(en amarillo).

2  Un pequeño número de partículas en estados de

superposición puede incluir una cantidad de informa-

ción enorme: un mero conjunto de 1000 partículas

puede encontrarse en una superposición que re-

presente todos los números desde 1 hasta 21000 

(aproximadamente, 10300). Una computadora

cuántica podría manejar en paralelo todos

esos números, haciendo incidir impulsos deláser sobre las partículas.

3  Sin embargo, una vez concluido

el cómputo, al medir los estados de

las partículas, todas las versiones

de los 10300 estados paralelos

desaparecen, excepto una, que

resulta seleccionada al azar.

No obstante, una manipu-

lación inteligente de las

partículas permitiría

resolver muy rápidamen-

te la descomposición factorial de

números grandes y problemas similares.

do

proKarp

ritmode ellos

reso verEl halla 

para un prñaría que latienen los cien

las clases P, NPte errónea, puesto os os pro ecompletos) son eP. Dicho con otrmisma que la cla 

¿Existe realmenNP? Tal es, literalde dólares: el InstiCambridge, Mass

de un millón de

acia abajo” (en rojo  que representa

“superposiciones”— que com-

n espín arri a y un espín a ajo

e partículas en estados de

ir una cantidad de informa-

 junto de 1000 partículas

superposición que re-

s desde 1 hasta 21000

. Una computadora

n para e o to os

cidir impulsos de

 

stados de

rsiones

los

, que

r.

-

rial de

mas simi ares.

R  E   S  U   L T   A  D  O  :  

Page 67: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 67/99

Para nuestros propósitos, es irrelevante lo quesignifique que el espín de la partícula apunteen uno u otro sentido; lo único que importaes que la partícula posee una propiedad que,al ser medida, ofrece uno de dos valores.

Si hemos de describir el estado cuántico deesta colección de partículas, deberemos espe-

cificar un número para cada posible resulta-do de su medición. Tales números reciben elnombre de “amplitudes de probabilidad” delos resultados posibles y guardan una relacióndeterminada con la probabilidad de cada uno.Mas, a diferencia de las probabilidades, lasamplitudes cuánticas pueden tomar valorespositivos o negativos (más aún, sus valores sonnúmeros complejos). Por ejemplo, es necesariauna amplitud para describir la posibilidad deque el espín de todo el millar de partículas estéorientado hacia arriba, otra amplitud para laposibilidad de que el espín de las 500 primeras

partículas apunte hacia arriba, y el de las otras500, hacia abajo, y así sucesivamente. Existe untotal de 21000  posibles resultados, o sea, unos10300 distintos valores; por eso, su expresiónrequiere números tan grandes: ¡mayores queel número de partículas del universo visible!La terminología técnica para esta situación esque las 1000 partículas se encuentran en unasuperposición de esos 10300  estados.

En otras palabras: podríamos almacenarsimultáneamente 10300  números en nuestrocolectivo de 1000 partículas. Seguidamen-te, efectuando ciertas operaciones sobre esas

partículas y sobre otras auxiliares —mediantesecuencias de impulsos de láser o de ondas deradio— podríamos ejecutar un algoritmo quetransformase al mismo tiempo la totalidadde los 10300 números (cada uno de los cualesrepresenta una posible solución). Si una vezefectuada esta operación nos fuera posible ob-servar con precisión cada uno de los estadoscuánticos finales de las partículas, tendríamosuna genuina computadora mágica: se habríancomprobado 10300  posibles soluciones paraun problema; y al final, podríamos discernirrápidamente cuál es la correcta.

Pero existe una dificultad. Según dictanlas reglas de la mecánica cuántica, en la me-dición de las partículas (operación necesariapara observar su estado final) se seleccionaráal azar una de las 10300 posibilidades, e inme-diatamente todas las demás desaparecerán. Elresultado no sería mejor que si utilizásemosun ordenador clásico y ensayásemos una hipo-tética solución elegida al azar: en uno y otrocaso, nuestra información se reduciría a esahipotética solución.

Por fortuna, quedan todavía teclas que to-car para extraer alguna ventaja de nuestras

partículas cuánticas. Las amplitudes pueden

cancelarse mutuamente cuando las que sonpositivas se combinan con las negativas, fenó-meno conocido como interferencia destructiva. Así pues, un buen algoritmo cuántico asegu-raría que las sendas computacionales condu-centes a respuestas erróneas se cancelasen deese modo. Debería también garantizar que las

conducentes a soluciones correctas tuvierantodas ellas amplitudes del mismo signo, lo queresultaría en una interferencia constructiva yreforzaría, en consecuencia, la probabilidad deencontrarlas cuando se midiesen las partículasal final del proceso.

¿Para qué clase de problemas computacio-nales podemos organizar esta clase de interfe-rencia, utilizando un menor número de pasosque los necesarios para resolver el problemapor medios clásicos?

El primer ejemplo de algoritmo cuánticocapaz de acelerar de forma impresionante la so-

La buena noticiaSi una computadora cuántica ideal y de gran tamaño sufriese las mismas limitaciones

que afectan a los ordenadores clásicos, ¿deberían los físicos que tratan de construir

computadoras cuánticas —labor de dificultad extraordinaria, incluso para las más ru-

dimentarias— recoger sus trastos e irse a casa? Estoy convencido de que no, por cuatro

razones.

Si las computadoras cuánticas llegan a ser realidad algún día, su aplicación básica no

consistirá en descifrar códigos, sino en algo, que de puro evidente, apenas se men-

ciona: la simulación de fenómenos cuánticos. Se trata de un problema fundamental

en química, en nanotecnia y en otros campos; tan importante, que se han concedido

premios Nobel incluso por progresos parciales.

Conforme los transistores de los microchips se aproximan a dimensiones atómicas, es

probable que las ideas procedentes de la computación cuántica adquieran relevancia

para la computación clásica.

Los experimentos de computación cuántica concentran la atención sobre las más

desconcertantes peculiaridades de la mecánica cuántica. Abrigo la esperanza de

que cuantos menos de estos enigmas

tengamos que ocultar bajo la alfombra,

más habrán de ser quienes se vean

obligados a comprenderlos.

Se puede considerar que la

computación cuántica sería la

verificación más estricta a la que

nunca haya sido sometida la

propia mecánica cuántica. A mi

modo de ver, el más apasionante

de los posibles resultados de la

investigación en computación

cuántica consistiría en descubrir una

razón fundamental por la que las

computadoras cuánticas no fueran

posibles. Un fracaso de tal magnitud

volvería del revés la imagen que nos

hemos formado del mundo físico. En

cambio, el éxito en construirlas se

limitaría meramente a confirmarla.

tación cuántica concentran la atención sobre las más

es e a mecánica cuántica. A rigo a esperanza e

enigmas

a alfombra,

e vean

la

que

mi

ante

la

n

rir una

e las 

fueran

agnitud 

ue n s

ísico. En

rlas se

rmarla.

INVESTIGACION Y CIENCIA, mayo, 2008 65

Page 68: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 68/9966  INVESTIGACION Y CIENCIA, mayo, 2008

lución de un problema práctico fue descubiertopor Peter Shor en 1994. Shor demostró queuna computadora cuántica podría factorizar unnúmero de n dígitos en una secuencia de pasoscuya longitud creciese solamente como n2, esdecir, en tiempo polinómico. Según hemosmencionado, en el mejor de los algoritmos

conocidos para computadoras clásicas el nú-mero de pasos crece exponencialmente.

Cajas negras Así pues, al menos para la descomposiciónen factores, aplicando métodos cuánticos sepuede lograr una aceleración exponencial sobrelos algoritmos clásicos conocidos. Pero ni estádemostrado, ni parece que el problema de ladescomposición en factores sea NP-completo,pese a que muchos crean que lo es. Shor,para construir su algoritmo, se valió de cier-tas propiedades matemáticas de los números

compuestos y de sus divisores; resultaban par-ticularmente idóneas para producir el tipode interferencia constructiva o destructivadel que puede sacar partido un ordenadorcuántico. Los problemas NP-completos noparecen compartir estas propiedades especia-les. Hasta la fecha, sólo se han hallado unospocos algoritmos cuánticos que, al parecer,podrían permitir aceleraciones que rebajasenen ciertos problemas los tiempos, llevándolosde exponenciales a potenciales.

La cuestión, pues, sigue abierta. ¿Existe unalgoritmo cuántico eficiente, capaz de resolver

problemas NP-completos? Aunque se ha pues-to en ello gran empeño, no se ha descubiertoningún algoritmo de ese tipo, si bien —nopuede sorprender— tampoco se ha demostradoque no exista. Después de todo, ni siquierapodemos demostrar que no existe un algoritmoclásico de tiempo polinómico capaz de resolverproblemas NP-completos.

Lo que sí podemos afirmar es que un al-goritmo cuántico capaz de resolver eficiente-mente problemas NP-completos tendría quesacar partido, como el algoritmo de Shor,de la estructura del problema, pero debería

hacerlo por métodos que caerían mucho másallá de las técnicas disponibles. No es posiblelograr una aceleración exponencial tratandolos problemas como si fuesen “cajas negras”que careciesen de estructura, consistentes enun número exponencial de soluciones quehabría que verificar en paralelo. Sí se podríaconseguir, no obstante, una cierta aceleracióncon este enfoque de caja negra; los expertosen computación han determinado exactamen-te cuánta y cuáles son sus limitaciones. Elalgoritmo que produce la aceleración es elsegundo en importancia de los principales

algoritmos cuánticos.

Capacidades y limitacionesde los ordenadores clásicos

En las ciencias de cómputo, los problemas se categorizan de acuerdo con el número de

  pasos computacionales que exigiría la resolución de un ejemplo grande del

problema utilizando el mejor algoritmo conocido. Los problemas se agrupan, según su

dificultad, en amplias clases, no mutuamente excluyentes. Adjuntamos tres de las prin-cipales. Contrariamente a lo que se proclama sin fundamento, no

está demostrado que las computadoras cuánticas puedan

resolver la clase de problemas muy difíciles a los que se

clasifica como NP-completos.

PROBLEMAS P: Problemas que los ordenado-

res pueden resolver en tiempo polinómico

Ejemplo: Dado un mapa en el que figuran n 

ciudades, ¿se podrá ir desde una ciudad hasta

cualquier otra? En el caso de un valor grande

de n, el número de pasos que necesita el ordenador

para resolver el problema aumenta en proporción a n2, un

polinomio. Dado que los polinomios crecen a velocidad rela-

tivamente lenta cuando n aumenta, los ordenadores pueden resolver

problemas muy grandes de tipo P en unos tiempos razonables.

PROBLEMAS NP: Problemas cuya

solución es fácil de comprobar

Ejemplo: Se sabe que un cierto número de n dígitos es el pro-

ducto de dos números primos grandes, y deseamos hallar esos

dos factores primos. Si se nos proporcionan los factores,

podemos comprobar —multiplicándolos— que son la

solución. El tiempo consumido en la comprobación es

polinómico.

Todo problema P es también un problema NP, por

lo que la clase NP integra en sí a la clase P. Se conje-

tura que el problema de la factorización queda fuerade la clase P, porque no se conoce

ningún algoritmo mediante el cual

un ordenador común pueda resol-

verlo en un número polinómico de

pasos. Antes bien, el número de

pasos aumenta exponencialmen-

te al aumentar n.

PROBLEMAS NP-COMPLETOS: Una solución eficiente

para uno de ellos proporcionaría una solución eficiente

para todos los problemas NP

Ejemplo: Dado un mapa, ¿será posible colorearlo con sólo tres

tintas, sin que haya territorios contiguos del mismo color? Si

se dispusiera de un algoritmo que resolviera eficientementeeste problema, podría adaptarse el algoritmo de marras para

resolver cualquier otro problema NP (como el problema de

descomposición factorial, recién mencionado, o la averigua-

ción de si se pueden encajar n cajas de diversos tamaños

en un cajón de dimensiones

conocidas). En este sentido,

los problemas NP-completos

constituyen los problemas

NP de máxima dificultad. No

se conoce ningún algoritmo

capaz de resolver eficiente-

mente un problema NP.

  , ,ipales. Contrariamen

está demost

resolver la

clasifica

PR

re

E

de  n, el

par resolver

polino io. Dado

tivamente lenta cuando n

pro emas muy gran es e

PROBL roblemas cuya

comprobar

mero de  dígitos es el pro-

ndes, y de eamos hallar esos

porcionan os actores,

ándolos— que son la

 la comprobación es

n pro ema NP, por

l clase P. Se conje-

i ación que a uera 

al

l-

 

-

EMAS NP:

66

 

para odos los problemas

Ejemp o: Da o un mapa, ¿ser

tintas, sin que haya territorios c

se dispusiera de un lgoritmo queste pro ema, podr a adaptars

resolv r cualquier  tro proble

desc mposición  actorial, reci

ci e si se pu en encajar

¡Vaya, es correcto! 

L o s  f  a c t o r e s   p r i m o s d  e  7  .2 7  9 .6 9 0 .8 6 9 .6 3 1 

s o n  . . . . . . . . . . . . . . . .2 .4 7  2 .5 1 7   y   2 .9 4 4 .2 4 3 

Page 69: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 69/99INVESTIGACION Y CIENCIA, mayo, 2008 67

Como ilustración de la metodología de“cajas negras” supongamos que se busca lasolución de un problema difícil y que la únicaoperación que se sabe realizar consiste en irprobando presuntas soluciones y ver si fun-cionan. Supongamos que existan S   posiblessoluciones y que el número S  crece exponen-

cialmente al aumentar el tamaño n  del pro-blema. No es imposible que se tenga suerte yse atine con la solución a la primera, pero enel caso más desfavorable habría que efectuarS   ensayos. Por término medio, el número detanteos necesarios sería de S /2.

Supongamos ahora que fuese posible pre-guntar por todas las posibles soluciones quese hallan en superposición cuántica. En 1996,Lov Grover, de los Laboratorios Bell, desarrollóun algoritmo para hallar la solución correctaen un tal supuesto con sólo unos √

S   pasos.Una aceleración que rebaja desde S /2 hasta

√–

S   constituye un avance de interés en ciertosproblemas, pues si hay un millón de posiblessoluciones, el número de pasos necesarios ron-daría en torno a 1000, en lugar de 500.000.Pero la raíz cuadrada no transforma el tiempoexponencial en tiempo polinómico: produce,sencillamente, una exponencial más pequeña. Y el algoritmo de Grover es lo más que sepuede lograr con este tipo de búsqueda decaja negra: en 1994 se había demostrado yaque cualquier algoritmo de caja negra necesitacuando menos √

S   pasos.

 A lo largo de los últimos diez años, se havenido demostrando que aceleraciones de simi-lar modestia señalan los límites para muchosotros problemas, amén de la búsqueda de unalista: el recuento de votos en unas elecciones, ladeterminación de la ruta más corta en un mapao los juegos de estrategia, como el ajedrez o

el Go. Un problema que planteaba especialdificultad era el llamado problema de la co-lisión, que consiste en hallar dos elementosidénticos —que “colisionan”— en una listaextensa. De existir un algoritmo rápido pararesolver este problema, muchos de los bloquesconstructivos básicos del comercio electrónicoperderían su utilidad en un mundo provistode computadoras cuánticas.

El examen de una lista en busca de unelemento determinado viene a ser como darcon una aguja en un pajar, mientras que labúsqueda de una colisión es como buscar dos

pajitas que sean idénticas, problema con untipo de estructura del que una computadoracuántica podría sacar partido. Sin embargo,ya demostré en 2002 que, con el modelo decajas negras, cualquier algoritmo cuántico re-quiere un tiempo exponencial para resolver elproblema de la colisión.

Hay que reconocer que estas limitaciones delas cajas negras no descartan que haya aún pordescubrir algoritmos cuánticos eficientes paraproblemas NP-completos, si no más arduos.Mas, si tales algoritmos existiesen, tendrían

El mapa de la derecha representa de qué forma se relacionaría la clase de problemas

  que los ordenadores cuánticos podrían resolver (BQP) con otras cla-

ses de problemas computacionales. (El contorno irregular expresa que la

clase BQP no parece encajar pulcramente con las otras clases.)

La clase BQP (la sigla denota bounded-error, quantum, polynomial

time, es decir, error acotado, cuántico, tiempo polinómico) contiene a

todos los problemas de tipo P y también a unos cuantos problemas NP,

como el de la factorización o el llamado problema del logaritmo discreto.

Se cree que la mayoría de los demás problemas NP y NP-completos caen

fuera de la clase BQP, lo que significa que incluso un ordenador cuántico

necesitaría más que un número polinómico de pasos para resolverlos.

Por otra parte, los problemas BQP podrían desbordar la clase NP: lascomputadoras cuánticas podrían resolver ciertos problemas

en menos tiempo incluso del que invertiría un ordenador

común en comprobar la solución. (Recordemos que un

ordenador común puede comprobar eficientemente la so-

lución de un problema NP, pero sólo puede resolver eficien-

temente los problemas P.) Hasta la fecha, sin embargo, no se

conocen ejemplos convincentes de problemas de este tipo.

Los expertos en computación sí saben que la clase BQP

no puede extenderse más allá de la clase conocida como

P-ESPACIO, que también contiene todos los problemas NP. Los

problemas P-ESPACIO son los que un ordenador común puede

resolver con una cantidad polinómica de memoria, aunque tal vez

exijan un número exponencial de pasos.

P-ESPACIO

NP-completos

NP

BQP

Problema de empaquetadoColoreado de mapasProblema del viajanteSudoku n ×   n

Ajedrez n ×  n Go n ×  n

Isomorfismo de grafos

Conectividad de grafos

Comprobación de queun número es primo

Emparejamiento

Factorización

en primosLogaritmo discreto

EJEMPLOS DE PROBLEMA

 

dor

n

a so-

ficien-

o, no se

tipo.

 BQP

mo

s NP. Los

ún puede

nque a ve

   D    i    fi   c   u    l   t   a    d   c   r   e   c    i   e   n   t   e

Resueltoseficientemente porcomputadora

cuántica

Resueltos eficientementepor ordenador clásico

P

Scott Aaronson es profesor de

ingeniería eléctrica y ciencia de

la computación en el Instituto

de Tecnología de Massachusetts.

En su momento abandonó los

estudios de bachillerato; sin em-

bargo, acabó licenciándose en laUniversidad Cornell y doctorándo-

se en ciencia de la computación

por la Universidad de California

en Berkeley, bajo la dirección de

Umesh Vazirani.

El autor

Las computadoras cuánticas encuentran su lugar

Page 70: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 70/9968  INVESTIGACION Y CIENCIA, mayo, 2008

que aprovechar la estructura del problema deformas muy dispares de todo cuanto hayamosvisto, de igual modo que deberían hacerlo losalgoritmos eficientes de corte clásico. La magiacuántica, por sí sola, no bastaría. Partiendo deesta idea, son muchos ahora los científicos dela computación que conjeturan no sólo que

P ≠ NP, sino también que las computadorascuánticas no podrían resolver problemasNP-completos en tiempo polinómico.

Teorías mágicasPor lo que sabemos, los ordenadores cuánticosconstituirían la estación término de la computa-ción, la categoría más general de computadorascompatibles con las leyes de la física. Pero nohay todavía una teoría definitiva de la física,por lo que no se puede descartar que algún díauna teoría futura descubra un procedimientofísico que resuelva eficientemente problemas

NP-completos. Como cabe esperar, no faltanquienes hacen cábalas acerca de clases de com-putadoras todavía más potentes, algunas de lascuales harían que los ordenadores cuánticospareciesen tan vulgares como una máquina ex-pendedora. Sin embargo, habrían de basarse enhipotéticos cambios de las leyes de la física.

Una de las características fundamentales dela mecánica cuántica es la linealidad, una pro-piedad matemática. Daniel S. Abrams y SethLloyd demostraron en 1998, mientras estabanen el Instituto de Tecnología de Massachusetts,que si las ecuaciones de la mecánica cuántica

contasen con un pequeño término no lineal,

los ordenadores cuánticos podrían resolver efi-cientemente problemas NP-completos. Antesde que empecemos a soñar, debe entenderseque, de existir semejante término no lineal,podría infringirse también el principio de inde-terminación de Heisenberg y resultaría posibleenviar señales a mayor velocidad que la de la

luz. Como señalaban los propios Abrams yLloyd, la mejor interpretación de estos resulta-dos quizá sea decir que contribuyen a explicarpor qué la mecánica cuántica es lineal.

Otro tipo de máquina conjetural que lo-graría una capacidad computacional fabulosasería la que condensase un número infinito depasos en un tiempo finito. Por desgracia, eltiempo, al menos según enseña la física actual,degenera en un mar de fluctuaciones cuánticas(en una espuma, en vez de extenderse por unalínea lisa, continua y uniforme) a la escala de10–43 segundos (el “tiempo de Planck”), lo que

tornaría imposible ese tipo de máquina. Aunque no resulte posible subdividir el tiem-po tanto cuanto se quiera, tal vez otra vía pararesolver eficientemente los problemas NP-com-pletos consista en viajar por el tiempo. Quienesestudian el problema no hablan de máquinas deltiempo, sino de curvas de tipo tiempo cerradas(CTC). En esencia, una CTC consiste en unaruta a través del espacio y el tiempo a lo largode la cual podría viajar materia o energía parareunirse consigo misma en el pasado, generan-do un bucle cerrado. La teoría física actual noes concluyente sobre la posibilidad de las CTC,

pero eso no debería impedir que nos pregun-tásemos cuáles serían —de existir— sus conse-cuencias para las ciencias del cómputo.

Parece evidente de qué forma se podríautilizar una CTC para acelerar un cálculo:prográmese nuestro ordenador para que dedi-que todo el tiempo que haga falta a resolver elproblema y seguidamente envíese la solución devuelta hasta un instante anterior al arranque delordenador. Es una pena que tan sencilla idea nofuncione. Olvida la famosa paradoja del abuelo:remontarse en el tiempo para matar al propioabuelo (así que no naceríamos, con lo que no

podríamos retroceder en el tiempo; nuestroabuelo, al fin y al cabo, vivió y tuvo hijos, ydespués nacimos nosotros, pero entonces...).En nuestro supuesto: ¿qué ocurriría si apagá-semos la computadora en cuanto recibiéramossu respuesta remitida desde el futuro?

En 1991, el físico David Deutsch, de laUniversidad de Oxford, definió un modelode computación con curvas de tipo tiempocerradas que elude esta dificultad. En el mo-delo de Deutsch, la naturaleza garantizaría queconforme se desarrollasen los acontecimientosa lo largo de la línea del tiempo que compone

la CTC no llegaran nunca a aparecer parado-

¿Ultracomputadoras llegadasde una física exótica?Parece inverosímil que las computadoras cuánticas puedan resolver rápidamente proble-

mas NP-completos. Pero otros procesos físicos, extraordinarios, muy hipotéticos, po-

drían consentir la construcción de máquinas computadoras dotadas

de semejante capacidad, y de mucho más. Los viajes por

el tiempo permitirían resolver cualquier problema del

P-ESPACIO, sin olvidar los que son más difíc iles que los

NP-completos, como, por ejemplo, jugar la partida de

ajedrez perfecta en tableros de cualquier tamaño, y nosólo en los normales de 8 × 8. Aunque el recurso a viajes

por el tiempo para resolver problemas no consistiría en un

mero lograr que un ordenador completase un

largo cómputo en el futuro lejano y se enviase

luego la solución a sí mismo en el presente,

podría sacarse partido de esa clase de bucle en

espacio-tiempo. Un inconveniente: tales procesos

  desafían las leyes conocidas de la física.

mas NP-completos. Pero otros procesos físicos, extraordinarios, muy hipotéticos, po-

rían consentir la construcción de máquinas computadoras dotadas

de semejante capacidad, y de mucho más. Los viajes por

l tiempo permitirían resolver cualquier problema del

P-ESPACIO, sin olvidar los que son más difíc iles que los 

NP-comp etos, como, por ejemp o, jugar a parti a e

ajedrez perfecta en tableros de cualquier tamaño, y nosólo en los normales de 8 × 8. Aunque el recurso a viajes

por el tiempo para resolver problemas no consistiría en un

 

largo cómputo en el futuro lejano y se enviase

uego la solución a sí mismo en el presente, 

podría sacarse partido de esa clase de bucle en

espacio-tiempo. Un inconveniente: tales procesos

  desafían las leyes conocidas de la física.

ZONAS

DE PENSAMIENTO

A diferencia del mundo real, en el

cual creemos que los límites com-

putacionales son los mismos don-

dequiera que se mire, la galaxia

de A Fire Upon the Deep (“Un fue-

go sobre el abismo”), novela deciencia ficción de Vernor Vinge

publicada en 1992, está dividida

en tres “zonas de pensamiento”

concéntricas que poseen límites

computacionales y técnicos inhe-

rentemente distintos.

En las Profundidades sin pensamiento,

las más cercanas al núcleo galáctico,

fallan hasta los automatismos

sencillos. Los cocientes de

inteligencia son ínfimos.

La Zona lenta contiene a la Tierra y

tiene las limitaciones que sabemos.

En el Allende, factorías nanotécnicas

cuasisentientes construyen maravillas

tales como tejidos antigravitatorios y

la hipercomputación permite viajar

más velozmente que la luz.

La Trascendencia está poblada por

peligrosos seres ultrainteligentes y

divinales, que poseen técnicas y

procesos de pensamiento insondables

para los seres de menor rango.

A  L  F   I   L   A   R  E   I   N   A   2  3  

M  A Q U  I  N  A  D  E  L  T  I  E  M  P  O 

Page 71: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 71/99INVESTIGACION Y CIENCIA, mayo, 2008 69

 jas. Esta circunstancia podría utilizarse paraprogramar un ordenador que trazase un bucletemporal por una CTC con el fin de resolverproblemas difíciles.

Con una CTC podríamos resolver eficien-

temente no sólo problemas NP, sino inclu-so problemas pertenecientes a una clase másamplia, la clase P-ESPACIO. El P-ESPACIOestá constituido por la clase de problemas quepodrían resolverse en un ordenador corrienteutilizando una cantidad de memoria con creci-miento polinómico, aunque exigieran un tiem-po de ejecución con crecimiento exponencial.En efecto, una CTC haría que el tiempo y elespacio fuesen intercambiables en cuanto recur-sos computacionales. (No hubo necesidad demencionar hasta ahora la limitación polinómicade la memoria porque para los problemas P y

NP no tiene importancia si el ordenador dis-pone de más memoria que la polinómica.)Recientemente, John Watrous, de la Uni-

versidad de Waterloo en Ontario, y yo he-mos demostrado que aunque en una CTCse emplease un ordenador cuántico, por unoclásico, tampoco se podría computar eficien-temente ningún problema situado extramurosdel P-ESPACIO. Con otras palabras: aunqueexistieran las curvas de tipo tiempo cerradas,las computadoras cuánticas no se mostraríanmás potentes que las clásicas.

Criptonita computacionalSe ignora si futuras teorías llegarán a consentiralguna de estas máquinas tan extraordinarias.Pero, sin negar nuestra ignorancia, podemosver esta ignorancia desde una perspectiva dife-rente. En lugar de partir de teorías físicas parapreguntarnos cuáles serían sus consecuenciaspara la computación, podríamos empezar su-poniendo que los problemas NP-completos sonintrínsecamente difíciles y estudiar después lasconsecuencias que tal hipótesis tendría para lafísica. Por ejemplo, si las CTC permitiesen laresolución eficiente de problemas NP-completos

y parejamente se admitiera que los problemas

NP-completos son intratables, la consecuenciasería que las CTC no pueden existir.

Habrá quienes consideren que tal meto-dología es superlativamente dogmática. Enmi sentir, no difiere de aceptar la validez del

segundo principio de la termodinámica o laimposibilidad de la comunicación a velocidadmayor que la de la luz, dos limitaciones queinicialmente tuvieron carácter técnico y queadquirieron con el tiempo el rango de prin-cipios físicos. Cierto: cabe la posibilidad deque la segunda ley sea falsada experimental-mente en el futuro. Pero mientras no ocurra,resulta inmensamente más útil suponer quees correcta y aplicar esa hipótesis al estudiode toda clase de cuestiones, desde los motoreshasta los agujeros negros. Yo pronostico quela dificultad de los problemas NP-completos

recibirá algún día igual consideración: la deun principio fundamental que describe unaparte esencial de la naturaleza. No hay formade saber qué luz teorética arrojará en el futurola aplicación de un principio fundamental deesta clase, ni las consecuencias prácticas quepodría comportar.

En el ínterin, sabemos que no se han deesperar resultados mágicos de las computadorascuánticas. Habrá quien se sienta decepciona-do ante sus aparentes limitaciones. Podemos,sin embargo, darles a estas limitaciones ungiro más optimista. Si bien ciertos sistemas

criptográficos podrán ser descerrojados en unmundo dotado de computadoras cuánticas, esprobable que otros códigos siguiesen siendoseguros. Aumenta así nuestra confianza en quela computación cuántica será posible, puescuanto más fantástica nos parezca una técnica,mayor deberá ser nuestro escepticismo.

Por último, tales limitaciones aseguran quelos científicos de la computación seguirán te-niendo tela cortada con la que confeccionarnuevos algoritmos cuánticos. Lo mismo que Aquiles sin su talón o que Supermán sin lacriptonita, una computadora carente de limita-

ciones no tardaría en resultar muy aburrida.

¿Un nuevo principio físico?

Dado que para construir una computadora capaz de resolver problemas NP-completos parece

  necesario apelar a propiedades físicas inverosímiles (como los viajes por el tiempo), yo pronostico

que los científicos adoptarán algún día un nuevo principio: “Los problemas NP-completos son intrínseca-

mente difíciles”. Es decir, la resolución eficiente de estos problemas es imposible en cualquier dispositivo

que pueda construirse en el mundo real, cualesquiera resulten ser finalmente las leyes de la física. Tal princi-

pio entraña la imposibilidad de los viajes por el tiempo, pues tales viajes permitirían la creación de ultracompu-

tadoras capaces de resolver eficientemente problemas NP-completos. Más todavía, si se demostrase que

una teoría propuesta permitiría la construcción de tales computadoras, dicha teoría podría ser descar-

tada a priori . La aplicación del principio sería similar a recurrir a los principios termodinámicos para

concluir que las máquinas de movimiento perpetuo son imposibles (están prohibidas por las leyes

de la termodinámica) y para deducir características hasta entonces desconocidas de procesos físicos.

ce

ronostico

intrínseca-

ispositivo

ica. Tal princi-

n de ultracompu-

strase que

  -

para

físicos.

QUANTUM COMPUTATION AND

QUANTUM INFORMATION.Michael A. Nielsen e Isaac L.Chuang. Cambridge UniversityPress, 2000.

NP-COMPLETE PROBLEMS AND

PHYSICAL REALITY. ScottAaronson en ACM SIGACTNews, Sección de Teoría deComplejidad, vol. 36. n.o 1.págs. 30-52; marzo de 2005.

QUANTUM COMPUTER SCIENCE:

AN INTRODUCTION. N. David

Mermin. Cambridge UniversityPress, 2007.

SHOR, I’LL DO IT. (Una expli-cación del algoritmo de Shorpara el no especialista). ScottAaronson. Disponible enwww.scottaaronson.com/blog/?p=208

QUANTUM COMPUTING SINCE

DEMOCRITUS . Notas para elcurso PHYS771, Universityof Waterloo, Otoño de 2006.Disponible en www.scottaaron-son.com/democritus/

Bibliografíacomplementaria

INA DEL TIEMPO 

Page 72: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 72/9970  INVESTIGACION Y CIENCIA, mayo, 2008

 En los tiempos de John Shea y John Greco,  la cavernosa fábrica de Pratt & Whitney   Aircraft se llenaba de una niebla grasien-

ta que rezumaba de las fresadoras y empapabatechos y paredes. Y a los propios operarios,que volvían a casa impregnados de acre aceiteindustrial. Las piezas de los motores se desen-grasaban en el suelo de la planta, en fosos lle-nos de disolvente; con aspersores de disolventese limpiaban los obreros las manos y la ropa.Durante 34 años, Shea estuvo fresando álabesde motores en aquella factoría de cien milmetros cuadrados de North Haven, Connecti-

cut. En 1999, a los 56 años, se le diagnosticóun cáncer en el cerebro. Seis meses después,Greco, su amigo y compañero de trabajo,supo que padecía la misma enfermedad: unglioblastoma multiforme, el más agresivo delos tumores cerebrales. Al cabo de un año delprimer diagnóstico, ambos trabajadores habíanmuerto: sus viudas empezaban ya a preguntarpor qué se producía un número tan alto deese cáncer maligno en una de las principalesfabricas de motores a reacción del mundo.

En 2001 empezó una investigación acercade un conglomerado de cánceres cerebrales

aparecido en North Haven; sólo en la décadaanterior se habían dado 13 casos de tumorescerebrales primarios malignos entre los traba-

 jadores, 11 de ellos glioblastomas. Se ha con-vertido en el más completo estudio de saluden el trabajo jamás emprendido. El equipodirigido por Gary Marsh, de la Universidadde Pittsburgh, y Nurtan Esmen, de la Univer-sidad de Illinois en Chicago, ha acometido untrabajo penoso y policíaco: primero, rastrearun número todavía desconocido de casos decáncer cerebral a lo largo de 50 años entre loscasi 250.000 empleados de las ocho factorías de

Pratt & Whitney; determinar después, siempre

que sea posible, cuál podría haber sido la causade esos tumores. Para ello se ha de reconstruir laexposición de los trabajadores a un montón deagentes potencialmente tóxicos. El grupo esperapublicar sus primeros hallazgos en este mismoaño y, en 2009, los resultados finales.

La impresionante labor logística de Marsh yEsmen ilustra la dificultad de efectuar estudiosepidemiológicos en lugares de trabajo expuestosa multitud de sustancias posiblemente dañinas.La localización de las causas de las pasadas des-gracias en Pratt & Whitney estará también limi-tada por la falta de conocimientos, tanto sobre la 

génesis de los tumores cerebrales como sobrela toxicidad de muchos compuestos químicosutilizados en la industria. El estudio, realizadocon las técnicas más avanzadas, podría arrojarmás luz en uno y otro aspecto. Pone, además,de relieve que determinar cuál es el grado deexposición seguro a ambientes tóxicos siguesiendo en gran medida un problema actual.

El Instituto Nacional para la Seguridady Salud Ocupacional de Estados Unidos es-tima que en esa nación fallecen cada año,prematuramente, cerca de 49.000 personaspor enfermedades laborales, ocho veces más

que por accidentes de trabajo. Sin embargo,la mayoría de los límites de exposición seguraimplantados federalmente se basan en el bagajecientífico de los años sesenta. De ahí que lasnuevas directrices de la Agencia de Protección

 Ambiental (EPA) de EE.UU. rebajen hasta en45.000 veces el nivel admisible de un produc-to químico en el aire exterior de una fábricacon respecto a los niveles seguros que para elaire interior ha regulado la Administración deSeguridad y Salud Ocupacional (OSHA).

Quizá los mayores obstáculos para actua-lizar la protección sanitaria en el trabajo no

provengan de limitaciones científicas, sino de

CONCEPTOS BASICOS

Durante siete años se

han investigado casos

de cáncer cerebral entre

los trabajadores de Pratt

& Whitney Aircraft en

Connecticut. Es el estudio

más extenso jamás em-prendido sobre la salud en

centros de trabajo: cerca

de un cuarto de millón de

empleados a lo largo de

50 años.

La recogida de datos

ha sido laboriosa por la

extensión del estudio,

pero la magnitud de la po-

blación analizada ha dado

medios para detectar

perfiles menos claros que

pudieran sugerir un origentumoral, incluidos los

factores cancerígenos no

reconocidos previamente.

Más estudios de epide-

miología industrial de este

tipo podrían mejorar la

protección sanitaria de los

trabajadores, anticuada

en muchos casos. Pero

falta la financiación y el

respaldo político para

tales investigaciones.

DE LA EPIDE

DIFICULTADES

El mayor estudio sanitario jamás realizado en plantasindustriales aplica técnicas punteras para investigar unaparente conglomerado de casos de cáncer • Carole Bass

   J   A

   M   E   S   P   O   R   T   O    (   c   u    b   o    d   e   R   u    b   i    k    )   ;   J   E   N   C   H   R   I   S   T   I   A   N   S   E   N    (   c   o   m   p   o   s   i   c   i    ó   n    )   ;   B   E   T   T   M

   A   N   N   /   C   O   R   B   I   S    (   a   m   a   r   i    l    l   o    )   ;   J   A   M   E   S   P   O   R   T   O    (   a   z   u    l    )   ;

   U   N

   I   V   E   R   S   I   D   A   D   D   E   P   I   T   T   S   B   U   R   G   H    (   r   o   j    o   y   n   a   r   a   n   j    a    )   ;   D   E   P   A   R   T   A   M   E   N   T   O   D   E   P   R   O

   T   E   C   C   I   O   N   A   M   B   I   E   N   T   A   L   D   E   C   O   N   N   E   C   T   I   C   U   T    (   v   e   r    d   e    )

Page 73: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 73/99

MIOLOGIA LABORAL

INVESTIGACION Y CIENCIA, mayo, 2008 71

Page 74: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 74/9972  INVESTIGACION Y CIENCIA, mayo, 2008

la política y la economía. La investigación dePratt & Whitney revela asimismo cuánto po-dría mejorarse la epidemiología ocupacional siexistiera voluntad política de aplicar la cienciamás actual a la tarea de asegurar la salubridadde los lugares de trabajo.

Acopio de pruebasCuando conocieron el diagnóstico comúnde sus maridos, Carol Shea y Kate Greco nosabían nada de cánceres cerebrales, ni de epi-

demiología. Pero les parecía una extraña coin-cidencia el que ambos sufrieran un mismo tipo—no frecuente— de tumor maligno. Empeza-ron a preguntar a la compañía cuántos otrostrabajadores padecían cáncer en el cerebro ycuál podría haber sido la causa. Por agostode 2001, una investigación del Departamento

de Salud Pública de Connecticut encontróque la incidencia de glioblastoma entre lostrabajadores de la planta de North Haven enlos 10 años anteriores había sido entre 2,8 y

FORMACION DE LAS BASES DE DATOSRECONSTRUCCION DE EXPOSICIONESEPIDEMIOLOGIA Y BIOESTADISTICA

ESTUDIO ANIDADO DE CONTROLES Y CASOS,Y ANALISIS GENETICO

Contrastar los casos con trabajadores semejantes que no hayansufrido cáncer (controles)

Contactar con los controles y los casos aparecidos en susfamilias a fin de entrevistarlos y obtener consentimiento pararevisar sus historias clínicas y recoger y analizar muestras

ANALISIS DE MORTALIDAD

Identificar todos los miembros fallecidos de la cohortey las causas de su muerte

Identificar todos los trabajadores vivos y fallecidosdiagnosticados con cáncer cerebral entre 1976 y 2001

Comparar la incidencia de cáncer cerebral y las tasas demortalidad en la cohorte con la población general.

IDENTIFICACION DE LA COHORTE

Todos los trabajadores empleados entre 1952 y 2001 en las 8 plantasde Connecticut, un total aproximado de 224.000 individuos.

FUENTES DE DATOS

500.000 páginas de archivos de personal, afiliaciones desindicatos, índices de mortalidad nacionales y de la SeguridadSocial, registros de cánceres nacional y del estado, y más de 3millones de historias laborales.

FUENTES DE DATOS

Manuales de operaciones, listas de compras,estudios de rendimiento del tiempo, registrosde muestreos del aire, examen de 320.000 puestos

de trabajo y entrevistas con empleados

POR AGENTE

Radiación ionizante(níquel toriado,tungsteno toriado opartículas radiactivas)

Fluidos de metalistería Cromo hexavalente Campos

electromagnéticos Disolventes

POR PROCESO

Trituración, fresado,desengrase, etc.

POR PIEZA

Engranajes,álabes, ejes, etc.

ANALISISCONSOLIDADO

DICCIONARIO DE PUESTOS DE TRABAJO CON PERFILESDE EXPOSICION ESPECIFICOS DEL EMPLEADO

Este medio millón de hojas representalas páginas guardadas en los archivosdel personal que han explorado los

investigadores de la Universidad dePittsburgh para compilar listas einformaciones sobre trabajadores.

DETERMINACION DE EXPOSICIONES

Para determinar si ha habido

un número excesivo de casos

de cáncer de cerebro entre

los trabajadores de Pratt &

Whitney Aircraft, y si así fue,

por qué causas, se han com-

pilado durante más de cinco

años enormes cantidades de

información sobre todos los

trabajadores y procesos de

fabricación de la compañía en

Connecticut a lo largo de un

período de 50 años. Uno de

los dos equipos de investiga-

ción se dispuso a identificar la

población en estudio —la co-

horte— y determinar cuántos

de ellos desarrollaron cáncer

cerebral: para ello clasificaron

y agruparon más de un cuartode millón de nombres de

empleados. Mientras tanto,

el otro equipo seleccionaba

una gran variedad de posi-

bles causas para reconstruir

a qué sustancias se habían

expuesto los trabajadores

entre los años 1952 y 2001 en

el transcurso de su trabajo.

FUSION DE BLOQUES DEDATOS PARA OBTENERRESULTADOS FINALES

   J   A   M   E   S

   P   O   R   T   O

Page 75: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 75/99INVESTIGACION Y CIENCIA, mayo, 2008 73

7 veces mayor que la esperada, dependiendode las hipótesis de partida.

En aquel momento, el departamento desalud del estado exigió a Pratt & Whitney,que ha declinado comentar este punto, la con-tratación de un epidemiólogo independientepara proseguir la investigación. La compañía

recurrió entonces a Marsh, bioestadístico dela Escuela de Posgrado de Salud Pública dePittsburgh. Su especialidad son las investi-gaciones sobre la salud laboral que él llama“intrincadas y laboriosas”, en las que hay quetener en cuenta a miles de empleados ubicadosen múltiples sitios. Marsh contactó inmediata-mente con Esmen, frecuente colaborador suyoy experto en la evaluación y reconstrucción deriesgos en ambientes de trabajo.

 Ambos comenzaron a investigar la factoríade North Haven, que se cerró en 2002. Perocuando se enteraron de que la firma realizaba

en su fábrica principal de East Harford ope-raciones de fresadura similares a las de NorthHaven y trabajos de diferentes tipos en otrasinstalaciones de Connecticut, decidieron estu-diar a la vez las ocho plantas del estado, lasabiertas y las clausuradas. Así pues, un estudioen principio concebido para unos 100.000 em-pleados se amplió hasta los cerca de 250.000que habían trabajado allí entre 1952 y 2001.Suponía un monto total de 12 millones dedólares a lo largo de siete años.

Según Marsh, el mayor alcance del proyectoaportaba dos ventajas científicas. Primero, un

valor estadístico superior, que reduce el riesgode falsos resultados negativos y eleva la pro-babilidad de detectar perfiles menos acusados;segundo, unas mejores comparaciones internasde métodos de trabajo, exposición a riesgos yrepercusiones en la salud. La epidemiologíaocupacional a menudo padece el efecto del“trabajador sano”: una comparación engañosaentre las tasas de morbilidad detectadas en ungrupo de trabajadores y las de la poblacióngeneral (que comprende personas demasiadoenfermas para trabajar). Para obtener una ima-gen más exacta deberían compararse entre sí

diferentes subgrupos de Pratt & Whittney.

La enorme dimensión del estudio representatambién uno de los mayores desafíos. Dirigidospor Jeanine Buchanich, los empleados y con-tratados de Pitt pasaron un año en las instala-ciones de Pratt & Whitney explorando mediomillón de páginas de historiales del personal yresumiéndolas en una base de datos que reúne

los datos sobre la salud de los trabajadores.Seguidamente, Buchanich comenzó a rastrearlos nombres de unas 266.000 personas —la“cohorte”— en las bases de datos nacionalespara saber los empleados que habían muertoy por qué causas. Un programador escribióun protocolo para muestrear nombres de laslistas de afiliación a sindicatos, que luego Bu-chanich cotejó con la cohorte para ver si sehabía omitido a alguien. También tuvo querectificar entradas en la base de datos cuan-do las fechas eran incongruentes, del tipo unempleado contratado antes de su nacimiento

o después de su defunción. “El archivo de lacohorte ha quedado muy depurado”, dice Bu-chanich —al 99,9 por ciento de veracidad—,“pero todavía hay unos doscientos errores queexaminar y resolver”. Tras su eliminación yel posterior refinamiento de la base de datos,la cohorte comprende ahora unos 224.000trabajadores.

Mientras tanto, Zb Bornemann, ha venidopersiguiendo casos de cáncer cerebral. Cotejóla cohorte entera con el Indice de MortalidadNacional y el Indice de Mortalidad de la Se-guridad Social. Y prosigue la búsqueda en

registros de cánceres en estados de todo el país,averiguando si algún nombre de la cohortecoincide con el de una persona registrada comoenferma de tumor cerebral. Cuando apareceuna coincidencia, Bornemann intenta localizara los parientes más próximos por medio debases de datos interactivas. Algunos registrosson un callejón sin salida. En el estado de

 Washington, Bornemann presentó seis tandas

DEFINICION DE UN

CONGLOMERADO

DE CANCERES

Puede ser casual que durante cier-

to período de tiempo se produzca

un número inusitado de cánceres

entre personas que viven o traba-

 jan juntas. Pero este aparente

conglomerado podría también

deberse a un origen común de

tales dolencias. La parte del análi-

sis de Pratt & Whittney que anali-

za la mortalidad utilizará técnicas

estadísticas “para determinar si el

número total de tumores cerebra-

les malignos, benignos o ambos,

observados es mayor que el valor

esperado tomando como base las

comparaciones normalizadas con

la población general de EE.UU., la

del estado de Connecticut y la de

los condados de procedencia de

los trabajadores, así como para

determinar si cualquier exceso

registrado pudiera deberse sólo a

factores casuales.”

Page 76: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 76/9974  INVESTIGACION Y CIENCIA, mayo, 2008

de solicitudes de información sobre pacien-tes de cáncer, pero incluían un documentorechazado porque iba dirigido al registro decánceres del estado y no al departamento desanidad, que alberga dicho registro. Una vezlocalizado un pariente muy próximo de undeterminado caso, incluso una persona vivaafectada de cáncer en el cerebro, Bornemannle escribe solicitando su participación en elestudio: una entrevista telefónica, la entrega desu historial clínico y el permiso para analizar

tejidos de ese tumor cerebral.El hallazgo de casos clínicos compone la

primera parte del estudio —el análisis de mor-talidad—, que determinará si la proporciónde cánceres cerebrales u otras patologías entrelos trabajadores de Pratt & Whitney, en sutotalidad y en diversos subgrupos, fue mayorde la esperada. La segunda parte es un estudio“anidado” de controles y casos, en el que secompara cada caso de cáncer cerebral con otroempleado de Pratt & Whitney, de la mismaedad, sexo y antigüedad en la compañía, queno haya desarrollado tumor cerebral alguno. Al

comparar sus historias clínicas y de actividad

laboral, incluida la evaluación de riesgos quelleva a cabo Esmen en la Universidad de Chi-cago, se espera encontrar perfiles que puedanexplicar por qué a unas personas se les forma-ron tumores en el cerebro y a otras no.

En la tercera parte del estudio, Frank Lie-berman analiza las mutaciones génicas en los

tejidos tumorales de los trabajadores afectados.El hallazgo de un perfil distintivo podría su-gerir que los tumores aparecidos en Pratt &

 Whitney no fueron fruto del azar, sino dealguna causa común.

 Ahí se recurre a técnicas científicas nuevas.El trabajo de Lieberman se centra en los tejidostumorales conservados en parafina duranteaños en los hospitales donde fueron operadoslos pacientes de cáncer de Pratt & Whitney.Hasta hace muy poco, sólo podían aplicarsemétodos que no permiten examinar más de15 o 20 genes por muestra para detectar mu-

taciones asociadas al crecimiento de tumores.Hoy día, merced a una técnica más avanzada,se hacen análisis en micromatrices, antes sóloposibles sobre tejidos en fresco. Se pueden asíexaminar miles de genes a la vez, en busca demutaciones pequeñas, así como de duplica-ciones o supresiones de genes enteros; ahoracabe buscar “alteraciones en los perfiles deactividad génica, ya no en genes específicos”,como dice Lieberman.

Este neuro-oncólogo compara los perfilesencontrados con una base de datos del InstitutoNacional del Cáncer y con muestras de tumo-

res cerebrales obtenidas de los pacientes de suclínica de Pittsburgh, a modo de control. “Latécnica es de suma eficacia”, asegura, en parteporque “no se necesita una hipótesis inicialsobre cuáles son los genes importantes”.

Una colega suya de Pittsburgh, EmanuelaTaioli, aplica técnicas moleculares semejantespara identificar el daño que infligen al ADNcarcinógenos bien conocidos. Ambos gruposcolaboran en un proyecto piloto, consistente enrecoger tejidos normales de los trabajadores dePratt & Whitney afectados de cáncer cerebral.Su propósito es detectar posibles cambios mo-

leculares en esos tejidos y correlacionarlos conlos carcinógenos a cuya acción se exponen losempleados de la empresa, según el equipo deEsmen. En principio, estos vestigios de la ex-posición a sustancias tóxicas podrían denunciarel desarrollo precoz de un cáncer. Lieberman,sin embargo, advierte de que tales métodos seasientan en cimientos científicos todavía recien-tes: “Se intenta aprovechar la enorme dimensióny el refinamiento que ofrece la epidemiologíapara conseguir la máxima información sobrelos agentes capaces de desencadenar un cáncercerebral. Las propias técnicas aplicadas son, en

el más hondo sentido, experimentales”.    B   E

   T   T   M   A   N   N   /   C   O   R   B   I   S

TRABAJADORES de la factoría de Pratt & Whitney Aircraft en East Harford preparan

un motor a reacción para el Boeing 727 que iba a probarse en julio de 1961. Esta es

una de las ocho fábricas de Connecticut investigadas por casos de cáncer cerebral

entre los empleados de la compañía.

Carole Bass es periodista espe-

cializada en investigaciones sobre

salud pública, temas legales y

medio ambiente.

La autora

Page 77: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 77/99INVESTIGACION Y CIENCIA, mayo, 2008 75

Arqueología industrialEl trabajo del grupo de Esmen en Chicago,aunque menos experimental, es igualmenteinmenso. Durante cinco años han escudriñadolas operaciones de Pratt & Whitney desarro-lladas entre las décadas de los cincuenta y losnoventa, intentando imaginar a qué agentes

estuvieron expuestos los trabajadores y en quéniveles. “Si no se encuentran datos, habrá quereconstruirlos”, señala Esmen, profesor deciencias de la salud ocupacional y ambientalen la Universidad de Illinois en Chicago. “Escasi arqueología industrial.”

La indagación habría sido más fácil si elequipo hubiese sabido qué estaba buscando.Hace mucho tiempo que se sospecha que al-gunos cánceres del cerebro tienen un origen

laboral. Pero la única causa comprobada es laradiación ionizante que generan algunas ope-raciones de Pratt & Whitney. Por lo demás,anteriores estudios habían señalado elevadosíndices de cáncer cerebral entre quienes traba-

 jaban con ciertos metales, aceites industriales ydisolventes, pero no se ha podido reproducir

fehacientemente estos resultados.Para investigar en los archivos de Pratt & Whitney, el equipo de Esmen está concentran-do 320.000 puestos de trabajo en un númeromanejable de categorías laborales. En cadacategoría se cuantifica la exposición de lostrabajadores a los agentes sospechosos durantediversos períodos de tiempo.

Con todo, los números tienen sólo un va-lor relativo. Lo que realmente importa son

Roger Hancock, miembro del equipo del estudio de Pratt & Whitney, explica

  que los actuales estándares de OSHA se basan en datos toxicológicos de

1968. OSHA inició su actividad en 1971 con un mandato legal: “Crear en la me-

dida posible condiciones de trabajo seguras y saludables para todo hombre y

mujer de la nación”. De un golpe adoptó unos límites de exposición permisible

para unos 400 agentes químicos tomados directamente de las normas elabo-

radas en 1968 por la Conferencia Americana de Higienistas Industriales Guber-

namentales, organización sin ánimo de lucro. Durante el resto de la década de

1970, OSHA estableció límites de exposición para otras nueve sustancias.

Pero en el decenio siguiente el tren de los límites de exposición permi-

sibles descarriló. En 1980 el Tribunal Supremo de EE.UU. acabó con una

norma de OSHA que reducía en un orden de magnitud el nivel admisible

de benceno propuesta por OSHA, alegando así que este organismo teníaque demostrar que sus reglas evitaban “un riesgo apreciable de daño”.

Sin definir “riesgo apreciable”, el tribunal sugería que una muerte más por

cada 1000 trabajadores expuestos probablemente sería apreciable, pero

dejaba de serlo una en mil millones. Desde entonces, OSHA ha considerado

que 1 por 1000 constituye el estándar más riguroso posible. Ciertos límites

permisibles de exposición toleran riesgos mucho peores; por ejemplo, el

decretado en 2006 para el cromo hexavalente corresponde a un riesgo de

35 a 45 por 1000, según las estimaciones de OSHA.

En 1987 OSHA emprendió una radical actualización de sus límites para

contaminantes del aire. En menos de dos años publicó los correspondien-

tes a 376 sustancias químicas. Más de la mitad no eran sino versiones más

rigurosas de los aplicados a las sustancias de la lista original de 1971; el

resto se refería a sustancias de nueva regulación. Pero tanto la industria

como los sindicatos se opusieron a la ley; en 1992 un tribunal federal de

apelaciones la anuló: OSHA debería realizar procesos de estandarización

para cada sustancia por separado, cosa que nunca llegó a hacer.

Pese a las dificultades científicas, la Conferencia de Higienistas Indus-

triales continúa publicando cada año de 20 a 40 límites de exposición

voluntarios, denominados valores límite de umbral. De ese modo suman

ya más de 700 sustancias, comparados con las algo más de 400 que regula

OSHA. “Esto no acaba nunca, porque siempre recibimos nueva infor-

mación”, dice Terry Gordon, que dirige la tarea de los valores límites de

umbral. “Somos unos voluntarios que hacemos lo que podemos. Si OSHA

tomara la iniciativa, sería un día memorable.”

En respuestas a nuestra revista, OSHA pone de relieve que “no es nada

sencillo actualizar límites de exposición”. Satisfacer las exigencias impues-

tas por el Congreso y los tribunales requiere “intensas investigaciones” y

“notables recursos para determinar de modo adecuado cómo afectan los

límites de exposición permisibles revisados a la salud de los trabajadores,

y evaluar si de verdad se necesitan nuevos estándares que protejan eficaz-

mente a los empleados en su lugar de trabajo y que los patronos puedan

cumplir”. En cuanto al cromo hexavalente, OSHA declara que ha adoptado

“el nivel mínimo que era factible”, tomando como base “la totalidad de las

pruebas halladas en los registros de elaboración de normas”.

Pero algunos de los que trabajaban en OSHA creen que esta agencia

podría hacer las cosas mucho mejor. Por ejemplo, Harry Ettinger, higienista

industrial que en la época de Reagan dirigió la revisión de los límites de

los contaminantes en la atmósfera. “Es vergonzoso”, exclama, “que la

mayoría de los límites de exposición permisible todavía daten de 1968”.Considera que lo perfecto es enemigo de lo bueno. “Intenté convencer a

los sindicalistas de que era una locura querellarse contra nosotros. Querían

la perfección, pero la perfección no existe”.

Para Adam Finkel, que fue director de los estándares de salud de OSHA

entre 1995 y 2000, el problema son las prioridades. “La mayoría de quienes

saben de lo que hablan coincidirían en que del 80 al 90 por ciento de las

muertes relacionadas con el trabajo se deben a problemas de salud ocupacio-

nal”, afirma. Sin embargo, “siempre ha primado la seguridad sobre la salud”.

El mismo tuvo que dejar su puesto tras haber llamado la atención sobre los

riesgos de salud laboral que acechaban a los propios inspectores de OSHA;

finalmente recibió una sustanciosa indemnización de la Agencia. Lejos de

domeñar la vena perfeccionista, Finkel cree que la Agencia tiene que ponerse

a tono con la ciencia de nuestro tiempo. “Sabemos que los trabajadores se

exponen a un sinnúmero de agentes cuyos niveles son mil veces superiores a

los recomendables. Con tanta fruta madura que recoger, la primera prioridad

de OSHA debería ser la higiene industrial a la antigua usanza”.

Sea como fuere, de alguna parte tienen que venir la “intensa investi-

gación” y los “notables recursos” que OSHA señala como necesarios para

actualizar la protección sanitaria de los trabajadores. En la mayoría de

los casos, las industrias que estarían sujetas a las normas serían quienes

pagarían los estudios. En el frente de la salud laboral, el presupuesto para

investigación del Instituto Nacional para la Seguridad y Salud Ocupacio-

nal no ha aumentado, más bien ha disminuido. Y los fabricantes no sólo

han combatido la regulación gubernamental, sino que, además, se han

querellado contra la independiente Conferencia con la intención de que no

publique sus límites voluntarios de exposición.

OSHA SE HA QUEDADO ATRAS

Page 78: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 78/9976  INVESTIGACION Y CIENCIA, mayo, 2008

los órdenes de magnitud. Una exposición de-terminada se puede estimar en 10 unidades;podría ser de 6 o de 12, pero no de 100.

 Al no existir mediciones, los investigadoresextrapolan a partir de entrevistas con traba-

 jadores e ingenieros de la fábrica. Asimismo,manejan montañas de datos facilitados por la

compañía, tales como los registros de compras(para deducir las cantidades de material utiliza-das), estudios de rendimiento laboral (tiempoinvertido en cualquier tarea determinada) enlos años setenta, publicaciones internas contítulos tan peculiares como Capacidad ver-sátil de ingeniería y fabricación, y resultadosde muestreos del aire realizados por Pratt &

 Whitney a lo largo de los años.La última fuente de información podría con-

siderarse terreno abonado para la reconstrucciónde las exposiciones a riesgos. Pero como señalaEsmen, es más difícil de lo que parece. Un epi-

demiólogo que intentara evaluar las exposicionesde toda la plantilla laboral tendría que tomarmuestras aleatorias de cada grupo de trabajo yreseñar los cambios de uno a otro turno o de undía a otro día. Un higienista industrial a quiense le pidiera resolver un problema —quejas detipo respiratorio, por ejemplo— sólo tomaríamuestras de la zona “problemática” y se ceñiríaa considerar los niveles más altos registrados deuna sustancia sospechosa.

Los textos de higiene industrial recomien-dan a los futuros profesionales que tomen unagama de muestras completa, afirma Steve La-

cey, que enseña estas técnicas a los estudiantesde doctorado de la Universidad de Chicago.En la realidad no se hace así. Roger Han-cock, otro miembro del equipo que duranteun cuarto de siglo practicó higiene industrialen el sector privado, conoce la verdad: “Llegasa una fábrica con tu carro lleno de equipos de

prueba, y tienes una semana disponible. Quizátal proceso se hace sólo una vez esa semana, demanera que no hay más que una oportunidadde tomar las muestras correspondientes. Si lamuestra de nivel superior no alcanza el umbralde preocupación toxicológica, dejas de tomarnuevas muestras”.

Para la mayoría de las empresas, “no al-canzar el umbral de preocupación” equivaleal cumplimiento legal. Basta con que unainstalación fabril satisfaga los estándares dela OSHA. Pero las autoridades en la materiay los libros de texto médicos reconocen que lo

que es bueno para la OSHA no siempre bastapara proteger la salud de los trabajadores.

No resulta fácil determinar límites para unaexposición segura, reconoce Terry Gordon,presidente de la comisión de la Conferencia

 Americana de Higienistas Industriales Gu-bernamentales que fija límites voluntarios deexposición a sustancias químicas. Al igual queOSHA, este grupo de unos 20 voluntarios noconduce investigación original, sino que seapoya en estudios publicados. Las investiga-ciones de toxicología animal, controladas enlaboratorios, son más ordenadas que la confusa    J   A

   M   E   S   P   O   R   T   O    (    f   o   t   o   g   r   a    f    í   a    d   e    l   m   o   n   i   t   o   r    )   ;   J   E   N   C   H   R   I   S   T   I   A   N   S   E   N    (   c   o   m   p   o

   s   i   c   i    ó   n    )   ;   U   N   I   V   E   R   S   I   D   A   D   D   E   P   I   T   T   S   B   U   R   G   H    (   m   u   e   s   t   r   a   s   t   u   m   o   r   a    l   e   s    )

REALIDADES

BREVES

En EE.UU. cada día mueren una

media de unos 16 trabajadores por

lesiones en el trabajo y 134 por

dolencias relacionadas con la

ocupación.

Se estima que cada día hay 11.500

trabajadores del sector privado que

padecen una enfermedad o lesión no

fatal de origen laboral.

9000 trabajadores son atendidos

todos los días en salas de emergencia

a causa de lesiones ocupacionales.

FUENTE: Instituto Nacional para la

 Seg uri dad y Sal ud Ocup aciona l 

Con el consentimiento de los trabajadores afectados o de sus familias, los investigadores

obtuvieron muestras de tumores y, en ciertos casos, de tejidos normales, para buscar señales

de posibles daños causados por los carcinógenos en el ADN ( izquierda). Esperan averiguar,

cuando combinen estos resultados con informaciones sobre las sustancias a que estuvieron

expuestos los empleados y el momento en que lo estuvieron (derecha), si las exposiciones

durante el trabajo han contribuido al desarrollo de cánceres.

INTERPRETACION DE LOS DATOS

PISTAS GENETICAS

Los cambios, o mutaciones, en el ADN extraído de tejidos tumorales como los que presenta la

pantalla del ordenador pueden sugerir posibles causas del tumor.

Un perfil distintivo de las mutaciones en tumores de diferentes trabajadores podría sugerir, por

ejemplo, una causa común.

Estos análisis pueden también determinar la duración de los cambios acumulativos e incluso el orden en

que los cambios se produjeron; así podría conocerse el momento inicial del desarrollo del cáncer.

Ciertos carcinógenos conocidos deterioran el ADN de manera específica, dejando una huella de

la exposición en las células tumorales e incluso en los tejidos normales.

Las mutaciones de genes de las enzimas que metabolizan carcinógenos constituyen otra cate-

goría de cambios promotores de cáncer que cabe detectar en tejidos no cancerosos; podrían

servir para explicar cómo se inició un tumor.

VISUALIZACION DE LAS EXPOSICIONES

Para manejar el enorme volumen de datos recopilados acerca de las operaciones fabriles entre 1952

y 2001, se creó un “sistema de información geográfica”. La base de datos permite ext raer y conectar

datos relativos a la localización de empleados, piezas y procesos —y a partir de ahí, las exposiciones

de los trabajadores a posibles agentes tóxicos— en diferentes momentos del período en estudio.

Page 79: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 79/99INVESTIGACION Y CIENCIA, mayo, 2008 77

epidemiología de personas reales expuestas asustancias diversas en cantidades y combina-ciones desconocidas, tanto dentro como fueradel trabajo.

Pero los transparentes ensayos sobre anima-les adolecen también de un fallo: sólo miden elefecto de un agente químico cada vez, mientras

que los entornos fabriles suelen contener múl-tiples tóxicos. “Los datos humanos siempre sonpreferibles a la toxicología”, afirma Gordon,profesor e investigador de medicina ambientalen la Universidad de Nueva York. “Sin em-bargo, a menudo no aportan datos suficientessobre las exposiciones, y esa información carecede relación con la salud”.

Los investigadores de Pratt & Whitney seesfuerzan por no caer en tales trampas, aunquereconocen algunos de los factores que, segúnMash, “enmarañan” el estudio. Por ser incom-pleta la información de Bornemann sobre re-

gistros de cánceres en el estado, probablementehabrá casos de cáncer cerebral que le paseninadvertidos. De los que ha localizado, sóloun 41 por ciento se ha prestado a participar;con miras a la validez científica, Marsh deseaque haya al menos un 60 por ciento. Señala,además, que la recopilación de datos relativosa la historia clínica y género de vida de losparticipantes es razonablemente buena en unplano general, pero se descompone en cuan-to se entra en detalles. La reconstrucción deexposiciones efectuada por el grupo de Chica-go, pese a ser exhaustiva, no deja de ser una

estimación de algo que sucedió hace deceniosen plantas de taller que desde entonces se hancerrado o sufrido una radical limpieza.

Inicio del buen caminoTranscurridos siete años y gastados 12 millonesde dólares, es bastante probable que el estudio

de Pratt & Whitney, como tantas otras investi-gaciones sobre la salud en centros de trabajo, nollegue a conclusiones. Para explicarlo, se aducenlas dificultades de la epidemiología. En todoslos estudios de esta rama, lo más que puedehacerse es demostrar que entre las exposicionesy los efectos en la salud existe una relación,no una causalidad estricta. Es especialmentedifícil detectar las causas de patologías como elcáncer, que suele manifestarse decenios despuésde sufrir una exposición perjudicial. Y quizásea imposible encontrar un nivel de exposicióna carcinógenos definitivamente seguro.

Numerosos científicos celebrarían disponerde 12 millones de dólares para estudios capacesde dar resultados más claros en tiempos másbreves, pero si no, probablemente, los millonesde Pratt & Whitney no se habrían invertido eninvestigar sobre la salud en lugares de trabajo.

 Aun cuando el estudio nunca proporcionerespuestas concluyentes a todas las cuestionesplanteadas, no cabe considerarlo un derrochede tiempo o de dinero.

Quienes ahora se unen al proyecto esperanpoder dar algún tipo de respuestas a las fa-milias de Pratt & Whitney. “He trabajado en

esto desde el primer día”, dice Buchanich. “Porfin podremos decir algo a estos trabajadores,después de tanto tiempo”.

Sean cuales fueren sus resultados concretos,el proyecto también podría decirnos algo a losdemás. Las montañas de datos nuevos genera-dos ayudarán a desentrañar las complejidadesde la exposición a múltiples agentes tóxicos y aentender mejor, según Liebermann, la biologíabásica de la génesis de los tumores cerebrales. Yno sólo eso: el inaudito alcance del estudio es-timula nuevas técnicas para manejar la enormecantidad de información. El grupo de Chicago,

por ejemplo, está creando una base de datosde información geográfica que permitirá a susmiembros cartografiar las operaciones fabrilesen el tiempo y el espacio. Según Esmen, esatécnica podría aplicarse en cualquier estudiodonde importen las relaciones espaciales, comola arqueología o la ingeniería industrial.

Esta incursión arqueológica en el pasadoindustrial de Connecticut quizá nos aporteinstrumentos e información que en el futurosirvan de ayuda a los trabajadores y a los pa-cientes de cáncer cerebral. Reducir las barrerasque no sean científicas exigirá un diferente

arsenal de instrumentos.

   D   E   P   A   R   T   A   M   E   N   T   O   D   E   P   R   O   T   E   C   C   I   O   N   M   E   D   I   O   A   M   B   I   E   N   T   A   L   D   E   C   O   N   N   E   C

   T   I   C   U   T    (   c   a   p   a   i   n    f   e   r   i   o   r    )   ;   U   N   I   V   E   R   S   I   D   A   D   D   E   I   L   L   I   N   O   I   S   E   N   C   H   I   C   A   G   O    (   c   a   p   a   s   i   n   t   e   r   m   e    d   i   a   s    )

Disposicióndel depar-tamentoen 1993

Factoríade EastHarford

Plano deplanta

Composición

WORKERS AT RISK: THE FAILED

PROMISE OF THE OCCUPATIONAL

SAFETY AND HEALTH ADMINIS-

TRATION. Thomas O. McGarity

y Sidney A. Shapiro. PraegerPublishers, 1993.

OCCUPATIONAL AND ENVIRON-

MENTAL HEALTH: RECOGNIZING

AND PREVENTING WORK-REATED

DISEASE AND INJURY. Preparadopor Barry S. Levy, David H.Wegman, Sherry L. Baron yRosemary K. Sokas. Quintaedición. Lippincott Willliams &Wilkins, 2005.

DOUBT IS THEIR PRODUCT: HOW

INDUSTRY’S ASSAULT ON SCIENCE

THREATENS YOUR HEALTH. DavidMichaels. Oxford UniversityPress, 2008.

GETTING HOME SAFE AND SOUND:

OSHA AT 38. Michael Silversteinen American Journal of PublicHealth (en prensa).

CANCER CLUSTER FACT SHEET (Lista de conglomerados decáncer) del Instituto Nacionaldel Cáncer: www.cancer.gov/cancertopics/factsheet/Risk/clusters

Bibliografíacomplementaria

Page 80: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 80/9978  INVESTIGACION Y CIENCIA, mayo, 2008

Page 81: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 81/99INVESTIGACION Y CIENCIA, mayo, 2008 79

¿Habrá que domesticar la especie

para salvar al atún rojo,uno de los peces más maravillososy amenazados del océano?

Richard Ellis

   C   H

   R   I   S   P   A   R   K   A   P   P    h   o   t   o

N

o todos los atunes que consumimos  pertenecen a la misma especie. El atún

  enlatado que comemos en bocadillos yensaladas procede del listado o bonito listado(Katsuwonus pelamis ), de un metro de longitudy que se captura en cantidades desmesuradasen todo el mundo, o del atún blanco, bonitodel norte o albacora (Tunnus alalunga ), otropez de tamaño reducido que se comercializacon la denominación de “atún claro”. El atúnde aleta amarilla (Tunnus albacares ) y el pa-tudo o atún de ojo grande (Tunnus obesus )son especies de mayor tamaño que tambiénsufren sobrepesca; dado que ninguna de ellasproduce un sushi  de gran calidad, suelen ser-

virse asadas.

El atún rojo, en cambio, un gigante entrelos peces, es el pescado de elección para la

elaboración de sushi  y sashimi  (platos de pesca-do crudo). Se ha convertido en el pescado deconsumo más deseable del mundo. En cuantotal, ocupa el primer lugar de otra lista másinsidiosa: es probablemente la más amenazadade todas las especies de peces de gran tamaño.La sobrepesca ciega está empujando al atúnrojo hacia la extinción; podría desaparecer enbreve de no mediar una forma de criarlo encautividad.

El peso máximo del atún rojo ronda lostres cuartos de tonelada. Con sus cuatro me-tros de longitud, parece una masa de músculo

supercalentado que hiende el agua al mover

CONCEPTOS BASICOS

La popularidad creciente

del sushi  y el sashimi  

ha devastado el atún

rojo. La sobrepesca ha

diezmado las poblaciones

de los océanos Atlántico,

Pacífico e Indico, empu-

 jando a la especie hacia

la extinción. Los entes

reguladores han estableci-do cuotas de captura poco

estrictas; la pesca ilegal

va en aumento.

La cría en cautividad del

atún rojo salvaría a la

especie, pero la empresa

plantea todo un desafío.

En Japón y Europa han

conseguido criar el atún

en el laboratorio; una

compañía australiana lo

intenta a escala comercial.

Page 82: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 82/99

presto su cola encimitarra. Mientras que

la mayoría de las 20.000 especies de pecesson de sangre fría (su temperatura corporales la misma que la del agua del entorno), elatún rojo es uno de los pocos peces de sangrecaliente. Sumergido a un kilómetro de pro-fundidad, donde la temperatura del agua esde cinco grados Celsius, el atún rojo mantieneuna temperatura corporal de 27 grados C,cercana a la de un mamífero.

El atún rojo, uno de los peces más céleres,alcanza velocidades de hasta 80 kilómetros porhora y migra a través de océanos enteros. Estan buen nadador, que cuando en el decenio

de 1990 los científicos se propusieron construirun pez mecánico, lo tomaron por modelo.

 Y así crearon un robot con un cuerpo ahusa-do, en forma de proyectil, y una aleta caudalrígida en luna menguante [véase   “Robots denatación autónoma”, de Michael S. riantafy-llou y George S. riantafyllou; I

  , mayo de 1995]. Descubrieron quela eficacia de la cola residía en la interacciónde los vórtices creados por su rápida flexión,pero la hidrodinámica de sus modelos electró-nicos no se acercó siquiera a la de un atúnrojo real.

Lo mismo que los lobos, los atunes rojossuelen cazar en manadas; forman una pará-bola que nada a gran velocidad y concentralas presas, lo que facilita el abatimiento delos cazadores sobre ellas. Los atunes poseenun metabolismo adaptado a las persecucionesveloces; al alimentarse de manera oportunis-ta —y, por necesidad, compulsiva—, comencuanto se les pone al alcance, ya se trate deuna caballa fugaz, una platija del fondo marinoo una esponja sedentaria. Un estudio del con-tenido estomacal de los atunes rojos de NuevaInglaterra, realizado por Bradford Chase, de

la División de Pesquerías Marinas de Massa-chusetts, reveló que el alimento dominante(en peso) era el arenque atlántico; le seguíanel aguacioso, el tímalo y varios calamares.(Otras presas incluían pampanitos, merluzasamericanas, rombos americanos, platijas deinvierno, menhadens, caballitos de mar, baca-laos, sollas, eglefinos, peces lima, mediopicos,charrascos, mielgas, rayas, pulpos, camarones,langostas, cangrejos, salpas y esponjas.) Losatunes comen todo lo que capturan y captu-ran casi todo lo que nada, flota, se arrastra osimplemente se halla sobre el fondo. Cazan,

de manera general, mediante la visión.

De bonito a sushi 

El atún rojo no siempre se ha tenido por unaexquisitez. En los primeros años del siglo ,su carne roja y de sabor fuerte se considerabaen muchas partes del mundo comida aptasólo para perros y gatos. Con todo, en Nueva

 Jersey y Nueva Escocia la pesca deportiva veía

en ese pez poderoso un contrincante digno.Zane Grey, el popular autor de Los jinetesde la pradera roja   y otras novelas del Oeste,invirtió muchos de sus nada baladíes dere-chos de autor (vendió más de 13 millones deejemplares de sus libros) en aparejos de pesca,barcos y viajes a localidades exóticas en buscade atunes, peces espada y marlines. Aunqueel pez espada sí se consideraba comestible, sepensaba en atunes y marlines estrictamentecomo objetivos de la caza.

El atún rojo se apreciaba en ciertas loca-lidades y regiones (por ejemplo, en el Medi-

terráneo), pero no se consumió y valoró deforma generalizada hasta la segunda mitad delsiglo , cuando empezó a internacionalizarseel sushi .

 Alguien podría pensar que el sushi y el sa-shimi  han constituido elementos principales dela dieta japonesa durante siglos. No hubo tal.El consumo generalizado de pescado crudo esun fenómeno reciente. Dependientes del marpara obtener la mayor parte de su proteína,los japoneses no podían almacenar el pescadodurante mucho tiempo sin que se estropeara;por ese motivo lo conservaban ahumado o en

adobo. Cuando se introdujeron en el Japónde la posguerra los frigoríficos, el pescado queantes se ahumaba o se encurtía pasó a conser-varse de forma casi indefinida. Al tiempo quela industria pesquera adoptaba nuevas técni-cas, como el palangre (sedales extremadamentelargos con numerosos anzuelos cebados), lasredes de cerco (grandes redes que encierrantodo un cardumen) y los barcos frigoríficos, lascircunstancias favorecieron una modificaciónsin precedentes de los hábitos alimentarios delos japoneses.

El atún rojo pasó de ser un pescado re-

chazado por los samuráis, que lo tenían porimpuro, a considerarse maguro, una exqui-sitez tan cara como las trufas o el caviar. Eltoro, el maguro  de mejor calidad, procede dela carne ventral grasa del atún rojo adulto.Las trufas o el caviar son escasos —de ahísu elevado precio—, pero el atún rojo, hastaentonces rechazado, se encontraba en ingentescardúmenes en alta mar; pronto se convirtióen un manjar exaltado a escala internacional.En 2001, un ejemplar de atún rojo se vendióen la lonja de pescado de sukiji, en okio,por 113.000 euros (en yenes). En los EE.UU.

—donde 40 años atrás el mero hecho de pen-    L   U

   C   Y   R   E   A   D   I   N   G  -   I   K   K   A   N   D   A

DATOSDEL ATUN ROJO

El atún rojo es un devorador

insaciable. Está magníficamente

adaptado para cazar en las frías

aguas de los océanos templados.

Tamaño: El mayor atún rojo

conocido se capturó en aguas de

Nueva Escocia en 1979; pesaba

679 kilogramos. Un adulto suele

pesar la mitad y mide dos metros

de longitud.

Velocidad: Un atún rojo nadaa una velocidad de hasta 80 kiló-

metros por hora en cortos

arrebatos; atraviesa el océano

Atlántico en menos de 60 días.

Reproducción: Las hembras

producen hasta 10 millones de

huevos por año. Los peces que

salen del huevo (larvas) tienen tres

milímetros de longitud y crecen un

milímetro cada día.

Duración de la vida: Las larvas

de atún tienen sólo una probabilidadentre 40 millones de alcanzar la edad

adulta; el adulto vive hasta 30 años.

Precio: En 2001, un atún rojo de

200 kilogramos se compró en un

mercado japonés por 113.000 euros 

(unos 565 euros el kilogramo).

80  INVESTIGACION Y CIENCIA, mayo, 2008

Page 83: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 83/99INVESTIGACION Y CIENCIA, mayo, 2008 81

sar en comer pescado crudo era anatema—, elsushi  y el sashimi  constituyen hoy un productocomún; se hallan en supermercados, tiendas dealimentos selectos y en la carta de numerososrestaurantes.

Un pez que se vende por cientos de eurosla rodaja despierta el interés de las flotas pes-queras. La carrera tumultuosa para propor-cionar atún a los mercados japoneses de sushi  

y sashimi   ha intensificado la pesca del atúnen todo el mundo. Los japoneses intentaronllenar sus despensas (y frigoríficos y lonjas depescado) con los atunes que pescaban frentea sus costas (atún rojo del Pacífico, Tunnusorientalis ), pero pronto se percataron de queen el Atlántico Norte los atunes rojos eran demayor tamaño y abundaban más. Los compra-dores para importadores japoneses de pescadose convirtieron en una presencia habitual enlos muelles de puertos norteamericanos comoGloucester y Barnstable, en Massachusetts;comprobaban el contenido graso de los atunes

y, si éste era aceptable, compraban allí mismoel pescado y lo enviaban al Japón.

 Antaño se creía que había dos poblacionesseparadas de atún rojo del Atlántico Norte(Tunnus thynnus ): una que se reproducía en elgolfo de México y permanecía en el Atlánticooccidental, y otra que frezaba en el Medi-terráneo y se alimentaba en la parte orientaldel océano. La Comisión Internacional parala Conservación de los Atunes del Atlántico(ICCA), un ente regulador establecido en1969, basaba sus cuotas de captura para el atúnrojo en esa hipótesis. Establecía, pues, límites

estrictos en el Atlántico occidental (donde el

atún rojo escaseaba ya en el decenio de 1970)y permitía capturas mayores en el Atlánticooriental. Sin embargo, experimentos de mar-caje y recaptura (que en los años cincuenta ysesenta iniciaron Frank J. Mather y FrancisG. Carey, de la Institución Oceanográfica de

 Woods Hole, y que en fechas recientes harefinado Barbara A. Block, de la Estación Ma-rina Hopkins de la Universidad de Stanford)

han demostrado que el atún rojo no siguetal división. Los atunes rojos del AtlánticoNorte se reproducen en el golfo de Méxicoy el Mediterráneo, para migrar luego a travésdel océano, y así las áreas de alimentación delas dos poblaciones se superponen. Dado quela ICCA no ha logrado detener la sobrepescaen el Atlántico oriental, las poblaciones deatún rojo se han desplomado.

La situación es más alarmante todavía enel Mediterráneo. Mediante la aplicación detécnicas desarrolladas en Australia del Sur (conel atún rojo austral, Tunnus maccoyii ), los

pescadores acorralan cardúmenes de atunes jóvenes y los arrastran en corrales flotanteshasta ranchos marinos, donde se alimentan yceban hasta que pueden sacrificarse y enviarseal Japón. Existen normativas que prohíben lapesca en el Mediterráneo de atunes de tamañoinferior al establecido, pero no hay ningunaque impida capturar atunes inmaduros y en-gordarlos en piscifactorías. odos los países delMediterráneo, excepto Israel, se aprovechan deello y mantienen “ranchos” de atunes en aguasde la plataforma continental. En España, Fran-cia, Italia, Grecia, urquía, Chipre, Croacia,

Egipto, Libia, únez, Argelia, Marruecos y   N   E

   I   L   L   U   C   A   S   N   a   t   u   r   e   P   i   c   t   u   r   e   L   i    b   r   a   r   y

1. LA SOBREPESCA del atún rojo es particularmente intensa en el

Mediterráneo. En el sur de España, un grupo de pescadores de atún cobra

una almadraba llena de atunes rojos ( arriba) y llevan las pilas de pecesgigantes hacia la costa (derecha).

Richard Ellis es uno de los

principales conservacionistas ma-

rinos de EE.UU. y un reconocido

ilustrador de temas de historia

natural marina. Sus pinturas

de cetáceos han aparecido en

 Audubon, National Wildlife, Aus-

tralian Geographic, Encyclopedia

Britannica  y otras publicaciones.

Ellis es investigador asociado del

Museo Americano de Historia

Natural de Nueva York y comi-

sario adjunto de la exposición

“Animales míticos”.

El autor

Page 84: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 84/9982  INVESTIGACION Y CIENCIA, mayo, 2008

Malta se capturan cientos de miles de atunesinmaduros.

Si nos propusiéramos aniquilar una po-blación reproductora, bastaría con capturar alos peces antes de que llegaran a la edad dereproducción y mantenerlos en rediles hastaque fueran sacrificados. Por tanto, los ranchosde atunes, que en un determinado momentose propusieron como una solución al problemade la extinción, no hacen más que agravarlo.En 2006, el Fondo Mundial para la Natura-leza realizó un llamamiento para acabar con

la pesca de atunes en el Mediterráneo; sinembargo, dada la enorme rentabilidad del ne-gocio, el lector puede imaginar el eco escasode esa petición.

En su reunión de noviembre de 2007, laICCA ignoró los argumentos de los conserva-cionistas y estableció para el 2008 unas cuotasque apenas variaban respecto de las fijadas en elaño anterior. La organización adoptó un planpara reducir en un 20 por ciento la pesca deatún en el Mediterráneo para el año 2010; elplan incluía también recortes ulteriores. Peroel presidente de la delegación de los EE.UU.

censuró esa medida parcial, aduciendo que laICCA no había cumplido con la misión parala que se fundó.

Sin embargo, aunque se rebajaran las cuo-tas, el atún rojo seguiría estando en peligro.La pesquería atunera se halla repleta de flotasilegales, que hacen caso omiso de cuotas, res-tricciones, fronteras y cualesquiera otras nor-mas y regulaciones que puedan amenazar sus

capturas. Además, el mercado japonés (quedevora unas 60.000 toneladas anuales deatún rojo, más de las tres cuartas partesde la captura global) está dispuesto a

comprar atunes, sin mirar dónde y cómo

se hayan pescado. La flota pesquera nipona selas ha ingeniado para saltarse las restriccionesde su propio país; cada año le llegan miles detoneladas de atunes ilegales de las que falsificalos registros.

Sería bueno para la especie y, en últimotérmino, para los consumidores, que la pescade túnidos no se practicara de una forma tanimplacable. Habría, empero, que modificarde raíz la naturaleza humana. Mientras laspoblaciones de atunes continúan reduciéndose,crece la demanda japonesa de toro. Un númeromenor de atunes comportará una subida deprecios, precios más altos producirán una in-tensificación de la pesca y la intensificación dela pesca supondrá, por supuesto, el desplomede la ya diezmada población de atunes. (Lasituación mejoraría si los japoneses relajaran

su demanda de maguro, algo poco probable.)Parece que la única esperanza para el atún rojoreside en la cría en cautividad.

Ganado marinoEn el artículo “When will we tame the oceans?”(¿Cuándo domesticaremos los océanos?), pu-blicado en Nature   en 2005, John Marra, delObservatorio errestre Lamont-Doherty dela Universidad de Columbia, anunciaba que lapesca en el mar ya no es sostenible. En suopinión, hemos fracasado en la gestión delas pesquerías oceánicas, que podrían agotarse

en pocos decenios. ¿Su recomendación? Una    C   O

   R   T   E   S   I   A   D   E   R   I   C   H   A   R   D   E   L   L   I   S    (    l   o   n   j    a    d   e   p   e   s   c   a    d   o    )   ;   D   E   X   I   M   A   G   E   /   C   O   R   B   I   S    (   s   a   s    h   i   m   i    )

2. COMPRADORES DE PESCADO inspec-

cionan los cadáveres de atún rojo en la lonja

de Tsukiji, en Tokio. En este mercado de

pescado se registró una compra récord: en

2001 se vendió un ejemplar de atún rojo por

20,2 millones de yenes, unos 113.000 euros.

HISTORIA DEL SUSHI 

La acuciante demanda de sashimi  

(lonchas de pescado crudo) y sushi  

(arroz rematado o enrollado con

pescado o verduras) constituye la

principal amenaza para el atún

rojo.

Siglo IV a. de C. El sushi  se originó

en el sudeste asiático como un

método de conservación del pescado.

La fermentación del arroz impide que

el pescado se pudra. El plato llega a

Japón en el siglo VIII d.C.

Siglo XIX. El sushi nigiri  (con

pescado crudo y no conservado) es

popular en los puestos del mercado

de Edo, hoy Tokio. El pescado crudo

no se convierte en un ingrediente

común hasta la adopción

generalizada del frigorífico, después

de la segunda guerra mundial.

De los años setenta hasta hoy.El consumo de sushi  se dispara en los

EE.UU., pero el atún rojo se sirve sólo

en restaurantes de categoría. Lamayor parte del sushi  que se

consume en los EE.UU. procede de

otras especies (atún de aleta amarilla

y patudo) que también se hallan

amenazadas. La inmensa

mayoría del atún rojo

se sigue consumiendo

en Japón.

Page 85: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 85/99INVESTIGACION Y CIENCIA, mayo, 2008 83

El atún rojo (Thunnus thynnus) se ha captu-

  rado durante milenios en las cercanías

del estrecho de Gibraltar y toda la cuenca me-

diterránea. La ciudad de Baelo Claudia, cuyas

ruinas se encuentran en la provincia de Cádiz,

revela la importancia que tuvo esa especie enel mundo latino. La pesca, la industria de la

salazón y del garum (salsa de sabor intenso

hecha con restos de atún rojo y otros peces

macerados al sol en salmuera) constituían las

principales fuentes de riqueza de esa ciudad.

El 18 de febrero de 1757, el padre benedicti-

no Fray Martín de Sarmiento le comunicaba al

Duque de Medina Sidonia, entonces propieta-

rio de las almadrabas del sur de España: “Esta

dicha observación de que he sido testigo,

excitó la curiosidad del Excelentísimo Señor

 Duque, al compararla con la escasez de los

 Atunes que hoy concurren a sus Almadrabas; siendo constante que en los siglos pasados,

eran casi infi  nitos los Atunes que en las Alma-

drabas se cogían”. Estudios recientes, basados

en las capturas de las almadrabas desde el

siglo XVI hasta el presente, han demostrado

que la población de esa especie presenta

ciclos de máximos y mínimos con intervalos de

entre 100 y 120 años. Ello indica que la pesca

del atún sufría fluctuaciones notables, con

épocas de gran escasez.

Teniendo en cuenta que el atún rojo es

una especie migratoria y que existe una fuerte

interacción entre las pesquerías a uno y otro

lado del océano Atlántico, cabe recordar unacontecimiento que vino a modificar el estado

general de este recurso: el gran desarrollo de

las pesquerías que tuvo lugar en el Atlántico

después de la segunda guerra mundial. A

finales de los años cuarenta del siglo pasado,

se construyeron flotillas de cerqueros en el

norte de Europa; se dedicaban a la pesca de

especies pelágicas (arenque y caballa), pero

durante el verano cambiaban sus redes para

la captura del atún rojo. Ello coincidió con el

inicio de la pesca japonesa con palangre en

todo el océano, el desarrollo de la pesca del

atún con cebo vivo en el golfo de Vizcaya ycon red de cerco en el Atlántico occidental

(Massachusetts).

Tras un inicio espectacular, el esplendor

de las pesquerías del norte de Europa duró

apenas doce años. Desde 1963, las capturas

se desplomaron y ya no se han recuperado. Lo

mismo ocurrió con las almadrabas del estrecho

de Gibraltar y poco después con las pesquerías

de grandes ejemplares del golfo de Vizcaya y

todas las del Atlántico occidental.

Al propio tiempo, durante el decenio de los

setenta, se desarrollaba en el Mediterráneo

la pesca con red de cerco. La evolución de ese

sistema de pesca ha sido constante desde

entonces. A partir de 1996 —año en que se

alcanzaron cifras récord de captura—, la

Comisión Internacional para la Conservación

del Atún Atlántico (ICCAT) asignó a los países

pesqueros un sistema de cuotas. Según lascifras oficiales, desde ese año se ha producido

un descenso de las capturas en el Atlántico

oriental y Mediterráneo. Pero la realidad es

otra. El gran desarrollo de la pesca actual, diri-

gida a la captura en el Mediterráneo de peces

reproductores, cuyo destino son las granjas de

engorde para abastecer los mercados asiáticos

de consumo en crudo (Japón, sobre todo), ha

provocado un incremento de la pesca ilegal.

En la actualidad, la pesca del atún rojo supera

con creces los niveles que recomienda la

ICCAT para garantizar la sostenibilidad del

recurso.La sobreexplotación de las pesquerías at-

lánticas ha conducido al colapso de algunas de

ellas. ¿Seguirán las pesquerías mediterráneas

el mismo camino? Todo parece indicar que

la cuenta atrás ya ha comenzado. El proceso

empieza con un incremento del esfuerzo de

pesca en las áreas de gran productividad; ello

ha ocurrido en el mar de Baleares, mar Tirreno,

golfo de Sidra y mar de Levante. Le sigue una

fase de descenso de los rendimientos pesque-

ros; un síntoma detectado ya en algunas de

esas áreas. Por fin, sobreviene el colapso de

las pesquerías.

La situación actual del atún rojo hamovilizado la opinión pública y la comuni-

dad científica internacional; exigen que se

empleen todos los medios para proteger a tan

amenazado recurso natural. A finales de los

años noventa, diez instituciones científicas

europeas iniciaron una colaboración que se

propone culminar con el mayor reto de la acui-cultura marina: la domesticación del atún rojo.

El grupo se denomina DOTT (“Domestication

of Thunnus thynnus”). En una investigación

llevada a cabo entre 2003 y 2006 (proyecto

REPRODOTT), se logró la puesta en cautividad

del atún rojo del océano Atlántico. El grupo

afronta ahora un gran proyecto de tres años

de duración (2008-2010), con un presu-

puesto de cuatro millones de euros y bajo la

coordinación de Fernando de la Gándara, del

Instituto Español de Oceanografía de Murcia.

Se proponen reafirmar el conocimiento actual

sobre la reproducción en cautividad de estaespecie, establecer los conocimientos básicos

necesarios para la obtención de puestas y el

control del desarrollo larvario, y constituir

las bases para el desarrollo de alimentos que

respeten el medio.

El reto es enorme. Pero, si se supera, tendrá

efectos muy positivos en la conservación de

la especie. Los científicos japoneses lo inten-

taron con el atún rojo del océano Pacífico; lo

lograron en 2004, después de treinta y dos

años de investigación.

José L. Cort

Centro Oceanográfi co de Santander Instituto Español de Oceanografía

PASADO Y PRESENTE DEL ATUN ROJO

Pesca del atún rojo en la ciudad de Baelo Claudia, en el estrecho de Gibraltar, 200 a.C.   ©    I

   E   O

Page 86: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 86/9984  INVESTIGACION Y CIENCIA, mayo, 2008

domesticación a gran escala del océano, congranjas de peces que críen, engorden y reco-lecten especies de interés comercial. Marrareconocía que las piscifactorías actuales hancausado daños ambientales: han contaminadolos ecosistemas costeros y han añadido presióna las poblaciones de peces silvestres, al propa-

gar enfermedades y productos tóxicos. La so-lución que propone se basa en el traslado maradentro de esas operaciones de maricultura,que se llevarían a las aguas de las plataformascontinentales externas; se instalarían corralespara peces de mayor tamaño, unas estructuras

cerradas mediante redes que abarcarían hasta100.000 metros cúbicos de agua, flotarían bajola superficie y se remolcarían de una localidada otra. Se dispersarían así los contaminantesgenerados por la piscicultura, lo que mitigaríael daño ambiental.

Marra sugería una estrategia adicional: sacar

partido de la tendencia que muestran ciertasespecies de atún para agregarse bajo un objetodistinto de su entorno. Esa idea ya se ha aplica-do en el diseño de dispositivos de pesca basadosen la agregación de peces, que se remolcan conbarcas para atraer a los cardúmenes de atunes.No se capturarían de golpe todos los peces, sinoque se llevaría a cabo una gestión sosteniblemediante la alimentación, el mantenimientoy la recolección periódica de algunos de losatunes del cardumen, una gestión semejantea la de los rebaños de ganado.

 A menos que se críen los atunes como si

de animales domésticos se tratara, su poblaciónmundial continuará desplomándose. Pero lacría de atunes en cautividad supone un granreto. Clean Seas Aquaculture Growout, unaempresa del Grupo Stehr, en Port Lincoln,

 Australia del Sur, se ha propuesto superarlo.El gobierno australiano ha concedido a CleanSeas una subvención de 4,1 millones de dólaresaustralianos (2,3 millones de euros) para pro-mover la comercialización de la cría del atúnrojo austral. La compañía ha criado en cautivi-dad peces de limón listados (Seriola lalandi ) ycorvinas del sur ( Argyrosomus hololepidotus ). Ya

se producen a escala comercial. En octubre de2006, Clean Seas transfirió atunes rojos en edadreproductora (machos y hembras sexualmentemaduros) de sus corrales a un tanque de tresmillones de litros que remedaba las condicionesóptimas para la freza. Un ordenador centralmodifica la iluminación del tanque, simula lasalida del sol, la puesta, etcétera. Se trata de unsistema novedoso y único en el mundo.

Durante mi visita a Port Lincoln en febrerode 2007, Rob Staunton, el gerente de la granjapara el Grupo Stehr, me llevó hasta Arno Bay,a 120 kilómetros al norte de Port Lincoln,

en la costa occidental del golfo de Spencer.Me permitieron la entrada (reservada) en elsantuario del negocio del atún, el gigantescotanque cerrado de atunes del vivero de ArnoBay. Digo “reservada” porque mi visita, autori-zada personalmente por el mismo Hagen Stehr,fundador de la compañía, estuvo condicionadapor notables restricciones, comprensibles. Nose permite tomar fotografías en las instalacio-nes, porque las técnicas, el procesamiento delagua, el control del clima y todos y cada unode los demás elementos del diseño de este pro-yecto han de salvaguardarse cuidadosamente

para evitar el espionaje industrial.

Las flotas pesqueras de todo el mundo han extraído miles de toneladas de atún rojo de

los océanos y ahora la especie se ve abocada a la extinción. Parece que la situación es

peor en el Atlántico Occidental. A pesar de que la Comisión Internacional para la Conser-

vación de los Atunes del Atlántico (ICCAT) ha impuesto, desde 1981, cuotas de captura

estrictas en el Atlántico Occidental, se estima que la cantidad de peces sexualmentemaduros en esa región (medida a partir de su masa total) es inferior al 20 por ciento de

la que era a mediados de los años setenta. Parte del problema estriba en que los atunes

rojos del Atlántico Occidental migran a la región oriental de dicho océano, donde las

cuotas de captura son unas 10 veces mayores. Más aún, las cifras de las capturas de que

se informa ( abajo) no incluyen la pesca ilegal; se cree que la captura real de atún rojo en

el Atlántico Oriental y el mar Mediterráneo dobla las cifras oficiales. Tendencias similares

están reduciendo las poblaciones de atún rojo del Pacífico y de los atunes rojos australes,

que frezan en el océano Indico.

DISTRIBUCION GEOGRAFICA DEL ATUN ROJO

Austral

Pacífico Pacífico

AtlánticoOccidental Oriental

ATLANTICO ORIENTAL (y Mediterráneo)

20

40

60

0

Captura de atún rojo (miles de toneladas)

1950 1970 1990 2010

PACIFICO

20

40

Captura de atún rojo (miles de toneladas)

Captura de atún rojo (miles de toneladas)ATLANTICO OCCIDENTAL

20

Año Año

1950 1970 1990 2010Año

1970

AUSTRAL

20

40

60

80Captura de atún rojo (miles de toneladas)

0

0

1950 1990 2010

Año19701950 1990 2010

DEPREDACION A ESCALA MUNDIAL

   L   U

   C   Y   R   E   A   D   I   N   G  -   I   K   K   A   N   D   A   ;   F   U   E   N   T   E   :   D   P   T   O .   A   C   U   I   C   U   L   T   U   R   A   Y   P   E   S   C   A ,   F   A   O

Page 87: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 87/99

 Además de la subvención del gobierno aus-traliano, el Grupo Stehr ha invertido millonesen el diseño innovador de esas instalaciones;sería desastroso que alguien se apropiara desus diseños o los modificara y con ello lesganara la partida. Resulta difícil imaginar quealguien pudiera copiar esa operación gigantesca

sin que nadie en Australia se enterara; perohay empresarios de otros países (Japón, porejemplo) muy interesados en el negocio de lacría en cautividad del atún rojo. Un grupo deinvestigadores de la Universidad de Kinki yaha hecho eclosionar atunes rojos a partir dehuevos y los ha criado en el laboratorio hastala edad reproductora.

Para empezar nuestro recorrido, Stauntony yo tuvimos que calzarnos unas botas decaucho blanco especiales, esterilizadas paraimpedir la introducción de microorganismosextraños en los tanques de alimentación de

los atunes. Guiados por Tomas Marguritte,cambiamos nuestras botas blancas por otrasazules cuando entramos en la estancia centraldel vivero de Arno Bay: el tanque de cría deatunes rojos. En una sala cavernosa iluminadapor una batería de luces fluorescentes, con elsordo zumbido del aire acondicionado comoúnico ruido de fondo (la temperatura en elexterior era de unos 38 grados C), subimosal borde de hormigón del tanque imponentey miramos hacia abajo.

El tanque tenía unos 25 metros de diámetroy seis metros de profundidad. La iluminación

era tenue; apenas veíamos nada que resaltase.Marguritte lanzó entonces al agua un par depeces de tamaño reducido y, de repente, unrelámpago azul ultramar y cromo rompió lasuperficie: uno de los atunes arremetió contrala carnada. El tanque bullía de espuma, atrave-sada por las aletas dorsales y caudales falcifor-mes de los atunes, que anticipaban una comida(aunque habían sido alimentados hacía sólouna hora). Mientras nadaban agitadamenteen círculos bajo nosotros, descubrimos que setrataba de ejemplares adultos. Especímenes de300 kilogramos: una suerte de torpedo delgado

y bruñido, ahusado en ambos extremos, conuna línea de trazos de pínnulas o falsas aletasamarillas situadas inmediatamente antes de lacola, y los sorprendentes paréntesis que marcanlas quillas horizontales de estas especies, amari-llos cromo en el atún rojo austral y negros enlas variedades septentrionales. Nadie es capazde distinguir un macho de una hembra (vivos),excepto otro atún.

Inclinados sobre el borde del tanque, con-versamos acerca del programa de reproducción.Marguritte afirma que podían remedar las con-diciones exactas de las aguas de Indonesia,

donde frezan en condiciones naturales. Si por   G   A

   V   I   N   N   E   W   M   A   N   A   F   P   /   G   e   t   t   y   I   m   a   g   e   s    (   a   r   r   i    b   a    )   ;   C   H   R   I   S   P   A   R   K   A   P   P    h   o   t   o    (   c   e   n   t   r   o    )   ;   A   F   P   /   G   E   T   T   Y   I   M   A   G   E   S    (   a    b   a   j    o    )

3. JAULAS DE PECES, que aceleran la desaparición del atún rojo, se remolcan

a través del Mediterráneo a ranchos marinos cerca de Sicilia ( arriba). Cada jaula

contiene unos 250 atunes rojos. Frente a la costa de Ensenada, en México, los

criadores de atunes alimentan a cardúmenes de atunes rojos del Pacífico hasta

que han adquirido el peso necesario para su venta (centro). Las rodajas de atún

fresco se envían al aeropuerto internacional de Los Angeles, donde se embarcan

en vuelos sin escala hacia Japón. En el interior de una jaula de atunes en el mar

Adriático, en aguas croatas, un buceador nada entre los peces condenados antes

de que, también ellos, sean enviados a Japón ( abajo).

INVESTIGACION Y CIENCIA, mayo, 2008 85

Page 88: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 88/9986  INVESTIGACION Y CIENCIA, mayo, 2008

lo general frezan durante el verano del hemis-ferio austral, cuando los días son más largos yla temperatura del agua más elevada, puedenhacer que el tanque se ajuste a las condicionesde una fecha concreta (el 20 de noviembre,

por ejemplo): establecen entonces la duraciónde las horas de luz de día, la temperatura delaire, la del agua e incluso las corrientes. Logranasí reproducir dicho momento en el océanoIndico, al sur del archipiélago Indonesio. Laúnica variable que no pueden remedar es laprofundidad del agua, y cruzan los dedos paraque no constituya un factor crítico en la re-producción del atún rojo austral.

Inmediatamente al sur del arco de islasde Indonesia (Java, Bali, Flores, Sumba,Komodo, imor) se halla la fosa de Java,que desciende hasta uno de los puntos más

profundos del océano Indico, una caída decasi ocho kilómetros de profundidad. Si laprofundidad constituye un factor clave, elproyecto de Clean Seas está sentenciado. Lapoblación reproductora de Clean Seas noprodujo descendencia en 2007; este año lointentarán de nuevo.

Domesticar el atún rojoEn la sala de conferencias de Clean Seas, enel centro de operaciones de Port Lincoln, co-nocí a Marcus Stehr, consejero delegado dela compañía. El día anterior, Marcus había

estado a bordo de uno de los buques atuneros

cerqueros en la Gran Ensenada Australiana (laenorme bahía abierta de la costa austral delcontinente), mientras una jaula de red quecontenía unas 100 toneladas de atún empezabasu viaje hasta los corrales en aguas de PortLincoln. Como todos los que guardan algunarelación con esta empresa, Marcus se muestra

entusiasmado y optimista acerca del éxito delproyecto, que cree inminente. Está convencidode que su hazaña cambiará por completo lapercepción del atún rojo en Australia.

 Aunque los australianos parecen ir en cabe-za, queda por ver si serán ellos, los japoneseso los europeos los que ganen la carrera para lacría en cautividad del atún rojo. En 2005, ungrupo del Instituto Español de Oceanografíaque trabaja en el puerto de Mazarrón extrajoóvulos y espermatozoides de una poblaciónreproductora cautiva de atún rojo del Atlánti-co; mediante fecundación in vitro obtuvieron

larvas. (Los animales que salen del huevo enlos peces óseos se denominan larvas porquesu aspecto es muy distinto de su morfologíaadulta.) Debe conseguirse. La supervivenciade la especie —y de la industria atunera—dependen de ello.

Para el pescador deportivo, el atún rojoes una presa poderosa y atractiva. Para elarponero, una sombra iridiscente que agitabajo la superficie su cola falciforme y burlasu alcance. El pescador de cerco ve un remo-lino turbulento de cuerpos plateados y azulesque hay que izar a bordo. El palangrero, un

pescado que se amontona en cubierta juntoa muchos otros animales marinos brillantes.Para el criador de atunes, el atún rojo es unanimal anónimo al que hay que cebar hastaque llegue el momento de hundir un estileteen su cerebro. El subastador de la lonja depescado de sukiji ve un sinfín de hileras debloques helados con forma de atún y sin cola.Para los consumidores japoneses es un toro,una tajada de carne deliciosa que se come conwasabi   y salsa de soja.

Para el biólogo, el atún rojo constituye unamaravilla de la ingeniería hidrodinámica, con

un cuerpo repleto de modificaciones que ha-cen que coma más, crezca más, nade más, sesumerja más y migre más que cualquier otropez marino. Y para los que desean rescatar aTunnus thynnus  del olvido biológico, debe servisto como un animal doméstico, lo mismoque una oveja o una vaca.

Para algunos, se trata de un cambio impo-sible. El atún rojo, merodeador por excelenciade los océanos, el pez más salvaje y más po-deroso del mar, no puede —y probablementeno debería — domesticarse. Pero si permanecesalvaje, se le avecina un futuro sombrío... el

mismo que a la industria del maguro.

GIANT BLUEFIN. DouglasWhynott. North Point Press,1995.

SONG FOR THE BLUE OCEAN. CarlSafina. Henry Holt, 1997.

RAPID WORLDWIDE DEPLETION OF

PREDATORY FISH COMMUNITIES.Ransom A. Myers y Boris Wormen Nature, vol. 423, págs.

280-283; 15 de mayo, 2003.

DOLLARS WITHOUT SENSE: THE

BAIT FOR BIG-MONEY TUNA RAN-

CHING AROUND THE WORLD. JohnP. Volpe en BioScience, vol. 55,nº 4, págs. 301-302; abril 2005.

ELECTRONIC TAGGING AND POPU-

LATION STRUCTURE OF ATLANTIC

BLUEFIN TUNA. Barbara A. Blocket al . en Nature, vol. 434, págs.1121-1127; 28 de abril, 2005.

THE SUSHI ECONOMY. Sasha Is-senberg. Gotham, 2007.

Bibliografíacomplementaria

4. GREENPEACE organizó una protesta en una playa del sur de Turquía el

noviembre de 2007, coincidiendo con la conferencia anual de la Comisión Inter-

nacional para la Conservación de los Atunes del Atlántico, que se celebraba en

aquel país. El ente regulador ignoró las peticiones de un cese inmediato de la

pesca del atún rojo en el Mediterráneo. Adoptó un plan que prevé reducciones

modestas de las cuotas de captura en el transcurso de los próximos años.

   G   R

   E   E   N   P   E   A   C   E   /   H   O   A   P   P    h   o   t   o

Page 89: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 89/99

Page 90: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 90/9988  INVESTIGACION Y CIENCIA, mayo, 2008

M   P 

P ́  

d d 

b b 

1

2

Antiparalelogramos, ruedas y émbolosEl cuadrilátero cuyos lados se cruzan hace rodar dos elipses, una sobre la otra,

 y transforma el movimiento rectilíneo del vaivén de un émbolo en el circular de una rueda 

Norbert Treitz

C U R I O S I D A D E S D E L A F I S I C A

 Un cuadrilátero plano, en el que los pares de lados opuestos son igua-

les, no es necesariamente un paralelo-gramo. Puede ser un antiparalelogramo.En un artículo anterior (I

  C, Curiosidades de la física, fe-brero 2008) vimos que un paralelogra-mo dos de cuyos lados se cruzan, unantiparalelogramo, hace rodar dos elip-

ses una sobre la otra y que, con un pocode esfuerzo mental, permite también ex-plicar la propagación del sonido en unasala elíptica.

 Abordamos ahora otra propiedad delantiparalelogramo, muy peculiar: la deconvertir un movimiento circular en unorectilíneo y viceversa. Es el viejo sueñode los constructores de las máquinas devapor. Su inventor James Watt estaba or-gulloso de haber encontrado una solu-ción aproximada. Pafnuti Tschebyschow(1821-1894), al que los matemáticos sue-

len llamar Tschebyschew, teórico de losnúmeros y de la probabilidad, calculómuy buenas aproximaciones.

Que es posible convertir de maneraexacta un movimiento circular en unorectilíneo por medio de un varillajelo descubrió en 1874 Harry Hart(1848-1920), de cuya vida apenas si se

puede encontrar alguna información pu-blicada. Los puntos medios de cada unode los cuatro lados del antiparalelogra-mo están siempre en una misma recta.

 A lo largo de ésta, se cumple una rela-ción geométrica: el producto de la lon-gitud de dos segmentos sobre una rectaque comparten un mismo extremo esconstante bajo una operación de “inver-

sión respecto a un círculo”. La inversiónrespecto del círculo transforma rectas encircunferencias, y al revés. El generalfrancés Charles-Nicolas Peaucellier(1832-1913) encontró un inversor exac-to, que funcionaba con una combina-ción de un trapezoide simétrico y unrombo (véase la figura 1).

La ventaja técnica de una conversiónexacta en movimiento rectilíneo resultade todas maneras limitada. Claro estáque para que el émbolo del cilindro nose tuerza no hay que tener que recurrir

a medidas especiales. Las diversas arti-culaciones giratorias deberán conservarsu movilidad gracias a la lubricación, loque no tiene por qué suponer menostrabajo.

Supongamos ahora que se fija unode los lados del cuadrilátero deforma-ble. Lo denominaremos puntal; a los

que cuelgan de él, brazos, y biela al ladoopuesto al puntal. Si ningún lado esmás largo que los otros tres juntos, setiene un cuadrilátero. Si debe permane-cer en un plano, tendrá un grado de li-bertad, un ángulo que puede ir toman-do cualquier valor. Según una regla deFranz Grashof (1826-1893), los ángu-los en los extremos del lado más corto

pueden girar del todo si los lados máscorto y más largo juntos no son máslargos que los otros dos. Dependiendode si el lado más corto es el puntal, elbrazo o la biela, habrá diferentes tipos demanivelas y cuadriláteros deformables.

Cuadriláteros deformables

En nuestro antiparalelogramo elijamospor puntal uno de los lados más largos.Entonces, los dos más cortos serán losbrazos y el otro más largo la biela. Aho-ra la condición de Grashof se cumple de

maneras diversas, sobre todo con el casolímite de que haya igualdad entre los dospares de lados. Significa que el cuadrilá-tero deformable puede ir cambiando en-tre paralelogramo y antiparalelogramo.

Los puntos de los brazos trazan arcosde circunferencia. El movimiento de lospuntos de la biela no tiene por qué ser

El inversor de Peaucellier: con el teorema

de Pitágoras se deduce que el producto

 MP  · MP ’ sólo depende de la longitud de las

varillas  a y b; es igual a  a2 – b2. A la izquierda

una posible realización.    S   I   G   A   N   I   M   /   S   p   e    k   t   r   u   m    d   e   r   W   i   s   s   e   n   s   c    h   a    f   t    (   t   o    d   a   s    l   a   s   i    l   u   s   t   r   a   c   i   o   n   e   s    )

Page 91: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 91/99INVESTIGACION Y CIENCIA, mayo, 2008 89

tan trivial. Si el cuadrilátero se muevecomo un paralelogramo, entonces cadapunto de la biela se desplazará sobre uncírculo cuyo radio será la longitud de losbrazos. En cambio, en el movimientocomo antiparalelogramo los puntos dela biela se desplazarán sobre curvas en

forma de ocho; su punto medio lo harásobre un ocho con dos ejes de simetría.En el caso en que el puntal y la bielasean más largos que los brazos en un fac-tor √2 (para una caja de construccionesmetálicas, 7/5 es una aproximación ra-cional aceptable de √2), la curva que

describe el punto medio de la biela esuna lemniscata de Bernoulli.

Esta curva resulta de invertir una hi-pérbola rectangular respecto al círculocuyo diámetro es el eje mayor de la hi-pérbola. Se trata de una curva de Cassi-ni especial; esto es, un conjunto de pun-

tos para los que el producto de lasdistancias a dos puntos dados es unaconstante. No se ha de confundir con lalemniscata de Gerono, que es una cur-va de Lissajous.

En la cercanía del centro, la lemnisca-ta de Bernoulli se aproxima a una línea

recta. Esta porción de la curva la utilizó James Watt de guía del émbolo en la má-quina de vapor, si bien con una curvamás esbelta y de brazos más pequeños.

Tales mecanismos ingeniosos no seencuentran en las máquinas de vapormodernas, ni tampoco en los motores

de combustión interna. Se ha compro-bado que es más acertado forzar el mo-vimiento rectilíneo del pistón con otrosmedios y emplear mecanismos tan ba-nales como bielas y crucetas para la trans-formación del movimiento rectilíneo enuno circular.

LA CONVERSION RECTILINEA EXACTA

La inversión respecto al círculo se

  denomina también “reflexión en el

círculo”, aunque una circunferencia re-

flectante daría una imagen muy diferen-

te. Una inversión reproduce el interior

de un círculo en el exterior y viceversa;

la circunferencia se reproduce sobre sí

misma. El punto imagen P ’ de un punto

P  tras la inversión está, desde el punto

de vista del centro M del círculo, en la

misma dirección que P  y de tal manera

que el producto de las distancias de

ambos puntos a M es igual al cuadrado

del radio: MP  · MP’ = R2. En el plano

de los números complejos, la imagen

tras una inversión respecto del círculo

particular de centro 0 y radio 1 resulta

ser el conjugado del inverso.

En tres dimensiones la inversión se

puede extender de manera similar a la

esfera.

Una circunferencia que pase por el

centro M del círculo de inversión se

convierte, tras la inversión con respecto

a ésta, en una recta: si P  se desplaza

sobre la circunferencia que pasa por M,

su imagen inversa P ’ se desplazará sobre

una recta perpendicular a la recta que

pasa por los dos centros de los círculos

(triángulos semejantes en la figura a).

Esta situación se vuelve a dar en

el antiparalelogramo ABCD  (véase b):

trazamos la mediana del trapecio  ABCD 

correspondiente (cualquier otra paralela

sería igual de útil). M, P  y P ’ son los

puntos medios de AB, DA y BC . Demos-

traremos que, para cualquier posición

del antiparalelogramo, P  y P’  son la ima-

gen uno del otro tras una inversión con

respecto a una circunferencia centrada

en M.

Sean BQ la perpendicular a MP  desde

B, y sea QR de la misma longitud que

MQ. Entonces los dos triángulos colorea-

dos APM  y BRP ’ son congruentes entre

sí y MP  = RP ’, esto es, MR = PP ’. Nos

interesamos por MP · MP ’ = RP ’ · MP ’ =

= RP ’ · (RP ’ + 2 · QR) = (RP ’ + QR)2 – QR2 =

= QP ’2 – MQ2. Aplicando el teorema de

Pitágoras a los triángulos QRB  y QP’B 

vemos que el producto da MP · MP ’ =

= P’B2 – MB2. Es decir: sólo depende de

las longitudes de los lados del antipara-

lelogramo y no de los ángulos.

Como mecanismo articulado, sería

realizable como en c. Los puntos M y S 

están fijados a la tabla, y P  a un punto

del perímetro de la rueda. Cuando P  gira

sobre una circunferencia alrededor de S,

P ’ se desplaza por una recta perpendicu-

lar a MS: la rueda acciona el émbolo

o viceversa.

P´ 

B    D 

C A

M Q   R P    P´ 

A

M S 

A

P ́

 a b

c

Page 92: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 92/9990  INVESTIGACION Y CIENCIA, mayo, 2008

Encuestas electoralesEntre lo que declaran los ciudadanos en las encuestas electorales y la estimación de voto que

hacen las empresas demoscópicas hay grandes diferencias. ¿Cómo se obtiene la estimación del

voto a partir de las respuestas obtenidas en las encuestas?  Juan M. R. Parrondo

J U E G O S M AT E M AT I C O S

 Un par de semanas antes de las últi-  mas elecciones generales del 9 de

marzo, casi todos los periódicos publi-caron en primera página los resultadosdel sondeo preelectoral realizado por elCentro de Investigaciones Sociológicas(CIS) que auguraba un “empate técni-

co” entre los dos grandes partidos polí-ticos, PSOE y PP, asignando al primeroun 40,2 % de los votos válidos y al se-gundo un 38,7 %. Sin embargo, al leerel estudio con más detalle, se podía ob-servar que a la pregunta “¿si las eleccio-nes fueran mañana, a qué partido vota-ría usted?” un 31,0 % de los encuesta-dos respondía PSOE, mientras que un21,1 % se decantaba por el PP. Añadien-do a estos datos las simpatías mostra-das por los aún indecisos, el PSOE al-canzaba un 37,1 % y el PP un 24,5 %.

¿Cómo es posible que una diferencia decasi 10 puntos en la intención de voto,o de más de 12 puntos en la intenciónde voto más la simpatía, se tradujeranfinalmente en una de 1,3, es decir, enun “empate técnico” (bastante cercano alos resultados finales)?

En el mismo estudio del CIS, antes dedar paso al anexo que contiene la estima-ción de voto, se advierte: “Dado que losdatos de los indicadores ‘intención de voto’e ‘intención de voto + simpatía’ son datosdirectos de opinión y no suponen ni propor-

cionan por sí mismos ninguna proyecciónde hipotéticos resultados electorales, en esteanexo se recogen los resultados de aplicar unmodelo de estimación a los datos directos deopinión proporcionados por la encuesta.Obviamente, la aplicación a los mismosdatos de otros modelos podría dar lugar aestimaciones diferentes .”

¿Por qué la intención de voto no esuna buena estimación del voto que seproducirá en las elecciones? ¿Y cuál elmodelo utilizado por el CIS para esti-mar el voto a partir de los datos de la

encuesta? Aunque dicho modelo no se

publica en la página web del CIS, el di-rector de su departamento de investiga-ción sí ha respondido amablemente amis consultas y me ha proporcionadoinformación acerca del procedimientode estimación.

El problema principal con el que se

enfrentan los técnicos del CIS es la gran,y constante, discrepancia entre el recuer-do de voto en las pasadas elecciones de2004 y el voto real que se produjo enaquellos comicios. En la Tabla I se pue-den ver las respuestas a la pregunta “¿a quién votó en las últimas eleccionesgenerales (2004)?” junto con los porcen-tajes de voto que realmente tuvieron lu-gar. Es difícil explicar estas discrepancias,que además se producen en multitud deencuestas, no sólo en las de intenciónde voto. ¿Se deben a una elección in-

correcta de la muestra o a que algunos en-cuestados no dicen la verdad?

 Aunque es poco probable que sea así,lo más sencillo desde un punto de vistateórico es suponer que la discrepancia sedebe a un error muestral. Esta suposiciónpermite corregir los datos de cualquierpregunta realizada en la encuesta. Paraello hace falta cruzar las respuestas de to-das las preguntas con el recuerdo de voto,tablas que están disponibles en la páginaweb del CIS. Si  p j  es el porcentaje de in-dividuos que recuerdan haber votado a j  y

c ij  es, de entre estos últimos, el porcentajede individuos que se decantan por unaopción i   en una pregunta, el porcentajetotal de sujetos que se decantan por i  enla encuesta será:

Sin embargo, si el porcentaje real devotos en 2004 por el partido  j  fue p~ j , en-tonces, una buena estimación del porcen-taje real de individuos que se decantan

por la opción i  en la pregunta será:

en lugar de c i . Esta corrección equivalea reajustar la muestra para que reflejecorrectamente el recuerdo de voto. Paraaplicar la fórmula anterior a los datos de

la encuesta electoral, hay que tener encuenta que ciertas opciones en la pregun-ta de recuerdo de voto no tienen reflejoen el voto real en 2004 y, al revés, no sepregunta si el voto del encuestado fuenulo. Por tanto, los porcentajes p~ j  no sonexactamente los porcentajes de voto de2004, sino que hay que incluir aquellosencuestados que no tenían edad para vo-tar, no recuerdan el voto o no contestan ala pregunta del recuerdo de voto en 2004y hay que eliminar los votos nulos de losporcentajes de voto real. La siguiente

fórmula refleja estas modificaciones:

en donde P denota los porcentajes devoto nulo real en 2004 (v.n.), no teníaedad para votar (n.e.), no recuerda (n.r.),no contesta a la pregunta del recuerdo devoto (n.c.), y P  j (v.r.) es el porcentaje devotos que consiguió el partido j  en 2004.En la tercera columna de la Tabla I semuestran los porcentajes p~ j  calculados con

la fórmula anterior.Vayamos ahora a las preguntas de la

encuesta que se refieren a la intención devoto. Por razones de espacio, limitaré todoel análisis a los tres partidos más votados(en 2004 y 2008): PSOE, PP e IU, perolos lectores pueden completar el mismoestudio con el resto de los partidos utili-zando los datos cruzados que están a sudisposición en la página web del CIS.

En la Tabla II se puede ver lo que sedenomina intención de voto más simpa-tía por un partido. Al encuestado se le

pregunta en primer lugar “si las eleccio-

...100100

2

2

1

1   ++=

 pc 

 pc c    i i i 

.).(.).(100

.).(.).(.).(100r v P 

nv P 

c nP r nP e nP  p̃   j  j 

−−−=

...100100

2

2

1

1   ++=

 p̃ c 

 p̃ c c ˜    i i i 

Page 93: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 93/99INVESTIGACION Y CIENCIA, mayo, 2008 91

nes fueran mañana, ¿a qué partido vota-ría?”. El resultado se denomina intenciónde voto. A los que a esta pregunta respon-den que votarían en blanco, no votarían ono saben o no contestan, se les preguntade nuevo “¿por cuál de los siguientes par-tidos o coaliciones siente usted más sim-

patía o cuál considera más cercano a suspropias ideas?”. La intención más simpa-tía por un determinado partido se deter-mina sumando las respuestas a favor dedicho partido en las dos preguntas. Losresultados se pueden ver en la Tabla II,cruzados con el recuerdo de voto. Losporcentajes están siempre calculados so-bre el total de respuestas de recuerdo devoto por una determinada opción. Poreso las columnas no suman cien. Las filassí deberían sumar 100, si incluyéramos

todos los partidos sobre los que se pre-gunta. La columna “abstención” incluyeaquellos que, en las dos preguntas, no sehan decantado por ningún partido, es de-cir, los que en la segunda han insistido enque no tienen preferencia por ninguno ohan vuelto a marcar la casilla “no sabe” o

“no contesta”.Disponemos ahora de todos los datos

necesarios para estimar el voto en laselecciones. Para calcular el voto a IU, porejemplo, tomamos cada entrada de latercera columna de la Tabla II y la multi-plicamos por el correspondiente porcen-taje corregido de la Tabla I. Sumamos to-dos estos productos y obtenemos elporcentaje de voto final. Lo que hacemosasí es aplicar la segunda fórmula de esteartículo. Si se procede de esta forma conlos tres principales partidos y con la abs-

tención, se obtienen los siguientes resul-tados: PSOE 30,39 %, PP 27,98 %, IU4,60 %, abstención 27,62 %. Finalmen-te, si queremos dar las estimaciones enporcentajes sobre voto válido, tendremosque eliminar la abstención, es decir, mul-tiplicar los valores anteriores por 100/(100 – 27,62). Con ello se obtienen lossiguientes resultados: PSOE 41,99 %,PP 38,66%, IU 6,35 %.

El algoritmo completo que utiliza elCIS tiene algunas correcciones adiciona-les que utilizan otros cruces y que aquí no

hemos incluido. Por eso la estimación fi-

nal del CIS (PSOE: 40,2 %, PP: 38,7 %,IU: 5,8 %) difiere ligeramente de la cal-culada aquí. Sin embargo, como puedencomprobar, la corrección por recuerdo devoto es la más importante de todas lasque realiza el modelo del CIS.

Sigue siendo un misterio la discrepan-

cia entre el recuerdo de voto declarado yel voto real en 2004. Probablemente sedeba a la suma de varios factores: algunosdesajustes en la elección de la muestra osesgos en la disponibilidad de las personasa contestar, respuestas no sinceras, o res-puestas sinceras pero equivocadas. Estasúltimas no deberían en realidad corregir-se, puesto que el encuestado puede sersincero en su respuesta sobre intención devoto, aunque sea algo olvidadizo. Las dosprimeras razones de discrepancia sí secorrigen adecuadamente con el método

que utiliza el CIS, puesto que si un indi-viduo miente acerca de lo que votó en2004, lo más probable es que también lohaga sobre su intención de voto. En cual-quier caso, la corrección realizada resultapertinente, como lo demuestran los resul-tados de las elecciones de este año (PSOE:43,64 %, PP: 40,11 %, IU: 3,8 %). Lasdiscrepancias entre la estimación y el re-sultado final pueden deberse perfecta-mente, además de a errores estadísticos, aldesarrollo de la campaña electoral, ya quela encuesta se realizó entre el 21 de enero

y el 4 de febrero de 2008.

Recuerdo devoto 2004

Voto real2004

Porcentajescorregidos

PSOE 37,7 32,22 26,69

PP 20,0 28,53 23,63

IU/ICV 3,2 3,75 3,11

CiU 1,8 2,44 2,02

ERC 0,9 1,91 1,58

PNV 0,8 1,23 1,02

BNG 0,4 0,61 0,51

CC 0,3 0,69 0,57

EA 0,1 0,23 0,19

CHA 0,1 0,27 0,23

Na-Bai 0,1 0,18 0,15

Otro partido 1,0 1,74 1,44

En blanco 2,3 1,18 0,98

No votó 13,6 24,34 20,16

No tenía edad 4,8 4,8

No recuerda 4,9 4,9

N.C. 8,1 8,1

Votos nulos 0,76

Intención + simpatía

 Recuerdo

PSOE PP IU Abstención

PSOE 76,5 6,2 2,9 11,2

PP 3,7 84,1 0,3 9,8

IU 13,4 1,4 74,1 7,5

CiU 6,1 3,4 1,6 11,7

ERC 7,3 0 5,8 7,5

PNV 3,4 0 0,4 9,5

BNG 15,9 0,9 2,3 13,0

CC 6,8 15,6 4,4 18,7

EA 0 1,9 0 19,4

CHA 32,5 5,6 0 37,1

Na-Bai 3,7 0 0 18,5

Otro partido 6,1 7,8 5,4 17,0

No tenía edad 35 24,9 5,7 27,6

En blanco 13,2 10,3 1,8 65,9

No votó 22,7 17,1 3,4 50,5

No recuerda 20,2 16 2,2 53,4

N.C. 9,2 7,3 1,5 77,7

   ©         i        S

       t      o      c        k      p        h      o       t      o

Tabla I Tabla II

Page 94: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 94/9992  INVESTIGACION Y CIENCIA, mayo, 2008

I D E A S A P L I C A D A SI D E A S A P L I C A D A S

La luz que vieneMark Fischetti

Lámparas

 Puede que la bombilla de incandescen-cia ya sea historia. Las lámparas fluo-rescentes compactas (CFL), que ofrecenmayor eficiencia energética, han logradosólo modestos avances a causa de su pre-cio elevado. Pero en diciembre de 2007,el congreso estadounidense aprobó unproyecto de ley sobre energía que modi-ficaba la normativa sobre iluminación.Para 2012, todo fabricante que pongaen el mercado lámparas de 100 watt (W)deberá aumentar el rendimiento de éstasen un 30 por ciento respecto al de las

bombillas de incandescencia actuales. Análogo requisito entrará en vigor deforma progresiva en 2013 para las lám-paras de 75 W; en 2014, para las de60 W y 40 W. Europa ha aprobado, asi-

mismo, sus propios reglamentos. LasCFL cumplen ya las especificaciones;aunque los fabricantes se propongan me-

 jorar los modelos viejos, las nuevas lám-paras gozan de una clara ventaja, que se-guirá en aumento.

La técnica que encierra una bombillaes muy refinada. El filamento de tungs-teno se pone incandescente a más de2000 grados Celsius; su grosor debe serperfectamente uniforme (cualquier mi-núscula imperfección haría que se fun-diera). Pero sólo alrededor del 10 por

ciento de la energía que llega a la bom-billa se emite en forma de luz visible;un 90 por ciento se irradia en forma decalor. El rendimiento de una CFL cua-druplica el de una lámpara de incandes-

cencia. Por consiguiente, una CFL de26 W ilumina tanto como una incan-descente de 100 W, y consume sólo uncuarto de la energía. Los tubos fluores-centes que suelen emplearse para la ilu-minación cenital ofrecen una eficiencialigeramente superior, pero no se adap-tan a los portalámparas estándares, comoes el caso de las lámparas CFL.

Las CFL presentan todavía ciertos in-convenientes. Algunas personas encuen-tran su luz demasiado hiriente. Al ojohumano le agrada ver todas las longitu-

des de onda; pero el revestimiento lumi-niscente interno del tubo no emite de-terminadas longitudes de onda. Se estánmejorando los luminóforos para subsa-nar esa limitación.

Los tubos primitivos tardaban algu-nos minutos en emitir todo su flujo lu-minoso; además, zumbaban o parpadea-ban. Pero las reactancias electrónicas quehan sustituido a las antiguas reactanciasmagnéticas han dado fin a tales incon-venientes y han facilitado la reduccióndel tamaño de los tubos. Los fabrican-

tes se han esforzado para desarrollar lám-paras CFL más versátiles. Para rebajarlos costos deberán acrecentar los volú-menes de producción.

También los diodos emisores de luz(LED) entrarían en liza en los años ve-nideros. Las luces de estado sólido ofre-cen casi la misma eficiencia y duran tresveces más que las CFL. Pero las versio-nes de rosca apenas llegan a iluminarcomo una bombilla incandescente de25 W y son más caras. Por ahora, laslámparas fluorescentes compactas tienen

un futuro brillante.

   D   A

   N   I   E   L   A   N   A   O   M   I   M   O   L   N   A   R

ECONOMIZADOR

Lámpara de incandescencia

Fluorescente compacto

7500

875

DURACION (HORAS)POTENCIA (WATT)

15

60

865

900

FLUJO LUMINOSO (LUMEN)

 Para una misma luminosidad,los fluorescentes compactosgastan menos y duran más(pero son más caros).

¿SABIA USTED QUE...?

 CA/CC: A diferencia de la mayoría de los aparatos domésticos, la bombilla de incandescencia

común que se emplea en los portalámparas estándares de corriente alterna funcionaría también

en un portalámparas de corriente continua. (Si es que alguien, alguna vez, se encuentra con uno.)

 FRIGORIFICOS FRESCOS: Las últimas mejoras en los diodos emisores de luz (LED) han impulsa-

do a la cadena de grandes almacenes Wal-Mart a sustituir las calientes bombillas de incandes-cencia del interior de los embalajes de alimentos y congeladores en todas sus tiendas. Los LED

desprenden menos calor, lo que reduce la carga de refrigeración, y gastan menos electricidad.

 MERCURIO: Tal como se advierte en el envoltorio, los tubos CFL normales contienen peque-

ñas cantidades de mercurio. Las lámparas fundidas deben desecharse en puntos de recogida

especiales. Los fabricantes están tratando de reducir el mercurio necesario. Para defenderse

de las críticas, señalan que la electricidad adicional necesaria para alimentar una lámpara de

incandescencia equivalente emite mercurio, y otros contaminantes, a la atmósfera, si la energía

se produce mediante la quema de carbón.

MANCHA MARRON: Dentro de la ampolla, los átomos de tungsteno que se evaporan de forma

gradual se acumulan en una zona, donde crean una mancha marrón. Si la ampolla está mal se-

llada y se infiltra aire a su interior, el tungsteno puede reaccionar con el aire formando depósitos

marrones, morados o amarillos de óxido o trióxido.

Page 95: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 95/99

TUBOS FLUORESCENTESCOMPACTOS

Funcionan como los otros fluo-

rescentes, salvo que el tubo está

arrollado. Ambos extremos se

hallan unidos a un mismo chasis

adaptado a los portalámparas

tradicionales de incandescencia.

 TUBOS FLUORESCENTES

Una reactancia (extremo derecho) produce una alta tensión que crea un arco entre los electrodos de

tungsteno. El arco excita los átomos del vapor de mercurio, que liberan fotones ultravioletas. Esos in-

ciden en el revestimiento de fósforo del vid rio, que a su vez emite luz visible (fluoresce). La reactancia

ajusta luego el voltaje y la potencia a un nivel inferior para sostener el arco. El argón ( no se muestra)

contenido en el tubo estimula el cebado y aumenta la luminosidad.

 

LAMPARASDE INCANDESCENCIA

Por los hilos de contacto

fluye la corriente eléctrica

que atraviesa un filamento

resistivo, en general de

tungsteno, al que calienta

y pone incandescente. En

el interior de la ampolla

rarificada, llega un momento

en que del filamento se han

desprendido tantos átomos

por evaporación, que en al-gún punto el adelgazamiento

hace que se rompa. En las

lámparas de más de 25 watt,

los fabricantes rellenan la

ampolla con un gas inerte

(argón o xenón) para lentifi-

car la evaporación.

DIODO emite luz cuando chocan

agujeros y electrones.

DIODOS EMISORES DE LUZ

La corriente que atraviesa un diodo semicon-

ductor provoca el movimiento de agujeros y

electrones; cuando ambos chocan emiten un

fotón de cierto color. Distintos semiconduc-

tores emiten diferentes colores. La apariencia

de luz blanca se crea mediante la combinación

de diodos rojos, azules y verdes dentro de una

misma cápsula, o la cobertura con un luminó-

foro amarillento de un diodo azul.

Luminóforo(fósforo) Vapor de mercurio ReactanciaElectrodo

Argón

Contacto eléctrico

Hilo de contacto

Filamento

Electrodo

Electrones Agujeros

Lente

Hilo deconexión

AnodoCátodo

Electrodo Fotón

Vapor de mercurio

  G  E

  O  R  G  E  R  E  T  S  E  C  K

INVESTIGACION Y CIENCIA, mayo, 2008 93

Fotón

Reactancia

Page 96: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 96/9994  INVESTIGACION Y CIENCIA, mayo, 2008

Cáncer La identificación del ADN de los telómeros supuso un cambiode rumbo en la investigación básica 

L IBROS

 Los animales pluricelulares aparecieronhace unos 600 millones de años.

Desde entonces se ha convivido con elcáncer. En cada tanda de desarrollo y di-visión de la célula acecha el riesgo decáncer. Así, la incidencia de tumores cre-cerá de forma progresiva con el tamaño yla esperanza de vida del organismo. A lolargo de su vida, el hombre experimenta

hasta 1016  mitosis, el proceso en virtuddel cual una célula duplica su ADN y sedivide para formar dos células hijas idén-ticas. Cada mitosis constituye una invita-ción a un desastre genético, sea por du-plicación incorrecta del ADN, roturainadvertida de los cromosomas o erroresen su segregación. El cáncer es el puntofinal fenotípico de alteraciones genómi-cas y epigenómicas que se han acumula-do en el interior de la célula, así como delas interacciones entre tales células daña-das y la estroma. Ante semejante abanico

de posibles ocasiones para acumular mu-taciones, resulta sorprendente que no ge-neremos múltiples clones celulares cance-rosos (Te Biology of Cancer ).

El decenio de los setenta culminó latendencia panvírica de la biología delcáncer. Detrás de cada tumor había unvirus, se admitía. Pero el descubrimientode los oncogenes y de los genes supre-sores de tumores removió los cimientos.El cáncer pasó del dominio de la micro-biología al de la biología celular. Uno delos promotores de esa reorientación de la

investigación fue Robert A. Weinberg.

Su hallazgo fundamental de la primeramutación oncogénica (ras ) en un tumorhumano puso fin a la noción de que losoncogenes se activaban sólo por virus. Sutrabajo sobre cooperatividad entre dife-rentes oncogenes constituyó otra piedramiliar. En el libro de reseña no privilegia,empero, su extensa y decisiva aportaciónal campo, sino que con una generosidad

laudable ha confeccionado una exhaustivaobra canónica, sin parangón. Magistral ydidáctica, teje la investigación básica conla clínica, la epidemiología y la evoluciónhistórica. Por buscarle algún punto débilse le ha criticado la menguada atenciónque concede a la epigenética del cáncer,limitada en su caso a la metilación.

erminado el proyecto Genoma Hu-mano, importa ahora acotar el extensoabanico de genes implicados en la tumo-rigénesis. Se cuentan por cientos los ge-nes y las proteínas implicadas en los 110

tipos de cáncer. ¿Cuántos genes encon-tramos mutados en un tumor humano?Podemos ya contestar en lo concernienteal cáncer de mama y colorrectal: hay unas80 mutaciones que alteran aminoácidosen un tumor típico.

La razón de una vida larga y en generalexenta de cánceres reside en los meca-nismos de defensa anticancerosos quehan coevolucionado con nuestra crecientecomplejidad. La mayoría de esas defensas,armadas en diversas etapas, se expresan através de circuitos de señalización intra-

celulares, la organización de nuestros te-

 jidos y el sistema inmunitario. Al menoscinco o seis de esos mecanismos debendoblegarse antes de que se implante eltumor. Se conocen ya los pormenoresbioquímicos de algunas etapas; así, la ac-tivación del oncogén ras  o la inactivacióndel gen supresor de tumores  p53.

La investigación avanza, por supuesto.En el campo de la epidemiología, porejemplo, se sugería que los individuoscon síndrome de Down (que portan trescopias del cromosoma 21) registrabanuna incidencia mínima de tumores sóli-dos. La hipótesis acaba de recibir corro-boración experimental en un ratón trans-génico con el equivalente de la triso-mía inducida. Asimismo, los modelosanimales habituales sobre cáncer operanmediante la transferencia de un oncogéna un embrión. Los ratones desarrollan

el cáncer, pero no manifiestan la ines-tabilidad genómica característica de loshumanos. En junio de 2007 se anuncióla creación de un nuevo modelo múridoque remeda los niveles de inestabilidadgenómica propios de los cánceres de-sarrollados en humanos. Y comienza aprestarse atención al proceso tumoral delas células madre.

La adquisición por las células humanasde rasgos neoplásicos manifiestos suelerequerir varios decenios. Durante esalarga preparación insidiosa, las células

recorren una larga sucesión de ciclos decrecimiento y división. Y terminan porromper con la propiedad fundamental delas células normales, a saber, su capaci-dad para replicarse un número limitadode veces antes de entrar en apoptosis.Las células cancerosas necesitan tornar-se inmortales para formar tumores. Ynecesitan, por ende, de unos telómerosfuncionales, regiones terminales de loscromosomas que, a modo de escudo, evi-tan la fusión de las moléculas del ADNcromosómico. Durante la replicación ce-

lular las enzimas que replican el ADN semuestran incapaces de copiar la cadenade ADN en su trayecto final, lo que su-pone el acortamiento creciente en cadareproducción celular. Ya en 1941 BarbaraMcClinctock, al describir los cromosomasdel maíz, anotaba que éstos poseían unasestructuras especializadas en sus extremosque, si se perdían, instaban la fusión yla generación de megacromosomas condos o más centrómeros.

El componente en ADN de cada teló-mero consta de la secuencia hexanucleo-

tídica 5- AGGG-3, que se repite en

THE BIOLOGY OF CANCER,

por Robert A. Weinberg.

Garland Science;

Nueva York, 2007.

ELIZABETH BLACKBURN

AND THE STORY OF TELOMERES.

DECIPHERING THE ENDS OF DNA,

por Catherine Brady. MIT Press;

Cambridge, MA., 2007.

Page 97: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 97/99INVESTIGACION Y CIENCIA, mayo, 2008 95

tándem miles de veces; estas secuenciasrepetidas, junto con las proteínas aso-ciadas, forman el telómero funcional. El

 ADN telomérico (y por ende los telóme-ros) de las células normales se van acor-tando progresivamente en cada ciclo decrecimiento y división, hasta que dejan

de poder proteger los extremos de loscromosomas. En ese momento aparecela crisis, los cromosomas se fusionan yse precipita la apoptosis. Las células can-cerosas incipientes salvan ese escollo me-diante la expresión de la telomerasa, queelonga y regenera el ADN telomérico. Laactividad de la telomerasa se advierte enentre un 85 y un 90 por ciento de lostumores humanos, en cambio se expresaa muy bajo nivel en células humanasnormales. La telomerasa desempeña asíun papel clave en la proliferación de las

células cancerosas, en su inmortalidad.Ese dominio de la investigación se fue

configurando merced al trabajo tenaz deElizabeth Helen Blackburn, nacida enHobart (asmania) en 1948 (ElizabethBlackburn and the Story of elomeres.Deciphering the Ends of DNA). Dotadade una notable sensibilidad para las ar-tes, leyó en su adolescencia la biografíade Marie Curie escrita por su hija EveCurie, que marcó su rumbo a seguir. Ala hora de escoger carrera, optó por labioquímica.

Durante sus años de formación, la ex-ploración de las vías metabólicas cons-tituía un apartado nuclear, aunque lapropia secuenciación génica comenzabaa despertar interés. Había que ir anotan-do paso a paso los datos analíticos recogi-dos. El bioquímico atendía sobre todo alas proteínas. Blackburn acometió, comoproyecto de fin de carrera, bajo la super-visión de Teo Dopheide y Bartie David-son, la caracterización y purificación deuna enzima bacteriana que intervenía enla biosíntesis del aminoácido fenilalanina.

Mientras preparaba ese trabajo, que seríapublicado, el Nobel Fred Sanger acertó apasar por su centro. La invitó a graduarseen el Laboratorio de Biología Molecularde Cambridge, que dirigía. Aquí trató aSydney Brenner, James Watson y FrancisCrick, dominó la secuenciación del ADNy conoció a su futuro marido John Sedat.

 A comienzos de los años setenta, los bió-logos moleculares estaban completandoel cuadro sobre la replicación enzimáticadel ADN.

Dispuesta a incorporarse en el laborato-

rio de Sanger en octubre de 1971, Black-

burn leyó en el viaje desde Australia,realizado en barco, los artículos de San-ger. Blackburn tenía algún entrenamien-to en el metabolismo, en las reaccionesenzimáticas, pero no en el ADN ni enel ARN. Su trabajo bioquímico distabamucho del trabajo en biología molecular

que comenzaba a implantarse. “La cul-tura del bioquímico difería de la culturadel biólogo molecular, quien prestabamayor valor a una solución elegante y auna deducción inteligente que al correo-so análisis cuantitativo de las proteínasy las mediciones de las velocidades dereacción catalizada por enzimas.

Sanger le asignó la aplicación de losmétodos de secuenciación de proteínas,que él había desarrollado, a pequeñossegmentos de ARN, obtenidos por copiade fragmentos de ADN de un bacteriófa-

go (f X174). Mediante la copia de ADNen ARN y posterior determinación delas secuencias de ARN, Blackburn car-tografiaría la secuencia de ADN. Paso apaso, la reconstrucción de tales fragmen-tos permitiría determinar la secuenciacompleta del ADN. Sanger impartía unenfoque pragmático a la investigación:había que identificar la secuencia, sinprejuzgar nada. Resultado de sus trabajosen Cambridge, Blackburn publicó dos ar-tículos, uno sola y otro en colaboración,de inmediato aceptados en el  Journal of

 Molecular Biology .Realizó la investigación posdoctoral en

la Universidad de Yale, en el laborato-rio de Joe Gall, quien se había centradotiempo atrás en los cromosomas gigantesde los ovocitos de los anfibios y había es-tudiado los genes de ADN codificadoresdel ARN ribosómico de anfibios, insectosy protozoos. Con Mary-Lou Pardue, ha-bía desarrollado la técnica de hibridaciónin situ, cuyo empleo se difundió paralocalizar secuencias de ADN y de ARNen los cromosomas. Estaba por entonces

investigando secuencias muy repetidasde ADN en el centrómero, estructuraen cuya virtud un cromosoma se alineaa lo largo del huso mitótico, asegurandoque, una vez que se divide la célula, cadacélula hija recibirá una copia de cadacromosoma. Gall venía esforzándose porensamblar la secuencia del centrómero,aplicando una variante del método deSanger de secuenciación del ARN.

Blackburn se sentía atraída por el ADNde las regiones terminales del cromosoma.Gall acababa de descubrir cómo purifi-

car los minicromosomas lineales de e-

trahymena , un protozoo unicelular; habíatambién determinado que el ADN quecifra el ARN ribosómico se alojaba enesos minicromosomas. Blackburn empezóa trabajar con etrahymena thermophila .Observó que las regiones terminales va-riaban de una molécula a otra. Identificó,

mediados los setenta, el motivo CCC-CAA, denotado (CCCCAA)n, donden  designaba el número de repeticiones.Las tandas C4 se iteraban unas cincuentaveces por región terminal. ¿Qué mecanis-mos biológicos explicaban esos fenóme-nos? Firmado por Gall y ella, enviaron unartículo donde se exponían sus resultadosal  Journal of Molecular Biology , revistaprestigiosa, la única en publicar entonceslos contados resultados de secuenciacióndel ADN que se producían. Ese fue elprimer artículo de Blackburn sobre la

estructura molecular de las regiones ter-minales de los cromosomas.

 De Yale pasó a Berkeley, al laboratoriode Herb Boyer. Blackburn siguió traba-

 jando sobre el complejo de proteínas queasociaba con los telómeros de etrahyme-na. Pero con las técnicas de entonces nopodía purificar el ADN en cuantía sufi-ciente para permitirle aislar e identificarlas proteínas en cuestión, que, infirió, noeran histonas. No tardó en abrir otra líneade investigación más fructífera; para de-mostrar que las secuencias repetitivas de

los telómeros pudieran ser una estructuraconservadora general, no un fenómenopeculiar de etrahymena , buscó pruebasde ADN telomérico en otros organismos.

 Y comprobó que las estructuras termi-nales de los telómeros del cromosomamacronuclear de Glaucoma  eran como losde etrahymena , demostrando lo que ellavenía sospechando desde hacía tiempo:no constituían ninguna excepción.

En la conferencia Gordon de 1980presentó un resumen de su investigaciónsobre la estructura del ADN telomérico.

Entre los asistentes estaba Jack Szostak,genético molecular de levaduras. Szostakse preguntó si los telómeros aislados ypurificados de etrahymena  podrían fun-cionar como telómeros en las células delevadura y aportar, por ende, un mediopara aislar ADN telomérico de levadura.Blackburn y él se pusieron manos a laobra. Acometerían el experimento en dosfases: en la primera intentarían crear unminicromosoma lineal; si lo lograban,pasarían a un segundo estadio donde ma-nipularían el minicromosoma para que

cosechara telómeros de levadura. Con

Page 98: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 98/9996  INVESTIGACION Y CIENCIA, mayo, 2008

una ligasa obtuvieron un minicromosomalineal, que introdujeron en células dela levadura Saccharomyces cerevisiae . Elexperimento funcionó. Los terminalesde etrahymena   se comportaban comotelómeros en la levadura, estabilizandoel minicromosoma. En un salto espec-

tacular a partir de las pruebas obtenidas,Blackburn avanzó la hipótesis de que losnuevos telómeros no se copiaban de un

 ADN preexistente, sino que se origina-ban ex novo durante la división celular.

En la Navidad de 1984 Carol W.Greider y Blackburn obtuvieron el auto-radiograma que aportaba una pruebaincontrovertible de la vinculación de latelomerasa con el telómero. Descubrieronque mientras un fragmento teloméricode etrahymena   terminaba en cuatro G,el fragmento telomérico de la levadura

terminaba en tres G. Cuando se añadíala enzima a los fragmentos de etrahy-mena , agregaba repeticiones GGGG,pero cuando la enzima se incorporaba alterminal de levadura, añadía una G antesde producir los subsecuentes GGGG.Con otras palabras, la enzima reconocíala “deficiencia” en el sustrato de levadu-ra. En 1985 enviaron un manuscrito aCell , sobre el papel desempeñado por laenzima en la aportación de repeticionesteloméricas. Blackburn y Greidel habíandenominado en un comienzo telómero-

terminal transferasa a su enzima porquepodía añadir ADN; pero la nueva enzima

añadía una secuencia específica (GGGG-) al ADN telomérico, lo que sugeríaque pertenecía a una entidad inédita.El término telomerasa fue acuñado en1986 por Claire Wyman, una graduan-da del laboratorio de Blackburn. En1987 Blackburn y Greider publicaron

su segundo artículo en Cell , en dondedemostraban que la telomerasa conteníaun componente de ARN, cuya secuenciase apresuraron a identificar.

En 1990 Blackburn fue contratada porla Universidad de California en San Fran-cisco. A mediados de ese decenio, Greidery Cech se propusieron aislar el compo-nente proteico de la telomerasa. En 1996,Lundbald colaboró con Joachim Linger yCech para identificar la secuencia del gencodificador del componente proteico enla levadura y en Euplotes ediculatus . Una

vez publicados los resultados en marzode 1997 era cuestión de meses la secuen-ciación del gen humano del componen-te proteico de la telomerasa. La carrerapor clonar ese gen se disputó entre ellaboratorio de Cech en la Universidadde Colorado en Boulder y el de Robert

 Weinberg en el Instituto Whitehead. Elequipo de Cech fue el primero en pu-blicar los resultados (una semana antesque el otro), pero los derechos de la pa-tente pertenecían a Geron, en tanto que

 Weinberg puso a disposición de todos sus

propios resultados.—Luis Alonso

medidas de prevención, sino la situacióngeográfica de cada nación, su lugar en latrayectoria epidemiológica del contagio,

 junto con el resto de factores apuntados. A través de múltiples ejemplos reivin-

dica la poca consistencia de un dualismoestricto en cuanto al origen de la enfer-

medad infecciosa (anticontagio frente acontagio) o su prevención (cuarentenaso reformas), al ser los tres pilares básicosde la teoría epidemiológica —los factoreslocales, la predisposición individual y elcontagio— mutuamente permeables. Sedesmarca así de la conocida hipótesisde Ackerknecht, para quien el régimenpolítico de un país determina su plan-teamiento defensivo ante una enferme-dad infecciosa, de tal manera que unaestructura gubernativa autoritaria seríapartidaria del establecimiento de cuaren-

tenas, mientras que un régimen liberalabogaría por medidas de saneamientoambiental.

La obra se divide en seis extensos ca-pítulos: Variaciones en la profilaxis; Laaparición del cólera; La mayoría de edaddel cólera; Viruela contra lanceta; La sífi-lis entre la prostitución y la promiscuidady Las políticas de prevención.

En el primer capítulo, el autor estableceel punto de partida: durante el siglo las naciones europeas, que compartían enlas primeras décadas del mismo estrategias

profilácticas frente a la infección, las cua-rentenas, acabaron adoptando medidasdivergentes. En los siguientes capítulosanaliza cómo, con el cólera, Gran Bretañaadoptó un sanitarismo radical frente alas cuarentenas prusianas; de qué manerala vacunación antivariólica aumentó en

 Alemania y fue abandonada en Suecia yGran Bretaña y la forma en que el con-tinente regulaba la prostitución mientrasera abolida en los países nórdicos y alotro lado del Canal.

Baldwin maneja en esta obra una am-

plísima variedad de fuentes, desde artí-culos a informes técnicos y memoriasacadémicas, así como una exhaustiva bi-bliografía secundaria, todo lo cual quedareflejado en unas dos mil notas a pie depágina. Si algo cabe reprocharle a estaedición es la falta de una bibliografíapor orden alfabético, que facilitaría laconsulta de las muchas referencias uti-lizadas, así como un índice de materiasseparado del onomástico y un sumarioque incluyera las subdivisiones realizadasen cada capítulo.

— María José Báguena Cervellera 

CONTAGION AND THE STATE IN EUROPE, 1830-1930,

por Peter Baldwin.

Cambridge University Press; Cambridge, 2005.

 Peter Baldwin, catedrático de historiade la Universidad de California en

Los Angeles, aborda en este libro las me-didas de salud pública adoptadas por losgobiernos de Gran Bretaña, Francia, Ale-mania y Suecia entre 1830 y 1930 frenteal cólera, la viruela y la sífilis. Se analizaespecialmente la relación entre los dife-

rentes regímenes políticos y las estrategias

defensivas llevadas a cabo frente a las en-fermedades infecciosas. Para Baldwin, lasmedidas profilácticas fueron impulsadaspor una constelación de factores geográfi-cos, económicos, administrativos y políti-cos, lo que condujo a estrategias naciona-les diferentes ante la enfermedad. Ni elliberalismo británico ni el intervencionis-

mo alemán determinaron por sí solos las

Epidemiología  ¿Determina el régimen político

de un país su planteamiento defensivoante una enfermedad infecciosa? 

Page 99: Investigación y ciencia 380 - Mayo 2008

7/18/2019 Investigación y ciencia 380 - Mayo 2008

http://slidepdf.com/reader/full/investigacion-y-ciencia-380-mayo-2008 99/99

E N E L P R O X I M O N U M E R O D E J U N I O 2 0 0 8

El color de las plantasextraterrestres,

 por Nancy Y. KiangEn otros mundos, los vegetales podríanser rojos, azules o negros.

Regeneraciónde las extremidades, por Ken Muneoka, Manjong Han y David M. Gardiner 

Las salamandras muestran unaasombrosa capacidad para regenerarmiembros amputados. El estudio de

ese anfibio abre nuevas vías para lareconstrucción de miembros y tejidosdel cuerpo humano.

Recuperación del mar de Aral, por Philip Micklin y Nikolay V. Aladin

Vaciar de manera imprudente el cuarto mayor lago del mundopara regar campos de labor lo convirtió en un desierto secoy tóxico. Se está recuperando ahora su parte septentrional.

ónmidades,

 a, Manjong Han iner 

s muestran unaacidad para regenerarutados. El estudio de

e nuevas vías para lade miembros y tejidosano.