<<

1

2

Manuel Riveira Porta

VIDA EXTRATERRESTRE Curso de Astrobiología

Grupo de Astrobiología Agrupación Astronómica de Madrid Marzo de 2015

Portada: Vía Láctea Fotografía de Antonio Sánchez Agrupación Astronómica de Madrid

3

4

ÍNDICE

Prólogo 9 1. Introducción 11 2. Desde el Big Bang hasta los elementos químicos 15 Origen del universo 15 Formación de las galaxias 16 Formación de las estrellas 18 Objeción de Maxwell 22 Estrellas: fábricas de los elementos químicos 23 Supernovas: formación de los elementos más pesados que el hierro 25 Nubes moleculares 25 Origen de los elementos químicos: resumen 26 3. Formación de los sistemas planetarios 29 Estructura de los discos protoplanetarios 30 Formación y evolución de los gigantes gaseosos 31 Formación de los planetas rocosos o terrestres 32 Metalicidad 33 Migraciones planetarias 34 Evidencias de las migraciones planetarias 35 Particularidades del Sistema Solar 36 Bombardeo Intenso Tardío (BIT) 37 Dataciones del Sistema Solar 38 Futuro del Sistema Solar 38 4. La Tierra: planeta “vivo” 43 ¿Cómo transcurre el tiempo? 43 Edades de la Tierra 44 La Tierra: su lugar en el Sistema Solar 46 Tierra “sólida”. Estructura dinámica 46 Temperatura interior de la Tierra 46 Capas composicionales 47 Campo magnético terrestre 49 Tectónica de placas 50 Ciclo del carbono 53 Ciclo carbonatos-silicatos 54 Efecto invernadero 54 Regulación de la temperatura del planeta 56 Historia evolutiva de la Tierra 56 Tierra sólida 57 Formaciones de hierro bandeado (BIF) 55 Súpercontinentes 59

5

Formación y fragmentación de Pangea 60 Grandes glaciaciones 61 Atmósfera 62 Historia del oxígeno 63 Atmósfera actual, capas 65 Funciones biológicas de la atmósfera 66 Hidrosfera 66 Origen del agua en la Tierra 67 5. Vida en la Tierra: origen y evolución 71 Conceptos básicos 72 Átomos y moléculas de los seres vivos 73 Ácidos nucleícos 74 Proteínas 75 Glúcidos o azúcares 76 Lípidos 76 Célula 77 Organismos unicelulares y pluricelulares 78 Síntesis proteica 79 Funciones básicas de los seres vivos 81 Origen de la vida 83 Generación espontánea (Aristóteles-Pasteur) 83 Hipótesis sobre el origen de la vida 84 Alexander Oparin y Haldane 85 Experimento de Miller y Urey 90 Restricciones geológicas al modelo clásico del origen de la vida 90 Entonces, ¿qué sucedió? 91 Origen de la vida en el fondo del mar, en las chimeneas hidrotermales 91 : origen extraterrestre de la vida 92 Primer replicante: “El mundo del ARN” 94 Evolución: teoría y pruebas 95 Herencia de los caracteres adquiridos 96 Evolución de las especies: Charles y Alfred Wallace 96 Contribuciones de C. Darwin y A. Wallace 97 Importancia de la selección natural 97 Mendel y la genética 98 Mutaciones: visión moderna de la evolución 99 Reproducción 100 Especiación y tasa de evolución 101 Evolución divergente, convergente y paralela 102 Pruebas de la evolución 102 Argumentos de un único antepasado común “LUCA” 103 Evolución de la vida en la Tierra 104 El Hádico (4.600 a 4.000 Ma AP) 104

6

Arcaico (4.000 a 2.500 Ma AP) 105 Proterozoico (2.500 a 542 Ma AP) 106 Organismos eucariontes 107 Primeros animales pluricelulares 108 Era paleozoica 109 Explosión cámbrica 109 Fauna ediacarana 109 Yacimiento chino de Chengjiang 110 Fauna de Burgess Shale 110 Las plantas conquistan la tierra firme 101 Anfibios 111 Vida en la era Mesozoica 111 Amniotas 111 Extinciones masivas 112 Clasificación de los seres vivos. Árbol de la vida 114 Extremófilos. Nuevos hábitats 115 6. Requisitos para la habitabilidad extraterrestre 121 Zona estelar habitable (ZH) 122 Estrella anfitriona adecuada 123 Luminosidad duradera 124 Luminosidad estable 125 Estrellas variables 126 Sistemas estelares unitarios, binarios y múltiples 126 Planeta telúrico y masivo 127 Órbita y rotación adecuadas 128 Excentricidad orbital 128 Inclinación del eje de rotación 128 Velocidad de rotación 129 Movimiento de precesión 129 Satélite grande 129 Planeta exterior grande 130 Zona Habitable galáctica 130 “Tierra rara” (RARE ) 132 7. Exoplanetas: métodos de detección, resultados 135 Procesos y medios de detección de exoplanetas. Resultados 135 Método de la sincronización púlsar (SPU) 136 Método de la detección directa (DD) 137 Método de la velocidad radial (VR) 138 Método de la microlentes gravitacionales (µL) 142 Método de tránsitos (TR) 142 Valoración adicional con los resultados de la sonda Kepler (método TR) 146 Resultados globales (30/06/2014) 147

7

Evolución de los descubrimientos de exoplanetas 148 Sistemas planetarios 148 Distribución de los planetas masivos 148 Distribución de los planetas poco masivos 149 Evolución de las masas mínimas detectadas 149 Excentricidades orbitales 150 Exoplanetas candidatos a habitables 150 8. Habitabilidad extraterrestre 155 Vida en el Sistema solar (aparte de la Tierra) 155 Sistema solar interior 155 156 Marte 157 Planeta Tierra vs Venus y Marte 159 Vida en las lunas de los gigantes gaseosos 145 (satélite de Júpiter) 160 Ganímedes (satélite de Júpiter) 160 Calisto (satélite de Júpiter) 161 Titán (satélite de Saturno) 161 Encélado (satélite de Saturno) 161 Tritón (satélite de Neptuno) 162 Vida en el Universo (de momento la Vía Láctea) 162 Habitabilidad de la Vía Láctea 163 Estimación de la “habitabilidad máxima de la Vía Láctea” 164 Vida compleja inteligente (tecnológica) 165 9. Misiones futuras: biotrazadores 167 ¿Es posible aprender sobre la Tierra observando otros planetas? 167 ¿Es posible la detección de vida en la Tierra por un observador externo? 167 ¿Es posible detectar clorofila en otros exoplanetas? 168 “Señales” de vida a buscar en otro mundos, biomarcadores 169 Futuras misiones de observación espacial 170

ANEXOS: A. Elementos químicos 173 B. Partículas elementales 175 C. Desde el Big-Bang al hidrógeno y el helio 180 D. Cuerpo negro: evolución de la energía en función de la temperatura 190 E. Métodos de datación relativa y absoluta 191 F. Detección de las capas de la Tierra y sus espesores 194

Abreviaturas 196

Bibliografía 197

8

■ Prólogo

¿Estamos en el momento adecuado para valorar la existencia de vida extraterrestre? Con independencia de los pensamientos individuales, sabemos que la existencia de vida en otros mundos es un hecho verificable, algo en lo que el mundo científico, y muy especialmente las agencias espaciales, vienen trabajando intensamente desde el último tercio del pasado S. XX. Hasta la fecha no se ha detectado ninguna evidencia, ni siquiera indicios, de vida exterior y posiblemente tengamos que esperar décadas hasta que se encuentre alguna pista, algún biomarcador. No es fácil definir la vida, ni cómo pudo surgir en nuestro planeta, lo que dificulta enormemente la búsqueda en otras partes, pero es evidente que en la Tierra sí ha surgido, evolucionado y se ha adaptado a todos sus ambientes, desde las profundidades de la corteza terrestre (hasta 4 km, de momento), hasta la estratosfera. Como manifiestan muchos científicos y pensadores: lo sucedido en nuestro planeta también debe de poder ocurrir en otras partes, siempre y cuando concurran las mismas o similares circunstancias. Si esto es así, parece lógica la idea de comenzar la búsqueda de objetos candidatos a habitables utilizando nuestro planeta como modelo: pues bien, esto es lo que se viene haciendo desde 1995, año en que se descubrió el primer planeta en torno a otra estrella. Desde entonces no se ha escatimado en medios técnicos ni en esfuerzos, que han sido premiados con prometedores resultados (■Capítulo 7): ¡hasta la fecha (junio 2014) ya se han descubierto 1800 planetas orbitando 1116 estrellas! Sin embargo, ninguno de estos planetas es el “gemelo” de la Tierra: generalmente son muy masivos (tipo Júpiter), se encuentran muy cerca de su estrella y muchos de ellos presenta órbitas muy excéntricas; mientras que en el Sistema Solar (SS) tenemos cuatro planetas “tipo terrestre” a distancias “razonables” del Sol y sus órbitas son casi circulares (excepto Mercurio). Sabemos que los resultados están sometidos a un sesgo observacional (■Capítulo 7), debido a que los métodos y los medios utilizados (disponibles) son muy sensibles al tamaño del planeta, al tamaño de la estrella y a la distancia entre ambos: la sensibilidad aumenta para planetas masivos, estrellas pequeñas y con la cercanía entre ambos. Esto justifica en parte la tipología de los exoplanetas [■0-1] encontrados. No obstante, estos “sorpresivos” descubrimientos nos proporcionan una importante enseñanza: nuestro SS deja de ser el modelo universal de sistemas planetarios, pasando a ser uno entre otros muchos (■Capítulo 7). Es incuestionable que la evolución y el progreso de los medios: grandes telescopios terrestres con espejos de 10 m de diámetro, o situados en el espacio el espacio para evitar los efectos negativos de la atmósfera; perfeccionamiento de los espectrógrafos… han conseguido detectar planetas de tamaños cada vez más parecidos al terrestre. La lógica estadística nos permite extrapolar y ser optimistas acerca de la existencia de sistemas planetarios como el nuestro, pero de momento toca esperar, en torno a una década (■Capítulo 9), hasta que podamos disponer de las nuevas generaciones de medios capaces de detectar a un planeta como el nuestro (0,5 a 2 masas terrestres), en torno a una estrella parecida al Sol (tipos F, G o K), y a la distancia adecuada, a no ser que alguna idea genial, que suele darse en el mundo científico, nos sorprenda con un hallazgo inesperado utilizando los medios actuales.

9

La abundante información aportada por los descubrimientos realizados hasta la fecha, y ante el parón previsto para la disponibilidad de medios más potentes hasta la próxima década, es lo que nos anima para realizar un balance, donde intentaremos poner a disposición del lector los conocimientos disponibles sobre esta apasionante materia, proporcionando los criterios que permitan estimar con base científica las posibilidades de existencia de vida en otros mundos, valoración que realizaremos, a título de ejercicio, en el ■Capítulo 8. Quiero agradecer el ánimo y apoyo recibido por parte de muchos de los componentes del Grupo de Astrobiología de la Agrupación Astronómica de Madrid, muy especialmente la de aquellos que desinteresadamente han desarrollado e impartido excelentes charlas o conferencias, relacionadas con la Astrobiología, donde todos hemos asimilado conocimientos y de donde he podido extraer gran parte de la información que ha permitido escribir este texto. Gracias expresas a: Antonio Carretero, Carmelo Alonso, Joaquín Sorlí, Mariano Gutiérrez y a Pedro Valcárcel.

[■0-1] Se denominan exoplanetas o planeta extrasolares a los que orbitan otras estrellas diferentes del Sol y que, consecuentemente, no pertenecen al Sistema Solar.

La Unión Astronómica Internacional (UAI), en el año 2003, definió de manera provisional el concepto de exoplaneta. Según la misma, los planetas fuera del Sistema Solar deben orbitar alrededor de una estrella o remanente de estrella (enana blanca o estrella de neutrones) y tener una masa inferior a 14 masas de Júpiter.

10

■ 1. Introducción

Observando un cielo estrellado en la tranquilidad de una noche sin nubes, sin Luna, sin luces parásitas, surgen de forma inevitable algunas preguntas: ¿existen otros mundos habitables?, ¿estamos solos en el universo?, ¿es la Tierra especial?... Estas cuestiones, planteadas a lo largo de los tiempos, nunca han tenido respuestas apoyadas en bases científicas. El principio de mediocridad, formulado por John Richard Gott en 1969, afirma: “no existe nada intrínsecamente especial acerca de la Tierra, y por ende, tampoco de la raza humana”. Si este principio estuviese acertado, la vida extraterrestre debería de ser bastante común en el universo, dado que las condiciones que han originado la vida en la Tierra también debieron o deben de darse en muchos otros planetas orbitando otras estrellas. Quizás esta misma lógica fue la que impulsó a grandes pensadores a especular, afirmando la existencia de una infinidad de mundos similares al nuestro. Algunos ejemplos significativos son: Epicuro de Samos, filósofo griego (siglo IV a.C.) dice en su carta a Herodoto (fragmento): “Por otra parte, hay una infinidad de mundos, sean parecidos al nuestro, sean diferentes”. Giordano Bruno, filósofo, astrónomo y poeta italiano (1548-1600). Apoyó el heliocentrismo copernicano y expresó públicamente sus ideas acerca de la pluralidad de sistemas solares y de otros mundos habitados por seres inteligentes, opiniones que escandalizaban al mundo cristiano de la época [■1-1]. Está considerado como uno de los precursores de la revolución científica. Camille Flammarión, astrónomo francés (1864-1936), escribió numerosas obras sobre astronomía, entre otras “La Pluralité des mondes habités”, “Las Terres du ciel”… Actualmente, una parte importante del mundo científico considera que la vida es una consecuencia de la evolución de la materia y apoya el hecho de que también pueda surgir y evolucionar en otros mundos, siempre que se den unas condiciones similares a las que ocurrieron en su momento en nuestro planeta (■Capítulo 5). Sin embargo, no debemos dejarnos arrastrar por el optimismo y el deseo de estar “acompañados”. Hasta la fecha ya se han descubierto cerca de dos mil planetas en torno a otras estrellas, lo que demuestra que, además de existir, son abundantes. Pero, como veremos, y en contra de lo esperado, las características observadas presentan una gran dispersión, generalmente muy distintas a las de nuestro planeta y nuestro sistema solar, lo que en cierto modo contradice el “principio de mediocridad” indicado anteriormente.

11

No obstante, con independencia del libre pensamiento de cada persona, la existencia de vida extraterrestre es un hecho comprobable al que el mundo científico viene dedicando entusiasmo y grandes esfuerzos, tanto humanos como económicos, desde los años 70 del siglo pasado. Esta actividad se ha formalizado con la creación de una nueva ciencia, la astrobiología (■Figura 1-2), que se ocupa de estudiar el origen, la evolución y la distribución de la vida en el universo. El nacimiento de la astrobiología suele situarse en el año 1998, con la creación del NASA Institute (NAI). Se trata de una rama del conocimiento muy compleja, que requiere la actuación combinada y coordinada de astrofísicos, biólogos, geólogos, químicos, físicos, ingenieros…, para integrar resultados que solo se pueden comprender si se analizan en conjunto (el programa de Exobiología de la NASA comenzó en el año 1960). Obviamente, la Tierra y su entorno, el Sistema Solar, es un sistema en el que, en el pasado, han concurrido las circunstancias adecuadas para que la única vida que conocemos haya podido surgir y desarrollarse, condiciones que, con toda seguridad, habrán sido muy distintas de las que ahora conocemos. La Tierra y la vida terrestre son nuestros modelos, nuestras referencias para la búsqueda en otros mundos. Por lo tanto, para saber cómo y dónde buscar otras “tierras” habitables, otras vidas, debemos de comenzar por conocer, por una parte, las hipótesis plausibles del origen de la vida en nuestro planeta, su evolución y sus características actuales; y por otra, las posibles particularidades del medio en el que la vida ha podido surgir y evolucionar. Abordaremos estos temas en cuatro capítulos básicos: ■2. Origen de los elementos químicos, ■3. Formación de los sistemas planetarios, ■4. La Tierra: planeta vivo, y ■5. Vida en la Tierra: origen y evolución. Los conceptos desarrollados en los capítulos anteriores, unido a la información proporcionada por la exploración espacial, nos permitirán estimar las características requeridas para la habitabilidad de otros mundos en el capítulo: ■6. Requisitos para la habitabilidad extraterrestre. Antes de abordar el delicado capítulo de la habitabilidad extraterrestre hemos considerado conveniente realizar una revisión de los métodos y medios utilizados a tal efecto, con sus puntos fuertes y débiles; así como los resultados obtenidos, tanto de cada método como en conjunto, lo que nos permitirá valorar con rigor científico las características de los planetas descubiertos y los sesgos introducidos achacables a los medios de observación disponibles: ■7. Exoplanetas: métodos de detección, resultados. Dedicaremos ahora un capítulo al análisis de la habitabilidad más allá de nuestro planeta Tierra, con una primera parte dedicada a las posibilidades dentro del Sistema Solar: planetas del sistema solar interior y algunos satélites de los gigantes gaseosos; y una segunda parte, a modo de ejercicio teórico, donde realizaremos una estimación estadística de las posibilidades de vida extraterrestre, que de momento restringiremos a la Vía láctea (VL): ■8. Habitabilidad extraterrestre. Finalmente comentaremos algunas de las informaciones disponibles acerca de aquellas misiones espaciales previstas para la próxima década, entre cuyos objetivos figura la capacidad de detectar exoplanetas de tamaño terrestre (0,5 a 2 masas terrestres) orbitando en la zona habitable de estrellas parecidas al Sol (tipos: F, G y K); así como la posibilidad de analizar las atmósferas de los exoplanetas para detectar posibles indicadores de vida. ■9. Misiones futuras: biotrazadores.

12

Nota: a lo largo del texto resaltaremos con fondo verde las apreciaciones favorables a la existencia de vida [■ 1-2] extraterrestre; con fondo rojo las negativas, y con fondo amarillo las que se consideren importantes o relevantes, aunque sean “neutras” respecto a la existencia de vida extraterrestre.

[■ 1-1] Condena de Giordano Bruno: con independencia de su apoyo a la pluralidad de sistemas solares y de otros mundos habitados por seres inteligentes, fueron sus ideas teológicas, tales como el negar el pecado original o la divinidad de Cristo, las que motivaron su persecución y condena a la hoguera por parte de la Inquisición. [■ 1-2] En este libro utilizamos el término vida desde el punto de vista de la biología, haciendo referencia a aquello que diferencia a las arqueas, bacterias, animales, vegetales, hongos y protistas del resto de realidades naturales (ejemplo: los minerales). Implica las funciones de nutrirse, relacionarse y reproducirse. Consideramos especulativo especificar tipos concretos de vida, como vida compleja o vida inteligente…

13

14

■ 2. Desde el Big Bang hasta los elementos químicos

El sistema Tierra-Sol es nuestro mejor modelo para la búsqueda de otros mundos habitables. Se trata de un sistema que sabemos que “ha funcionado”, en el que la vida pudo surgir y evolucionar. Para evaluar la posible existencia de otros sistemas similares al nuestro, es necesario conocer con qué “materiales” están formados y si estos son comunes en el resto del universo. Dedicaremos este capítulo a la revisión del origen de los elementos químicos (véase el anexo ■A), componentes básicos con los que están compuestos todos los cuerpos materiales, como los planetas o los seres vivos. Para esto es preciso tomar en consideración el origen del universo, y la formación de las galaxias y de las estrellas, verdaderos crisoles en los que se han creado todos los elementos químicos naturales. Estos conocimientos constituyen una base necesaria para abordar con rigor el resto de capítulos.

Origen del universo La mayoría del mundo científico acepta que el universo se creó hace unos 13.800 millones de años (Ma), a partir del suceso popularmente conocido como Big-Bang, donde surgieron el espacio (lugar en el que existen las cosas) y el tiempo (en el cual ocurren los sucesos). Si esto fue así, no parece tener sentido el hablar de “antes del Big-Bang”, ya que solo existe lo acontecido a partir de aquel “cero inicial”. Según el denominado modelo estándar de la física de partículas (para más detalles véase el ■ Anexo C), el universo se formó a partir de una región sumamente pequeña, densa y caliente, en la que todo era energía, seguida de distintos estados en expansión y enfriamiento, cada vez menos densos. Al cabo de unos 380.000 años después del inicio, el universo estaba lleno de un plasma en equilibrio térmico formado por núcleos atómicos de hidrógeno y de helio, electrones y, sobre todo, fotones (radiación electromagnética). En aquel momento la temperatura del universo en expansión ya había caído a unos 3.000 K, dando lugar a un hecho importante: la energía contenida en la materia (constante y equivalente a su masa) igualaba a la energía de los fotones (partículas sin masa, cuya energía variable disminuye con la temperatura). A partir de este instante el dominio correspondió a la materia: los electrones pudieron unirse a los núcleos para formar átomos estables, en unas proporciones (en masa) de un 75 % de hidrógeno (H), un 25 % de helio (He), junto con pequeñas cantidades de berilio (Be) y litio (Li) y trazas de los isótopos de todos estos elementos. Simultáneamente, los fotones dejaron de interactuar con la materia eléctricamente neutra, ya no había colisiones, y pudieron continuar libremente por el espacio en expansión constituyendo la radiación de fondo de microondas… Pero aún tendría que pasar mucho tiempo para que en algunas regiones, ligeramente más densas, se condensasen nubes de gas para formar galaxias y estrellas, en donde se desencadenaría la formación del resto de los elementos químicos. Esta teoría del Big-Bang tiene un fuerte apoyo científico en tres hechos experimentales: la expansión del universo, descubierta por el astrónomo estadounidense Edwin Hubble en 1929; la radiación de fondo de 15 microondas (eco del Big Bang), prevista en 1948 por Ralph Alpher y Robert Herman (colaboradores de Gamow), y de forma independiente en 1964 por Robert Dicke y James Peebles, y encontrada de forma accidental en 1964 por Arno Penzias y Robert Wilson, investigadores de los laboratorios Bell; y la concordancia precisa entre las cantidades de hidrógeno y helio previstas en el modelo estándar, calculada en 1948 por Ralph Alpher, y confirmada posteriormente por mediciones reales.

Formación de las galaxias Los modernos instrumentos situados en el espacio en las dos últimas décadas, como el telescopio Hubble (o HST por sus siglas en inglés: Hubble ), o la sonda WMAP [■2-1], han proporcionado información importante y fiable acerca de los primeros millones de años del universo. Un hecho significativo es que las primeras estrellas se formaron antes que las primeras galaxias: efectivamente, las mediciones del fondo de microondas realizadas por WMAP muestran una polarización de la luz entre los 200 y los 500 millones de años después del Big Bang, debido a la ionización del gas del universo, efecto provocado por la radiación ultravioleta (UV) emitida por las primeras estrellas, que en aquel momento se encontraban en proceso de agrupamiento para formar protogalaxias. Esta etapa se denomina fase de reionización (puesto que el gas ionizado –plasma- ya se había neutralizado antes, unos 380.000 años después del Big-Bang. Véase ■Anexo C: fase de desacoplo de los fotones). Respecto a las verdaderas galaxias gigantes parece que se formaron unos 1.000 Ma después del Big Bang, en un proceso de colisión y fusión de pequeñas protogalaxias que se acumulaban en los nodos de los filamentos que se formaban, según modelizaciones, en el universo joven. Como sabemos, cuanto más lejos observamos en el firmamento más jóvenes son las estructuras que vemos. Así, a una distancia de 10.000 millones de años-luz (al) [■2-2], vemos cómo eran los objetos unos 3.800 Ma después del origen del universo (13.800 – 10.000 = 3.800). Las imágenes del cielo profundo proporcionadas por el telescopio espacial Hubble muestran que el universo primitivo estaba formado por muchas galaxias irregulares pequeñas y unas pocas galaxias gigantes, que se formaron a partir de las colisiones y fusiones de las pequeñas. Este proceso de formación de galaxias gigantes dio lugar a la aglomeración de materia equivalente a varios miles de masas solares en una zona central relativamente reducida, que acababa colapsando sobre sí misma, debido a la fuerza gravitatoria, para dar lugar a la formación de un súper agujero negro central (del orden de millones a miles de millones de masas solares), esencial para el equilibrio de la galaxia en formación, al generar la gravedad necesaria para mantener la unidad y dotarla de un centro de giro. Una característica de estas jóvenes galaxias es su fortísima emisión de ondas de radio, miles de veces superior al de las evolucionadas y cercanas galaxias “normales” actuales. Estas galaxias tan lejanas fueron descubiertas en 1950, cuando los telescopios ópticos de la época solo permitían ver un punto de luz, aparentemente una estrella, por lo que recibieron la denominación de cuásares (del inglés: quasi-stellar radio source). Fue en 1963 cuando el astrónomo estadounidense Marteen Schmit pudo descubrir un altísimo corrimiento al rojo, muy superior al de las galaxias “normales”, señal inequívoca de su enorme distancia, lo que justificaba su apariencia puntual, pero también la colosal intensidad de su radiación visible y radiofrecuencia.

16

Actualmente, y gracias a las extraordinarias prestaciones del Hubble, se ha podido comprobar que algunos de estos objetos, que desde tierra parecen puntuales, han resultado ser los núcleos extraordinariamente luminosos de galaxias normales, también llamadas galaxias activas, (■Figura 2-1), pero enormemente alejadas en el espacio (es decir, en el tiempo). Los datos estadísticos muestran que los cuásares solo se encuentran a grandes distancias, la mayoría situados a unos 12.000 millones de años-luz (al), es decir, cuando el universo tenía solo unos 1.800 Ma. Tampoco se detectan cuásares a menos de 100 millones de al, y más allá de los 12.000 millones de al solo se encuentran pequeñas protogalaxias irregulares. Esta distribución temporal de las estructuras galácticas es un claro indicio de que los cuásares se corresponden con una etapa temprana de la formación de las galaxias, a partir de la cual la emisión radioeléctrica fue disminuyendo, según evolucionaron hacia los valores de las galaxias cercanas actuales consideradas como “normales”. Esta constatación realizada por el HST es también una prueba contundente en contra del modelo estacionario del universo, que tuvo su apogeo en las décadas de 1950 y 1960. Hoy se sabe que la enorme actividad de las jóvenes galaxias es debida al gigantesco agujero negro central, devorando el material cercano que cae de forma acelerada hasta alcanzar enormes velocidades, cercanas a la de la luz, transformando el disco central en rápida rotación en un enorme foco emisor de energía electromagnética. La actividad de los cuásares se atenúa a medida que se consume el material situado en las cercanías del agujero negro, alcanzando finalmente la condición de galaxia normal, con un agujero negro “casi” estabilizado y rodeado de estrellas en órbitas aproximadamente circulares. El “casi” del párrafo anterior tiene aplicación a nuestra Vía Láctea (■ Figura 2-2), cuyo súper-masivo agujero negro central, de unos 4 millones de masas solares, ha podido ser detectado gracias al poco material que aún continúa cayendo. Se trata de una fuente de emisión en ondas de radio situada en la constelación de Sagitario, denominada Sagitario A*, a una distancia de unos 26.000 al de nuestro planeta. En 1996 un equipo liderado por el astrónomo alemán Reinhard Genzel estudió el movimiento de unas decenas de estrellas cercanas al centro galáctico, encontrando que se movían muy rápidamente en torno a un objeto sumamente masivo y de pequeñas dimensiones: no cabía duda, se trataba del súper agujero negro central, ya “estabilizado”, de nuestra galaxia.

Es de suponer que la Vía Láctea, en su día, también fue un cuásar

El proceso evolutivo de las galaxias hace que estas no conserven su morfología de modo permanente. En 1925 el importante astrónomo estadounidense Edwin Hubble, a raíz de sus numerosas observaciones, hizo una sencilla agrupación de las galaxias en tres categorías: irregulares, espirales y elípticas. Las galaxias irregulares (tipo Irr) están formadas por estrellas jóvenes de color azulado (den ominadas de tipo I), distribuidas de forma irregular. Estas galaxias son poco masivas y por lo tanto poco luminosas. Al parecer, un 20% de todas las galaxias son irregulares. Las galaxias espirales (tipo S) (como la Vía Láctea, ■ Figura 2-2), normalmente se encuentran dispersas en el espacio, no soliendo formar parte de los cúmulos galácticos. Presentan una estructura bien diferenciada: un bulbo central, el disco y un halo exterior. El bulbo está formado por una alta densidad de estrellas viejas

17 rojizas (denominadas de tipo II), que recuerda a una pequeña galaxia elíptica. El disco es una estructura más o menos plana y circular, en el que se sitúan los característicos brazos espirales (que dan nombre a este tipo de galaxias), orbitando alrededor del bulbo. El disco y los brazos espirales son ricos en nubes de gas y polvo en donde nacen nuevas estrellas (tipo I). El halo es una estructura esférica que rodea a las dos anteriores, estando formado por una baja densidad de estrellas viejas y también por materia oscura [■2-3]. Se supone que las galaxias espirales se forman a partir de las colisiones y fusiones de galaxias irregulares. Las galaxias elípticas (tipo E) son muy masivas y normalmente se encuentran en los centros de los cúmulos galácticos. La materia se distribuye formando un elipsoide regular, más o menos alargado, en el que no se aprecian estructuras. Estas galaxias están formadas por estrellas antiguas, rojizas (tipo II), con una región central mucho más brillante que el resto debido a una mayor densidad estelar. Presentan muy pocas nubes de gas y polvo interestelar, por lo que prácticamente ya no generan nuevas estrellas. Se supone, tal como reproducen las modelizaciones, que las galaxias elípticas son evoluciones de galaxias espirales gigantes que han consumido su disco. Estas galaxias, junto con las espirales, son las más abundantes en el universo. Los modelos matemáticos y las observaciones muestran también que pueden existir otras morfologías como consecuencia del choque y fusión de galaxias gigantes ya consolidadas. Este puede ser el destino de la Vía Láctea, que como sabemos está previsto que “colisione” con la también gigante y espiral Andrómeda, debido a su mutua atracción gravitatoria, dentro de unos 3.000 Ma, para volver a reencontrarse otros 2.000 Ma más tarde. Entrecomillamos “colisione”, porque en realidad, y debido a la gran separación de las estrellas en el espacio, ambas galaxias se entrecruzarán, pasarán una a través de la otra, siendo muy poco probables los impactos entre estrellas. Es posible que las fuerzas de marea desgajen ambas galaxias dando lugar a una forma exótica, como es el caso de la Galaxia de las Antenas. ¿Qué pasará con nuestro sistema solar?

Nuestra Vía Láctea es una galaxia de tipo espiral formada por 200 a 400 mil millones de estrellas, con brazos espirales ricos en nubes de polvo y gas, verdaderos criaderos de estrellas jóvenes donde se han formado y se siguen formando sistemas planetarios adecuados para la vida, como es el caso de nuestro Sistema Solar. La existencia de numerosas galaxias, similares a la nuestra, es un tanto a favor para que pueda existir vida en otras regiones del universo.

Formación de las estrellas Como hemos visto en el apartado anterior, las primeras estrellas se formaron incluso antes que las primeras galaxias, seguramente entre los 200 y los 500 Ma después del Big Bang, cuando el universo aun continuaba siendo muy denso. Se supone que estas primeras estrellas (tipo III) eran muy masivas, de algunos cientos de masas solares, con una vida de solo unos cuantos millones de años, para acabar explotando en forma de supernovas. Sin embargo, la expansión del universo y la formación de las primeras galaxias (unos 1.000 Ma después del Big Bang), hizo que cambiasen las localizaciones en donde las estrellas podían continuar germinando: ahora el espacio intergaláctico presenta una densidad de gas insuficiente, mientras que en ciertas regiones del interior de las galaxias, debido a la atracción gravitatoria, se acumula gas y polvo en la cantidad y densidad adecuada para que la estrellas puedan formarse.

18

Veamos cuál es, en general, la evolución de una nube molecular El proceso se inicia a partir de una enorme nube molecular [1.000 a 100.000 masas solares (Ms)], densa (más de 1.000 partículas/cm3) y fría (unos 10 K), formada principalmente por gas (en masa: un 75

% de H2, un 25 % de He, y pequeñas cantidades de otros elementos) y algo de polvo, dependiendo de la historia de la nube (por ejemplo, que haya sido “condimentada” con la materia expulsada por una supernova cercana). Estas formaciones no son uniformes: tanto el gas como el polvo se distribuyen en estructuras complejas filamentosas, con zonas de alta densidad, en las que se formarán las estrellas. Cuando estas estructuras son perturbadas por algún agente exterior (■Figura 2-3), como la onda de presión de un brazo galáctico o la explosión de una supernova, lo normal es que el gas se contraiga, con un incremento local de la temperatura y de la presión interna, para, a continuación, expandirse y recuperar sus condiciones iniciales. Sin embargo, existe un umbral para la masa de la nube a partir del cual la menor perturbación, o incluso de forma espontánea, se puede desencadenar un proceso en el que la gravitación no puede ser contrarrestada por la reacción de la presión, haciendo inevitable la contracción de la nube. Esta masa umbral se denomina “masa de Jeans”, en honor al físico británico James Jeans, quién pudo demostrar que bajo ciertas condiciones de masa, presión y temperatura, las nubes interestelares podían resultar inestables: la inestabilidad aumenta con la masa de la nube, la disminución del tamaño y la caída de la temperatura de la nube, en cierto modo, con la densidad molecular (contracción). Esto justifica el hecho de que las grandes masas de gas cósmico en proceso irreversible de colapso se fragmenten sucesivamente en trozos cada vez más pequeños, debido a que la masa de Jeans disminuye al aumentar la densidad del gas. Finalmente, la gran masa inicial de gas y polvo acabará reducida a numerosos fragmentos, generalmente del orden de una o dos veces la masa final de la estrella, a partir de los cuales acabarán naciendo las estrellas. Una consecuencia de este proceso es la formación agrupada de estrellas jóvenes, por ejemplo el cúmulo abierto de las Pléyades (■Figura 2-4). Evolución de las “pequeñas” nubes protoestelares, Teoría de Kant y Laplace (año 1796) Las “pequeñas” nubes resultantes del párrafo anterior continúan su propio proceso de colapso (■Figura 2-5), con el consiguiente aumento de presión y de la velocidad de giro (conservación del momento angular). Las partículas más rápidas determinan el plano ecuatorial de la nube donde la tendencia gravitatoria a contraerse es contrarrestada por la cantidad de movimiento angular, mientras que las partículas situadas en otros planos “caen” más fácilmente al disco en proceso de formación, también denominado disco de acreción, en el que posiblemente surgirán los futuros planetas si la metalicidad [■2-4] es suficientemente elevada. Simultáneamente, también se produce una acumulación de materia en la zona central del disco, creando un núcleo de forma esférica, aun de gran tamaño, donde tendrá lugar el “nacimiento” de la futura

19 estrella. Inicialmente, la densidad del núcleo es baja y gran parte de la energía gravitatoria de la contracción se disipa por radiación. Transcurridos unos 100.000 años la envoltura del núcleo comienza a hacerse opaca debido al aumento de densidad, impidiendo que gran parte del calor generado en el proceso de compactación pueda disiparse. Esto acelera el ritmo al que aumenta la temperatura, hasta que la presión interna es lo suficientemente alta para contener la contracción gravitatoria del núcleo, con un diámetro estimado como la órbita de Júpiter, pero conteniendo aun menos del 1% de la masa total de la nube. Pero esta situación tampoco puede permanecer estable por mucho tiempo: la incansable gravedad continúa con su lucha, arrastrando más y más material sobre el núcleo, haciendo que se reanude el proceso de contracción- calentamiento. El siguiente hecho significativo ocurre cuando la temperatura del núcleo supera los 2.000 K: las moléculas de hidrógeno

(H2) se disocian en átomos de hidrógeno libre (2H), proceso endotérmico que absorbe gran cantidad de calor, provocando una repentina caída de temperatura y de la presión interna del núcleo, cuyo diámetro se contrae bruscamente a un valor de solo algunos diámetros solares. La materia del disco continúa cayendo sobre el ahora reducido núcleo, descargando su energía potencial gravitatoria, hasta que ocurre un nuevo suceso: la presión y la temperatura alcanzan valores tan altos, que los átomos pierden sus electrones, dejando lo núcleos atómicos desnudos. Este proceso, que también es endotérmico, produce una nueva contracción violenta. En este continuo proceso de contracción-calentamiento, llega un momento en que la temperatura en el núcleo alcanza el millón de grados (106 K), provocando la fusión del deuterio (isótopo estable del hidrógeno, abundancia: 0.015 %), generando relativamente poca energía, dada su escasez, con emisión en el infrarrojo (IR). La presión de la radiación interior del núcleo ralentiza la contracción, pero no la detiene. A partir de esta fase se crean flujos bipolares que contribuyen a reducir el momento angular de la protoestrella. Para estrellas de masa menor de 0,07 masas solares (Ms), este paso constituye la última fase de su evolución, que ahora se interrumpe, dando lugar a una “sub-estrella” denominada enana marrón. Pero para las estrellas con más de 0.07 Ms el proceso evolutivo continúa… Transcurridos unos 10 o 20 Ma, para masas inferiores a 2 masas solares (Ms), se alcanza la llamada fase T Tauri (■Figura 2-6), nombrada así por el prototípico del grupo, la estrella T Tauri. Son las “estrellas” más jóvenes visibles, que aún no han entrado en la secuencia principal (que veremos enseguida), debido a que no se ha alcanzado la temperatura suficiente para que se inicie la fusión del hidrógeno en el centro del núcleo. La gran cantidad de energía gravitacional “descargada”, en un diámetro aún varias veces superior al de la futura estrella, genera una fuerte radiación IR, eyecciones de masa de la superficie y violentos vientos estelares, pudiendo estos “barrer” el gas y el

20 polvo del disco de acreción, deteniendo así la migración de los planetas, estabilizando sus posiciones (■Capítulo 3). Las estrellas en fase T Tauri son muy activas y variables, con temperaturas superficiales similares a las de la secuencia principal, pero mucho más luminosas (hasta 30 veces) debido a su mayor diámetro. Más de la mitad de las estrellas T Tauri se encuentran en sistemas binarios, y la mayoría de las estudiadas presentan “discos protoplanetarios” en los que posiblemente surgirán planetas. Los espectros de estas estrellas muestran la presencia de litio (Li), elemento que ya no aparece en las estrellas de la secuencia principal (SP), debido a que se destruye al superar los 2,5 millones de grados (2.5 · 106 K), a no ser que, como veremos, haya sido “aportado” por la caída de exoplanetas. Los hechos más significativos se producen cuando el núcleo de la estrella supera los 10 millones de grados, momento en el que se inicia una cadena de sucesos que fueron descritos en las décadas de 1960 y 1970 por el eminente matemático y astrofísico británico Fred Hoyle [■2-5]: a estas temperaturas los núcleos desnudos de los átomos de hidrógeno (protones) disponen de la suficiente energía para producir fusiones nucleares (■Figura 2-7), a través de una serie de reacciones denominada cadena protón-protón, dando lugar a la unión de cuatro núcleos de hidrógeno libres para formar un núcleo de helio, emitiendo grandes cantidades de energía [■2-6]. Existe también otro proceso alternativo para la fusión de helio, denominado ciclo CNO (carbono-nitrógeno-oxígeno), en el que también se forma helio a partir del hidrógeno, pero en este caso se requiere la presencia de carbono que actúa como catalizador. Ambos procesos se suelen simultanear, variando la proporción de uno u otro en función de la temperatura nuclear: la cadena protón-protón es la más abundante en torno a los 10 millones de grados (como es el caso de nuestro Sol), mientras que el ciclo CNO lo es para las estrellas más masivas, cuyas temperaturas en el núcleo alcanzan los 20 millones de grados. La enorme presión interna, debida a la temperatura y a la radiación, impide que el núcleo continúe contrayéndose, estabilizando su tamaño. Con independencia del ciclo utilizado en el proceso de fusión del hidrógeno para formar helio, esta es la fase más estable y duradera de las estrellas, en el que permanecen durante la mayor parte de su vida ( 90 %), por lo que se denomina secuencia principal (SP). Durante esta fase las estrellas consumen su combustible (hidrógeno) de forma estable, pero en periodos cuya duración es enormemente variable, dependiendo de la masa:

 2 a 3 millones de años para las estrellas más masivas.  Miles de millones de años para las estrellas de tamaño medio, como el Sol.  Centenas de miles de millones de años para las estrellas más pequeñas, como las enanas rojas. A medida que disminuye la cantidad de hidrógeno en el núcleo, este debe de contraerse para aumentar su temperatura y equilibrar el colapso gravitatorio, extendiendo progresivamente la fusión a nuevas capas de hidrógeno que aun no han sido procesadas. Esto hace que la luminosidad de las estrellas se incremente de forma regular durante la secuencia principal de las estrellas (en el caso del Sol, se estima un aumento del 8 % por cada 1.000 Ma).

El hecho de que la zona habitable se distancie de la estrella, a medida que esta evoluciona en la secuencia principal, reduce de forma significativa la zona habitable continua (ZHC) (■ Capítulo 6)

En todos los casos, las observaciones muestran que las estrellas permanecen rodeadas por un disco residual de polvo y gas durante un tiempo de solo 1 a 10 Ma. Este disco contiene la materia prima

21 indispensable con la que seguramente se formarán los planetas, satélites y otros cuerpos menores. Como veremos, los planetas se crean en una reducida zona central de los discos, donde la disponibilidad de materiales es suficiente para su formación. En el caso del SS, la distancia Sol-Neptuno es de solo 30 unidades astronómicas (UA) [■2-7], frente a un diámetro inicial del disco protosolar de unas 200 UA.

Objeción de Maxwell El proceso de acreción secuencial, descrito a finales siglo XIX, presentaba el inconveniente de no conservar, aparentemente, el momento angular, pues la estrella (Sol en la época) contenía el 99,85 % de la masa, pero ¡más del 90 % del momento angular reside en los planetas! La contracción nebular debería de provocar enormes velocidades rotacionales en la estrella, que no se observaban en la práctica. Durante la segunda mitad del siglo XX se modificó el modelo para tomar en consideración, además de la gravedad y la fuerza centrífuga, conceptos físicos como: viscosidad, campos magnéticos y viento solar.

Una aproximación (intuitiva), para resolver la objeción de Maxwell: Antes de comenzar recordemos cómo se desplazan los objetos en los sistemas estelares, utilizando como ejemplo (■Figura 2-8) el Sistema Solar: vemos que las velocidades tangenciales de los planetas son mayores cuanto más cerca se encuentran del Sol (para más información consúltense las leyes de Kepler), es decir, los objetos más cercanos a la estrella “adelantan” a los más alejados, o lo que es lo mismo, los objetos más lejanos se quedan “rezagados” respecto a los cercanos. Esto mismo ocurre también con el gas y las partículas de polvo de los discos protoplanetarios: las partículas más cercanas a la estrella central se mueven más rápidamente que las que orbitan más lejos. Consideremos el disco protoplanetario, con el polvo y gas inicial moviéndose en órbitas casi circulares, en un equilibrio entre las fuerzas gravitatoria, centrífuga, viscosa y magnética, siendo predominantes las dos primeras. Ahora tomemos dos pequeños fragmentos del disco (de la misma masa para simplificar), contiguos y que interaccionen entre sí por rozamiento y transferencia de momento angular (■Figura 2-9). El fragmento interior, más veloz (Vi), se frena, pierde momento angular y “cae” hacia la estrella, mientras que el segmento exterior, más lento (Ve), es acelerado, gana momento angular y se desplaza hacia el exterior. En el balance final se pierde algo de energía debido a la viscosidad del medio (rozamientos), y parte del momento angular se trasvasa a la zona exterior del disco (zona de planetas). Integrando este proceso a todo el disco, durante el tiempo de formación del sistema planetario, podemos “intuir” la transferencia del momento angular a los planetas, mientras que la masa del disco cae sobre la estrella.

22

Estrellas: fábricas de los elementos químicos Como veremos (■ Capítulo 5), los seres vivos de nuestro planeta estamos formados en un 96 % por carbono (C), hidrógeno (H), oxígeno (O) y nitrógeno (denominados conjuntamente elementos CHON), y si añadimos el fósforo (P) y el azufre (S), el porcentaje sube hasta el 98 %. Pero además existen en torno a una docena más de elementos químicos, que, aunque en pequeñas cantidades, también son indispensables para la vida que conocemos. Al principio de este capítulo hemos visto que el hidrógeno (H) y el helio (He), junto con pequeñas cantidades de berilio (Be) y litio (Li), se formaron unos 380.000 años después del Big Bang (■Anexo C: dominio de la materia). Para conocer cómo se formaron los restantes elementos que existen en la naturaleza, 92 en total, hemos de regresar al arranque de la secuencia principal de las estrellas: el equilibrio entre la gravedad y la presión generada por la fusión de hidrógeno en helio en el núcleo de la estrella se mantiene durante largo tiempo, pero llega un momento en que la concentración del helio es lo suficientemente alta para interferir en las colisiones de los núcleos de hidrógeno. Este hecho, denominado envenenamiento por helio, reduce de forma progresiva el ritmo de las reacciones, hasta que la fusión nuclear se para. Inmediatamente la presión interna disminuye y la gravedad gana una nueva batalla: la estrella sufre una fuerte contracción. Por su parte, la materia del centro de la estrella también reacciona aumentando su presión y temperatura, desencadenando nuevas fusiones de hidrógeno, que ahora se desplazan a las capas que rodean al núcleo de helio, a medida que se alcanzan las temperaturas mínimas necesarias (■Figura 2-10). El nuevo helio que se va generando, más pesado que el hidrógeno, “cae” y se acumula en el núcleo de la estrella cada vez más pesado, más denso y más caliente. Ahora las nuevas capas de fusión del hidrógeno soportan menos presión que en el núcleo y esto hace que las zonas exteriores de la estrella experimenten una gran expansión, al tiempo que se enfrían, tomando un color rojizo en la superficie: la estrella se ha transformado en una gigante roja. Cuando nuestro Sol alcance esta fase, dentro de unos 6.000 Ma, su diámetro exterior quizás alcance el diámetro de la órbita terrestre. El proceso evolutivo de las estrellas depende de su masa Si se trata de estrellas poco masivas, menos de 1/2 masas solares (lo que afecta al 80 % del total de las estrellas), el núcleo de helio permanecerá inactivo y solo se producirá fusión de hidrógeno en la capa que lo rodea. Las capas exteriores de la gigante roja, muy dilatadas, serán expulsadas poco a poco por la radiación de alta energía liberada en las reacciones centrales, que será re-emitida en luz visible dando lugar a la formación de bellos objetos llamados nebulosas planetarias (por su forma, antiguamente se creyó que eran planetas) ■Figura 2-11. En el centro de la nebulosa planetaria queda un núcleo residual sumamente denso (varias toneladas por cm3), denominado enana blanca, en este caso enana blanca de helio. Dado que ya han dejado de producirse reacciones de fisión en el núcleo, este se contraerá sobre si mismo e iniciará un lentísimo proceso de enfriamiento, para acabar “apagándose” al cabo de billones de años,

23 formando una enana negra. Por el momento aun no existen enanas negras, pues su tiempo de formación es muy superior a la edad actual del universo. En el caso de que la gigante roja tenga un tamaño similar al del Sol (aproximadamente un 10 % del total de las estrellas), la contracción del núcleo hace que la temperatura llegue a superar los 100 millones de grados, desencadenando nuevas reacciones en las que el helio procedente de la etapa anterior comienza a fusionarse para formar núcleos de carbono (■Figura 2-12), mediante el proceso denominado triple-alfa: a partir de la colisión casi simultánea de tres núcleos de helio-4 (partículas alfa) se obtiene un núcleo estable de carbono-12 y energía. El corazón de la estrella se mantiene encendido hasta que la concentración del carbono sea lo suficientemente alta para que el proceso se detenga (envenenamiento por carbono). Dado que la colisión casi simultánea de tres núcleos de helio es altamente improbable, el envenenamiento por carbono es más fácil que el envenenamiento por helio de la fase anterior, de modo que el proceso triple-alfa tiene una duración de solo miles de años, en vez de miles de millones de la fusión de hidrógeno en helio (SP). Al detenerse el proceso triple-alfa, la estrella se contrae nuevamente, aumentando su temperatura interior, lo que provoca que el helio vuelva a fusionarse en carbono en la capa que envuelve al núcleo, y a su vez que el hidrógeno se fusiona en una segunda capa para formar helio (■Figura 2-12). También en este caso, al final de la vida de la estrella, se formará una gigante roja que expulsará las capas exteriores para crear una nebulosa planetaria, en cuyo centro quedará un núcleo desnudo, denominado también enana blanca, que ahora estará formada por helio y carbono, tal como ocurrirá dentro de unos 6.000 Ma con nuestro Sol. Pero si las estrellas son más masivas que el Sol, el proceso no se detiene con la formación de carbono. Los ciclos de contracción-calentamiento continúan, dependiendo únicamente de la masa inicial de la estrella, siempre y cuando las temperaturas alcanzadas en el núcleo superen el umbral necesario para desencadenar la fusión de los elementos residuales, cada vez más pesados, de las etapas anteriores. En la ■Figura 2-13 se muestran, para el caso de las estrellas más masivas, la distribución en capas de algunos de los elementos más significativos al finalizar la evolución y la vida de la estrella. En este proceso que acabamos de describir hay varios hechos destacables:

 La duración de las sucesivas fases de formación de elementos en el núcleo es cada vez más corta, desde la fusión hidrógeno-helio que puede durar miles de millones de años, hasta la fusión del silicio-hierro en solo unas semanas.  La sucesión de reacciones es debida a que cada nuevo núcleo atómico que se crea es menos masivo que la suma de los componentes que se fusionaron para formarlo. Esta diferencia de masa, que se transforma en energía radiante de la estrella, es la que da estabilidad a los nuevos núcleos.  El elemento más pesado que se puede producir en este proceso es el hierro. Esto se debe a que este elemento es el más estable de la tabla periódica, el que tiene menos energía nuclear por nucleón. Así se justifica que el proceso de fusión nuclear se detenga al formarse hierro en el núcleo de la estrella, ya que sería necesario aportar energía para crear elementos más pesados.

24

Supernovas: formación de los elementos más pesados que el hierro ¿Entonces, cómo se han formado los elementos más pesados que el hierro? Para esto la naturaleza recurre a un nuevo mecanismo. Hemos visto que al formarse hierro en el núcleo, las reacciones se detienen. Como en los casos anteriores, la falta de energía radiante en la zona central de la gigante roja hace que esta se enfríe y contraiga. La contracción hace que el núcleo se caliente lo suficiente para que el hierro comience a fusionarse, pero ahora se trata de un proceso endotérmico que absorbe calor, haciendo que la zona central de la estrella se enfríe bruscamente, desencadenando una caída de presión brutal y un colapso gravitatorio desenfrenado. La estrella se hunde bajo la enorme presión de su inmensa masa gravitatoria. Las capas más cercanas al núcleo impactan bruscamente con el núcleo y rebotan para chocar violentamente con el resto de capas exteriores que continúan cayendo (■Figura 2-14): la fortísima colisión de las capas internas en expansión, con las capas externas en vertiginosa caída, hace que los materiales se vean obligados a fusionarse, creando todos los elementos naturales conocidos más pesados que el hierro, como el oro, el plomo o el uranio. La enorme cantidad de energía liberada hace estallar la estrella, originando una supernova. Las supernovas se caracterizan por la intensísima luz emitida, durante semanas o meses, pudiendo alcanzar magnitudes absolutas que superen al resto de su galaxia. Las explosiones de las supernovas enriquecen el espacio que las rodean con los materiales pesados que han creado durante el proceso evolutivo de la estrella, en forma de nubes de polvo y gas. Los frentes de onda pueden alcanzar a otras nebulosas cercanas, comprimiéndolas y desestabilizándolas, lo que podrá desencadenar la formación de nuevos sistemas estelares y planetarios, favorecido por el enriquecimiento de la nebulosa con los materiales pesados aportados por la supernova. El remanente central de una supernova puede ser una estrella de neutrones o un agujero negro, dependiendo de que la masa residual del remanente sea menor o mayor que tres masas solares (se puede consultar Internet para obtener abundante información sobre estos objetos).

Nubes moleculares Las estrellas, a lo largo de su vida y también a su muerte, expulsan al espacio exterior, en mayor o menor cantidad, todos los elementos químicos de la tabla periódica [■Anexo A. Elementos químicos] ¿Qué ocurre con estos elementos? Muy sencillo, reaccionan entre sí formando moléculas, de ahí la denominación de nebulosas o nubes moleculares con que se designan a las grandes estructuras de gas y polvo que podemos observar, incluso a millones de años luz de distancia, a través de la radiación capturada por los modernos radiotelescopios y telescopios espaciales infrarrojos. Aunque el espacio interestelar se encuentra muy frío, a una temperatura media de unos 270 ºC bajo cero, la materia expulsada y la radiación emitida por las estrellas en las últimas fases de su vida calientan su entorno, estimulando reacciones químicas que dan lugar a la formación de grandes masas de nuevas moléculas. Se han identificado grandes cantidades de agua, silicatos, amoníaco… así como alcoholes, azúcares, anillos bencénicos… materiales necesarios para la formación de nuevos planetas, así como la materia orgánica [■2-8] básica (“ladrillos de los ladrillos”) para la posterior formación de las complejas moléculas esenciales para la vida.

25

El hecho de que la química sea universal es importante para la astrobiología, ya que limita la especulación y permite que nos apoyemos en las características de la vida terrestre para la búsqueda en otras partes.

Origen de los elementos químicos: resumen Como hemos visto, el hidrógeno y el helio, junto con pequeñas cantidades de berilio y litio, se formaron en el proceso evolutivo inicial del universo, unos 380.000 años después del Big-Bang. Los elementos más pesados, hasta el hierro inclusive, fueron fusionados en el interior de sucesivas generaciones de estrellas y expulsados al espacio interestelar. Por su parte, los elementos químicos más pesados que el hierro, como el plomo (Pb) o el uranio (U), fueron creados en las violentas explosiones de las supernovas. Finalmente, las reacciones químicas en el espacio interestelar dieron lugar a la formación de silicatos, agua, moléculas orgánicas… que se pueden observar en las nebulosas.

Estos procesos, comunes a todo el universo observable, han dado lugar a la formación del planeta Tierra y a sus habitantes. Dado que los elementos químicos y la química son universales, es de esperar que en muchas otras regiones, tanto de nuestra galaxia como del resto del universo, hayan surgido o surjan en el futuro estrellas similares a la nuestra, con sus correspondientes planetas y con sus propios habitantes.

[■2-1] WMAP (Wilkinson Microwave Anisotropy Probe): sonda lanzada por la NASA en 2001, con la misión de estudiar el cielo y medir las diferencias de temperatura que se observan en la radiación de fondo de microondas. [■2-2] Año luz (al): unidad de distancia, calculada como la longitud que recorre la luz en un año. Equivale a unos 9,46 × 1012 km (9 460 730 472 580,8 km exactamente). [■2-3] Se denomina materia oscura a una hipotética materia que no emite suficiente radiación electromagnética para ser detectada a través de los medios habituales de observación, pero cuya existencia se puede deducir a partir de los efectos gravitacionales que causa en la materia visible, tales como las estrellas o las galaxias. Según los datos comunicados en marzo de 2013 por la ESA, tras las mediciones realizadas por la sonda Planck, se estima en un 26,8 % la masa del universo que corresponde a la materia oscura, frente a un 4,9 % de la materia ordinaria. [■2-4] Metalicidad en astrofísica es un concepto que se utiliza para describir la abundancia relativa de elementos más pesados que el helio en una estrella. Esos elementos reciben el nombre de metales con independencia de su posición en la tabla periódica. [■2-5] Fred Hoyle fue un eminente matemático y astrofísico británico, polémico, y sin embargo muy respetado. Se hizo célebre por la propuesta de dos teorías que en su día fueron muy discutidas y que actualmente están prácticamente desechadas: la Teoría del Estado Estacionario, según la cual el universo no tuvo origen, sino que siempre existió tal como lo conocemos actualmente y, la segunda, la Teoría de la Panspermia, que afirma que la vida no surgió en la Tierra, sino que llegó a nuestro planeta por medio de cometas, que sembraron el mismo tipo de vida en otros mundos (obra de un intelecto superior). [■2-6] La enorme cantidad de energía desarrollada en las reacciones nucleares, mediante la unión de cuatro núcleos de hidrógeno para formar uno de helio, se justifica por la pérdida de un 0,7 % de la masa, que se transforma en energía según la famosa ecuación E = m·c2.

26

[■2-7] La unidad astronómica (UA), por definición, es una unidad de longitud igual a 149 597 870 700 m. Equivale aproximadamente a la distancia media entre la Tierra y el Sol. En la práctica se le suele asignar un valor de 150 millones de km. [■2-8] Materia orgánica es aquella que está formada por compuestos procedentes de seres vivos o que alguna vez estuvieron vivos, tales como plantas o animales y sus residuos en el ambiente natural. Hubo un tiempo en el que se consideraba que la formación de la materia orgánica necesitaba una “fuerza vital” y solo podían crearla los seres vivos. La síntesis de la urea a partir de un compuesto inorgánico por el químico alemán Friedrich Wöhler en el año 1824, fue la primera prueba de que dicha fuerza vital no es necesaria. Las moléculas orgánicas detectadas en las nubes moleculares muestran que tanto la materia orgánica, como la inorgánica, están formadas con la misma “pasta”, cuyo origen viene de las estrellas.

27

28

■3. Formación de los sistemas planetarios

Es posible que los planetas no sean los soportes exclusivos en los que la vida pueda formarse y evolucionar, pero nos consta, de acuerdo a nuestro modelo favorito, la Tierra, que los planetas son objetos que “sí pueden funcionar” (al menos en uno ha sido así), si se dan las circunstancias adecuadas. En este capítulo revisaremos algunas de las ideas más aceptadas por el mundo científico respecto a la formación de los sistemas planetarios y de su evolución, cuyo conocimiento, “cruzado” con los fructíferos resultados de la exploración espacial (■Capítulo 7), nos permitirán valorar con cierto rigor las posibilidades de encontrar nuevos planetas aptos para la vida en otras regiones del cosmos, o al menos de la Vía Láctea. Los sistemas planetarios están formados por una o más estrellas centrales y distintos objetos orbitando a su alrededor.

En la actualidad se conocen más de 1.100 estrellas “cercanas”, orbitadas por uno o más planetas, dato que favorece la posible existencia de vida en otras partes del universo.

El ejemplo mejor conocido es el de nuestro Sistema Solar (SS), cuyos principales objetos son el Sol como estrella central, y ocho planetas que giran a su alrededor en órbitas casi circulares, todos en sentido contrario a las agujas del reloj vistos desde el norte solar, aproximadamente en un plano llamado plano eclíptico (■Figura 3-1). Los cuatro planetas interiores, Mercurio, Venus, la Tierra y Marte, conocidos como planetas terrestres o telúricos, están formados principalmente por roca y metal. Los cuatro planetas restantes son mucho más masivos: los dos más grandes, Júpiter y Saturno, situados en la zona exterior del SS, están formados principalmente por hidrógeno y helio, y se denominan gigantes gaseosos. Los dos más alejados del Sol, Urano y Neptuno, también denominados gigantes helados, están formados en gran parte por agua helada, amoniaco y metano. Además de los objetos mencionados, existe una multitud de cuerpos menores: numerosos satélites orbitando a los planetas, el cinturón de asteroides entre Marte y Júpiter, planetas enanos, asteroides, cometas… El hecho de que todos los planetas del Sistema Solar se muevan casi en el mismo plano (que además coincide con el plano ecuatorial del Sol); que el sentido de sus orbitas y el de la mayoría de las satélites también giren en el mismo sentido; y que las órbitas sean casi circulares… dio lugar a la Teoría nebular, de Kant y Laplace, cuyos principios venimos aplicando en este texto, y que establece que los sistemas planetarios proceden de grandes nubes. Sin embargo, es posible que esta teoría no se consolide hasta que conozcamos en detalle otros sistemas planetarios. En la ciencia, y particularmente en la astrofísica, cada nuevo descubrimiento o avance suele dar lugar a numerosas nuevas dudas.

29

En el capítulo anterior hemos visto que paralelamente a la formación de la estrella central, aún en fase T Tauri, se formaban también los denominados discos de acreción o discos protoplanetarios, en los que posiblemente surgirán los planetas. Es ahora el momento de analizar con cierto detalle la composición y evolución de estos discos.

Estructura de los discos protoplanetarios Los discos son estructuras muy comunes en el universo: además de los discos protoplanetarios que ahora nos ocupan, tenemos otros ejemplos como galaxias espirales, discos de acreción en torno a agujeros negros o en torno a enanas blancas, alimentados por material procedente de su compañera binaria… Como hemos visto, el gas y el polvo de estos discos están enriquecidos con elementos pesados, inyectados en el espacio interestelar en las últimas fases de anteriores generaciones de estrellas. El análisis espectral muestra que (en peso) los principales componentes son gaseosos: hidrógeno (75 %), helio (25 %), y menos del 1% de otros gases (N2, O2, CO, CO2, CH4, NH3…); y algo de materia sólida (polvo) en forma de micropartículas (silicatos, metales y compuestos de carbono, algunos con temperaturas de fusión superiores a los 1.000 K -silicatos refractarios-). La radiación cósmica (rayos X y rayos gamma) interactúan con el gas interestelar, ionizándolo y favoreciendo la formación de compuestos complejos: agua, alcohol, aminoácidos…, que pueden constituir la materia prima que quizás podrá dar lugar a la formación de la vida en el universo. Las partículas de polvo son los soportes sobre los que se condensan los volátiles gaseosos y además actúan como catalizadores para la formación de las moléculas complejas. En la ■Figura 3-2 se representa, de forma esquemática, la sección radial de un disco protoplanetario, en la que nos apoyaremos para describir su estructura y el proceso evolutivo teórico que ocurre en cada zona. La temperatura, densidad y la presión, disminuyen desde el centro, donde se sitúa la estrella, hacia la periferia, lo que da lugar a la delimitación de zonas con características específicas: Línea de hielo: la progresiva caída de temperatura desde el centro del disco a la periferia, hace que exista una “línea divisoria”, aproximadamente a unas 4 UA del centro para una estrella como el Sol, denominada línea de hielo (LH) o línea de nieve (LN), a partir de la cual, hacia el exterior, las sustancias volátiles se condensan formando hielos (hielos de agua, de metano, de amoniaco...). Esta línea delimita el disco en dos regiones: la exterior, donde se formarán los gigantes gaseosos; y la central o interior, donde se formarán los planetas rocosos o telúricos. Zona exterior del disco: es la más fría, y está formada por cantidades ingentes de gases y por partículas de silicatos, a menudo envueltas en volátiles condensados (hielo, metano...) y compuestos de carbono. En esa zona se forman los planetas gigantes gaseosos, en rápidos procesos que nunca superan los 10 Ma (no se observan discos de mayor edad). La disminución de la densidad del disco desde la LH hacia el exterior 30 condicionará el crecimiento y el tamaño alcanzado por los planetas gigantes, al disponer de más materia prima en las cercanías de la LH que en la periférica. Zona interior del disco: muy caliente, por su proximidad al núcleo, es “aventada” hasta algunos radios estelares por lo intensos vientos generados por la joven estrella en fase T. Tauri. Algo más allá del centro, a una UA para una estrella tipo solar, las temperaturas alcanzan los 1.200 a 2.000 K (1.000 K máximo según autores) y las partículas de polvo se encuentran vaporizadas; partículas que se irán condensando (sublimación inversa), a medida que el disco se vaya enfriando por radiación. Se trata de una zona rica en polvo y pobre en volátiles. Aquí crecerán los planetas rocosos (o terrestres), a partir de los núcleos originados por los impactos y fusión de las partículas micrométricas de polvo. Estos procesos, para un planeta de tamaño terrestre, pueden durar de 30 a 100 Ma.

Los discos de gas son estructuras de vida corta: los casos que se han podido observar en torno a estrellas jóvenes van poco más allá de 1 millón de años y no superan los 10 millones de años.

Para una mejor comprensión, describimos el proceso de formación y evolución de los sistemas planetarios como un encadenamiento de sucesos independientes, pero en la realidad estos ocurren de forma solapada o simultánea. Ejemplos significativos de simultaneidad son: acreción de los gigantes gaseosos, migración hacia el centro del disco de los planetas y disipación del disco barrido por el “huracán” de la estrella central en fase T Tauri central.

Los meteoritos (materiales naturales extraterrestre que han alcanzado la superficie terrestre), proporcionan información trascendental acerca de la materia existente en los orígenes de nuestro SS.

Formación y evolución de los gigantes gaseosos Según las hipótesis generalmente aceptadas, se supone que este tipo de planetas se forman en el exterior de la LH, zona en la que hay una gran cantidad de gas disponible y donde las temperaturas nunca son altas. La limitación de estos procesos a un máximo de unos 10 Ma se apoya en el hecho de que esta es la duración máxima que se suele observar en los discos de acreción en torno a las jóvenes estrellas en fase T Tauri (■Figura 3-3): Primer millón de años: en una dinámica de enfriamiento por radiación y caída en espiral hacia el centro, las partículas sólidas, cubiertas por materias volátiles condensadas (agua, metano...), se aglutinan por acreción (impacto, adhesión y atracción gravitatoria), a ritmo acelerado, hasta formar objetos de tamaño kilométrico denominados planetesimales. El final de esta primera fase es un enjambre de billones de planetesimales, distribuidos en la zona exterior del disco, que habrán absorbido la práctica totalidad del polvo disponible en las proximidades de su órbita (curva “Roca y metal” en la ■Figura 3-3). Período de 1 a 10 Ma: los impactos entre planetesimales hacen que estos se fusionen (en algunos casos se fragmentan y dispersan), desencadenando un crecimiento auto-reforzado. La gravedad, cada vez más intensa, hace que también se incrementen las velocidades de captura de planetesimales y la acumulación de gas. Este proceso continúa hasta que se alcanzan tamaños equiparables a la Luna o a Marte, denominados

31 embriones planetarios, cuya fuerza gravitatoria es tan intensa que desviará y dispersará otros cuerpos sólidos antes de chocar con ellos, pudiendo algunos ser expulsados del sistema estelar. Las perturbaciones de este proceso pueden forzar órbitas inicialmente elípticas, que posteriores colisiones con planetesimales y la viscosidad del gas transforman en circulares. Finalmente sobreviven algunos embriones, dominando una corona circular en torno a su órbita, cuyo crecimiento finalizará una vez que hayan capturado todos los planetesimales de su zona de influencia, pudiendo alcanzar tamaños de varias masas terrestres (Mt).

A partir de las 10 o 20 Mt se produce un crecimiento rapidísimo de los planetas por el colapso gravitacional del gas circundante, pudiendo alcanzar cientos de masas terrestres en solo unos miles de años (curva “Roca y metal + gas” en la ■Figura 3-3). La zona cercana a la LH (por el exterior), es donde la densidad de gases y volátiles alcanza su valor más elevado (máxima disponibilidad de materia), por lo que probablemente sea ahí donde se formen el primero y más masivo de los gigantes gaseosos de cada sistema planetario (como el caso de Júpiter en el SS). Período de 2 a 10 Ma: procesos similares a los indicados anteriormente pueden generar otros gigantes gaseosos en zonas del disco más alejadas de la LH, probablemente de tamaño decreciente al alejarnos de la LH, debido a un inicio de crecimiento tardío y a la menor disponibilidad de materia a medida que nos acercamos a la periferia del disco. La energía liberada en el proceso de acreción gravitatoria de los gigantes gaseosos produce un gran calentamiento del núcleo, frenando la caída y asentamiento del gas y, en consecuencia, el crecimiento del planeta. La masa final del gigante gaseoso resulta del compromiso entre la velocidad de enfriamiento del núcleo planetario y el tiempo que tarde la estrella en disipar el gas del disco. La capacidad del enfriamiento está relacionada con la masa del núcleo rocoso. Según modelizaciones, los embriones planetarios deben de superar las 10 MT para alcanzar un enfriamiento eficiente.

Los planetas tipo Júpiter, con la influencia gravitacional que les proporciona su enorme masa, dominan el destino evolutivo de las nebulosas cuando estas se convierten en sistemas planetarios.

Formación de los planetas rocosos o terrestres El proceso que vamos a comentar es un tanto “especulativo”, dado el escaso conocimiento actual de los exoplanetas de tamaño “terrestre” y de sus características en otras regiones del universo. Los únicos ejemplos bien conocidos son los planetas rocosos del Sistema Solar. Situémonos ahora en el interior de la línea de hielo (LH) de un disco de acreción planetaria:

Período estimado de 30 a 100 Ma (■Figura 3-4): el crecimiento de los planetesimales en el interior de la LH es más lento que en la zona de los gigantes: Menor cantidad de gas y de volátiles, pues en gran medida han sido “barridos” por el viento estelar. Es preciso esperar a que las partículas de polvo se enfríen por radiación y que se condensen.

32

Una vez condensados los materiales refractarios (silicatos, metales...), en forma de partículas micrométricas, arranca el proceso denominado acreción, con un incremento del tamaño de los objetos formados, hasta alcanzar la “categoría” de planeta: formación de granos de polvo, denominados cóndrulos [■3-1], por la adhesión y cohesión de las micropartículas recién formadas (■Figura 3-5); agregación de granos de polvo que chocan hasta generar planetesimales ( 1 Km); a partir de los planetesimales y por atracción gravitatoria se forman protoplanetas o embriones planetarios, hasta alcanzar tamaños de  0.1 Mt, en los que también quedan atrapados los gases cercanos. Estamos ante una sucesión de fusiones cada vez más eficaces, pues la velocidad de escape es mayor a medida que aumenta la masa, los choques son prácticamente inelásticos y el poco material que rebota vuelve a caer sobre el protoplaneta. El proceso de acreción por impacto y fusión de embriones continúa durante unos cuantos Ma, con incrementos en diámetro de unos 15 o 20 cm/año, decayendo finalmente la velocidad de crecimiento, según la zona va quedando “limpia” de planetesimales. Se estima que en un periodo máximo de unos 50 Ma se alcanzan diámetros similares a los de los planetas telúricos del Sistema Solar. Finalmente sobreviven unos pocos planetas, con órbitas casi circulares, pues son las que sufren menos colisiones. Los planetas (exoplanetas) conservan una gran cantidad de calor interno –proporcional a su masa- al alcanzar las etapas finales del proceso de la acreción, debido a la enorme energía liberada por las colisiones de los planetesimales y de los embriones planetarios (con el apoyo indeterminado de la radioactividad), por lo que se estima que en ese momento inicial están constituidos, básicamente, como una gran bola de rocas y metales fundidos. Al cesar o disminuir la frecuencia de los impactos se inicia un lento proceso de enfriamiento, del exterior hacia el interior, durante el cual los materiales más pesados, como el hierro y el níquel, se “hunden” hacia el núcleo, mientras que los más ligeros, como los silicatos, se estructuran formando capas de densidades crecientes desde la periferia (corteza) hacia el núcleo. Este proceso, denominado diferenciación, también libera una importante cantidad de energía gravitatoria (calor), que contribuye a mantener las altas temperaturas interiores de los planetas. La velocidad de enfriamiento de los cuerpos rocosos depende de la relación superficie/volumen (4R2)/(4R3/3), en definitiva, del tamaño de los objetos: los pequeños se enfrían antes que los grandes, lo que justifica que estos permanezcan más tiempo geológicamente activos (Ej.: Tierra activa, Marte inactivo) [■3-7]

Metalicidad Como ya hemos comentado, la metalicidad es un concepto astrofísico para describir la abundancia de elementos más pesados que el helio en las estrellas (los astrofísicos denominan como metales a los elementos más pesados que el H y el He). La fracción de elementos pesados en el medio interestelar, enriquecido por la materia eyectada a la muerte de las estrellas, aumenta con el paso del tiempo cósmico, por lo tanto la metalicidad es un dato útil para estimar la edad de las estrellas. En la Vía Láctea

33 la riqueza en metales disminuye al alejarnos radialmente del centro de la galaxia y, en mayor proporción, al separarnos axialmente del plano del disco galáctico. Las observaciones realizadas muestran que el rendimiento del proceso de formación planetaria depende de la fracción de elementos más pesados que el helio que contenga la estrella. En promedio se han detectado gigantes gaseosos en el 5 % de las estrellas observadas pero este porcentaje alcanza al 30 % para las estrellas cuya metalicidad [■3-2] sea tres veces superior a la solar (■Figura 3-6). Se considera también que el material residual puede dar lugar a la formación de satélites o a discos de planetesimales coplanarios en torno a los gigantes gaseosos (de forma similar al Sistema Solar).

Migraciones planetarias Como veremos con detalle en el ■Capítulo 7, una de las grandes sorpresas, tras el descubrimiento de los primeros planetas extraterrestres, fue comprobar que muchos de estos se situaban en órbitas muy cercanas a su estrella: ¡¡planetas gigantes gaseosos más cerca de su estrella que Mercurio del Sol!! Los hechos han obligado a incorporar nuevos mecanismos en los modelos de los procesos de formación y evolución de los sistemas planetarios: La disponibilidad cualitativa y cuantitativa de los “materiales” predice que los gigantes gaseosos solo se puedan formar en regiones del disco exterior a la LH. El hecho de detectarlos en zonas muy cercanas a su estrella significa que ha ocurrido un proceso que los ha trasladado desde la zona donde se ha iniciado su formación, hasta su ubicación actual. Se denomina migración planetaria al proceso de caída en espiral del planeta hacia la estrella central, como consecuencia de la interacción entre el planeta y la materia del disco protoplanetario.

Las migraciones planetarias parecen ser bastante comunes, al menos en los casos que conocemos, pero, afortunadamente, no parece que hayan afectado a nuestro Sistema Solar, o lo han hecho en menor grado.

Dependiendo de la masa alcanzada por el planeta, podemos diferenciar las migraciones tipo I y tipo II.

Migración tipo I Se supone que este tipo de migración ocurre en planetas con masas comparables a la terrestre. Durante el movimiento orbital conjunto de planetas, polvo y gas, las velocidades tangenciales crecen hacia el centro del disco (■Figura 2-6), de modo que el movimiento del planeta es más lento que el de las partículas interiores, que tienden a acelerarlo, y más rápido que el de las exteriores, que intentan frenarlo. Durante la traslación del planeta en torno a su estrella, el recorrido barrido por la superficie del planeta más alejada de la estrella es algo mayor que el de la superficie más cercana (■Figura 3-7): el efecto es un ligero frenado del planeta (F), que caerá lentamente en espiral hacia el centro del disco (d).

34

La velocidad diferencial planeta-disco, positiva en la zona exterior del disco y negativa en la zona interior, crea ondas similares a las que vemos en la estela de un barco en el agua, con la particularidad de que en el caso del planeta estas ondas presentan direcciones opuestas a ambos lados de la órbita.

Migración tipo II Si el planeta alcanza unas 10 Mt, la evolución de acontecimientos es diferente. En este caso, en vez de mandar el disco sobre el planeta es este quien intenta controlar al disco (gas y polvo). El planeta abre un hueco limpiando la órbita, quedando así frenado su crecimiento (■Figura 3-8). Las partículas interiores, más rápidas que el planeta, son frenadas por la gran masa de este, pierden velocidad y caen hacia el interior del disco, alejándose del hueco orbital del planeta. Para compensar la cantidad de movimiento lineal, el planeta es acelerado ligeramente. Con las partículas que circulan por el exterior, más lentas, ocurre lo contrario: son aceleradas por el planeta, ganan velocidad y se alejan hacia el exterior, mientras que el planeta, por este efecto, sufre una ligera pérdida de velocidad. Dado que la cantidad de partículas que circulan por el exterior supera ligeramente a las interiores, el balance global es una pérdida de la cantidad de movimiento del planeta y su caída lenta en espiral hacia la estrella central. En la lucha entre el gas por entrar en el hueco orbital y el planeta para evitarlo, es inevitable que cantidades más o menos importantes de gas penetren en dicho hueco haciendo que la migración no se detenga hasta que el intenso viento de la joven estrella en fase T Tauri no consiga disipar totalmente el gas y el polvo del disco protoplanetario. La posición final del planeta respecto a su estrella es un compromiso entre el tiempo de formación del planeta gigante (Tfg) y el tiempo de disipación del disco (Tdd). Estos tiempos (■Figura 3-9), pueden dar lugar a:

 Tfg > Tdd: planetas como nuestro Júpiter en el Sistema Solar (1, ■Figura 3-9).

 Tfg < Tdd: migración planetaria pudiendo dar lugar a un Júpiter periestelar o júpiter caliente (2, ■Figura 3-9).

 Tfg << Tdd: migración y posible precipitación del gigante sobre la estrella anfitriona (3, ■Figura 3-9).

Evidencias de las migraciones planetarias Las estructuras teóricas de los discos de acreción (que hemos comentado anteriormente) son incompatibles con la formación de gigantes gaseosos cercanos a las estrellas, debido a la insuficiencia de gas y polvo en esa zona, y a las elevadas temperaturas que impiden la condensación de los materiales volátiles. La migración planetaria es la causa razonable, aceptada científicamente, para justificar la presencia de una gran cantidad de planetas tipo Júpiter orbitando su estrella a distancias de pequeñas fracciones de una UA. 35

Una posible comprobación de la “precipitación” de planetas sobre su estrella, consecuencia de una migración extrema, es el denominado “test del litio-6” (6Li: isótopo del litio): las estrellas tipos F, G y K, queman el litio-6 en la fase convectiva, previa a la secuencia principal, cuando se sobrepasan los 2.500.000 K (■Capítulo 2: Origen de los elementos químicos), mientras que este isótopo se conserva inalterado en los planetas, ya que nunca llegan a alcanzar tales temperaturas. La presencia de este isótopo en la capa exterior “fría” y relativamente tranquila de una de estas estrellas en la SP, solo se justifica si ha habido una contaminación con litio-6 procedente, en este caso, de la probable “caída” de uno o más planetas sobre la estrella. Esta puede ser la situación del sistema planetario HD 82943, con al menos dos gigantes gaseosos (■Tabla 3-1), cuya estrella de 1,18 masas solares da positivo en el test de litio-6.

Planetas Masas de Júpiter (Mj) Periodo orbital (días) Semieje mayor (ua) Excentricidad

HD 82943 b 1,75 441 1,19 0,22

HD 82943 c 2,01 219 0,75 0,36

■ Tabla 3-1: sistema planetario HD 82943, con alta cantidad de litio-6 en su estrella de 1,18 Ms

En opinión del astrónomo español Rafael Rebolo [■3-3], del Centro Superior de Investigaciones Científicas (CSIC), el litio-6 proviene probablemente de uno o más planetas que podrían haber caído sobre la estrella. La gran excentricidad planetaria también apunta a complicadas interacciones orbitales en el pasado.

Lógicamente, la presencia de un “júpiter caliente” en el entorno de la hipotética “zona habitable” del sistema estelar al que pertenece, impedirá la existencia de planetas de tipo terrestre en esa zona, haciendo que el sistema estelar afectado sea inhabitable.

Particularidades del Sistema Solar Habían transcurrido unos 9.000 Ma desde el Big-Bang, tiempo en el que sucesivas generaciones de estrellas y explosiones de supernovas pudieron generar los materiales necesarios para la formación de planetas. En aquel momento, hace unos 4.600 millones de años, se produjo el colapso de una nebulosa de la Vía Láctea para formar nuestro Sistema Solar, situado actualmente a unos 26.000 al del centro galáctico. Según modelizaciones, una supernova o una onda de presión de un brazo espiral de la VL alteró la nebulosa protosolar incrementando su momento angular. Bajo la gravedad, la nebulosa aumentó su velocidad de giro aplanándose en un disco protoplanetario, con una acumulación progresiva de masa y energía en el centro, hasta que la presión y la temperatura desencadenaron la fusión nuclear de hidrógeno en helio, dando lugar al nacimiento de nuestro Sol, en aquel momento un 35 % más débil que en la actualidad. Al mismo tiempo, en ciertas regiones del disco giratorio, bajo los efectos combinados de la adhesión, los impactos y la atracción gravitatoria, se produjo la aglomeración (acreción) de partículas de polvo y gas, cada vez de mayor tamaño (■Figura 3-10), hasta que el fuerte viento del joven Sol, en fase T Tauri, limpió la mayor parte del gas y polvo residual del disco protoplanetario. La posterior evolución de planetesimales y de embriones planetarios (que hemos visto anteriormente), daría lugar finalmente a nuestro SS (■Figura 3-1), con cuatro planetas rocosos en la zona interior del disco y cuatro

36 gigantes gaseosos en la zona exterior, además de los asteroides, cometas y otros cuerpos menores. El mayor y más denso de los planetas rocosos, a unos 150 millones de kilómetros del Sol, es nuestra Tierra. Paralelamente, las reacciones químicas en el espacio interestelar iniciaban la creación de moléculas, tal vez fundamentales para la vida.

Bombardeo Intenso Tardío El Bombardeo Intenso Tardío (BIT) es un periodo entre 3.800 y 4.000 millones de años antes del presente (Ma AP), durante el cual los cuerpos del Sistema Solar Interior sufrieron múltiples y fortísimos impactos de grandes asteroides. Como testigos actuales de aquel periodo violento permanecen visibles la mayoría de los cráteres de impacto que se pueden observar en la Luna (■Figura 3-11), Marte o Mercurio. Esta teoría fue confirmada por las rocas aportadas por la misión Apolo, que presentan testigos de minerales fundidos cuya datación radiométrica se encuentra en una “estrecha” horquilla situada hace 3800-4000 Ma. La cercanía a la Luna, así como el mayor tamaño y gravedad de la Tierra, apoyan fuertemente la hipótesis de que nuestro planeta habrá estado sometida a un bombardeo proporcionalmente mayor, cuyas huellas han sido borradas por la activa erosión y la tectónica de placas de nuestro planeta (■Capítulo 4). En base a los cráteres lunares, se estima que la Tierra estuvo sometida a impactos con objetos de varios cientos de km de diámetro: la energía liberada por un asteroide de unos 500 km de diámetro, a una velocidad en torno a una decena de km/s, evaporaría completamente los océanos y produciría una atmósfera de vapor de agua y roca a 1.700 ºC, que podría perdurar durante miles de años. Sin duda, cualquier tipo de vida incipiente o consolidada que hubiese existido en aquellos momentos, habría sido totalmente aniquilada. El BIT también es coherente con la edad de las rocas más antiguas encontradas en nuestro planeta: unos 3.800 Ma. Efectivamente, sabemos que la Tierra se formó hace unos 4.600 Ma (■Capítulo 4), por lo que se estima que tuvo que disponer de corteza sólida mucho antes de los 4.000 Ma (a pesar del impacto Theia que formó la Luna hace unos 4.500 Ma). El BIT proporciona la explicación de una antigüedad máxima de 3.800 Ma para las actuales rocas terrestres: las anteriores fueron destruidas precisamente durante el BIT.

En opinión de algunos autores, las atmósferas de los planetas terrestres se formaron durante el BIT y después por desgasificación.

¿Resonancias planetarias como causa del BIT? Por su relevancia para la vida, y por ser la más aceptada por el mundo científico, pasamos a comentar la hipótesis de las resonancias planetarias [■3-4] como causa del BIT: en la juventud del SS, el “tirón” de los objetos más allá de Neptuno hizo que las órbitas de los tres gigantes gaseosos Saturno, Urano y Neptuno se desplazasen lentamente hacia el exterior (a partir de sus posiciones iniciales de formación más cercanas al Sol), mientras que Júpiter se acercaba lentamente a la estrella. En esta dinámica de desplazamientos hubo un momento en el que Saturno y Júpiter entraron en resonancia orbital 1:2 (una órbita de Saturno por cada 2 de Júpiter), desencadenando una gran inestabilidad en el SS. De acuerdo a los modelos desarrollados, el

37 sistema solar exterior sufrió grandes perturbaciones, Urano y Neptuno seguramente fueron desplazados de sus órbitas, y multitud de objetos del cinturón de Kuiper y/o del cinturón de asteroides (dependiendo de los autores) sufrirían perturbaciones orbitales. Muchos de estos objetos fueron enviados hacia el sistema solar interior, provocando el BIT, mientras que los dos gigantes gaseosos continuaban con sus desplazamientos hasta alcanzar posiciones en las que ya no había resonancias. Esta es una de las explicaciones mejor aceptadas y que justifica el BIT de hace unos 3800-4000 Ma, sin embargo sigue habiendo científicos que cuestionan este modelo. Una objeción destacada es la ausencia de interacciones mareales en los planetas interiores, que han sufrido el BIT, pero al parecer no han soportado los trastornos gravitatorios que si afectaron al sistema exterior. Como testigos de los disturbios ocasionados por el BIT tenemos: asteroides carbonáceos localizados en la zona exterior del cinturón principal; asteroides troyanos de Júpiter [■3-5]; satélites capturados por Júpiter y Saturno; cicatrices de grandes impactos en Mercurio, la Luna y Marte...

Dataciones del Sistema Solar La fecha de “nacimiento” del Sistema Solar, hace 4.569 Ma, corresponde al inicio de la condensación de los materiales de la nebulosa solar, y se apoya en dataciones radiométricas de precisión: Meteorito de Allende (estado mexicano de Chihuahua, año 1969). Este meteorito está clasificado como una condrita carbonácea, cuya formación remonta a los orígenes del Sistema Solar. Incorpora cóndrulos y unas partículas milimétricas esféricas blancas (Inclusiones de Calcio y Aluminio, CAI en inglés), cuya datación determina que fueron condensadas hace 4.566 ± 2 Ma. Cóndrulos pertenecientes a los meteoritos procedentes de pequeños asteroides que no han sufrido transformaciones estructurales, datados los más antiguos en 4.564 ± 2 Ma.

Futuro del Sistema Solar Se estima que la luminosidad de nuestra estrella aumenta de un 8 a un 10 % cada 1.000 Ma. En base a este dato pasamos a relacionar, de forma resumida (■Figura 3-12), las evoluciones previstas para el Sistema Solar y, en particular, las consecuencias previstas para nuestro planeta: 1.000 Ma DP (Millones de años Después del Presente): El incremento del 10 % en la actividad solar generará un efecto invernadero incontrolado, provocando el inicio de la evaporación de los océanos y creando unas condiciones incompatibles para la vida en tierra firme, aunque seguramente podrían adaptarse los organismos que habiten los océanos profundos. 3.500 Ma DP: La Tierra seguramente habrá evolucionado a unas condiciones similares a las actuales de Venus, con los océanos ya totalmente evaporados y la imposibilidad del modo de vida que conocemos. En ese momento es posible que Marte haya recuperado su atmósfera debido a la sublimación y evaporación del CO2 y del agua disponible en el subsuelo y en la superficie.

38

6.000 Ma DP: Seguramente ya se habrá agotado el hidrógeno del núcleo solar, trasladándose la fusión hidrógeno-helio a las capas superiores. 7.600 Ma DP: Nuestro Sol entrará en la fase de gigante roja [■3-6] con una luminosidad más de 2.000 veces superior a la actual y un diámetro mayor de 1,2 UA, sobrepasando las órbitas de Mercurio y Venus y quizás también a la terrestre. En estas condiciones, nuestro planeta perderá la atmósfera, debido al intenso viento solar, y la superficie quedará cubierta por un mar de lava a más de 2000 ºC. Dependiendo de las dimensiones alcanzadas por la gigante roja, la Tierra podrá perder las capas superiores del manto, quedando solo el núcleo, pero también podría ser “tragada” por la estrella en una caída de unos 200 años. La Luna “caerá” en espiral sobre la Tierra debido al roce con la atmósfera de la estrella, hasta situarse a unos 18.000 km (límite de Roche), momento en el que la gravedad terrestre destruiría al satélite para convertirlo en un anillo orbital de fragmentos (similar a los anillos de Saturno). Tras unos 100 Ma en la fase de gigante roja, las capas de helio superficial caídas sobre el núcleo harán que se alcancen las condiciones necesarias para desencadenar la fusión de helio en carbono, convirtiendo al Sol en una estrella de la rama horizontal [■3-6], ahora encogido bruscamente a un diámetro de solo unas 10 veces superior al de la secuencia principal (debido a la dificultad de la fusión He-C, respecto a la fusión H- He). También ahora se tendrán que utilizar las reservas de las capas de hidrógeno exteriores al núcleo, pasando a la rama asintótica gigante [■3-6], mucho mayor y más luminosa que en la época de gigante roja, fase en la que permanecerá durante otros 100 Ma. Finalmente, las capas exteriores serán expulsadas al espacio exterior, dando lugar a la formación de un halo conocido como nebulosa planetaria [■3-6], en cuyo centro quedará un residuo muy brillante y compacto, denominado enana blanca [■3-6], con la mitad de la masa original del Sol concentrada en un volumen de sólo la mitad del tamaño actual de la Tierra. En estas condiciones, la atracción gravitacional de “Sol” sobre planetas y cuerpos menores quedará muy debilitada por lo que estos se expandirán: la Tierra, si todavía existe, se desplazará a unas 2.8 ua de la estrella. Las orbitas de los cuerpos menores, asteroides y comentas, serán inestables y quizás muchos de ellos se acercarán suficientemente a la enana blanca solar donde quedarán destruidos por el efecto de marea. Es posible que miles de millones de años más tarde el núcleo de nuestra estrella cristalice formando un diamante gigante. Finalmente, tras trillones de años, el “Sol”, ya completamente frío, se convertirá en una enana negra [■3-6].

Por su efecto sobre nuestro Sistema Solar y la Vía Láctea, hay otro evento previsto que consideramos oportuno comentar aquí: dentro de unos 3.000 Ma DP, la galaxia gigante Andrómeda se acercará lo

39 suficiente a la Vía Láctea para que ambas galaxias acaben fusionándose tras algunos “cruces” o pasos cercanos. Es poco probable que el Sistema Solar quede afectado, dada la gran distancia entre las estrellas, pero también es posible que el Sol y sus planetas sean enviados al halo de la nueva súper-galaxia recién formada.

[■3-1] Cóndrulos: partículas esféricas submilimétricas, que constituyen un porcentaje importante de los meteoritos denominados condritas, muy abundantes y provenientes del cinturón de asteroides. No han sufrido alteraciones estructurales y constituyen verdaderos “testigos fósiles” de los primeros momentos de nuestro SS. Los cóndrulos son las partículas básicas que después dieron lugar a la formación secuencial de los planetesimales, planetoides y planetas de nuestro SS durante 10 a 30 Ma. [■3-2] Índice de metalicidad. Metalicidad es el concepto astrofísico para describir la abundancia relativa de elementos más pesados que el hielo en las estrellas; elementos que reciben la denominación de “metales”, con independencia de su posición en la tabla periódica. Habitualmente se toma como valor de referencia la metalicidad de nuestro Sol, que contiene un 1,6 % en masa de elementos “metálicos” (más pesados que el He). Si consideramos la fracción de masa de H = X, la fracción de masa de He = Y y la fracción de masa de “metales” = Z, tendríamos: X + Y + Z = 1. Bajo este formalismo, tendríamos:

 Composición universo primigenio: X=0,76, Y=0,24 y Z=0,00  Composición de nuestro Sol: X=0,70, Y=0,28 y Z=0,02 La metalicidad se suele formular tomando como patrón de referencia la abundancia de los elementos metálicos del Sol. Normalmente se toman como elementos de comparación las líneas de absorción del hidrógeno con las del hierro y se expresa como [Fe/H], que representa el logaritmo del cociente entre la abundancia de metales en la estrella respecto a la abundancia de metales en el Sol:

[Fe/H] = log (ab Fe/ab H)Estrella - log (ab Fe/ab H)Sol ab Fe = abundancia de hierro (Fe); ab H = abundancia de hidrógeno (H) Según este convenio, el índice de metalicidad del Sol será [Fe/H] = 0. Los objetos más pobres en metales que el Sol tendrán un índice negativo y los más ricos un índice positivo. Como la escala es logarítmica, una metalicidad de valor “-1” equivale a una abundancia 1/10 de la solar y un índice de valor “+1” a una abundancia de 10 veces la solar. [■3-3] Rafael Rebolo y su equipo del Instituto de Astrofísica de Canarias, han observado por primera vez evidencias de migración planetaria al detectar litio-6 en una estrella de la SP: publicado en la revista Nature el 06/06/2001. Manifiesta el Sr. Rebolo que se han puesto en marcha programas exhaustivos para la localización de 6Li y otros materiales en estrellas orbitadas por “júpiteres calientes”. [■3-4] En astronomía, dos cuerpos entran en resonancia orbital cuando sus períodos (tiempo que tardan en realizar una órbita completa) están en una relación sencilla de números enteros (1-2, 1-3…). [■3-5] Se denominan satélites troyanos de Júpiter a un numeroso grupo de asteroides, controlados por el campo gravitacional del gigante gaseoso, que se encuentran situados en los denominados puntos de Lagrange precediendo y siguiendo a Júpiter en su órbita alrededor del Sol (en internet se puede encontrar abundante información acerca de los puntos de Lagrange).

40

[■3-6] Todos estos conceptos se comentan en el ■Capítulo 2. Para obtener información detallada pueden consultarse en internet artículos sobre evolución estelar o acerca del diagrama de Hertzsprung-Russell (o diagrama H-R). [■3-7] El 06/11/2014 se difundió la imagen obtenida por el radiotelescopio-interferómetro ALMA (Atacama Large Millimeter/submillimeter Array), revelando por primera vez detalles precisos de un disco protoplanetario en torno a una estrella (HL Tauri), donde se muestran una serie de anillos que, casi con total seguridad, corresponden a objetos planetarios jóvenes que se están formando en el disco. Se trata de una imagen real revolucionaria, al mostrar que la formación de los exoplanetas coincide con las hipótesis actuales, si bien el desarrollo del disco protoplanetario evoluciona mucho antes de lo que cabía esperar (un millón de años). En opinión de algunos investigadores, con ALMA se inicia una nueva era en la exploración de la formación de las estrellas y planetas.

41

42

4. La Tierra, planeta “vivo”

Obviamente, nuestro planeta Tierra es un objeto en el que la vida pudo surgir y evolucionar (el único conocido, de momento), pero muchos biólogos, geólogos, astrónomos…, especulan, con base científica, que lo mismo podría ocurrir en otros lugares del universo, siempre y cuando se den condiciones adecuadas. Como personaje significativo, representativo de estas ideas, podemos citar a Christian de Duve (1917-2013), bioquímico inglés y Premio Nobel de Fisiología o Medicina en 1974, quien afirmó:

“Es casi obligatorio que surja la vida (…) dondequiera que se den las condiciones físicas que prevalecían en nuestro planeta hace 4.000 millones de años…”

Es posible que la exclusividad de la vida no pertenezca a objetos similares a la Tierra, pero sabemos que en nuestro planeta “las cosas han ido bien”, por lo tanto, siendo prácticos, lo lógico es no inventar nada nuevo y comenzar por buscar lo que parece que si funciona: objetos cuyas condiciones sean lo más parecidas posible a las de nuestra Tierra. Para buscar al “gemelo” terrestre debemos de comenzar por conocer nuestro planeta: su origen, su evolución y sus circunstancias... Este es el objetivo de este capítulo, donde analizaremos algunas de aquellas características estructurales y dinámicas de la Tierra que consideramos relevantes para que la vida haya podido surgir y evolucionar. Pero ¿cómo conocer el origen y evolución de nuestro planeta?: en el año 1869, John Wesley Powell dirigió un grupo de exploradores por el río Colorado a través del Gran Cañón en frágiles botes de madera. Powel escribió en su diario: “Todo lo que hay a mi alrededor son registros geológicos importantes. El libro está abierto y yo lo leo mientras corro”. Verdaderamente, las rocas del Gran Cañón conservan más de 1.000 millones de años de historia.

¿Cómo transcurre el tiempo? Normalmente organizamos nuestras actividades cotidianas alrededor del tiempo, con la ayuda de relojes, agendas, calendarios… utilizando, según las necesidades: el segundo, la hora, el día, la semana, el mes o el año, y muchas veces bajo la sensación de ir en retraso o de llegar tarde. También se dan situaciones extremas: los físicos a veces trabajan con tiempos extremadamente cortos, mientras que los geólogos, los paleontólogos y los astrónomos suelen hacerlo con tiempos increíblemente largos. Cuando los geólogos hablan del pasado, se suelen referir a hechos que ocurrieron hace millones de años (Ma), o incluso hace miles de millones de años. Estos periodos de tiempo tan extensos son necesarios para comprender la historia geológica y biológica de nuestro planeta [■4-1]. Actualmente, tanto por parte de los geológicos

43 como de los biológicos, se suelen utilizar dos escalas para datar los acontecimientos: la datación relativa y la datación absoluta. La datación relativa pone en orden los sucesos, pero no permite determinar cuánto tiempo hace que estos ocurrieron. Sitúa los sucesos secuencialmente a través de su situación estratigráfica en el registro geológico (que suceso precedió a otro). La datación absoluta proporciona fechas concretas para los acontecimientos, expresadas normalmente en millones de años antes del presente (Ma AP). El método más común de datación absoluta es la radiometría, que determina las fechas de los acontecimientos a partir de los índices de descomposición de ciertos elementos radiactivos presentes (como trazas) en algunas rocas. En la ■Tabla 4-1 figuran, para algunos eventos significativos, las dataciones relativas, ordenando los eventos verticalmente, de más reciente a más antiguo (tres primeras columnas); así como las dataciones absolutas expresadas en millones de años antes del presente Ma AP (cuarta columna).

Eón Era Eventos significativos Ma AP

Homo sapiens 0 – 0,02 Edad del Hielo 0,01 – 1,6 Cenozoico Primeros homínidos 1,6 – 5,3 Formación del Himalaya y los Alpes 37 – 58 Extinción de los dinosaurios 65 – 144 Mesozoico Primeras aves 144 – 208 Fanerozoico Dinosaurios y mamíferos 208 – 245 Formación de Pangea 245 – 286 Formación carbón 286 – 320 Primeros reptiles 320 – 360 Paleozoico Primeros anfibios 360 – 408 Primeras plantas terrestres 438 – 505 Primeros peces 505 – 545 Proterozoico Animales con caparazón 545 – 2.500 Arcaico Registros biológicos más antiguos 2.500 – 4.000 Hádico 4.000 – 4.600 ■ Tabla 4-1: dataciones relativas y absolutas de algunos eventos geológicos y biológicos Para mayor información sobre los métodos de datación véase el ■Anexo E.

Edades de la Tierra En la actualidad, gracias a las dataciones radiométricas, se conoce con bastante precisión la edad de nuestro planeta: unos 4 600 Ma (véase ■Capítulo 3, Dataciones del sistema solar). Sin embargo, en el pasado -incluso cercano-, se propusieron edades muy dispares, que dependían de la fuente de información utilizada:

44

En base al análisis de la Escrituras, los eruditos cristianos y los clérigos antiguos establecieron la edad de la Tierra y todos sus rasgos en unos 6.000 años. A partir del S. XVII se intenta determinar la edad de nuestro planeta a partir de cálculos y evidencias científicas en vez de revelaciones: Georges Louis Buffon (1707-1788), zoólogo francés, supuso que la Tierra, inicialmente formada por un gran bola fundida, sufrió un enfriamiento gradual hasta alcanzar su temperatura actual. Como base experimental de sus cálculos, determinó los tiempos de enfriamiento, hasta la temperatura ambiente, de varias bolas de hiero de distintos diámetros previamente calentadas hasta su fusión. Por extrapolación hasta el diámetro de la Tierra, determinó que nuestro planeta tenía al menos unos 75.000 años. Algunos investigadores intentaron calcular la edad de la Tierra a partir la velocidad de sedimentación, calculando los tiempos necesarios para la formación de las capas rocosas, obteniendo resultados muy dispares, desde 1 Ma hasta más de 2.000 Ma. Hoy sabemos que estos métodos no son factibles, debido a que las velocidades de sedimentación son variables y además no se puede calcular cuanta capa de roca ha sido eliminada por erosión o compactación. A finales del S. XIX, el geólogo irlandés John Joly, entre otros, intentó calcular la edad de la Tierra apoyándose en la salinidad de los mares, suponiendo que los océanos primigenios estaban formados por agua dulce, y que la sal había sido aportada por las corrientes que llevan las aguas a las cuencas oceánicas. John Joly calculó la cantidad de sal contenida en el volumen de las aguas oceánicas y determinó el caudal aportado por los ríos y su salinidad, lo que le permitió una estimación de la edad terrestre en unos 90 Ma. Hoy sabemos que por este método no se pudo determinar la edad de la Tierra, ya que John Joly no tenía modo de determinar la cantidad de sal reciclada ni cuanta sal se almacenaba en los continentes y en los fondos oceánicos. Acertadamente, fueron los geólogos James Hutton (1726-1797) y Charles Lyell en 1830, quienes reconocieron que los cambios imperceptibles producidos por los sucesos actuales (principio de actualismo), podían, a lo largo de tiempos muy largos, generar enormes efectos acumulados. Además, el reconocimiento de tiempos prácticamente ilimitados también era necesario para la aceptación de la teoría de la evolución de Darwin de 1859. Tras la aceptación de que la configuración actual de la Tierra es el resultado de largos periodos de tiempo de evolución, los geólogos (y Darwin) se vieron forzados a aceptar una Tierra “muy joven” en 1886, cuando Lord , con su gran influencia y prestigio científico, publicó un artículo invalidando las bases establecidas por Lyell. A partir del hecho generalmente aceptado, de que la Tierra había evolucionado a partir de una gran bola de roca fundida, Kelvin asumió que se fue enfriando progresivamente hasta la temperatura actual. A partir del tamaño inicial de la Tierra, de la temperatura de fusión de las rocas, y del índice de pérdida de calor, Kelvin estimó que nuestro planeta no podía tener más de 400 Ma ni menos de 20 Ma. Esta incertidumbre se debía al desconocimiento de las caídas de temperatura con la profundidad. Los cálculos de Kelvin eran correctos, pero estaban sustentados en premisas falsas, pues no consideraban el calor generado por la radioactividad (Antoine Henri Becquerel en 1896; Pierre y Marie Curie en 1903), que ha permitido mantener una temperatura interna de nuestro planeta durante bastante tiempo. De este modo, las conclusiones de Kelvin quedaron invalidadas y los requerimientos de los geólogos y de Darwin de una Tierra muy antigua fueron restablecidos.

45

Si bien el descubrimiento de la radioactividad destruyó los argumentos de Kelvin, permitió a Darwin y a los geólogos lo que venían reclamando desde hacía tiempo: que la Tierra era muy antigua.

La Tierra: su lugar en el Sistema Solar La situación que ocupa la Tierra respecto al Sol, así como sus características estructurales y dinámicas, han sido y son las adecuadas para que la vida haya podido surgir y evolucionar. La Tierra, “casualmente”, está situada en lo que se denomina zona habitable (■ Capítulo 6), región circumestelar en la que es posible la existencia de agua líquida en la superficie de un planeta allí situado. Desde la formación del Sistema Solar, con una estrella en sus orígenes un 30 % menos enérgica que en la actualidad, la dinámica de la Tierra, unida a la capacidad de adaptación de los organismos, han logrado que la vida se mantenga y evolucione de forma eficiente a lo largo del tiempo. Las principales evoluciones experimentadas por nuestro planeta (que detallaremos más adelante) han sido:

 Un efecto invernadero adaptado para conservar el agua en estado líquido.  La tectónica de placas para el reciclado del carbono (ciclo carbonato-silicato).  La renovación de la atmósfera para mantener la respiración aerobia. Hace ya tiempo que la Tierra “perdió” su situación en el centro del Universo, tampoco el Sol ocupa esa posición privilegiada y nuestra Vía Láctea es una galaxia más entre cientos de miles de millones, sin embargo y hasta que se demuestre lo contrario, nuestro planeta reúne unas condiciones que lo hacen singular: reciclaje de las rocas superficiales, océanos de agua en superficie y la existencia de una biosfera.

Tierra “sólida”. Estructura dinámica Actualmente la Tierra está formada por una serie de capas concéntricas de distinto espesor, composición y densidad, separadas por unos límites bastante bien definidos, cuyas características se han podido determinar a partir de la información que nos proporcionan las ondas sísmicas y los meteoritos (testigos de la materia primigenia del disco solar).

Temperatura interior de la Tierra El calor interno de la Tierra es el motor que genera la dinámica de la “tierra sólida”: desplazamiento de las placas tectónicas y los continentes, creación de cordilleras montañosas y cuencas oceánicas, originando terremotos y volcanes. A principios del S. XX, con el reciente descubrimiento de la radioactividad, se pensaba que el calor interno de nuestro planeta se debía a la desintegración de isótopos inestables, especialmente: 235U, 238U, 232Th y 40K. Esta explicación fue rechazada posteriormente al considerar que prácticamente todo el uranio y el torio se encuentran en la corteza, mientras que la temperatura aumenta con la profundidad hasta alcanzar unos 5.000 ºC en el núcleo, para lo cual sería necesario que la cantidad de 40K allí presente fuese muy superior a la estimada en los modelos existentes. Actualmente se considera que el calor interno de la Tierra procede principalmente de la energía cinética de los planetesimales que formaron el planeta, de la diferenciación del núcleo [■4-2] y solo en un 2 % de la desintegración del 40K del núcleo terrestre. 46

El gráfico de la ■ Figura 4-2 muestra la temperatura “estimada” del interior de la Tierra, desde unos 15 ºC en la superficie hasta superar los 5.000 ºC hacia el centro. Las líneas de trazos muestran las temperaturas de fusión de los materiales en la zona superior del manto y en el núcleo externo, mostrando que la temperatura real supera a la de fusión de los materiales, lo que justifica la fluidez de la astenosfera (ver siguiente apartado), con algunos de sus materiales fundidos, y el estado líquido del núcleo externo. La enorme presión existente a partir de los 5.100 km explica la formación de un núcleo interior sólido, a pesar de las altas temperaturas, tal como se ha podido deducir a través del estudio y análisis del comportamiento de las ondas sísmicas. La mayor temperatura en la zona inferior del núcleo externo respecto al núcleo interno se debe a la velocidad diferencial de rotación del núcleo interno respecto al manto, forzando un deslizamiento (cortadura) en las capas del núcleo externo viscoso y la correspondiente generación de calor. La diferencia de velocidad entre el núcleo interno y el externo se estima en unos 20 km/año.

La energía interna del planeta es la responsable de la dinámica de la “tierra sólida”: desplazamiento de las placas tectónicas, terremotos y movimientos sísmicos.

Capas composicionales La Tierra “sólida” está formada por tres capas básicas concéntricas (■ Figura 4-3), ordenadas por densidad creciente: corteza, manto y núcleo. En estas capas se diferencian otras subcapas en función de sus características. Corteza: capa sólida más externa de la Tierra, con un espesor medio de unos 35 km en las zonas continentales y unos 9 km bajo los océanos. La corteza continental, granítica, muy rica en silicio y aluminio (también denominada sial), con una densidad δ = 2,7 g/cm3, está formada por los continentes geográficos y las plataformas continentales de la periférica, sumergidas a poca profundidad. El espesor varía desde los 25 km en las plataformas hasta superar los 70 km en los macizos montañosos. La corteza oceánica, antiguamente llamada sima (silicio y magnesio), δ = 3,0 g/cm3, con un grosor entre 7 y 10 km, está formada por tres subcapas horizontales: . Capa de sedimentos (superior): restos de plancton sedimentado, con un espesor de 1 a 2 km. . Capa de lavas (intermedia): formada por lavas almohadilladas, producidas por las erupciones marinas, donde la presencia de agua a presión hace que adopte formas curiosas. Puede tener un espesor de 1 a 2 km. La roca predominante es el basalto, rico en Fe y Mg. . Capa de gabros (inferior).- Formada por gabros (silicatos de Mg y Fe) que se solidifican y separan de la capa “fluida” del manto superior. Espesor de unos 5 km.

47

Litosfera: capa rígida de la superficie terrestre que comprende la corteza y el manto superior rígido. De espesor variable, está fragmentada en grandes casquetes esféricos denominados placas litosféricas, que “flotan” y se “deslizan” sobre la astenosfera (más densa y semifluida), debido a las celdas de convección subyacentes. La interacción de estas placas da lugar a los terremotos, los volcanes, la formación de cordilleras de montañas y de las cuencas oceánicas. Según que la corteza sea continental u oceánica se distinguen tres tipos de placas:

 Placa continental, con espesor de 150 km a 300 km y deformable.  Placa oceánica, con espesor entre 50 km y 150 km, más rígida que la placa continental.  Placa mixta, la más abundante, contiene ambas cortezas: continental y oceánica. Astenosfera: capa localizada bajo la litosfera, hasta los 400 km de profundidad, y con la misma composición que el manto. Se encuentra en un estado semifluido, con un  2 % de material fundido, lo que facilita el deslizamiento de la litosfera sobre su superficie. La fusión parcial dentro de esta capa genera magma (roca fundida) que asciende a la superficie en función de su menor densidad, dando lugar a la formación de islas y volcanes. Manto: capa viscosa comprendida desde la corteza hasta uno 2.900 km de profundidad. Representa más del 80 % de la masa del planeta. Se estima que el material predominante es la peridotita, roca ígnea oscura y densa con abundancia de hierro y magnesio. Densidad de 3,5 a 5,7 g/cm3. Se distinguen el manto superior y el manto inferior:

 Manto superior: capa sólida comprendida entre la astenosfera y la corteza. Conjuntamente con la corteza, forma la litosfera (■Figuras 4-2 y 4-3).  Mesosfera o manto inferior: capa semisólida situada bajo la astenosfera y que se extiende hasta los 2.900 km. Posee la plasticidad suficiente para permitir los movimientos convectivos muy lentos de los materiales que la forman, constituyendo el “motor” que a lo largo de millones de años desplaza las placas tectónicas (y los continentes). Se estima que está formada por silicatos y óxidos de hierro y magnesio, con densidades crecientes desde 3,3 g/cm3 en la parte superior hasta los 6 g/cm3 en la zona inferior. Núcleo: está formado por una capa exterior liquida y un interior sólido, denominados respectivamente núcleo externo y núcleo interno (■Figura 4-3): Núcleo externo: comprendido entre los 2.900 km y los 5.150 km de profundidad, está formado por una aleación de Fe y Ni con una densidad media de 10,6 g/cm3. La temperatura de esta zona supera a la de fusión de los materiales, por lo que se encuentra en estado líquido (gelatinoso).

48

Núcleo interno: formado por hierro casi puro, con una densidad media de 13 g/cm3, se extiende desde los 5.150 km hasta el centro del planeta. Se encuentra en estado sólido, a pesar de las altas temperaturas (unos 5000 ºC), debido a las enormes presiones a que está sometido. Su temperatura es ligeramente inferior a la del núcleo externo. En el ■Anexo F se describe el método utilizado por los geólogos para determinar las capas que componen nuestro planeta y sus espesores.

Campo magnético terrestre No se conoce muy bien el mecanismo que crea el intenso campo magnético terrestre (■Figura 4-4), pero se considera que está relacionado con el rápido giro del planeta alrededor de su eje, a los movimientos convectivos del núcleo externo fundido (altamente conductor), y a las corrientes espirales que las fuerzas de Coriolis generan en la masa fundida. El campo magnético de nuestro planeta se extiende desde el núcleo hasta 60000 km en la dirección Tierra-Sol, y hasta los 300000 km en la dirección opuesta, formando un escudo protector, la magnetosfera, que protege a la Tierra de las partículas cargadas del viento solar, sobre todo de los protones, evitando así la erosión y pérdida de la atmósfera. La mayoría de los electrones y protones del viento solar son desplazados hacia el exterior de la magnetosfera, impidiendo su paso a través de la atmósfera, pero algunas partículas son capturadas por el campo magnético y conducidas hacia los polos, donde interactúan con la ionosfera dando lugar a las auroras boreales y australes. El campo magnético terrestre existe desde los primeros tiempos de la historia geológica del planeta, tal como lo demuestra el magnetismo remanente presente en las rocas más antiguas (véase, más adelante: Formación de la Luna). Una característica no muy bien comprendida del campo magnético terrestre es que su polaridad cambia por término medio cada 105 años (el último ocurrió hace 700.000 años), como se refleja en las bandas magnéticas de las rocas oceánicas distribuidas simétricamente respecto a las dorsales oceánicas. El eje magnético de la Tierra forma un ángulo de unos 10 º del eje de giro del planeta, pero los polos N y S magnéticos, actuales, se sitúan en hemisferios opuestos a los geográficos.

Muchos científicos opinan que el campo magnético, al desviar las partículas del viento solar (fuerza de Lorentz), impide la disociación del agua en sus átomos de oxígeno e hidrógeno, evitando la fuga de este último al espacio exterior, lo que a la larga ocasionaría la pérdida del agua de la atmósfera y los océanos, tal como pudo ocurrir con Marte y Venus. Otros investigadores consideran esta función poco relevante: la Tierra sufrió muchas inversiones y ausencias del campo magnético a lo largo de los tiempos geológicos y tanto el agua como la vida continúan existiendo.

Existe una grave amenaza, de probabilidad incierta, para el caso en que una eyección de masa coronal (tormenta solar), pueda llegar directamente a la Tierra y con su campo magnético dirigido hacia el sur (se “sumaría” al campo magnético terrestre, también dirigido hacia el sur), en cuyo caso podría ocasionar graves daños a nivel planetario, debido a la vulnerabilidad de la tecnología actual al clima espacial, cuya

49 recuperación podría necesitar varios meses: destrucción de satélites en órbita baja terrestre, electrónica de los satélites GPS, redes de distribución de energía eléctrica y sus transformadores, etc. Los Cinturones de Van Allen (descubiertos en 1958), son dos estructuras toroidales, situadas en el ecuador magnético (■Figura 4-5), formadas por partículas cargadas del viento solar (electrones y protones), atrapadas y aceleradas por el campo magnético terrestre. Pueden crear graves problemas en los circuitos electrónicos de los satélites artificiales. En el plano del ecuador magnético, el cinturón interior se encuentra entre unos 1000 km por encima de la superficie terrestre hasta más allá de los 5000 km; mientras que el cinturón exterior se extiende desde los 15 000 km hasta unos 20 000 km. No afectan a los satélites de órbitas altas, como pueden ser los geoestacionarios, situados a unos 35 000 km de altitud, mientras que para los satélites de órbita baja es preciso buscar un compromiso entre una altitud que evite el rozamiento residual de la atmósfera (que acorta la vida útil del satélite) y la necesidad de no alcanzar los 1000 km de altitud para no sufrir la radiación del cinturón interior.

Tectónica de placas Consolidada en la década de 1960, la teoría de la tectónica de placas es el reconocimiento de que la litosfera está dividida en placas rígidas que se desplazan sobre la astenosfera. Los movimientos de las placas hacen que el aspecto de la Tierra cambie continuamente, generando las cordilleras más altas, las cuencas oceánicas y las profundas simas. El movimiento de los continentes afecta a los patrones de circulación oceánica generando cambios medioambientales. Es una teoría unificadora de la Geología que proporciona una explicación satisfactoria al conjunto de los hechos observados (■Figura 4-6): Creación de corteza en las dorsales oceánicas, en los bordes de las placas divergentes. Desaparición de corteza en cantidad equivalente en los bordes de subducción, donde la placa oceánica, más densa que la continental, se sumerge y “recicla” en el manto. Da una explicación satisfactoria del movimiento de las placas litosféricas “arrastradas” por los movimientos convectivos del manto y de la astenosfera semifluida. Extensión del suelo oceánico y desplazamiento de los continentes (unos 2,5 cm/año). Formación de cadenas montañosas, concentración de los terremotos y volcanes en las zonas de interacción de las placas, generación de las fosas marinas junto a los continentes y formación de las islas.

50

En los bordes transformantes, consistentes en deslizamiento lateral de una placa respecto a la otra, no se crea ni se destruye litosfera, pero el rozamiento debido al deslizamiento origina una gran cantidad de rocas trituradas y terremotos de foco superficial. La ■Figura 4-7 muestra, conceptualmente, cómo inciden la presión y la humedad en la temperatura de fusión de las rocas: (a) la caída de presión baja la temperatura de fusión de las rocas (línea roja). (b) La humedad desplaza hacia temperaturas más bajas la curva de fusión (línea azul), debido a que el agua debilita los enlaces químicos, facilitando los procesos de fusión tanto bajo las dorsales por filtración, como en el borde de subducción debido al agua arrastrada. Estudios realizados en los últimos años muestran que los movimientos convectivos del manto son complejos y no siempre se corresponden con los bordes divergentes de las placas. El borde frío de las placas entrando en el manto hasta el límite del núcleo terrestre -zona de subducción- es fácilmente observable a través de las ondas sísmicas. Actualmente se considera que el hundimiento del borde frío de la zona de subducción es el que produce el “tirón” de las placas dando lugar a su desplazamiento y además altera la composición y la dinámica del entorno al liberar el agua atrapada en su interior, provocando el ascenso de materia caliente desde lo más profundo, los “penachos mantélicos”, que al llegar a la superficie (tanto continental como oceánica) crean importante actividad volcánica (ej.: archipiélago de las islas Hawai). La separación de las placas en la zona de los bordes divergentes hace que disminuya la presión sobre las capas del manto subyacente, por lo que este se funde generando un vulcanismo sumamente activo. Es aquí donde se genera la totalidad de la corteza terrestre y se crean las dorsales oceánicas. El desplazamiento de los continentes puede reconstruirse a partir de los registros geológicos a través de diversas técnicas, siendo una de las más utilizadas el paleomagnetismo, que consiste en el estudio del magnetismo que adquirieron las rocas en el momento de su formación. La ■Figura 4-8, muestra las principales placas tectónicas así como las direcciones de empuje.

Fusión húmeda

51

El desplazamiento de las placas, al modificar los ecosistemas, afecta a la distribución de la vida en el planeta y ha tenido una gran influencia en la evolución de las especies:

Motor del ciclo carbonato-silicato, proceso indispensable para el reciclado del CO2 atmosférico, para el

mantenimiento de la fotosíntesis (generación de biomasa y del O2). La colisión de las placas convergentes generó las tierras emergidas, los continentes. La Tierra sin la tectónica de placas seguramente sería un planeta océano. La tectónica de placas regula, en gran medida, los gases de efecto invernadero, especialmente el dióxido de carbono y el vapor de agua, que se liberan a la atmósfera en los planetas cuyo tamaño y energía interna son suficientes para mantener actividad volcánica.

Evidencias de la tectónica de placas: Similitudes de las líneas de costa, particularmente el este de Sudamérica y el oeste de África, evidencia de que los continentes habían estado unidos (■Figura 4-14) para formar el súper-continente Pangea. El mejor encaje se verifica cuando se “unen” los continentes por el talud continental (a unos 2.000 m de profundidad), evitando así la distorsión de la línea de costa por los efectos de la erosión y deposición. Otras evidencias de la deriva continental debida a la tectónica de placas, cuyos detalles podemos encontrar en los textos sobre geología, son: cordilleras de la misma edad y secuencia de rocas de los continentes que en el Carbonífero y Jurásico estuvieron unidas; evidencias glaciares como las capas de till glaciar (sedimentos depositados por lo glaciares) y las estriaciones en los lechos rocosos, que encuentra una explicación con la formación del súper-continente Gondwna (parte meridional de Pangea formada por: Sudamérica, África, Antártida, Australia e India unidas), con el Polo Sur situado en Sudáfrica; evidencias fósiles de flora y fauna comunes, que por sus características solo pueden estar presentes en distintos continentes si en el pasado estuvieron unidos formando Gondwana. Existencia de muchos polos norte magnético (fósiles), que indican la dirección e intensidad del campo magnético de la Tierra en el momento de formación de las rocas, evidencia actual de que hubo deriva continental. Simetría de las anomalías magnéticas (desviaciones respecto a la intensidad media del campo magnético terrestre) a ambos lados de las dorsales oceánicas, debidas a las inversiones magnéticas, que se explican si aceptamos la expansión de las cuencas oceánicas a partir de las dorsales. Corteza oceánica más antigua al separarnos de las dorsales oceánicas, con la misma justificación que el punto anterior. Concordancia de la velocidad de desplazamiento de los continentes, determinada por distintos métodos: bandas de fondo marino a partir de las anomalías magnéticas, espesor de sedimentos, medidas vía satélite con rayos láser. Explicación coherente de la formación de las montañas y las cuencas marinas, del vulcanismo y de la actividad sísmica. Los límites de las placas pueden ser convergentes, divergentes y transformantes. Ejemplos: Convergente oceánico-oceánico: las islas volcánicas Aleutianas, situadas entre el mar de Bering y el océano Pacífico septentrional. Convergente oceánico-continental: Cordillera de los Andes. Divergente oceánica: Dorsal Centro atlántica.

52

Divergente continental: Valle del Rift, África oriental. Transformante: Falla de San Andrés.

Al parecer, dentro del sistema solar, la actividad de la tectónica de placas solo tiene lugar en la Tierra.

La teoría de la tectónica de placas es un concepto unificador, mayoritariamente aceptado, que justifica de forma sencilla importantes procesos geológicos: formación de las montañas, vulcanismo, terremotos…

Ciclo del carbono El ciclo del carbono (■Figura 4-9) representa una conexión de gran importancia entre la geología y la biología. A lo largo de este ciclo se ven implicadas actividades relacionadas con el sostenimiento de la vida en la Tierra y la regulación del cambio climático. Las reservas de carbono directamente utilizables por los organismos se encuentra en forma de dióxido de carbono en la atmósfera (CO2), formando una pequeña parte del aire (0.04 %), y en la hidrosfera, disuelto en las aguas de los mares, ríos y lagos. De esta reserva útil, los seres vivos consumen anualmente un 5 % en el proceso de fotosíntesis, por lo que el anhídrido carbónico se renueva en unos 20 años. La vuelta del carbono a la biosfera se produce a través de la respiración de los seres vivos, proceso en el que se realiza la oxidación de los nutrientes produciendo CO2, vapor de agua y energía. El “peso” de este proceso corresponde mayoritariamente a las plantas y a los organismos del suelo y no a los grandes animales como podría parecer. La recuperación del carbono retenido en la materia muerta, procedente de animales y plantas, la realizan los descomponedores (hongos y micro-organismos) que tienen la capacidad de metabolizar este tipo de materiales.

Otras fuentes de CO2 son la combustión del carbono fósil (derivados del petróleo, hulla, etc.), y los incendios de los bosques.

Proceso de difusión: el CO2 atmosférico se disuelve en el agua marina a través de la superficie de contacto atmósfera-océano, mediante el proceso de difusión. La solubilidad del CO2 en el agua es una función inversa de la temperatura, de modo que en las zonas frías (polares) se produce el paso de CO2 al océano, mientras que en las cálidas (tropicales) parte del CO2 retorna a la atmósfera. El CO2 disuelto es utilizado por los organismos marinos, de forma similar a los terrestres, en procesos de fotosíntesis y nutrición para sus necesidades energéticas y de crecimiento.

53

Ciclo carbonatos-silicatos Transferencia de carbono entre la atmósfera, la hidrosfera y la litosfera (■Figura 4-10).

Proceso de erosión: la lluvia atrapa y arrastra el CO2 atmosférico, muy soluble en el agua en forma de ácido carbónico (H2CO3), que a su vez ataca los silicatos rocosos formando carbonatos, principalmente carbonato cálcico (CaCO3), que finalmente es conducido al mar donde una parte se deposita directamente en el lecho marino, mientras que el resto es asimilada por ciertos organismos marinos (corales, moluscos...) para formar estructuras rígidas (conchas, caparazones, arrecifes coralinos, etc.). Asimismo, estos organismos al morir se hunden y se acumulan en el fondo oceánico donde forman rocas sedimentarias calizas a lo largo de millones de años. Estos sedimentos, tanto los depositados directamente como los generados por la acumulación de cadáveres de los organismos oceánicos, constituyen el 99 % del carbono terrestre. Sin una adecuada forma de recuperación, el proceso de erosión conduciría a la eliminación de la reserva de CO2 en la biosfera y, consecuentemente, a la desaparición de la vida terrestre conocida en un periodo estimado de un millón de años. Es aquí donde desempeña su papel la tectónica de placas, en las zonas de subducción (■Figura 4-10): las placas marinas se sumergen en el manto, donde los efectos combinados de calor interno, la presión y el roce, hacen que los sedimentos superen los 700 ºC liberando el CO2 que contienen y el agua, que los volcanes devuelven a la biosfera.

Lo anteriormente indicado no ocurre, afortunadamente, gracias a que el carbono depositado en los fondos marinos es recuperado a través de la tectónica de placas y del vulcanismo en forma de CO2.

Combustibles fósiles: otra reserva de carbono significativa corresponde a los combustibles fósiles acumulados en el interior de la corteza, formados a partir de grandes masas de organismos animales y vegetales que quedaron atrapados fuera del contacto del oxígeno y transformados en petróleo y carbón mineral bajo los efectos de altísimas presiones y temperaturas.

Efecto invernadero Se trata de un fenómeno que afecta a planetas como Venus, la Tierra, Marte o a exoplanetas [■4-3], donde ciertos gases atmosféricos (vapor de agua, CO2, CH4, N2O…), incluso en pequeñas cantidades, impiden que la energía emitida por estos cuerpos, previamente calentados por su estrella, retorne inmediatamente al espacio, lo que provoca un incremento de temperatura de la atmósfera y de la superficie del planeta, hasta que la energía emitida iguala a la recibida. Los gases que participan en esta dinámica se denominan gases de efecto invernadero.

54

La energía absorbida es devuelta con un cierto retraso, generando un incremento de temperatura, que en el caso de nuestro planeta es esencial para la vida.

La energía solar que alcanza la superficie exterior de la atmósfera terrestre, en un plano perpendicular al eje Tierra-Sol, es de unos 1.364 W/m2, de los cuales un 37 % es reflejado entre la atmósfera, las nubes y la superficie terrestre, valor que recibe el nombre de . Esta radiación está formada por una mezcla de radiaciones con longitudes de onda () entre 200 y 4000 nm (nanómetros): radiación ultravioleta (UV), luz visible e infrarroja (IR). Si esta energía recibida del Sol, la distribuimos “uniformemente” sobre la totalidad de la superficie del planeta, tomaría un valor de unos 341 W/m2, denominado constante solar media [■4-4] (dato de la ■Figura 4-11). La radiación electromagnética recibida es absorbida en mayor o menor grado por el vapor de agua y otros gases de la atmósfera. En un día claro, el 75 % de la energía alcanza la superficie terrestre (al nivel del mar) y está formada en un 49 % de radiación IR, un 42 % de luz visible y un 9 % de luz UV de baja frecuencia, mientras que en un día nublado la atmósfera absorbe mucha más energía, especialmente IR. Por su parte, la energía que alcanza la superficie terrestre también es absorbida o reflejada en distinto grado: el hielo refleja el 80 % de la luz recibida, mientras que los océanos y los bosques absorben más del 90 %. Como consecuencia de la energía absorbida por los planetas (también otros objetos), estos se calientan hasta que la energía reemitida, en forma de radiación IR, iguala a la recibida del exterior (Ver anexo ■D. Cuerpo negro: emisión de energía en función de la temperatura).

En el caso de la Tierra (■Figura 4-11) el estado final de equilibrio se logra manteniendo un salto térmico desde unos -18 ºC (temperatura terrestre sin efecto invernadero), incompatibles con la vida conocida, hasta una temperatura media en una estrecha y confortable horquilla en el entorno de los 15 ºC. Este salto de ¡33 ºC! hace que la mayor parte del agua de nuestro planeta se encuentre en estado líquido.

La radiación UV de alta frecuencia ( < 290 nm), letal para la vida en la superficie terrestre, es absorbida por la capa de ozono de nuestra atmósfera.

55

En la Tierra los gases de efecto invernadero más significativos y su efecto sobre la temperatura son:

Contenido en la atmósfera  ºC

Vapor de agua  1 % 20 Dióxido de carbono 0,035 % 8 Otros 0,01 % 5 Total: 33

Regulación de la temperatura del planeta

El efecto invernadero, a través del ciclo del carbono, actúa como termostato regulador de la temperatura de nuestro planeta:

La temperatura sube  aumenta la vegetación  disminuye el CO2 atmosférico  disminuye el efecto invernadero  la temperatura baja.

La temperatura baja  disminuye la vegetación  aumenta el CO2 atmosférico  aumenta el efecto invernadero  la temperatura sube.

En el sistema solar primigenio la energía emitida por el Sol era un 30 % inferior a la actual, a pesar de lo cual la temperatura media de la Tierra era compatible con el agua líquida. Antiguos sedimentos geológicos, datados en épocas anteriores al desarrollo de la vida en la Tierra, apuntan a concentraciones del CO2 atmosférico unas cien veces superiores a las actuales, proporcionando un fuerte efecto invernadero.

Al parecer, en nuestro planeta, el efecto invernadero ha compensado, desde el principio, las variaciones energéticas del Sol, de modo que la temperatura media de la Tierra fuese compatible con la presencia de agua en estado líquido.

Las evoluciones del contenido en CO2 de la atmósfera a través del efecto invernadero, en sentido contrario de la actividad solar, se han equilibrado mutuamente para mantener la temperatura superficial terrestre en valores compatibles con el agua en estado líquido.

Historia evolutiva del planeta Tierra Los estratos de las rocas y sedimentos, así como los restos fósiles de los organismos contenidos en las capas estratigráficas, son registros a partir de los cuales los geólogos extraen información de lo acontecido en la Tierra a lo largo de su historia. Dada la “habilidad” de la Tierra para borrar los testigos de su pasado, estos registros geológicos son inexistentes o muy escasos para las primeras etapas del planeta y, como es lógico, mucho más abundantes y precisos para los tiempos recientes.

La biosfera hizo evolucionar la atmósfera primigenia, con abundante dióxido de carbono, enriqueciéndola en oxígeno molecular y en el ozono que actúa como escudo protector ante los peligrosos rayos UV.

Dado que la Tierra es un sistema muy complejo, hemos considerado conveniente analizar separadamente los subsistemas básicos que la componen: tierra sólida, atmósfera, hidrosfera y biosfera, cuyas interrelaciones resaltaremos cuando se considere relevante.

56

Tierra sólida El Hádico, Hadeico o Hadeano (Hades, inframundo griego), es un periodo temporal informal que abarca desde el “nacimiento” de la Tierra hace 4.600 Ma, hasta hace 4.000 Ma, cuando ya se había formado la primera corteza sólida del planeta. Fue un periodo evolutivo importante del que apenas se dispone de registros geológicos. Los únicos testigos de esa época son meteoritos y algunas rocas de la Luna, así como los impactos de la época que perduran en otros cuerpos del SS como pueden ser Mercurio o la Luna. Los acontecimientos más significativos del Hádico son el “nacimiento” de la Tierra, la diferenciación del manto y el núcleo, la formación de la Luna y el Bombardeo Intenso Tardío (BIT): “Nacimiento” de la Tierra (4.600 Ma AP). Se estima que nuestro planeta se formó por acreción de planetesimales, constituidos por silicatos y metales, durante unos 30-50 Ma. En los primeros tiempos, nuestro planeta era una inmensa bola de roca semifundida (magma) debido a la energía liberada por los impactos y a la desintegración de los materiales radiactivos, abundantes en la materia primitiva. Diferenciación del manto y del núcleo (4.600-4.500 Ma AP). Se supone que durante los primeros 100 Ma de la historia terrestre, la gravedad forzó la migración de los metales pesados, hierro y algo de níquel, a través de los silicatos, formando un núcleo de hierro diferenciado.

El núcleo de hierro del planeta, sólido en su interior y “gelatinoso” en la parte exterior, genera por efecto dinamo el beneficioso campo magnético que protege a nuestra atmósfera de ser erosionada por las partículas cargadas del viento solar (opinión controvertida).

Formación de la Luna (4.500 Ma AP). Según la Teoría del Gran Impacto, la Luna se formó por el choque tangencial entre la Tierra y un del tamaño de Marte, denominado Tea (o Theia), a una velocidad de unos 11 km/s. Una de las hipótesis aceptada es que Tea se formó y acreció en el punto L4 de Lagrange [■3-5] respecto a la Tierra, hasta que la ubicación se hizo inestable debido al incremento de masa, dando lugar a posibles oscilaciones caóticas en torno al punto L4, hasta que, inevitablemente, acabó impactando con la Tierra cuando ya ambos planetas se habían diferenciado en manto y núcleo. La colisión vaporizó y despidió gran cantidad de material al espacio, más de dos masas lunares, procedente en un 80 % del manto del impactor y el resto del manto terrestre. Parte del material despedido formó un disco a unos 25.000 km del centro terrestre (algo más allá del Límite de Roche), agrupándose al cabo de 1 a 100 años ponara formar la Luna. Por su parte, el núcleo del impactor se unió al núcleo de la Tierra, incrementando la masa metálica de este último y la densidad media terrestre. Las consecuencias de la formación de la Luna para el planeta Tierra son:  Estabilización del ángulo del eje de rotación de la Tierra (23.5 º), y por lo tanto estaciones periódicas. Sin Luna, y debido a las influencias de Júpiter y Saturno, el eje de giro oscilaría de forma caótica hasta los 50º (eventualmente hasta 85º), con grandes perturbaciones en la duración de los días y especialmente del clima.

Sin Luna, la vida bacteriana estaría sometida a mayores riesgos y el desarrollo de civilizaciones avanzadas es difícilmente imaginable.

57

Dado que la Luna se está alejando de la Tierra a una velocidad de unos 4 cm/año, dentro de 2000 Ma ya no podrá estabilizar el eje de rotación aunque, previsiblemente mucho antes, el Sol ya habrá evaporado nuestros mares.

 Gran núcleo metálico (material añadido del impactor), con capacidad para generar un importante campo magnético que, como hemos visto, protege al planeta de las partículas solares y cósmicas.  En los primeros tiempos tras la formación de la Luna, esta se situaba (siempre según modelos), a unos 25.000 km de distancia (frente a los 385.000 km actuales), generando un efecto marea sobre la Tierra mucho mayor que hoy en día, con estiramientos y desplazamientos de la superficie terrestre del orden de un kilómetro (en vez de unos 20 cm actuales), lo que unido a la mayor velocidad de giro de la Tierra (días de unas 6 horas) habrá contribuido a alargar el tiempo de permanencia de la superficie de la tierra fundida después del impacto durante un periodo de 1 Ma.

Se intuye que un suceso como el que dio origen a la Luna es altamente improbable: choque con un cuerpo muy masivo con el ángulo adecuado para que no desbarate al planeta y que eyecte la cantidad necesaria de materia más allá del límite de Roche para que finalmente pueda consolidarse un satélite de gran tamaño.

Bombardeo intenso tardío (BIT) (4000-3800 Ma AP): en este periodo, los cuerpos del SS interior sufrieron los violentos y frecuentes impactos de grandes asteroides o cometas (■Capítulo 3). Resaltamos aquí que los primeros indicios de vida en nuestro planeta (■Capítulo 5) se remontan a hace unos 3700 Ma, fecha “cercana” al final del BIT (tal vez los impactores aportaron parte de la materia prima para la vida…). La escasez de impactos detectados en la superficie terrestre (solo unos 180 muy discutidos), se achaca a la capacidad de “borrado de huellas” de nuestro planeta a través de la erosión y la intensa actividad geológica. Minerales más antiguos (4.400 Ma AP): el estudio científico de los zircones [■4-5], minerales más antiguos encontrados en Australia Occidental (Murchison), revela que los continentes y el agua líquida, ingrediente clave para la habitabilidad del planeta, ya existían hace unos 4.400 Ma, poco después de la formación de la Tierra [■4-6]. Esta sería la explicación más sencilla, al señalar que el planeta, desde su formación, entró en un régimen dinámico que aún continúa. Rocas más antiguas (3.800 Ma): se han detectado rocas de hace unos 3.800 Ma (eón Arcaico), en Minnesota (EUA), Groenlandia y Sudáfrica, de las cuales algunas son metamórficas, lo que demuestra que se habían formado antes. También se está seguro de la presencia al principio del Arcaico de varios núcleos de continentes graníticos, que sin duda fueron meteorizados y erosionados dando lugar a rocas sedimentarias. Posteriores colisiones de placas y el calor de los plutones [■4-7] formarían las rocas metamórficas. De lo que también están seguros los científicos, es de la aridez e inhabitabilidad de estos continentes para los organismos modernos, con la posible excepción de las bacterias. ¿Tectónica de placas en el Arcaico? La mayoría de los geólogos están convencidos de que en el eón Arcaico (4.000-2.500 Ma AP) ya existía actividad de tectónica de placas (analizaremos este concepto más adelante), periodo en el que la energía interna del planeta era muy superior a la actual debido al calor residual del proceso de acreción y también a la descomposición de los elementos radiactivos, más abundantes en aquella época. El magma se generaba más rápido en los límites de las placas litosféricas y estas se desplazarían más aprisa dando lugar a la acreción de los continentes al chocar unas placas con otras. Se estima que al final del Arcaico podría existir en torno al 40 % de la actual corteza continental. Las rocas arcaicas más comunes son el granito y el gneis [■4-8].

58

Formaciones de hierro bandeado (BIF: Banded Iron Formation) Las formaciones de hierro bandeado son rocas sedimentarias constituidas por capas delgadas alternas de sílex y óxidos de hierro: hematites (Fe2O3) y magnetita

(Fe3O4). El hierro se disuelve en el agua y puede acumularse en el mar. Esto es lo que debió de ocurrir en el Arcaico, cuando probablemente habría poco oxígeno libre en la atmósfera (quizás solo el procedente de la fotodisociación del agua). Sin embargo, ya en el Proterozoico, se formaron grandes cantidades de óxidos, no solubles, que se precipitaron como rocas sedimentarias (con un mínimo de un 15 % de hierro), formadas por capas alternas de hierro y sílex. Las formaciones del Proterozoico se achacan a un incremento sustancial del oxígeno en el agua, liberado por cianobacterias en procesos de fotosíntesis. La alternancia de bandas se explica, o bien por fluctuaciones en la cantidad de cianobacterias (debidas a la contaminación del agua por exceso de oxígeno), o bien por cambios estacionales en la temperatura del agua. Existen dataciones de formaciones de hierro bandeado tanto del Arcaico como en el Proterozoico. Las BIF arcaicas son cuerpos lenticulares de unos cuantos metros de ancho y de espesor, mientras que las BIF del Proterozoico son mucho más gruesas y cubren grandes extensiones que seguramente se depositaron en ambientes marinos de aguas someras. Estas diferencias se achacan a que al principio del Arcaico, hace unos 3800 Ma, había muy poco oxígeno disuelto en el océano, mientras que hace unos 2.300 Ma hubo un aumento sustancial de bacterias fotosintéticas liberando gran cantidad de oxígeno a los océanos -conocido como Gran Oxidación-, dando lugar a las grandes BIF datadas de hace unos 1.800 Ma. A pesar de todo, se estima que el porcentaje de oxigeno en la atmósfera de hace 2.800 Ma no superaba el 1-2 % del actual, debido, en parte, a que era consumido en las BIF a medida que era liberado por las bacterias (véase: evolución del oxígeno en la Tierra). Debido a que el oxígeno era tóxico para los organismos anaerobios de la época, seguramente la Gran Oxidación constituyó la primera gran extinción masiva de nuestro planeta.

Las formaciones de hierro bandeado (BIF), existentes desde el Arcaico, resultantes de la oxidación del hierro disuelto en el agua del mar, al entrar en contacto con el oxígeno generado por bacterias en procesos de fotosíntesis, constituyen una prueba de la existencia de vida bacteriana en aquella época.

Súpercontinentes Antes de entrar el estudio de los supercontinentes [■4-9], debemos de recordar que el modelo actual de la tectónica de placas, con la apertura y cierre de cuencas oceánicas, es un proceso que seguramente se estableció en el Proterozoico inferior [■4-10]. Puede que los súpercontinentes hayan existido desde el Arcaico pero no se dispone de evidencias de ello. A lo largo del Proterozoico (2.500-540 Ma) aparecen los grandes cratones [■4-11] (escudo + plataforma), que por acreción rápida darán lugar a la formación de las plataformas continentales, a los ciclos de súpercontinentes y a la actividad orogénica (formación de montañas). La ausencia de fósiles con partes duras (caparazones, conchas…) y de registros paleomagnéticos fiables, hacen que la determinación de los movimientos continentales del Arcaico sea complicada. 59

El primer supercontinente que reconocen los geólogos es Rodinia, que se formó hace unos 1.300-1.100 Ma, permaneciendo como un gran bloque durante unos 450 Ma, para acabar fragmentándose hace unos 750 Ma, desarrollando una intensa actividad volcánica debido a desplazamientos magmáticos de la litosfera terrestre. Los fragmentos de Rodinia volvieron a unirse hace unos 650 Ma formando el supercontinente Pannotia. A principios de la Era Paleozoica (650-250 Ma) había seis continentes principales dispersos alrededor del globo en latitudes bajas tropicales, permitiendo la libre circulación del agua entre cuencas oceánicas.

Formación y fragmentación de Pangea Pangea, el último súper-continente, existió al final de la era Paleozoica y a comienzos de la Mesozoica. Se formó hace unos 300 Ma por el desplazamiento y colisión de las placas tectónicas. Un enorme océano llamado Panthalasa rodeaba Pangea y se extendía de polo a polo. La formación de esta gran masa de tierra tuvo consecuencias para el medioambiente terrestre, generando condiciones áridas y semiáridas que se extendieron por Pangea. Las cadenas montañosas producidas por las orogenias eran lo suficientemente altas para formar zonas de sombras pluviométricas que bloqueaban los vientos húmedos, dando lugar a zonas muy secas, similares a las creadas actualmente por las montañas de los Andes sudamericanos. Hace unos 200 Ma Pangea comenzó a fraccionarse y a dispersarse, proceso que continúa actualmente. La fracturación de este supercontinente fue el acontecimiento más relevante de la era Mesozoica, modificando los patrones de circulación oceánica y climática, afectando a las biotas tanto marinas como terrestres. Procesos más significativos a partir de la formación de Pangea:

. Erupciones masivas en Siberia hace  250 Ma, produciendo enormes flujos de basalto durante miles de años, que cubren actualmente unos 2 millones de km2 y que en su momento pudieron alcanzar los 7 millones de km2. Este evento constituye una de las hipótesis favoritas para la Gran Extinción Masiva del Pérmico-Triásico (■Capítulo 5), la mayor extinción de todos los tiempos, con la desaparición del 95 % de las especies marinas y el 70 % de los vertebrados terrestres. . Durante el Jurásico (205-135 Ma AP) comienzan a separarse los continentes que darán lugar a la formación de la Cuenca Atlántica. . Durante el Cretácico (135-65 MaAP) se fraccionaron los continentes. . En el Paleógeno (65-23,5 MaAP) los continentes alcanzan una disposición muy cercana a la actual y se comienza a formar la capa de hielo de la Antártida. . En el Neógeno (23,5-1,8 MaAP) se creó la capa de hielo en el Ártico y se formó el Istmo de Panamá quedando unidos los bloques del norte y sur de América.

60

Grandes glaciaciones Una glaciación es un periodo de larga duración durante el cual baja la temperatura global del clima terrestre generando una expansión del hielo continental de los casquetes polares y los glaciares. Las grandes glaciaciones seguramente han generado o han coincidido con extinciones que en algunos casos se pueden clasificar como masivas. Los depósitos denominados tillitas [■4-12] muestran estratos de diferentes edades, pero con características similares, como rocas estriadas o superficies de lecho de roca pulida y acanalada. A través de estos depósitos parece que ha habido al menos cuatro episodios de glaciaciones globales:

 Glaciación Huroniana (2.400-2.100 Ma AP).  Glaciación “Tierra bola de nieve” (750-580 Ma AP).  Glaciación menor Andeana-Sahariana (460-430 Ma AP)  Glaciación actual, que comenzó hace 40 Ma, se intensificó hace 3 Ma y finalizó hace unos 10.000 años. Comentamos las dos primeras, por ser las más significativas:

Glaciación Huroniana (2.400-2.100 Ma) Hipotéticamente las más antigua, con la presencia de depósitos de tillitas, aproximadamente de la misma edad, en EEUU, Australia y Sudáfrica. Se considera que esta glaciación fue desencadenada por la significativa liberación de oxígeno a la atmósfera por las cianobacterias, hace unos 2400 Ma, generando una fuerte disminución del efecto invernadero por doble causa:  Disminución del número de organismos anaerobios (primera extinción masiva), que generaban una buena parte del metano atmosférico (los primeros organismos -anteriores a los estromatolitos- realizaban fotosíntesis anaerobia, en la que no se generaba oxígeno).

 Rápida sustitución del metano (CH4) de la atmósfera, por dióxido de carbono (CO2), debido a la oxidación del metano a dióxido de carbono en presencia de oxigeno molecular y radiación UV. Téngase en cuenta

que el efecto invernadero del CO2 es unas 30 veces inferior al del CH4.

Glaciación “Tierra bola de nieve” (750-580 Ma) Periodo señalado por la presencia de depósitos glaciares existentes en todos los continentes, excepto Australia. Se estima que a lo largo de este espacio de tiempo se han sucedido varias glaciaciones globales (al menos 4 eventos), de diferentes magnitudes y por distintas causas, en las que los continentes y los océanos quedaron cubiertos por gruesas capas de hielo por periodos en torno a la decena de millones de años y a unas temperaturas que seguramente alcanzaron valores medios de -50 ºC. Se piensa que el impacto sobre la biosfera de unas condiciones tan extremas y duraderas pudo poner en riesgo de extinción la vida sobre el planeta. El término “Tierra bola de nieve” se suele referir de forma genérica a estos periodos de glaciación global, y no solo al evento de hace 750 Ma, durante los cuales la Tierra navegaría en torno al Sol como una inmensa bola de nieve (de ahí la denominación de estas glaciaciones). No hay consenso científico sobre los mecanismos de entrada y de salida de estas situaciones extremas. Algunos geólogos, en base a distintas interpretaciones de los registros geológicos, consideran que las condiciones no fueron tan extremas y que podrían asimilarse a la glaciación que dio paso al Holoceno (100.000-10.000 a AP).

61

Entre las causas de esta glaciación figura:

 Disminución de la radiación solar a causa del polvo atmosférico generado por la intensa actividad volcánica que ocasionó la fractura del supercontinente Rodinia.  Distribución mayoritaria de la masa continental en la zona ecuatorial, aumentando el albedo terrestre en la zona de mayor irradiación y menor nubosidad.  Los fenómenos anteriores unidos al mecanismo de realimentación negativa y descontrolada del albedo del hielo. Los modelos indican que cuando se alcanzan los -50 ºC la realimentación desbocada del hielo puede provocar la glaciación global. ¿Por qué no se extinguió la vida? En aquella época la vida estaba formada por microorganismos acuáticos. Se estima que algunas especies pudieron sobrevivir porque la congelación lenta del agua produce una capa de hielo muy transparente, y la escasa luz que lograba atravesarla era suficiente para sostener al primer eslabón de la cadena trófica. Quizás también la vida pudo sostenerse en los ecosistemas de las dorsales oceánicas que no dependen de la luz solar y que seguramente no fueron perturbadas por la glaciación.

La salida del círculo vicioso de las glaciaciones se atribuye a los volcanes. Estos continúan emitiendo CO2, que se acumula en la atmósfera al no poder reciclarse en unos océanos gélidos, cubiertos por una gruesa capa de hielo (■Figura 4-15), pudiendo alcanzar una concentración hasta 350 veces más alta que la actual, valor estimado como necesario para compensar una radiación, quizás, un 6 % inferior a la que tenemos en estos momentos. Esto hizo que el efecto invernadero remontase, y que subiesen las temperaturas hasta conseguir que los océanos comenzasen a descongelarse. Era imprescindible no bajar de -80 ºC en los polos, temperatura a partir de la cual todo el CO2 se habría precipitado en forma de hielo seco (como en Marte), impidiendo alcanzar, de forma quizás irreversible, el efecto invernadero necesario para salir de la glaciación. Glaciación actual Comenzó hace unos 40 Ma con la expansión de una capa de hielo en la Antártida. Se amplificó hace unos 3 Ma (Plioceno) y continuó durante el Pleistoceno, finalizando hace unos 10.000 a, por lo que actualmente nos encontraríamos en un periodo inter-glacial.

Atmósfera La atmósfera, capa gaseosa que envuelve la Tierra, ha experimentado importantes evoluciones a lo largo de la historia, unas de origen geológico, como la disolución del CO2 en los océanos, y otras de origen biológico, como la generación del O2 en la fotosíntesis.

62

Si nuestro planeta es el “modelo” a buscar, la atmósfera es nuestra “cara” visible desde el exterior, y por tanto es también el “aspecto” de lo que quizás deberíamos de buscar en otros mundos, pero no solo el aspecto actual, sino también el que tuvo en el pasado primigenio, cuando nuestro planeta reunía las condiciones adecuadas para que la vida pudiese surgir.

Atmósfera primigenia, evolución Geólogos y astrofísicos estiman que la atmósfera primitiva era muy “pesada” (quizás 100 bar), formada por gases de origen volcánico, cuya composición se supone que era similar a la de los volcanes actuales: en su mayoría vapor de agua (H2O) y dióxido de carbono (CO2), y cantidades menores de dióxido de azufre (SO2), nitrógeno (N2), así como pequeñas cantidades de hidrógeno (H2) -elemento que acabaría fugándose al espacio exterior- y monóxido de carbono (CO). Es probable que las reacciones químicas entre los gases de los volcanes generasen sulfuro de hidrógeno (H2S), amoniaco (NH3) y metano (CH4), aunque estos dos últimos componentes podrían haber sido descompuestos rápidamente por la radiación ultravioleta del Sol, al no disponer de la capa protectora de ozono en aquella época. Por sus componentes, esta atmósfera primigenia sería ligeramente reductora y de color rojizo.

Hay consenso científico sobre la ausencia total o casi total de oxígeno en la atmósfera primigenia, ya que este elemento impediría la formación de la vida primigenia oxidando las complejas e incipientes moléculas prebióticas, descomponiéndolas e inutilizándolas para su evolución.

El dióxido de carbono atmosférico fue disminuyendo progresivamente, a lo largo de millones de años, al quedar disuelto en las aguas oceánicas y atrapado en las rocas sedimentarias, aumentando así el peso porcentual del nitrógeno. Antes de la diferenciación del núcleo, el planeta carecía de campo magnético y, por lo tanto, sin escudo protector. El viento solar, especialmente los protones, seguramente podían erosionar la atmósfera en formación impidiendo la acumulación de gases. Una vez establecida la magnetosfera (hace más de 4500 Ma), los gases procedentes del vulcanismo comenzaron a acumularse (proceso de desgasificación). Se admite que los gases volcánicos del Arcaico y del Proterozoico eran similares a los actuales (ya que las lavas conservadas del Arcaico también son similares a las actuales), gases que se acumularon rápidamente en la atmósfera dado que el vulcanismo era muy abundante en la época.

En resumen, la atmósfera primigenia era rica en CO2 y no contenía nada -o solo trazas- de O2, y por lo tanto tampoco contenía ozono (O3), ya que esta molécula se forma a partir del O2.

Historia del oxígeno

Los depósitos sedimentarios del Arcaico, conteniendo pirita (FeS2) y uraninita (UO2) fácilmente oxidables, señalan una atmósfera pobre en oxígeno libre. Sin embargo las rocas del Proterozoico, como ya hemos visto, presentan bastante hierro oxidado, mostrando que la atmósfera de este eón ya tenía algo de oxígeno. La generación de oxígeno atmosférico se realiza por medio de dos procesos (■Figura 4-16): la disociación fotoquímica del agua y la fotosíntesis.

63

La disociación fotoquímica es un proceso a través del cual la radiación ultravioleta disocia el vapor de agua liberando oxígeno (O2) e hidrógeno (H2). A partir del oxigeno liberado se forma ozono (O3) que auto-limita la disociación del agua, por lo que seguramente este es un proceso que no genera más del 2 % del nivel de oxígeno actual. La fotosíntesis es mucho más importante en la liberación de oxígeno a la atmósfera como producto de desecho de su proceso metabólico, pero, obviamente, este proceso no pudo desarrollarse hasta que no evolucionaron los organismos que realizan este proceso.

Los organismos fotosintéticos combinan CO2 y H2O para formar la biomasa que necesitan. Las formaciones de hierro bandeado muestran que este proceso ya existía hace unos 3.500 Ma, sin embargo el nivel de O2 en la atmósfera al final del Arcaico (2.500 Ma AP) no superaba el 1 % del nivel de oxigeno actual. Las abundantes formaciones de hierro bandeado del Proterozoico muestran que la actividad fotosintética había sido importante, haciendo que el nivel de oxígeno en la atmósfera se incrementase hasta alcanzar el 10 % del valor actual, pero se estima que el 21 % actual no se alcanzó hasta hace unos 400 Ma, ya bien entrada la Era Paleozoica. Comentamos algunas reflexiones sobre registros geológicos, esperando que nos acerquen a la verdadera historia evolutiva del O2 en nuestro planeta: Si aceptamos que los estromatolitos australianos de hace 3.500 Ma eran cianobacterias, esto significaría que en aquella época tan temprana ya se estaba liberando oxígeno fotosintético a la atmósfera. Sin embargo, las evidencias geológicas parecen indicar que la presencia de oxígeno atmosférico, en cantidad apreciable, no se produjo hasta hace solo unos 2.500 Ma. Una posible explicación es que el oxígeno liberado por las cianobacterias del Arcaico haya podido quedar atrapado en las formaciones de hierro bandeado (BIF), depósitos de cientos de km de extensión que almacenan enormes cantidades de oxígeno en forma de óxido de hierro, que ha precipitado en aguas someras costeras (cercanas a las cianobacterias que estaban liberando el oxígeno). Una vez agotado el proceso de oxidación del hierro oceánico pudo comenzar la acumulación de oxígeno en la atmósfera, momento crucial para la evolución del planeta, que vivió a partir de entonces uno de los episodios importantes de su historia. Uno de los mejores indicadores de la presencia de oxígeno es el hierro, que además es un elemento muy abundante. Los suelos antiguos no muestran signos de oxidación hasta hace 2.300 Ma, indicación de falta de oxígeno libre en la atmósfera antes de esa fecha.

64

Otro indicador de la aparición del oxígeno en la atmósfera es el fraccionamiento isotópico no biológico del azufre, producido por la radiación UV que atraviesa la atmósfera en ausencia de una capa protectora de ozono (generada a partir del oxígeno atmosférico). Efectivamente, las rocas sedimentarias con minerales de azufre de hasta 2.470 Ma presentan este fraccionamiento, mientras que ya no se aprecia a partir de rocas con 2.320 MA (Sudáfrica). Esto se considera una buena prueba de que hasta hace unos 2.400 Ma el nivel de oxígeno en la atmósfera debía de ser realmente bajo. Con los datos actuales es muy aventurado decir cuando y como se formó el oxígeno y su incorporación a la atmósfera, si bien los indicios de aumento en la transición al Proterozoico parecen claros (hace 2.500 Ma).

Atmósfera actual, capas La atmósfera actual se extiende hasta los 10.000 km de altura sobre la superficie de los océanos, si bien el 75 % de la masa gaseosa se encuentra en los primeros 11 km. Esta capa protege al planeta de los impactos de aerolitos (capa densa de los primeros km a partir de la superficie terrestre) y de las radiaciones UV (capas altas). Los constituyentes actuales más significativos son:

 Nitrógeno ------78 %  Oxígeno ------21 %  Argón ------0,9 %  Dióxido de carbono --- 0,04 %  Vapor de agua ------0-4 %

 Trazas de helio, neón, kriptón, metano (CH4), ozono (O3), óxidos de azufre y nitrógeno.

La importancia del CO2 actual, a pesar de su pequeña participación en la composición atmosférica, se debe a que constituye la materia prima de la que estamos formados todos los organismos y también a su contribución en el efecto invernadero. Troposfera: primera capa sobre la superficie terrestre con un espesor desde 6 km en los polos hasta unos 18 km en el ecuador (debido a la rotación terrestre). Es la zona de los fenómenos meteorológicos. La temperatura disminuye con la altura hasta los -60 ºC en la parte superior. Estratosfera: capa muy enrarecida que se extiende desde la troposfera hasta los 50 km de altitud. La estratosfera incluye la capa de ozono, denominada también ozonosfera (15-40 km), que absorbe el 98 % de la radiación ultravioleta de alta frecuencia del Sol (UVC). Los fotones en un cierto rango de longitudes de onda catalizan la disociación del oxígeno molecular (O2) en oxígeno atómico (O), que se combina con el oxígeno aun no disociado para formar ozono (O3):

O2 + radiación UV  O + O; O + O2  O3 Este proceso hace que la temperatura de la estratosfera suba desde los -60 ºC en la parte baja hasta los -5 ºC en la cima.

65

Mesosfera: entre los 50 y 85 km. En esta capa las naves que regresan del espacio empiezan a sentir el freno aerodinámico y también aquí se producen las estrellas fugaces, pequeños meteoritos que se desintegran en la capa superior –termosfera-. La temperatura disminuye con la altura pudiendo alcanzar los – 90 ºC en la parte superior. Es la capa más fría de la atmósfera. Termosfera (o ionosfera): entre los 85 y los 690 km. En esta capa se desintegran la mayoría de los meteoroides. Ionizada permanentemente por las radiaciones solares de alta frecuencia muy energéticas (rayos γ y rayos X), refleja las ondas de radio emitidas desde la superficie terrestre, permitiendo la transmisión a distancia. La temperatura aumenta con la actividad solar, pudiendo alcanzar los 1.500 ºC, valor con poco significativo energético debido a la baja densidad del medio. En las regiones polares las partículas cargadas del viento solar son atrapadas dando lugar a las auroras. Exosfera: última capa de la atmósfera, donde los átomos ligeros se escapan hacia el exterior (unos 3.000 g/s de hidrógeno y 50 g/s de helio).

Sin el filtro protector de la ozonosfera no sería posible la vida en la superficie terrestre.

Un astrobiólogo extraterrestre que analizase nuestra atmósfera llegaría a la conclusión de que se trata de de

un planeta en el que probablemente exista vida: la coexistencia de gases reducidos (CH4) con otros

oxidantes (O2, O3) indican un desequilibrio químico que solo es posible si alguno de ellos o ambos se está reponiendo continuamente.

Funciones “biológicas” de la atmósfera . Escudo protector contra los impactos de cuerpos espaciales de alta velocidad. . Filtro de la radiación solar UV, que absorbe en un 90 %, evitando así su acción mutágena.

. Efecto invernadero, fenómeno por el cual ciertos gases de las atmósferas planetarias (H2O, CO2,…), absorben parte de la energía infrarroja reemitida por la superficie del planeta (continentes y océanos), que previamente ha sido calentada por la radiación solar directa (función similar a la de un invernadero). . “Efecto viento”, debido a las corrientes convectivas y al efecto Coriolis, a través del cual se generan flujos de grandes masas de aire atmosférico y transferencia de energía entre regiones, suavizando así valores extremos y peligrosos en las temperaturas. . Participa en los ciclos biogeoquímicos para la renovación y descomposición de elementos esenciales (carbono, oxigeno, nitrógeno…), necesarios en grandes cantidades para los organismos.

Hidrosfera Entre los planetas rocosos del Sistema Solar, la Tierra es el único que en la actualidad contiene abundante agua líquida en su superficie. Mercurio (y la Luna) es demasiado pequeño para retener agua superficial y Venus demasiado caliente. Marte es posible que disponga de agua líquida en el subsuelo, pero nos consta que dispone de agua congelada en su superficie y trazas en forma de vapor en la atmósfera.

66

La totalidad del agua terrestre forma la hidrosfera, sistema formado por el agua que se localiza bajo y sobre la superficie del planeta. Se estima que un 97 % se encuentra en los océanos, en torno al 2 % se halla congelada en los casquetes polares y los glaciares, y menos del 1 % restante está en la atmósfera, aguas subterráneas, lagos y ciénagas. Solo el 0,0001 % del agua se encuentra en cauces de ríos y arroyos, sin embarco este “pequeño” caudal constituye el principal agente geológico en la generación de cambios en la superficie de nuestro planeta. El agua de los océanos cubre el 71 % de la superficie terrestre, con una profundidad media de unos 3500 metros y una profundidad máxima de unos 11.000 metros en la fosa de las Marianas. Si la Tierra fuese una esfera perfecta el actual volumen de agua, uniformemente distribuido en toda la superficie, alcanzaría una profundidad de unos 3.000 m, valor que se denomina equivalente global del agua (EGA).

Origen del agua en la Tierra Según la teoría de la formación del SS, la temperatura en el interior de la línea de hielo [■4-13] del disco protoplanetario era demasiado alta para que los materiales volátiles se condensasen en esas regiones. Esto deja sin explicación la formación de las atmósferas de los planetas telúricos así como la de los océanos (real en la Tierra y posibles en Venus y Marte). Como solución inicial, se ha propuesto que las materias volátiles habrían sido aportadas al interior del sistema solar por asteroides o por comentas (formados por hielo y roca), sin embargo: La aportación del agua por cometas procedentes de la Nube de Oort o del Cinturón de Kuiper, ha sido “descartada” por dos razones: Su procedencia lejana implica alta energía cinética en las cercanías del Sol (2ª ley de Kepler), por lo que los impactos a velocidades superiores a los 20 km/s (s/modelizaciones), harían que sus volátiles se dispersaran por el espacio (y tal vez arrastrasen a los posibles volátiles existentes). Los análisis de la relación D/H (deuterio/hidrógeno), que se pudieron realizar en tres cometas de estas procedencias (Halley, Hale-Bopp y Hyakutake), revelaron unas relaciones isotópicas muy superiores en estos cometas respecto a las del océano terrestre (2/1). Esta información han sido reafirmada con los análisis realizados por la misión “” sobre el cometa 67P/Churyamov-Gerasimenko, dados a conocer el pasado 07/12/2014 [■4-14]. La solución aceptada actualmente es el agua de nuestro planeta procede de los asteroides condrítico- carbonáceos de la zona exterior del Cinturón Principal de Asteroides: Por su origen cercano, no se aceleran demasiado en su viaje al interior del SS. La relación D/H del agua de las condritas analizadas (128 a 180 · 10-6) es comparable a la de nuestros mares (149 · 10-6). Según Kathrin Altwegg (investigadora de la Universidad de Berna) y sus colegas, en una conferencia de prensa acerca de de los datos obtenidos por la misión Rosetta (diciembre 2014): “Los asteroides hoy tienen muy poca agua, está claro. Pero probablemente no fue siempre así… El bombardeo intenso [en el Sistema Solar] fue hace unos 3.800 millones de años y en aquel tiempo los asteroides bien pudieron tener mucha más agua que hoy. Han vivido en las proximidades del Sol durante 4.600 millones de años, así que, sin duda,

67 han perdido agua, pero pudieron tener mucha más de la que tienen ahora”. Dado que los impactos se continuaron produciendo, la acumulación de agua continuó a lo largo de la historia del planeta, aunque a un ritmo cada vez menor, hasta alcanzar los insignificantes valores actuales. Otra posible fuente del agua oceánica son los volcanes, a través del proceso de desgasificación, aunque se desconoce la importancia de este proceso en el volumen total. Las rocas sedimentarias más antiguas (3850 a 3760 Ma AP) se detectaron en Isua-Groenlandia, lo que constituye una primera prueba directa de hidrosfera líquida y fondos marinos con sedimentos generados por erosión de antiguos continentes. Esto significa que tras un periodo de enfriamiento de unos 900 Ma, alargado por el BTI, las capas superficiales de magma se solidificaron formando pequeños continentes y el agua se condensó creando los océanos.

Como hemos visto, la Tierra es un complejo sistema dinámico, sometida a continuos cambios debidos a las interacciones entre diversos subsistemas (atmósfera, hidrosfera, biosfera, litosfera, manto y núcleo), responsables en su conjunto de la evolución y diversificación de la vida que conocemos. Para la búsqueda ordenada de vida en otros mundos, es imprescindible el conocimiento previo de nuestro planeta y su dinámica, puesto que nos permite establecer lo qué queremos buscar.

[■4-1] En geología el año se convierte en la unidad de tiempo más breve. La inclinación del eje de rotación provoca cambios que dejan una huella “anual” en el planeta: anillos de los árboles; capas de hielo de la Antártida…, datos que se utilizan para datar hechos con antigüedad de algunos miles de años. [■4-2] La diferenciación del núcleo, es el proceso mediante el cual se produce la “caída” de los materiales más pesados hacia el centro del planeta, a través del manto viscoso, transformando, por rozamiento, la energía potencial en calor. [■4-3] Exoplanetas: objetos como los planetas del Sistema Solar, pero que orbitan en torno a otras estrellas o remanente de estrella (enana blanca o estrella de neutrones), y con una masa inferior a 14 masas de Júpiter. [■4-4] Los 1364 W/m2 recibidos del Sol (sobre un plano perpendicular a la dirección Tierra-Sol), arrojan una potencia total de [1364 · (·r2)] W recibidos por nuestro planeta (r = radio terrestre), valor que “repartido” entre toda la superficie terrestre (4··r2), arroja un valor medio de [1.364 · (·r2)/(4··r2)] = (1.364/4) W/m2 = 341 W/m2. [■4-5] El zircón es un silicato de zirconio de fórmula química ZrSiO4, de color variable. Son muy adecuados para la datación radiactiva, porque admiten al uranio en su red radiactiva, pero rechazan al plomo, garantizando así la ausencia de plomo en la formación inicial del zircón. [■4-6] Science, noviembre 2005, Mark Harrison, Director, Research School of Earth Sciences]. [■4-7] Los plutones son cuerpos ígneos, intrusivos, que se forman cuando el magma cristaliza y se enfría en el interior de la corteza terrestre. [■4-8] Se denomina gneis a una roca metamórfica compuesta por los mismos minerales que el granito (cuarzo, feldespato y mica) pero con orientación definida en bandas, con capas alternas de minerales claros y oscuros.

68

[■4-9] Un continente es una masa de tierra formada por corteza granítica, con gran parte de su superficie por encima del nivel de los océanos. Se denomina súpercontinente a la agrupación de la gran mayoría de la masa continental formando un solo continente. Ejemplo: la formación del súper-continente Pangea que existió al final de la Era Paleozoica. [■4-10] El testigo más antiguo de la formación de supercontinentes nos lo aporta una ofiolita que se encuentra en Jormua (Finlandia), con una antigüedad de unos 1970 Ma (Proterozoico inferior), en la que hay evidencias de bordes de placas convergentes. Las ofiolitas son asociaciones de rocas constituyentes de la corteza y litosfera oceánica que aparecen dispuestas en la corteza continental como consecuencia de un fenómeno llamado obducción (proceso de emplazamiento de ofiolitas sobre corteza continental). [■4-11] Cratón es una masa continental que ha alcanzado la rigidez suficiente en un pasado geológico lejano, por lo que no ha sufrido fragmentaciones ni deformaciones desde entonces. [■4-12] Las tillitas son depósitos de rocas no estratificados, de origen glaciar, formados por partículas de tamaños muy diferentes. [■4-13] La línea de hielo en el SS primigenio se encontraba a unas 4 UA con la estrella recién formada. En la actualidad se sitúa a unas 2,7 UA, como indican las evoluciones de las colas cometarias en su acercamiento al Sol. [■4-14] En una comunicación del 07/12/2014 de la de la Agencia Europea del Espacio (ESA), los científicos anuncian “… la firma química del H2O captada por la nave espacial Rosetta, que acompaña desde agosto al cometa 67P/Churyamov-Gerasimenko, muestra una notable diferencia con la del contenido de los océanos terrestres … Los datos tomados por el Rosina (instrumento a bordo de Rosetta) muestran que la proporción deuterio/hidrógeno en la envoltura gaseosa del 67P/Churyamov-Gerasimenko es tres veces más alta que en el agua de la Tierra y muy superior a la de otros cometas similares”.

69

70

■ 5. Vida en la Tierra: origen y evolución

Debemos de comenzar diciendo que, al día de hoy, desconocemos lo que es la vida y que quizás nunca lleguemos a saberlo. Tampoco tenemos la certeza de cómo pudo surgir, aunque sobre esto hay algunas hipótesis, cuyo análisis realizaremos en este capítulo, con el objetivo de obtener “pistas” en las que apoyarnos para valorar, con alguna base, las posibilidades de la existencia de vida en otros mundos y cómo identificarla. ¿Habrá vida en otros mundos? Muchas personas, científicos y público en general, pensamos que, efectivamente, es muy probable que la vida haya existido, que exista actualmente, y que pueda surgir en el futuro en otros objetos del universo: como hemos visto en el capítulo anterior, existen quizás más de 1022 estrellas (10.000 millones de billones), probablemente muchas de ellas formando sistemas planetarios parecidos al nuestro y, por lo tanto, reuniendo las condiciones adecuadas para que la vida pueda surgir y evolucionar. ¿Cómo identificar la vida? La forma de comprobar la existencia de vida en otras partes del universo es verificándolo, evidenciando por algún medio su existencia, bien directamente “in situ” (en un futuro cercano, esta posibilidad se limita al Sistema Solar), o a través de biomarcadores fiables que podamos identificar a través de las radiaciones electromagnéticas de objetos lejanos [■5-1]. Como dificultades añadidas podemos señalar que nuestro objeto de búsqueda, la vida, es un concepto intangible que no sabemos realmente en qué consiste y, aunque hay hipótesis, tampoco tenemos la certeza de cuáles fueron las circunstancias y cómo se produjo la evolución de la materia inerte a la materia viva. De momento la única vida que “conocemos” es la de nuestro planeta, por ello, antes de iniciar la búsqueda de vida en otros lugares del universo, cómo primera orientación, para saber qué, cómo y a dónde dirigir nuestras investigaciones, parece razonable que comencemos por plantearnos algunas cuestiones y que tratemos de encontrar respuestas relativas a la única vida que sabemos que existe: ¿cómo surgió la vida en la Tierra?, ¿lo hizo una única vez o varias?, ¿proceso fortuito o inexorable?, ¿proceso evolutivo de la vida terrestre? En este capítulo analizaremos las hipótesis y teorías que han sido planteadas en relación con las cuestiones anteriores, así como su mayor o menor aceptación científica. Son estos conocimientos los que nos proporcionarán las bases para saber qué características biológicas, rastros fósiles o biomarcadores deberemos buscar en otros cuerpos del cosmos.

Nuestra capacidad para buscar vida en otros mundos requiere un profundo conocimiento de la vida en nuestro planeta

71

Conceptos básicos Hay consenso científico entre biólogos: la vida extraterrestre, si es que existe, necesita carbono, agua líquida, energía y tiempo. Carbono. Es el elemento básico de la química orgánica y forma parte de todos los organismos vivos conocidos. Establece las cadenas estructurales fundamentales a las que están unidos todos los demás elementos. La disponibilidad de cuatro electrones en la última capa le proporciona la posibilidad de perderlos, ganar cuatro electrones más o compartirlos a través de enlaces covalentes. Su gran afinidad y pequeño tamaño le permite formar enlaces múltiples con otros átomos de pequeño radio atómico, incluido el propio carbono, posibilitando la formación de largas cadenas, algunas con millones de átomos, base estructural de los organismos. Los enlaces del carbono son suficientemente fuertes para dar estabilidad a las moléculas complejas y adecuadamente débiles para que se rompan los enlaces covalentes (catabolismo), generando gran cantidad de energía [■5-2].

El carbono es un elemento químico muy abundante en el universo

Agua (H2O). Dispone de una molécula con una estructura bipolar que la convierte en un excelente disolvente (“solvente universal”), en particular de los compuestos polares e iónicos. El agua en estado líquido posibilita y facilita el encuentro de las sustancias disueltas para que puedan realizarse las oportunas reacciones bioquímicas. Sirve también de vehículo para el transporte de los nutrientes a las células. Se considera que la combinación de propiedades físicas y químicas del agua ha sido esencial para la química prebiótica, para la evolución de la vida en la Tierra, y también para el desarrollo y evolución de una eventual vida extraterrestre. Otras características notables del agua son: máxima densidad a 4ºC, superior a la del agua sólida; bajo albedo y elevado calor específico. La máxima densidad del agua líquida a los 4 ºC evita la congelación de los lagos y de los océanos. El bajo albedo y su elevado calor específico hace que los océanos absorban gran cantidad de radiación solar, que liberan lentamente en invierno, actuando como regulador térmico del clima. En nuestro planeta, el agua cubre el 71 % de la superficie de la Tierra y representa del 70 al 95 % de la masa de los organismos.

El agua es un compuesto químico muy abundante en el universo

Energía. Usualmente, la energía utilizada por la biosfera terrestre está tomada del Sol, a través de las reacciones de fotosíntesis, transformando materia inorgánica en orgánica (■Figura 5-12). Este proceso, en nuestro planeta, es realizado por las plantas en el medio terrestre y por las algas en el medio oceánico. En lugares inaccesibles a la luz solar, como los fondos oceánicos, se produce un proceso mediante el cual algunos organismos, denominados quimiosintéticos, sintetizan los nutrientes a partir de la energía que se libera en reacciones de oxidación de compuestos inorgánicos reducidos. Se trata de bacterias que usan como fuente de carbono el dióxido de carbono disuelto en las aguas oceánicas. Tiempo. Se trata de un factor discutido. Muchos astrobiólogos consideran que unos cuantos cientos de millones de años son suficientes (solo unos 500 Ma en la Tierra). De todos modos, el mínimo requerido limita las posibilidades de las estrellas gigantes, ya que su vida es de solo algunos millones de años. Nota.- Mientras no dispongamos de una segunda biosfera no podremos estar seguros de que características son absolutamente necesarias para la vida. Si algunas (o todas) son prescindibles, darían lugar a formas de

72 vida radicalmente distintas. Algunos biólogos distinguen lo que denominan rasgos universales, aquellos que surgieron más de una vez a lo largo de la evolución: locomoción, vuelo, fotosíntesis... Otras características que nos parecen críticas, como el armazón de carbono, o el agua líquida, podrían no serlo.

Átomos y moléculas de los seres vivos Todos los seres vivos de la Tierra (los únicos conocidos), comparten algunas características fundamentales: están formados por los mismos bioelementos, la misma tipología de moléculas y macromoléculas y las mismas unidades básicas de funcionamiento y organización que son las células Bioelementos. Los seres vivos están formados por unos 60 elementos químicos estables del sistema periódico, aunque los porcentajes de participación varían notablemente de unos elementos a otros: . El 95 % de la materia corresponde únicamente al carbono (C), oxígeno (O), hidrógeno (H) y nitrógeno (N), denominados colectivamente elementos “CHON”, muy abundantes en la naturaleza. Si se incluyen al fósforo (P) y al azufre (S), elementos también muy importantes, el porcentaje sube al 98 % (el fósforo, raro en la Tierra, puede haber llegado por medio de meteoritos de hierro (donde es abundante), mientras que el azufre procede del manto terrestre a través de las erupciones volcánicas). . Otros bioelementos, denominados oligoelementos, aunque en menor proporción, también son indispensables para los organismos: calcio (Ca), sodio (Na), potasio (K), magnesio (Mg), cloro (Cl), hierro (Fe), silicio (Si), cobre (Cu), manganeso (Mn), boro (B), flúor (F) y el yodo (I).

Los elementos químicos más abundantes en el universo son también los más abundantes en los seres vivos de la Tierra (no se considera el helio en el Universo, por tratarse de un elemento inerte que no forma parte de los seres vivos): se trata de un dato significativo a favor de la vida universal.

Esto no implica que no puedan existir tipos de vida muy diferentes por ahí fuera, aunque la mayoría de los científicos estiman que si existe vida en otros mundos, lo más probable es que también esté basada en los mismos elementos que la vida terrestre, considerando imprescindible la presencia del agua y la química del carbono.

Muchos biólogos consideran que el agua y el carbono son imprescindibles para que la vida pueda surgir.

Biomoléculas Las biomoléculas son los componentes a partir de los cuales se construyen las estructuras biológicas. Hay una gran variedad y la mayoría son extremadamente complejas, pero es importante destacar que, a pesar de ello, todas están formadas a partir de un pequeño número de moléculas orgánicas fundamentales, que además son las mismas en todas las especies: los ácidos nucleicos están formados únicamente por cinco nucleótidos y todas las proteínas constan de solo 20 aminoácidos. La “materia” que compone los seres vivos puede ser inorgánica y orgánica. Materias inorgánicas: forman parte de la corteza terrestre y son necesarias para la actividad vital de los organismos. Entre las más significativas se encuentran el agua y algunas sales minerales.

73

. El agua es la molécula más abundante de los organismos00000, constituyendo del 70 al 95 % de la masa. . Las sales minerales solubles regulan los procesos osmóticos a través de las paredes semipermeables de las membranas celulares. . Las sales minerales insolubles realizan diferentes funciones, como la formación de conchas, caparazones, esqueletos, depósitos en paredes celulares de las plantas… Biomoléculas orgánicas: son exclusivas de los seres vivos. Se clasifican en cuatro grupos: ácidos nucleicos, proteínas, glúcidos y lípidos. Las biomoléculas, normalmente muy complejas, están formadas a partir de otras moléculas más “sencillas” denominadas monómeros. La unión de monómeros, a veces miles o millones, por medio de enlaces químicos (en general covalentes), forman macromoléculas llamadas polímeros.

Ácidos nucleicos Son las macromoléculas donde se almacena la información necesaria (el programa) para la transmisión de las características hereditarias de una generación a la siguiente y para dirigir la síntesis de las proteínas. Este programa está almacenado en las células de los seres vivos. Existen dos tipos de ácidos nucleicos:  Ácido desoxirribonucleico (ADN)  Ácido ribonucleico (ARN) Las moléculas de ADN están formadas por dos cadenas "antiparalelas” (■Figura 5-1, izq.), ensambladas en forma de doble hélice (■Figura 5-2, izq.), mientras que las de ARN están formadas por una cadena sencilla (■Figura 5-1, der.), también helicoidal (■Figura 5-2, der.). Los ácidos nucleicos están compuestos por moléculas orgánicas denominadas nucleótidos (recuadro ■Figura 5-1 izq.), integrados a su vez por tres subunidades unidas por enlaces covalentes: un grupo fosfato (F), una molécula de azúcar (D) y una base nitrogenada (G, T, A o C). El grupo fosfato es un radical derivado del ácido fosfórico, de fórmula

H3PO4. Las moléculas de azúcar (■Figura 5-3) son pentosas (con cinco átomos de carbono), denominadas ribosa y desoxirribosa: Ribosa para el ARN, de ahí “ribonucleico”, con un grupo hidroxilo (OH) en el segundo átomo de carbono. Desoxirribosa para el ADN, sin oxígeno en el segundo carbono (respecto a la ribosa), de ahí las denominaciones “desoxirribosa” y ácido desoxirribonucleico. Las bases nitrogenadas son compuestos anillados que contienen nitrógeno

74

(■Figura 5-4). En los ácidos nucleicos participan únicamente cinco bases nitrogenadas: En el ADN: adenina (A), timina (T), guanina (G) y citosina (C). En el ARN: adenina (A), uracilo (U), guanina (G) y citosina (C). Vemos que las bases adenina, guanina y citosina son comunes al ADN y al ARN, mientras que la timina y uracilo son específicas, respectivamente, del ADN y ARN (en lo sucesivo, las bases nitrogenadas se representarán por sus siglas) Un nucleósido es la biomolécula resultante de la unión covalente entre una base nitrogenada con una pentosa (como hemos visto: desoxirribosa en el ADN y ribosa en el ARN), punteado en la ■Figura 5-1, dcha. Las bases nitrogenadas A y G son de doble anillo y se llaman purinas (■Figura 5-4), mientras que las de anillo sencillo C, T y U se denominan pirimidinas. La “codificación” del material genético (programa), se realiza, únicamente, con secuencias de cuatro bases nitrogenadas, que se representan mediante letras en el código genético: A, T, G y C en el ADN y A, U, G y C en el ARN. La combinación de tres nucleótidos, denominada “codón” o “triplete”, determina un aminoácido (como veremos, un componente básico de las proteínas determinado en el código genético). Ejemplo: el triplete de nucleótidos “AUG”, hace que la célula coloque el aminoácido “metionina” en la proteína que se está sintetizando. El emparejamiento de las bases (nucleótidos) se rige por unas normas específicas: . ADN: para el ensamblaje de la doble cadena, se emparejan T con A y C con G. Los puentes de hidrógeno entre los pares de bases mantienen las dos cadenas del DNA unidas. . ARN: para la transferencia de información desde el ADN al ARN mensajero, necesaria para la síntesis de las proteínas (como veremos), se emparejan U con A y C con G. Se denomina “gen” a una secuencia ordenada de nucleótidos en una de las cadenas del ADN, conteniendo la información necesaria para la síntesis de una macromolécula, normalmente una proteína, con funciones celulares específicas.

Proteínas Las proteínas (■Figura 5-5) son unos componentes muy versátiles y fundamentales de los seres vivos, constituyendo los elementos estructurales y funcionales de las células. Componen el 80 % del protoplasma deshidratado de las células y desempeñan numerosas funciones: inmunológicas, enzimáticas, contráctiles, defensivas... Composición química: carbono, hidrógeno, oxígeno y nitrógeno. Estas complejas macromoléculas están formadas, para la totalidad de los organismos, por la combinación de solo 20 moléculas orgánicas distintas denominadas aminoácidos, cuya secuencia determina la función concreta de cada proteína. Una característica de las proteínas es que son específicas de cada especie, e incluso cada organismo individual posee algunas proteínas que otros no tienen, marcando así su identidad biológica.

75

Las proteínas son los “ladrillos” con los que se construyen las células y los organismos. Los aminoácidos (■Figura 5-6), subunidades de las proteínas, disponen de una estructura formada por un átomo de carbono central (C), unido a un átomo hidrógeno (H), un grupo amino (-NH2), un grupo carboxilo (-COOH) y una cadena variable, denominada radical (R), que determina las propiedades de los diferentes aminoácidos. Los aminoácidos se unen en cadenas lineales determinadas por el código genético del ADN de cada individuo, dando lugar a infinidad de proteínas. Se conocen cientos de aminoácidos, pero solo 20 forman parte de las proteínas. El código genético relaciona cada uno de estos aminoácidos con una combinación de tres nucleótidos en el ARN. Los aminoácidos pueden unirse formando cadenas, llamadas en general polipéptidos, y pasan a denominarse proteínas si la cadena supera los 50 aminoácidos. Los aminoácidos son los “ladrillos” con los que se construyen las proteínas.

Glúcidos o azúcares (hidratos de carbono) Son biomoléculas compuestas por carbono, hidrógeno y oxígeno, con una función principalmente energética (la glucosa, el glucógeno y la celulosa son las formas biológicas primarias de almacenamiento de energía), pero también estructural (en los vegetales la celulosa forma la pared celular y la quitina es el principal constituyente del exoesqueleto de los artrópodos). Forman parte de otras moléculas esenciales, como los nucleótidos. La denominación "hidratos de carbono" o "carbohidratos" arranca desde la nomenclatura química del siglo

XIX, donde las primeras sustancias aisladas respondían a la fórmula “empírica” general Cn(H2O)n (siendo "n" un entero >= 3). De ahí viene el nombre de "hidratados de carbono", si bien, como se demostró posteriormente, no se trata de átomos de carbono hidratados (denominación inapropiada, que se mantiene).

Lípidos Grupo heterogéneo de sustancias no polares, que tienen en común el ser insolubles en agua, aunque sí lo son en solventes orgánicos. Químicamente están formados por carbono, hidrógeno y oxígeno. Tienen función de reserva energética (tejido adiposo) y estructural en el caso de los lípidos anfipáticos, componentes estructurales de las

76 membranas plasmáticas (bicapas lipídicas) que delimitan todas las células. Los lípidos anfipáticos se caracterizan por disponer en la misma molécula de un extremo hidrofílico (soluble en agua) y otro hidrofóbico (que rechaza el agua). Esto les permite auto-asociarse, formando una doble capa, de modo que las “cabezas” se posicionan hacia el agua, y las colas hacia el interior de la bicapa (■Figura 5-7).

Célula La célula es la unidad básica funcional y estructural de la que están formados todos los seres vivos. Pese a las indudables diferencias entre una bacteria, una planta y un mamífero, todos están formados por una o varias células. La célula es también la forma más sencilla de vida orgánica. Están rodeadas por una membrana plasmática protectora que la convierte en un ente individual separado del medio circundante, pero que permite y regula los intercambios que la célula necesita: nutrición, eliminación residuos... En la mayoría de las células las instrucciones genéticas están almacenadas en el ADN. Las células, usualmente, contienen estructuras internas denominadas orgánulos, adaptados para funciones específicas. Atendiendo a la localización y organización del ADN, se distinguen dos tipos de células: procariotas y eucariotas.

Células procariotas: células sin núcleo definido, en las cuales el material genético (ADN), en forma de cadena circular cerrada, se encuentra libre en el citoplasma (■Figura 5-8), concentrado en una zona llamada nucleoide. Disponen también de unos orgánulos internos denominados ribosomas, donde se sintetizan proteínas y otros polipéptidos. Estas células están rodeadas por la membrana plasmática (o celular) que la separan y protegen del medio exterior y además la mayoría dispone también de paredes celulares que rodean a la membrana plasmática. Muchos procariontes disponen de flagelos, que funcionan como propulsores. Mayoritariamente los organismos procariontes son unicelulares, existiendo una enorme variedad. Las células procariotas son mucho menos complejas que las eucariotas. Tanto el ADN como los ribosomas y otros orgánulos no disponen de membranas, por lo que se encuentran mezclados con el citoplasma. La transmisión de la información genética (reproducción) se realiza por división celular. La mayoría de los biólogos clasifican a los organismos procariontes en los reinos de la bacterias y de las arqueas. De acuerdo a las ideas modernas sobre la evolución primigenia, todos los organismos, actuales y extintos, derivan de un único organismo unicelular procariota denominada LUCA (last universal common ancestor).

Células eucariotas: extremadamente complicadas (■Figura 5-9), son las células del resto de organismos: animales, vegetales, hongos y protistas [■5-3]. Disponen de un núcleo que contiene el ADN encapsulado por una doble membrana nuclear, mejorando así la protección y el ordenamiento del complejo material genético. Los orgánulos de estas células también suelen disponer de membranas protectoras. La estructura de las células eucariotas varía dependiendo de la situación taxonómica del ser vivo: de este modo, las células vegetales difieren de las animales, así como de las de los hongos. Ejemplos: las células animales carecen de pared celular y no tienen plastos….; sin embargo, las células de los vegetales presentan una pared celular

77 compuesta principalmente de celulosa, disponen de plastos como los cloroplastos (capaces de realizar la fotosíntesis) y disponen de vacuolas [■5-4] de gran tamaño donde acumulan sustancias de reserva o de desecho producidas por la célula… Membrana plasmática: compuesta principalmente por fosfolípidos, glúcidos y proteínas, forma una doble capa que rodea al contenido celular. Proporciona protección mecánica a la célula. Mitocondrias: orgánulos intracelulares de todos los eucariontes (plantas, animales, hongos y protistas). Disponen de doble membrana y mantienen su propia molécula de ADN de forma circular (genoma mitocondrial), así como los ribosomas, más parecidos a los bacterianos que a los eucariontes. En estos organelos se realiza la respiración celular, proceso que requiere oxígeno y en el que se producen reacciones químicas que transfieren la energía química de las moléculas de la glucosa al ATP (trifosfato de adenosina), una molécula en la que se almacena temporalmente la energía que va a ser utilizada en otras funciones de las células (ampliaremos este proceso al tratar el metabolismo). Cloroplastos: orgánulos celulares con doble membrana que en los eucariontes (vegetales y algas) se ocupan de la fotosíntesis, conjunto de reacciones mediante las cuales se transforma la energía lumínica en energía química, en forma de ATP en una primera fase, y finalmente en glucosa y otros hidratos de carbono. Los cloroplastos contienen unos pigmentos verdes, denominados clorofila, donde se atrapa la energía de la luz solar necesaria para la fotosíntesis (ampliaremos este proceso al tratar el metabolismo). Ribosomas: organelos que forman parte del mecanismo para la síntesis de las proteínas, tanto de los procariontes como de los eucariontes. Constan de dos partes (grande y pequeña), formadas por ARN ribosómico (ARNr) y proteínas ribosómicas. Los ribosomas son los orgánulos donde se realiza la traducción del lenguaje del ARN mensajero (ARNm) en el lenguaje aminoacídico de las proteínas (veremos el detalle más adelante). Retículo endoplasmático rugoso (RER): orgánulo propio de las células eucariotas, que participa en la síntesis y el transporte de proteínas en general.

Organismos unicelulares y pluricelulares Según el número de células que los constituyen, los organismos se clasifican en unicelulares y pluricelulares.

Organismos unicelulares: formados por una sola célula, que realiza todas las funciones vitales (bacterias, arqueas y algunos eucariontes).

Organismos pluricelulares: como su nombre indica, están formados por más de una célula, siempre eucariotas, que se diferencian por la especialización funcional. Resaltamos, no obstante, que todos los organismos pluricelulares están formados a partir de una sola célula en el origen de su vida (cigoto, en el caso de los animales). Las células en los organismos pluricelulares tienen que construir el medio extracelular que otorga resistencia a los tejidos (huesos, madera…), y conecta entre sí los tejidos flexibles y móviles.

78

Síntesis proteica Como sabemos, una de las principales funciones del ADN es la de transmitir la información necesaria para la síntesis de las proteínas, siendo conveniente el conocimiento de su estructura para la correcta comprensión de la síntesis de las proteínas. El ADN es una molécula muy larga y delgada, sobre todo en los organismos eucariontes, por lo que podría romperse fácilmente o enmarañarse si no está adecuadamente empaquetada. La bacteria Escherichia coli (E. coli) contiene unos 4 millones de pares de bases (4 x 106), con una longitud solo algo superior a 1 mm (unas 1000 veces mayor que la propia célula), en una única molécula circular que se compacta formando pliegues en el interior de la propia célula. Las células eucariontes (por término medio) contienen muchísimo más ADN que una bacteria, por lo que recurren al empaquetado y organización en unidades llamadas cromosomas en el interior del núcleo celular específico. En el caso de las células humanas, con tamaños similares a una bacteria, contienen más de 1.000 veces el ADN de E. coli. Por ejemplo, un espermatozoide humano contiene unos 3.000 millones de pares de bases (3 x 109), en una longitud que “estirada” mediría cerca de 1 m de longitud. Los cromosomas (■Figura 5-10), son estructuras que se encuentran en el núcleo celular, empaquetados por medio de proteínas, siendo los principales portadores de la información genética en los eucariontes. Los humanos disponemos de 23 pares de cromosomas (n), uno heredado del padre y otro de la madre, denominados cromosomas homólogos, totalizando así un total de 46 cromosomas (2n), mientras que el caballo dispone de 64 cromosomas (2n) y la mosca de la fruta de 8 (2n). Los cromosomas, a su vez, están formados por cientos o miles de unidades denominadas genes. Los genes son segmentos de ADN que portan la información hereditaria. Contienen una porción de ADN que se transcribe para producir una proteína o un producto ARN con una función específica, por ejemplo el color de una flor o el de los ojos humanos. Se estima que en nuestra especie poseemos unos 25.000 genes para codificar proteínas. Se denominan alelos a los genes que ocupan posiciones correspondientes (loci) en cromosomas homólogos; se trata de formas alternativas de un gen. La expresión genética es el proceso que utilizan los organismos procariotas y eucariotas para transformar la información codificada en el ADN en las proteínas sintetizadas en la célula, necesarias para su desarrollo y funcionamiento (todas las células de un organismo contienen la información genética necesaria para la síntesis de todas las proteínas, pero no todos los genes se expresan al mismo tiempo, ni en todas las células). La expresión genética se realiza mediante dos procesos denominados transcripción y traducción genéticas (■ Figura 5-11).

Transcripción del ADN: en este primer proceso se copia la información contenida en una cadena del ADN, denominada cadena molde, para formar una cadena de ARN. Se denomina unidad de transcripción a la parte de ADN que da lugar a una molécula de ARN. Este proceso utiliza las reglas establecidas para la complementariedad de las bases de ADNARN: GC, CG, TA y AU. Las secuencias de ADN son copiadas a ARN mediante la enzima ARN polimerasa, que sintetiza un ARN mensajero (ARNm), en el que se mantienen, de forma “complementaria”, las secuencias del ADN. La transcripción genética se denomina también síntesis del ARN mensajero.

79

Traducción genética: la traducción genética es el proceso que convierte una secuencia de nucleótidos del ARN mensajero (ARNm) en otra secuencia de aminoácidos para formar proteínas. Esta fase se realiza en el citoplasma por los ribosomas y el retículo endoplasmático rugoso (RER). La traducción se realiza conforme a las reglas establecidas en el código genético (■Tabla 5-1), en el que cada secuencia de tres bases nitrogenadas (especificadas por tres letras), denominadas codones o tripletes, especifican un aminoácido concreto. La traducción va precedida por un proceso de transcripción y está asistida por numerosas proteínas. Debido a que los codones son el resultado de combinar cuatro letras tomadas de tres en tres, el número de codones posibles es 64 (combinaciones de 4 elementos tomados de 3 en 3), de los cuales 61 codifican aminoácidos (uno de ellos el codón de inicio de secuencia: AUG) y los tres restantes son sitios de parada (UAA, UAG y UGA). Dado que los organismos solo utilizan 20 aminoácidos, muchos de ellos quedan determinados por varios codones (■ Tabla 5-1). Las secuencias de codones determinan la formación de polipéptidos, generalmente proteínas, que tendrán estructuras y funciones específicas. A continuación figura una tabla con los códigos genéticos:

Aminoácidos Códigos genéticos Aminoácidos Códigos genéticos Ala (A) GCU, GCC, GCA, GCG Lys (K) AAA, AAG Arg (R) CGU, CGC, CGA, CGG, AGA, AGG Met (M) AUG Asn (N) AAU, AAC Phe (F) UUU, UUC Asp (D) GAU, GAC Pro (P) CCU, CCC, CCA, CCG Cys (C) UGU, UGC Ser (S) UCU, UCC, UCA, UCG, AGU, AGC Gln (Q) CAA, CAG Thr (T) ACU, ACC, ACA, ACG Glu (E) GAA, GAG Trp (W) UGG Gly (G) GGU, GGC, GGA, GGG Tyr (Y) UAU, UAC His (H) CAU, CAC Val (V) GUU, GUC, GUA, GUG Ile (I) AUU, AUC, AUA Leu (L) UUA, UUG, CUU, CUC, CUA, CUG Comienzo AUG Parada UAG, UGA, UAA ■ Tabla 5-1: código genético

El código genético es compartido por todos los organismos conocidos (universal), incluyendo virus y organelos (solo aparecen pequeñas diferencias). Ejemplo: el codón UUU codifica el aminoácido fenilalanina tanto en bacterias como en arqueas y en eucariontes.

Para los biólogos, la universalidad del código genético revela que todos los seres vivos conocidos han tenido un ancestro común.

80

Funciones básicas (vitales) de los seres vivos Los seres vivos, además de estar formados por los mismos constituyentes básicos (bioelementos, biomoléculas y células), también realizan las mismas funciones: nutrición, relación y reproducción (la respiración pertenece al proceso de nutrición).

Función de nutrición La nutrición es una función básica de todos los seres vivos, a través de la cual obtienen la materia y la energía necesarias para crecer, desarrollarse, renovar o reparar estructuras y para realizar todas sus funciones. Dependiendo de la forma en que obtienen los nutrientes necesarios, se diferencian dos tipos de organismos: los productores o autótrofos y los consumidores o heterótrofos. Organismos autótrofos: toman del exterior moléculas inorgánicas sencillas (dióxido de carbono, agua y algunas sales), a partir de las cuales generan las biomoléculas orgánicas complejas (glúcidos, lípidos, proteínas y ácidos nucleicos), necesarias tanto para sus propias necesidades, como para los restantes organismos, por lo que también se denominan productores primarios. Esta síntesis de materia orgánica es realizada por las plantas, las algas y algunas bacterias, mayoritariamente a través del proceso de la fotosíntesis (■Figura 5-12), por medio del cual estos organismos captan aproximadamente un 0,02 % de la energía del Sol que llega a nuestro planeta. También hay organismos autótrofos que generan biomasa en ausencia de luz solar, por medio del proceso de quimiosíntesis, utilizando la energía que se libera en reacciones químicas de oxidación de compuestos inorgánicos reducidos; por ejemplo, en las chimeneas hidrotermales oceánicas. En los continentes los principales productores primarios son las plantas, con un pequeño aporte de algunas algas (líquenes), mientras que en los océanos son sobre todo las algas, la mayoría microscópicas formando fitoplancton y algunas macroscópicas como los sargazos. El grupo más importante es el de las cianobacterias (fitoplancton), seguido de algunos eucariontes unicelulares del reino Protista. Organismos heterótrofos: estos no pueden sintetizar moléculas orgánicas, por lo que “utilizan” las ya fabricadas por los organismos autótrofos, a través del proceso de ingestión. Dado que estos nutrientes no pueden ser utilizados directamente por las células, han de ser transformados previamente en otros más sencillos, a través del proceso de la digestión, en el que participan un gran número de proteínas (enzimas). Entre los organismos heterótrofos se encuentran todos los animales, los hongos y la mayoría de las bacterias y las arqueas, aunque debemos de distinguir entre: consumidores primarios (herbívoros), secundarios (carnívoros) y terciarios (súper-carnívoros, necrófagos…). Se denomina cadena trófica al proceso de transferencia de los nutrientes a través de las diferentes especies de un ecosistema, en el que un organismo se alimenta del precedente y a su vez constituyen el alimento del siguiente (■Figura 5-13). Podemos sintetizar esta sección en el concepto de metabolismo, como el conjunto de reacciones químicas que ocurren dentro de las células, mediante las

81 cuales la energía y la materia se ponen a disposición de los seres vivos. En el metabolismo hemos de distinguir entre las fases de anabolismo y catabolismo:  El anabolismo es la fase en la que se combinan moléculas sencillas y sustancias simples para formar compuestos complejos, utilizados para almacenar energía, produccion de nuevo material celular o el crecimiento. La energía necesaria puede proceder del exterior, por ejemplo de la luz solar que genera glucosa en los cloroplastos (fotosíntesis) o de pequeñas moléculas procedentes del catabolismo (digestión).  Por el contrario, el catabolismo es la fase en la que se degradan moléculas complejas para formar otras más sencillas, liberando energía química. Esta fase se realiza por medio de la respiración celular en el interior de las mitocondria, obteniendo energía química (ATP). La ■Figura 5-14 muestra de forma esquemática las actividades metabólicas que tienen lugar en los cloroplastos (presentes en las células de las plantas y las algas) y en las mitocondrias (presentes en casi todas las células eucariontes, incluidas las plantas y las algas).

Los nutrientes, una vez dentro de la célula, sufren una serie de reacciones, que componen el metabolismo, muy similares en todos los tipos de organismos: un dato más a favor de un ancestro común de todos los seres vivos.

Finalmente la excreción es la expulsión de los productos de desecho de las reacciones químicas del metabolismo.

Función de relación Los organismos, además de alimentarse, necesitan relacionarse con el entorno, detectar eventuales cambios ambientales y generar las evoluciones necesarias de adaptación, pues de lo contrario perderían estabilidad y morirían.

Función de reproducción Las estructuras biológicas se deterioran con el desarrollo de sus actividad vital, por lo que su duración es limitada en el tiempo, por lo tanto la reproducción es imprescindible para mantener la continuidad de las especies. La reproducción de los organismos (que detallaremos más adelante), afecta tanto a cada una de las células que los forman, como al organismo en su conjunto.

82

Origen de la vida

Desconocemos en qué consiste la vida y cómo surgió el primer organismo. Sabemos que los seres vivos están formados por los mismos elementos químicos que la materia inerte, aunque quizás en diferentes proporciones, y conocemos algunas de sus características, por ejemplo: un organismo debe de poder reproducirse para asegurar la continuidad de la especie; también debe de poder practicar algún tipo de metabolismo para asegurar la supervivencia a corto plazo. La primera evidencia de materia de origen biótico, muy discutida, son unas pequeñas esferas de carbono encontradas en Groenlandia datadas de hace 3.800 Ma, que presentan una anomalía isotópica de carbono “significativa” de actividad biológica. Este “prematuro” surgimiento de la vida también desafía a la “paradoja del Sol joven”, supuestamente un 30 % menos energético que el actual. Algunos expertos opinan que los océanos terrestres deberían de haber permanecido helados hasta que la actividad solar alcanzase un nivel significativo hace unos 2.000 Ma. Una posible explicación sería la presencia de una atmósfera densa (> 100 atmósferas), rica en dióxido de carbono, que crease un fuerte efecto invernadero compensando así la falta de actividad solar. El origen de la vida en nuestro planeta podemos describirlo como un conjunto de pasos a través de los cuales se produce el tránsito desde procesos químicos inorgánicos a procesos bioquímicos catalizados por enzimas que podríamos considerar como metabólicos.

Origen de la vida: evolución desde la materia inorgánica inerte hasta la materia orgánica viva.

Generación espontánea (Aristóteles –Pasteur) La generación espontánea fue una creencia muy arraigada desde Aristóteles (S. IV a.C.), hasta Pasteur (segunda mitad del S. XIX). Aristóteles afirmaba como evidente que los pulgones surgían del rocío, las pulgas de la materia putrefacta, los cocodrilos de los troncos en descomposición en el fondo de los ríos… Bajo la autoridad de Aristóteles esta opinión predominó durante siglos, incluida la Edad Media y también el Renacimiento (S. XV y XVI), siendo admitida por personajes tan ilustres como Descartes o Newton. Una receta del S. XVII para “generar” ratones consistía en introducir ropa interior sudada y cascarilla húmeda de cereales en un recipiente “sin tapadera” durante 21 días. Se creía también que los espermatozoides contenían humanos diminutos completamente formados (homúnculos), listos para desarrollarse. Paralelamente, existía un litigio con la mayoría de las religiones, que no aceptaban la generación espontánea de la vida. Según las escrituras las especies habían sido creadas todas al mismo tiempo y en su configuración definitiva. En 1668 el italiano Francesco Redi mostró que no aparecían gusanos (larvas) en la carne en descomposición cuando se impedía que las moscas depositasen sus huevos. A partir del S. XVII se admitió que la generación espontánea era falsa, al menos para los organismos apreciables a simple vista. Anton van Leeuwenhoek, comerciante y científico neerlandés, fue el primero en realizar importantes observaciones a través de los microscopios, que el mismo construía, abriendo así un nuevo campo al conocimiento. Sus descubrimientos se conocen a través de la correspondencia que mantuvo con distintas instituciones de la época. Fue seguramente el primero en observar bacterias y otros microorganismo, descubrimientos que notificó en el año 1674. En 1677 menciona por primera vez a los espermatozoides,

83

“animálculos muy numerosos en el esperma”. Todos estos descubrimientos desencadenaron un gran interés por la microscopía dentro del mundo científico. Leeuwenhoek, al igual que Francesco Redi y otros, era contrario a la teoría de la generación espontánea, en base a sus observaciones de la reproducción de los insectos, sin embargo el mundo científico de la época reservaban al “nuevo mundo” de los microorganismos la posibilidad de la generación espontánea. El verdadero progreso de la ciencia de la vida se aceleró a partir de mediados del S. XIX con independientes e importantes novedades: Fue en 1861, estando Europa sometida a importantes enfermedades infecciosas, cuando el químico francés Louis Pasteur realizó una cuidadosa serie de experiencias demostrando que los microorganismos, como los hongos y las bacterias, no surgían espontáneamente de la materia inerte, y que podían ser eliminados, dando lugar a la teoría celular, que explica la constitución de la materia viva a base de células. Para su experimento, Pasteur utilizó unos matraces de cuello de cisne en forma de “S”, terminados en una pequeña apertura que impide el acceso del aire. Introdujo cantidades iguales de caldo de carne en los matraces y los hizo hervir para eliminar los posibles microorganismos. Al cabo de cierto tiempo ninguno de los caldos presentaba signos de descomposición. Al cortar el cuello de uno de los frascos observó que el caldo no tardó en descomponerse, mientras que los cerrados permanecían en perfecto estado, demostrando así que tampoco los microorganismos proceden de la generación espontánea.

Lo vivo procede de algo vivo “preexistente”

Friedrich Wöhler, químico alemán, había conseguido la síntesis de la urea en 1828, producto terminal del metabolismo de las proteínas de los mamíferos, acabando así con la creencia de que los compuestos orgánicos no podían obtenerse en laboratorio a partir de la materia inorgánica. Otro hecho importante fue la presentación por Darwin y Wallace (1859) de su teoría sobre la evolución de las especies a través de la selección natural, demostrando que nuestro planeta, en contra de las sagradas escrituras de la época, no siempre había estado habitado por los animales y las plantas que nos rodean.

Hipótesis sobre el origen de la vida en la Tierra Rechazada la generación espontánea, podemos describir el origen de la vida terrestre como las fases o evoluciones moleculares que han generado el tránsito desde procesos químicos inorgánicos a procesos bioquímicos asociados a grandes polímeros con capacidades replicativas y catalíticas. Claramente, la forma en que se originó la vida sigue lejos de ser conocido, aunque si se han producido avances en lo que podríamos denominar hipótesis o especulaciones con base científica, que pasamos a comentar: . Habían transcurrido unos 9.000 millones de años (Ma) desde el Big-Bang, tiempo necesario para que sucesivas generaciones de estrellas y explosiones de supernovas creasen los materiales pesados necesarios para la formación del sistema solar y sus planetas. Paralelamente, reacciones químicas interestelares iniciaron la creación de moléculas, tal vez fundamentales para la vida. . Hace unos 4.600 Ma se produjo el colapso de una nebulosa de la Vía Láctea, para formar nuestro SS, situado actualmente a unos 28.000 años luz del centro galáctico. En estas circunstancias emergió nuestro planeta, como una esfera de roca fundida orbitando a un joven Sol, acompañada de otros planetas rocosos, gigantes gaseosos, gigantes helados y el resto de cuerpos menores del SS.

84

. Los primeros 1.000 Ma de la Tierra y del Sistema Solar fueron convulsos y poco conocidos. La Tierra recién formada estaba muy caliente debido a las colisiones de los protoplanetas, la desintegración radiactiva de los elementos inestables y la compactación del planeta. El “joven” Sol no estaba completamente estabilizado y era un 30 % menos luminoso que ahora. . La opinión más generalizada sitúa el origen de la vida en la Tierra en algún momento entre hace unos 4.400 Ma, si es que se dieron las condiciones para que el agua se condensase por primera vez, y como mínimo hace 3.000 Ma, datación fiable de los registros fósiles más antiguos.

Alexander Oparin y Haldane (formación de las primeras moléculas complejas) El origen de la vida en nuestro planeta es una cuestión que ha despertado el interés de filósofos y pensadores desde los tiempos más remotos y a la que, hasta la fecha, no se le ha encontrado respuesta. En buena lógica, la composición de la atmósfera primitiva y las condiciones superficiales del planeta tuvieron mucho que ver con la facilidad o dificultad para la síntesis de los primeros compuestos orgánicos complejos. En los años 30 del pasado siglo se pensaba en una atmósfera reductora, con mucho hidrógeno (fuente de electrones) y poco oxígeno. Tradicionalmente se sitúa el origen de la vida en una “charca caliente”, tal como escribió Darwin en una carta privada (en público “aceptaba” las ideas religiosas de la época). Intentando responder a esta antiquísima cuestión, fue en 1924 cuando Alexander Oparin (1.894-1980, biólogo y bioquímico soviético), y J. B. S. Haldane (1892-1964, genetista británico), ambos marxistas y con menos inconvenientes que Darwin para exponer sus ideas, presentaron, de forma independiente, unas hipótesis con base científica sobre la secuencia de probables acontecimientos que darían origen a la vida a partir de la materia inerte. Téngase en cuenta que hasta la mitad del siglo anterior se resolvía el problema, de forma irracional, en base a la generación espontánea.

“El origen de la vida”, según Alexander Oparin “El origen de la vida” de Oparin (1ª edición), se publicó en el año 1955 bajo el “clima de la guerra fría” de los años 50 y en el centro de una lucha entre el idealismo y el materialismo. Para Oparin la vida no era más que “una forma especial de existencia de la materia”. En opinión de Oparin (■Figura 5-15), la vida habría surgido a través de una evolución molecular, partiendo de la materia inanimada, similar a la evolución de las especies preconizada por Darwin. Estaba en contra de la necesidad de “una fuerza vital” o “razón divina” que en su época predominaba en el mundo occidental (europeo y norteamericano). Apoyándose en el materialismo, Oparin defendió la idea de que “la vida, como todo el mundo restante, era de naturaleza material y no necesita para su explicación el reconocimiento de ningún principio espiritual supramaterial”. Oparin, para defender su hipótesis, se apoyó en las demostraciones de

85

Redi y Pasteur sobre la inexistencia de la generación espontánea de vida compleja, ni tampoco de los microorganismos más sencillos, en ninguna parte del mundo que nos rodea. También basó sus explicaciones en la teoría de la evolución de las especies de Darwin. Oparin discrepó del mendelismo-morganismo, muy extendido en el mundo occidental de la época, según el cual, en palabras de Oparin “… los portadores de la herencia, lo mismo que todas las demás propiedades de la vida, son los genes, partículas de una sustancia especial concentrada en los cromosomas del núcleo celular… Según ellos, la molécula del gene surge en forma puramente casual, gracias a una “feliz conjunción de átomos de carbono, hidrógeno, oxígeno, nitrógeno, fósforo, los cuales se combinan “solos”, para formar una molécula extraordinariamente compleja de esa substancia especial, que posee desde el primer momento todos los atributos de la vida”.

En la hipótesis de Oparin la vida no surgió de forma repentina, sino que, incluso los organismos más simples, debido a su enorme complejidad “debieron de formarse mediante transformaciones sucesivas, sumamente prolongadas en el tiempo, de las sustancias que los integran”.

Oparin había demostrado experimentalmente que la presencia de oxígeno, muy reactivo, impedía la síntesis de compuestos orgánicos (imprescindibles para que la vida pudiera surgir), por lo que fue descartada la presencia de este elemento en su “teoría” sobre el origen de la vida (una atmósfera como la actual, con un 21 % de oxígeno, actuaría como un veneno que captaría todos los electrones disponibles –oxidación- impidiendo la formación de materia orgánica en su entorno). Sus conocimientos del sistema solar, particularmente de la atmósfera de Júpiter, le indujeron a suponer una atmósfera primigenia terrestre reductora (■Figura 5-16), formada por amoniaco

(NH3), metano (CH4), hidrógeno (H2) y agua

(H2O), esta última procedente de las erupciones volcánicas que, como ocurre en la actualidad, incorporarían un 10 % de agua. En su obra El origen de la vida, Oparin expone su “teoría” quimiosintética según la cual se pudieron formar moléculas orgánicas a partir de las sustancias mencionadas sometidas a la acción de la radiación solar UV (ausencia de

O3), a la actividad volcánica y a las descargas eléctricas atmosféricas (en ausencia de oxígeno). Estos productos primigenios se combinarían de forma cada vez más compleja, en un proceso de evolución molecular desde compuestos inorgánicos hasta moléculas orgánicas (aminoácidos, proteínas y otras moléculas), proceso inspirado en la evolución darwiniana que conocemos. Oparin supuso que los aminoácidos arrastrados por la lluvia, y que no regresaban a la atmósfera, podían permanecer en “charcas” sobre las rocas calientes donde podrían combinarse mediante enlaces peptídicos. Estas sustancias quedarían disueltas en unas gotitas que a su vez crecerían por fusión con otras y se reproducirían por fisión en “gotitas hijas” similares, aunque con ligeras variaciones.

86

Para comprender los razonamientos de Oparin es preciso revisar el concepto de coacervados [■5-5], minúsculas gotitas rodeadas por membranas que las aíslan del entorno, en el que está incluidas distintas sustancias en estado coloidal [■5-6]: 75-80 % de agua, 10-15 % son proteínas, enzimas, sales o electrolitos, carbohidratos y lípidos. “En esta substancia coacervática fundamental flotan libremente partículas filamentosas coloidales, tal vez gigantescas moléculas proteínicas sueltas y, más probablemente, verdaderos conglomerados de esas moléculas”.

La formación de sistemas individuales fue la que determinó, según Oparin, la aparición de la vida y todo su desarrollo posterior en nuestro planeta.

Para Oparin, el elemento más esencial de la organización del protoplasma no es la disposición de sus partes en el espacio (como ocurre en una máquina), sino un determinado orden de los procesos químicos en el tiempo, su combinación armónica tendente a conservar el sistema vital en su conjunto. Para que se forme un cuerpo químico complejo característico de un determinado ser vivo (proteína), se requiere que muchas decenas, centenas e incluso miles de reacciones se sucedan en un orden “regular”, rigurosamente establecido, base de la existencia del protoplasma (hoy sabemos que este orden está controlado por el ADN). Como modelo de estos sistemas podría servir una obra musical, por ejemplo una sinfonía, que viene caracterizada por el orden en el tiempo de las decenas o cientos de miles de los sonidos que la componen. Basta alterar el orden de los sonidos para que desaparezca la sinfonía como tal. Las sustancias que integran el protoplasma pueden dar lugar a las reacciones más diversas, pero estas por sí mismas reaccionan con una velocidad insignificante, por lo que necesitarían meses o incluso años para realizarse. La gran velocidad de las reacciones químicas que se produce en el protoplasma se debe a la presencia de catalizadores biológicos denominados “fermentos” (sustancias orgánicas que producen la fermentación, como las enzimas). Los “fermentos” se asemejan a los catalizadores inorgánicos, pero sus efectos son muchísimo más intensos superando a estos en miles o incluso millones de veces en acciones análogas. Otra particularidad de los fermentos es su excepcional especificidad de acción. Según Oparin, para que cualquier sustancia del protoplasma vivo pueda participar realmente en el metabolismo debe de combinarse con una proteína, formar con ella una unión compleja… La extraordinaria especificidad de las proteínas-fermento, permite que cada una de ellas forme uniones complejas con determinadas substancias y catalice tan solo determinadas reacciones. … el orden citado sigue una determinada dirección… Los centenares de miles de reacciones químicas están rigurosamente coordinadas en el tiempo… solo se combinan armónicamente en un orden único… todo este orden tiende al mismo fin: a la auto-renovación, a la auto-conservación de todo el sistema vivo en su conjunto, en consonancia con las condiciones del medio ambiente.

La vida ha surgido durante este desarrollo –según Oparin-, como una forma nueva y más compleja de la organización de la materia, sometida a leyes de orden superior a las que imperan en la naturaleza inorgánica

Según Oparin, esta secuencia o proceso de evolución química molecular debería de ser reproducible en el laboratorio.

87

Secuencia resumida de la evolución molecular para la formación de la vida, según Oparin: Formación de cuerpos proteinoides en las tibias aguas del océano primitivo, gracias a las “asombrosas” posibilidades de los átomos de carbono de los cuerpos cósmicos. Igualmente, las proteínas encerraban ya la posibilidad de originar coacervados complejos. A medida que iban creciendo y haciéndose más complejas, las moléculas proteínicas se fueron agrupando y separando de las soluciones en forma de coacervados. La individualización de las gotas respecto al medio exterior (sistemas coloidales de tipo individual) lleva implícita la posibilidad de su posterior desarrollo. Incluso las gotas que se forman simultáneamente en el mismo medio se diferencian unas de otras tanto en composición como en estructura interna. La presencia o ausencia de catalizadores inorgánicos sencillos (hierro, cobre…), la concentración de proteínas o de otras sustancias integrantes del coacervado y la estructura, todo ello repercute en la dirección y velocidad de las reacciones que se desarrollan en las gotas coacerváticas:

 Las transformaciones eran diferentes en las distintas gotas.  Las reacciones químicas, en forma más o menos desordenada, condicionaban la evolución posterior del coacervado. En una solución homogénea de sustancias orgánicas los conceptos de influencias “positivas” y “negativas” carecen de significado, sin embargo aplicado a sistemas individuales adquieren una significación real, pues las situaciones concretas determinan la suerte posterior de estos sistemas. Cuando las sustancias se concentran y se individualizan del medio ambiente formando coacervados, con límites más o menos netos, de inmediato se crean situaciones más complejas que las anteriores. La evolución de cada coacervado puede ser diferente de la de otro sistema individual contiguo. El destino de cada gota queda determinado por su propia estructura y su relación con el medio ambiente. En el océano primitivo, el coacervado se encontraba inmerso en una solución de diferentes sustancias orgánicas e inorgánicas (no en agua pura), que eran absorbidas por el propio coacervado, dando lugar a reacciones químicas por medio de las cuales el coacervado iba creciendo. Simultáneamente a estos procesos de síntesis también se generaban otros de descomposición, de desintegración. La velocidad de unos y otros procesos estaba condicionada por la relación entre las características fisicoquímicas de las gotas y las condiciones del medio exterior, lo que podía influir en sentido positivo o negativo dando lugar a la evolución del coacervado o, por el contrario, incluso a su desaparición. Solo pudieron subsistir durante un tiempo prolongado los coacervados que tenían estabilidad dinámica, aquellos en los que la velocidad de síntesis superaba, o al menos igualaba, a la velocidad de desintegración. Las gotas que se desintegran pasan a formar parte de la sopa primigenia, de la que se alimentaban las gotas coacerváticas que perduraban, las mejor organizadas. Así se fue incrementando la proporción de aquellas gotas cuya organización era la más adecuada para las condiciones de existencia presentes. Las gotas así formadas y en crecimiento, tuvieron que fraccionarse debido a causas puramente mecánicas, dando lugar a “gotas hijas” que tenían “aproximadamente” la misma organización que el coacervado de origen. A partir de la división, cada gota continuaba con su propio destino, incorporando variaciones que harían más o menos factible su subsistencia. A la vez que aumentaba la estabilidad dinámica de las formas coloidales, evolucionaba también el propio dinamismo de los sistemas hacia un aumento de la velocidad de las reacciones que tenían lugar en ellos.

88

Estas capacidades adquiridas, de transformar más rápidamente las sustancias, suponía una gran ventaja respecto a los demás coacervados que flotaban en la misma solución de cuerpos orgánicos, ya que podían asimilar más rápidamente esos cuerpos, crecer con mayor rapidez y ser cada vez más significativa su representación y la de su descendencia en la masa general. Fue con la incorporación de los fermentos como se consiguieron cambios esenciales que aceleraban considerablemente la velocidad de las reacciones químicas, a la vez que se establecía un cierto orden en el protoplasma. La aceleración en estas soluciones pudo lograrse a través de catalizadores inorgánicos (sales de calcio, hierro, cobre…), abundantes en el océano primitivo. Al llegar a las formas coloidales, los catalizadores inorgánicos fueron sustituidos por otros más complejos dotados no solo de muchísima mayor actividad sino también de un efecto muy específico sobre determinadas reacciones. Esto generó grandes ventajas para la organización de los procesos que tenían lugar en las formaciones coloidales. Los sistemas coloidales solo llegaron a adquirir estabilidad dinámica permanente cuando los procesos de síntesis producidos en ellos se coordinaban entre sí y se producían con regularidad. Así fue cómo surgió la capacidad de regeneración del protoplasma. La estabilidad en la composición química de las formas coloidales individuales dio origen a cierta estabilidad estructural de las mimas. Las proteínas de cada sistema coloidal ya no se combinaban al azar, sino con estricta regularidad. La estructura inestable y fugaz de los coacervados primitivos fue sustituida por una organización dinámicamente estable que aseguraba el predominio de las reacciones de síntesis frente a las de desintegración. Este proceso condujo, según Oparin, a una forma cualitativamente nueva de existencia de la materia. Así se produjo el “salto” que significó la aparición de los seres vivos más simples en nuestro planeta. La estructura de estos sencillísimos organismos primitivos era mucho más perfecta que la de los coacervados, pero incomparablemente más simple que la de los organismos más sencillos de nuestros días. Con el paso de los siglos, o de los milenios, la estructura de los organismos se iba haciendo cada vez más perfecta, se adaptaba cada vez más a las condiciones en que se desarrollaba la vida. Al principio se alimentaban de sustancias orgánicas disponibles en el medio, pero llegó un momento en que los alimentos escasearon por lo que algunos organismos aprendieron a “fabricar” materia orgánica a partir de materiales proporcionados por la naturaleza, concretamente CO2, agua y la energía de la luz solar. A partir de estos ingredientes formaron materia que se incorporaba en su propio organismo, dando origen a las “plantas” más sencillas: las algas cianofíceas (cianobacterias). Otros seres vivos conservaron su sistema de alimentación, pero ahora consumían “algas”, aprovechando su sustancia orgánica. Fue así como surgió, según Oparin, el mundo de los animales. Estos primeros organismos, tanto “plantas” como “animales”, estaban representados por pequeñísimos seres vivos unicelulares, semejantes a las bacterias, a las algas cianofíceas (cianobacterias) y a las amibas (amebas) de nuestros días.

89

Experimento de Miller y Urey (Universidad de Chicago) Este famoso experimento (■Figura 5-17) constituye la primera comprobación práctica de que, bajo condiciones ambientales adecuadas, se pueden formar moléculas orgánicas a partir de sustancias inorgánicas simples. En 1953, Miller, con la aprobación de Urey, realizaró su experimento para tratar de ratificar las “teorías” de Oparin y Haldane. Para ello sometieron la mezcla de gases propuestos por Oparin, en presencia de agua líquida, a descargas eléctricas de “60.000 voltios” (energía necesaria para romper los enlaces de las moléculas gaseosas), y a sucesivas secuencias de evaporación- condensación (podemos imaginar que el agua líquida representaba a los océanos y las descargas eléctricas a las tormentas de la época). El experimento tuvo un notable éxito, pues al cabo de unas pocas semanas consiguieron sintetizar numerosos compuestos orgánicos, entre ellos algunos aminoácidos que son componentes esenciales de las proteínas. Estos resultados inducían a pensar que los “ladrillos” para la formación de la vida habían sido muy abundantes en la Tierra primitiva.

Los resultados del experimento de Miller son uno de los hechos notables en la búsqueda del origen de la vida, al mostrar que algunos componentes orgánicos básicos se pueden sintetizar, a partir de la materia inorgánica, por métodos relativamente sencillos, tanto dentro como fuera de nuestro planeta.

Hemos de resaltar que en experimentos posteriores, realizados por otros investigadores, también se encontraron nucleótidos. El bioquímico español Juan Oró descubrió la síntesis de la adenina (base nitrogenada de los ácidos nucleicos) el día de Navidad de 1959, una de las moléculas importantes para la vida. Una singularidad de este descubrimiento fue que la síntesis de la adenina la realizó a partir del ácido cianhídrico, un producto muy venenoso.

Restricciones geológicas al modelo clásico del origen de la vida La «sopa primigenia», si es que existió, tuvo que ajustarse al periodo entre los 4.500 Ma (impacto que formó la Luna) y los 3.800 Ma, cuando aparecen las primeras trazas (discutidas), de actividad biológica. ¿Era compatible el escenario geológico de la época con la atmósfera reductora propuesta por Oparin y otros…? Se plantean varias dificultades: Inestabilidad de la supuesta atmósfera reductora de la época, frente a las altas dosis de radiación UV del

joven Sol (sin capa de ozono), que produciría una rápida destrucción del amoniaco (NH3) y del metano

(CH4). También se produciría la fotodisociación del agua provocando la incorporación de cantidades

importantes de O2 en la atmósfera, que reaccionaría con el NH3 y el CH4, así como la fuga del hidrógeno

residual al espacio exterior. Además, la aportación de CO2, procedente de la disociación del CH4, reduciría el rendimiento de la formación de sustancias orgánicas (de acuerdo al experimento). Los expertos actuales piensan que la atmósfera primigenia estaba formada por gases procedentes de los

volcanes: H2O, CO2, N2, SO2, H2S y gases del disco protoplanetario retenidos por la gravedad del planeta, 90

muy distintos de los utilizados en los experimentos de Miller y Urey. A partir de estos componentes se considera muy difícil la síntesis de compuestos orgánicos. El modelo de evolución estelar propone que hace unos 4.000 Ma el Sol era un 30 % menos luminoso que en la actualidad, por lo que no podría mantener una temperatura superficial superior a 0 ºC, necesarios para mantener océanos líquidos. Una posible solución, propuesta por algunos científicos, sería la

presencia de una densa atmósfera formada por gases volcánicos rica en CO2, gas de potente efecto

invernadero, que podría mantener el planeta “caliente”. Sin embargo el CO2 es muy soluble en el agua, por lo que reaccionaría con las rocas volcánicas y sería retirado de la atmósfera para formar grandes

depósitos de carbonatos. En base a estos datos, otros científicos estiman que el CO2 no pudo estar presente en la atmósfera de hace 4.000 Ma en cantidad suficiente para crear el efecto invernadero requerido.

Entonces, ¿qué sucedió? Se contemplan especialmente otras dos posibilidades para el origen de la vida:

 Chimeneas Hidrotermales: “ambientes reductores” alejados de la atmósfera.  Panspermia: origen extraterrestre de materia orgánica compleja, o incluso de organismos vivos.

Origen de la vida en el fondo del mar, en las chimeneas hidrotermales Como alternativa, se considera la posibilidad de que la Tierra de hace 4.000 Ma fuese un planeta helado superficialmente, debido a la debilidad del Sol, conservando agua líquida bajo la capa de hielo gracias al calor interno del planeta. La importante actividad volcánica de la época debió de crear muchas chimeneas hidrotermales o fumarolas negras (■Figura 5-18), lugares clave, candidatos para el origen de la vida, siendo además mucho menos sensibles a las condiciones de la atmósfera exterior y a los impactos. Esta idea surgió a raíz de la exploración submarina de las islas Galápagos en el año 1979 por el oceanógrafo Robert Ballard (estadounidense), donde se descubrieron y estudiaron por primera vez las chimeneas hidrotermales (a 2.700 metros de profundidad), en cuyo entorno se encontraron ecosistemas con vida abundante y variada: una especie de mejillones, gusanos fijos a las paredes, gambas, cangrejos, peces rondando... Estas chimeneas, muy abundantes en las dorsales oceánicas, tienen un funcionamiento similar a los geiseres de la superficie terrestre. En el entorno de las dorsales oceánicas se forman grietas de cientos de metros en el fondo marino, por las que penetra y se calienta el agua a altas temperaturas (puede alcanzar los 400 ºC sin llegar a hervir debido a las altas presiones del lugar). El agua muy caliente asciende arrastrando sales metálicas que, al precipitarse, forman chimeneas que pueden alcanzar los 70 m de altura. Se considera que estos ambientes pudieron reunir unas condiciones particulares

91 apropiadas para la formación de vida, a pesar de la escasez de materia orgánica procedente de las alturas y en una total oscuridad. Relacionamos algunos puntos que apoyan el origen de la vida en estos ambientes: Se trata de verdaderos reactores químicos: ambientes reductores, saltos térmicos importantes, desequilibrio químico de las aguas... Presencia de productos químicos disueltos en los fluidos hidrotermales, que son utilizados por microorganismos quimiosintéticos (arqueas) en ecosistemas de la zona afótica (sin luz). Estos organismos forman la base de la cadena trófica del entorno al actuar como “organismos productores”, que no dependen de las plantas ni del Sol. Ambiente “independiente” de las condiciones atmosféricas externas, como la radiación UV o los impactos meteoríticos, que afectan en mayor grado a las aguas superficiales. En estos ambientes la vida sabe aprovechar otras formas de energía distintas de la solar. Las chimeneas están recubiertas con microorganismos (bacterias) “quimiolitótrofos” capaces de extraer energía del sulfuro de hidrógeno (H2S) y otras sustancias abundantes en las emanaciones volcánicas, para elaborar azúcares a partir del agua y el dióxido de carbono disuelto:

CO2 + O2 + 4H2S → CH2O + 4S + 3H2O Se observa también que el “árbol de la vida” (que veremos) presenta en sus “ramas más bajas” a aquellos organismos que son propios de ambientes con altas temperaturas, indicio, para algunos, del posible origen de la vida en estas condiciones. Esto podría estar señalando al LUCA (Last Universal Common Ancestor) como un organismo que se originó en ambientes similares a las chimeneas hidrotermales. Notas:  Otros autores piensan que el “árbol de la vida” pueda presentar un sesgo debido al bombardeo intenso tardío (BIT, ■ Capítulo 3), que habría eliminado y borrado la huella de los organismos menos resistentes a las altas temperaturas.  Algunos científicos consideran que la quimiosíntesis podría mantener vida debajo de la superficie de Marte, en algunos satélites de Júpiter (Europa, Ganímedes y Calisto), y en otros cuerpos planetarios.

Las fuentes hidrotermales, abundantes en la Tierra y geológicamente activas, se consideran lugares adecuados para que haya podido surgir la vida, a pesar de la total oscuridad y la escasez de materia orgánica procedente de las alturas.

Panspermia: origen extraterrestre de la vida La panspermia es una hipótesis que propone una procedencia de la vida de cualquier parte del universo y no un origen exclusivo de la Tierra. Este concepto que fue popularizado en el año 1908 por el químico sueco Svante Arrhenius (Premio Nobel de Química en el año 1903), al utilizar la palabra panspermia para el origen de la vida en el espacio exterior, hipótesis que también fue apoyada por el astrónomo británico Fred Hoyle. Hubo muchas discusiones acerca del posible origen externo de la vida durante los 13.800 Ma de existencia del universo después del Big-Bang, que habría llegado a nuestro planeta en épocas arcaicas, transportada

92 por algún meteorito o asteroide... (organismos endolíticos, extremófilos...). Es la actualidad esta idea está casi totalmente desechada. Damos algunos argumentos que en su momento fueron utilizados a favor de la panspermia: Unas 40.000 toneladas de polvo cósmico “llueven” todos los años sobre la Tierra. Descubrimiento hasta 2006 de 141 moléculas en el espacio (nubes de polvo y gas...), desde compuestos simples como el metano, hasta otros complejos como la glicina (un aminoácido). Además, en los espectros hay decenas de líneas no identificadas, por lo que es de esperar una ampliación de la lista. Estos compuestos pueden haber sido traídos a nuestro planeta por cometas... Las bacterias son organismos muy resistentes, pueden encapsularse y soportar condiciones extremas, pero: ¿podrían resistir las radiaciones, congelación, vacío... del espacio exterior?, ¿las condiciones consecuentes del impacto? Los detractores de la teoría de la panspermia opinan que no. Los descubrimientos de vida en condiciones extremas (véase ■ Extremófilos, más adelante en este capítulo), hizo que se volviese a hablar de la panspermia. El análisis de la composición química del cometa Halley, realizado en 1986 por la sonda Giotto (ESA), mostró que la materia orgánica es abundante en este tipo de objetos. El meteorito Murchinson que cayó en Australia en 1969 (pudo ser recogido rápidamente, evitando su contaminación), presenta restos orgánicos y aminoácidos parecidos a los encontrados por Miller y Urey, con la particularidad de que aparecen en las dos versiones quirales (dextrógiras y levógiras), y en la misma proporción, lo que demuestra su origen no biológico, ya que los organismos, por razones no bien conocidas, producen aminoácidos levógiros (excepto la glicina, único no quiral). Estos resultados también fueron confirmados en otros meteoritos, especialmente las condritas carbonáceas. Meteorito marciano ALH84001 (■Figura 5-19): se estima que se formó en Marte hace unos 4.500 Ma, de donde fue expulsado hace unos 16 Ma por el impacto de un meteorito. Cayó en la Tierra (Antártida) hace unos 13.000 años, donde fue descubierto en el año 1984. En 1996 la NASA anunció posibles indicios de vida fósil, causando un gran revuelo en el mundo científico:

 Presencia de glóbulos de carbono con minerales de tipo magnetita (¿origen bacteriano?)  Moléculas orgánicas (¿procesos de descomposición?)  Cuerpos de formas bacilares (¿bacterias fosilizadas?) Los interrogantes anteriores fueron contestados en Science Magazine del 7/08/1996 por la Institución Oceanográfica Scripps (Universidad de California), aportando evidencias de contaminación del hielo del entorno del meteorito. Los descubridores siguen manteniendo su opinión sobre la existencia de vida antigua en Marte. La polémica continúa abierta. La panspermia abre el espacio y el tiempo para el salto de la química a la bioquímica, pero no resuelve la pregunta: ¿cómo se formaron las primeras células vivas?

93

Muchos especialistas opinan que el aporte exterior de moléculas complejas por asteroides y cometas fue esencial para las primeras etapas prebióticas.

Nota. Los pequeños asteroides que llegan a impactar con la Tierra alcanzan altas temperaturas superficiales, pero mantienen su interior relativamente frío, por lo que podrían transportar vida en sus núcleos.

No sabemos si la vida, pero al menos los componentes básicos si pueden encontrarse más allá de nuestro planeta Tierra.

Primer replicante: “El mundo del ARN” Ante las posibilidades planteadas de un origen de la vida exterior (panspermia) o en “casa”, la mayoría del mundo científico opina que el paso de “no vida” a “vida” se produjo aquí en nuestro planeta. Supongamos que las moléculas básicas para la formación de los seres vivos, como los azúcares, aminoácidos, bases nitrogenadas, etc., ya se han formado conforme a alguna de las hipótesis barajadas: “charca caliente de Darwin”, “chimeneas hidrotermales” o aportadas por los “meteoritos”. Ahora el problema reside en averiguar cómo se pudo progresar hasta moléculas más complejas como las proteínas o los ácidos nucleicos de la primera célula. Hemos visto que los aminoácidos se forman espontáneamente, bajo ciertas condiciones, o pueden haber sido aportados por los meteoritos, pero las proteínas llegan a estar formadas por más de 100 aminoácidos ensamblados en un orden preciso. Otra dificultad importante reside en averiguar cómo se han llegado a ensamblar los ácidos nucleicos ADN y ARN. Hoy sabemos que las proteínas son los principales elementos para la construcción de las células y para hacerlas funcionar, mientras que el ADN contiene las instrucciones, almacenadas en los genes, para fabricar las proteínas. Intuitivamente podríamos razonar que primero se habría formado el ADN, con cuya información se podrían sintetizar las proteínas. Pero aquí surge un inconveniente, y es que el ADN no pueden funcionar sin la presencia de las proteínas que los repliquen (■Figura 5-20), lo que nos sitúa ante la “paradoja del huevo y la gallina”. También podríamos “imaginar” que el ADN y las proteínas hubiesen surgido al mismo tiempo, pero se considera sumamente improbable que la aparición de ambas moléculas, muy complejas, hayan coincidido en el tiempo y en el mismo lugar. Otra posible solución sería la existencia de una molécula que pudiese simultanear ambas funciones, es decir, capaz de almacenar información y de sintetizarse a sí misma. Fue en el año 1989 cundo los estadounidenses Sidney Altman y Thomas Cech recibieron el Nobel en Química por el descubrimiento, de forma independiente, de ciertas moléculas de ARN con la capacidad de catalizar reacciones bioquímicas (■Figura 5-21), algo que hasta ese momento se consideraba reservado a las proteínas. Estas moléculas de ARN, que además de almacenar información pueden actuar como catalizadores para sintetizarse a sí mismas, y por su analogía con las enzimas proteicas, tomaron el nombre de ribozimas.

94

El descubrimiento de las ribozimas (ARN con capacidad catalítica), 30 años después del experimento de Miller, se considera otro de los hitos importantes en el estudio del origen de la vida.

Ahora “solo” quedaba por descubrir como se había formado el ARN, algo que se suponía relativamente sencillo:

 Los nucleótidos podrían ensamblarse a partir de moléculas sencillas ya disponibles en la naturaleza.  Posteriormente los nucleótidos se habrían enlazado aleatoriamente hasta que, al cabo de un tiempo más o menos largo, se acabaría formado un complejo molecular, una forma de ARN con la doble capacidad de las ribozimas: programar y fabricar otras moléculas.  A continuación se desarrollaría una membrana alrededor de este ARN primigenio, convirtiéndose así en la primera célula procariota. Esta idea de una ribozima como molécula primigenia captó muchos seguidores dando lugar a que se acuñase el término “El mundo del ARN”, considerado como antecesor del mundo celular actual de las proteínas y el ADN. Sin embargo, pasado ya cierto tiempo, esta hipótesis está siendo debatida ya que la autorreplicación, incluso partiendo de ARN ya ensamblado, aún no se ha conseguido.

Seguimos sin respuestas respecto al origen de la vida

Es necesario reconocer que la búsqueda del origen de la vida primigenia, a partir de solo “unos indicios minerales o unas cuantas rocas deformadas y transformadas”, es una tarea sumamente difícil y compleja, ya que la intensa actividad geológica terrestre va borrando sus propias huellas. Esto hace que todas las teorías sobre el origen de la vida (más bien hipótesis), sean bastante especulativas al carecer de pruebas concluyentes. Algunos de los sucesos tratados son anteriores al BIT, que pudo poner en ebullición los océanos terrestres.

Evolución: teoría y pruebas

No sabemos cómo surgió la vida en nuestro planeta, y tampoco hay un consenso científico generalizado sobre el proceso químico-molecular que tuvo lugar para dar origen al primer organismo, por lo que este acontecimiento no se incluye en la teoría de la evolución. La evolución es un proceso “a partir” del primer organismo. La teoría de la evolución se apoya en tres principios básicos: Los organismos han de experimentar cambios aleatorios (mutaciones) en su “programa” reproductivo (ADN), de modo que acabarán presentando variaciones en relación con sus ancestros y respecto a otros miembros de su especie. Los organismos generan más descendientes de los necesarios para asegurar su reproducción y compiten por los recursos existentes en el entorno circundante (y cambiante): alimentos, espacio, luz. Los organismos mejor adaptados tienen más probabilidades de sobrevivir el tiempo suficiente para reproducirse (selección natural) y transmitir su “programa” (genes) a los descendientes.

95

Herencia de los caracteres adquiridos Jean Baptiste de Lamarck (1744-1829), naturalista francés, fue el primero en proponer seriamente una teoría para explicar la evolución, en un tiempo en el que se aceptaba que la gran variedad de organismos existentes eran formas estáticas creadas por Dios. Según su idea, los cambios ambientales generaban nuevas necesidades en los organismos y estos, debido a su esfuerzo, adquirían nuevos rasgos a lo largo de su vida, que de algún modo pasaban a sus descendientes. Por ejemplo, si una población de jirafas de cuello corto necesitaba estirarse para alimentarse de los árboles, esto les daba la capacidad de tener descendencia con cuellos más largos. Lamarck pensaba que los caracteres se adquirían a lo largo de la vida de los individuos y que estos caracteres eran hereditarios. Esta teoría parecía lógica y fue ampliamente aceptada, hasta que décadas más tarde se descubrieron los genes, unidades de la herencia que no pueden ser modificados por esfuerzos realizados por los organismos, momento en que la teoría de Lamarck quedó rebatida.

Evolución de las especies: Charles Darwin y Alfred Wallace Charles Robert Darwin (1809-1882), inglés, graduado en teología, realizó un viaje de cinco años (1831-1836) a bordo del Beagle, navío dedicado a la investigación, como naturalista no remunerado. Aunque la religión le resultaba un tanto indiferente, aceptaba la explicación bíblica de la creación. La visita a las Galápagos, 13 islas grandes y otras más pequeñas situadas en el Pacífico, a unos 1.000 km al oeste de Sudamérica, permitieron a Darwin desarrollar sus dotes de naturalista científico. Sus importantes observaciones, principalmente sobre los pinzones (■Figura 5-22) y las tortugas, le llevaron a la convicción de que los organismos actuales, con modificaciones incorporadas, descendían de ancestros que vivieron en el pasado, principal afirmación de la teoría de la evolución. Para Darwin estaba claro que las 13 especies de pinzones detectados habían evolucionado desde un ancestro común que de modo accidental había llegado desde Sudamérica, probablemente una especie similar al pinzón semillero azul-negro que en la actualidad habita en la costa occidental de Sudamérica. También las tortugas, que varían de una isla a otra, son parecidas a las tortugas de las costas de Perú.

“… los organismos actuales descienden, con modificaciones, de ancestros que vivieron en el pasado”

Esta idea atribuida en exclusiva a Darwin ya había sido planteada mucho antes, tanto por griegos antiguos como por filósofos y teólogos de la Edad Media, no obstante, entre los europeos, la idea dominante hasta el S. XVIII fue la fijada por Aristóteles (384-322 a.C) y por el Génesis. Poner en duda estas interpretaciones era considerado como una herejía. Pero el clima intelectual comenzó a cambiar precisamente en el S. XVIII cuando los naturalistas empezaron a encontrar pruebas que difícilmente podían conciliarse con la literalidad de las Escrituras. Por ejemplo, la totalidad de las rocas sedimentarias se atribuía a una única y simultánea inundación mundial, mientras que las observaciones realizadas por los naturalistas mostraban que fueron depositadas durante largos periodos de tiempo geológico. A través del registro fósil también se demostró que muchas especies de animales y plantas se habían extinguido. Los científicos aceptaron gradualmente el

96 principio de actualismo [■5-7] y la gran edad de la Tierra y se convencieron de que las especies habían evolucionado unas de otras, pero carecían de un marco teórico para explicarlo.

Contribuciones de Charles Darwin y Alfred Wallace En 1859 Darwin publicó El origen de las especies, en base a las conclusiones sacadas unos 24 años antes, retraso debido a la consciencia del escándalo que su publicación podía ocasionar. Además de sus propias experiencias, Darwin se apoyó en la observación de la “selección artificial” practicada por ganaderos y agricultores, que al seleccionar aquellos caracteres considerados como deseables para sus cultivos de plantas y crianza de animales daban lugar a fantásticas variedades. Esto hizo que se plantease la posibilidad de que estos cambios también pudiesen ocurrir en la naturaleza. Otra influencia sobre Darwin fue la lectura del “Ensayo sobre los principios de la población” de Thomas Malthus, donde este proponía un crecimiento geométrico de las poblaciones, mientras que los recursos lo hacían de forma aritmética, lo que daba lugar a una mortalidad infantil que justificaba la estabilidad en el tamaño de las poblaciones. La naturaleza selecciona solo unos pocos individuos destinados a sobrevivir. En 1858, Darwin recibió una carta de Alfred Wallace (1823-1913), naturalista inglés que había realizado sus investigaciones en el sur de Asia, y que también había leído a Malthus, llegando exactamente a las mismas conclusiones, lo que decidió a Darwin a publicar El origen de las especies. En 1859, Darwin y Wallace presentaron conjuntamente su idea, denominada Selección natural, en la Sociedad Linneana de Londres.

El conocimiento actual de que todos los seres vivos tenemos un mismo código genético, acabó con las reticencias que pudiesen subsistir sobre la teoría de la evolución.

Importancia de la selección natural Darwin, apoyándose en sus observaciones, anunció su teoría de la selección natural en base a los siguientes puntos:

 Individuos de una misma población muestran algunas variaciones entre sí: tamaño, agudeza visual, velocidad, color, etc.  Los organismos generan más descendientes que los necesarios para asegurar el mantenimiento de la especie a través de la reproducción.  Los individuos compiten por los recursos necesarios para la supervivencia (alimentos, espacio…). Aquellos cuyas características estén mejor adaptadas para obtener y utilizar los recursos disponibles son los que tienen mayores probabilidades de alcanzar la edad reproductiva y tener descendencia.  Los supervivientes se reproducen y transmiten sus adaptaciones a sus descendientes, de modo que los individuos mejor “ajustados”, en promedio, dejarán mayor descendencia.

Como veremos, la fuente de las variaciones en las poblaciones son las mutaciones aleatorias.

Los puntos anteriores, en definitiva, se traducen en índices diferenciales de supervivencia y reproducción, una cuestión de éxito reproductivo. La disponibilidad de variaciones favorables no garantiza la supervivencia de un individuo, pero, en poblaciones de varios miles, aquellos con variaciones favorables tienen más posibilidades de sobrevivir y de alcanzar la edad reproductiva.

97

El dicho popular “sobreviven los más fuertes” puede ser engañoso, si por más fuerte entendemos más grande, más rápido, más alto… Es cierto que los “valores” anteriores son importantes, por ejemplo a la hora de luchar por una pareja o al huir de un depredador, pero frecuentemente son otras las características que proporcionan ventajas: los pequeños se ocultan más fácilmente, necesitan menos alimentos cuando estos escasean...; ciertas variaciones proporcionan una adaptación más rápida a una nueva fuente de alimentación o a nuevas condiciones ambientales (extremófilos, virus mutantes…).

Mendel y la genética Darwin y Wallace no conocían como se producían las variaciones que daban lugar a la evolución, a pesar de que ya habían sido estudiadas por su contemporáneo Gregor Mendel, cuyos trabajos publicados 1866 permanecieron ignorados durante más de tres décadas, hasta que fueron redescubiertos en el año 1900. Gregor Mendel (1822-1884), agustino y naturalista austriaco, descubrió las leyes que rigen la genética a través de experimentos controlados con guisantes de huerto. Para sus ensayos utilizó plantas de líneas puras, aquellas que cuando se autofecundan producen siempre los mismos rasgos (ejemplo: flores de color rojo), individuos que constituían la generación parental o generación P. Al cruzar estas líneas puras, por ejemplo plantas de flor roja con plantas de flor blanca (■Figura 5-23), toda la segunda generación filial, o generación F2, eran plantas con flores rojas, mientras que la tercera generación filial, o generación F3, se repartían, aproximadamente, en todos los experimentos, en 3/4 de plantas con flores rojas y 1/4 de las plantas con flores blancas. Mendel concluyó que existían unos “factores hereditarios” en uno de los progenitores que enmascaraban los factores del otro progenitor. En terminología actual decimos que el factor que se expresa en la generación F2 (flor roja) es dominante, mientras que el factor oculto (flor blanca) es recesivo, es decir, los rasgos dominantes enmascaran a los recesivos cuando ambos están presentes en un mismo individuo (actualmente sabemos que la dominancia presenta algunas excepciones). Los experimentos también mostraron que los factores hereditarios no se mezclan (como se pensaba anteriormente), ni se pierden, pues las flores blancas aparecen en la segunda generación en una proporción bien determinada. Mendel propuso que cada característica (carácter) heredada estaba formada por dos factores hereditarios “discretos” que están presentes en cada individuo (uno procedente de cada progenitor), constituyendo lo que actualmente denominamos genes. Se denominan alelos a todas las formas alternativas que puede tomar un gen y locus (plural loci) la posición que los alelos de un rasgo determinado (ej: color de la flor) ocupan en los cromosomas. Resumen de los experimentos de Mendel:

 Las formas alternativas de un gen (alelos) son debidas a variaciones en los rasgos heredados.  Los rasgos heredados pasan de los progenitores a la progenie como genes no modificados  Cada individuo presenta dos juegos de genes, cada uno heredado de un progenitor. 98

 Los genes emparejados se separan durante la formación de las células reproductoras.  Los genes pueden expresarse o quedar ocultos en una determinada generación, pero no se pierden.  Cada gen se transmite a la siguiente generación con independencia de todos los demás genes (existen excepciones). Cada organismo recibe un alelo de cada uno de sus progenitores (padre o madre) para un rasgo determinado (por ejemplo: forma de la vaina). Mendel observó que unos factores hereditarios (alelos dominantes) pueden enmascarar la expresión de otros factores también hereditarios (alelos recesivos).

Sólo los genes de los cromosomas de las células sexuales son hereditarios

Mutaciones. Visión moderna de la evolución Un descubrimiento importante fue que los genes sufren mutaciones, alteraciones en la secuencia de pares de bases en el ADN, pudiendo afectar a la proteína codificada por el gen o incluso a una secuencia importante del cromosoma. Debido a que los organismos disponen de enzimas que reparan ciertos daños en el ADN, la tasa de mutación es mayor que la frecuencia resultante de daños en el ADN. Si una secuencia de ADN sufre cambios que no son corregidos, la replicación del ADN copia la secuencia modificada de la misma forma que una secuencia normal, consolidando la mutación de forma indefinida.

La evolución exige alteración genética

A partir de la década de 1930, la teoría de la herencia de los cromosomas de Mendel se incorporó a las ideas evolucionistas de Darwin. Los cambios en los genes (mutaciones) se vieron como una fuente del origen de las variaciones en las poblaciones. La selección natural actúa sobre la variación en las poblaciones, debido a la reorganización de los alelos en las sucesivas generaciones forjadas por la reproducción sexual. Debido a que cada uno de los miles de genes puede tener varios alelos y que la progenie recibe la mitad de los genes de cada progenitor, las posibilidades de variación son enormes. Las nuevas variaciones se producen mediante mutaciones que producen algún cambio en los genes, es decir, en la información hereditaria. Siempre que se produzca una mutación en una célula sexual, bien afectando a una parte importante de un cromosoma (mutación cromosómica), o bien una alteración en un solo gen (mutación puntual), la mutación será hereditaria. Hay que tener en cuenta que las mutaciones son aleatorias, por lo tanto pueden ser beneficiosas, perjudiciales o neutras (■Figura 5-24). Si una especie está bien adatada al medio, las mutaciones normalmente no serán útiles y pueden ser perjudiciales, en cuyo caso la nueva variación no progresaría. Sin embargo, si los organismos no están bien adaptados, la mutación puede ser beneficiosa dando lugar a organismos mejor adaptados. Las mutaciones son neutrales cuando no tienen efecto sobre el tipo de proteína sintetizada. Esto ocurre cuando la información que ha sufrido la mutación (a través del código genético), codifica el mimo aminoácido que el codón original.

99

Las mutaciones pueden ser espontáneas (sin causa aparente), pero generalmente son producidas por mutágenos, agentes que provocan altos índices de mutación: exposición a algunas sustancias químicas, rayos UV, rayos X, cambios de temperatura extremos…

La reproducción sexual y las mutaciones explican la mayoría de las variaciones en las poblaciones.

La selección natural actúa sobre los individuos de una población, favoreciendo a aquellos cuyos genes especifiquen rasgos que les permitan hacer frente de forma eficaz a las presiones del medio ambiente. Es más probable que estos individuos sobrevivan y que su descendencia se implante de forma cada vez más amplia en la población. Con el paso del tiempo los individuos experimentan variaciones en sus genes (mutaciones y cruce genético), y la presión ambiental también varía. Ambos efectos hacen que la selección natural actúe de forma continuada generando variaciones acumuladas en las poblaciones, cada vez más diferentes de sus ancestros. La adaptación de las poblaciones a las presiones ambientales, explotando nuevas oportunidades para conseguir alimentos, adaptarse a las condiciones ambientales, protegerse de los depredadores…, hace que los individuos se diversifiquen dando lugar a nuevas especies. Como ejemplo, esto fue lo que observó Darwin en los picos de los pinzones encontrados en las islas Galápagos (■Figura 5-22). La evolución no necesariamente implica un aumento de la complejidad o del tamaño de los organismos; ciertas especies se simplifican con la evolución, como las que viven bajo tierra y pierden la capacidad de ver.

Reproducción Proceso biológico que permite a los organismos progenitores crear nuevos organismos descendientes, impidiendo así la extinción de las especies. Existen dos tipos básicos de reproducción: asexual y sexual.

Reproducción asexual La continuidad de los organismos simples se realiza mediante la reproducción asexual, proceso relacionado con el mecanismo de la división mitótica, por el cual el núcleo celular, previamente replicado, se divide dando lugar a dos nuevos hijos, cada uno con el mismo número de cromosomas que el progenitor (■Figura 5-25). La reproducción asexual se realiza a partir de un único progenitor, que en parte o en su totalidad se fracciona generando uno o más descendientes con idéntica información genética.  Los individuos bien adaptados producen generaciones a su vez bien acomodadas al medio.  Las eventuales diferencias entre progenitores y progenie son debidas a mutaciones. En la reproducción asexual las mutaciones son más frecuentes que en la reproducción sexual, que veremos seguidamente.

100

Reproducción sexual La mayoría de los organismos multicelulares complejos (plantas y animales), se perpetúan mediante la reproducción sexual, proceso relacionado con la meiosis (■Figura 5-26), mecanismo por el cual el núcleo celular diploide (2n), previamente replicado, experimenta dos divisiones celulares sucesivas generando cuatro núcleos haploides, cada uno con la mitad de cromosomas que la célula progenitora, conteniendo un solo cromosoma (n) de cada par de homólogos, generando las células sexuales denominadas gametos (un óvulo o un espermatozoide). La fecundación sexual (■Figura 5-27) es el proceso por el cual las células sexuales o gametos (polen y óvulos en las plantas, espermatozoides y óvulos en los animales) se unen para formar un cigoto (óvulo fecundado), en el que se restituyen los pares de cromosomas homólogos característicos de cada especie:

 Durante la meiosis los cromosomas homólogos se mezclan dando lugar a una gran variabilidad genética.  La reproducción sexual también está afectada por las mutaciones, aunque en menor grado que en la asexual, debido a unos mejores mecanismos de control en el proceso de la reproducción sexual. Sin embargo, el huevo ya fecundado crece y se desarrolla a través de un proceso denominado mitosis, en el cual las células se duplican; por lo tanto no hay reducción de cromosomas.

Especiación y tasa de evolución Especiación es el proceso evolutivo que da lugar a una nueva especie. Por especie entendemos una o más poblaciones cuyos miembros se reproducen entre sí en la naturaleza y tienen descendencia fértil. Esta definición no se aplica a organismos como las bacterias, con reproducción asexual, pero es útil para las plantas, animales, hongos y protistas unicelulares. Las cabras y las ovejas tienen características distintas, pero, a pesar de ello pueden producir descendencia fértil en cautividad. Sin embargo no se reproducen en la naturaleza, por lo tanto son especies distintas (de acuerdo con la definición). Los leones y los tigres pueden cruzarse en cautividad, aunque sus crías son estériles. Además, no se cruzan en la naturaleza. Por estas dos últimas razones, se trata de especies separadas. La mula o mulo es un animal híbrido estéril que resulta del cruce entre una yegua y un asno, por lo tanto estos dos últimos animales son especies diferentes. De estos ejemplos se desprende que las barreras no están completamente afianzadas en algunas especies, lo que indica unos grados de cambio insuficientes a partir del ancestro común. La especiación implica un proceso de cambio en la composición genética de una población [■5-8], que también puede ir acompañada de cambios morfológicos (forma y reproducción).

101

Un modo importante por el cual evolucionan las especies es la especiación alopátrida: se produce cuando un número reducido de individuos de una población quedan aislados de la población madre, en cuyo momento comienzan a sufrir variaciones propias e independientes, al no intercambiar genes con la población primitiva. El aislamiento puede deberse a distintas causas: separación de continentes por la tectónica de placas; grupo de individuos que de algún modo alcanzan una región remota. En estas situaciones es probable que diferentes presiones selectivas den lugar a poblaciones aisladas desde el punto de vista reproductivo, es decir, a una nueva especie. No existe acuerdo entre los científicos sobre la rapidez o velocidad con que ocurren las variaciones para dar lugar a una nueva especie. Según Darwin y la síntesis moderna de la evolución, la acumulación gradual de cambios menores genera finalmente una nueva especie.

Evolución divergente, convergente y paralela Se denomina evolución divergente aquella que a partir de una especie ancestral da lugar a varias especies adaptadas a distintos ambientes. Un ejemplo significativo es el de los mamíferos, que a partir de un ancestro común del Mesozoico superior generó una gran variedad de animales actuales que todos conocemos: ornitorrincos, canguros, roedores, murciélagos, ballenas, primates, rinocerontes… Como vemos, la evolución divergente genera descendientes que difieren notablemente entre sí y de sus ancestros. Evolución convergente es el proceso por el que organismos de especies con escaso parentesco entre sí desarrollan semejanzas adaptadas a ambientes similares. Evolución paralela es el desarrollo de características similares a partir de parientes cercanos. Observemos que las evoluciones similares, tanto en la evolución convergente como en la paralela, se desarrollan de forma independiente, ya que ambos grupos se adaptan a ambientes semejantes. Como ejemplo de estas modalidades evolutivas podemos comparar mamíferos de Norteamérica y Sudamérica, aislados durante gran parte del Cenozoico, a pesar de lo cual se adaptaron de forma análoga y con gran parecido superficial: marsupiales carnívoros/tigres dientes de sable, son representativos de la evolución convergente; mientras que los jerbos/ratas canguro lo son de la evolución paralela a partir de parientes cercanos.

Pruebas de la evolución Darwin ignoraba las experiencias de Mendel, y también la bioquímica y la biología molecular eran desconocidas en su época. Los avances en estas áreas, así como la disposición de un registro fósil más claro y completo, hacen que, actualmente, la teoría de la evolución a partir de un ancestro común sea ampliamente aceptada en el mundo científico. Si todos los organismos evolucionan de antepasado comunes, deberíamos de encontrar “parecidos” entre las distintas formas de vida. Efectivamente:

 Especies procedentes de un antepasado común y que habitan en lugares cercanos (ej: conjunto de islas), presentan adaptaciones a lugares concretos, por ejemplo los pinzones de las islas galápagos.

102

 Los fósiles proporcionan información directa de los cambios que sufrieron las especies al evolucionar, por ejemplo: miembros traseros vestigiales en fósiles de ballenas de hace 40 Ma, mostrando su evolución a partir de mamíferos terrestres.  Los miembros delanteros de humanos, ballenas, gatos, perros, aves… muestran una apariencia visual diferente, pero están formados por las mismas estructuras de huesos, músculos, vasos sanguíneos… Se trata de miembros delanteros modificados para funciones distintas, lo que denominamos estructuras homólogas. Los avances en bioquímica y biología molecular también aportan datos que apoyan la teoría de la evolución a partir de un ancestro común:

 Bacterias, pinos, ballenas, chimpancés…, todos están constituidos, básicamente, por los mismos elementos químicos: carbono, hidrógeno, oxígeno y nitrógeno (elementos “CHON”).  Todos los animales disponen de cromosomas formados por ADN y todas las células fabrican proteínas de la misma forma, utilizando el mismo código genético.  Las proteínas de la sangre son parecidas en todos los animales, pero las del hombre son más cercanas a los grandes simios. Por orden: monos del viejo Mundo, monos del nuevo Mundo, primates inferiores (lémures).  La bioquímica apoya la idea de que las aves descienden de los reptiles, conclusión respaldada por el registro fósil. Sin embargo, también se han desarrollado estructuras funcionales que no están relacionadas con la evolución de especies más o menos cercanas. Se trata de soluciones similares adoptadas por especies lejanas evolutivamente (con distinto desarrollo embrionario), para su acomodación a un determinado medio ambiente, dando lugar a lo que denominamos estructuras análogas. Ejemplo: las alas de los insectos respecto a las alas de aves o murciélagos, para la función de volar.

La evolución es el principal concepto unificador de la biología.

Argumentos a favor de un único antepasado común “LUCA” (last universal common ancestor, por sus siglas en inglés). . Las proteínas de todos los organismos están constituidas por combinaciones de solo 20 aminoácidos, a pesar de que se conocen cientos de aminoácidos diferentes. . Los aminoácidos de los seres vivos tienen casi todos la misma quiralidad levógira [■5-9], mientras que en las experiencias de laboratorios y en la naturaleza se presentan en ambas formas, dextrógira (D) y levógira (L), aproximadamente al 50 %. . El código genético, que traduce la información almacenada en el ADN-ARN para construir las proteínas, es el mismo para todos los organismos: bacterias, plantas, animales... Esto constituye un ejemplo espectacular de la unidad de la vida. . Todos los organismos conocidos utilizan la misma “moneda energética”, el “ATP”, para la obtención de la energía celular (el ATP se produce durante la fotosíntesis y la respiración celular, y es consumido por muchas enzimas en la catálisis de numerosos procesos químicos).

103

Todas estas coincidencias son argumentos a favor de un antecesor común (único) de todos los seres vivos, ya que se estiman muy improbables estas casualidades de forma independiente. Los testimonios anteriores no significan que la vida haya surgido únicamente una vez en nuestro planeta. Se puede haber formado varias veces, pero solo un organismo consiguió sobrevivir y evolucionar hasta la actualidad (hasta nosotros).

Evolución de la vida en la Tierra

No hay consenso sobre el proceso que dio origen a la vida, por lo que este acontecimiento no se incluye en la teoría de la evolución. La evolución es un proceso “a partir” del primer organismo. El trazado del origen e historia de la vida está basado en las raras ocasiones en que los organismos que han existido en el pasado lejano han dejado algún rastro que ha sido conservado a lo largo del tiempo, en general fósiles en el interior de las rocas (geología y biología “entrelazadas”), pero también se han encontrado organismos bien conservados por congelación (mamut intacto en permafrost de Siberia de hace 21.000 años, bacterias “vivas” del Pleistoceno encontradas en Alaska, ADN intacto de una planta de hace 400.000 años en hielo siberiano…), o formas “perfectas” de flores o insectos encapsuladas en ámbar (resina polimerizada), constituyendo una “ventana” para observar cientos de especies antiguas. Se han podido recuperar pequeños fragmentos de ADN de organismos atrapados en ámbar: hoja de magnolio de hace 17 Ma, termita de 30 Ma, gorgojo de 130 Ma… La fosilización transforma en roca las partes duras de los organismos (huesos, caparazones, conchas…), por ejemplo los trilobites que habitaron los océanos entre 550 y 250 Ma AP (millones de años antes del presente), mientras que el registro de organismos con cuerpos blandos es mucho menos abundante y más difícil de averiguar. Las especies desaparecidas también pueden dejar otras señales de su existencia menos directas, como huellas de pisadas, rastro de la cola y hasta excrementos fosilizados (coprolitos). En la mayoría de los fósiles la materia orgánica ha sido destruida y sustituida por cuarzo (■Figura 5-28), calcita o pirita; por ejemplo, en los árboles caídos y sumergidos en el agua, la sílice disuelta sustituye a la celulosa formando una petrificación perfecta de los troncos molécula a molécula (xilópalos). Se considera sumamente difícil que los organismos sin partes duras puedan acabar como fósiles, siendo muy improbable el que puedan localizarse, sin embargo sí se han encontrado organismos pluricelulares sin esqueleto, datados de hace 635 a 542 Ma AP, lo que supone un enigma científico (véase más adelante “fauna ediacarana”). Durante el Precámbrico, unos 700 Ma hacia atrás, la vida solo existía en los océanos en forma de microorganismos y sin partes duras. Las únicas posibles trazas de vida se encuentran en forma de microfósiles o señales indirectas, como veremos más adelante (ejemplo: formaciones de hierro bandeado). El protagonismo durante este largo periodo lo lideraron los estromatolitos.

El Hádico (4.600 a 4.000 Ma AP) Periodo temporal informal que abarca desde el “nacimiento” de la Tierra, hace unos 4.600 Ma, hasta hace 4.000 Ma, cuando ya se había formado la primera corteza sólida del planeta. Periodo evolutivo importante

104 del que apenas se dispone de registros geológicos. Los únicos testigos de esa época son meteoritos, algunas rocas de la Luna, los impactos de la época que perduran en otros cuerpos del Sistema Solar (SS) como pueden ser Mercurio o la Luna y el mineral más antiguo conocido de la Tierra, cristales de circón (ZrSiO4), del que se han encontrado muestras en Jack Hills en Australia, datadas entre 4.400 y 4.200 Ma AP (según autores). Respecto a la existencia de vida, se supone que los violentos sucesos de este periodo: proceso de acreción del planeta, diferenciación del núcleo, impacto para la formación de la Luna hace unos 4.500 Ma, el intensísimo BIT entre 4.000 y 3.800 Ma AP (cada uno de los sucesivos impactos de objetos con más de 100 km de diámetro habría esterilizado nuestro planeta)… hacen altamente improbable que la vida se haya podido formar y asentar antes de hace 3.800 Ma.

Arcaico (4.000 a 2.500 Ma AP). Fósiles traza

Las primeras evidencias, muy discutidas, de materia de origen biótico, son unas pequeñas esferas de carbono encontradas al investigar unas rocas sedimentarias encontradas en Isua (Groenlandia), datadas de hace 3.800 a 3.700 Ma, presentando una anomalía isotópica de carbono (12C/13C) “significativa” de actividad biológica. Si, como parece, estas esferas de carbono proceden de seres vivos, no cabe duda de que la vida en nuestro planeta se formó muy rápidamente, “solo” unos 100 Ma después del BIT… ¡O tal vez la trajo un meteorito…! Este surgimiento “prematuro” de la vida también contrasta con la “paradoja del Sol joven” menos enérgico, comentada anteriormente en este mismo capítulo Primeros organismos (imaginados) Las cianobacterias, fósiles más antiguos conocidos, practicaban la fotosíntesis, un proceso metabólico complejo que en opinión de los expertos (biólogos) seguramente estuvo precedido por otros procesos más sencillos. Como “especulación científica”, los biólogos estiman que tuvieron que existir unos primeros organismos no fotosintéticos de los que aún no se han descubierto registros, probablemente parecidos a pequeñas bacterias, que seguramente serían: anaerobios (no existía oxígeno libre en la atmósfera); heterótrofos (dependientes de una fuente de alimentación externa) y procariotas (células que carecen de núcleo y de otros orgánulos). Su reproducción sería asexual y su fuente de alimentación sería ATP (trifosfato de adenosina) que obtendrían del entorno (sintetizado de gases simples y fosfato), situación que no pudo durar de forma ilimitada ya que cada vez habría más células luchando por los mismos recursos. La limitación de los alimentos seguramente habrá provocado el desarrollo de un proceso más complejo, probablemente fermentación [■5-10], mediante el cual moléculas como los azúcares se fraccionan formando CO2, alcohol y energía (la mayoría de los procariotas actuales practican la fermentación). Fósiles más antiguos

Los probables fósiles más antiguos son unos posibles estromatolitos (■Figura 5-29) descubiertos en la región de Pilbara en Australia, con una antigüedad de unos 3.500 Ma, mientras que los estromatolitos indiscutibles más antiguos proceden de rocas de Sudáfrica de hace 3.000 Ma.

105

Los estromatolitos son estructuras estratigráficas sedimentarias, localizadas en aguas someras, formadas por los caparazones carbonatados de las cianobacterias que al morir quedan depositadas sobre la última capa, sobre la que a su vez se instalan nuevas cianobacterias vivas. Estos microorganismos realizan un proceso de fotosíntesis retirando grandes cantidades de CO2 de la atmósfera y liberando O2 como residuo. Los estromatolitos necesitan estar sumergidos al menos durante una parte del día, por lo que se desarrollan en zonas inter-mareales donde su altura máxima está limitada por la marea alta. En la época de estos estromatolitos (inicios del Arcaico) la Luna estaba más cercana que ahora, generando mareas más acusadas que las actuales, siendo esta probablemente la causa por la cual los fósiles de los estromatolitos del Arcaico son más altos que sus parientes actuales. Estos organismos eran procariontes (células sin núcleo aislado por una membrana) y anaerobios (no necesitaban oxígeno), pero como autótrofos (que fabrican sus propios alimentos a partir de energía solar o térmica, CO2 y agua), ya no dependían de nutrientes prefabricados.

Se encuentran estromatolitos fósiles en todas las eras geológicas, demostrando que la vida en nuestro planeta nunca dejó de existir desde que surgió hace quizás más de 3.500 Ma.

En la actualidad se siguen formando estromatolitos por cianobacterias fotosintetizadoras (también conocidas como algas verdes-azules), restringidas a zonas de alta salinidad donde no puedan vivir los caracoles que se alimentan de ellas. Una prueba del proceso de fotosíntesis realizado por las cianobacterias son las formaciones de hierro bandeado (■Figura 4-13), datadas tanto del Arcaico como del Proterozoico, resultantes de la reacción del hierro disuelto en los océanos con el oxígeno liberado por las cianobacterias. Las BIF del Arcaico son cuerpos lenticulares de unos cuantos metros de ancho y de espesor, mientras que las del Proterozoico son mucho más gruesas y cubren grandes extensiones. Estas diferencias se achacan al poco oxígeno disuelto al principio del Arcaico, mientras que en el Proterozoico hubo un incremento sustancial de bacterias fotosintéticas liberando grandes cantidades de O2, lo que también dio lugar a la denominada Gran Oxidación y a las grandes BIF datadas de hace unos 1.800 Ma, ya en el Proterozoico.

El acontecimiento más significativo del Arcaico fue el desarrollo del proceso autotrófico de la fotosíntesis.

Las células fotosintéticas continuaban siendo anaerobias y procariotas, pero, como autótrofas, ya no dependían de un suministro externo de moléculas prefabricadas para nutrirse (les bastaba el agua de mar, el

CO2 y la luz solar).

Proterozoico (2.500 a 542 Ma AP) Durante este eón, con una duración de unos 2.000 Ma, el planeta sufre las primeras glaciaciones y se generan grandes cantidades de estromatolitos dando lugar al incremento de la concentración de oxígeno en la atmósfera, que pasó de menos de un 1 % al inicio de este periodo hasta un 10 % al final (■Figura 4-17). Esta gran producción de oxígeno seguramente originó la primera gran extinción masiva del planeta hace entre 2.500-1.500 Ma (catástrofe del oxígeno). Hace unos 2.100 Ma aparecieron las primeras células que se reproducían sexualmente, facilitando notablemente el incremento del ritmo evolutivo.

106

Nota. Desde el Cámbrico, hace 540 Ma, el volumen de oxígeno en la atmósfera ha oscilado entre el 15 % y el 35 %, valor este último alcanzado hace unos 300 Ma, lo que puede justificar el gran tamaño alcanzado por los insectos y anfibios de la época. Dos grandes acontecimientos biológicos del Proterozoico fueron la aparición de los organismos eucariontes en el primer tercio de este periodo y la abundante formación de organismos pluricelulares de cuerpo blando al final del periodo.

Organismos eucariontes

Como hemos visto, las células eucariotas se caracterizan por disponer de un núcleo central conteniendo el ADN protegido por una doble membrana, así como numerosos orgánulos también rodeados por membranas. La complejidad de estas células eucariontes es lo que ha permitido las complejas evoluciones posteriores, como la formación de los organismos pluricelulares y su diversificación, pasando por la gran variedad de especies extintas hasta las actuales. Los organismos eucariontes son mayoritariamente pluricelulares y aerobios, por lo que no pudieron existir hasta que se formaron las bacterias (cianobacterias) y se liberó cierta cantidad de oxígeno a la atmósfera. En la actualidad está ampliamente aceptada por el mundo científico la Teoría de la Endosimbiosis Seriada [■5-11], propuesta por Lynn Margulis [■5-12] en el año 1967, para el proceso de formación de las células eucariotas. Según describe Lynn Margulis, la formación de las células eucariotas (2.100 - 1.500 Ma AP) se produjo a través de la sucesiva incorporación de células procariotas que se integraron y organizaron en una relación simbiótica (■Figura 5-30): tres en el caso de los animales y hongos y cuatro en el caso de las plantas, dando origen a los cuatro reinos eucariontes: protistas, animales, hongos y plantas. Lynn Margulis estima que la vida procarionte estaba formada por una multitud de organismos diferentes, con gran capacidad de adaptación a las condiciones medioambientales muy variables de la época. Hoy se conocen unos veinte metabolismos practicados por las bacterias [■5-13], mientras que para los organismos eucariontes solo se conocen dos: el metabolismo aerobio (respiración), que se caracteriza por producir energía a partir de hidrocarburos, y la fotosíntesis producida por las plantas. Para Lynn Margulis, la gran variedad de metabolismos utilizados por las bacterias refleja las dificultades a las que estos organismos estuvieron sometidos y su gran capacidad para afrontarlas. En la teoría de la Endosimbiosis Seriada (■Figura 5-30), Lynn Margulis propone:

“Una arquea anaerobia se fusionó con una bacteria nadadora (espiroqueta), dando lugar al nucleocitoplasma, sustancia básica de los ancestros de las células animales, vegetales y fúngicas (primer eucarionte). Este organismo nadador era anaerobio, al igual que sus descendientes actuales. Como no soportaba el oxígeno, habitaba en arenas y lodos donde abundaba la materia orgánica, en grietas de rocas, en charcos y estanques, donde este elemento estaba ausente o era escaso”. 107

Lynn Margulis, Una revolución en la Evolución

“Tras la evolución de la mitosis en los protistas nadadores, otro tipo de microorganismo de vida libre fue incorporado a la fusión: una bacteria que respiraba oxígeno [especialista], dando lugar a células más grandes y más complejas. El triplemente complejo respirador de oxígeno (amante del calor y del ácido, nadador y respirador de oxígeno) podía engullir alimento en forma de partículas. Estas células con núcleo, seres complejos y asombrosos que nadaban y respiraban oxígeno, aparecieron por primera vez sobre la Tierra hace quizá unos 2.000 millones de años. Juntos, el delicado nadador, la arqueobacteria tolerante al calor y al ácido y el respirador de oxígeno, formaban ahora un único y prolífico individuo que generó una numerosa prole”. Lynn Margulis, Una revolución en la Evolución El nuevo endosimbionte, originalmente bacteria de vida libre y respirador de oxígeno, se convertiría en las actuales mitocondrias presentes en las células eucariotas de los organismos pluricelulares.

“Como etapa final de la serie generadora de células complejas, los respiradores de oxígeno engulleron, pero no pudieron digerir bacterias fotosintéticas de color verde brillante. La «incorporación» literal tuvo lugar tras una gran lucha en la que las bacterias verdes no digeridas sobrevivieron y la fusión completa prevaleció. Con el tiempo las bacterias verdes se convirtieron en cloroplastos. Como cuarto miembro, estos productivos amantes del sol se integraron con los demás socios anteriormente independientes. Esta fusión final dio lugar a las algas verdes nadadoras. Estas antiguas algas verdes nadadoras no sólo son los ancestros de las células vegetales actuales; todos sus componentes individuales todavía están vivos y en buena forma, nadando, fermentando y respirando oxígeno”. Lynn Margulis, Una revolución en la Evolución Esta tercera incorporación generó el Reino vegetal, dando lugar a un nuevo organismo capaz de sintetizar biomasa aprovechando la energía solar. Tras estas “integraciones”, el grado de dependencia es tal que los organismos procariontes solo pueden sobrevivir como un todo. Actualmente se considera probada la teoría de la Endosimbiosis Seriada, existiendo algunas discrepancias respecto a la incorporación inicial de la espiroqueta, aunque cada día va ganando más adeptos la propuesta global defendida por Lynn Margulis.

La formación de las células eucariotas es otro de los hitos importantes en la historia de la vida en la Tierra. Sin esta evolución no habrían sido posibles otros pasos, como la aparición de los organismos pluricelulares

Primeros animales pluricelulares Organismos pluricelulares son aquellos que están formados por muchas células, que a su vez están diferenciadas y especializadas para realizar funciones específicas, como la respiración o la reproducción. Estos organismos son muy variados: hongos, plantas, animales… En los registros fósiles no se encontraron muestras de cómo evolucionaron los organismos pluricelulares a partir de los antepasados unicelulares. Es a través del estudio de los seres vivos actuales como podemos obtener algunas pistas sobre esta transición. Se “admite” que estos organismos se formaron a partir de unicelulares que se replicaron formando grupos de células que permanecieron juntas formando colonias, donde algunas de estas colonias pudieron especializarse, como ocurre con algunos organismos vivos. La evolución posterior pudo dar lugar a organismos pluricelulares sencillos como las esponjas, que ya

108 incorporan células especializadas en la realización de funciones, como la reproducción, la respiración y la recolección de alimentos. Era paleozoica (650-540 Ma AP)

Fauna ediacarana (650-540 Ma AP). Fue descubierta en 1947 por el geólogo australiano R. C. Springs al encontrar fósiles de animales de cuerpos blandos multicelulares, preservados como moldes y vaciados en capas de areniscas en Ediacara Hills, Australia. Son organismos con forma tubular o de hoja, que representan a los seres vivos multicelulares complejos más antiguos conocidos. Se formaron poco después de que la Tierra se deshelara tras la duradera y última glaciación del periodo Criogénico y desaparecieron poco antes de la aparición de la explosión cámbrica. Según algunos investigadores podrían estar representadas, como mínimo, tres familias de invertebrados actuales: medusas, gusanos segmentados y artrópodos primitivos. Los fósiles de estos animales no son muy comunes dado que carecían de esqueleto duradero, no obstante se han encontrado restos en todos los continentes, excepto en Sudáfrica y la Antártida. Entre la hipótesis para explicar la rápida desaparición figuran el sesgo de conservación debido a la carencia de esqueleto duradero, cambios ambientales, la aparición de depredadores y la competencia con otras formas de vida.

Explosión cámbrica (540 Ma AP) Así denominada debido a la súbita aparición, hace unos 540 Ma, de una gran variedad de animales invertebrados con zonas superficiales de sus cuerpos mineralizadas y endurecidas (“súbita aparición”, en términos geológicos, representa millones de años). Esta rápida penetración de animales en el registro fósil hace ya tiempo que ha sido detectada. Darwin hizo alusión a este fenómeno en El origen de la especies, como algo de difícil encaje en su teoría de la evolución. El exoesqueleto proporcionó a la fauna del Cámbrico varias ventajas evolutivas: protección frente a depredadores; anclaje para los músculos, posibilitando que se alcanzasen mayores dimensiones y mejor movilidad; y también prevención contra la sequedad en los periodos intermareales. La aparición de organismos con partes duras supone un gran contraste con la biodiversidad de épocas inmediatas anteriores, como la fauna de cuerpo blando del anterior periodo Ediacarense y los organismos unicelulares durante todo el Proterozoico. En la ■Figura 5-31 vemos el fósil de un trilobites, una clase de artrópodo extinto. Fue uno de los organismos más característico de la Era Paleozoica, del cual se han descrito más de 3.000 especies. Se desconoce lo que originó esta rápida proliferación de animales, aunque seguramente intervinieron varios factores tanto geológicos como biológicos. Es posible que las glaciaciones sufridas a finales del Proterozoico, seguidas de un calentamiento global durante el Cámbrico, hayan estimulado la explosión cámbrica

109

Como haya sido, la explosión cámbrica y su rápida diversificación en animales con esqueleto durante el Cámbrico Inferior, es otro de los importantes acontecimientos de la historia de la vida en la Tierra.

Durante el Cámbrico se desarrollaron muchos diseños corporales nuevos, apareciendo repentinamente más de 50 grupos de organismos complejos (filos) en el registro fósil. Se estima que durante este periodo se ensayaron muchas morfologías, pero solo unas pocas alcanzaron un largo éxito evolutivo. Los trilobites, braquiópodos y arqueociatos suponen la mayoría de los animales con esqueleto del Cámbrico.

Yacimiento chino de Chengjiang (530 Ma AP) Los hallazgos de este importante yacimiento son muy variados, incluyendo organismos de cuerpos blandos bien conservados en forma fósil. Algunos de los descubrimientos conservan en su lomo una línea que recuerda la presencia de un cordón dorsal del que parten lateralmente haces de franjas musculares. Este presunto notocordio o notocorda [■5-14], y el diseño muscular de su cuerpo hacen que estos ejemplares sean, de momento, los primeros cordados conocidos. Estas características anatómicas seguramente habrán proporcionado a estos animales una mejora en su capacidad de movimiento.

Fauna de Burgess Shale (520 Ma AP) Un corrimiento de tierras, en un lugar conocido como Burgess Shale, en la Columbia británica de Canadá, sepultó a un importante grupo de animales invertebrados que vivían en bancos de lodo costero de baja profundidad, cuyos restos pudieron ser encontrados en rocas datadas de hace 520 Ma, en las que están representadas más de 120 especies diferentes. Este yacimiento proporciona una valiosísima información sobre las formas de vida oceánica anteriores a la aparición de los vertebrados.

La gran diversidad de organismos marinos detectados en los yacimientos de Ediacara, Chengjiang y Burgess Shale, muestran que en los primeros millones de años del Paleozoico los mares de nuestro planeta fueron un inmenso banco de pruebas en los que la vida, a través de la reglas de la selección natural, depuró una multitud de especies, muchos de cuyos desarrollos corporales y formas de desplazamiento continúan en las especies actuales.

Las plantas conquistan la tierra firme Las plantas terrestres se dividen en dos grupos principales: vasculares y no vasculares. Las plantas vasculares disponen de un sistema conectivo de células especializadas para los movimientos del agua y los nutrientes. Estos vasos, denominados también tráqueas, están reforzados por fibras helicoidales, dando rigidez a los tallos de las plantas para que puedan contrarrestar la gravedad y mantener las hojas y los frutos alejados del suelo. Las plantas no vasculares no disponen de estas células especializadas, siendo en general pequeñas y bien adaptadas a las áreas bajas y húmedas (musgos, hongos…).

110

En el Periodo Ordovícico (500- 435 Ma AP) las plantas conquistaron la tierra firme (antes que los animales), evolucionando para adaptarse a la vida fuera del agua donde tuvieron que afrontar los efectos de la gravedad, los fenómenos atmosféricos (viento, lluvia…), la desecación y la reproducción. La mayoría de los expertos coinciden en que las plantas terrestres evolucionaron a partir de algún tipo de alga verde marina, con un paso previo por entornos de agua dulce, donde se habrían adaptado a las diferencias de presión osmótica entre el agua salada y la dulce, para acabar finalmente conquistando la tierra firme. Hechos que apoyan esta hipótesis: comparación fisiológica entre algas verdes y plantas, las algas verdes son unos de los grupos que hicieron la transición del agua salada al agua dulce… En el Silúrico (435-410 Ma AP) aparecen las primeras plantas vasculares terrestres (helechos), que en el Devónico (410-360 Ma AP) se diversifican y expanden (aparecen los estomas y las traqueidas), que en adelante dominarán la vegetación terrestre.

El Devónico fue para las plantas terrestres lo que el Cámbrico había sido para los animales

Anfibios La mayoría de los autores sitúan el origen de los anfibios hacia el final del Devónico (410-360 Ma AP), seguido de una gran diversificación durante los periodos Carbonífero y Pérmico. Se trata de los primeros vertebrados que abordaron la tierra firme, tal vez huyendo de depredadores o quizás para aprovechar un nuevo mundo con pocos competidores. Los anfibios descienden de peces con pulmones funcionales y con dos pares de aletas musculares, dotadas de disposiciones óseas similares a dedos, capaces de soportar el peso corporal del animal fuera de la sustentación del agua. La colonización del medio terrestre fue solo parcial ya que mantenían (y mantienen) una fuerte dependencia del agua para realizar sus ciclos reproductivos y para mantener una humedad adecuada en su piel y en su sistema respiratorio.

Vida en la era Mesozoica (250 a 65 Ma AP) Denominada también “Edad de los reptiles” debido a la gran proliferación de estos vertebrados que imperaron entre los animales terrestres de la época. Otras evoluciones importantes fueron la aparición de los mamíferos en el Triásico y de las aves, posiblemente en el Jurásico, a partir de pequeños dinosaurios carnívoros.

Amniotas Las rocas del final del Pérmico (hace 250 Ma) revelan la existencia de una gran extinción masiva, originada probablemente por procesos volcánicos y tectónicos, con alteraciones en la composición de la atmósfera y descensos en los niveles de los océanos, causando la desaparición de muchas especies en todos los ecosistemas del planeta, pero de forma aún más acusada en los ambientes de la vida litoral, especialmente entre los anfibios. Esto dio paso a los reptiles para la conquista del medio terrestre, los mejor adaptados para evitar la deshidratación al disponer de piel seca con escamas que reducía la transpiración, pero lo más importante fue la adaptación evolutiva para la 111 formación de un huevo protegido de una cubierta calcificada (cáscara) y otras membranas protectoras, así como un saco con sustancias de reserva de las que se alimentaba el embrión durante su permanencia en el interior del huevo. Los organismos que realizan este proceso se denominan amniotas. Los amniotas se diversificaron en tres líneas evolutivas: los anápsidos, entre los que se encuentran las actuales tortugas; los diápsidos, que a su vez se diferenciaron en dinosaurios y reptiles; y los sinápsidos de los que descendemos los mamíferos. Las plantas también tuvieron evoluciones importantes al desarrollarse las angiospermas (plantas con flor), que pasaron a ser la flora terrestres más abundantes, quedando las del Paleozoico reducidas en la actualidad a menos de un 10 %. Los invertebrados marinos, bivalvos, cefalópodos, gasterópodos experimentaron una gran regeneración tras la extinción masiva del Pérmico. El clima suave del Mesozoico hizo posible que los animales y plantas se difundiesen por extensas regiones geográficas. La fracturación de Pangea y su dispersión hizo que algunos continentes quedasen aislados, particularmente Sudamérica y Australia, por lo que la fauna en estos continentes evolucionó de forma aislada haciéndose cada vez más diferente. Australia, aislada desde el Mesozoico, dispone actualmente de una fauna distinta al resto de los continentes.

Extinciones masivas Los datos del registro fósil señalan que el 99 % de las especies que han existido están ahora extintas. Esto nos puede inducir a pensar que las especies mejoran constantemente su capacidad de supervivencia a medida que evolucionan adaptándose a las condiciones ambientales. Es cierto que los vertebrados presentan una estructura más compleja que las bacterias, pero esto no significa que sean más resistentes, de hecho las bacterias han afrontado circunstancias adversas desde hace 3.500 Ma.

La evolución a través de la selección natural no da lugar a organismos perfectos, solo favorece a aquellos mejor adaptados a un conjunto de circunstancias que concurren en un momento dado.

Hay que diferenciar entre extinción de fondo y extinción masiva. La extinción de fondo es un proceso continuo, al igual que la especiación, relacionada con cambios progresivos y sin brusquedades de las condiciones ambientales generadas por la geología y en ocasiones por las interacciones biosfera-litosfera. Las extinciones masivas, causantes de reducciones significativas y bruscas de la masa biótica del planeta, son debidas a la puesta en escena de sucesos violentos: impactos de asteroides, erupciones volcánicas masivas, grandes glaciaciones o la explosión de supernovas cercanas. Hay una teoría que atribuye todas las extinciones a grandes impactos de asteroides o cometas, con una estadística estimada de un impacto cada 100 Ma. Efectivamente, en los 600 Ma del Eón Fanerozoico hubo unas 5 o 6 grandes extinciones. Según esta teoría,

112 las erupciones volcánicas masivas y las glaciaciones globales se consideran efectos secundarios. La mayor de las extinciones históricas es la del Pérmico-Triásico, pero la más y mejor estudiada es la correspondiente a la transición Cretácico-Terciario «límite K-T», que dio lugar a la desaparición de los dinosaurios hace unos 65 Ma. Gran extinción del Pérmico-Triásico Se trata de la mayor extinción en masa registrada en la Tierra. Ocurrió al final del Pérmico, hace unos 250 Ma, donde desaparecieron aproximadamente el 90 % de las especies marinas y el 70 % de las especies de los vertebrados terrestres. Las causas de esta hecatombe son desconocidas. La hipótesis más manejada son grandes erupciones volcánicas con una duración de un millón de años, cuya “prueba” se encontraría en «Las Trampas Siberianas», para las que se estiman unas emisiones de 1,5 millones de km3 de lava basáltica que se extienden en 3 millones de km2 de desiertos árticos. La causa pudo ser una pluma caliente del manto, cuyos gases volcánicos pudieron haber afectado seriamente al clima global y alterar las cadenas tróficas de fabricación de alimentos primarios (crecimiento de las plantas) y, consecuentemente, a toda la cadena alimentaria. Otras hipótesis que también se manejan son: impacto de un meteorito de gran tamaño, regresión marina, reducción de espacio en las plataformas continentales (formación Pangea), supernova cercana…. La duración de la extinción del Pérmico se estima en unos 8 Ma. La escasa biodiversidad resultante hizo que la vida tardase mucho en recuperarse. Numerosas ramas del árbol de la vida casi desaparecieron, quedando muy pocos representantes para repoblar el planeta. Seguramente durante este largo periodo la Tierra solo fue un páramo dominado por los hongos. Como hemos visto, esta gran extinción dio paso a los reptiles en la conquista del medio terrestre, los mejor adaptados para evitar la deshidratación, al disponer de piel seca con escamas que reducía la transpiración. Extinción de los dinosaurios Esta extinción se produjo en el límite entre el Cretácico y el Terciario (límite KT), hace 65 Ma, dando lugar a la desaparición del 70 % de las especies. Fue menos masiva que la del Pérmico, sin embargo es más conocida (mediática) porque entre sus víctimas figuran los grandes dinosaurios, además de los reptiles marinos, los reptiles voladores y varios invertebrados como ammonites o bivalvos. La hipótesis generalmente aceptada es el impacto de un meteorito de unos 10 km de diámetro, desencadenando una cadena de acontecimientos letales: expulsión a la atmósfera de una masa de materia terrestre 60 veces superior a la del impactor, provocando la ocultación del Sol durante meses, interrumpiendo temporalmente la fotosíntesis y por lo tanto la cadena alimenticia; grandes incendios que enviaron muchas partículas a la atmósfera, reforzando negativamente los efectos del apartado anterior; caída drástica de las temperaturas superficiales del planeta; posible formación de ácido sulfúrico (H2SO4) y

ácido nítrico (HNO3) por la interacción de los gases atmosféricos y la roca vaporizada, con efectos destructores sobre la vegetación y la fauna marina… La presunción del impacto meteórico se apoya en el descubrimiento, primero en Italia y después en otras varias zonas de la superficie terrestre, de una capa de  1 cm de espesor con una concentración muy alta de iridio en el límite KT, formando un sándwich entre dos placas con contenido fósil muy diferente, indicación de una gran extinción. El iridio es un elemento muy escaso en la superficie terrestre y abundante en algunos

113 meteoritos. Algunos investigadores anuncian que se ha encontrado el lugar del impacto en la ciudad de Chicxulub en la península del Yucatán, en México.

Este impacto alteró de forma importante el proceso evolutivo: los mamíferos, entre ellos los humanos, no existiríamos si los dinosaurios no hubiesen desaparecido.

No todos los científicos están de acuerdo con la hipótesis del impacto, la existencia de la anomalía del iridio es real, pero no así su origen. Algunos geólogos opinan que el iridio proviene del interior terrestre mediante vulcanismo, aunque esta sugerencia no tiene muchas pruebas que la apoyen.

Grandes glaciaciones

Las grandes glaciaciones también provocaron extinciones masivas (véase el ■capítulo 4).

Clasificación de los seres vivos. Árbol de la vida

Tres dominios y seis reinos: se estima que la Tierra está poblada por unos 50 millones de especies, de las cuales solo están clasificadas 2 millones largos; es decir, el 95 % de las especies que forman la biosfera es desconocido. Considerando la evolución a lo largo del tiempo y el registro fósil, los investigadores estiman que el número de especies que han desfilado por nuestro planeta supera los 50.000 millones de especies. En la ■Figura 5-35 se presenta el árbol de evolución de la vida más aceptado, donde los seres vivos se reagrupan en tres dominios: bacterias, arqueas y eucariontes. Las arqueas y los eucariontes pertenecen a ramas filogenéticamente mucho más cercanas entre sí que a las bacterias, aunque tanto bacterias como arqueas son procariontes (células sin núcleo), mientras que los eucariontes son organismos de células con núcleo (pluricelulares y unicelulares). La coincidencia de las ramas termófilas y termófilas extremas en las posiciones más cercanas a la raíz del árbol “LUCA”, subrayadas en la figura, refuerzan la idea del origen de la vida en ambientes termófilos, similares a los que podemos encontrar en el entorno de las chimeneas hidrotermales. Esto refuerza la idea de un “LUCA termófilo”. En el mundo científico no hay unidad de pensamiento acerca del origen del LUCA: Algunos consideran probable que los primeros seres vivos, como ya hemos comentado, aparecieron en otro planeta distinto de la Tierra (panspermia). Otros piensan que a nuestro planeta llegaron moléculas orgánicas ya elaboradas y aquí evolucionaron hasta formar los primeros organismos. Una mayoría piensa que todo ocurrió aquí, desde la formación de las primeras moléculas orgánicas hasta la aparición de la vida.

114

Es posible que la vida primigenia surgiera varias veces o en distintos ambientes, pero solo uno de estos posibles primeros organismos consiguió sobrevivir y llegar hasta nosotros.

Extremófilos. Nuevos hábitats Hace 30 años la visión de la vida era “homocéntrica”: se consideraba que los organismos se habían adaptado a las condiciones en las que habitaba el hombre. Sin embargo, en las últimas décadas los investigadores han descubierto que la vida, sobre todo los microorganismos, ha realizado una colonización exhaustiva de lugares sorprendentes: desiertos secos, fríos y calurosos; superficie y subsuelo de la Antártida; fuentes hidrotermales; aguas ácidas de Rio Tinto… Estos organismos se denominaron como “extremófilos” dado que se han adaptado y pueden vivir tranquilamente en ambientes considerados extremos… (¡para nosotros!). En la actualidad es difícil encontrar un lugar en la Tierra absolutamente estéril, lo que amplía las posibilidades de que la vida también haya surgido y evolucionado en otros objetos del universo donde concurran las condiciones de los “análogos” terrestres, como puede ser nuestro vecino Marte, algunas de las lunas de los gigantes gaseosos del SS, y, sobre todo, en exoplanetas que formen parte de sistemas similares al Tierra-Sol. A continuación se relacionan los principales organismos que viven bajo las condiciones consideradas como más extremas de nuestro planeta: Endolitos. Organismos adaptados para vivir en el interior de las rocas, algunos fotosintéticos y otros totalmente independientes de la energía solar. Se han encontrado endolitos a profundidades de 3 km bajo la superficie de la Tierra, aunque se desconoce si ese es su límite, dada la dificultad para excavar a mayores profundidades. La principal dificultad para su existencia no parece ser la presión que existe a dichas profundidades, sino las altas temperaturas. En base a los organismos hipertermófilos, la temperatura límite sería de unos 120 °C, lo que limitaría la máxima profundidad posible a unos 4.5 km por debajo de la corteza continental, y a unos 7.5 km por debajo del fondo oceánico. Termófilos. Organismos que se han adaptado a temperaturas superiores a los 45 ºC. Las temperaturas de nuestro planeta no suelen superar los 45 ºC durante largo tiempo, por lo tanto los organismos terrestres, en general, no tienen necesidad de adaptarse a temperaturas tan elevadas. Sin embargo existen lugares muy cálidos y húmedos, como el entorno de las chimeneas hidrotermales de los fondos oceánicos o los géiseres superficiales, donde las temperaturas pueden superar los 80 ºC de forma permanente. Los organismos que se han adaptado a las altas temperaturas se clasifican en dos grupos: a) termófilos son aquellos que viven a entre 45 ºC y 80 ºC; y b) hipertermófilos los adaptados a temperaturas superiores a los 80 ºC. Estos organismos han tenido que desarrollar mecanismos para evitar la desnaturalización de las proteínas y de los ácidos nucleícos (que normalmente se produce a los 65 ºC), así como la destrucción de las membranas (que en los organismos “normales” ocurre a unos 50 ºC). El campeón conocido de resistencia a las altas temperaturas parece que es una arquea denominada como “strain 121” –Geogemma barossii-, procedente de una chimenea hidrotermal submarina, que puede reproducirse a 121 ºC (temperatura utilizada para esterilizar material quirúrgico), sin embargo no es infecciosa dado que no pueden crecer a temperaturas cercanas a los 37 ° C.

115

El árbol de la vida muestra en sus ramas más bajas a aquellos organismos que son propios de ambientes con altas temperaturas, indicio, para algunos, del posible origen de la vida en estas condiciones (química prebiótica). Halófilos. Organismos adaptados para desarrollarse y crecer en ambientes con una cierta concentración de cloruro sódico (sal común o NaCl), como la que se da en el Mar Muerto o en el gran lago salado de Utah. En función de la concentración de sal que necesitan para crecer, se clasifican como: halófilos leves, que requieren de 1 a 6 % de NaCl; halófilos moderados, que necesitan del 6 al 15 % y halófilos extremos cuyas necesidades de sal superan el 20 % para crecer. Entre los organismos halófilos figuran bacterias, arqueas y también eucariotas. Como defensa, los halófilos albergan en el interior de sus tejidos (citoplasma) unas concentraciones de un soluto, compatible a las sales, mayores que en el exterior, evitando así la deshidratación por ósmosis. Barófilos o piezófilos. Organismos adaptados a ambientes sometidos a altas presiones, como las que se dan en las fosas oceánicas donde la presión se incrementa en 1 bar ( 1 atmósfera) por cada 10 m de profundidad. Dentro de este tipo de organismos se encuentran principalmente bacterias, pero también protistas y organismos superiores, como el gusano gigante –Riftia pachyptila- con más de un metro de longitud, así como almejas y camarones. Se han encontrado bacterias y protistas a más de 10.000 m de profundidad, y los organismos superiores en las fuentes hidrotermales a 2.000-4.000 m. Para la adaptación a las enormes presiones de estos ambientes han tenido que modificar sus paredes celulares (más rígidas) y sus membranas plasmáticas (más impermeables). Estos organismos, en función de las presiones a las que se acomodan, se clasifican en: barófilos moderados (0-500 atm) y barófilos extremos (más de 500 atm). Extraen energía del sulfuro de hidrógeno y de otras moléculas del suelo marino mediante quimiosíntesis, que no requiere luz solar. En el entorno de las fosas hidrotermales viven microorganismos que, además de a las altas presiones, también se han adaptado a las altas temperaturas (termófilos), y que se alimentan de las sustancias disueltas procedentes de la actividad volcánica. En estos lugares (afóticos) la producción primaria de biomasa no se debe a la fotosíntesis, sino a comunidades de microorganismos quimiolitotrofos que utilizan como nutrientes los minerales disueltos en el agua procedente de las chimeneas y los transforman en compuestos orgánicos utilizables por los organismos superiores. En el caso del gusano gigante, dispone de un tubo digestivo modificado (trofosoma), en el que viven millones de bacterias simbióticas que transforman los sulfuros en energía (ATP) y fijan el carbono procedente de las fuentes hidrotermales. Psicrófilos. Microorganismos adaptados a ambientes con temperaturas cercanas a los 0 ºC, siempre que el agua se encuentre en estado líquido. Es necesario tomar en consideración que 2/3 de la superficie terrestre está cubierta por los océanos, cuya superficie, en su mayor parte, se encuentra a unos 2 ºC. Se estima que, en total, incluyendo las superficies polares, la mayor parte del volumen habitable terrestre nunca supera los 5 ºC [■5-15]. La mínima temperatura terrestre, -83 ºC, se ha registrado en la región rusa de Vostok, en la Antártida. Los organismos psicrófilos se clasifican en dos grupos: a) obligados, cuya temperatura óptima se sitúa éntrelos 15 ºC y 18 ºC; y b) facultativos, con temperatura óptima entre 20 ºC y 30 ºC. Los principales problemas de las bajas temperaturas son la ralentización de las reacciones químicas y la posible congelación de la célula. Los organismos psicrófilos han desarrollado diversas defensas: modificación de la composición de la membrana, anticongelante en el citoplasma, enzimas que funcionan a bajas

116 temperaturas… Algunos psicrófilos “vuelven” a la vida una vez que se derrite el hielo que les ha rodeado durante miles de años. Alcalófilos. Microorganismos que viven en medios muy alcalinos, con pH -potencial de hidrógeno- [■5-16] entre 8,5 y 11. Estos ambientes son poco frecuentes en nuestro planeta, estando asociados a lugares con aguas alcalinas naturales, como los lagos sódicos saturados en carbonato sódico. Estos organismos están dotados de membranas resistentes a los ataques por álcalis, y mantienen bajo su pH interior para el correcto funcionamiento de la maquinaria de la bioquímica. Acidófilos. Organismos que se desarrollan en ambientes muy ácidos. La superficie de nuestro planeta, los mares, los ríos y lagos, así como el agua del subsuelo, tienen un pH ligeramente ácido; sin embargo existen algunos lugares, asociados a minas de pirita o a fuentes hidrotermales sulfurosas, donde el pH es muy alto (ej.: aguas del río Tinto, Huelva, con un pH entre 1,7 y 2,5). Entre los organismos acidófilos predominan las bacterias y algunas arqueas relacionadas con la oxidación del hierro para obtener energía. La lucha de los organismos acidófilos consiste en mantener el pH interno en valores adecuados (pH 7,7) para el correcto funcionamiento de las enzimas y del metabolismo celular. Radiófilos. Organismos adaptados para soportar y progresar en ecosistemas sometidos a radiaciones ionizante, bien como partículas –protones, electrones- o como ondas electromagnéticas –rayos gamma, rayos-X, radiación UV-. Entre los radiófilos se encuentran arqueas, bacterias y organismos superiores como insectos, gusanos y plantas. La bacteria Deinococcus radiodurans soporta niveles de radiación 1.000 veces superior a la que resultaría fatal para el ser humano, ya que dispone de un sistema muy eficiente de reparación de los daños ocasionados en su ADN. Además Deinococcus radiodurans es poliploide, es decir, dispone de varias copias de su genoma, pudiendo reensamblar su ADN en cortos espacios de tiempo. Los daños ocasionados por los excesos de radiación van desde la paralización de la fotosíntesis o la inhibición de la movilidad, hasta la rotura de los enlaces dobles y la modificación química de los ácidos nucleídos. Para conservar la integridad del genoma, las células de los radiófilos disponen de proteínas que, en caso de que la cadena de ADN haya sido modificada, detienen la replicación de la célula e intentan reparar el daño. Metanógenos. Organismos adaptados a la ausencia de oxígeno y que habitan en el fondo de depósitos acuáticos y en el rumen de algunos mamíferos herbívoros (rumiantes). Son capaces de generar metano

(CH4), en condiciones anaeróbicas (sin oxígeno). Xerófilos. Organismos vegetales adaptados a ambientes secos, como los desiertos o las estepas, donde la escasez de agua puede ser debida a la ausencia de precipitaciones o a la elevada evaporación. Los organismos xerófilos se caracterizan por disponer de largas raíces (como los cactus); hojas reducidas a espinas o sin hojas, trasladando la función fotosintética a los tallos; y metabolismos adaptados para economizar agua. En el desierto de Atacama se ha localizado microorganismos xerófilos en el volcán Socompa, una comunidad que viven gracias al dióxido de carbono, agua y metano que les proporcionan las fumarolas volcánicas. Poliextremofilia. Organismos que son resistentes a diversas y simultáneas condiciones extremas. Algunos de los analizados, como los habitantes de las chimeneas hidrotermales, son resistentes a las altas presiones (barófilos) y a las altas 117 temperaturas (termófilos). Entre estos organismos destacan los tardígrafos (conocidos como ositos de agua), pequeños animales (0,1 – 1,2 mm), ■Figura 5-36, que sobreviven en condiciones extremas de frio y calor, altos niveles de radiación, altas presiones, así como la exposición a las condiciones del espacio vacío. Se cree que esta alta resistencia a las condiciones extremas se debe a su capacidad para reparar daños del ADN, pudiendo soportar radiaciones 1.000 veces superiores a las letales para los humanos. Poseen también la habilidad para deshidratarse totalmente cuando la humedad ambiente desaparece, pudiendo soportar temperaturas cercanas al cero absoluto durante décadas, al evitar la congelación que destruiría sus células.

Todas estas formas de vida muestran la gran capacidad de adaptación de los seres vivos a ambientes extremos y muy diversos. Aumentan “las apuestas” de encontrar vida extraterrestre en ambientes antes impensables.

El mundo microbiano, que representa el 80 % de la biomasa, es bastante desconocido. Se han encontrado “intraterrestres” en los poros de las rocas, donde han quedado atrapados hace decenas o centenas de millones de años; bajo el hielo de la Antártida; nadando en ácido en el Río Tinto (Huelva); también se han encontrado microorganismos a grandes profundidades en las minas de oro africanas... Se estima que la biosfera, la zona habitada terrestre, llega como mínimo a los tres kilómetros de profundidad. A modo de resumen, en la ■Figura 5-37 figuran los acontecimientos biológicos más significativos de la historia de la vida en nuestro planeta.

118

[■5-1] Otra posibilidad de identificar vida en otros mundos sería mediante la recepción de señales específicas enviadas desde el espacio exterior por “seres inteligentes”. Con este objetivo se ha puesto en marcha el proyecto SETI (Search for ExtraTerrestrial Intelligence, o Búsqueda de Inteligencia Extraterrestre), un programa de escucha desde la Tierra, que surgió en los años 70 bajo el patrocinio de la NASA. Hasta la fecha (2014), aun no se ha detectado ninguna señal de vida extraterrestre. [■5-2] Carbono vs Silicio. En ocasiones se plantean las posibilidades de que se pueda organizar vida en base al silicio, dado que, como el carbono, también disponen de cuatro electrones de valencia, sin embargo: . El silicio es 10 veces más abundante que el carbono en la corteza terrestre, y a pesar de ello se conocen millones de moléculas basadas en el carbono y solo unos cientos con base en el silicio. . El enlace C-C es mucho más enérgico que el Si-Si, formando cadenas más estables. . Por el contrario, el enlace Si-O es muy fuerte dificultando enormemente la posibilidad de formar nuevos

tipos moleculares más complejos. El enlace Si-O da lugar a la formación de gran cantidad de SiO2 (cuarzo, componente principal de la arena), quedando menos silicio disponible para otros compuestos complejos.

. El CO2, gaseoso a temperaturas adecuadas, facilita metabolismos eficaces, mientras que a esas temperaturas el SiO2 es sólido (arena) y por lo tanto “difícilmente” metabolizable. . Como el cuarzo es muy insoluble, habría que calentarlo a > 1.700 ºC para poder recuperar el Si, temperatura poco “adecuada” para la vida conocida. Por el contrario, el carbono es fácilmente extraíble

del CO2 atmosférico para generar biomasa. . El átomo de carbono, al contrario que el silicio, puede formar dobles enlaces con otros átomos de carbono, creando moléculas que absorben las radiaciones tanto en luz visible como UV. Esto permite a los ojos detectar la luz por medio del retinol, y a las plantas captar energía por medio de la clorofila. [■5-3] Protistas son todos aquellos organismos eucariontes, unicelulares o pluricelulares simples, que no se pueden clasificar dentro de alguno de los otros tres reinos eucariotas: hongos, animales o plantas. [■5-4] Las vacuolas son unos sacos membranosos (orgánulo), llenas de líquidos (agua o enzimas), presentes en el citoplasma de las células de plantas y hongos. Participan en el almacenamiento o eliminación del agua. [■5-5] Coacervado es el nombre con el que Oparin y Haldane denominaron a un tipo de protobionte. Oparin demostró que se forman membranas lipídicas en ausencia de vida y obtuvo en el curso de los experimentos unas gotas ricas en moléculas biológicas, separadas del medio acuoso por unas membranas rudimentarias, a las que llamó coacervados. Un protobionte es un agregado de polímeros orgánicos ensamblados espontáneamente de forma abiótica, rodeado por una estructura membranosa. Los protobiontes exhiben algunas de las propiedades que se asocian con la vida, como la reproducción simple, el metabolismo y la excitabilidad, así como el mantenimiento de un medio químico interno diferente del exterior (un protobionte es un organismo vivo celular simple que teóricamente precedió a los procariontes). [■5-6] Un sistema coloidal está formado por dos o más fases, una continua, normalmente fluida y otra u otras dispersas en forma de partículas, que se hallan en menor proporción. [■5-7] El principio de actualismo o uniformismo expresa que los procesos que actuaron en el pasado son los mismos que actúan en el presente. El uniformismo es opuesto al catastrofismo, según el cual los caracteres geológicos actuales se originaron súbitamente en el pasado, por procesos geológicos radicalmente diferentes a los del presente. [■5-8] Población, en el campo de la biología, es un conjunto de organismos de la misma especie que viven al mismo tiempo en un área geográfica definida. [■5-9] Quiralidad es la propiedad de un objeto de no ser superponible con su imagen especular. Ejemplo: la mano izquierda no es superponible con la mano derecha.

119

[■5-10] La fermentación es un proceso catabólico de oxidación incompleta, que no requiere oxígeno, siendo el producto final un compuesto orgánico. La mayoría de los procariontes vivos practican la fermentación. [■5-11] Endosimbiosis es un tipo de relación, en la que un organismo vive dentro de otro. [■5-12] Lynn Margulis, bióloga estadounidense, una de las principales figuras del evolucionismo. [■5-13] En el enlace http://es.wikipedia.org/wiki/Metabolismo_microbiano se puede encontrar información detallada acerca de los metabolismos practicados por las bacterias. [■5-14] Notocordio o notocorda es una estructura longitudinal flexible, que sirve de esqueleto axial interno de algunos organismos. La notocorda también sirve como esqueleto de los embriones hasta que se formen otros elementos, como las vértebras. [■5-15] Las zonas cálidas de nuestro planeta la constituyen la mayor parte de la superficie terrestre (excepto las zonas polares), unas decenas de metros de la superficie oceánica y la atmósfera hasta una altura de unos 2 km. Por el contrario, las 4/5 partes del volumen habitable terrestre, incluidos los océanos (a partir de algunas decenas de metros de profundidad) y las zonas polares, nunca superan los 5 ºC. [■5-16] El pH, abreviatura de potencial de Hidrógeno, es un parámetro muy utilizado en química y biología para medir el grado de acidez o alcalinidad de las sustancias. La escala del pH va desde 0 hasta 14: el valor de pH 7 se considera neutro; los valores de pH menores de 7 indican el grado de acidez y los mayores que 7 el de alcalinidad o basicidad. Matemáticamente “el pH es el logaritmo negativo de la concentración molar de los iones hidrogeno o + protones (H ) o iones hidronio (H3O)”.

+ pH = -log [H ] o pH = -log [H3O] El pH es un factor clave para que muchas reacciones se realicen o no. En biología, las enzimas, responsables de reacciones bioquímicas, desarrollan su actividad catalítica bajo cierto rango de pH, fuera del cual decae mucho su actividad. Nuestra sangre tiene un pH entre 7,35 y 7,45 y, fuera de ese rango, quedan seriamente comprometidas nuestras funciones vitales. El pH de los alimentos es un marcador del buen o mal estado de conservación…

120

■6. Requisitos para la habitabilidad extraterrestre

Podemos definir la habitabilidad como la aptitud de un cuerpo celeste y su entorno para propiciar el origen y el mantenimiento de la vida. Los capítulos anteriores proporcionan los conocimientos y algunas ideas básicas necesarias para establecer los requisitos y las características que deberían de reunir otros mundos para que la vida pueda surgir y evolucionar, al menos para una vida similar a la que ya conocemos, es decir, utilizamos la vida terrestre y el sistema Tierra-Sol como nuestros patrones estándar en la búsqueda de otros mundos habitables. Es posible que estos “prejuicios” limiten el campo de posibilidades, pero, al menos, sabemos que estamos buscando algo que ya sabemos que ha funcionado. Por su parte, la comunidad científica considera como requisitos imprescindibles para la vida la presencia de una fuente de energía, agua líquida y carbono, pero tampoco se descarta que en la inmensidad del universo puedan existir otras formas de vida que utilicen líquidos bióticos distintos del agua, por ejemplo etano, u otro elemento distinto del carbono, como el silicio [■6-1], que puedan generar “otras biomoléculas” distintas de las que conocemos. En todo caso, siempre podremos añadir una coletilla puntualizando que “los requisitos revelados son para la vida terrestre que conocemos”. Otro factor a tomar en consideración, antes de establecer los requisitos para la habitabilidad, es el tipo de organismo que estemos considerando: las condiciones para la habitabilidad de un organismo pluricelular, por ejemplo Homo sapiens, serán, en general, más restringidas que las de un unicelular y completamente distintas a las de un extremófilo. Pasamos a analizar y a valorar las características que habitualmente se consideran imprescindibles, o al menos convenientes (Figura ■6-1), para que un mundo exterior, por ejemplo un exoplaneta [■4-2], sea habitable:

 Situado en la zona habitable (ZH) de su estrella.  Orbitando una estrella adecuada.  Planeta telúrico y masivo, con “suelo”.  Órbita y rotación adecuada. Otros requisitos, como la presencia de un “satélite grande” que estabilice el eje de giro de un planeta, pueden ser necesarios para la evolución de algún tipo particular de organismos; tal vez podría ser el caso de los pluricelulares terrestres (animales).

121

Hay también autores que consideran necesaria la presencia de un planeta gigante, que, situado a la distancia adecuada, podría actuar como escudo protector del presunto planeta habitable. Esta idea, no aceptada por todo el mundo, está inspirada en la existencia de Júpiter en nuestro SS, que en determinadas circunstancias puede proteger a los planetas interiores de los impactos de meteoritos o de comentas. Nota: en la ■Figura 6-1, y otras que vendrán a continuación, los tamaños de los cuerpos celestes están muy exagerados respecto a las distancias que los separa.

Zona estelar habitable (ZH): Zona habitable (ZH) de una estrella es una región circumestelar (■Figura 6-1) donde la radiación recibida hace posible la existencia de agua líquida en la superficie de un planeta (o un satélite), con una atmósfera similar a la terrestre, allí situado. Se consideran planetas de 0,6 a 10 masas terrestres (Mt) y presión atmosférica superior a 6,1 mbar (punto triple del agua).

La ■Figura 6-2 representa en abscisas la distancia planeta- estrella en unidades astronómicas (ua), y en ordenadas la masa estelar en masas solares (Mסּ). La superficie verde muestra las distancias a los distintos tipos de estrellas en las que podría existir agua líquida, es decir, la ZH. Se han superpuesto los planetas de nuestro SS, donde vemos a la Tierra situada dentro de la ZH (“lógicamente”). La ZH estelar varía en función de las características del sistema estrella-planeta que lo componen:  La distancia de la ZH a la estrella depende de la cantidad energía emitida por esta. A mayor masa estelar, y por lo tanto mayor luminosidad, más distancia de la ZH a la estrella (■ Figura 6-2).

 La luminosidad de una estrella de la secuencia principal [■6-2] aumenta con el paso del tiempo, aproximadamente un 8 % cada 1.000 Ma; por lo tanto la ZH se “aleja” de la estrella a medida que esta envejece. Esto genera el concepto de zona habitable continua (ZHC), como aquella región, más estrecha que la ZH, donde el agua puede permanecer en estado líquido durante toda la secuencia principal de la estrella.  La temperatura superficial de un planeta depende también del efecto invernadero de su atmósfera, cuyo incremento de temperatura se añade al generado por la estrella. En el caso terrestre (■ Figura 6-3), la temperatura en función de la distancia al Sol es de 255 K (-18 ºC), incompatibles con el agua líquida, al 122

que se añaden 33 ºC debidos al efecto invernadero (recuadro en ■ Figura 6-3), para totalizar unos confortables 15 ºC.

El límite interno de la ZH se corresponde con la ausencia de CO2 y temperatura de 100 ºC. En este caso el efecto invernadero (EI) lo fijan las grandes cantidades de vapor de agua presentes en la atmósfera. Para nuestro Sol este límite interno se sitúa a 0,80-0,85 ua. En el pasado se situaba a menos de 0,72 ua, incluyendo por lo tanto a Venus en su interior. El límite externo corresponde a una abundancia máxima de

CO2 y temperaturas de 0 ºC, a partir de la cual se congelan los océanos (considerando también el efecto de las nubes). Se estima que para el SS este límite se sitúa a unas 2 ua (Marte, a 1,52 ua, quedaría en su interior). Para más detalles sobre estos límites, véase [■6-3] al final del capítulo. Notas: 1) No debe de existir ningún cuerpo masivo, como un gigante gaseoso, dentro o cerca de la ZH, interfiriendo la posible formación de exoplanetas rocosos en esa zona. 2) Los gigantes gaseosos situados en la ZH no son habitables, sin embargo sus satélites sí podrían ser aptos para la vida, si su masa es suficiente para retener una atmósfera mínima (superior a 0,12 Mt). 3) Si los planetas del Sistema Solar son representativos, el número máximo de planetas con océanos de agua líquida en superficie sería de uno por sistema estelar. Ampliación del concepto de zona habitable: hasta hace unas tres décadas se consideraban como habitables aquellas zonas compatibles con la vida humana, sin embargo hay hechos relevantes que nos obligan a reconsiderar la ampliación del concepto de habitabilidad:  Hallazgo de vida en los lugares más inhóspitos, colonizados por los organismos extremófilos.  Posible existencia de agua líquida bajo la superficie del planeta o sus satélites, en zonas alejadas de la “ZH”, debido a la energía interna de estos objetos, efectos de marea…

Estos puntos nos obligan a reflexionar “generosamente” sobre la posible ampliación de las zonas aptas para la vida, particularmente paro los microorganismos.

Estrella anfitriona adecuada Es muy probable que existan muchos planetas rocosos y de tamaño similar a la Tierra, pero es igual de importante que su ubicación y el entorno también sean adecuados para la vida. En nuestro planeta las células simples necesitaron cerca de 1.000 Ma para desarrollarse, y el registro fósil muestra que fueron necesarios 4.000 Ma para que se formaran los primeros organismos complejos. Para que un exoplaneta rocoso sea apto para el desarrollo y el mantenimiento de vida compleja, se considera imprescindible que la estrella anfitriona proporcione la energía necesaria de forma duradera y estable.

123

Luminosidad duradera Para las estrellas en la secuencia principal (SP) (etapa estable de su vida), la clase espectral indica la temperatura de su fotosfera, que a su vez está relacionada con la masa así como con el tiempo de permanencia en la SP, clave importante para la habitabilidad (■Tabla 6-1). Tipos espectrales O, B y A: estrellas poco abundantes (menos del 1 % del total) y muy masivas, millones de veces más luminosas que el Sol, por lo que su ZH es muy amplia y se encuentra muy alejada de la estrella. Se consideran inadecuadas para la formación de sistemas habitables: . Periodo de permanencia en la SP menor de 1.000 Ma (en algunos casos menor 10 Ma), claramente insuficientes para el desarrollo y evolución de la vida. . ZH, aunque amplia, muy alejada de la estrella, siendo poco probable la formación de planetas telúricos en esa zona. . Rápido desplazamiento de la ZH hacia el exterior, disminuyendo “el tiempo” de habitabilidad continua (ZHC) para un hipotético planeta telúrico allí situado. Teóricamente, algunas estrellas de tipo "A" entran en la “ventana temporal” en que la vida podría surgir, pero seguramente no alcanzaría una evolución significativa debido tanto al rápido desplazamientos de la ZH que hemos indicado, como al aumento de la luminosidad. . Emisión de mucha radiación en forma de rayos X o rayos gamma, que presumiblemente van a erosionar la atmósferas de los posibles planetas que las orbiten. Tipos espectrales F, G y K: estrellas de masa intermedia, que incluyen a un 23 % de las estrellas de la Vía Láctea. Dentro de estos tipos, las consideradas idóneas para ser habitables se sitúan en el rango desde “F bajo” hasta “K mediano” (entre 1,2 y 0,6 masas solares), quedando reducido a un 13 %, del total de estrellas de la VL, las consideradas adecuadas para que la vida pueda surgir y evolucionar. Nuestro Sol, del tipo G2, se sitúa “casualmente” en el centro de estos límites: . Permanecen en la SP unos cuantos miles de millones de años, dando oportunidad a la vida para su desarrollo y evolución. . ZH a una distancia a la que no se produce el bloqueo de los planetas por efecto marea [■6-4]. . Radiación UV moderada, suficiente para el desarrollo de fenómenos atmosféricos, como la formación de

ozono (O3), pero no tanto como para destruir las evoluciones biológicas incipientes.

Se estima que las estrellas adecuadas para albergar planetas en los que la vida pueda surgir y evolucionar queda restringida a los tipos: F bajo, G y K alto, lo que representa en torno al 13 % del total de estrellas de la Vía Láctea. Nuestro Sol pertenece al tipo espectral G2, y se sitúa en el centro de estos tipos espectrales. En el caso de considerar adecuadas la totalidad de las estrellas de tipo F, G y K, el porcentaje de estrellas habitables subiría al 23 % (Tipo F = 3 %; tipo G = 7,6 % y tipo K = 12, 1 %)

Tipo espectral M (enanas rojas): estrellas de pequeño tamaño (0.1 a 0.45 Ms), pero muy abundantes, constituyendo aproximadamente el 76 % de las estrellas de nuestra galaxia, siendo muy relevante el incluir o no a esta categoría estelar entre las candidatas a habitables. El argumento más significativo en contra de la habitabilidad es que la ZH se encuentra muy cercana a la estrella, quedando bloqueado el giro de un planeta ahí situado, sobre todo para masas menores de 0,4 Ms (■ Figura 6-2). Principales inconvenientes para la vida:

124

 La cara frente a la estrella estaría permanentemente iluminada, con posibles temperaturas excesivas, mientras que la opuesta permanecería oscura y posiblemente congelada.  Según modelos (■Figura 6-4), el agua se evaporaría en la zona iluminada y se congelaría en el hemisferio oscuro, acabando por desaparecer el agua líquida de la superficie del planeta.  Fotosíntesis imposible en la cara nocturna (nunca recibiría la luz), y complicada en la cara diurna, ya que las enanas rojas emiten principalmente en el infrarrojo. Sin embargo, hay sistemas en la Tierra que usan la quimiosíntesis en vez de la fotosíntesis, lo que también sería posible en una enana roja.  Estas estrellas son inestables en sus inicios y pasan mucho tiempo con emisiones de alta energía ultravioleta extrema (sometiendo la atmósfera a fotodisociación) e intensos vientos estelares. Esto, unido a la ausencia de una magnetosfera planetaria (por falta de giro), implica un grave riesgo de pérdida de la atmósfera y el agua de los hipotéticos planetas situados en la “ZH”.

 Riesgo de comportarse como una estrella “fulgurante”, con episodios de temperatura superficial cuatro veces superior a la media, durante periodos de minutos a varias horas. No obstante, también concurren otros factores que se consideran positivos:

 Al ser muy numerosas y permanecer muchos miles de millones de años en la SP (■Tabla 6-1), la vida dispone de muchos lugares y de mucho tiempo para desarrollarse y evolucionar. Quizás podría surgir en la zona intermedia entre el hemisferio iluminado y el oscuro, es decir, en torno a la línea de separación del día de la noche (terminador). Según modelos, una atmósfera de solo 100 mb, compuesta por gases de efecto invernadero (■Capítulo 5), sería suficiente para trasvasar el calor entre hemisferios y suavizar el clima, condición favorecida para las “súper-tierras”, por su mayor gravedad. Nota.- Debido seguramente a sesgos observacionales (■Capítulo 7), se están detectando muchos más planetas orbitando estrellas de tipo M que en las de mayor tamaño. Creemos que esto ha estimulado el interés de los “buscadores” para incluir y presentar a este tipo de estrellas como candidatas a albergar planetas habitables.

Cuestión clave: ¿puede existir vida en torno a una enana roja?

Luminosidad estable La estabilidad de la radiación emitida por una estrella es otra condición indispensable para la habitabilidad. Nuestro Sol sigue un ciclo de unos 11 años, con fluctuaciones luminosas inferiores al 0.1 %. Caídas de brillo del 0.5 %, o menos, situarían la vida terrestre en la época más fría de la Pequeña Edad del Hielo [■6-5] y variaciones del 3 % harían que la vida, tal como la conocemos, dejase de existir. Las estrellas de la secuencia principal, fusionando hidrógeno para convertirlo en helio, solo experimentan un ligero y regular aumento de luminosidad a lo largo del tiempo, como el caso de nuestro Sol, compatible con el desarrollo y evolución de la vida. Sin embargo se presentan circunstancias, relativamente frecuentes, en

125 las que la habitabilidad puede quedar seriamente comprometida: estrellas variables y estrellas binarias o múltiples.

Estrellas variables Experimentan variaciones significativas de luminosidad (y por lo tanto de la energía radiada), en periodos temporales relativamente cortos, en algunos casos acompañados con altas dosis de radiaciones gamma y rayos X, que las hacen incompatibles con la vida compleja. Las más significativas de estas familias son:

 Cataclísmicas: experimentan súbitos cambios de brillo (novas, supernovas).  Eruptivas: violentos procesos en la cromosfera y corona. Producen erupciones y expulsión de las capas superficiales.  Pulsantes: presentan expansiones y contracciones como parte de su proceso evolutivo, con cambios de luminosidad y temperatura.  Jóvenes: (ya en la SP). Excesiva emisión radiactiva, impactos destructivos entre planetesimales en formación.  Baja metalicidad: pocas probabilidades de formar planetas o planetas poco masivos no favorables para la vida.

Sistemas estelares unitarios frente a sistemas binarios o múltiples Según las estimaciones más comunes, el 70 % de las estrellas que observamos son binarias o múltiples, con separaciones desde menos de una UA hasta cientos de UA. En principio, estos sistemas (binarios o múltiples) se consideran poco adecuados para la vida, sobre todo para aquellos planetas cuya distancia a su estrella primaria sea mayor que 1/5 de la distancia que le separa de la otra estrella, en cuyo caso seguramente se generarían:

 Órbitas planetarias poco estables para albergar planetas con agua líquida. Riesgo para los planetas de ser eyectados fuera del sistema o aspirados dentro de una estrella

 Órbitas muy excéntricas y climas caóticos. Sin embargo, si las estrellas están suficientemente alejadas (cientos de UA), los efectos gravitacionales de una estrella sobre un planeta situado en la ZH de la otra estrella serían despreciables. Últimamente, a través del telescopio espacial Kepler, se han detectado sistemas estelares cuyos planetas (gigantes gaseosos) orbitan en torno a dos estrellas cercanas. Bajo esta configuración (■Figura 6-5), si las características de un planeta y su distancia al centro de masa de las estrellas (baricentro) fuesen adecuadas para ocupar la ZH “común” de ambas estrellas, seguramente podría ser habitable.

En base a las consideraciones anteriores, se estiman como habitables por estos conceptos, solo los sistemas estelares unitarios (30 %), más la mitad de los sistemas planetarios binarios (35 %). En resumen, el total de estrellas habitables serían el 65 % del total de las estrellas (30 % correspondiente a los sistemas estelares unitarios, más un 35 % correspondiente a la mitad de los sistemas binarios).

126

Planeta telúrico y masivo

Pasamos a relacionar las características físicas que se estiman necesarias para que en un hipotético exoplaneta se pueda desarrollar la vida: Planeta de tipo rocoso: es la primera característica que se le supone a un cuerpo celeste para que pueda sustentar agua líquida superficial y albergar un tipo de vida como la terrestre. No se consideran válidos cuerpos como: gigantes gaseosos, enanas marrones… Masa de 0,6 a 10 masas terrestres (Mt): en base al conocimiento de nuestro planeta y de la vida que aquí ha surgido y evolucionado, los científicos estiman que la masa de los planetas aptos para la vida debe de situarse entre los límites señalados. Masa mínima de 0.6 Mt: . Gravedad del planeta lo suficientemente alta para generar una velocidad de escape en la parte alta de la atmósfera que impida la fuga masiva de elementos disociados por las partículas del viento estelar (protones de alta energía), y la consiguiente pérdida de la atmósfera [■6-6] al cabo de cierto tiempo (como pudo ocurrir en Marte). Obviamente, es la atmósfera lo que permite: la existencia de agua líquida; la protección de la hipotética biosfera de las radiaciones peligrosas; la regulación de la temperatura del planeta a través del efecto invernadero; protección de ciertos impactos… . El tamaño de los planetas rocosos también puede afectar al límite exterior de la ZH, al retener una atmósfera más densa que pueda generar un mayor efecto invernadero, evitando posibles glaciaciones. . Buena relación superficie/volumen que permita retener en el tiempo la energía interna suficiente para el mantenimiento de la actividad geológica (vulcanismo, tectónica de placas…). La causa de la muerte geológica prematura de Marte puede haber sido su escasa masa de solo 0,1 Mt (masa terrestre). . Posible gran núcleo de hierro (unido a una rotación rápida del exoplaneta) para generar el campo magnético protector del viento estelar, que de otro modo tendería a “barrer” la atmósfera del exoplaneta (punto no aceptado por todos los científicos). Masa menor de 10 Mt: Se considera necesaria para evitar una atmósfera excesivamente densa que impediría que la luz alcance el suelo, haciendo inviable el proceso de fotosíntesis, o que se trate de planetas compuestos por volátiles, como Urano o Neptuno [■6-7]. . Algunos autores consideran que los planetas con un radio superior a 1,5 radios terrestres (Rt), pueden tener tendencia a acumular atmósferas masivas (H/He), generando planetas tipo Neptuno poco adecuados para la vida. . Actualmente se estima que los exoplanetas más adecuados para la vida son aquellos cuyas masas están comprendidas entre 0,6 y 2 Mt, que reciben el nombre genérico de “tierras”, mientras que para masas entre 2 y 10 Mt, denominados “supertierras”, la habitabilidad es dudosa.

127

Órbita y rotación adecuadas Las variaciones orbitales y rotacionales son las principales causas de las oscilaciones climatológicas de los exoplanetas (periodos glaciales e interglaciares). Estas variaciones hacen que la radiación media que recibe la superficie planetaria varíe a lo largo del tiempo, con independencia de la radiación estelar. Las características más significativas son: excentricidad de la órbita, inclinación del eje de rotación, velocidad de rotación y precesión eje de rotación (efecto peonza).

Excentricidad orbital Son deseables excentricidades orbitales moderadas, ya que valores altos suponen importantes desplazamientos radiales del exoplaneta, pudiendo sobrepasar los límites de la ZH (■Figura 6-6), dando lugar a la evaporación o a la congelación masiva del solvente biótico (normalmente agua), en cuyas condiciones es difícil imaginar cómo podría evolucionar la vida que conocemos. Como dato de referencia, la excentricidad de la Tierra oscila entre 0.005 (casi circular) y 0.058 (ligeramente elíptica), siendo actualmente de 0.017, con un periodo de 100.000 años aprox. La opinión mayoritaria es que las altas excentricidades son debidas a interacciones mecánicas de alta energía, que provocan alteraciones caóticas hacia una alta excentricidad. Falta explicar por qué nuestro SS, que supuestamente ha sufrido este tipo de interacciones, no muestra dichas altas excentricidades. Se considera que una excentricidad de 0,2 es el valor máximo admisible para asegurar una permanencia duradera entre los límites de la zona habitable. Nota. Como veremos en el ■ Capítulo 8, la mayoría de los exoplanetas detectados hasta la fecha presentan, sorprendentemente, una alta excentricidad, muy superior a la media de los planetas de nuestro SS.

Inclinación del eje de rotación La inclinación del eje de rotación del exoplaneta, respecto al plano de traslación (■ Figura 6-7), influye en las condiciones meteorológicas. Los modelos en computadora, muestran: Inclinación pequeña o nula: no se producen estaciones siendo menor el “estímulo” para la dinámica de la biosfera... Inclinación extrema: los modelos no muestran graves inconvenientes de habitabilidad para inclinaciones de hasta 85 grados, salvo en las superficies continentales sometidas a las mayores temperaturas. Es importante no solo la inclinación media, sino también su rapidez de variación en el tiempo. La inclinación del eje de rotación de la Tierra varía entre 21.5 y 24.5 grados en un periodo de 41.000 años, con un valor actual de 23.45 grados.

128

Velocidad de rotación La velocidad de rotación (o de giro) del exoplaneta (■Figura 6-8), debe de ser relativamente rápida. Periodos muy duraderos (años), pueden generar temperaturas diferenciales entre los hemisferios diurno y nocturno muy pronunciadas, dificultando la habitabilidad. Una atmósfera de cierta densidad suavizaría las diferencias de temperatura. Una rotación relativamente rápida también es necesaria para generar campos magnéticos.

Movimiento de precesión Movimiento realizado por el cambio en la dirección del eje de rotación del exoplaneta (efecto “peonza), simultáneo a la traslación orbital (■ Figura 6-9). La precesión, por sí misma, no afecta a la habitabilidad, ya que solo cambia la dirección de la inclinación, no su grado. Combinada con otros movimientos planetarios acentuará o suavizará las condiciones de habitabilidad. La situación extrema se produce cuando el plano que pasa por el eje de de rotación del planeta, manteniéndose perpendicular al plano orbital, coincide con la línea de ápsides [■6-8] (situación equivalente en la Tierra a la coincidencia de los solsticios con los vértices de la elipse orbital). El movimiento de precesión de la Tierra, de sentido contrario al de rotación, tiene un periodo de 25.800 años y se debe principalmente a la atracción gravitatoria del Sol y la Luna sobre el ensanchamiento y exceso de masa del “cinturón ecuatorial” de nuestro planeta. Si la Tierra fuese perfectamente esférica este movimiento no existiría.

Satélite grande Un satélite grande, como la Luna en el caso de la Tierra (■Figura 6-10), actúa gravitacionalmente sobre los excedentes de masa en el cinturón ecuatorial del planeta (debidos a la rotación). Dado que uno de los “excedentes” está más cerca del satélite que el otro, la fuerza resultante se encuentra desplazada del centro del planeta, en la dirección del satélite, estabilizando así el eje de rotación y evitando climas caóticos. Se estima que la inestabilidad del eje afectaría principalmente la evolución hacia la vida compleja. ¿Sería necesaria esta circunstancia de estabilidad para la vida oceánica, fauna voladora «migratoria en general»...?. Hay controversia acerca de este punto.

Dadas las condiciones en que se formó la Luna (■Figura 4-12), los satélites grandes se consideran altamente improbables. Si verdaderamente esta condición fuese necesaria, quedaría limitada, de forma importante, la probabilidad de vida avanzada en otros mundos y más aun la “vida avanzada tecnológica”.

129

Planeta exterior grande Los planetas gigantes gaseosos constituyen verdaderos escudos protectores, ya que con su potencia gravitatoria capturan o desvían gran parte de los cometas o asteroides que podrían pasar al interior de su sistema estelar (■Figura 6-11), y originar colisiones devastadoras. Si uno de estos gigantes está suficientemente alejado de la zona habitable para no perturbarla, pero lo suficientemente cerca para protegerla, forma lo que han venido a denominarse “buenos júpiteres”: . Contribuyen a estabilizar la órbita, y por lo tanto la estabilidad y la habitabilidad de posibles planetas rocosos situados en la ZH. . Mantienen el interior de su sistema estelar libre de la mayoría de cometas y asteroides que podrían originar impactos catastróficos. Sin embargo, cuerpos celestes del tamaño de Júpiter, situados en órbitas cercanas a la ZH o que la crucen, hacen inviable la existencia de planetas habitables en un sistema planetario. Algunos autores estiman que sin Júpiter la frecuencia de impactos catastróficos se produciría cada 100.000 años, mientras que con la protección de Júpiter lo hacen cada 100 Ma. Notas: La presencia de un gigante gaseosos entre la ZH y la estrella, con toda probabilidad habrá perturbado la zona interior de su sistema estelar durante el proceso migratorio, por lo que posiblemente quede excluida la existencia de planetas similares a la Tierra en este tipo de sistemas (véanse los ■Capítulos 3 y 8). El “rol de portero” de nuestro Júpiter quedó demostrado de forma espectacular con la captura del cometa Shoemaker-Levy 9 en 1994. Sin la protección gravitatoria del gigante, el cometa podría haber pasado al sistema interior con consecuencias inesperadas. En Wikipedia figura un texto que dice: “Se ha estimado que Júpiter, debido a su gran masa, perturba las regiones cometarias como la nube de Oort atrayendo la mayoría de los cometas que caen sobre el Sistema Solar interior. No obstante, también los acerca sobre sí mismo por lo que es difícil estimar la importancia que tiene Júpiter en la llegada de cometas a la Tierra”.

Zona habitable galáctica (ZHG) Esta sección se ha adaptado a partir de los datos que figuran en el libro de John Gribbing “SOLOS EN EL UNIVERSO”, donde se considera que ciertas zonas de las galaxias son más adecuadas que otras para la formación de sistemas planetarios habitables por seres inteligentes. Esta información la vamos a necesitar en el ■Capítulos 8, donde realizaremos un ejercicio acerca de las posibilidades de vida en la Vía Láctea. Es frecuente escuchar razonamientos como el siguiente: “si en la Vía Láctea hay 100.000 o 200.000 millones de estrellas (algunos incluso apuntan a un billón), tiene que

130

haber muchas en las que exista un planeta como la Tierra y seguramente con vida”. Este razonamiento lleva implícita la idea de una galaxia uniforme, por lo tanto, lo que ocurre en nuestra “zona” también debería de repetirse en el resto. La clasificación tradicional de estrellas: (a) Población II, estrellas viejas pobres en metales y (b) Población I, estrellas jóvenes ricas en metales, debe de sustituirse por un análisis más detallado que relacione la habitabilidad con la estructura y las características de distintas regiones de la galaxia (■Figura 6-12):

 Halo: región exterior de la galaxia de unos 300.000 años luz (al) de diámetro, con muy baja densidad de estrellas viejas, cuya metalicidad es inferior al 10 % de la solar (mínimo necesario para la formación de planetas: 40 % de la solar). Zona poco apropiada para formar planetas  Bulbo: región central de la galaxia con gran densidad de estrellas. Zona de difícil investigación debido al polvo del disco, no obstante la observación infrarroja permite obtener algo de información. Amplia gama de metalicidades, aunque pocas estrellas son tan jóvenes como el Sol. Es una zona de mucha actividad debido a la proximidad entre las estrellas y a la cercanía del gran agujero negro central. No se considera un buen lugar para la vida.  Disco grueso: situado en el plano galáctico. Diámetro de unos 100.000 al y un espesor de unos 4.000 al. Se trata de una población de estrellas viejas y pobres en metales, procedentes de pequeñas galaxias “engullidas” por la VL. Zona poco adecuada para formar planetas.  Disco delgado: situado en el plano galáctico. Diámetro de unos 100.000 al y 1.000 al de espesor. En esta región continúa la formación estelar a partir del gas y polvo galáctico y el enriquecimiento en metales. Se considera que este disco es la única zona que reúne las condiciones apropiadas para la formación de sistemas planetarios, con las limitaciones que pasamos a detallar. Los astrofísicos han comprobado que la metalicidad de las estrellas disminuye radialmente en la dirección del bulbo al borde del disco y que hay estrellas viejas en el bulbo (detectadas con medios espectroscópicos). Esto apoya la idea de que los “metales” de la VL (y el resto de galaxias espirales) se desarrollaron desde el centro hacia los bordes (tras varias generaciones de estrellas) como una onda que alcanzó los valores adecuados para la formación de planetas en la situación del SS unos 8.000 a 10.000 Ma después del Big- Bang. Hacia el exterior la metalicidad es menor y tendrían que transcurrir varios millones de años para alcanzar el mínimo necesario en el borde del disco. Esto es bastante relevante, pues, como hemos visto, existe una estrecha relación entre la metalicidad y la probabilidad de formar planetas (■Figura 3-5). Otra heterogeneidad de la Vía Láctea son las radiaciones procedentes de las explosiones de supernovas cuyo máximo parece encontrarse a 1/3 de la distancia entre el centro galáctico y el Sol, además de las perturbaciones que el gran agujero negro induce en esa zona. Una última consideración, es que una metalicidad muy alta (por encima de la solar) puede ser negativa para la formación de planetas como la Tierra, circunstancia que de momento no se puede afirmar debido a la falta de suficientes datos estadísticos. Lo que sí parece verificarse, es que la alta metalicidad da lugar a gigantes gaseosos que se localizan cerca de la estrella anfitriona. Como síntesis de lo indicado (■Figura 6-13), y a pesar de la carga especulativa que pueda contener, surge el concepto de Zona de Habitabilidad Galáctica (ZHG), región limitada a una “corona circular” del disco delgado con un radio interior de 23.000 al y un radio 131 exterior de unos 29.000 al (Charles Lineweaver y equipo), zona en la que hace unos 5.000 Ma, cuando se formó el SS, la metalicidad era suficiente para la creación de planetas como la Tierra (para no complicar el relato, no se incluyen aquí las perturbaciones debidas a las ondas de densidad de materia que forman los brazos galácticos).

Según John Gribbing, autor del libro “SOLOS EN EL UNIVERSO”, la fracción estimada de estrellas en la zona galáctica adecuada para que puedan evolucionar organismos inteligentes (ZHG), es de solo el 10 %. Quizás la habitabilidad para organismos más simples podría “ampliarse” a una corona que incluyese al 20 % de las estrellas de la galaxia.

Nota: el Sistema Solar, situado en un borde del Brazo de Orión, reside “casualmente” en una zona favorable para la vida.

“Tierra Rara” (RARE EARTH) En el año 2000, el paleontólogo Meter Ward y el astrónomo Donald Brownlee publicaron el libro RARE EARTH, donde figuran, según los autores, los requisitos necesarios para la vida compleja. En la ■Tabla 6-1 incluimos de forma resumida dichos requisitos, así como las opiniones más generalizadas por parte del mundo científico (adaptado a partir del libro PLANETAS de Francisco Anguita Virella & Gabriel Castilla Cañamero): Lista de necesidades para la vida en “RARE EARTH” Comentarios Solo galaxias espirales grandes, las que disponen de En la misma época se descubrían los objetos HEROS, más elementos pesados para formar planetas galaxias enanas elípticas lejanas, con abundantes sólidos. elementos metálicos. Zona adecuada de la galaxia: ni el núcleo (mucha Nadie puede descartar la existencia de algún tipo de radiación), ni la periferia (pocos metales) vida compleja adaptada a ambientes de radiación elevada. Nube primigenia con abundantes elementos Existen numerosos planetas rocosos orbitando pesados, necesarios para formar tanto planetas estrellas de baja metalicidad (por ejemplo el Sol, por sólidos, como seres vivos. debajo de la media). Existencia al menos de un planeta gigante en el Se trata de una protección de probabilidad incierta, sistema planetario, que actúe como escudo contrarrestada por el peligro de la migración de los protector. gigantes hacia su primaria. Por otra parte, los planetas gigantes son muy abundantes. Un planeta como Marte, semillero de vida. ¿Panspermia obligatoria? ... Satélite gigante para estabilidad del eje de rotación. ¿Fauna oceánica, voladora...? Oblicuidad adecuada, que genere un clima con La fauna más abundante no conoce las estaciones. estaciones. Movilidad continental, ambiente cambiante, bueno En la Tierra, con movilidad litosférica, la vida para la evolución. compleja no surgió hasta pasados unos 4000 Ma. Poco científico. No señalan la relación causa/efecto. Alguna Tierra blanca [■6-9] de la que surgió la explosión cámbrica hace unos 540 Ma. Acumulación adecuada de oxigeno: ni poco ni más Rasgo no universal. ¿Qué pasa con la vida que no del 22 % (riesgo de incendios espontáneos). conocemos? Evolución hacia animales y plantas superiores. ¿?... efectivamente, si no hay evolución no se alcanza la vida compleja.

132

Consideramos que los requisitos de Tierra rara pretenden “demostrar” que la vida compleja es un hecho insólito en el universo y crear, de forma consciente o inconsciente el mito de Tierra única. La columna de la izquierda establece unos requisitos que conducen al lector al punto final al que querían llegar. Se trata de argumentos que son a la vez antropocéntricos, geocéntricos, heliocéntricos y hasta un poco “galactocéntricos”. Nota del autor. Se ha incluido este punto, cuyas especulaciones no comparte, para que el lector pueda conocer todos los razonamientos y estados de opinión.

Partiendo de los medios actuales disponibles, el objetivo inmediato es la búsqueda de: planetas telúricos de masa adecuada (0,8 a 2 Mt), situados en la ZH de estrellas similares al Sol (F bajo, G y K alto), y en órbitas poco excéntricas (e < 0,2).

Ahora, que ya conocemos los “requisitos estimados como necesarios para la habitabilidad”, es el momento adecuado para abordar el análisis de las características de los abundantes mundos extraterrestres detectados hasta la fecha, tarea que pasamos a abordar en el siguiente capítulo.

[■6-1] En el espacio interestelar, hasta la fecha, se han identificado unas 150 moléculas orgánicas, la mayoría con carbono (algunas consideradas como prebióticas), y solo un poco más de una decena contienen silicio, dato a favor de la química del carbono, mucho más creativa que la del silicio.

[■6-2] Se denomina secuencia principal a la región del diagrama de Hertzsprung-Russell en la que se encuentran la mayor parte de las estrellas, y en la que estas pasan la mayor parte de su vida. El diagrama de Hertzsprung-Russell (abreviado como diagrama H-R) muestra el resultado de numerosas observaciones de la relación existente entre la magnitud absoluta de una estrella y su tipo espectral.

[■6-3] Se han determinado expresiones matemáticas para calcular los radios interior (ZHri) y exterior (ZHro) de la ZH de las estrellas. Expresados en unidades astronómicas (ua): ZHri = (L/1,1)0,5; ZHro = (L/0,53)0,5, siendo L la luminosidad respecto a la del Sol (Lסּ). [■6-4] El acoplamiento de marea hace que un hemisferio del planeta permanezca fijo hacia su estrella, tal como ocurre con la cara visible de la Luna apuntando a la Tierra. En este caso, el planeta realiza una rotación sobre su eje (sincronizada) en el mismo tiempo que tarda en efectuar una órbita alrededor de su estrella. [■6-5] La Pequeña Edad de Hielo (PEH), comprendida entre comienzos del siglo XIV y mediados del XIX, representa un periodo de inviernos muy fríos en todo el planeta: el avance de los glaciares de los Alpes afectó a pueblos enteros, el Támesis y los ríos de los Países Bajos se helaron frecuentemente, la población de Islandia descendió a la mitad, y las colonias vikingas en Groenlandia desaparecieron, etc. En España el Ebro se heló siete veces entre 1505 y 1789. Los científicos achacan la PEH a baja actividad solar y alta actividad volcánica terrestre. [■6-6] Los cometas nos muestran, a pequeña escala, cómo el viento solar puede arrastrar los componentes volátiles de un planeta de baja gravedad, lo que lo convierte en incapaz para albergar vida. [■6-7] Los planetas gigantes gaseosos, no aptos para la vida (“que conocemos”), podrían ofrecer posibilidades en sus satélites naturales situados en órbitas cercanas. La energía interna necesaria se la proporciona el planeta por efecto mareal (Titán en Saturno, Europa en Júpiter…). 133

[■6-8] Los ápsides son los puntos extremos de la órbita de un cuerpo celeste en su movimiento alrededor de otro. [■6-9] Tierra blanca hace referencia a la glaciación ocurrida hace 750-580 Ma, denominada “Tierra bola de nieve”, (■Capítulo 4), periodo marcado por la presencia de depósitos glaciares en todos los continentes, excepto Australia, con riesgo de extinción de la vida sobre el planeta. Algunos científicos opinan que esta glaciación, por efecto “rebote”, pudo ser el detonante de la extraordinaria explosión de vida, denominada explosión cámbrica, que se produjo hace 540 Ma (■Capítulo 4), dando lugar a la aparición de los organismos pluricelulares.

134

■7. Exoplanetas: métodos de detección, resultados

Como ya hemos comentado, denominamos exoplanetas a los cuerpos similares a los planetas del SS, pero que orbitan en torno a otras estrellas [■7-1]. Como veremos más adelante, en este capítulo, en el año 1992 se descubrieron tres “planetas” orbitando a un “pulsar”, pero fue el año 1995 cuando se descubrió el primer planeta extrasolar orbitando a una estrella normal, lo que desencadenó una “gran fiebre” en la búsqueda de exoplanetas, por cierto con gran éxito, pero también con sorpresas: la mayoría de los sistemas y planetas detectados, sobre todo en la primera década, no se parecían a nuestro sistema solar ni a nuestra Tierra. Ahora ya sabemos que los exoplanetas abundan, aunque las características de los detectados seguramente están “sesgadas” debido a ciertos inconvenientes propios de los medios de observación disponibles. Ahora el objetivo es la búsqueda del “gemelo terrestre”: un planeta “como” la Tierra, orbitando en la ZH de una estrella “como” el Sol. Parece que esto no está al alcance de los medios actuales, por lo que seguramente tendremos que esperar a las nuevas generaciones de grandes telescopios, tanto terrestres como espaciales, previstos a partir de los años 2018 y 2020 (■capítulo 9). En este capítulo vamos a examinar los descubrimientos realizados hasta la fecha (1800 exoplanetas a finales de junio 2014), tratando de extraer conclusiones, aunque previamente realizaremos un análisis de los medios utilizados, sus características y sus limitaciones. Esto nos permitirá sopesar, al menos cualitativamente, sus limitaciones y los posibles sesgos introducidos, realizar una valoración rigurosa de lo encontrado hasta la fecha, así como considerar estimaciones más consistentes acerca de lo que podremos encontrar en un próximo futuro. En base a este planteamiento dividiremos este capítulo en dos partes principales: procesos y medios de detección de exoplanetas, con sus resultados parciales; y análisis de resultados globales.

Procesos y medios de detección de exoplanetas, resultados Los planetas emiten muy poca o ninguna luz propia (excepto en su juventud); únicamente reflejan parte de la que reciben de su estrella anfitriona. Además, al encontrarse muy lejos de nosotros y muy cerca (a escala interestelar) de su deslumbrante estrella anfitriona, no es posible, en general, observarlos directamente. En el espectro visible los planetas suelen emitir mucho menos que una millonésima parte de la luz radiada por su estrella (en el caso de Júpiter, el factor de reducción es de unos 100.000 millones). Como veremos, solo unos cuantos planetas (unas docenas) han podido ser fotografiados directamente. Debido a las dificultades apuntadas, la búsqueda de exoplanetas ha tenido que encauzarse a través de métodos indirectos que, afortunadamente, han proporcionado excelentes resultados.

135

Pasamos al análisis -más o menos por orden de aparición- de los métodos más significativos utilizados en la localización de exoplanetas: sincronización púlsar (SPU), detección directa (DD), velocidades radiales o espectroscopía Doppler (VR), microlentes gravitacionales (µL) y método de tránsitos (TR).

Método de la sincronización púlsar (SPU) La búsqueda de exoplanetas orbitando púlsares o estrellas dobles eclipsantes obedece a un mismo principio de funcionamiento: la exacta regularidad con la que se producen sus impulsos. Es por ello que los investigadores incluyen ambos métodos de detección en el mismo concepto: “sincronización púlsar” (SPU). Un púlsar es una estrella de neutrones que emite radiación en frecuencias de radio, rayos X o rayos gamma, que es percibida como una serie de pulsos periódicos muy regulares, a intervalos del orden de milisegundos. La ■Figura 7-1 ilustra la constitución de uno de estos objetos: una estrella de neutrones, con un intenso campo magnético, que genera una radiación muy colimada (haz estrecho), cuyo eje no coincide con el de rotación de la estrella. En estas condiciones, el “rayo” emitido genera una superficie cónica, que será percibida como una serie de pulsos periódicos en aquellos receptores que sean barridos por la radiación, de ahí la denominación de púlsar. El periodo de los pulsos recibidos es sumamente uniforme, y del orden de milisegundos, dependiendo de la velocidad de giro de la estrella de neutrones En aquellos casos en los que el púlsar esté orbitado por un “exoplaneta”, ambos objetos girarán en torno al centro de masa común, de forma que los pulsos recibidos pierden su regularidad, presentando ciertos adelantos y retrasos respecto a un valor medio (■Figura 7-2). Este fenómeno puede ser utilizado para determinar la masa del planeta, el periodo de rotación, así como la distancia del planeta a la estrella de neutrones. Fue por medio de este método como en 1992 fueron descubiertos los dos primeros “planetas” extrasolares orbitando al pulsar PSR B1257+12: (PSR B1275+12b, PSR B1275+12c). Más tarde fue detectado un tercer planeta en torno al mismo púlsar (PSR B1275+12d), todos ellos con masas entre 2 y 5 masas terrestres. Todos estos descubrimientos sorprendieron a muchos astrónomos, ya que solo esperaban encontrar planetas en torno a estrellas de la secuencia principal. Se cree que estos objetos pueden ser los núcleos rocosos de antiguos gigantes gaseosos, cuyas atmósferas fueron barridas por las ondas de choque generadas por la estrella en su explosión, o bien planetas de segunda generación formados con residuos de la supernova. También se especula sobre la naturaleza de estos objetos, seguramente muy distinta a la de aquellos que orbitan a estrellas “normales”.

Se considera que los “exoplanetas” orbitando a púlsares no son aptos para la vida debido, entre otras razones, a la intensa radiación que reciben del púlsar, así como a su desconocido origen y composición. En este trabajo no se toman en consideración respecto a las valoraciones de la habitabilidad extraterrestre.

136

La ■Figura 7-3 representa el caso de las estrellas dobles eclipsantes cuyo plano orbital pasa por los puntos de observación terrestre. También ahora, en el caso de que una de las estrellas disponga de un planeta, su órbita será alterada debido al giro adicional en torno al centro de masa común planeta-estrella (baricentro), generando pequeños adelantos o retrasos en la periodicidad de los eclipses con la estrella compañera, a partir de los cuales se pueden determinar las características del exoplaneta. Este método presenta las mismas ventajas que el de cronometraje de púlsares en cuanto a la precisión de las medidas, con la diferencia de que en estos casos se trata de exoplanetas normales. Junio de 1014: ambos métodos (púlsares y estrellas dobles eclipsantes) han permitido la detección de un total de 15 planetas (5 en torno a púlsar y 10 en torno a estrella) en 12 sistemas planetarios (2 sistemas múltiples: un pulsar con 3 exoplanetas y una estrella con 2). En el ■Gráfico 7-1 (eje X: distancia planeta estrella en UA, eje Y: masa de la estrella anfitriona en masas solares Ms, ZH = zona habitable) se representan los 9 exoplanetas detectados hasta la fecha por el método de las binarias eclipsantes, mostrando una distribución y masas planetarias similares a las de los gigantes gaseosos del Sistema solar.

El método de detección a través de las binarias eclipsantes demuestra que los planetas gigantes distanciados de sus estrellas también existen.

Método de la detección directa (DD) Se trata del método que presenta las mayores dificultades, debido al gran contraste mencionado entre las luminosidades de los planetas y sus estrellas anfitrionas. A pesar de ello los astrónomos han conseguido “fotografiar” algunos planetas extrasolares, aprovechando, lógicamente, todas las circunstancias favorables a su alcance: imágenes en infrarrojos, ya que en esta longitud de onda el contraste (diferencia de emisión) planeta/estrella es mínimo; utilización de coronógrafos para enmascarar la luz de la estrella; búsqueda de planetas calientes (jóvenes, aún en contracción), con gran emisión en el infrarrojo; planetas muy grandes (más que Júpiter) y alejados de la estrella. La ■Figura 7-4 (reproducida en falso color), muestra la primera imagen directa de un planeta extrasolar: fotografía infrarroja de la enana marrón 2M1207 y el exoplaneta 2M1207 b, realizada en 2004 por el VLT (por sus siglas en inglés: Very Large Telescope) del Observatorio Europeo del Sur (ESO). Se trata de un joven planeta de 4 masas jovianas (4 masas de Júpiter), con una temperatura superficial de unos 2500 K, orbitado a 40 UA de la enana marrón 2M1207.

137

El método DD (30/06/2014), ha permitido la detección de un total de 49 planetas en 45 sistemas planetarios (2 sistemas múltiples). Como muestra el ■Gráfico 7- 2 (eje X: distancia planeta estrella en UA, eje Y: masa de la estrella anfitriona en masas solares Ms, ZH = zona habitable), la mayoría de los exoplanetas encontrados por este método son muy masivos y se encuentran lejos de su estrella anfitriona. Los dos exoplanetas encerrados por un círculo punteado, con 0,67 y 4,4 masas terrestres (Mt), son atípicos de este método de detección: ambos forman un sistema planetario que orbita a la estrella KOI 55 (o Kepler 70), una enana roja que ya ha superado la fase de gigante roja y que actualmente se encuentra fusionando helio en su núcleo, paso previo para formar una enana blanca.

Exoplanetas “DD”: Se trata de cuerpos celestes muy distintos a la “Tierra buscada”, pero su detección directa es relevante al mostrar “visualmente” que los planetas extrasolares realmente existen. También se confirma (como el anterior método SPU) la existencia de planetas masivos orbitando en zonas alejadas de todo tipo de estrellas (desde 0,01 a 2,5 Ms).

La detección directa es un método a potenciar en el futuro, por su potencial para determinar algunos parámetros físicos muy importantes relacionados con la búsqueda de vida extraterrestre, como son la presencia de agua en superficie o las características de una hipotética biología.

Método de la velocidad radial (VR) Un planeta que gira en torno a una estrella hace que esta también se desplace (■Figura 7-5), de modo que ambos objetos giran en torno al centro de masa común. El movimiento orbital de la estrella se traduce en unos alejamientos y acercamientos periódicos al observador, a unas velocidades radiales que se puede determinar a través de las variaciones en la frecuencia de la luz recibida (color), lo que denominamos efecto Doppler [■7-2]. Las ondas se “comprimen” cuando la estrella se acerca y se “expanden” cuando se aleja. Estas variaciones son muy leves, no pudiendo ser captadas por el ojo pero sí por los modernos espectrómetros [■7-3], que consiguen altas precisiones en las medidas al comparar la longitud de onda de ciertas líneas oscuras del espectro de absorción [■7-4] de la estrella en estudio, con las longitudes de onda de referencia obtenidas en laboratorio. El efecto Doppler presenta cierta similitud con los cambios en la frecuencia del sonido de una sirena de ambulancia que pasa delante de un observador al borde de la ruta, donde se aprecia que el sonido es más agudo cuando la ambulancia se acerca que cuando se aleja. En el caso de las estrellas, cuando estas se alejan (curva roja

138 punteada de la ■Figura 7-5) la radiación emitida se desplaza a longitudes de onda más largas, denominado corrimiento hacia el rojo [■7-5], mientras que cuando se acercan (curva azul continua de la ■Figura 7-5), las longitudes de onda se acortan produciendo un corrimiento hacia el azul. El método VR es el que ha cosechado los mayores éxitos en el descubrimiento de exoplanetas durante los primeros 15 años de búsqueda. La ■Figura 7-6 muestra el gráfico de la detección del primer exoplaneta en el año 1995 por los astrónomos suizos Michel Mayor y Didier Queloz, utilizando el espectrógrafo ELODIE del Observatorio de Haute-Provence, Francia. Este planeta, denominado , orbita la estrella 51 Pegasi a 47,9 años luz (al) del Sistema Solar (SS). Los modernos espectrómetros han prestado una enorme contribución al éxito del método VR, especialmente el espectrómetro de segunda generación y alta precisión HARPS (High Accuracy Searcher, en inglés), instalado en 2002 en el telescopio de 3,6 metros de ESO en el Observatorio de La Silla, en Chile.

Principales inconvenientes del método VR: A) La eficacia (sensibilidad) está relacionada con la velocidad radial (VR) de la estrella, cuyo valor aumenta con: mayor masa del planeta, menor distancia del planeta a la estrella y menor masa de la estrella. Esto genera un sesgo en los resultados al favorecer la detección de planetas masivos en órbitas cercanas a estrellas de baja masa (“júpiteres calientes” en torno a estrellas de tipo M). Como ejemplo, en la ■Tabla 7-1 figuran las VR creadas en el Sol por distintas combinaciones de planetas y distancias. Teniendo en cuenta que la sensibilidad actual de los mejores medios de observación está en torno a 1 m/s, vemos que la capacidad de este método está aún lejos de la necesaria para poder detectar un sistema planetario similar al Tierra-Sol, el más buscado, donde la VR generada no alcanza 0,1 m/s. B) Este método es sensible, únicamente, a la componente de la velocidad de la estrella en la dirección del observador y, por lo tanto, solo puede detectar la masa mínima del planeta y no la verdadera masa. Como muestra la ■Figura 7-7, un planeta de pequeña masa, orbitando en un plano de poca inclinación (i’), genera la misma “señal” que otro de mayor masa situado en una órbita más inclinada (i). En el caso extremo de un planeta y una estrella que se muevan en un plano perpendicular a la línea de observación, la componente radial de la velocidad de la estrella en la línea del observador sería nula y el planeta, con independencia de su tamaño, no sería detectable.

139

C) Un último inconveniente es la necesidad de observar una órbita completa del planeta para poder determinar sus parámetros, lo que dificulta la posibilidad de encontrar aquellos que se encuentren muy alejados de la estrella (ejemplo: periodo de Júpiter = 11,9 años…). Resultados del método VR El descubrimiento en 1995 del primer exoplaneta (■ Figura 7-8), precisamente por el método VR, supuso dos sorpresas: una buena y otra mala. La buena fue el evidenciar que los planetas extrasolares existían, lo que desencadenó una gran fiebre de búsqueda a partir de aquella fecha (con mucho éxito, por cierto). La mala noticia fue el comprobar que el sistema planetario descubierto no se parecía en nada a nuestro Sistema Solar: ¡¡un planeta mucho más grande que Saturno, orbitando su estrella a solo 0,05 UA, unas 8 veces más cerca que Mercurio del Sol!! Como vamos a ver, estos resultados fueron confirmados masivamente por nuevos descubrimientos, por lo que el Sistema Solar ha dejado de ser el modelo universal de sistema planetario, tal como se pensaba, pasando a ser uno más entre los muchos existentes. Los datos planetarios proporcionados por el método VR son: semieje mayor de la órbita planetaria, periodo orbital, masa mínima del planeta y excentricidad [■7-6]. Este método también es importante para complementar otras observaciones (cuando es posible), como las del método de tránsitos (que veremos más adelante), permitiendo así determinar importantísimas características de los exoplanetas, como la masa y la densidad, a partir de las cuales podemos deducir si se trata de planetas tipo terrestre, oceánicos, gaseosos…

Masas y distancias planetarias (método VR) El ■Gráfico 7-3 sintetiza los datos de aquellos 568 exoplanetas detectados por el método VR (30/06/2014), de los cuales se conoce su masa (Mt), la distancia a la estrella madre (UA) y la masa de esta (Ms). El análisis de esta información nos permite algunas consideraciones: 1) Detección de planetas mayoritariamente muy masivos: 466 con más de 10 masas terrestres ·· 91,2 % 43 de 2 a 10 Mt (supertierras) ··········· 8,4 % Solo 2 con menos de 2 Mt (tierras) ··· 0,4 % Estos resultados no se pueden considerar como una muestra representativa de la realidad, ya que están distorsionados por el gran “sesgo” observacional propio de este método que, como sabemos, prima la detección de planetas masivos cercanos a estrellas de baja masa. No obstante se demuestra la existencia de planetas de todo tipo.

140

Los 6 identificadores de mayor tamaño corresponden a aquellos exoplanetas que los especialistas consideran como candidatos a habitables, cuyas características detalladas figuran en ■Tabla 7-2 y serán comentadas más adelante. 2) Muchos de los planetas gigantes orbitan muy cerca de su estrella: 23 % más cerca que Mercurio del Sol y 40 % más que la Tierra del Sol. En contra de lo que se pensaba antes del año 1995 (descubrimiento de 51 Pegasi b), se confirma la existencia de una gran cantidad de sistemas planetarios muy distintos a nuestro sistema solar. Muchos de los planetas gigantes orbitan entre la “zona habitable” y su estrella, en la propia ZH o muy cerca del límite exterior de esta, excluyendo a esos sistemas planetarios de la candidatura a habitables: ¿pueden coexistir planetas terrestres en la ZH con gigantes orbitando interiormente o en sus cercanías?, ¿es esto compatible con la teoría de migraciones planetarias tipo II que hemos visto en el ■Capítulo 3? 3) Ausencia casi total de planetas “descubiertos” alejados de la estrella anfitriona: seguramente es una consecuencia del insuficiente número de años de observación dedicado a la búsqueda de estos planetas por este método, puesto que para la detección de exoplanetas es necesario observarlos hasta que “cierren” al menos una órbita (Júpiter necesitaría 11,9 años, Saturno 29,5…). No cabe duda sobre la conveniencia de realizar observaciones duraderas en el tiempo que posibiliten la detección de aquellos exoplanetas que existan más allá de la ZH, información imprescindible para determinar el “ratio” entre la cantidad de sistemas planetarios con gigantes “alejados” similares al SS (quizás aptos para la vida), frente a aquellos con gigantes “cercanos” a su estrella (punto anterior). Recordemos que los métodos DD y SPU vistos anteriormente, aunque son poco representativos en cuanto a volumen de observaciones, si han demostrado que los planetas masivos alejados de su estrella si existen. 4. “No detección” de planetas tipo terrestre en la ZH de estrellas tipo Sol: se trata de un resultado esperado ya que, en el supuesto de que existiesen, su detección está fuera del alcance de los medios actuales. No obstante, el descubrimiento de 2 exoplanetas con menos de 2 Mt, situados hacia el límite de las posibilidades del método VR, nos permiten “apostar” sobre la posibilidad de que puedan existir muchos más (resultados que veremos reforzados más adelante al analizar el método de tránsitos (TR)). 5. Por último, el ■Gráfico 7-4 muestra 6 exoplanetas detectados por el método VR que algunos especialistas incluyen entre los candidatos a habitables, aspecto este que trataremos globalmente en el apartado 7.2.

 El Sistema Solar ha dejado de ser el modelo universal de de los sistemas planetarios.  Muchos gigantes entre la estrella y su zona habitable (ZH), o en el entorno de esta: “muchos sistemas planetarios no habitables”.

30/06/2014.- A pesar de los inconvenientes señalados, este método ha sido el más exitoso en los primeros 15 años de la exploración y búsqueda de nuevos planetas: le debemos el descubrimiento del primer exoplaneta en el año 1995 y el 31,6 % del total de los encontrados hasta la fecha.

141

Método de las microlentes gravitacionales (µL) Una microlente gravitacional se forma cuando la luz procedente de un objeto distante y brillante, como una estrella muy luminosa, se curva alrededor de un objeto masivo (ej.: un sistema planetario) situado entre el emisor y el receptor. Este fenómeno fue predicho en la teoría general de la relatividad de Einstein (año 1916) y pudo ser comprobado durante un eclipse de Sol en 1919 al observar la curvatura de la trayectoria de la luz procedente de estrellas distantes al pasar cerca del Sol, produciendo un desplazamiento aparente de sus bien conocidas posiciones. Este fenómeno puede ser utilizado para detectar objetos masivos invisibles, como estrellas poco luminosas e incluso los planetas que las orbitan. Para que este método funcione es necesaria la perfecta alineación de tres objetos (■Figura 7-9): el cuerpo brillante de fondo como potente emisor de luz, el hipotético sistema estelar intermedio que se pretende descubrir, y el observador terrestre. En este caso la luz procedente del foco lejano experimenta una magnificación al pasar por la estrella interpuesta, como se muestra en la ■Figura 7-9, permitiendo su detección. Si esta estrella está orbitada por un planeta, este produce una amplificación identificativa, un “pico”, cuyo ancho y altura dependerán del tamaño del planeta y de su distancia a la estrella anfitriona. Un inconveniente de este método es que solo se dispone de una oportunidad para descubrir cada exoplaneta. Una vez producida la alineación esta ya no vuelve a repetirse, por lo tanto, los resultados obtenidos solo podrán confirmarse por otros métodos. El ■Gráfico 7-5 muestra la distribución de 28 de los exoplanetas detectado por este método (30/06/2014), distribuidos en 27 sistemas planetarios (2 sistemas múltiples), de los cuales 3 son súper-tierras y los 25 restantes son planetas masivos, todos ellos alejados de la “ZH”. Estos resultados, al igual que los detectados por los métodos DD y SPU, complementan en cierto modo a los del método VR, al mostrar la existencia de planetas alejados de sus estrellas anfitrionas.

Los planetas de todo tipo, alejados de sus estrellas anfitrionas, también existen.

Método de tránsitos (TR) Este método se apoya en la circunstancia de que ciertos exoplanetas, vistos desde la Tierra, pasan por delante de su estrella anfitriona dando lugar a un tránsito planetario (o astronómico) (■Figura 7-10), provocando una ligera caída del brillo, independiente de la distancia exoplaneta-estrella, cuya magnitud depende de la relación entre las áreas proyectadas del exoplaneta y de la estrella (el tipo de tránsito

142 más espectacular, visto desde la Tierra, es el eclipse solar total, en el que la Luna llega a cubrir por completo la vista del Sol). La observación de los tránsitos astronómicos con la instrumentación adecuada permite determinar: el diámetro del exoplaneta -en función de la caída de brillo-, así como el periodo orbital, igual a la diferencia temporal entre dos tránsitos consecutivos. Para asegurar que las caídas de luminosidad son debidas al paso de planetas, y no a otros fenómenos propios de las estrellas, es necesario observar un mínimo de tres tránsitos consecutivos, que deberán de producirse en periodos orbitales idénticos (T, ■Figura 7-11). Dada la circunstancia de que el plano orbital de los planetas detectados por el método de tránsitos presenta una inclinación nula o muy pequeña respecto al observador (i, ■Figura 7-7), la utilización complementaria del método VR (cuando sea posible) proporciona la verdadera masa del planeta. La aplicación conjunta de ambos métodos (VR y TR) permite determinar, entre otros, los siguientes parámetros: periodo orbital, semieje mayor de la órbita, excentricidad, volumen, masa y densidad del exoplaneta (deducida esta de las dos anteriores), dato muy importantes respecto a la “candidatura” a habitable de los exoplanetas observados, al poder distinguir entre rocosos, oceánicos, gaseosos… Para evitar los inconvenientes de la atmósfera terrestre han sido concebidas y puestas en funcionamiento las misiones espaciales CoRoT [■7-7] de la ESA en el año 2006 y Kepler [■7-8] de la NASA en el año 2009. Ambas misiones disponen de telescopios equipados con sensores fotométricos del tipo CCD [■7-9], extremadamente sensibles, cuyo objetivo es la detección de planetas lo más parecidos posible a la Tierra. Un objetivo adicional de la misión Kepler, en base al análisis de una muestra fija de unas 150 000 estrellas situadas entre las constelaciones del Cisne y la Lira, es la obtención de datos que permitan la estimación de las características y del número de planetas existentes en la Vía Láctea. Los métodos TR han pasado a ser los más utilizados y productivos de los últimos años.

Principales inconvenientes del método TR A) Sensibilidad al tamaño del planeta: en general, las dimensiones de los planetas son muy pequeñas en comparación con sus estrellas anfitrionas, siendo necesario disponer de instrumentos muy precisos para determinar la merma de brillo durante el tránsito. La ■Figura 7-12 representa las ocultaciones producidas en el Sol por los planetas Júpiter y la Tierra (vistos desde el exterior del SS): la superficie de Júpiter proyectada sobre el Sol es solo de un 1 %, a pesar de lo cual la caída de brillo es detectable con los modernos fotómetros; sin embargo no ocurre lo mismo con la insignificante ocultación del 0,01 % producida por un planeta como la Tierra transitando una estrella como el Sol (el caso que más nos interesa), que no es detectable ni con los mejores medios disponibles actualmente.

143

B) Sensibilidad al ratio entre las superficies proyectadas planeta/estrella: tal como se representa en la ■Figura 7-13, un planeta de tamaño terrestre en torno a una estrella tipo M “cae” en el límite de las posibilidades del satélite Kepler (el medio de detección TR más sensible disponible hasta la fecha), mientras que el mismo planeta no sería detectable en torno a una estrella como el Sol (tipo G). C) Este método solo permite detectar aquellos objetos (de tamaño suficiente) cuyas órbitas pasen por delante de la estrella (con independencia de la distancia) vistos desde el Sistema Solar. Teóricamente, y de acuerdo a la ■Figura 7-14, a la distancia d solo transitan por delante del disco estelar aquellos planetas cuyos planos orbitales queden comprendidos en el ángulo , frente a los 180 grados posibles, es decir en la relación /180. En el caso de una estrella como el Sol [■7-10] el ángulo de visibilidad de tránsitos a la distancia de la Tierra (1 UA) es de unos 0,5 grados, por lo que solo serían visible 1 de cada 360 planetas (0,5/180 = 1/360); mientras que a la mitad de distancia (0,5 UA), bajo un ángulo de aproximadamente 1 grado, serían visibles en la relación (1/180). Los expertos de la misión Kepler estiman que con su equipo, en promedio, solo es detectable uno de cada 217 exoplanetas (dato que utilizaremos al analizar los resultados de la misión Kepler). D) La mayoría de los planetas detectados por tránsitos se encuentran muy lejos de la Tierra, sin posibilidad de aplicar el método complementario VR, y por lo tanto no se puede determinar la masa ni la densidad, características necesarias para aplicar los criterios de habitabilidad. En el caso de la sonda Kepler, la más exitosa en descubrimientos, la inmensa mayoría de los exoplanetas se encuentran a más de 600 al. E) La necesidad de observar un mínimo de tres tránsitos consecutivos (5,7 años para Marte; 35,58 años para Júpiter…), genera un importante sesgo en las detecciones, durante los primeros años de observación, hacia los planetas situados en órbitas “rápidas” cercanas a la estrella anfitriona.

Resultados del método TR Este método ha permitido la detección de un total de 1135 exoplanetas (30/06/2014) a los que se les ha podido determinar el radio (Rt), periodo orbital, semieje mayor de la órbita (UA), y la excentricidad solo en algunos casos. Para los sistemas planetarios accesibles al método VR también se ha podido complementar la información anterior con la masa verdadera (Mt), a partir de la cual se calcula la densidad del exoplaneta, dato importante para estimar su composición: sólido, oceánico, gaseoso… En el ■Gráfico 7-7 se muestra la distribución de 795 exoplanetas para los cuales se conoce la masa de la estrella (Ms), el radio del planeta (Rt) y la distancia planeta-estrella (UA). Los identificadores

144 de mayor tamaño corresponden a 6 exoplanetas que los especialistas consideran como candidatos a habitables, cuyas características figuran en la ■Tabla 7-2 y serán analizadas más adelante.

Dimensiones de los exoplanetas y distancia exoplaneta-estrella (método TR) Como era de esperar los resultados que vamos a analizar son coherentes con los del método VR, aunque debemos de resaltar la mayor sensibilidad del método TR, como muestra el hecho de haber descubierto una cantidad relativamente importante de exoplanetas de tamaño “terrestre”. El ■Gráfico 7-8 muestra la distribución (%) de aquellos 1067 exoplanetas de los que se conoce el radio (Rt) y la distancia a su estrella: 295 con más de 4 Rt (gigantes) ······· 27,6 % 377 de 2 a 4 Rt (mini-neptunos) ····· 35,3 % 281 de 1,25 a 2 Rt (súper-tierras) ··· 26,3 % 100 de 0,8 a 1,25 Rt (tierras) ··········· 9,4 % 14 con menos de 0,8 Rt ·················· 1,3 % Estos resultados, lo mismo que en el método VR, no se pueden considerar como representativos de la realidad dado que también están distorsionados por sus propios “sesgos”: mayor “visibilidad” de los planetas voluminosos y mayor probabilidad de “tránsito” para los más cercanos a su estrella. Nota.- Téngase en cuenta que la información “dimensional” de los exoplanetas en el método TR suele venir expresada por el radio del planeta (Rt), dato menos preciso que la masa (Mt) del método VR. La inmensa mayoría de los planetas gigantes detectados orbitan muy cerca de su estrella: de los 295 exoplanetas detectados con más de 4 Rt, el 98 % orbitan entre la ZH y su estrella anfitriona, y por lo tanto sus sistemas planetarios quedan descartados como candidatos a habitables, al considerar que no puede existir vida con planetas gigantes situados en la ZH o en sus proximidades. Este resultado, incluso más “exagerado” que el encontrado con el método VR, se debe a la gran dependencia del método TR con el escaso tiempo disponible para la observación por la misión Kepler (la más productiva), ya que se necesita un mínimo de 3 tránsitos (2 órbitas) para afirmar la existencia de un planeta, mientras que con el método VR es suficiente con una sola órbita. La escasez de descubrimiento de planetas más allá de la ZH también es lógica, en base a lo que acabamos de comentar. Es de esperar que existan abundantes sistemas planetarios, aún no detectados, con sus planetas gigantes alejados de la ZH. Consideramos procedente recordar aquí que los métodos de detección directa, sincronización púlsar y microlentes gravitatorias vistos anteriormente, aunque poco representativos en cuanto a volumen de observaciones, han demostrado que los planetas masivos y alejados de su estrella si existen.

Es de destacar la presencia de un abundante número de planetas de dimensiones “terrestres” e incluso menores, aunque ninguno orbite en la ZH de una estrella como el Sol.

Se confirman los resultados del método VR, al detectar numerosos planetas gigantes entre la estrella y su zona habitable (ZH), o en el entorno de esta: “muchos sistemas planetarios no habitables”.

145

Valoración adicional con los resultados de la sonda Kepler (método TR) Del total de 1135 exoplanetas detectados por el método TR (30/06/2014), 913 corresponden a la sonda Kepler (80 %), con la particularidad de que esta misión se ha “centrado” en un colectivo fijo de unas 150.000 estrellas situadas entre las constelaciones del Cisne y de la Lira (la mayoría a una distancia de más de 600 al). Esta circunstancia hace que los resultados Kepler puedan considerarse como un “muestreo” de estrellas cuyos resultados, en cierto modo, son extrapolables al resto de la Vía Láctea (o al menos a una parte). Antes de entrar en el análisis de los datos Kepler es necesario tener presente: 1. Debido a una avería irreparable de la sonda, solo se dispone de la información correspondiente a unos tres años de observación, lo que distorsiona las estadísticas de resultados hacia los planetas situados en órbitas rápidas cercanas a su estrella anfitriona: solo aquellos que han podido realizar un mínimo de tres tránsitos consecutivos en el tiempo de observación disponible. 2. La fracción de planetas detectables es muy pequeña, solo aquellos que orbiten su estrella generando tránsitos visibles desde nuestro SS (■Figura 7-14). Utilizaremos el ratio 1/217, fijado por la NASA, para estimar los planetas existentes a partir de la realidad detectada. Ejemplos: si cada estrella tuviese un planeta como la Tierra (es decir, 150000 tierras), se detectarían solo 150000/217 = 691 tierras; y al contrario, si de un determinado tipo de planetas se encontrase una cantidad determinada, por ejemplo 10, la estimación para las 150000 estrellas sería de unos 2170 (10 x 217). 3. Tras este periodo de observación, el equipo Kepler ha detectado 2740 candidatos a exoplanetas, de los cuales (30/06/2014) ya se han confirmado 913, cuyos datos figuran en el ■Gráfico 7-9. A partir de los supuestos anteriores podemos establecer las siguientes estimaciones:

 Sistemas planetarios detectables = 150000/217 = 691  Sistemas planetarios detectados (30/06/2014) = 389 (con un total de 914 exoplanetas)  Sistemas planetarios sin información (teórico) = 302 (691 detectables – 389 detectados) De los 389 sistemas planetarios detectados:

 305 sistemas (78,4 %) están formados por exoplanetas con masas comprendidas entre 0,8 y 4 radios terrestres (Rt), situados entre la ZH y la estrella anfitriona: ninguno de estos exoplanetas está considerado como candidato a habitable.  79 sistemas (20,3 %) con planetas gigantes orbitando entre la ZH y las estrellas anfitrionas. A partir de la fracción de planetas detectables (1/217) estimada por la NASA, la cantidad de planetas gigantes detectados orbitando entre la ZH y la estrella anfitriona (79), y el número de estrellas en observación (150.000), se llega a la conclusión de que, como mínimo, un 11 % (79 x 217 x 100 /150.000 = 11,5) del colectivo de estrellas en observación por la misión Kepler quedan descartadas como candidatas a habitables, porcentaje que, en principio, podría ser aplicable al resto de la Vía Láctea.

146

El número de planetas gigantes detectados entre la estrella anfitriona y su ZH, restringe la habitabilidad de los sistemas planetarios, por este concepto, al 89 %.

 5 sistemas planetarios (1,3 %) conteniendo 6 exoplanetas (un sistema planetario con 2) que algunos científicos califican como candidatos a habitables. El ■Gráfico 7-10 muestra los 5 sistemas planetarios donde los exoplanetas candidatos a habitables del método TR se identifican por la línea de borde de mayor grosor, aspecto sobre el que volveremos más adelante.  En la ■Tabla 7-2 figuran las principales características de los 6 exoplanetas TR “candidatos a habitables”, donde también se han señalado con fondo naranja aquellas que, de acuerdo con los criterios del ■ Capítulo 6, afectan negativamente a las posibilidades de que la vida haya podido surgir y evolucionar. Es de resaltar la incoherencia observada entre la masa y el volumen de algunos de los candidatos a habitables….

Con estos resultados, debidos al escaso tiempo de observación, no se puede valorar la existencia o no de sistemas planetarios como el SS: planetas de tamaño terrestre situados a 1 UA de una estrella como el Sol

Un ventaja del método de tránsitos es que, en determinadas circunstancias, permite conocer la presencia de ciertos componentes de las atmósferas planetarias, cuya huella queda grabada en forma de “líneas de absorción” en el espectro que se recibe de la estrella anfitriona. Se trata de una cualidad de este método que está previsto potenciar en futuras misiones a medio plazo (■ Capítulo 9), que quizás permitan detectar indicadores fiables sobre la existencia o no de vida en otros mundos.

30/06/2014: a este método de tránsitos, el más exitoso de los últimos años, le debemos el 63 % del total de los exoplanetas descubiertos hasta la fecha (1135 de 1800).

Resultados globales (30/06/2014) En esta sección vamos a realizar un análisis en base a la totalidad de los datos proporcionados por los distintos medios de observación, cada uno con sus ventajas e inconvenientes, lo que posiblemente nos permitirá “pasar un poco por encima” de los sesgos observacionales y entresacar unas conclusiones con el máximo acercamiento posible a la realidad.

147

Evolución de los descubrimientos de exoplanetas El ■Gráfico 7-11 muestra la distribución anual de los 1800 exoplanetas detectados hasta la fecha (30/06/2014), con un crecimiento “exponencial” a partir del primer exoplaneta confirmado en el año 1995. La gran “subida” del año 2014 se debe a la aportación en marzo 2014 de 698 exoplanetas de la misión Kepler. La primera conclusión es que los exoplanetas (en la Vía Láctea) son muy abundantes y se pueden detectar, algo que se desconocía hace solo dos décadas. Desafortunadamente, los métodos disponibles actualmente no son lo suficientemente sensibles para detectar un planeta como la Tierra en torno a una estrella como el Sol y a su misma distancia. Deberemos de esperar a las nuevas generaciones de telescopios, previstos en principio a partir del 2018 (■Capítulo 9).

Sistemas planetarios En el ■Gráfico 7-12 figuran los sistemas planetarios detectados en función del número de exoplanetas de cada uno. A pesar de que los métodos de detección “masiva” (VR y TR) solo han podido explorar la zonas cercanas a las estrellas anfitrionas, ya se han descubierto un gran cantidad de sistemas planetarios con más de tres planetas, siendo de esperar que en el futuro próximo se confirme la existencia de sistemas planetarios con sus planetas alejados de la estrella y probablemente muchos de ellos similares a nuestro sistema solar.

Distribución de los planetas masivos El ■Gráfico 7-13 muestra la distribución de los planetas masivos (> 100 Mt) detectados hasta la fecha, tomando en consideración la totalidad de los medios disponibles:

 El método de tránsitos (TR) detecta planetas muy cercanos a sus estrellas, resultado compatible con el escaso tiempo de utilización de este método (unos tres años) y la necesidad de observar un mínimo de tres tránsitos, solo posibles en órbitas rápidas cercanas.  El método de la velocidad radial (VR), menos sensible, pero con mayor tiempo histórico de observación y con la capacidad de realizar detecciones a partir de una sola órbita, pudo localizar un importante número de exoplanetas situados a distancias intermedias, más o menos sobre la ZH de sus estrellas anfitrionas.  Las posibilidades del método de detección directa (DD) se limitan a planetas masivos y calientes, alejados de su estrella, solo detectables en emisión infrarroja (mínimo contraste con su estrella) y con la utilización de coronógrafos. A pesar de las dificultades se ha detectado un número relativamente importante de planetas, lo que demuestra su existencia.

148

A la vista de gráfico resulta indudable que este tipo de planetas se encuentran distribuidos a todas las distancias de sus estrellas anfitrionas, desde unas 0,01 UA hasta más allá de 1000 UA. También se manifiestan de forma evidente las ventajas e inconvenientes de los distintos métodos de detección utilizados.

Los exoplanetas gigantes se distribuyen a todas las distancias de sus estrellas anfitrionas, desde unas 0,01 UA hasta más allá de 1000 UA, muchos de ellos, quizás, formando parte de sistemas habitables.

Distribución de los planetas poco masivos El ■Gráfico 7-14 muestra la distribución de casi un centenar de exoplanetas con menos de 10 Mt (uno con 0,95 Mt), detectados por los métodos VR, TR y µL (microlentes gravitatorias), distribuidos a distancias entre 0,005 y 2 UA, quedando demostrada la existencia de estos planetas en el entorno de la ZH. Las detecciones VR y TR, cercanas a la estrella, son aquellas que son compatibles con las sensibilidades de los medios y el tiempo de observación dedicado; mientras que las del método µL, independiente de dichos condicionantes, muestra que la distribución de los planetas poco masivos (supertierras) va más allá de la ZH, como mínimo hasta las 2 UA.

Estos resultados nos permiten estimar como muy probable la existencia de planetas terrestres (0,5 a 2 MT) en el entorno de la ZH de estrellas como el Sol, resultados que deberán de ser confirmados con los medios previstos para la próxima década.

Evolución de las masas mínimas detectadas El ■Gráfico 7-15 muestra la evolución de las masa planetarias encontrados desde el año 1995 hasta la fecha (30/06/2014), donde vemos que las detecciones de masas terrestres e inferiores son corrientes desde el año 2011. Ninguno de estos planetas de masa terrestre es el “gemelo” de la Tierra (planeta de 1 Mt orbitando en la ZH de una estrella como el Sol), pero sabemos que esto se debe a la incapacidad de los medios actuales para detectar un sistema planetario de tales características.

Este resultado refuerza las conclusiones del punto anterior.

149

Excentricidades orbitales Un resultado inesperado y negativo respecto a la habitabilidad extraterrestre fue el de las grandes excentricidades encontradas en los exoplanetas detectados (30/06/2014), sobre todo si las comparamos con las órbitas casi circulares del Sistema Solar:

 La media de los exoplanetas detectados es de 0,23.  La media del SS es de 0,06 y de 0,02 para la Tierra. El ■Gráfico 7-16 muestra los datos unitarios disponibles de 831 exoplanetas detectados por distintos métodos, donde un 34 % supera la excentricidad de 0,2, valor máximo fijado en el ■Capítulo 6 para no exceder los límites de la “corona” de habitabilidad. Si este resultado fuese representativo para todos los sistemas planetarios (incluidos los planetas de tamaño terrestre aun no detectados), resultarían como no habitables, por este concepto, el 34 % de los mundos exteriores al Sistema Solar, resultando como habitables el complementario 66 %.

Los planetas detectados hasta la fecha reflejan, en el 90 % de los casos, unos valores de excentricidad sorprendentes, muy superiores a los planetas del Sistema Solar, con una media de e = 0.25. El número de exoplanetas detectados con excentricidades superiores a 0,2, restringe los sistemas habitables, por este concepto, al 66 %.

Exoplanetas “candidatos” a habitables En la ■Tabla 7-2 figuran las características relevantes de los 12 exoplanetas (casualmente 6 VR y 6 TR) que algunos especialistas, no sin cierto optimismo, incluyen en el selecto grupo de candidatos a habitables, donde las seis primeras líneas de datos corresponden al método VR y las seis siguientes al método TR, siendo de destacar, en estas últimas, la incoherencia observada entre la masa y el volumen de algunos de los candidatos a habitables. Se han señalado con fondo naranja aquellos valores que, de acuerdo a los criterios del ■Capítulo 6, afectan negativamente a las posibilidades de que la vida haya podido surgir y evolucionar. Como se puede observar todos los exoplanetas, excepto uno (Kepler 186 f), están afectados negativamente en uno o más valores de sus características relevantes, de lo que se desprende que, en general, la habitabilidad de los planetas de esta tabla resulta bastante dudosa.

150

Exoplaneta Mt Rt MD Ms E UA Cc 3,78 --- VR 0,33 0,02 0,125 Gliese 667 Cf 2,70 --- VR 0,33 0,03 0,156 Gliese 667 Ce 2,70 --- VR 0,33 0,02 0,213 Gliese 163 c 7,27 --- VR 0,40 0,09 0,125 Gliese 581 d 6,04 --- VR 0,31 0,21 0,22 Kapteyns b 4,80 --- VR 0,28 0,21 0,168 Kepler 62 e ¿35,93? 1,61 TR 0,69 --- 0,43 Kepler 62 f ¿34,98? 1,41 TR 0,69 --- 0,72 Kepler 22 b ¿34,98? 2,35 TR 0,97 --- 0,85 Kepler 61 b --- 2,15 TR 0,63 0,25 0,27 Kepler 298 d --- 2,50 TR 0,65 --- 0,31 Kepler 186 f --- 1,11 TR 0,48 --- 0,36 Kepler 438 b (*) 1,27 1,12 TR 0,54 0,00 0,16 Kepler 442 b (*) 2,34 1,34 TR 0,61 > 0,04 0,41 ■Tabla 7-2: Mt = masas terrestres; Rt = radios terrestres; MD = método de detección; Ms = masas solares de las estrellas anfitrionas; e = excentricidad orbital; UA: separación estrella-exoplaneta (semieje mayor)

Bajo nuestro criterio, solo el planeta Kepler 186 f (■Tabla 7-2 y ■ Gráfico 7-10) presenta unas características compatibles con los últimos y “ampliados” criterios de habitabilidad adoptados: 1. Orbitar una estrella tipo M de más de 0,4 Ms 2. Compensar su situación más allá de la ZH (similar a la de Marte) con una masa (≈ 1,4 Mt) que podría retener suficiente atmósfera para contrarrestar la distancia con un mayor efecto invernadero (su temperatura media con una atmósfera similar a la de la Tierra, sería de -60ºC). (*) Exoplanetas anunciados en enero 2015, orbitando estrellas de tipo K, un avance más en la carrera para detectar al “gemelo” Tierra-Sol.

Datos a favor de la abundancia de sistemas planetarios habitables:  Se han detectado 2 exoplanetas con menos de 2 masas terrestres (“mínimas”) -■ Gráfico 7-3- y varios con menos de 1 radio terrestre -■ Gráfico 7-8-, orbitando muy ceca de estrellas enanas rojas: estos descubrimientos, en el “límite” de las posibilidades actuales del método VR, apuntan a que puedan existir muchas más “tierras”, incluso en la ZH de estrellas como el Sol.  Detectados 6 planetas con masas entre 2 y 10 Mt mínimas (supertierras) y 8 con menos de 3 radios terrestres, orbitando dentro o muy cerca de la ZH, que algunos científicos consideran como “candidatos a habitables”.  En el entorno de la ZH, los exoplanetas abundan.  Los planetas gigantes alejados de sus estrellas también existen.

151

Estos resultados, en el límite de las posibilidades de los medios actuales, apuntan claramente a que en un futuro próximo, con medios más sensibles, se puedan encontrar los exoplanetas que se están buscando: planetas como la Tierra en la ZH de estrellas como el Sol.

Datos en contra de la abundancia de sistemas planetarios habitables:  Los sistemas planetarios detectados, en general, no se parecen a nuestro sistema solar.  De los datos proporcionados por la misión Kepler se deduce que como mínimo un 11 % de las estrellas (de una muestra “aleatoria” de unas 150.000) disponen de planetas gigantes que se encuentran en el interior o muy cerca de la ZH, descalificando a sus sistemas planetarios como candidatos a albergar otros planetas aptos para la vida (resultado sesgado).  Un 34 % de los planetas detectados presentan excentricidades superiores a 0,2: si este resultado fuese representativo del resto de planetas de la galaxia, el 66 % de los sistemas planetarios no serían aptos para la vida.

 La fracción de estrellas con planetas es incierta debido al sesgo introducido por los efectos de la selección observacional aplicada en este método.  Estamos pendientes de las nuevas generaciones de grandes telescopios, tanto terrestres como espaciales, previstos para los años 2018-2020, con capacidad para detectar al gemelo de la Tierra: un planeta de masa terrestre orbitando en la ZH de una estrella como el Sol

¡¡En enero de 2013, los astrónomos del Centro Harvard-Smithsonian para Astrofísica (CfA) utilizaron datos de Kepler para estimar que "por lo menos 17 mil millones" de exoplanetas del tamaño de la Tierra residen en la Vía Láctea!!

[■7-1] Es posible que existan cuerpos planetarios que fueron expulsados del sistema en que se formaron y que, por lo tanto, no estén ligados a ninguna estrella. Estos cuerpos se suelen denominar como planetas errantes o planetas interestelares. [■7-2] El efecto Doppler es el aparente cambio de la frecuencia de una onda causado por el movimiento relativo de la fuente respecto a su observador. [■7-3] Un espectrómetro astronómico es un instrumento cuyo objetivo es el estudio de la radiación electromagnética emitida por las estrellas y otros cuerpos celestes. La información obtenida permite determinar muchas de las propiedades de las estrellas y galaxias tales como la composición química, a través de las líneas de absorción, o sus movimientos mediante el efecto Doppler [■7-2]. [■7-4] Cada elemento químico genera un conjunto diferente de líneas de absorción, cuyas longitudes de onda se pueden medir, permitiendo acreditar la presencia de un elemento concreto en el objeto analizado. El conjunto de líneas presentes en el espectro de absorción de una estrella permiten determinar su composición química.

152

[■7-5] En astronomía, el corrimiento hacia el rojo o desplazamiento hacia el rojo de una radiación electromagnética, normalmente la luz visible, emitida por un cuerpo celeste, se define como un incremento en la longitud de onda de la radiación electromagnética recibidas por un receptor comparado con la longitud de onda radiada por el emisor. Este aumento de la longitud de onda se corresponde con una disminución de la frecuencia de la radiación recibida. El efecto contrario, la disminución de la longitud de onda se denomina corrimiento hacia el azul. Llamamos la atención sobre el hecho de que cualquier incremento de la longitud de onda se denomina corrimiento hacia el rojo, incluso si se produce en radiaciones de longitudes fuera del campo visible: rayos gamma, rayos X o radiaciones ultravioleta, visible, infrarroja, microondas o incluso ondas de radio. [■7-6] Por este método se han detectado exoplanetas con grandes excentricidades, pero se ha sugerido que estas podrían estar enmascarando a dos sistemas de planetas en resonancia, en órbitas circulares o casi circulares. [■7-7] COROT es el acrónimo francés de COnvection ROtation et Transits planétaires, una misión de exploración espacial liderada por la Agencia Espacial Francesa (CNES) conjuntamente con la Agencia Espacial Europea y otros patrocinadores internacionales. Esta misión, lanzada en el año 2006, con una duración prevista de dos años y medio, fue la primera con el objetivo de la buscar planetas extrasolares desde el espacio. El satélite COROT, con un telescopio de 27 cm de diámetro y 4 detectores CCD, fue situado en una órbita circular polar terrestre, a una altitud de 896 km. En 2012 sufrió una avería en sus ordenadores, quedando fuera de servicio tras 6 largos años de observación. Esta misión contribuyó con el descubrimiento de 25 exoplanetas en 24 sistemas planetarios, uno con 2 planetas: Corot 7b y Corot 7c, casualmente los menos masivos, con 7,4 y 8,4 masas terrestres respectivamente. [■7-8] Kepler es la denominación de un “satélite” artificial que orbita alrededor del Sol en un periodo de 372 días, a una distancia similar a la de la Tierra. Tiene como principal objetivo la determinación del número y tipo de exoplanetas existentes en la Vía Láctea, con la capacidad teórica de detectar sistemas planetarios similares al Tierra-Sol: planetas de tipo terrestre (1 a 2 masas terrestres), orbitando en la zona habitable de estrellas parecidas al Sol. Para ello dispone de un telescopio con un espejo primario de 1,4 m de diámetro y de un fotómetro de 0,95 m de apertura, que le permiten observar, de forma simultánea, una 150 000 estrellas situadas entre las constelaciones del Cisne y de la Lira, la mayoría a una distancia de más de 600 al. Un inconveniente de los planetas detectados por esta misión es la enorme distancia a la que suelen encontrarse, lo que impide, en muchos casos, aplicar el método VR para determinar la masa, con la consiguiente imposibilidad de calcular la densidad y determinar si se trata de un objeto tipo tierra, oceánico o gaseoso… Esta misión fue lanzada en el año 2009, con una duración prevista de 3,5 años, para permitir que un planeta como el nuestro tuviese la posibilidad de efectuar tres tránsitos consecutivos por delante de su estrella (dos periodos orbitales). Desafortunadamente la sonda se averió en mayo del 2013 al quedar fuera de servicio un segundo giroscopio, del total de cuatro que incorpora, siendo necesarios un mínimo de tres para la correcta orientación de la nave. A pesar de esto, hasta la fecha (30/06/2014), constan como confirmados 914 planetas “Kepler” en 393 sistemas planetarios. [■7-9] Los sensores fotométricos CCD están basados en el uso de un chip como receptor y cuantificador de la radiación electromagnética recibida. Las mediciones obtenidas se facilitan en formato digital, lo que facilita su tratamiento. 153

[■7-10] El Sol visto desde la Tierra (■Figura 7-10), abarca un ángulo α de 0,53 º:

 ≈ arctan (Ds/d), donde: Ds = diámetro del Sol = 1 392 000 km d = distancia Tierra-Sol = 149 595 000 km  = 0,53 º [■7-11] Las partículas dentro de un campo gravitatorio siguen una trayectoria espacial curva, aun cuando realmente pueden estar moviéndose según líneas lo más rectas posibles a través del espacio-tiempo curvado, denominadas trayectorias geodésicas. Las líneas más "rectas" o que unen dos puntos con la longitud más corta posible en determinado espacio-tiempo se llaman líneas geodésicas y son líneas de curvatura mínima. En su sentido original, una línea geodésica es la ruta más corta entre dos puntos sobre la superficie de la Tierra, específicamente, el segmento de un círculo máximo (círculo resultante de una sección realizada a una esfera mediante un plano que pase por su centro).

154

■ 8. Habitabilidad extraterrestre

Hemos analizado con cierta profundidad todos aquellos aspectos que el mundo científico considera relevantes para que, en otros mundos, pueda surgir y evolucionar la vida que conocemos: historia del planeta Tierra, formación de los sistemas planetarios, hipótesis sobre el origen y evolución de la vida en nuestro planeta, requisitos para la habitabilidad en otros objetos del cosmos, características de los numerosos sistemas planetarios ya descubiertos… Son estos conocimientos, hasta aquí adquiridos, los que nos van a permitir el “atrevimiento” de realizar unas primeras estimaciones sobre las posibilidades de la existencia de vida más allá de nuestro planeta. Algunos de los capítulos anteriores han estado focalizados hacia los exoplanetas, objetos como los planetas del sistema solar (SS) pero que orbitan en torno a otras estrellas, pero también queremos tomar en consideración la opinión de relevantes científicos acerca de las posibilidades de que haya existido, o exista actualmente, vida en algunos de los planetas que orbitan a nuestro Sol (además de la Tierra) o en algunos de los satélites de los gigantes gaseosos. Dado el amplio abanico de posibilidades que se pretende tratar, hemos considerado conveniente la estructuración de este capítulo en dos partes:  Vida en el sistema solar (aparte de la Tierra): sistema solar interior, lunas de los gigantes gaseosos.  Vida más allá del sistema solar: básicamente exoplanetas orbitando a otras estrellas, para cuyo análisis nos limitaremos a la Vía Láctea.

Vida en el sistema solar (aparte de la Tierra) Sistema Solar Interior La ■Figura 8-1 muestra, comparativamente, los planetas del SS interior, del que, de entrada, descartamos a Mercurio como candidato a habitable, al no disponer de atmósfera significativa ni de agua líquida superficial debido a su pequeño tamaño y a la proximidad del Sol. Respecto a Venus y a Marte, formados en las “cercanías” de la Tierra, con los mismos materiales y el mismo proceso de acreción (por choques de planetesimales) y quizás con el mismo aporte de agua por asteroides y cometas (como parece demostrar la elevada proporción isotópica deuterio/hidrógeno), no es descabellada la hipótesis de que en los primeros tiempos, hace unos 3.500 Ma, la vida haya podido surgir, tal como ocurrió en nuestro planeta.

155

Venus En cuanto a habitabilidad comparada, este planeta se asemeja a la Tierra (■Figura 8-2) tanto en tamaño (95 % del Rt) como en densidad (5,24 g/cm3 frente a 5,52 g/cm3 de la Tierra), siendo las diferencias más significativas su menor distancia al Sol (inferior al límite interior de la ZH), de modo que Venus recibe casi el doble de radiación solar que la Tierra (2.620 frente a 1.360 W/m2), y la lenta rotación retrógrada con un periodo de 243 días terrestres. Dado que su tamaño es parecido al de la Tierra, muchos científicos opinan que Venus también debería de disponer de un núcleo metálico parcialmente fundido. La ausencia de campo magnético en este planeta se achaca a su menor velocidad de rotación (que no genera el sistema “dinamo interno”), efecto reforzado, quizás, por una menor convección del manto y del núcleo. A esta ausencia de campo magnético se achaca la pérdida del agua (que supuestamente tuvo Venus en sus orígenes), debido a su disociación en oxígeno e hidrógeno por los impactos de las partículas cargadas del viento solar, particularmente protones. El oxígeno se habría combinado en parte con las rocas de la superficie del planeta y el resto permanece en la atmósfera en forma de dióxido de carbono, mientras que hidrógeno pudo escapar al espacio exterior, debido a su escasa masa molecular, hecho que parecen estar apoyado por el alto porcentaje de deuterio en la atmósfera venusiana. Venus, al igual que la Tierra, dispone de pocos cráteres ya que han sido borrados por la intensa actividad geológica y la erosión. Es posible que hace unos 4.000 Ma dispusiese de un clima similar al terrestre y quizás con vida incipiente, ya que, en aquella época, estaba situado hacia el límite interior de la ZH de un Sol un 25 % menos energético que el actual. Aun a mediados del siglo pasado se pensaba que Venus podría disfrutar de un clima tropical, sin embargo esta idea y la posibilidad de la existencia de vida actual fue descartada en el año 1967 a raíz de los descubrimientos de la sonda soviética Venera 4:

 Aplastante atmósfera de unos 100 bar, compuesta principalmente por dióxido de carbono (96 %) y nitrógeno (3 %).  Temperatura superficial de unos 470 ºC, debida al enorme efecto invernadero generado por la masiva

atmósfera de CO2 y por la cercanía del Sol.  Ausencia de agua líquida superficial, que habrá sido evaporada y disociada por las partículas de viento solar (ausencia de campo magnético), pasando el hidrógeno al espacio exterior, mientras que el oxígeno se encuentra en forma de óxidos en la corteza del planeta y combinado con el carbono en la atmósfera para formar anhídrido carbónico.  Vientos de unos 350 km/h en la alta atmósfera y nubes de ácido sulfúrico, donde los relámpagos se repiten 10 veces cada segundo. El único sitio de Venus donde se encuentra un “ambiente” similar al terrestre es en la atmósfera, a 30 km de altitud, donde la presión y la temperatura son similares a las de la superficie de la Tierra, aunque están presentes otros condicionantes como: la inestabilidad propia de las nubes, la intensa radiación UV, así como la alta concentración de ácido sulfúrico. Dado que en nuestro planeta existen microorganismos que pueden soportar las condiciones indicadas, ciertos científicos opinan que la vida que en su día pudo surgir en Venus, puede permanecer actualmente adaptada y refugiada en su atmósfera, aunque reconocen que “se trata de una propuesta extravagante, pero no imposible”. 156

El estudio mediante radar de la superficie de Venus, muestra que este planeta no posee placas tectónicas (a pesar de su tamaño similar al terrestre), quizás por la ausencia de agua y la sequedad de la superficie y del manto, dando lugar a una corteza más gruesa y rígida que la corteza terrestre.

Marte Muchos autores lo consideran el “gemelo” de la Tierra (■Figura 8-3) debido a su similitud en el periodo de rotación (24,6 horas) y en la inclinación “actual” del eje de rotación (25º frente a 23º de la Tierra), generando estaciones similares a las terrestres, aunque de mayor duración, ajustadas al año marciano de 687 días terrestres. Las principales diferencias son su pequeña masa, solo 1/10 de la terrestre; una baja presión atmosférica media de 6 mbar; la distancia al Sol, que los sitúa algo más allá de la denominada ZH; y la supuesta alta acidez de sus aguas primigenias. La similitud en la inclinación del eje de rotación es relativa, ya que para la Tierra es aproximadamente constante, debido al efecto estabilizador de la Luna, mientras que para Marte es caótica, con oscilaciones entre 0º y 82º en periodos variables de 120.000 años a 2 Ma. Efectos negativos de la baja masa de Marte (0,1 Mt), sobre la habitabilidad:  Ausencia de campo magnético actual, aunque sí lo tuvo en el pasado (tal como se comprobó mediante mediciones realizadas por la sonda Mars Global Surveyor, que, por razones técnicas, tuvo que situarse en una órbita baja, desde la que pudo detectar un magnetismo fósil, de distribución anómala, grabado en las rocas). Esta pérdida del campo magnético se atribuye a un rápido enfriamiento y congelación del núcleo del planeta, debido a su reducida masa (0,1 Mt), impidiendo así el efecto dinamo generador del campo magnético. La ausencia de campo magnético seguramente habrá contribuido a la pérdida de la atmósfera marciana, al no impedir que el viento solar disociase las moléculas de agua, cuyos átomos de hidrógeno escaparían al espacio exterior, mientras que los de oxígeno reaccionarían con los minerales ricos en hierro de la superficie marciana, con su característico color rojizo.  Baja energía interna, no pudiendo evitar el prematuro “apagado” de la tectónica, quedando así anulada

la necesaria renovación de los gases de la atmósfera (actualmente: 95 % CO2, 2,7 % N2, 1,6 % Ar…).  Gravedad insuficiente para retener la atmósfera, generando dos efectos negativos para la existencia de vida en este planeta: presión atmosférica actual de solo 6 mbar, justo por debajo del límite necesario para la existencia de agua líquida superficial; ausencia de un escudo protector para evitar que la letal radiación UV alcance la superficie del planeta. En función del tiempo de disposición de agua líquida, es posible estimar el grado de evolución de la hipotética vida desarrollada en Marte (en base al modelo terrestre): con 1000 Ma se alcanzaría el grado equivalente a los eucariotas; con unos cientos de Ma la vida habría permanecido como “procariota”, tal vez hoy refugiada en el subsuelo endolítico marciano; con unos pocos cientos de Ma la vida tal vez haya podido surgir para, a continuación, desaparecer. Otro aspecto negativo acerca de la posible existencia de vida en Marte (presente o pasada), son los indicios de sus aguas hipersalinas y muy ácidas, incompatibles con la vida “normal” y también con la de muchos extremófilos. Sin embargo, también debemos de tomar en consideración que la supuesta acidez del agua 157 marciana nos conduce a Rio Tinto (Huelva, España), un medio salino y de pH similar al supuesto marciano, donde bulle la vida extremófila perfectamente adptada. La distancia al Sol sitúa a Marte en el límite exterior de la denominada “ZH ampliada para ciertos extremófilos”, con una temperatura superficial media de unos -58 ºC. Además Marte orbita con una excentricidad relativamente alta (0,09) generando significativos extremos climáticos debido a las importantes diferencias en las distancias al Sol entre el afelio y el perihelio. Marte muestra numerosos rasgos de intensa actividad volcánica, como el Monte Olympus, el volcán más grande del SS, tanto por su altura como por las coladas de lava, achacables a convección dentro del manto, pero no hay ninguna señal de que este planeta haya desarrollado una actividad tectónica similar a la terrestre. También presenta numerosos signos de la presencia superficial de agua en el pasado, tanto en “ríos” como en “océanos”, y se especula con la posibilidad de que una parte importante aún permanezca en estado líquido en el subsuelo marciano. La polémica sobre la existencia de vida en Marte se viene arrastrando desde el año 1877, cuando el astrónomo italiano Giovanni Schiaparelli observó unas estructuras lineales que denominó canalí (cauces naturales), que, quizás por un error periodístico, fueron traducidos al inglés por “canals” (construcción artificial), desencadenante de una importante polémica acerca de la existencia de vida inteligente:

 Percival Lowel, rico americano aficionado a la astronomía, publicó un libro a principios del pasado siglo con sus observaciones sobre los “canales artificiales” rectilíneos por él observados (disponía de un telescopio de 60 cm)  El 31 de octubre de 1938, un programa de radio sembró el pánico entre los sugestionados habitantes de la región de Nueva York, que no habían escuchado el anuncio de una radionovela, sometidos a una larga sesión de pánico al escuchar un “reportaje” anunciando el desembarco de extrañas criaturas procedentes de Marte con rayos letales, que ya habían causando la muerte de cientos de personas (se trataba de una radionovela, una hábil adaptación realizada por Orson Welles de la Guerra de los Mundos). Quizás fue por esto que el gran público americano sufrió una decepción en el año 1976 al contemplar la primera foto de la superficie de Marte tomada por la sonda Viking Lander I, mostrando la superficie del planeta desértica, pedregosa y sin vida (■Figura 8-4). Esta evidencia generó un gran desinterés hacia la exploración espacial, que ya no se recuperó hasta el descubrimiento del primer exoplaneta en 1995 por los astrónomos suizos Michel Mayor y Didier Queloz. Un segundo impulso de búsqueda ha vuelto a surgir a raíz del descubrimiento de la vida extremófila terrestre en los lugares más insospechados, por lo que actualmente se está investigando en base a la posibilidad de detectar este tipo de vida, o sus restos fósiles, particularmente en las lunas de los gigantes gaseosos y en el planeta Marte. Ya en el siglo XXI han sido lanzadas numerosas misiones a Marte, siendo destacable la puesta en su superficie en el año 2004 de los rovers Spirit y Opportunity (misión Mars Exploration Rover), que realizaron

158 exploraciones e interesantes mediciones en la superficie y atmósfera marciana, pero tampoco detectaron evidencias de la existencia de vida. Finalmente, en noviembre de 2011 fue lanzada por la NASA (con colaboración española: Centro de Astrobiología CSIC - INTA) la misión (MSL) conocida como Curiosity, cuyo objetivo es investigar la capacidad actual o pasada de Marte para albergar vida.

Planeta Tierra vs Marte y Venus La Tierra es un planeta con abundante agua líquida en superficie y una atmósfera densa formada básicamente por nitrógeno y oxígeno. Rebosa vida por todas partes (atmósfera, hidrosfera y litosfera hasta 4 km de profundidad), incluidos algunos lugares con condiciones extremas de temperatura, salinidad o presión, lo que constituye una esperanza para la existencia de vida extraterrestre. Se trata de un planeta muy activo, con terremotos, volcanes, tectónica de placas y campo magnético protector del viento solar y de las radiaciones cósmicas. Un observador exterior vería una atmósfera con la “firma del agua”, situado en la ZH del Sol, lo que le induciría a pensar en la posibilidad de agua líquida en su superficie. Vería también las bandas del O2 y el O3, que en nuestro planeta se deben a la fotosíntesis oxigénica. Si desapareciese la vida también lo harían el O2 y el O3, aunque estos gases podrían tener un origen no biológico, como ocurre en Marte, con algo de O2 (0,13 ppm) y un poco de O3 (0,03 ppm), relacionados con procesos fisicoquímicos de base.

Hay que tener presente que el O2 en la atmósfera terrestre comenzó a acumularse hace unos 2.500 Ma, pero mucho antes (3.700-3.500 Ma) ya existía vida en la Tierra. La gran diferencia en la habitabilidad de estos tres planetas se debe a las grandes diferencias en sus temperaturas superficiales, muy alta en Venus y muy baja en Marte, originadas por unos efectos invernadero inversamente proporcionales a sus respectivas distancias al Sol. Tras el análisis de la causas que han generado evoluciones tan dispares, hay una que “salta a la vista” (■Figura 8-5) en el momento en que consideremos el conjunto Tierra-Luna, así como su proceso de formación, respecto a los restantes planetas rocosos del Sistema Solar. La Luna es un satélite excepcionalmente grande cuyo diámetro supera ¼ del diámetro del planeta, mientras que Venus no tiene satélites y Marte está orbitado por dos “pequeñas rocas capturadas”. Además la relación de masa 1/81 del sistema Luna/Tierra supera a cualquier otra de los grandes satélites del Sistema Solar. Muchos astrónomos consideran al conjunto Tierra-Luna como un sistema doble planetario, aunque oficialmente y por definición no pueda denominarse así debido a que el baricentro común se encuentra por debajo de la superficie terrestre. Como ya hemos comentado, la estabilización del eje de rotación terrestre, debida al efecto de la Luna, puede haber sido determinante para la evolución de la vida compleja en nuestro planeta.

Se intuye que un suceso como el que dio origen a la Luna es altamente improbable: choque con un cuerpo muy masivo con el ángulo adecuado para que no desbarate al planeta y que eyecte la cantidad necesaria de materia más allá del límite de Roche para que finalmente pueda consolidarse el satélite.

159

Fracción estimada de sistemas estelares con “planetas dobles” rocosos (Hpd): << 0,25 Como preludio a la especulación sobre el potencial de vida en la galaxia, debemos de aprender lo máximo posible de nuestro planeta, el único con vida conocida.

Vida en las lunas de los gigantes gaseosos Las insistentes afirmaciones de los biólogos acerca de la imposibilidad de la “vida sin agua” (pero no necesariamente lo contrario: “agua sin vida”), unido a las abundantes y variadas comunidades de microorganismos existentes en lugares terrestres como los mares árticos bajo la banquisa o en los numerosos lagos descubiertos en el subsuelo de la Antártida, con vida abundante y variada, han generado importantes expectativas en algunos ambientes científicos sobre la posible existencia de vida en aquellos satélites de los gigantes gaseosos en los que se han detectado “océanos” subterráneos, como son las lunas de Júpiter: Europa, Ganímedes y Calisto; las de Saturno: Encélado y Titán; o la de Neptuno: Tritón.

Europa (satélite de Júpiter) La alta densidad media de 3,5 g/cm3 apunta a la existencia de un importante núcleo diferenciado de metales y silicatos, rodeado por un océano salado que podría alcanzar los 200 km de profundidad (equivalente a un volumen de unos tres océanos terrestres), cubierto por una capa de hielo de unos pocos km (5 a 30 según autores) (■Figura 8-6), en cuyo fondo debe de existir una inter-fase agua-roca que, sometida al efecto mareal del cercano Júpiter (debido a una excentricidad orbital de 0,01), resulta muy interesante desde el punto de vista biológico. La existencia del océano salado fue puesto en evidencia en el año 1996 por la sonda Galileo, al detectar que este satélite posee un débil campo magnético, que, tal como había sido pronosticado, solo se explica si es generado con la presencia de un gran océano líquido y conductor de la electricidad, y por lo tanto salado, al circular a través del intenso campo magnético del vecino anfitrión Júpiter. La temperatura superficial del satélite Europa es de unos 170 ºC bajo cero.

Ganímedes (satélite de Júpiter) Su densidad media de 1,9 g/cm3 nos está señalando a un núcleo rocoso y a un manto de agua al 50 %. Ganímedes es el mayor de los satélites galileanos y también del sistema solar (supera en volumen a Mercurio); se trata ya de un objeto “exterior” del sistema joviano en el que predomina el hielo. Su campo magnético, aproximadamente un 2 % del terrestre, se explica como el efecto de un océano subterráneo bajo una gruesa corteza de hielo de unos 150 km de espesor. Como es lógico, el calor mareal es más reducido que en Europa (Ganímedes está 1,6 veces más lejos del planeta), lo que también se refleja en la escasa renovación superficial de este satélite, con miles de cráteres de impacto poblando su superficie.

160

Calisto (satélite de Júpiter) Una densidad media de 1,8 g/cm3 también apunta a un reparto cercano al 50 % entre silicatos y agua, sin embargo en este caso la estratificación núcleo-manto es dudosa ya que el coeficiente de su momento de inercia de 0,358 [■8-1] permite únicamente una pequeña concentración de roca hacia el interior. Calisto es el tercer satélite más grande de nuestro entorno, solo superado por Ganímedes y Titán. Al igual que Ganímedes también modula el campo magnético de Júpiter, justificando así la existencia de un cuerpo conductor, que para un objeto sin núcleo no puede ser otra cosa que un océano interno líquido y salado. Esto también fue confirmado por la sonda Galileo que ha enviado imágenes de las “antípodas” del gran impacto Valhalla (3.000 km de diámetro), no detectando diferencia alguna con el entorno, en contra de lo que sucede en cuerpos “sólidos” de tamaño similar, como Marte o la Luna, los cuales si presentan importantes deformaciones tectónicas en las antípodas de sus grandes impactos. El océano líquido de Calisto debe de ser lo suficientemente masivo para absorber y disipar las ondas sísmicas. El hecho de que la estructura de Valhalla se haya conservado desde hace unos 4500 Ma se debe a la baja temperatura superficial de Calisto, entre 120 y 200 ºC bajo cero, a las que el hielo difícilmente puede fluir. La superficie de Calisto es la más craterizada del sistema solar, datándose su corteza en más de 4.000 Ma.

Titán (satélite de Saturno) El mayor satélite de Saturo y el segundo más grande de nuestro entorno, superando también en volumen a Mercurio. Se trata de un objeto muy especial, en relación a los demás satélites del SS, cuya densidad media de 1,9 g/cm3 es el resultado de una mezcla de silicatos (50 %), amoníaco (15 %) y agua, formando una estructura organizada: un núcleo rocoso; un gran océano de agua líquida y amoniaco (NH3) disuelto; una corteza de hielo de algunos km de espesor y un mar superficial de metano (CH4) líquido, así como ríos de etano (C2H6) con CH4 disuelto. Titán es el único satélite del SS que posee una densa atmósfera de 1,5 bar (más pesada que la terrestre), formada por un 95 % de nitrógeno, un 4 % de metano y argón (Ar), siendo esta alta presión la que posibilita la existencia de gases en estado líquido en su superficie. En la parte alta existe una densa niebla de complejas moléculas orgánicas, originadas a partir del carbono procedente de la descomposición del CH4 por la radiación UV (el nitrógeno se pierde), que polimerizan formando aerosoles que dan al satélite su característico color anaranjado. Algunos autores opinan que en la superficie de Titán se podrían estar produciendo procesos biosintéticos similares a los que ocurrieron en la Tierra primigenia.

Encélado (satélite de Saturno) Estamos ante el más pequeño de los satélites geológicamente activos, con un diámetro de 476 km, y con una densidad de 1,16 g/cm3, lo que significa que está formado básicamente por agua y menos de un 10 % de silicatos. El aspecto interesante de este satélite es la actividad crio-volcánica detectada por la sonda Cassini en su polo sur, en forma de géiseres(■Figura 8-7, falsos colores),

161 emitiendo una emulsión de hielo de agua en gases (CH4, CO, CO2…) que, debido a la escasa gravedad, alcanza miles de km. Últimamente se considera que la energía interna para este proceso es de origen mareal, debido a una deformación de la órbita provocada por una resonancia 2:1 con el satélite Dione. La relevancia de Encélado, desde el punto de vista astrobiológico, proviene de la supuesta existencia de un océano de agua interno, de donde surgen los géiseres, y donde también se podría formar vida. Encélado, junto con Ío, Tritón y la Tierra, es uno de los objetos del SS con actividad geológica conocida.

Tritón (satélite de Neptuno) Este satélite sigue una órbita retrógrada en torno a Neptuno y además posee una densidad de 2,05 g/cm3, superior a la de los restantes satélites de Saturno y Urano, lo que permite asegurar que se trata de un objeto capturado gravitacionalmente por el planeta. La alta densidad media debe de corresponderse con un importante núcleo rocoso y quizás un 15 a 35 % de agua helada. La lejanía del Sol y el elevado albedo (62-85 %) hacen que la temperatura superficial sea de unos 235 ºC bajo cero, temperatura a la que el nitrógeno se encuentra en estado sólido (punto de fusión = - 210 ºC). Tritón presenta una intensa renovación de su superficie, con solo 15 cráteres de impacto. El supuesto origen de la energía para la renovación se relaciona con el proceso de captura, que debió de generar una enorme cantidad de energía mareal. Las imágenes de la sonda Voyager 2 del año 1989 muestran unos volcanes y geiseres, ahora controvertidos [■8-2], lanzando nitrógeno líquido y partículas de polvo a la atmósfera, lo que sitúa a Tritón, junto con Ío, Encélado y la Tierra, entre los cuerpos geológicamente activos del SS. La tenue atmósfera (10-5 bar) de Tritón está formada por un 99,9 % de nitrógeno, componente principal de la atmósfera terrestre, y un 0,01% de metano, molécula asociada a la vida, lo que sitúa a Tritón, junto con Titán y la Tierra entre los objetos del SS con atmósferas formadas principalmente por nitrógeno. Tomando en consideración lo indicado, algunos científicos opinan que las condiciones de Tritón tal vez hayan sido adecuadas para dar lugar a la formación de algún tipo de vida exótica desconocida en nuestro planeta.

La vida en alguno de estos satélites del SS, en caso de existir, obedecería a modelos biológicos quimio- sintéticos anoxigénicos, donde la energía imprescindible tendría un origen radiactivo, hidrotermal, mareal… lugares donde los hipotéticos organismos tendrían que haber surgido y tal vez evolucionado. Por otra parte, las especulaciones acerca de las posibilidades y modalidades de vida compleja en estos medios entran en el terreno de la ciencia ficción.

Al parecer está prevista, si la economía lo permite, algún tipo de exploración sobre estos objetos.

Vida en el universo (por el momento: Vía Láctea) En este capítulo y en estos momentos nos gustaría poder responder a las preguntas que nos hacíamos en la introducción: ¿existen otros mundos habitables?, ¿estamos solos en el universo?, ¿es la Tierra especial?... Pero lamentablemente aún no estamos en condiciones de hacerlo dado que seguimos contando con un solo ejemplo de objeto con vida: la Tierra. Aún no hemos detectado otro sistema planetario como el SS: un

162 planeta parecido a la Tierra orbitando a la distancia adecuada de una estrella como el Sol. Es más, en el caso “muy probable” de que esos sistemas existan (opinión mayoritaria del mundo científico), los medios actuales no disponen de la sensibilidad suficiente para detectarlos. Para esto tendremos que esperar, como mínimo, a la siguiente generación de medios de observación, que analizaremos en el capitulo siguiente. Sin embargo sí que hemos avanzado, al menos ya conocemos y hemos cuantificado algunas características de los sistemas planetarios que hacen que estos, en algunos casos, no sean habitables, y es en esto en lo que nos vamos a apoyar para valorar, en esta segunda parte del capítulo, la habitabilidad máxima de la ía Láctea. Es decir: en base a los criterios actualmente aceptados para la habitabilidad y a los datos que ya conocemos (porcentaje o probabilidad de habitabilidad por conceptos), vamos a tratar de determinar el porcentaje máximo (a esta fecha), del los sistemas planetarios habitables, valor que seguramente habrá que corregir con los “futuros datos” que nos proporcionarán los medios de observación de las próximas generaciones (■Capitulo 9).

Habitabilidad de la Vía Láctea En base a la información manejada en capítulos anteriores (particularmente los capítulos 6 y 7), vamos a determinar las fracciones parciales de sistemas habitables (factor de habitabilidad o probabilidad) para distintos conceptos o características de los sistemas planetarios. Una vez conocidas las “probabilidades parciales”, la probabilidad compuesta (que un sistema cumpla con todos los requisitos de habitabilidad) será igual al producto de los factores parciales, como si de una serie consecutiva de lanzamientos de dados se tratase (■Figura 8-8). Fracción de estrellas con rango espectral adecuado (capítulo 6) Con los criterios establecidos inicialmente en los programas de búsqueda de vida, se consideraron como estrellas idóneos los tipos espectrales Fbajo, G y Kmediano, que representan aproximadamente un 13 % del total de estrellas de la Vía Láctea (VL). Factor de habitabilidad por tipo espectral óptimo (He) = 0,13 Sin embargo, a raíz de los múltiples descubrimientos de exoplanetas en torno a estrellas de tipo M, se “amplió” el concepto de habitabilidad estelar, pasando a comprender los tipos F, G, K (> 0,4 masas solares), correspondiente a aproximadamente al 23 % de las estrella de la VL. Factor de habitabilidad tipo espectral “ampliado” (He) = 0,23 Fracción de sistemas estelares adecuados (capítulo 6) Se consideran como habitables los sistemas estelares unitarios, que suponen el 30 % del total de las estrellas, más un 35 % correspondiente a los binarios que reúnen ciertas condiciones. Considerando ambos conceptos, se totalizan un 65 % de sistemas estelares habitables. Factor de habitabilidad sistemas estelares (Hse) = 0,65

163

Fracción de sistemas estelares (estrellas) en la zona galáctica habitable (ZGH) (capítulo 6) Se estimó en un 10 % el número de estrellas de la Vía Láctea adecuadas para el desarrollo de vida inteligente, mientras que nosotros nos hemos tomamos la libertad de duplicar el porcentaje para establecer la habitabilidad global (todo tipo de vida, desde microorganismos a vida compleja) en un 20 %. Factor habitabilidad galáctica (Hg) = 0,20 Fracción de sistemas estelares con planetas terrestres en la ZH (capítulo 7) Por el momento no es posible determinar este factor con cierta fiabilidad, debido a la falta de datos y a la incapacidad de los medios actuales para detectar planetas de tamaño terrestre en la ZH de sus estrellas anfitrionas. Lo que si conocemos, a raíz de la información proporcionada por la misión espacial Kepler, es que un 11 % de los sistemas estelares detectados quedan descartados como habitables por la presencia de planetas gigantes en la ZH o en sus proximidades, quedando como posibles habitables, por este concepto, un máximo del 89 % de los exoplanetas. Factor de habitabilidad por situación en la ZH (Hzh) = 0,89 Fracción planetas conformes en excentricidad (capítulo 7) Se consideran una excentricidad de 0,2 como el valor máximo para que las órbitas planetarias no excedan los límites de la ZH, valor que, sorprendentemente, solo cumplen un 66 % de los exoplanetas detectados. Factor de habitabilidad por excentricidad (Hex) = 0,66 Fracción de sistemas estelares con satélite “grande” (tipo Tierra-Luna) (capítulo 8) Se considera que este factor puede ser importante para la evolución a la vida compleja y seguramente poco relevante para que la vida bacteriana haya podido surgir. El único ejemplo disponible conocido es el de la Tierra-Luna, un caso entre los 4 telúricos existentes, aunque se “intuye” que las circunstancias del caso terrestre son difícilmente repetibles. Factor de habitabilidad por planetas dobles (Hpd) << 1/4 = 0,25 Este factor solo es aplicable para la estimación de la posible vida avanzada en otras zonas de la galaxia, pero no es aplicable para estimar la habitabilidad general de micro-organismos.

Estimación de la “habitabilidad máxima de la Vía Láctea” En la ■Tabla 8-1 que viene a continuación se “calcula” la habitabilidad teórica de la Vía Láctea (% de estrellas habitables), en base a los factores de habitabilidad que figuran en el apartado anterior.

Factor habitabilidad  He Hse Hg Hzh Hex Hpd Habitabilidad estelar máxima

Vida microscópica 0,23 0,65 0,20 0,89 0,66 1,00 0,0176, equivalente al 1,76 %

Vida compleja 0,13 0,65 0,20 0,89 0,66 << 0,25 0,0025, equivalente al 0,25 %

■Tabla 8-1: habitabilidad de la Vía Láctea %

164

Factores de habitabilidad: He = estelar; Hse = sistemas estelares; Hg = galáctica; Hzh = “sin” gigantes en ZH; Hex = excentricidad < 0,2; Hpd = planeta “doble” tipo Tierra-Luna En el supuesto de 200.000 millones de estrellas en la Vía Láctea (2 · 1011), las posibilidades máximas de vida en la Vía Láctea serían: 1. Vida microscópica: 0,0176 x 2 x 1011 = 3.520 x 106 estrellas habitables. 2. Vida compleja: << (0,0025 x 2 x 1011) ≈ 500 x 106 estrellas habitables.

Recordamos que se trata de un ejercicio teórico para determinar la habitabilidad máxima de los sistemas estelares de la Vía Láctea, que, evidentemente, no es lo mismo que sistemas estelares de la Vía Láctea habitados.

Vida compleja inteligente (tecnológica) Esta posibilidad, que sería una evolución a partir de la vida compleja, no la podemos estimar, ya que no conocemos ningún caso aparte del terrestre. Pensemos que:

 Los biólogos estiman que en nuestro planeta han existido 50·109 especies y solo una con inteligencia “tecnológica”: el Homo sapiens.  La vida inteligente en nuestro planeta existe desde hace solo unos 150.000 años, más o menos un 0,0002 % de la existencia del planeta.  Han tenido que ocurrir una cadena aleatoria de suceso para que surja la inteligencia (tecnológica): glaciaciones, extinciones masivas…  Paradoja de Fermi: “si existen organismos con vida inteligente, ¿dónde están?”  50 años “escuchando” señales radioeléctricas del espacio sin oír nada (no es mucho tiempo).

“Todas las valoraciones sobre la existencia de vida inteligente se pueden considerar sumamente especulativas”.

Nota. Este último apartado, “Habitabilidad de la Vía Láctea”, se debe de considerar como una ilustración pedagógica, basado en algunas especulaciones, y por lo tanto sin valor científico.

[■8-1] El coeficiente del momento de inercia es un concepto útil que sirve para cuantificar el grado de concentración de la masa hacia el centro de los cuerpos. Para objetos elipsoidales, como son la mayoría de los cuerpos planetarios, el momento de inercia viene dado por la fórmula I = K · ∑(m. r2), como la suma de los productos de la masa m de las partículas por el cuadrado de la distancia r de cada partícula al eje de giro. K se denomina coeficiente del momento de inercia, que para este tipo de objetos varía entre 0 (si toda la masa estuviese concentrada en el centro) y 1. Una esfera homogénea tendría k = 0,40, mientras que para una esfera hueca sería k = 0,67. [■8-2] Al parecer, algunos de los miembros del equipo científico de la Voyager 2 encontraron dificultades insalvables en la hipótesis de los géiseres, principalmente las bajísimas temperaturas que hacen difícilmente explicable el modo de alcanzar la temperatura de sublimación del nitrógeno, por lo que propusieron como

165 alternativa para justificar las imágenes, el que estas se correspondiesen con la formación de remolinos como los que surgen en los desiertos terrestres.

166

■ 9 Misiones futuras: biotrazadores

Entre las grandes inquietudes del ser humano figuran el conocimiento de los orígenes y el destino, tanto del universo como de la vida. Pero, para continuar avanzando en el estudio y la investigación de estas interesantes cuestiones, es necesario disponer de medios de investigación adecuados, cada vez más potentes y sofisticados, a medida que los disponibles quedan inservibles al quedar superadas sus posibilidades por nuevas necesidades más exigentes. Las misiones actuales tienen como principal objetivo la búsqueda de habitabilidad (no de la vida), caracterizando qué tipos de estrellas en nuestra vecindad hospedan planetas terrestres en la zona habitable. Tras un largo y fructífero periodo de observación con los telescopios espaciales Hubble, COROT, Kepler, Spitzer…, y también con las últimas generaciones de grandes telescopios y espectrómetros terrestres, los mejores resultados se han “estabilizado” en planetas con tamaños mínimos de unas 2 masas terrestres (Mt), situados “más o menos” en la zona habitable (ZH) de su estrella, mayoritariamente de tipo M, planetas que muchos científicos califican como “candidatos a habitables”, sabiendo que ninguno de ellos alcanza la calificación de ser el “gemelo” del sistema Sol-Tierra. La actual estabilidad de resultados (2012-2014) pone en evidencia que ya se han alcanzado el límite de las posibilidades de los medios actuales, por lo que se impone su renovación si aspiramos a continuar avanzando. Las nuevas generaciones de instrumentos no podrán conformarse con detectar sistemas “candidatos a habitables”; deberán de concebirse para que sean capaces de confirmar si efectivamente están habitados o no lo están. Para ello, las futuras misiones deberán de concebirse con capacidad para detectar planetas de tamaño terrestre (0,5 a 2 Mt), orbitando en la ZH de estrellas parecidas al Sol (tipos espectrales: Fbajo, G o

Kmediano), y con la posibilidad de poder realizar el análisis de las atmósferas de los planetas, a través de la huella impresa en la radiación emitida, para detectar la presencia de aquellos componentes o firmas que “apunten” a la presencia de vida. Es necesario tener presente que en nuestro planeta, con presencia de vida muy temprana, tanto su aspecto superficial como su atmósfera han evolucionado a través de situaciones muy diferentes, ejemplos: atmósfera escasa en oxígeno cuando la vida bullía en los mares, hace “solo” 1.500 Ma, o Tierra “bola de nieve” de hace unos 600 Ma.

¿Es posible aprender sobre la Tierra observando otros exoplanetas? La observación de otros sistemas exoplanetarios y de otras “tierras” seguramente nos va a proporcionar información sobre la historia de nuestro planeta. Es muy difícil saber cómo era la Tierra hace más de 1.000

167

Ma. Con toda seguridad el ambiente de aquellas épocas era muy diferente del actual, pero la tectónica de placas, la erosión, y también la vida, se han encargado de borrar huellas esenciales de lo que fue la Tierra en otros tiempos. Lo mismo que observando otras estrellas hemos aprendido sobre el pasado y el futuro del Sol, también las futuras observaciones de otros planetas, algunos más antiguos o mucho más antiguos que el nuestro, y otros más jóvenes o mucho más jóvenes, nos proporcionará información de cómo empezó y como va a terminar la historia terrestre. Será preciso observar muchos exoplanetas para obtener datos estadísticos válidos, la observación de uno en particular puede no ser representativa, ya que su historia o su composición química inicial pueden haber sido totalmente distintas.

¿Es posible la detección de vida en la Tierra por un observador externo? Ese observador necesitaría disponer de unos medios como los que nosotros posiblemente tengamos dentro de 10, 20 ó 30 años:  Capacidad para resolver un planeta del tamaño de la Tierra en las proximidades de una estrella mil millones de veces (109) más luminosa en el espectro “visible”, y un millón de veces (106) más luminosa en el “infra rojo”.  Capacidad para separar la luz procedente directamente de la estrella, de aquella que lo hace a través de la atmósfera del planeta, para poder analizar el espectro de esta última. Si comparamos el espectro de la atmósfera de la Tierra con los de Venus y Marte, vemos que en estos

últimos se encuentra la “firma” del CO2, mientras que en la Tierra encontraríamos la “firma” del agua, que no está presente en Venus (0,002 %), ni en Marte (0,02 %), en cantidades significativas. La detección de agua en la atmósfera terrestre, conjuntamente con una distancia a su estrella, que la sitúa en la ZH, podría inducir al observador exterior a pensar en la posibilidad de la existencia de agua líquida en la superficie terrestre.

En la atmósfera terrestre están también presentes las bandas del O2 y del O3, como resultado de la fotosíntesis oxigénica, proceso metabólico comenzado por las cianobacterias y al que más tarde dieron continuidad las algas y las plantas terrestres. Como vimos al tratar el ciclo del carbono (■Figura 4-9), si desapareciese la vida en la Tierra, también lo harían el O2 y O3 al cabo de algunos millones de años.

Hay que tener en cuenta que la presencia o la ausencia de O2 en la atmósfera no significa necesariamente que un planeta tenga vida, ni lo contrario:

 El O2 comenzó a acumularse en la atmósfera terrestre hace unos 2.500 Ma, pero mucho antes (3.700- 3.500 Ma) ya existía vida en la Tierra.

 En Marte hay un algo de O2 (0,13 %) y un poco de O3 (0,03 ppm), que están relacionados con procesos fisicoquímicos de base.

¿Es posible detectar la clorofila en exoplanetas? La clorofila, indicador de vida vegetal, no se encuentra en la atmósfera de los planetas, está en el interior de las plantas; por lo tanto, no daría ninguna señal a través del espectro procedente de la atmósfera. No obstante, hay una posibilidad teórica, que no se ha podido captar para nuestro planeta. La clorofila absorbe fuertemente la radiación UV visible, mientras que no absorbe en absoluto la radiación visible

168 cercana al IR. Con medios adecuados, quizás se pueda, en algún momento, aprovechar este factor de absorción generado por la clorofila.

“Señales” de vida a buscar en otros mundos, biofirmas o biomarcadores: En principio, las “señales” de vida, o biofirmas, que se estiman como detectables de forma remota en mundos lejanos (principalmente exoplanetas) están enfocadas a la búsqueda, cuando los medios lo permitan, de ciertos gases en las atmósferas de los objetos en estudio o de ciertos pigmentos en las superficies. De momento, los biomarcadores y biofirmas se establecen en base a las modificaciones que la vida que conocemos ha producido en la atmósfera terrestre. Se trata de una estrategia biogeocéntrica, pero es la única que sabemos hacer. Una confirmación práctica de la posibilidad de estas detecciones fue realizada por la NASA (a petición de Carl Sagan), el 11/12/1990, cuando la sonda Galileo, destinada a la exploración de Júpiter y su sistema de anillos y satélites, se encontraba a unos 2,5 millones de km de la Tierra: en aquella situación se encendieron los instrumentos de la sonda y se “apuntó” a la Tierra para realizar mediciones, pudiendo comprobar que efectivamente se detectaba la abundante presencia de oxigeno (O2) y metano

(CH4) en la atmósfera de nuestro planeta. Actualmente se piensa que el potencial de detección de firmas biológicas en las atmósferas o la superficie de los exoplanetas se encuentra en los métodos de detección directa (como ya adelantamos en el ■Capítulo 7), o en los métodos de tránsitos (■Figura 9-1), en la información “grabada” en la radiación recibida del sistema estrella-planeta, con y sin fase de tránsito, para diferenciar las aportaciones de la estrella y del planeta:  Durante el tránsito primario (A ■Figura 9-1), la atmósfera del planeta absorbe parte de la radiación estelar (espectro de absorción), generando un espectro cuya “diferencia” con el emitido por la estrella permitirá inferir las firmas de las moléculas presentes en la atmósfera planetaria.  A partir del tránsito secundario (B ■Figura 9-1), con la aparición/desaparición del exoplaneta, se puede determinar la emisión térmica de la superficie de este, para medir su temperatura y quizás alguna característica de sus pigmentos superficiales (¿vegetación?). Las hipotéticas firmas a detectar en las atmósferas planetarias podrían ser:

. Oxígeno molecular abundante, a través de la presencia de O3 (inexistente en la atmósfera terrestre antes de la vida). Se trata de un elemento muy reactivo que se combina con la materia del entorno desapareciendo como elemento libre. Su presencia indica que es repuesto de manera continua, en el caso terrestre a través de la fotosíntesis (vida).

. Presencia simultánea de CO2, vapor de agua y O3, “firma” de un posible tipo de vida similar al terrestre.

. Presencia de gases en desequilibrio químico. Por ejemplo metano (CH4) y oxígeno (O2). El CH4 es sensible

a la radiación UV y además reacciona con el O2 produciendo H2O y CO2, por lo tanto algún proceso debe de renovarlo constantemente. En la Tierra lo hace la vida.

. Trazas de CO2 induce semejanza con los planetas de roca y metal del Sistema Solar. . Otra fuente de información sobre la posible presencia de materia biogénica es la relación 12C/13C (isótopos de carbono), que en nuestro planeta es de 90. Sin embargo esta relación se modifica en el 169

proceso de fotosíntesis, ya que las plantas utilizan preferentemente el isótopo más ligero (12C), dando lugar a una alteración del 2,6 % que conduce a una relación final 12C/13C de 92,4 en la materia orgánica.

. La presencia masiva de CO2 mostraría que se trata de un planeta muerto, como Venus y Marte.

Los biotrazadores o firmas señalados permitirían la detección de vida en otros mundos, siempre que dicha vida haya modificado su atmósfera de manera similar a cómo la vida que conocemos lo hizo en nuestro planeta.

Futuras misiones de observación espacial Hasta la fecha, los mejores resultados de las investigaciones relacionadas con la Astrobiología se han obtenido a través de los medios de observación espaciales Corot, Kepler, Herchel, Spitzer, y también con la última generación de grandes telescopios terrestres de 10 m de diámetro y el espectrómetro HARPS. Las futuras misiones, lógicamente, han de ajustarse a unas mayores exigencias: capacidad para el estudio de las atmósferas planetarias mediante técnicas espectrométricas en banda ancha de alta precisión y elevada estabilidad instrumental. A continuación relacionamos las principales misiones de exploración previstas para el futuro cercano, tanto terrestres como desde el espacio (si la economía lo permite), así como algunas de sus características.

Futuros medios terrestres: Telescopio Europeo Extremadamente Grande (European Extremely Large Telescope / E.ELT) Telescopio terrestre de grandes dimensiones (■ Figura 9-2), con un espejo primario de 39 m de diámetro, destinado al Observatorio Europeo del Sur (ESO), cerro Armazones, desierto de Atacama (Chile). La puesta en operación está prevista para el año 2022. Telescopio de treinta metros Al igual que el anterior, se trata de un telescopio terrestre de grandes dimensiones, con un espejo primario de 30 m de diámetro, actualmente en fase de construcción. Está prevista su instalación en Mauna Kea, Hawai, en el año 2018. Telescopio gigante de Magallanes Otro gran telescopio terrestre, con un espejo primario de 24,5 m de diámetro. Puesta en operatividad en Atacama, Chile, prevista para el año 2020.

Futuras plataformas espaciales: Las principales ventajas de la observación desde el espacio son que no hay contaminación lumínica; ausencia de la atmósfera terrestre, que distorsiona las imágenes (aberración óptica) y absorbe una parte importante 170 de espectro electromagnético del IR y el UV e imposibilita la astronomía de rayos X. Entre los inconvenientes cabe citar: elevado coste, sobre todo la fase de lanzamiento; dificultad o imposibilidad del mantenimiento; menor vida, debido al agotamiento del líquido refrigerante. Telescopio Espacial James Webb (JWST), sustituto científico- del Hubble y del Spitzer Este gran telescopio espacial (■ Figura 9-3), con un espejo de 6,5 m de diámetro (2,5 m del Hubble), se encuentra en fase de desarrollo por la NASA, la ESA y la Agencia Espacial Canadiense. Principales objetivos:

 Avanzar en el conocimiento del origen de las primeras estrellas, y la génesis y la evolución de las primeras galaxias.  Mejorar nuestra comprensión del proceso de formación de las estrellas y de los sistemas planetarios.  Profundizar en el estudio de los exoplanetas detectados por otros medios: masas planetarias, características de sus atmósferas (esto último, en principio, solo será posible para planetas gigantes gaseosos) [■9-1]

Realizará observaciones en el IR desde el punto L2 de Lagrange del sistema Sol-Tierra, entando prevista la puesta en funcionamiento para el año 2018. Misión TESS de la NASA (Transiting Survey Satellite) Al contrario que el veterano Kepler, que se dedicó a la observación de una pequeña región del universo entre las constelaciones del Cisne y de la Lira (con fines estadísticos), para determinar la composición planetaria de la Vía Láctea, TESS estudiará gran parte del cielo para detectar, por el método de tránsito, el mayor número de planetas cercanos candidatos a habitables, orbitando estrellas cercanas y brillantes (magnitudes 4,5 a 13), donde puedan ser estudiados fácilmente y en profundidad por otros telescopios, como el JWST o los grandes telescopios terrestres. El objetivo es la caracterización tanto del tamaño de los exoplanetas, como sus atmósferas y superficies: tamaño, masa, densidad, espectro de emisión de su superficie, espectro de absorción de la atmósfera, , nubes, vientos, etc., intentando detectar “firmas” de la presencia de vida. TESS observará desde una única órbita alta de la Tierra, estando previsto el lanzamiento para el año 2.017. Misión CHEOPS de la NASA (CHaracterizing ExOPlanet Satellite) Esta misión se dedicará a la observación, desde una órbita terrestre a 620-800 km de altitud, por el método de tránsitos, de estrellas brillantes de las que ya se conoce la existencia de exoplanetas (con la posibilidad de detectar planetas adicionales). El principal objetivo es el “ajuste fino” de las características de los exoplanetas ya conocidos, de tamaños entre supertierras a exoneptunos:  Determinación precisa del tamaño de los exoplanetas.  Estudio de los espectros de absorción, emisión y albedo de las atmósferas planetarias, en radiaciones de longitudes de onda entre 0,4 a 1,1 µm (IR) El lanzamiento de esta misión está previsto para el año 2017.

171

Misión ExoMars de la ESA Proyecto desarrollado por la Agencia Espacial Europea (ESA) y apoyado por la Agencia Espacial Federal Rusa. El objetivo de esta misión es la búsqueda de vida pasada o presente en nuestro vecino planeta Marte, mediante el análisis molecular de muestras. Dado que la radiación ionizante podría destruir en unos pocos miles de millones de años los biomarcadores situados en la superficie marciana (hasta 1 m de profundidad), la misión ExoMars contará con un taladro con capacidad para profundizar unos 2 m en el subsuelo marciano, más allá de la capa superficial esterilizada por las radiaciones procedentes del Sol (atmósfera poco densa y ausencia de capa protectora de ozono). Este plan contempla el envío de un orbitador a Marte en el año 2016 y un aterrizador fijo y dos exploradores (rovers) en el año 2018. Misión PLATO de la ESA (PLAnetary Transits and Oscillations of ) PLATO (siglas en inglés de Tránsitos Planetarios y Oscilaciones de Estrellas) es una misión de la ESA con el objetivo de detectar “parejas” similares al sistema Tierra-Sol. Las claves de búsqueda de su programa son:

 ¿Qué condiciones deben darse para que se formen planetas y emerja la vida?  ¿Cómo funciona el Sistema Solar? PLATO observará hasta un millón de estrellas relativamente cercanas por el método de tránsitos (TR), distribuidas en un área que cubre la mitad del cielo, contando para ello con 34 pequeños telescopios y cámaras individuales. La misión investigará también la actividad sísmica de las estrellas (de los planetas que se descubran), lo que permitirá conocer con precisión características importantes como su masa estelar, radio y edad. La mediciones realizadas por PLATO, combinadas con observaciones de velocidad radial (VR) desde la Tierra, permitirán calcular la masa y el radio de un planeta y por tanto su densidad, lo que proporcionará indicios sobre su composición. La misión identificará y estudiará miles de sistemas planetarios, con énfasis en el descubrimiento y la caracterización de planetas tipo Tierra y de súper-Tierras situadas en la ZH de su estrella. PLATO será lanzado en 2024, con una duración prevista inicialmente para seis años, orbitando en torno al punto L2 de Lagrange, situado a 1.5 millones de kilómetros más allá de la Tierra, mirando desde el Sol.

[■9-1] Conferencia «El programa científico de la Agencia Espacial Europea», de Álvaro Giménez Cañete, director de Ciencia y Exploración Robótica de la Agencia Espacial Europea, en el Planetario de Madrid el día 25/09/2014 a las 20 horas.

172

ANEXOS

■ A. Elementos químicos

Un elemento químico es un conjunto de átomos con las mismas propiedades químicas (o también: tipo de materia que no puede descomponerse en otra por reacciones químicas sencillas). Cada elemento químico está representado por un símbolo, normalmente la primera o las dos primeras letras de su nombre latino o griego. Ejemplos: C para el carbono, H para el hidrógeno, O para el oxígeno, N para el nitrógeno, S para el azufre (del latín sulphur), P para el fósforo (del griego phosphoros). Se conocen unos 118 elementos, de los cuales 92 se encuentran en la naturaleza, mientras que los 26 restantes han sido creados de forma artificial en los laboratorios (muy inestables, con una duración de solo unas milésimas de segundo). Solo cuatro elementos: carbono, hidrógeno, oxígeno y nitrógeno, llamados colectivamente elementos “CHON”, constituyen más del 96 % de la mayoría de los seres vivos, superando el 98 % si incluimos al fósforo y al azufre. Otros elementos, como el calcio (Ca), potasio (K), magnesio (Mg)…, también están siempre presentes en los seres vivos, pero en cantidades mínimas. Un átomo, por definición, es la mínima cantidad de un elemento que retiene sus propiedades químicas. Se trata de pequeñísimas partículas, no visibles con los más potentes microscopios. No obstante, los investigadores han podido determinar sus constituyentes materiales (todo lo que tiene masa y ocupa un espacio), denominadas partículas subatómicas: electrones, protones y neutrones. El electrón (e-) es una partícula con una unidad de carga negativa; el protón (p+) tiene una unidad de carga positiva (igual a la del electrón, pero de signo contrario); mientras que le neutrón (n) no tiene carga. Los protones y los neutrones se agrupan formando el núcleo atómico, por lo que reciben conjuntamente el nombre de nucleones, mientras que los electrones (en el mismo número que los protones en un átomo neutro) se desplazan rápidamente en torno al núcleo en distintas capas (■ Figura A-1). A los electrones se deben las propiedades químicas de la materia, ya que determinan la forma en que unos elementos interactúan con otros. En cada átomo aislado el número de electrones es igual al de protones, por lo que el átomo, en conjunto, resulta eléctricamente neutro. Las estructuras atómicas de los átomos son muy variables, desde la más sencilla del hidrógeno ordinario, con solo un protón en el núcleo y un electrón periférico (existen dos isótopos [■B-1] pesados del hidrógeno, el deuterio y el tritio, que además del protón, cuentan, respectivamente, con uno y dos neutrones en el núcleo), hasta la compleja del uranio, con 92 protones, 142 a 146 neutrones y 92 electrones. En la realidad, el volumen ocupado por el núcleo es sumamente pequeño comparado con el tamaño del átomo: a un núcleo del tamaño de un balón de futbol le correspondería un átomo de unos 30 km de diámetro. La ■Figura A-2 muestra de forma esquemática la configuración electrónica del átomo de oxígeno según el modelo de Bohr (representación práctica muy utilizada), con 8 protones y 8 neutrones en el núcleo y 8 electrones periféricos distribuidos en dos capas.

173

El número de protones del núcleo, denominado número atómico, determina la identidad de cada átomo, y es exclusivo para cada elemento. Se representa como subíndice a la izquierda del símbolo. Ejemplo: 8O indica que el oxígeno contiene 8 protones en el núcleo. El número másico de los átomos viene dada por el número de neutrones y protones. Efectivamente, la masa de las partículas subatómicas es sumamente pequeña, no pudiendo expresarse en unidades usuales, como el gramo. Al protón y al neutrón, que presentan muy aproximadamente la misma masa, se le asigna la unidad de masa atómica (uma), mientras que la masa del electrón es de únicamente 1/1800 veces la masa del protón o del neutrón (1/1800 uma), por lo que no se toma en consideración. El número másico, suma de protones y neutrones, se indica como un superíndice a la izquierda del símbolo químico. El oxígeno, con 8 16 protones y 8 neutrones, número atómico 8 y masa de 16 uma, se representa como: 8 O. Se denominan electrones de valencia a aquellos que ocupan la capa externa en el modelo de Bohr, siendo estos los electrones que participan en las reacciones químicas. Los elementos químicos suelen estar formados por una mezcla de átomos con distinto número de neutrones (por lo tanto con distinta masa atómica), denominados isótopos. Los isótopos de un mismo elemento solo se diferencian en el número de neutrones, y tienen por lo tanto el mismo número de protones y de electrones. En la ■ Figura A-3 se muestran (modelo de Bohr) los tres isótopos que el carbono presenta en la naturaleza: el carbono-12 y el cabono-13 son estables, mientras que el carbono-14 es un isótopo inestable. La masa atómica de un elemento se expresa como el promedio de la masa de sus isótopos, ponderada por sus abundancias en la naturaleza: en el caso del carbono, con (98,89 %) de carbono-12, (1,11 %) de carbono- 13 y solo trazas de carbono-14, la masa atómica resultante es de 12,0107 uma. Ya que todos los átomos de un elemento tienen el mismo número de electrones (de los cuales dependen las características químicas), resulta que todos los isótopos de un elemento presentan químicamente las mismas propiedades. Sin embargo, algunos isótopos son inestables, tendiendo a descomponerse en otros más estables, muchas veces en un elemento diferente. Como ejemplo, el carbono-14 se desintegra mediante la descomposición de un neutrón en un protón y un electrón de movimiento rápido, conocido como 14 partícula beta (β), resultando un átomo estable normal de nitrógeno-14 ( 7N). Cómo veremos (■Anexo E), esta inestabilidad del carbono-14 se emplea de forma extensiva en la datación de restos orgánicos. Por sus implicaciones astronómicas y cosmológicas, son de gran interés los isótopos del hidrógeno, con cero, 1 2 3 uno y dos neutrones respectivamente en sus núcleos: hidrógeno normal ( 1H); deuterio ( 1H) y tritio ( 1H). En el caso del hidrógeno, y como excepción, sus isótopos tienen, además de nombres propios, también símbolos propios: deuterio (D) y el tritio (T). Tabla periódica de los elementos En la denominada “tabla periódica de los elementos” se recogen y organizan todos los elementos químicos conocidos, clasificándolos, distribuyéndolos y agrupándolos según sus propiedades y características.

174

■ B. Partículas elementales

Partículas elementales son aquellas que no están formadas por otras más sencillas y además no se conoce que tengan estructura interna. Los minerales, los seres vivos, los gases…, todo en el universo está formado por moléculas, partículas más o menos complejas, que a su vez son el resultado de la combinación de otras más pequeñas denominadas átomos (“indivisibles”, según los griegos). A finales del S. XIX y el primer tercio del S. XX se encontró que los átomos también estaban constituidos por las denominadas partículas subatómicas: electrones, protones y neutrones.

 El electrón (e-), descubierto por J. J. Thomson en 1897, tiene una carga eléctrica a la que se le asignó el valor uno y signo negativo (equivalente a - 1,6 × 10–19 C (culombios)), y una masa de 9,11 x 10-31 kg.  El protón (p+), fue confirmado por E. Rutherford en 1919, con carga eléctrica de igual magnitud que la del electrón pero de signo positivo (1,6 × 10–19 C), y con una masa de 1,673 x 10-27 Kg, unas 1 800 veces superior a la del electrón.  El neutrón (n), descubierto por J. Chadwick en 1932, no tiene carga, y su masa es de 1,675 x 10-27 Kg, ligeramente superior a la del protón y el electrón juntos. Los protones y los neutrones se agrupan formando el núcleo de los átomos, mientras que los electrones se desplazan rápidamente a su alrededor en distintas capas (■Anexo A, ■Figura A-1). Los 92 elementos químicos naturales conocidos difieren en el número de partículas constituyentes, desde el hidrógeno ordinario formado por un protón y un electrón (el único elemento sin neutrones), hasta el uranio con 92 protones, 92 electrones y 146 neutrones (isótopo más abundante). Hoy sabemos que el electrón es una partícula elemental, que no está formada por ningún otro componente, mientras que las moléculas, los átomos y, como veremos, también el protón y el neutrón, si están formados por la agregación de otras partículas más sencillas, no siendo, por lo tanto, partículas elementales. Pero no solo la materia está formada por partículas: en 1905 Einstein propuso que la luz estaba compuesta por partículas elementales denominadas fotones, cuya realidad fue comprobada más tarde por los físicos H. Geiger y W. Bothe. La gran aportación de la teoría cuántica de campos (disciplina de la física), es que todo en el universo está formado por partículas, incluidas las fuerzas de la naturaleza. Realmente deberíamos decir que todo se reduce a campos cuánticos, ya que son estos los que tienen realidad, mientras que las partículas se reducen a manifestaciones de dichos campos. Esto significa, por ejemplo, que en el universo existe un campo fotónico cuya manifestación son las partículas denominadas fotones, y ese campo existe en un lugar determinado, aunque no consten fotones en dicho lugar. Una aproximación para ayudar a comprender los campos cuánticos, es imaginarlos como una serie de “compartimentos” que llenan el espacio, con una asignación de propiedades distintas para cada tipo de campo cuántico. Por ejemplo, las propiedades de masa, carga y spin del campo eléctrico serían distintas a las del campo fotónico. Estos compartimentos pueden estar llenos o vacíos, dando lugar, o no, a la formación de partículas. Si suministramos energía al campo, de forma que se llene alguno de los compartimentos, obtendremos una partícula, por ejemplo un electrón. Este comportamiento nos recuerda inmediatamente la ecuación de Einstein E = mc2, que nos dice que la masa es simplemente un modo de energía concentrada. En la teoría cuántica de campos, cuando decimos que en un lugar existe un campo distinto de cero, eso significa que allí existen partículas de campo, por ejemplo electrones. Y al contrario, si en un lugar no hay partículas de campo, diremos que allí el campo tiene un valor “cero”. Sin embargo, los compartimentos vacíos también tienen un significado real y efectos: las partículas que podrían existir, pero que no lo hacen 175 por falta de energía, reciben el nombre de partículas virtuales. Pues bien, resulta que las fuerzas de la naturaleza se transmiten a través del espacio mediante el intercambio de partículas virtuales del campo de fuerzas. En Física, la teoría que describe las relaciones entre las interacciones fundamentales conocidas y las partículas elementales que componen la materia, se denomina modelo estándar de la física de partículas. Como veremos, las interacciones fundamentales se corresponden con cuatro tipos de campos cuánticos mediante los cuales interactúan las partículas. En el modelo estándar, las partículas materiales se denominan fermiones, mientras que aquellas que interactúan con ellas son los bosones. Todas estas partículas han sido descubiertas por los físicos a partir de los rayos cósmicos y los ensayos en los grandes aceleradores-colisionadores. Pasamos a comentar aquellas partículas consideradas de interés para los fines de este libro:

Fermiones Los fermiones son las partículas del mundo material a partir de las cuales se forman átomos, seres vivos, minerales, planetas, galaxias… Son también las partículas sobre las que actúan las cuatro fuerzas de la naturaleza intercambiando continuamente entre ellos bosones virtuales (siguiente apartado) generando atracciones y repulsiones. Sin embargo, no ocurre lo contrario, los bosones no intercambian fermiones, dato esencial de su diferente naturaleza. Existen dos familias de fermiones: los quarks y los leptones Los quarks son realmente partículas elementales ya que no están compuestos por nada más simple. Existen seis quarks llamados: arriba, abajo, extraño, encanto, fondo y cima, abreviados respectivamente u, d, s, c, b y t, iniciales de sus nombres en inglés, cuyas características figuran en la ■Tabla B-1. Solo los quarks u y d, componentes de protones y neutrones, tienen interés en este texto. El protón está formado por dos quarks u y un d, abreviado (uud), y una carga positiva (2/3+2/3-1/3 = +1); mientras que al neutrón lo forman un quark u y dos d, abreviado (udd), y sin carga (2/3–1/3- 1/3 = 0). Los quarks sufren la fuerza nuclear fuerte, tan poderosa que impide que puedan separarse unos de otros, por lo que actualmente no existen en estado libre en la naturaleza (tal vez si existan en el núcleo explosivo de las supernovas). Los leptones (■Tabla B-2) son parecidos a los quarks, pero no están sometidos a la interacción fuerte, por lo que pueden existir por sí solos como partículas elementales. Pertenecen a esta familia el electrón (e-), que ya hemos tratado, y además el muón (µ-) y el tauón (τ-), también con carga eléctrica negativa (-1),

176 muy parecidos al electrón, salvo que tienen mucha más masa. Cada uno de los leptones con carga está relacionado, respectivamente, con otros leptones sin carga llamados neutrinos: neutrino electrónico (e), neutrino muónico (µ) y neutrino tauónico (τ). Cuando en un proceso se forma un leptón con carga, suele aparecer el neutrino correspondiente. Los neutrinos tienen una masa pequeñísima, y además no tienen carga, por lo que son muy difíciles de detectar. En la familia de los leptones, solo el electrón y el neutrino electrónico tienen interés en este texto (y en el mundo). En e recuadro derecho de la ■ Tabla B-2 se representa gráficamente un átomo de hidrógeno.

Bosones Bajo la denominación de bosones (■Tabla B-3) se incluyen las partículas que transmiten las cuatro fuerzas de la naturaleza (a las que se reducen todas las demás): electromagnética, nuclear fuerte, nuclear débil y gravitatoria.

 La fuerza electromagnética se transmite por el intercambio de bosones llamados fotones (Y), la misma partícula que compone la luz, tal como demostró J. C. Maxwell en 1873 con su teoría electromagnética. La luz, por lo tanto, es una manifestación del campo electromagnético.  La fuerza nuclear fuerte (o interacción fuerte), actúa entre partículas subatómicas y a cortas distancias. Se transmite por medio de ocho bosones conocidos globalmente como gluones (g). Esta fuerza es la que permite unirse a los quarks para formar protones y neutrones y a estos en los núcleos atómicos.  La fuerza nuclear débil (o interacción débil), también actúa a nivel subatómico y a cortas distancias. Se transmite por medio de tres bosones denominados W+, W- y Zo. Esta fuerza es la responsable de fenómenos naturales como la desintegración radiactiva.  La fuerza gravitatoria se transmite por medio del hipotético bosón llamado gravitón (G), aun no detectado. Estas cuatro fuerzas son las que permiten las interacciones entre las partículas de la materia: reacciones bioquímicas en los organismos, fuerza que nos une al suelo de nuestro planeta, fusiones en el núcleo de las estrellas...

Bosón de Higgs Además de los bosones anteriores, existe otra partícula elemental propuesta en el modelo estándar, un tanto peculiar, denominada bosón de Higgs. Se le dio esta denominación en honor a Peter Higgs, por su proposición en 1964, junto con otros, del llamado mecanismo de Higgs, como explicación del origen de la masa de las partículas elementales. Esta teoría propone que un campo de Higgs impregna todo el espacio y que las partículas elementales que interactúan con él adquieren masa, algo que no ocurre con las que no interactúan.

177

Se han dedicado enormes esfuerzos durante 50 años en la búsqueda de “la partícula de Higgs” y últimamente ya parece que en el CERN [■B-1] hay pruebas categóricas de que ha sido encontrado: en julio de 2012 corrieron rumores sobre la observación de una nueva partícula «consistente con el bosón de Higgs»; en marzo de 2013, pero con el doble de datos que en julio de 2012, se informó que la nueva partícula se ajusta cada vez más al supuesto bosón de Higgs; y ya en octubre de 2013 se le concedió a Peter Higgs, junto con François Englert, el Premio Nobel de física “por el descubrimiento teórico de un mecanismo que contribuye a nuestro entendimiento del origen de la masa de las partículas subatómicas, y que, recientemente fue confirmado gracias al descubrimiento de la predicha partícula fundamental, por los experimentos ATLAS y CMS en el Colisionador de Hadrones del CERN”. El campo de Higgs es bastante peculiar y contra- intuitivo. En general, los campos cuánticos tienen su mínimo de energía en el vacío. En la ausencia de partículas, el campo toma el valor cero y la energía es mínima, tal como representa el gráfico (a) de la ■Figura B-1 (en la realidad el gráfico es tridimensional, como un cuenco). Lo normal es que para obtener partículas a partir del vacío sea necesario suministrar energía. Sin embargo, el campo bosónico propuesto por P. Higgs tiene su máximo en la condición de vacío (gráfico (b) de la ■ Figura B-1). La situación con presencia de partículas tiene menos energía que en la correspondiente al estado de vacío, por lo tanto está favorecida energéticamente (cuesta abajo), siendo necesario, en el caso del campo de Higgs, “suministrar energía para que las partículas desaparezcan”. Dado que la presencia de partículas o de no-vacío es la tendencia “natural”, se necesita muchísima energía ambiente para conservar el vacío. Al disminuir la temperatura (y por tanto la energía ambiente), debido a la expansión inicial del universo, la situación se volvió inestable, se produjo una rotura de simetría y el campo cayó en uno de sus posibles mínimos (la forma real del gráfico b de la ■ Figura B-1 es tridimensional, como un sombreo mexicano). La “enorme” diferencia de energía ΔE se liberó en forma de bosones de Higgs en grandísimas cantidades que saturaron el espacio vacío, forzando una expansión desmedida del universo primigenio denominada fase inflacionaria. De acuerdo a la teoría, este es el verdadero origen del universo. A partir de este momento “cero” el universo comenzó a expandirse y a enfriarse pasando por distintas fases que se describen el ■ Anexo C: Historia del Big Bang.

Antimateria En la década de 1920, el físico británico Maurice Dirac pudo incluir el principio de la relatividad de Einstein en las ecuaciones de la mecánica cuántica, logrando así describir las partículas elementales con mayor exactitud. Una sorpresa del nuevo sistema de ecuaciones fue que proporcionaba dos soluciones: una concordaba con la materia que conocemos, mientras que la otra correspondía a un nuevo tipo de partículas, con las mismas características que la materia ordinaria (masa, vida media…), pero con carga eléctrica de sentido contrario. En 1928 Dirac apostó por la existencia física de esta segunda solución, a la que se denominó antimateria, que se correspondería con la materia ordinaria en todas sus características, excepto la carga de signo contrario. Unos años más tarde, en 1932, el físico estadounidense Carl Anderson confirmó la apuesta de Dirac, al descubrir experimentalmente una nueva partícula cuyas características se 178 correspondían totalmente con las del electrón, pero con carga de sentido contrario (positiva). Se había encontrado el antielectrón, conocido actualmente como positrón (e+). La detección del positrón duplicó el zoo de partículas elementales: cada partícula de materia tiene su antipartícula, idéntica en todo a ella salvo en la carga que es de signo contrario. Se exceptúan de la regla algunas partículas sin carga, como el fotón, que es a la vez su propia antipartícula. En la ■Figura B- 2 se resumen las partículas comentadas. La denominación partícula/antipartícula tiene su analogía física correspondiente. Si un electrón y un positrón colisionan, ambos se aniquilan y desaparecen generando el equivalente energético en forma de fotones, demostrando así la equivalencia entre masa y energía. Los físicos también han confirmado el efecto contrario: aplicando gran cantidad de energía concentrada al vacío se crean de la “nada” pares de partícula-antipartícula. En el ■ Anexo C, dedicado a la historia de Big-Bang, veremos que la creación de materia-antimateria a partir de energía, y viceversa, fueron procesos corrientes en el universo primitivo.

[■ B-1] CERN.- Siglas provisionales por su denominación en francés: Conseil Européen pour la Recherche Nucléaire.

Este anexo se ha adaptado a partir del libro: Bartolo Luque, Fernando Ballesteros, Álvaro Márquez, María González, Aida Agea, Luisa Lara: ASTROBIOLOGÍA - Un puente entre el Big Bang y la vida.

179

■ C. Desde el Big-Bang al hidrógeno y el helio.

La teoría del Big Bang es un modelo científico para explicar el origen del Universo y su posterior expansión a partir de una “singularidad” espaciotemporal, expansión que continúa en la actualidad. Por su parte, el modelo estándar describe teóricamente las distintas fases del proceso evolutivo del universo primitivo, desde el “cero inicial” (■Anexo B, bosón de Higgs), hace unos 13.800 millones de años (Ma), hasta la formación de los primeros elementos químicos, el hidrógeno y el helio, unos 380.000 años después. Se han observado tres evidencias importantes, que analizaremos en este mismo apéndice, que apoyan con fuerza la teoría del Big-Bang:  La expansión del universo demostrada por Edwin Hubble en el año 1929.  La radiación de fondo de microondas encontrada por Arno Penzias y Robert Wilson en el año 1965.  La concordancia precisa entre las cantidades de hidrógeno y helio previstas en el modelo estándar, confirmado por mediciones reales. Antes de comenzar el análisis de las distintas fases de la “historia” del Big-Bang, y con el objetivo de facilitar la comprensión, consideramos conveniente revisar el ■Anexo B (partículas elementales), así como los dos primeros conceptos que acabamos de relacionar: expansión del universo y radiación de fondo de microondas. El tercer punto forma parte de una de las fases evolutivas de este apéndice y se considerará más adelante.

Expansión del universo La expansión del universo fue detectada por el astrónomo estadounidense Edwin Hubble en 1929, al comprobar que las galaxias observadas desde la Tierra se están alejando a velocidades proporcionales a la distancia que las separa de nosotros. Este descubrimiento, basado en el corrimiento al rojo de las galaxias distantes, se considera como la primera evidencia observacional de la expansión del universo, y uno de los datos más utilizados como prueba del Big Bang: si el universo se expande, su tamaño, alguna vez, tuvo que ser mucho más reducido que el actual. La relación entre la velocidad de expansión del universo y la distancia de la galaxia observada puede formularse como V = H · D, en donde: V: velocidad debida a la expansión del universo (km/s). D: distancia actual a la galaxia (Mpc). (Mpc: mega pársec); pc = 3,26 años luz (al) = 3,086 x 1016 m. H: constante de Hubbel = 67,15 km/s/Mpc (datos de la sonda Planck (ESA) marzo 2013). La velocidad de expansión y otras observaciones permitieron a los cosmólogos estimar el retroceso necesario en el tiempo en el que las galaxias estuvieron juntas, valorando así la edad del universo, con los últimos datos, en unos 13 800 millones de años (Ma).

Radiación de fondo de microondas Otro hecho fundamental, quizás el más importante para explicar la teoría del Big Bang, fue el descubrimiento accidental en 1965 de la radiación de fondo de microondas, por Arno Penzias y Robert Wilson, científicos de los Laboratorios Bell (en Holmdel, Nueva Jersey). 180

Penzias y Wilson estaban realizando medidas utilizando antena con muy bajo nivel de ruido (reflector de 20 pies en forma de cuerno), para determinar la intensidad de las ondas de radio emitidas por nuestra galaxia a altas latitudes (fuera del plano galáctico). Inesperadamente se encontraron con un ruido radioeléctrico parásito en el campo de las microondas (antena sintonizada a una longitud de onda de 7,35 cm), que era independiente de la dirección de observación, de la hora del día y de la estación del año. Tras analizar y corregir pequeños problemas físicos iniciales en la antena, se encontraron con que el nivel de la señal parásita continuaba prácticamente al mismo nivel, indicando claramente que su origen no procedía de la propia antena, ni de la atmósfera terrestre (cuyo espesor varía con la dirección de observación), ni tampoco de la Vía Láctea, sino de todo el universo. Entre técnicos radioeléctricos es común hablar en términos de temperatura al referirse a longitudes de onda, basándose en el hecho de que cualquier cuerpo cuya temperatura es superior al cero absoluto emite un ruido radioeléctrico (generado por las vibraciones de los electrones de dicho cuerpo), cuya intensidad, a las distintas longitudes de onda, depende solo de la temperatura. Por lo tanto, es posible referirse a la intensidad de una señal, medida a una determinada longitud de onda, en términos de “temperatura equivalente”, que sería la temperatura de las paredes de la “caja”, dentro de la cual se ha medido la señal. La temperatura equivalente de la señal detectada por Penzias y Wilson era de 3,5 grados por encima del cero absoluto o temperatura Kelvin (3,5 K) [■C-1]. Paralelamente, en el mismo año 1965, el físico teórico canadiense James Peebles, apoyándose en la existencia constatada de un 75 % de hidrógeno en el universo actual, señalaba la necesidad de que haya existido una intensa radiación de fondo durante los primeros minutos del universo, sin la cual las reacciones nucleares se habrían producido muy rápidamente transformando prácticamente todo el hidrógeno en elementos pesados. Solo una intensa radiación, a una altísima temperatura equivalente (longitudes de onda muy cortas), habría podido destruir los núcleos atómicos a medida que podían formase, impidiendo así la fusión de casi todo el hidrógeno. Realmente, las estimaciones de Peebles ya habían sido precedidas por las especulaciones cosmológicas de otros importantes científicos, como el ruso-americano Gamow [■C-2], el ruso Zeldovich o el inglés Hoyle, entre otros. A partir del año 1965 se realizaron cientos de mediciones de la radiación cósmica de fondo, que señalan con fuerza creciente a la radiación descubierta por Penzias y Wilson como un remanente que prueba el origen del universo a partir del Big-Bang. La primera misión específica para medir la radiación cósmica de fondo desde el espacio, fuera del efecto negativo de la atmósfera terrestre, fue el satélite COBE (NASA) lanzado en 1989. Tras cuatro años de mediciones, los datos recogidos mostraron una total coincidencia con los teóricos de cuerpo negro para una temperatura media de 2,73 K [■C-3]. La precisión de los instrumentos instalados en el satélite permitieron a los científicos detectar una anisotropía de solo una parte en 100 000 respecto a la temperatura de 2,73 K. Se cree que a partir de estas anisotropías se han formado las estructuras del universo actual: cúmulos de galaxias en medio de extensas regiones desprovistas de materia. Con posterioridad a COBE se han lanzado dos sondas espaciales más, WMAP (NASA) en 2001 y PLANK (ESA) en el año 2009, que confirman los resultados de COBE, aunque con un notable incremento en la precisión, correlativa con las fechas de lanzamiento.

181

Historia del Big-Bang Teóricamente, los acontecimientos en la historia del Big Bang están muy relacionados con la temperatura y la densidad del universo, magnitudes que “caen” de forma exponencial con el transcurso del tiempo. Por esta razón, los sucesos que vamos a analizar no ocurrieron de forma regular en el tiempo, al contrario, se sucedieron muy rápidamente al principio y se “ralentizaron” a medida que avanzaba el proceso. El análisis de los cambios de fase a lo largo de la historia del Big Bang se apoya en los siguientes conceptos que nos enseña la física: 1. El proceso de la generación de materia a partir de energía se entiende mejor en términos de la concepción cuántica de la radiación (partículas en vez de ondas). 2. Según la física actual, en los procesos de transmutación de materia-energía (y viceversa), las partículas se producen (y aniquilan) siempre de dos en dos: partícula-antipartícula, con la misma masa y spin, pero con carga contraria. La excepción la forman algunas partículas neutras, como el fotón, que puede considerarse como su propia antipartícula. 3. La teoría de la relatividad especial de Einstein nos dice que una partícula en reposo tiene una “energía en reposo” de E = m · c2, donde: E: “energía en reposo” en J (julios). m: masa en Kg. c: velocidad de la luz en m/s ( 3 x 108 m/s). En muchas ocasiones interesa conocer la energía en eV (electronvoltio) (■C-4] en vez de en J (julios). Aplicando la relación de equivalencia entre estas unidades, de 1 eV = 1,60218 · 10-19 J, tenemos la nueva relación E = 6,2415 · 1018 · m · c2, donde: E: “energía en reposo” en eV. m: masa en Kg. c: velocidad de la luz en m/s ( 3 x 108 m/s). Ejemplo: energía en reposo del electrón, sabiendo que su masa en reposo es de 9,11 · 10-31 kg: E = 6,2415 · 1018 · m · c2 = (6,24215 · 1018 J/eV) · (9,11 · 10-31 kg) · (3 · 108 m/s)2 = 0,511 · 106 eV. En la ■Tabla C-1 figura la energía equivalente a la masa en reposo (MeV) de algunas partículas y la temperatura umbral (K), a partir de la cual pueden crearse partículas a partir de la radiación. 4. Para que en un choque frontal de dos fotones se produzcan dos partículas de masa m cada una, la energía de cada fotón individual ha de ser, al menos, equivalente a la masa en reposo mc2 de cada partícula. Si la energía de los fotones supera a mc2, el excedente se utiliza para aumentar la velocidad de la partícula. Para energías (muy) superiores, la masa en reposo puede despreciarse frente a la energía total y la partícula creada se comporta como radiación. 5. La energía característica de los fotones viene dada por el producto de la “temperatura media

ambiente” por la constante de Boltzmann: E = Kb · T = 0,00008617 · T, donde: E: energía característica de cada fotón en eV.

182

-5 Kb: constante de Boltzmann = 8,617 x 10 eV/K. T: temperatura absoluta (K). Ejemplos: Para una temperatura ambiente de 1011 K, la energía característica de un fotón es de 8,617 MeV. Para una temperatura ambiente de 3 000 K, la energía característica de un fotón es de 0,26 eV. 6. Temperatura umbral de una determinada partícula es el valor a partir del cual se puede crear dicha partícula a partir de la radiación térmica. Los puntos 3 y 5 anteriores nos permiten determinar la temperatura media ambiente (temperatura umbral) a la que la energía característica de los fotones iguala a la energía en reposo mc2 de una determinada partícula. El valor de la temperatura umbral viene dado por:

18 2 18 2 Kb · T = 6,2415 · 10 · m· c ;  T = (6,2415 · 10 · m · C )/ Kb Para el electrón: T = 6,2415 · 1018 · 9,11 · 10-31 · (3 · 108)2 / 8,617 · 10-5 = 5 ,93 · 109 K. Superada esa temperatura media ambiente, el choque frontal de fotones produciría parejas electrón- positrón. Obsérvese que en la actualidad es muy difícil que se alcancen temperaturas de este valor en el universo: en el centro del Sol la temperatura es de “solamente” unos 15 millones de grados; ¡quizás se alcancen en el núcleo de una supernova en explosión!

7. La temperatura del universo disminuye en proporción inversa a su tamaño: T1/”radio del universo”. 8. El cubo de la temperatura del universo disminuye en proporción inversa a su volumen: T31/”volumen”. 9. La densidad de partículas es inversamente proporcional al volumen del universo y por lo tanto al cubo de la temperatura: densidad de partículas  T3. 10. La densidad de energía del universo es proporcional a la densidad de partículas (T3, punto 9) y a la energía de cada partícula (T, punto 5), por lo tanto proporcional a T4: densidad de energía  T4. Ahora ya disponemos de las bases necesarias para abordar las distintas “etapas” de la historia primitiva del universo:

Rotura de simetría: t (tiempo) = 10-43 s (segundo), T (temperatura) = 1032 K (Kelvin) La cosmología nos enseña que hace unos 13.800 Ma se produjo una rotura de la simetría inicial del universo que llenó todo el vacío primigenio con una inmensa cantidad de bosones de Higgs originado el Big-Bang (revisar ■Anexo B, bosón de Higgs).

En este “cero inicial” aparecen dos magnitudes fundamentales, indispensables para la vida: el espacio (tres dimensiones del universo), donde existen las cosas; y el tiempo, en el que ocurren los sucesos.

Fase inflacionaria: t = 10-37 s, T = 1027 K Simultáneamente a la creación del espacio-tiempo, el vacio primigenio se llenó con una enorme cantidad de bosones de Higgs que forzaron una impetuosa expansión, la fase inflacionaria, una especie de gran “explosión”, pero no una “explosión al uso” partiendo de un punto y extendiéndose al espacio circundante, sino una detonación que llenaba todo el universo desde el primer instante y en el que todas las “partes” se alejaban unas de otras. 183

Fase de recalentamiento: t = 10-32 s, T = 1026 K Tras la inflación, el universo continuó expandiéndose, aunque a menor ritmo. La enorme energía de los bosones de Higgs se empleó en la creación, a partir de la “nada”, de la denominada sopa primigenia compuesta por partículas elementales libres, en forma de parejas partícula-antipartícula, siguiendo las reglas de la física cuántica. El universo antes vacío se llenó de leptones y quarks “recalentando” el universo. A pesar del proceso de expansión, la temperatura y la densidad de energía continúan siendo altísimas. El universo en aquel momento era una mezcla de partículas de enorme energía: principalmente fotones, pero también electrones y positrones, quarks y anti-quarks, neutrinos y antineutrinos (■anexo B). En aquellas extremadas condiciones los acontecimientos se atropellaban:  A las altísimas temperaturas reinantes todas las partículas existentes eran equivalentes, produciéndose continuas transformaciones de unas en otras: electrones en anti-quarks, positrones en quarks, quarks en positrones, anti-cuarks en electrones.  En los encuentros partícula-antipartícula, estas se desintegraban y aniquilaban dejando como residuo fotones de altísima energía.  La energía desprendida en las violentas colisiones de fotones se empleaba en la generación de parejas partícula-antipartícula. Si las partículas de materia-antimateria se creaban y aniquilaban a partes iguales, ¿cómo es posible que en la actualidad exista solo materia y no antimateria? Por suerte para los seres vivos, las leyes de la naturaleza no fueron tan precisas como acabamos de comentar. Las reacciones que producían electrones a partir de anti- quarks eran ligeramente más frecuentes que las que producían positrones a partir de quarks. De la misma manera, las creaciones de quarks a partir de positrones también eran ligeramente más frecuentes que aquellas que generaban anti-quarks a partir de electrones (■Figura C-2). El resultado global fue ligeramente favorable para la materia (quarks y electrones), respecto a la antimateria (anti-quarks y positrones), ¡pero atención!: al finalizar las transmutaciones, el excedente estimado de materia sobre la antimateria era de solo una partícula de materia por cada mil millones de partículas. Como veremos, es a partir de este “pequeño” excedente con lo que se acabaron formando todos los objetos materiales actuales. Transcurridos tan solo 10-15 segundos, el universo ya se había enfriado lo suficiente (1018k) para que, por falta de energía, cesasen las transmutaciones.

Desintegración materia-antimateria: t = 10-15 s, T = 1018 K En esta fase se produce la desintegración de partículas con sus correspondientes antipartículas (electrones con positrones y quarks con anti-quarks), generando una gran cantidad de fotones de alta energía; pero, debido al pequeño exceso de materia sobre antimateria de la fase anterior, algunos electrones y algunos quarks no encontraron antipartículas con las que desintegrarse, quedando finalmente (por suerte) un “poco” de materia (electrones y quarks).

184

En resumen, a estas alturas de la historia del Big-Bang, el universo está formado, comparativamente, por: muchísimos fotones, algunas partículas exóticas (neutrinos y quizás partículas WIMP -en español "partículas masivas que interactúan débilmente"-), y unos “pocos” quarks y electrones, procedentes de las diminutas diferencias en las transmutaciones de la fase anterior. Fueron precisamente estos pocos quarks y electrones los que generaron el residuo de materia con el que posteriormente se formarían galaxias, estrellas, planetas, minerales… y los seres vivos.

Formación de protones y neutrones: t = 10-5 s, T = 1013 K Transcurrida una cienmilésima de segundo desde el inicio, la temperatura había caído a unos 1013K, equivalente a una energía ambiente media que puede redondearse a 1GeV (109 eV), valor que comienza a ser “escaso” para evitar que la fuerza fuerte, que no “sienten” los electrones (Anexo ■ B), comience a formar agregados de quarks dando lugar a la aparición de los primeros protones y neutrones en la historia del universo (Tabla ■C-1). A partir de este momento la agregación de quarks fue muy rápida, desapareciendo como partículas libres, quedando, de momento, un universo formado por: neutrones, protones, electrones, positrones, partículas exóticas (neutrinos y partículas WIMP) y sobre todo una gran cantidad de fotones. Esta situación constituye el punto de partida, la “materia primigenia” del “modelo estándar de la física de partículas” al que dieron forma en 1948 el físico ruso-americano Gamow y sus colaboradores Ralph Alpher y Robert Herman.

Transmutaciones protón-neutrón: t = 10-4 s, T = 1012 K “Arranca” del modelo estándar de Gamow. La radiación es dominante y, comparativamente, protones, neutrones, electrones… juegan un papel secundario. El universo continúa su imparable expansión, hasta que, tras una centésima de segundo después del inicio (t= 10-2 s), con una temperatura de 1011 K, se produce un hecho significativo: la energía ambiente (Tabla ■C-1) continúa siendo suficientemente alta para crear parejas electrón-positrón ( 10 MeV >> 0,511 MeV del electrón), pero ya no l es para crear otro tipo de partículas ( 10 MeV << 938,3 MeV del protón o 939,6 MeV del neutrón). La mayor parte de las parejas electrón-positrón se vuelven a desintegrar, pero otras con suficiente energía hacen que el universo entre en una fase en la que se producen transmutaciones entre nucleones (■Figura C-3). Cuando un electrón con suficiente energía choca con un protón, el electrón es absorbido y el protón se convierte en neutrón. De igual manera, si un positrón con suficiente energía choca con un neutrón, el positrón es absorbido y el neutrón se convierte en un protón. Debido a la alta energía ambiente reinante, este proceso está bastante equilibrado de modo que los nucleones se reparten aproximadamente al 50 % entre protones y neutrones (de momento la desintegración de los neutrones puede desestimarse, pues su vida media es de unos 15 minutos y estamos considerando solo fracciones de segundo).

185

La proporción neutrones/protones disminuye: t = 0.1 s, T = 3 · 1010 K El universo sigue dominado por electrones, positrones, neutrinos, antineutrinos y fotones, todos en equilibrio térmico y muy por encima de su umbral de temperatura. Sin embargo un nuevo hecho comienza a ser apreciable: la energía ambiente aún es lo suficientemente alta para impedir que los nucleones puedan unirse, sin embargo ya es del orden de la diferencia de masa entre el protón y el neutrón (1.3 MeV), propiciando una asimetría en el comportamiento de protones y neutrones. Dado que la masa del protón (938,3 MeV) es ligeramente menor que la del neutrón (939,6 MeV), resulta más sencillo convertir neutrones en protones que al revés (“cuesta abajo”). A medida que el universo se va enfriando la desigualdad en las transmutaciones hace que la proporción neutrones/protones vaya en disminución.

Desacoplo de los neutrinos y la hipotéticas WIMP: t = 0.2 s, T = 1010 K La energía ambiente es del orden de 0.5 MeV, que no afecta a fotones, protones y neutrones. Sin embargo, este bajo nivel de energía si va a tener importancia para los neutrinos y las hipotéticas partículas WIMP. Se trata de partículas sin carga, que no sienten la interacción fuerte ni la electromagnética. Aunque si son sensibles a la interacción débil, esta ya no tiene la elevada energía necesaria (debido a la expansión del universo), por lo que tampoco les afecta. Por lo tanto, para los neutrinos y las partículas WIMP era como si el resto no existiesen, por lo que pudieron moverse libremente. Tras su desacoplamiento, los neutrinos se expandirán libremente y el corrimiento al rojo alargará su longitud de onda proporcionalmente al tamaño del universo. Si algún día se consiguiese detectarlos de forma eficaz podríamos obtener información de esta época temprana del universo. La energía ambiente continúa siendo demasiado alta para que los neutrones y protones puedan unirse para formar núcleos estables. Ahora la proporción de neutrones a protones es de 38/62.

Desintegración de electrones y positrones: t = 14 s, T = 3 · 109 K El proceso de desintegración de neutrones, medido por la relación neutrón/protón, continúa imparable, aunque el ritmo se ralentiza. Así, en el instante t = 1 segundo la proporción neutrones/protones cae a 24/76 y a los 14 segundos era de 17/73. La energía media ambiente ha descendido por debajo del umbral para la formación de parejas electrón- positrón, por lo que empiezan a desaparecer rápidamente, quedando finalmente solo el excedente de electrones originales que habían sobrevivido a la fase de aniquilación materia-antimateria. La energía liberada recalienta el universo retardando su enfriamiento, pero esto no afecta a los neutrinos, que a partir de entonces estarán más fríos que los fotones. A estas temperaturas comienzan ya a producirse algunas fusiones nucleares, que, no obstante, son inmediatamente destruidas por los fotones circundantes. Los principales componentes del universo son ahora los fotones, neutrinos y antineutrinos.

Nucleosíntesis primordial: t = 3 m (minutos), T = 109 K Transcurridos 3 minutos desde el inicio, los 889 segundos de vida media [■C-5] de los neutrones (en estado libre) comienzan a hacerse sentir. Efectivamente, el tiempo transcurrido durante las fases anteriores fue 186 muy pequeño, por lo que el “efecto vida media” pudo despreciarse, pero a estas alturas del proceso evolutivo, cada minuto se desintegran aproximadamente el 6 % de los neutrones. Esto, unido a la asimetría en las transmutaciones neutrón-protón, amenaza con la rápida desaparición de todos los neutrones. Afortunadamente, a los tres minutos, cuando la relación neutrones/protones era solo de 13/87, otro cambio vino a imponerse. Las condiciones ambientales ya se habían suavizado lo suficiente para que la energía de los fotones no alcanzase a destruir las fusiones entre neutrones y protones, que pasaron a formar núcleos estables de deuterio (protón + neutrón). Además, los neutrones se vuelven estables al formar parte de núcleos de deuterio (y de todos los demás núcleos atómicos), otra razón añadida para dejar de desintegrase. A partir de este momento todo el universo es como el núcleo de una estrella gigantesca: los neutrones y protones se combinaban para formar núcleos de deuterio, los núcleos de deuterio chocaban entre ellos y con otros nucleones para formar núcleos de helio (dos protones y dos neutrones). Esta fase, denominada nucleosíntesis primordial, se produjo, según R. Alpher, mediante los procesos (a) y (b) de la ■Figura C-4, con una duración de solo unos 20 minutos, al cabo de los cuales la temperatura y la densidad del universo ya habían caído por debajo del valor requerido para que pudiesen continuar las fusiones nucleares. En aquel momento el universo quedaba formado, en masa, por [■C-6] un 75 % de hidrógeno (protones), un 25 % de helio, residuos de helio-3 (3He: isótopo del helio), deuterio y tritio (2H y 3H: isótopos del hidrógeno) y solo trazas de berilio (Be) y litio (Li). Gamow pensaba que todos los elementos químicos se habían formado en los primeros minutos del universo (por el mismo proceso de fusión), pero fue Ralph Alpher, colaborador de Gamow, quien demostró a través de minuciosos cálculos que esto no pudo ser así. Según R. Alpher, el producto casi exclusivo de la nucleosíntesis primordial debería de ser el helio, con una predicción de la proporción hidrógeno/helio del universo de 74/26 (masa), valor que se acerca de forma notable a la realidad medida (75/25), resultado que apoya con fuerza al modelo del Big Bang. Partiendo de la situación aproximada (que hemos visto) de un 13 % de neutrones, un 87 % de protones y pequeñísimas cantidades de otros elementos (■Figura C-5), es sencillo deducir la proporción en masa 26/74 de helio/hidrógeno al final de este etapa: dado que la masa del neutrón es prácticamente la misma que la del protón, y que el núcleo de helio está formado por dos protones y dos neutrones, el 13 % de neutrones se combinará con otro 13 % de protones para formar un 26 % de helio, quedando un 74 % de protones, es decir, núcleos de hidrógeno sin combinar (87 – 13 = 74). La razón de que no se hayan formado elementos más pesados que el helio se achaca a que no existen núcleos estables con 5 u 8 nucleótidos, por lo tanto, en el momento en que pudo formarse el deuterio, casi todos los demás neutrones se unieron para formar rápidamente núcleos de helio.

187

Dominio de la radiación: t = 30 m (minutos), T = 3 x 108 K Ahora el universo está lleno de un plasma [■C-7] caliente en equilibrio térmico, una sopa formada por: núcleos atómicos de hidrógeno y de helio, electrones y, sobre todo, radiación electromagnética (fotones). La energía de los fotones sigue siendo lo suficientemente alta para impedir que los electrones se unan a los núcleos atómicos recién formados, es decir, continúa dominando sobre la materia. Consecuentemente, las continuas colisiones también impiden que los fotones puedan desplazarse, por lo que el universo permanece opaco.

Dominio de la materia: t = 380.000 años, T = 3.000 K El siguiente cambio significativo no ocurre hasta que la temperatura cae a unos 3.000 K, para lo que tendrán que transcurrir unos 380.000 años. En aquel momento, la energía contenida en un protón (constante y equivalente a su masa) era igual a unos mil millones de veces la energía de un fotón (partícula sin masa, cuya energía es variable y disminuye con la temperatura y la expansión del universo): la materia y la energía se encontraban equilibradas. A partir de ese momento será la materia la que domine: los electrones pudieron unirse a los núcleos para formar átomos estables. En aquel instante el universo estaba formado por un 75 % de hidrógeno y un 25 % de helio. Simultáneamente, la energía dejaba de interactuar con la materia eléctricamente neutra, ya no había colisiones y los fotones pudieron continuar libremente por el espacio en expansión (razón por la que esta etapa también recibe el nombre de “fase de desacoplo de los fotones”), constituyendo la radiación de fondo de microondas… pero aún tendría que transcurrir mucho tiempo para que en algunas regiones ligeramente más densas se condensasen nubes de gas para formar galaxias y estrellas, donde se desencadenará la formación del resto de los elementos químicos.

Tiempo Temp. Etapa/fase Comentarios (s) (K) Rotura de simetría 10-43 1032 Surge el espacio y el tiempo. Inflación 10-37 1027 El vacío se llena de bosones de Higgs. Los bosones de Higgs crean leptones y quarks. Recalentamiento 10-32 1026 Transmutación entre leptones y quarks. Desintegración Leptones y quarks se desintegran con sus antipartículas. 10-15 1018 materia-antimateria Queda un poco de materia. Confinamiento 10-5 1013 Los quarks se combinan  protones y neutrones (50/50) Desacoplo de los Neutrinos y partículas WIMP desacoplados. 0,2 1010 neutrinos La relación neutrones/protones disminuye (38/62). Desintegración Queda el excedente de electrones originales que habían 14 3 · 109 electrones y positrones sobrevivido a la fase de aniquilación materia-antimateria Nucleosíntesis primordial 3 m 109 Fusiones nucleares para formar helio y restos de Be y Li. La radiación impide que los electrones se unan a los Dominio de la radiación 30 m 3 · 108 núcleos. Los electrones pueden unirse a los núcleos atómicos. Dominio de la materia 380 000 a 3 000 El espacio se hace transparente. ■Tabla C-2: resumen de las fases evolutivas del universo, desde el Big Bang al dominio de la materia

188

[■C-1] El kelvin (antes nombrado grado Kelvin), símbolo K, es la unidad de temperatura de la escala creada por Lord Kelvin (año 1848), en base a la escala centígrada (ºC), es decir, conservando la misma dimensión, pero estableciendo el punto cero en (−273,15 °C). La importancia de esta escala de temperaturas se debe a que el (0 K) corresponde al punto de mínima energía térmica posible para los átomos y moléculas, razón por la que se denomina “cero absoluto”. Ningún sistema macroscópico puede tener una temperatura inferior. A las temperaturas medidas en esta escala se les denomina también “temperaturas absolutas”. [■C-2] George Gamow también propuso que la secuencia de nucleótidos del ADN formaba un código, algo que, efectivamente, fue confirmado posteriormente. [■C-3] La temperatura de 2,73 K ahora observada, es el rastro fósil de la radiación emitida unos 380 000 años después del inicio, cuando la temperatura era de unos 3000 K y el universo se hizo transparente. Los 2,73 K hoy observados están directamente relacionados, en proporción inversa, con la expansión del universo. [■C-4] El eV (electronvoltio) es la energía que adquiere un electrón que es acelerado bajo una diferencia de potencial de un voltio (1 eV equivale a 1,602 x 10-19 J (julios)). Se trata de una unidad muy adecuada para expresar la energía de los fotones y de las partículas elementales. Los fotones de la luz solar tienen energías del orden del eV, siendo esto de gran importancia para la vida en nuestro planeta, ya que permite desencadenar la realización de las reacciones químicas, algunas tan importantes como la fotosíntesis. [■C-5] La vida media es el promedio de vida de una partícula subatómica libre (sin combinar), antes de que se desintegre. Ejemplo: la vida media de un electrón libre es 889 segundos (unos 15 minutos), pero una vez que pasa a formar parte de los núcleos atómicos, pasa a ser estable y ya no se desintegra. [■C-6] Realmente se trata de núcleos atómicos, la unión de los electrones para formar átomos se producirá unos 380.000 años más tarde, cuando el universo se enfrió lo suficiente para que la materia dominase sobre la radiación. [■C-7] Se denomina plasma a un cuarto estado de agregación de la materia, “similar” al estado gaseoso, donde muchas de sus partículas están cargadas eléctricamente, y por lo tanto son buenas conductoras de la electricidad. [■C-8] A esta etapa también se la suele denominar como “fase de recombinación”, debido a la unión de los electrones con los núcleos para formar átomos. No obstante el uso de la palabra recombinación resulta chocante debido a que, hasta ese momento, los electrones y los núcleos nunca habían estado combinados formando átomos.

Este anexo se ha adaptado a partir del libro: Bartolo Luque, Fernando Ballesteros, Álvaro Márquez, María González, Aida Agea, Luisa Lara: ASTROBIOLOGÍA - Un puente entre el Big Bang y la vida.

189

■ D. Cuerpo negro: emisión de energía en función de la temperatura

En la física, un cuerpo negro es un objeto teórico que absorbe toda la energía radiante incidente, sin que nada de radiación se refleje o lo atraviese. A pesar de su denominación, el cuerpo negro emite radiación electromagnética, se trata de un sistema físico ideal para el estudio de las radiaciones electromagnéticas, aunque admite ciertas aproximaciones físicas cuyo comportamiento se acerca al teórico, por ejemplo una cavidad aislada. En este sentido, al universo también se le puede considerar como un cuerpo negro. La física nos enseña que todos los cuerpos cuya temperatura es superior al cero absoluto (0 K) emiten energía, en forma de radiación electromagnética, cuya intensidad depende de la temperatura y de la longitud de onda tomada en consideración. Para ilustrar el concepto pasamos a comentar la emisión de energía por algunos cuerpos conocidos [■Figura D-1]:  El Sol, con una temperatura superficial de unos 6000 K emite un 99 % de su radiación en longitudes de onda comprendidas entre 150 nm (nanómetro = 10-9 m) y 4000 nm, con el máximo en 475 nm (tono verde). El espectro visible está comprendido entre 380 nm y 780 nm.  El filamento de una lámpara halógena incandescente, con una temperatura de unos 3000 K, emite una radiación en forma de luz visible (que es percibida por el ojo humano), con “tonalidades” que dependen de las características de la bombilla, con el máximo de emisión a unos 966 nm. También emite algo de radiación ultravioleta (UV), y sobre todo infrarroja (IR), no visible, consideradas como pérdida ( 60 %).  La Tierra (no representada en el gráfico), con una temperatura superficial de unos 288 K (15 °C), emite el 99% de la radiación en el IR, entre las longitudes de onda entre 3 000 nm y 80 000 nm (80 micras), con el máximo a unos 10 000 nm (10 micras). La estratosfera terrestre, con una temperatura de unos 215 K, radia también en el IR, entre 4 y 120 micras, con el máximo en las 14,5 micras. En resumen, a medida que aumenta la temperatura del cuerpo emisor, aumenta también la intensidad de la radiación para todas las longitudes de onda, mientras que la longitud de onda a la que se produce el máximo de emisión disminuye (■ Figura D-1).

De forma específica, todos estos valores se pueden determinar por medio de la ley de Stefan-Boltzmann, la ley de Planck, la relación de Planck y la ley de Wien.

190

■ E. Métodos de datación relativa y absoluta

Las dataciones geológicas y biológicas son necesarias para situar secuencialmente en el tiempo los eventos acaecidos en la historia de la vida y de nuestro planeta. Cabe distinguir dos métodos de datación: los relativos, que recurren básicamente a la ordenación estratigráfica (superposición) de los materiales en la corteza terrestre; y los absolutos, basados en la radiometría, para determinar la fecha en la que ocurrieron los eventos.

Métodos de datación relativa Este método pone en orden los sucesos, pero no permite determinar cuánto tiempo hace que estos ocurrieron. Los principios básicos más significativos, en los que se basa este método, son: . Principio de superposición: permite fijar la edad relativa de los estratos y de los fósiles que contienen. Fue establecido por el anatomista danés Nicolás Steno (1638-1686), al observar que durante las inundaciones se depositan capas de sedimentos que entierran a los organismos que habitan en las llanuras, sedimentos que a su vez son recubiertos por inundaciones posteriores. Con el paso del tiempo estos estratos se litifican [■E-1], formando estratos sedimentarios con las rocas y los fósiles más antiguos en las capas inferiores y los más modernos superpuestos en las capas superiores. . Principio de la horizontalidad original: también establecido por Steno, al observar que las partículas sedimentarias, al ser depositadas bajo la acción de la gravedad, lo hacen en capas horizontales. Si una secuencia de rocas presenta un cierto buzamiento [■E-2], es que se ha inclinado después de la sedimentación y litificación. . Principio de continuidad lateral: tercer principio, también de Steno, donde se establece que las capas sedimentarias se extienden lateralmente en todas direcciones hasta que se agotan, o terminan contra el borde de la cuenca sedimentaria. . Principio de intersección: asignado a James Hutton, en base a sus estudios y observaciones de los afloramientos de rocas de Escocia. Establece que una intrusión ígnea o una falla debe de ser más reciente, respectivamente, que las rocas contiguas a la intrusión o las rocas desplazadas. . Principio de sucesión de los fósiles: se debe al geólogo inglés William Smitz (1769-1839), quien observó y razonó que, con independencia del principio de superposición, los fósiles de la parte inferior de una secuencia de estratos son más antiguos que aquellos situados en las capas superiores.

Esta sucesión demuestra claramente que las formas de vida han cambiado (evolucionado), por lo que podemos utilizar la superposición de los fósiles para determinar las edades relativas de los mismos.

Métodos de datación absoluta La mayor parte de de los isótopos de los 92 elementos químicos naturales son estables, sin embargo algunos son radiactivos y se descomponen espontáneamente en otros más sencillos liberando energía. El tiempo de descomposición de los isótopos inestables es el fundamento de la datación radiométrica, la técnica más utilizada y fiable para determinar la edad absoluta de las rocas. Este método se basa en la proporción (en la muestra en estudio), de un isótopo “padre”, del que se conoce su periodo de semidesintegración, y de sus descendientes, los isótopos “hijos” [■E-3].

191

En la ■Tabla E-1 figuran algunos de los isótopos utilizados para la datación radiométrica.

Isótopos Período de semidesintegración Intervalo de datación efectiva Padre Hijo Uranio 238 Plomo 206 4 500 Ma 10 Ma a 4 600 Ma Rubidio 87 Estroncio 87 48 800 Ma 10 Ma a 4 600 Ma Potasio 40 Argón 40 1 300 Ma 100 000 a 4 600 Ma Carbono 14 Nitrógeno 14 5 730 años Hasta 60 000 años ■ Tabla E-1: período de semidesintegración de algunos isótopos “padre” radiactivos Para la correcta comprensión de esta técnica de datación es necesario recordar algunos conceptos básicos, como el de número atómico y número de masa atómica, que se pueden examinar en el ■ Anexo A, así como la desintegración radiactiva y el periodo de semidesintegración, que pasamos a describir: Desintegración radiactiva es el proceso por el cual un átomo inestable se transforma en otro elemento diferente. Se distinguen tres tipos de desintegración, que dan lugar a cambios en la estructura atómica:  Desintegración alfa (): se emiten 2 protones y 2 neutrones desde el núcleo, dando lugar a la pérdida de 2 números atómicos y 4 unidades másicas.  Desintegración beta (): se emite 1 electrón rápido desde un neutrón del núcleo, transformando ese neutrón en un protón, incrementando el número atómico en 1 sin variar el número másico.  Captura de electrones: se produce cuando un protón captura un electrón de una capa de electrones y se convierte en un neutrón, resultando la pérdida de 1 número atómico, pero no hay variación en el número másico. El periodo de semidesintegración, también llamado semivida o hemivida, de un elemento radiactivo, es el tiempo que tardan la mitad de los átomos de un elemento padre en descomponerse en átomos de un elemento hijo más estable [■E-4]. Para un determinado elemento radiactivo, este periodo es estable a lo largo del tiempo y se puede determinar de forma precisa. Las semividas de distintos elementos varían en un amplio rango, desde billonésimas de segundo hasta 49.000 Ma [■E-5]. Ejemplo: si partimos de un elemento radiactivo con 1.200.000 átomos padre, al cabo de 1 semivida tendrá 600.000 átomos padre y 600.000 átomos hijo, al cabo de 2 semividas tendrá 300.000 átomos padre y 900.000 átomos hijo, al cabo de 3 semividas el reparto será de 150.000 átomos padre y 1.050.000 átomos hijo, y así sucesivamente. En la ■Figura E-1 se representa gráficamente esta evolución. Cuando un magma se enfría y empieza a cristalizar, los átomos padres radiactivos se incorporan en la estructura cristalina de ciertos minerales, mientras que los átomos hijos estables, de un tamaño diferente, no encajan en la misma estructura que los átomos padre. Por

192 lo tanto, un mineral que cristaliza en un magma en proceso de enfriamiento contendrá átomos padre radiactivo, pero no átomos hijo. De esta forma, al cabo de 1 periodo de semidesintegración la mitad de los átomos radiactivos se habrán transformado en átomos hijo estables, transcurridos 2 periodos de semidesintegración quedarán un 25 % de los átomos radiactivos sin transformar y un 75 % transformados, y así sucesivamente. En este caso, el tiempo que se está midiendo es el que ha transcurrido desde la cristalización del material, y no el tiempo de los átomos radiactivos.

[■E-1] La litificación es el proceso de compactación y cementación, por el cual los estratos se transforman en rocas sedimentarias: la arena en arenisca, las gravas en conglomerados, el limo en limolita… [■E-2] Buzamiento es el ángulo que forma la línea de máxima pendiente de la superficie de un estrato (o una falla) con el plano horizontal. [■E-3] La proporción de elementos padre/hijo se mide con un espectrómetro de masas.

[■E-4] El periodo de semidesintegración (t1/2), no debe de confundirse con el concepto de vida media, siendo esta última el promedio de vida de un núcleo o de una partícula subatómica antes de de desintegrarse (τ). Como nos enseña la física, el periodo de semidesintegración es aproximadamente el 69,31 % de su vida media:

t1/2 ≈ 0,6931 τ [■E-5] El periodo de semidesintegración es invariable, tanto para átomos en el laboratorio, como en la naturaleza: manto profundo del planeta, comenta, asteroide…

193

■ F. Determinación de las capas de la Tierra y sus espesores.

Los desplazamientos relativos de las placas tectónicas generan tensiones en las zonas de contacto, acumulando energía elástica en las rocas hasta que los esfuerzos superan el límite de resistencia, produciendo roturas que una vez iniciadas se desplazan a varios km/s, hasta que se disipa la energía almacenada, dando lugar a terremotos de mayor o menor intensidad. Los desplazamientos bruscos de los materiales, a lo largo de los planos de rotura o fallas geológicas, originan ondas sísmicas de distintas características que se desplazan radialmente hasta la superficie, donde son registradas por los sismógrafos. Ondas de cuerpo son aquellas que se desplazan radialmente, a partir del foco sísmico o hipocentro [■F-1], a través del volumen interior terrestre (asimilables a las ondas del sonido), y las ondas superficiales que, como su nombre indica, transitan por la superficie terrestre (como las ondas en el agua). Las ondas de cuerpo son las más interesantes para el caso que nos ocupa, debiendo diferenciar dos tipos: ondas primarias longitudinales P, y las ondas secundarias transversales S (■ Figura F-1): Ondas primarias P (■ Figuras F-1 y F-2): son ondas de compresión, las más veloces, y pueden viajar a través de sólidos, líquidos y gases. El tren de compresiones y rarefacciones avanza en la misma dirección de las propias ondas, de forma que el material se contrae y se expande cuando el tren de ondas lo atraviesa y recupera su estado inicial cuando el tren de ondas ya ha pasado. Los sismógrafos, situados en distintos puntos por la superficie terrestre, determinan las zonas alcanzadas por las ondas, así como aquellas que se sitúan en las “zonas de sombra”. Ondas secundarias S (■Figura F-1 y F-3): son ondas transversales (cizalla), algo más lentas que las primarias y que solo pueden viajar a través de materia sólida. Generan esfuerzos transversales respecto a la dirección radial de desplazamiento, que no pueden ser absorbidos por los líquidos ni los gases, no pudiendo transmitirse a través de estos estados materiales (núcleo externo líquido). También en este caso, son los sismógrafos quienes determinan las zonas alcanzadas por las ondas y la “zona de sombra”. La velocidad de estas ondas disminuye con la densidad de los materiales y aumenta con la elasticidad, mientras que tanto la densidad como la elasticidad aumentan con la profundidad. Teniendo en cuenta que la elasticidad aumenta más rápido que la densidad, el efecto neto es un aumento de la velocidad de las ondas sísmicas con la profundidad en la que se desplazan. Además, tanto las ondas P como las S (al igual que las ondas luminosas) se refractan con los cambios de densidad y elasticidad en los materiales sólidos y se reflejan parcialmente en las interfaces entre capas. Solo se transmiten en línea recta cuando inciden perpendicularmente a las superficies.

194

El conocimiento teórico de las características de las ondas P y S, y la información generada por los seísmos y registrada por los numerosos sismógrafos situados en numerosos puntos de la superficie terrestre, proporciona a los geólogos la información necesaria para determinar los espesores y características de las capas estructurales del planeta.

[■F-1] Epicentro es el punto de la superficie terrestre en la vertical sobre el foco sísmico o hipocentro.

195

■ Abreviaturas

ADN ácido desoxirribonucleico al año luz ARN ácido ribonucleico BIT bombardeo intenso tardío ESA Agencia Espacial Europea (en inglés: European Space Agency) HST Telescopio espacial Hubble (en inglés: Hubble Space Telescope) IR infrarrojo LH línea de hielo LN línea de nieve Ma millones de años Ma AP millones de años antes del presente Ms masa solar Mt masa terrestre NASA Agencia estadounidense del Espacio y la Aeronáutica (National Aeronautics and Space Administration) pH potencial de hidrógeno SP secuencia principal SS Sistema Solar UA unidad astronómica UV ultravioleta VL Vía Láctea WMAP Wilkinson Microwave Anisotropy Probe

196

BIBLIOGRAFÍA

LUQUE, Bartolo [et al.] Astrobiología: Un puente entre el Big Bang y la vida. Madrid: Akal, D.L. 2009. 335p. ISBN 978-84-460-2306-7. WEINBERG, Steven. Los tres primeros minutos del universo. Madrid: Alianza Editorial, D.L. 2009. 207p. ISBN 978-84-206-8394-2. ANGUTITA VIRELLA, Francisco; CASTILLA CAÑAMEROS, Gabriel. Planetas: Una guía para exploradores de la frontera espacial. Madrid: Rueda, D.L. 2010. 474p. ISBN 978-84-7207-200-8. S. MONROE, James; WICANDER, Reed y POZO, Manuel. Geología: Dinámica y evolución de la Tierra. Madrid: Paraninfo, D.L. 2008. 726p. ISBN 978-84-9732-459-5. SOLOMON, Eldra; BERG, Linda; MARTIN, Diana. Biología. Mexico: McGraw-Hill, D.R. 2008. 1234p. ISBN-13: 978-970-10-6376-7. OPARIN, Alexander. El origen de la vida. Madrid: Akal, D.L. 2000. 111p. ISBN 84-7600-470-2. GRIBBIN, John. Solos en el universo: El milagro de la vida en la Tierra. Barcelona: Ediciones de Pasado y Presente, D.L. 2012. 301p. ISBN 978-84-939143-5-6. ESQUIVEL, Alfonso [et al.]. La historia de la vida y el hombre. Barcelona: Lunwerg, D.L. 2009. 119p. ISBN 978- 84-9785-603-4. SALOMONE, Mónica. El universo y la vida. Madrid: CSIC-INTA, D.L. 2004. 127p. IMPEY, Chris. Una historia del cosmos: La búsqueda de vida en el universo desde el inicio de los tiempos. Barcelona: Planeta, D.L. 2010. 598p. ISBN 978-84-08-09282-7. GONZÁLEZ FAIRÉN, Alberto. Astrobiología. Madrid: Equipo Sirius, D.L. 2004. 220p. ISBN 84-95495-54-6. CASAS GONZÁEZ, Alberto. El lado oscuro del universo. Madrid: CSIC. 2010. 136p. ISBN 978-84-000092146.

197