December 29th, 2013

La Mars Society España acaba de traducir el libro de Robert Zubrin, uno de los grandes defensores de la exploración del planeta Marte.

Reproducimos a continuación la información que sobre esta novedad publica la propia editorial, Neverland Ediciones.

portada del libro alegato a marte

Portada del libro Alegato a Marte

Sinopsis

Desde los comienzos de la historia de la humanidad, Marte ha sido un sueño seductor, fuente de leyendas, dioses y misterios. El planeta más parecido a la Tierra, aún lo veíamos como imposible de alcanzar y mucho menos de ser explorado y habitado. Pero todo esto cambió cuando Robert Zubrin, una autoridad líder en la exploración espacial, elaboró un nuevo y atrevido plan, Mars Direct (Marte Directo). Cuando este libro fue publicado por primera vez en 1996, se convirtió rápidamente en un clásico, muy elogiado, gracias a su perspectiva dinámica, por todos aquellos que querían ver incluido en el programa espacial norteamericano el nuevo desafío que supone Marte; Carl Sagan llamó a Zubrin el hombre que, “casi solo, cambió nuestro modo de pensar sobre este tema.” Ahora, diecisiete años después, Zubrin brinda a los lectores esta edición de aniversario, revisada y actualizada, y llena de ilustraciones espectaculares, fotografías extraordinarias y anécdotas únicas.

A diferencia de la Luna, un mundo muerto, el paisaje de Marte está lleno de posibilidades, pero los humanos debemos ser capaces de sobrevivir allí. En nuestra larga tradición de exploradores con éxito, Zubrin hace un llamamiento para realizar un viaje sorprendente, viviendo de lo que ofrece la tierra y acercándonos a la colonización marciana. Nos cuenta cómo los científicos pueden usar la tecnología actual para enviar humanos a Marte; generar combustible y oxígeno en la superficie del planeta utilizando sus propios recursos naturales; construir bases y asentamientos; y algún día terraformarlo (o alterar la atmósfera del planeta y allanar el camino para llevar allí un estilo de vida sostenible).

“Este libro nos muestra cómo una misión a Marte ha pasado de ser una ficción a una realidad que puede ser alcanzada por nuestra generación. Zubrin nos enseña el camino.” Buzz Aldrin, astronauta del Apolo XI.

Autor

Renombrado ingeniero aeroespacial, Robert Zubrin es presidente de Pioneer Astronautics y fundador de The Mars Society. Anteriormente fue ingeniero sénior en Lockheed Martin Astronautics, tiene un máster en aeronáutica y astronáutica y un doctorado en ingeniería nuclear. Vive en Golden, Colorado.

Richard Wagner fue editor de Ad Astra, la revista de la National Space Society. Vive en Northampton, Massachusetts.

June 2nd, 2013

Espacio 140 es nuevo proyecto de comunicación de la ciencia en Internet. Avalado por la Mars Society España, se dedica a la divulgación de todos aquellos temas relacionados con el espacio. En sus propias palabras:

Es un proyecto crowdsourcing que nace en marzo de 2013 con el objetivo de divulgar definiciones y términos, usando menos de 140 caracteres, relacionados con la exploración espacial, la astronomía, la astrobiología, la astronáutica y, en general, cualquier ciencia relacionada con el Espacio, su exploración y su historia. Espacio140 utiliza Twitter, junto con [su] blog, como canal de comunicaciones.

Es una actividad participitativa, en la que cualquiera puede hacer sus aportaciones. La forma de hacerlo es sencilla. Tan sólo hay que hablar de un tema concreto, que Espacio 140 publica en su web, y sobre el que se twiteará durante toda la semana. La única manera de que esta participación sea efectiva es que se incluya el hastag #espacio140.

Con los twits más interesantes de cada semana se publicará un libro de financiación colectiva o croudfunding. Para escoger de manera democrática los twits, se publicarán los que sean más retuiteados por los internautas de cada tema concreto.

El Segundo Luz va a colaborar en la semana entrante, alentando el intercambio de información y el debate sobre el tema “telescopios”.

Enlace

¿Qué es Espacio 140?

espacio 140

Publicado en Comunicación de la ciencia | Comments Off
March 23rd, 2013

Por Jorge A. Vázquez

“Y les habló y les propuso temas de música.”
J.R.R. Tolkien, Ailunindalë

Esta semana se han publicado los esperados resultados de la misión Planck, que mide la radiación de fondo de microondas (CMB), relicto de la Gran Explosión, o Big Bang, que se cree que dio origen al Universo que habitamos. Voy a tratar de explicar algunas de las posibles implicaciones de una parte del análisis de estos datos.

Pequeñas diferencias de temperatura en la radiacion de fondo de microondas.

Imagen obtenida de los datos de la misión Planck, que muestra las pequeñas diferencias de temperatura que se observan en la radiación de fondo de microondas.

¿Qué es la radiación de fondo de microondas?

La CMB es una especie de mar de fotones que llega de todas partes, que llena el Universo y que lo ha llenado siempre. Esos fotones han sido testigos de la evolución del Universo desde sus inicios. Por eso, cuando observamos esta radiación de fondo de microondas o CMB, podemos aprender cómo ha sido la historia del Universo y qué forma o geometría tiene. Predicha por Gamow en 1940 y descubierta de forma accidental por Penzias y Wilson en 1965, es la imagen viva de que el Universo es igual en todas partes.

Dado que el Universo no recibe aportaciones de energía del exterior (porque el exterior del Universo sencillamente no existe), este se enfría conforme se expande. Los fotones, de los cuales hay unos mil millones por cada protón del Universo, si se encuentran a temperaturas superiores a los 3500 kelvin, son capaces de destruir los átomos con los que choquen, arrancando los electrones que orbiten los núcleos atómicos y dejándolos libres. Estos electrones llenaban el Universo sin dejar apenas espacio entre ellos. Cuando el Universo estaba tan caliente, los fotones no podían viajar, ya que no dejaban de chocar o interaccionar con los electrones libres, sin ser capaces por ello de llevar señales de un punto a otro del Universo, que por lo tanto era opaco a la luz.

Cuando el Universo por fin se enfrió y su temperatura fue inferior a los 3500 kelvin, los átomos de hidrógeno se formaron (la recombinación) y el Universo se hizo transparente porque, por fin, los fotones podían viajar libremente. Actualmente, la radiación que se emitió en ese instante y que se observa en forma de microondas, corresponde a una temperatura de unos -270º C o, dicho en otra escala de temperatura, 2,728 Kelvin. Esto es debido a que el Universo se ha enfriado debido a la expansión que ha experimentado desde entonces.

Modelo interactivo 3D del satelite planck

Modelo interactivo 3D del satélite Planck que estudia la CMB.

La existencia de la CMB demuestra que el Universo es igual en todas partes y así se muestra en cualquier dirección en la que lo observemos. Dicho en otras palabras, tal y como lo planteó Einstein en 1917, el Universo es, a gran escala, homogeneo e isótropo. Esto es lo que quiere decir el principio cosmológico, uno de los pilares fundamentales de lo que se viene llamando el “modelo estándar de cosmología o de la Gran Explosión” y que es, hoy en día, la teoría más aceptada en nuestros intentos por comprender el Universo. Todo esto sea dicho, evidentemente, sin perjuicio de que pueda haber pequeñas variaciones locales que no alteren esa homogeneidad del universo medio, que sí que es homogéneo a gran escala.

El Universo se muestra uniforme porque estaba causalmente conectado y porque era uniforme (a gran escala) en el preciso momento de su comienzo.

El equipo de Smoot consiguió detectar en la década de los 90, mediante la misión COBE (un complejo y sensible satélite artificial), las pequeñas variaciones o diferencias de temperatura de la CMB (anisotropías) que dieron origen al nacimiento de las grandes superestructuras de la materia. Son las rugosidades en el tejido del espacio-tiempo, las pequeñas diferencias de densidad, las ondas sonoras que poblaron el Universo antes de que nacieran las primeras estrellas, los primeros supercúmulos de galaxias, las primeras galaxias y los primeros agujeros negros. Dicho de otro modo, esas pequeñas diferencias de color que se aprecian en las observaciones de la CMB, y que se descubrieron mediante el satélite COBE, son ni más ni menos que las semillas de las grandes estructuras del Universo.

Aunque la imagen aún era borrosa, nos daba una idea de cómo fueron esas anisotropías que hoy en día seguimos estudiando y que nos servirán para desentrañar la historia del Universo y para descubrir cuál se su forma o geometría.

Las anomalías en la CMB

La precisión en las mediciones de estas pequeñísimas diferencias de temperatura mejoró notablemente con la misión WMAP, que mostró sus resultados en la década pasada. Pero, como ocurre cada vez que mejoramos nuestros telescopios, se encontró algo inesperado y, en este caso, se observaron ciertas “anomalías” que contradecían ese principio de “isotropía” del Universo, uno de los pilares fundamentales de lo que se viene llamando el “modelo estándar de cosmología”. Estas anomalías se hacían patentes cuando se comparaban las temperaturas de zonas del cielo separadas por distancias grandes. La comunidad científica se mostró sorprendida pero, muy prudentemente, decidió esperar a que se pudieran obtener datos más precisos, para lo que los equipos de físicos e ingenieros de la Agencia Espacial Europea (ESA) ya se encontraban trabajando.

La misión Planck pesa casi dos toneladas y mide más de 4 metros de largo. Se lanzó en un vehículo Ariane desde la Guayana Francesa en mayo de 2009 hacia uno de los puntos de Lagrange, situado a un millón y medio de kilómetros de la Tierra, punto alrededor del que revoluciona en una órbita de Lissajous.

Cada vez que un servidor asistía a una conferencia y preguntaba a algún investigador de la misión Planck acerca de si sus instrumentos estaban ayudando a descartar las anomalías detectadas por WMAP, o si bien las estaban confirmando, se negaban a contestar, con razón. La investigación puntera necesita de tiempo para asimilar los datos y no puede permitirse el lujo de que una filtración desbarate un trabajo de años.

Y esta semana, por fin, los datos han salido a la luz. Planck no sólo ha observado con mayor detalle las pequeñas diferencias de temperatura de la radiación de fondo (confirmando una vez más el modelo estándar de cosmología) sino que, además, también detecta las mismas anomalías que sacó a la luz su predecesora, la misión WMAP.

Anomalias bianchi en la CMB

Anomalías en la distribución de temperaturas en la radiación de fondo. Las anomalías han sido resaltadas para facilitar la comprensión de la imagen.

Implicaciones profundas de las anomalías en la CMB

No debemos confundir las pequeñas diferencias de temperatura, ya detectadas por COBE, a las que solemos referirnos habitualmente como “anisotropías” con las “anomalías” que detectó WMAP y que ahora confirma Planck. En el fondo, ambos conceptos se refieren a diferencias de temperatura en la radiación de fondo, pero las pequeñas, las que en el mapa aparecen como un granulado característico, las predice perfectamente la teoría del modelo estándar de cosmología (introduciendo para ello la inflación). Las segundas, las que se observan cuando comparamos las temperaturas de puntos muy alejados entre sí, esas no encajan en el modelo actual con el que tratamos de comprender el Universo.

Todo esto quiere decir que si bien comprendemos bastante bien la CMB a grandes distancias, no es tanto así si tratamos de estudiar a muy grandes distancias.

Así, nos encontramos ahora en una situación nueva. Como tantas veces ha ocurrido en la historia de la ciencia, estamos en la necesidad de reescribir nuestras ideas sobre cómo es la Naturaleza (con mayúsculas). El Universo que habitamos se nos muestra, ahora, más complejo e impredecible.

Topología del Universo

Si pudiéramos exceder las fronteras del universo observable, habría que renunciar a uno de los pilares del modelo estándar de cosmología: la isotropía. Más allá de ese límite el Universo podría ser enormemente complejo. Los fotones podrían verse forzados a agruparse y recorrer caminos intrincados, que los enfocarían de forma significativa, lo que estaría provocando las anomalías observadas en la CMB.

Una geometría concreta del universo local podría ser consistente con varias geometrías globales (topologías) diferentes. Lo difícil es saber cuál es la que se ajusta mejor a las observaciones. Partimos de la base de que la Relatividad General no impone restricciones sobre la posible topología del Universo. El universo observable (a gran escala) podría ser prácticamente plano y el Universo podría ser curvo a muy grande escala. Ya se venía trabajando desde hace tiempo con diferentes geometrías para el Universo. Después de que se hayan confirmado estos datos de Planck y de que se haya comprobado que las anomalías en la CMB no son debidas a los instrumentos de WMAP ni a efectos locales del entorno del satélite (el Sistema Solar, la Vía Lactea, etc.), la línea principal de trabajo parte de la geometría de Bianchi. Es esta una geometría anisotrópica que, además, ya fue tenida en cuenta por el por el propio Einstein en la ecuación de campo de la Relatividad General. Se está tomando en cuenta también la geometría toroidal.

 

Bibliografía para profundizar

Planck Published Papers (Agencia Espacial Europea)

Cosmología Física. Jordi Cepa. Akal, 2007.

Cosmology. Byrd, Chernin, Valtonen. URSS, 2007.

 

Agradecimientos

A mis profesores Vicent Martínez y Diego Sáez.

 

Publicado en Cosmología | Comments Off
February 14th, 2013

Edmond Halley pudo haber estado cerca de lograr medir las distancias a las estrellas Sirio y Procyon en el año 1718.

Halley midió el movimiento de algunas estrellas en el cielo a lo largo de 1800 años, empleando para ello las mediciones astrométricas de Hyparco, Ptolomeo y Timocares. Según sus cálcylos, Sirio y Procyon se habían desplazado un total de medio grado de arco, durante este lapso de tiempo, lo que equivaldría a un desplazamiento de un segundo de arco al año. Dedujo, acertadamente, que estas estrellas debían de estar entre las más cercanas, dado su gran brillo.

Según el astrónomo soviético B. A. Vorontsov-Velyaminov (1904-1994),  si a Halley se le hubiera ocurrido comparar las medidas de sus movimientos angulares con velocidades radiales, habría podido deducir las distancias a estas estrellas. Como, evidentemente, en su época no se conocían los movimientos propios de las estrellas, podría haber tomado como velocidad típica la de la Tierra alrededor del Sol, ya conocida entonces (unos 30 km/ segundo). De este modo, y partiendo de un valor de 6 unidades astronómicas por año para un desplazamiento angular de 1 segundo de arco, habría obtenido una distancia de 6 parsecs a estas estrellas, un resultado comparable al dato actual de 2,6 parsecs a Sirio y 3,5 parsecs a Procyon.

No habrían sido unos resultados demasiado malos, sobre todo teniendo en cuenta que, 120 años después, y ya empleando la técnica de la paralaje, para la estrella Groombridge 1830, que se encuentra a 10 parsecs, O. Struve estimó 30 parsecs mientras que M. Wichmann midió 5,5 parsecs. Aunque tampoco deja de ser cierto que el valor obtenido para las estrellas Arturo y Aldebarán (también estudiadas por Halley), habría sido significativamente menos acertado. Pero Vorontsov-Velyaminov no dejaba de considerar que el método habría sido bueno.

Publicado en Astrometría | Comments Off
July 10th, 2012

 

Estos días se ha publicado un impresionante video, que podemos ver más abajo, al final de este post, que recoge los lanzamientos de todos los transbordadores espaciales de la NASA: El Columbia, el Challenger, el Discovery, el Endeavour y el Atlantis. El video, que muestra los casi cuatro primeros minutos de cada uno de los vuelos, está muy conseguido. Observándolos atentamente, se puede aprender mucho sobre la historia de uno de los principales hitos de la astronáutica.

Nos hemos detenido, cómo no, en los momentos más trágicos, puesto que son, probablemente, los que más fácilmente se graban en la memoria. Concretamente, no hemos podido dejar de pensar en los vuelos STS-51L (28 de enero de 1986) y el STS-107 (destruido en la reentrada a la atmósfera el 1 de febrero de 2003).

challenger tripulacion

La tripulación del último vuelo del Challenger

 

El Challenger explosionó a los 73 segundos del despegue cuando se encontraba a 28 kilómetros de altura, debido a problemas relacionados con la junta de uno de los cohetes de combustible sólido (SRB) con el tanque externo de hidrógeno (ET). Los espectadores que asistieron al lanzamiento, entre ellos el presidente Reagan, asistieron atónitos a la visión. Inmediatamente después de la explosión los dos SRB salieron impulsados en direcciones opuestas, añadiendo un toque dantesco, como se pueden contemplar en el video. Toda la tripulación pereció en el accidente. La presión y los recortes de presupuesto hicieron que se relajaran las precauciones necesarias para una operación tan delicada como es la puesta en órbita de personas.

tripulacion comlumbia

La tripulación del último vuelo del Columbia. Podemos ver las características placas cerámicas negras en el ataque de las alas.

 

El Columbia sufrió un destino diferente, ya que se destruyó en la reentrada, al no resistir el calor debido a la fricción del vehículo con la atmósfera terrestre. Un objeto que se encuentre en la órbita terrestre, si reduce su altura aumenta su velocidad, siguiendo la tercera ley de Kepler. Por ese motivo el regreso de los vehículos espaciales a la Tierra es uno de los momentos más peligrosos de toda misión. Los transbordadores tenían una serie de placas cerámicas que resistían el calor generado, con la mala suerte de que las del último vuelo del Columbia se dañaron durante el proceso del despegue, al desprenderse pedazos de la espuma aislante del tanque de hidrógeno, que golpearon y dañaron la protección de la panza del transbordador. Toda la tripulación pereció en el accidente.

Si no sabemos dónde buscar, podemos distinguir los lanzamientos del Columbia en el video de dos formas diferentes: por el ataque de las alas, con dos triángulos negros muy característicos, debidos a una protección térmica que le instalaron por desconocimiento de cómo se comportarían las alas en la reentrada. En varias misiones, también podemos distinguir al Columbia por el extremo de la cola. En enero de 1986 se instaló un sensor de temperatura por infrarrojos, el SILTS, además de una gran cantidad de placas cerámicas negras adicionales, precisamente para la misión inmediatamente anterior a la última del Challenger. Aunque el instrumento se retiró unos años después, la vaina vacía se quedó en su sitio, al igual que las placas cerámicas de refuerzo.

 

los transbordadores espaciales

Localización de los últimos vuelos del Challenger y del Columbia en el video.

 

 

Agradecimientos

Daniel Marín, por las aclaraciones en relación con la nomenclatura de las misiones del transbordador espacial.

Publicado en Astronautica, Tecnología | Comments Off
June 20th, 2012

Jorge A. Vázquez

Hace ya bastantes años que la comunidad científica alcanzó el consenso. El cambio que se está produciendo en el clima es antropogénico (es decir, provocado por el hombre). Se dice esto porque no existen apenas científicos que duden, hoy en día, que el aumento de temperaturas que se registra año a año en la Tierra está producido por el hombre. La inmensa mayoría de artículos publicados sobre el tema (en una proporción aplastante) dejan patente que la especie humana está alterando el clima por culpa, principalmente, de las emisiones de CO2 o dióxido de carbono.

Un debate científico no se puede plantear como un debate televisivo, en el que las dos partes concurren con un representante cada una. Un debate científico serio explica cuál es la opinión predominante y por qué. Parafraseando a William K. Hartmann, si 999 científicos de cada 1 000 se mofan del asunto de la cara de Marte no podemos llevar a televisión a un científico a favor y a otro en contra, sino que hay que explicar cuál es la opinión mayoritaria y por qué. En este orden de cosas, nos vamos a encontrar, en las próximas décadas, con un sector tremendamente minoritario de investigadores y divulgadores poco serios, que seguirán planteando dudas al respecto de este tema, a pesar de que la inmensa mayoría de investigadores tenga clarísimo que el cambio climático está siendo provocado por la actividad humana por la enorme e irrefutable acumulación de pruebas que existen al respecto.

 

incremento de temperaturas desde el siglo 19

Variaciones en la temperatura de la Tierra, medias por décadas. Fuente: The Berkeley Earth team.

 

En este pequeño artículo, y en otros futuros, trataré de desmontar algunas de las principales argumentaciones de los negacionistas, al menos las que me he encontrado en las redes sociales. Con una mente abierta, crítica, racional y realmente escéptica, no se puede negar que el clima está cambiando y que el hombre es el principal causante de este fenómeno. Por eso, a los que niegan el cambio climático se les llama negacionistas, nunca escépticos, salvo que se les llame así por error o desconocimiento.

Empecemos con los argumentos.

 

Existe un nexo directo entre la mayor abundancia de CO2 y el aumento de temperatura de la Tierra

Las cualidades del CO2 como gas de efecto invernadero se conocen desde 1861, gracias a los estudios de John Tyndal, así como por décadas de estudios realizados en laboratorios (Herzberg 1953, Burch 1962, Burch 1970, etc). El efecto invernadero de la Tierra se produce porque los gases que lo provocan dejan pasar la energía del Sol para que se caliente la Tierra, que trata a su vez de devolver ese calor al espacio, en forma de radiación infrarroja. Sin embargo, estos gases presentes en la atmósfera, que sí dejaban pasar la luz del Sol, absorben esa radiación infrarroja que la Tierra devuelve al espacio, calentándose y elevando la temperatura de la atmósfera, devolviendo más radiación infrarroja o calor al suelo y a los océanos. Este proceso hace que la temperatura del suelo y de los océanos aumente.

La Tierra, de forma natural, recibe energía del Sol y la refleja al espacio en forma de calor o, dicho de otro modo, radiación infrarroja. Mediante este proceso los planetas alcanzan lo que se conoce como temperatura de equilibrio, que se calcula como un balance entre la radiación que absorbe y la que refleja. Aplicando los cálculos a nuestro planeta, resulta que su temperatura de equilibrio es de 255 K, es decir, -18º C. Si sabemos que la temperatura media de la Tierra está en torno a los 15º C, vemos que existe una diferencia de +33K, que se debe al llamado efecto invernadero, que viene producido por ciertos gases presentes en la atmósfera, como el vapor de agua, el CO2 y el metano. Estos gases actúan, pues, como una manta, que evita que se escape todo el calor de la Tierra. El problema con el que nos encontramos actualmente es que la Tierra va a tener muy pronto el doble de C02 del que tenía antes del siglo XIX, o dicho de otro modo, vamos a tener dos mantas. No estamos acostumbrados a vivir en un mundo tan caluroso, por lo que las implicaciones naturales y sociales para nosotros serán dramáticas. Estos cambios, al ritmo al que se vienen produciendo, van a ser, con toda probabilidad, realmente drásticos.

 

el efecto invernadero

El efecto invernadero se produce cuando la atmósfera del planeta contiene gases que retienen el calor. Precisamente son las capas inferiores de la atmósfera las que se calientan, impidiendo la llegada de más calor a las capas superiores y hacia el espacio.

 

 

El aumento de la temperatura de la Tierra está provocado por la actividad humana

Cientos de estaciones localizadas por todo el planeta detectan un importante incremento en la cantidad de dióxido de carbono que se concentra en la atmósfera, coincidiendo los resultados de todas ellas. Por los registros históricos sabemos que, antes de que comenzara la revolución industrial, a lo largo del siglo XIX, las concentración natural de CO2 en la atmósfera era de 280 partes por millón (ppm). Hoy en día esa concentración supera las 480 ppm y continúa en ascenso. A pesar de ser una cantidad muy pequeña de gas, puede producir grandes cambios en la temperatura de la Tierra. Como la atmósfera está compuesta principalmente de un gas inerte, el nitrógeno, lo que realmente debemos tener en cuenta es la cantidad de dióxido de carbono que hay en la atmósfera. Como ejemplo ilustrativo, si diluimos tinta en un recipiente de agua hasta alcanzar una proporción de 280 ppm, notaremos un oscurecimiento del agua. Si diluimos más tinta, hasta alcanzar las 560 ppm, la oscuridad será notable.

 

demostracion con tinta sobre el co2

Dan Miller explica, de forma muy gráfica, cómo una proporción aparentemente pequeña de CO2 en la atmósfera puede tener dramáticas consecuencias. La imagen enlaza a la web sobre clima de Dan Miller.

 

Existen multitud de pruebas empíricas que demuestran que el dióxido de carbono produce un aumento del efecto invernadero. En este sentido hemos visto cómo se ha demostrado en laboratorio que el dióxido de carbono absorbe radiación infrarroja. Debemos añadir que las medidas tomadas desde satélite confirman que está saliendo menos radiación infrarroja al espacio en las zonas del espectro en las que absorbe el CO2. Las mediciones realizadas en la superficie terrestre detectan una cada vez mayor cantidad de energía infrarroja que regresa a la Tierra en esas mismas longitudes de onda. Como resultado de todo ello se viene produciendo una importante acumulación de calor desde hace cuarenta años.

 

la contribucion del hombre al calentamiento global crece

La contribución del hombre la calentamiento global (en rojo) y la debida a factores naturales (en azul). Se aprecia cómo la diferencia de fuerzas crece, en favor del factor humano. Se puede ver el resultado de ambas fuerzas (en gris). Fuente: Gerald Meel et al (la imagen enlaza al artículo original en PDF).

 

El nivel de CO2  sí que es el principal y más determinante en estos momentos, aunque no es el único factor que entra en juego en la temperatura del planeta. Lógicamente, existen factores naturales que intervienen, aunque cada vez con una importancia menor. La radiación que recibimos del Sol es uno de ellos. Parece ser que la actividad solar se viene debilitando en los últimos ciclos de nuestra estrella. Intervienen también las cenizas volcánicas que, en forma de aerosoles, se elevan a kilómetros de altitud, reflejando parte de la luz solar y enfriando ligeramente el clima. Los océanos, además, tienen un importante poder regulador, siendo capaces de acumular enormes cantidades de energía durante años, aunque en ocasiones pueden soltarla a la atmósfera con relativa violencia.

Tenemos un panorama en el que intervienen múltiples factores naturales al que se suma, desde los inicios de la revolución industrial, el humano. Con el fin de producir energía, estamos consumiendo las reservas de combustibles fósiles que retienen inmensas cantidades de dióxido de carbono atrapado hace millones de años por antiguos seres vivos. El problema surge porque la Tierra no está preparada para absorber todo ese CO2 extra que estamos liberando, especialmente, en el último siglo y medio.

 

el ciclo del carbono

Los seres humanos estamos enviando dióxido de carbono a la atmósfera que no puede ser absorbido por la naturaleza. Fuente: NASA, traducido por el autor.

 

Los estudios geoclimáticos han demostrado que el clima terrestre se regula por medio del ciclo carbono-silicato, por una combinación de los efectos del agua líquida, el CO2 y el vapor de agua de la atmósfera además de la tectónica de placas. El CO2 de la atmósfera reacciona con los silicatos de las rocas de la superficie a las que se fija formando carbonatos. Estas nuevas rocas, a escala geológica, acaban siendo conducidas a las zonas de subdución de placas, donde se disuelven. El CO2 vuelve a la atmósfera después en las erupciones volcánicas.

Sin pretender entrar en detalle en este artículo concreto, añadiremos que la aparición de la vida en nuestro planeta ha tenido importantes consecuencias en la proporción de gases de la atmósfera. Así, básicamente, la enorme masa vegetal que lo habita consume dióxido de carbono (reteniéndolo) y produce oxígeno mediante la fotosíntesis. Los animales consumen oxígeno y producen dióxido de carbono en la respiración. La masa vegetal de todo el planeta, incluída la que reside en los océanos actúa también como un regulador del nivel de dióxido de carbono o CO2, capturando ingentes cantidades del mismo. Los problemas comienzan a aparecer cuando los mecanismos de absorción del dióxido de carbono que hemos visto no pueden retenerlo al ritmo que este gas se incorpora a la atmósfera.

 

En próximos artículos trataremos otros de los muchos argumentos que explican que el cambio climático está siendo producido por el hombre. Hablaremos de la importancia del vapor de agua y su relación con el CO2, además de tratar el tema de las gráficas de evolución de temperaturas.

 

Referencias

John Cook, Climate Communication Fellow en el Global Change Institute de la Universidad de Queensland
Skeptical Science

Sección en castellano de Skeptical Science
Skeptical Sciencie

Markus Huber & Reto Knutti en Nature:
Anthropogenic and natural warming inferred from changes in Earth’s energy balance

Ignasi Ribas Fernando Ballesteros Límites de la zona habitable: el CO2 como termostato.
Exoplanetas y Astrobiología
(Universitat Internacional Valenciana, 2010)

 

 

 

Publicado en Energía | Comments Off
June 17th, 2012

Existen rumores de que se podría haber detectado el bosón de Higgs en el LHC, a una energía de 125 GeV. No obstante, no se ha dado ninguna confirmación definitiva de ello. Esperamos impacientes nuevos detalles en los próximos días.

 

colision en lhc compatible o no con el boson de higgs

Colisión de dos protones en el LHC. Las líneas rojas representan muones. Esta observación es compatible, o no, con la existencia del bosón de Higgs. (ATLAS, CERN)

 

 

 

Actualización

(17 de junio de 2012)

El blog de física de Francis Villatoro, Francis (th) E mule Science’s News, referencia en noticias de esta índole, resta importancia al asunto. Es política del LHC que los distintos instrumentos ATLAS y CMS puedan confirmar, independiemente, los descubrimientos. Si, no obstante, se unen las observaciones ambos instrumentos para obtener una base estadística mayor, se habla de una estimación oficiosa, no de un descubrimiento. El blog añade que, incluso en el caso de que los datos fueran tan buenos como para declarar un auténtico descubrimiento, no podemos esperar unos resultados definitivos antes de 2013.

Actualización

(23 de junio de 2012)

Si leemos en el blog de Peter Woit (primer enlace en la lista de referencias) podemos comprobar cómo aumenta la tensión en relación con este asunto. El CERN, por su parte, ha anunciado una rueda de prensa para el 4 de julio, mientras expertos como Francis Villatoro no dejan de recordar fiascos anteriores. En cualquier caso, ya queda menos para lo que podría ser el anuncio definitivo de una noticia importante. El asunto se convirtió en trending topic en Twitter, con el hastag #higgsrumours el día 20 de junio.

Referencias

Sobre esta noticia, concretamente

Blog de Peter Woit, de donde procede gran parte de los rumores.
The Higgs discovery

Blog de Francis Villatoro
El Higgs “fermiofóbico” y los rumores para San Fermín sobre el Higgs en el ICHEP 2012

Reseña de Jorge Díaz en el blog de física Conexión Causal.
Rumores sobre el bosón de Higgs

Sobre física de partículas y el LHC.

Blog de Matt Strassler
Of Particular Significance

May 30th, 2012
zona de observacion astronomica de bonilla

Zona de observación astronómica de Bonilla, con el Observatorio Mariano Alonso.

La Agrupación Astronómica de Madrid, AAM, entidad dedicada al estudio y divulgación de la astronomía y ciencias afines, organiza la cuarta edición de Astrobonilla 2012 que se celebrará en Castilla la Mancha en Bonilla, (Huete, Cuenca) del 20 al 22 de julio.

Durante el evento, se llevarán a cabo conferencias impartidas por profesionales de reconocida trayectoria como el Padre Carreira, astrofísico, teólogo y filósofo, Benjamín Montesinos, (CSIC) astrofísico que hablará sobre el Sol al que se observará a continuación, Gabriel Barroso, y Francisco Ocaña, ambos de la AAM, nos ilustrarán sobre el radiotelescopio y estación de meteoros del observatorio astronómico respectivamente,

En Astrobonilla, se realizará la inauguración del radiotelescopio y la estación de meteoros de la AAM y se nombrará al centro de observación de la AAM en Bonilla, Observatorio Mariano Alonso. Juanjo García, miembro de la AAM, lanzará un globo a 30 km de altura, y habrá dos noches de observación en los estupendos cielos de Bonilla.

Se organizarán concursos de astrofotografía, observación astronómica y de dibujo astronómico, con grandes premios cortesía de algunos de los patrocinadores.

También disfrutaremos de actividades lúdicas: visita a cuevas de yeso cristalizado, comida de hermandad y vuelos en globo aerostático.

Educa Ciencia está patrocinando las últimas ediciones de Astrobonilla enriqueciendo la dotación del observatorio astronómico. El año pasado donó una cámara CCD que permitirá la captación de imágenes en el telescopio que allí tiene instalado la AAM. En esta ocasión construirá una maqueta del Sistema Solar, que servirá para ilustrar las visitas que tienen previsto realizarse por grupos concertados, en un futuro próximo.

astronomos aficionados

Astrónomos aficionados preparando la noche observación.

 

Acerca de la Agrupación Astronomica de Madrid

Recordamos que la AAM realiza, durante todo el año, constantes actividades, conferencias, debates de los grupos, cursos de iniciación a la astronomía y de otras técnicas y divulgación en su sede y en Centros Culturales, colegios, institutos y medios de comunicación. Cuenta con diferentes Grupos de Trabajo dedicados a los siguientes temas: Astrobiología, Astrofotografía, Cielo Profundo, Cosmología, Estrellas Dobles, Heliofísica, IO ( Iniciación a la Observación), Meteoros, Observación Lunar, Radioastronomía. La AAM cuenta también con una extensa biblioteca-videoteca y publica trimestralmente su revista NEOMENIA con artículos, efemérides, noticias del sector, entrevistas, fotografías realizadas por los socios y trabajos de los grupos. Además de la información y foros de debate que ofrece su sitio Internet.

Referencias:

Web de la Agrupación Astronómica de Madrid

Web de Educa Ciencia

May 28th, 2012

Basado en la conferencia que Toño Bernedo, jefe técnico del planetario de Madrid, impartió el 19 de enero de 2010.

Historia

Promovido quien fuera alcalde de Madrid, Enrique Tierno Galván, fue inaugurado el 29 de septiembre de 1986, poco después de su muerte. El edificio es obra del arquitecto Salvador Pérez Arroyo, irónicamente autor también del Faro de la Moncloa, uno de los edificios más agresivos y perjudiciales para el cielo de Madrid.

Se decidió construirlo en una zona que por entonces era marginal, en Méndez Álvaro, cerca del distrito de Vallecas, donde el venerable alcalde quiso que hubiera un gran parque (que desde entonces lleva su nombre) y un lugar dedicado a facilitar a los vecinos de la villa el acceso a la cultura y al conocimiento científico. El presupuesto de partida no llegaba a los 200 millones de pesetas de entonces.

Pertenece al Ayuntamiento de Madrid y lo dirige, desde que abriera sus puertas, Asunción Sánchez, licenciada en Física Teórica por la Universidad Complutense.

el planetario de madrid
Los visitantes acceden al planetario de Madrid

El complejo, dedicado íntegramente a la divulgación científica, ofrece unas magníficas vistas de una parte de Madrid y cuenta con varias salas de exposiciones, recibiendo el nombre de Sala de los Astrónomos la más conocida de ellas. También dispone de una torre de observación de 28 metros de altura, en la que hay una cúpula de 3 metros de diámetro que aloja un telescopio refractor Coudé de la casa Carl Zeiss Jena, de 150 mm de abertura y una distancia focal de 2.25 m , que suele emplearse para proyectar imágenes en el exterior, cuando se organizan grandes observaciones públicas.

En estas grandes observaciones dirigidas al público colabora la Agrupación Astronómica de Madrid, cuyos socios aportan sus telescopios de forma totalmente desinteresada, al menos una vez al año. El público acude siempre en masa.

Posiblemente obtuviera la mayor afluencia de público de su historia el día del eclipse anular de Sol de 3 de octubre de 2005, cuando decenas de miles de personas se congregaron para observarlo en la explanada aledaña, donde gracias a la situación privilegiada de nuestra ciudad, este fenómeno se pudo observar en toda su plenitud.

Han pasado tantos años ya desde que se inauguró, que han empezado a llegar los hijos y nietos de los primeros que lo visitaron en los años 80. Es decir, que ya lo conocen tres generaciones.

el proyector carl zeiss del planetario de madrid
El proyector Zeiss Spacemaster, del planetario de Madrid

 

El proyector Zeiss de Madrid

Es un Carl Zeiss RFP DP3 Spacemaster, un planetario astronautico, es decir, que se concibió para el entrenamiento de los astronautas en la navegación espacial. Procedía de la fábrica Zeiss de la antigua Alemania del Este (RDA).

Consta de dos esferas de estrellas con 16 campos de gran calidad cada una (32 campos en total), proyectores individuales para algunas estrellas determinadas, como Sirio y Betelgeuse, celdas para cinco planetas, el Sol y la Luna, diversas líneas auxiliares y proyectores de figuras de constelaciones.

Tiene también los ejes diurno, anual, de precesión, polar y acimutal. Todos los ejes están conectados entre sí. Así por ejemplo, dando 365 vueltas al eje de movimiento diurno, el Sol da una vuelta alrededor de la Tierra (un planetario debe simular un sistema geocéntrico). Cuando el eje anual da 25800 vueltas, el de precesión da también una vuelta.

El analema se simula mediante ordenador, conectando el movimiento diario y anual.

Utiliza motores paso a paso, lo cual fue una novedad en su tiempo. También fue el primer planetario del mundo que se manejaba por ordenador para hacer los movimientos.

La proyección de las estrellas

Se emplea el método del icosaedro, al que se le eliminan las aristas para obtener una división en 32 campos, equivalente a la figura del clásico balón de fútbol (20 hexágonos y 12 pentágonos). Esta proyección está muy extendida, aunque también la de 12 campos es muy común.

icosaedro
Figura geométrica de un icosaedro

Uno de los problemas principales de cualquier planetario es la reproducción de las estrellas como puntos. Lo más importante es la obtención de una fuente de luz puntual. Para ello se concentra con una lente la luz de una lámpara (que en este caso tiene una potencia de 500 W), común a toda la bola de estrellas. Esa luz se hace pasar por una diapositiva de cobre microperforada, con pequeños orificios proporcionales al brillo de las estrellas que se van a proyectar. Después la luz debe pasar también por una lente objetivo.

lampara del proyector de planetario de madrid
Lámpara interna del proyector del planetario de Madrid.

Y por último, unos sistemas similares a los “ojos de las muñecas” (de hecho reciben ese nombre) provocan la obturación de la luz por debajo de la horizontal, lo que genera un efecto de horizonte, fundamental para una correcta proyección del cielo.

ojos de muñeca del planetario de madrid
Las lentes de objetivo con sus respectivos ojos de muñeca, que simularán el horizonte.

 

Los proyectores auxiliares de estrellas, de líneas, de coordenadas, de constelaciones y de la Vía Láctea

Algunas estrellas tienen un brillo más elevado que el resto (magnitud más brillante), por lo que necesitan de un proyector individual que las haga destacar especialmente. Esto ocurre en el caso de Sirio o en el de Betelgeuse, añadiendo además a esta última un toque de color característico, anaranjado en este caso.

Para la proyección de la líneas de coordenadas, figuras de las constelaciones, y de la Vía Láctea se emplea un método similar al de la bola de estrellas pero con unos proyectores más pequeños.

El movimiento de los planetas, del Sol y de la Luna: el “símil mecánico”

El sistema que a continuación describimos se inventó para el primer planetario de este tipo, que se construyó en 1923. Cada uno de estos cuerpos celestes: el Sol, la Luna, Mercurio, Venus, Marte, Júpiter y Saturno cuenta con un “símil mecánico”, un reto formidable, para el que los astrónomos, ópticos e ingenieros que diseñan estos aparatos deben emplearse a fondo.

proyector de un planeta
Uno de los proyectores de planetas

Así, los proyectores de los planetas, del Sol y de la Luna se montan sobre un sistema de platos contrapeados o superpuestos. Se instalan en unas celdas, perpendiculares al eje de precesión o de la eclíptica. Cada uno de estos proyectores deberá tener la misma inclinación natural de cada cuerpo celeste sobre la eclíptica.

Los planetas recorren órbitas en torno al Sol, lo que se conoce como el modelo heliocéntrico del Sistema Solar. La cuestión está en que debemos simularmovimientos geocéntricos, puesto que el planetario reproduce las posiciones de todos estos cuerpos tal y como se ven desde la Tierra.

Con el Sol imaginariamente en el centro, recreamos la órbita de la Tierra, la cual representamos mediante un pivote. Construímos la órbita del otro cuerpo celeste y ponemos otro pivote que va a representar ese cuerpo.

el simil mecanico del planetario
Esquema de un símil mecánico de proyector de planetario

De este modo lanzamos una visual (barra deslizante entre los dos pivotes) desde la Tierra al cuerpo celeste y la proyectamos sobre la cúpula. Paralelo a la barra deslizante se instala un pequeño proyector, que producirá una imagen de ese cuerpo sobre la cúpula que se irá desplazando conforme se muevan los dos pivotes.

barra deslizante y engranajes
La barra deslizante y los engranajes

Los platos de las órbitas se desplazan en su movimiento anual mediante engranajes, que se sacan de una barra de desplazamiento común a todos ellos. Los platos de la Tierra se instalan contiguos dos a dos para ahorrar espacio.

Para que llegue la corriente a las lámparas, debe pasar por anillos rozantes y escobillas, lo que complica aún más toda la tecnología del planetario.

Sistema Solar : Las órbitas elípticas

Los planetas recorren órbitas elípticas alrededor del Sol con este en uno de los focos (Primera Ley de Kepler) y recorren áreas iguales en tiempos iguales (Segunda Ley de Kepler), por lo que se mueven más deprisa cuando están más cerca del Sol y más despacio cuando están más lejos. La forma de reproducir estos movimientos es compleja.

Aunque las órbitas se hacen circulares, sí que se simula la elipse y se corrigen los errores mediante variaciones en la velocidad. Desplazando el eje en la proporción de la excentricidad, el radio vector sigue la Segunda Ley de Kepler, con un margen de error tolerable siempre que la excentricidad no sea muy grande. De hecho el único planeta para el que no se emplea este método es Mercurio.

Una forma de simular el movimiento elíptico es con engranajes elípticos, o también mediante una junta Cardán a un ángulo determinado, que lo corrige aún mejor, pero resulta demasiado complicado requiriendose mucho espacio en ambos casos.

El método que se emplea en este planetario para el planeta Mercurio se llama de doble manivela y consiste en un sistema de tres platos, en uno de los cuales se encuentra situado el pivote del planeta. Dos de estos platos están desplazados entre sí en la proporción adecuada a la excentricidad que buscamos simular. Un plato arrastra al otro mediante un bulón, y este a un tercero que es el que contiene el pivote del planeta: Se llega a obtener 1/5º de precisión, para Mercurio, lo que se considera suficiente.

Sistema Solar: El proyector de la Luna

La imagen de la Luna se graba en un pequeño espejo, creándose la imagen de la misma en la cúpula reflejando un haz de luz sobre el espejo. Las fases se simulan al reflejar un haz de luz y hacerle pasar por un obturador semiesférico, como un casquete, que va girando y tapando la parte correspondiente de Luna.

También simula eclipses y lleva además su obturador de horizonte.

Al tener que representar la retrogadación de la línea de nodos, necesitamos que el pivote de la Luna se incline, pero dando una vuelta cada 18,6 años, teniendo que desmultiplicar enormemente el movimiento que recibimos de la barra de arrastre.

La cúpula

La cúpula tiene 17,5 metros de diámetro. Es una estructura reticulada de acero sobre la que va unos soportes de madera que sujetan las chapas de aluminio. Cuenta con aislamiento acústico, óptico y térmico. La pintura tenía originalmente una reflectabilidad del 80%, que se ha ido reduciendo paulatinamente con los años. Los planetarios modernos, no obstante, tienden a reflejar incluso menos del 50%, para compaginar la proyección de videos.

losetas de la cupula del planetario
Las losetas de la cúpula del planetario de Madrid

El futuro

El Planetario de Madrid está tratando de obtener finaciación para adquirir e instalar un moderno proyector Star Master, de Zeiss.

starmaster de zeiss
El proyector Starmaster, de Zeiss

Consta de una bola de estrellas con 12 campos de estrellas. Cada estrella recibe la luz de la lámpara, en este caso de xenon, por medio de un hilo de fibra óptica. Es decir, que cada estrella del campo recibe un hilo y así todas. Esto mejora notablemente la eficiencia, hasta un factor de 1000, por lo que se puede emplear una lámpara de menor potencia (mayor eficiencia energética). Así, la resolución es ya superior a la del ojo humano: Las estrellas de magnitud 0 son menores a 1′ de arco. Produce un cielo muy real con diferencias de brillo entre las estrellas.

diametros de las estrellas
Evolución del diámetro de las estrellas de los proyectores de planetario

Al sacar los planetas y la Luna se evitan los problemas mecánicos, aunque los proyectores del Sol y de la Luna pueden tener problemas  debidos a las sombras. Pero sobre todo, desde que en los años 90 se empezó a ensayar con la fibra óptica, se empezaron a conseguir avances notables.

sistema de fibra óptica para la proyección de las estrellas
Sistema de fibra óptica para la proyección de las estrellas

Este planetario más moderno combina informáticamente los movimientos de tres ejes para reproducir todos los movimientos astronómicos.

 

Publicado en Comunicación de la ciencia, Planetarios | Comments Off
May 25th, 2012
solar impulse
El avión Solar Impulse

En ruta desde Payerne (Francia), si todo transcurre según lo previsto, aterrizará en cuestión de unos 50 minutos en el aeropuerto de Madrid Barajas, después de cruzar los Pirineos a 9 000 metros de altitud a las 4 de la tarde. Se trata de un avión revolucionario, gigante pero ultraligero, que funciona sin combustible y que puede volar día y noche.

Referencia

Página oficial de Solar Impulse

Publicado en Energía | Comments Off
  •  

     

  •  

     

  •  

     

     

     

  • Etiquetas

  •  

     

  • Archivo de publicaciones

  •  

     

  •  

     

  • Mapa del sitio

  • ?>