Archivo de la categoría: Física

Los anillos de Saturno

Los anillos de Saturno son bien conocidos por todos, ya que es aparentemente la mayor peculiaridad de dicho planeta. Intentaremos explicar qué son estos anillos, por qué hay varios y como se formaron. A tener en cuenta que otros planetas poseen anillos, como Júpiter, aunque son muy tenues y prácticamente inapreciables.

Los anillos están formados por una gran cantidad de partículas independientes, lo que llamaríamos vulgarmente rocas. Estas rocas orbitan individualmente al planeta, como si de pequeños satélites se trataran. Esta propiedad, que parece muy obvia, tardó siglos en comprenderse desde que Galileo descubriera los anillos.

Podemos entender pues, que los anillos no son inmóviles, sino que van girando alrededor del planeta. Sin embargo son bastante homogéneos por lo que no podemos apreciar dicho giro simplemente observando el espectro visible. Se puede detectar que los discos están en movimiento, usando el efecto doppler. Este método es usado también para analizar la velocidad relativa (respecto a nosotros) de otras estrellas, y fue fundamental a la hora de elaborar la ley de Hubble (la ley que explica que el universo está en constante expansión).

saturn_rings_l

Los tres mayores anillos de Saturno, y algunas divisiones.

Tenemos dos discos principalmente, el A y el B. Existen otros discos como el C, el D, el E, el F y el G. El anillo A está en la parte exterior y los B y C en la interior, siendo los de mayor tamaño. Los E, F y G se encuentran más al exterior del anillo A, justo en el extremo final, y son muy estrechos y pálidos. El D es el más interior, seguido del C y el B.

El anillo F es muy estrecho, en parte debido a los satélites Pandora y Prometeo. Dichos satélites “moldean” el anillo, mediante su gravedad, atrayendo la materia del disco hacia ellos. Estos satélites reciben el nombre de satélites pastores, y crean frecuentemente ondas en el disco qué orbitan. Existen otros satélites de esta clase en el sistema solar, como por ejemplo la luna Galatea en Neptuno. Estos satélites pueden estar situados en las llamadas divisiones. Son zonas sin materia, entre discos.

5648_13069_1

La luna Dafne, creando olas en el anillo A de Saturno

Vamos a entender como se forma un anillo planetario. Hay un fenómeno por el que se forman dichas estructuras, y consiste en el de una cantidad de materia cruzando el límite de Roche de un cuerpo. Existen fuerzas de marea que ejerce un cuerpo masivo sobre otro. Estas fuerzas no son otra cosa que la diferencia entre la fuerza (gravitatoria) que recibe una cara de dicho cuerpo, la más cercana, frente a la más alejada. Este fenómeno ocurre por ejemplo entre la Tierra y la Luna. No debe confundirse con las mareas en si, que en su mayoría vienen dadas por la atracción de la Luna sobre los océanos, que al ser fluidos pueden concentrarse más en una cara del planeta que en otra (la tierra firme lógicamente no tiene esa capacidad).

roche-rings

El límite de Roche, un satélite/planeta superándolo.

Llega un punto en que las fuerzas de marea son más intensas que la fuerza de gravedad que mantiene a dicho objeto unido. Como sabemos, cuanto menor es la distancia, mayor es la fuerza de la gravedad. Entonces la distancia y la masa del objeto que ejerce la fuerza y el que la recibe, son las variables principales para obtener el límite de Roche. Cuando, pongamos, un satélite supera el límite de Roche de su planeta, este empieza a perder su forma y a desgarrarse. El resultado final es un disco de polvo y rocas, como los de Saturno.

Anuncios
Etiquetado , , , , , , , , ,

Ondas gravitacionales

Hace unos días se hizo pública la detección de ondas gravitacionales por parte del laboratorio LIGO, procedentes de dos agujeros negros en colisión.

ondas

Esta noticia tiene grandes implicaciones, ya que es la primera vez que se logra algo así. Albert Einstein hace cosa de un siglo desarrolló la hipótesis, a grandes rasgos y entre otras propiedades, que el espacio va ligado al tiempo, y puede alterarse mediante la gravedad. Esto es que, en el seno de un campo gravitatorio el espacio se curva o pliega, dependiendo de la intensidad de dicho campo. Esta deformación, tal como una onda en cuenco con agua, podría propagarse por todo el espacio. Esto mismamente es lo que ocurre y lo que se ha podido detectar. Ahí reside la importancia, podemos deducir que Einstein estaba en lo cierto, y que la gravedad altera el espacio.

gravitational-waves-sound

¿Cómo han logrado detectar esa deformación? Explicado de forma breve y seguramente poco precisa: Tenemos dos tubos con un haz de luz (un láser) en cada uno, que llegan a un espejo y rebotan para volver por donde han ido. Dentro de estos tubos hay el vacío. Como bien sabemos, la velocidad de la luz “c” es una constante, lo que significa que en ningún caso dicha velocidad varía. Realizando un cálculo sencillo, en base a esa velocidad y sabiendo la distancia del tubo, sabremos el tiempo que tarda el haz de luz en llegar al espejo y volver. ¿Qué pasaría si tardara menos el haz de luz en completar el ciclo? Sabemos que la velocidad no puede variar, así que lo único que puede pasar es que la distancia entre el espejo y el foco, sea menor (que se pliegue el espacio).

Ondas gravitacionales, mostradas en sonido (Youtube)

Podemos entender ahora como se han podido detectar estas perturbaciones en el espacio.

 Pasamos a hablar de las implicaciones de esto, más allá de la reafirmación de las hipótesis de A. Einstein. Ahora sabemos que podemos observar el cosmos de otra forma que hasta ahora no podíamos, ya que insistimos, es la primera vez que se detectan este tipo de perturbaciones. Una propiedad de las ondas gravitacionales, es que pueden transmitirse a una velocidad superior a la de la luz. Esto nos permitiría obtener información sobre eventos que ocurrieron antes de que la luz llegara a nosotros (entiéndase luz como radiación electromagnética en general, puesto que toda se propaga a dicha velocidad “c”, sea infrarroja, de radio, microondas..). Y pensando un poco, podría llegar algún día a ser un método de telecomunicaciones, con muchas ventajas en la colonización del espacio. La señal que se manda y se recibe, de Marte por ejemplo, tarda varios minutos en llegar desde y hacia la Tierra (el tiempo dependerá de la posición de la Tierra y de Marte, en cada instante). Con este sistema, podría hacerse llegar la información en un tiempo mucho menor ya que hemos comentado que pueden superar la velocidad de la luz. Hoy día ese desfase que hay en las comunicaciones interplanetarias es un inconveniente bastante molesto, ya que ha de dotarse a las sondas y rovers, de cierta autonomía al no poder ser controlados en tiempo real por, usualmente, el Jet Propulsion Laboratory (JPL) de la NASA.

Etiquetado , , , , , , , , , , , , , ,

La obtención de energía por parte de las estrellas

Como hemos comentado en numerosas entradas, las estrellas obtienen energía mediante procesos de fusión nuclear. Vamos a detallar en esta entrada, los distintos tipos de reacciones que ocurren en distintos tipos de estrella, y los explicaremos de forma simple. Los distintos procesos de fusión nuclear llevados a cabo por las estrellas reciben el nombre de nucleosíntesis estelar, o “formación de núcleos”, ya que las estrellas crean elementos nuevos, cada vez más pesados al fusionar.

a9597871f043287fc24ee8652842f57b

En la parte superior la supergigante azul Rigel, en la constelación de orión. En la parte inferior la nebulosa cabeza de bruja (Witchhead nebula).

La fusión del hidrógeno es la forma más elemental y más eficiente de producir energía. En dicho proceso, se combinan cuatro núcleos de hidrógeno para crear un núcleo de helio. La energía producida en dicha reacción es fácilmente calculable por la equivalencia masa energía formulada por A. Einstein. Dicha energía es de aproximadamente 26,7 MeV (Mega Electron-voltios).

Un pequeño inciso en física nuclear, para entender como ocurre esto. Supongamos este mismo caso real, en el que cuatro núcleos de hidrógeno son fusionados para formar uno de helio. Sabiendo la masa de cada núcleo de hidrógeno (masa de un protón), la masa del núcleo de helio debería ser cuatro veces la del hidrógeno. Esto en la práctica no es así, la masa del núcleo de helio es menor que la de cuatro protones libres. Lo que sucede es que, parte de la masa de los protones es transformada a energía, en forma de enlace nuclear fuerte (la fuerza que mantiene unido el núcleo de helio). Entonces decimos que hay un defecto de masa, y este defecto de masa es la energía que se obtiene al fusionarse los núcleos.

Pero los núcleos de hidrógeno no son los únicos que se pueden fusionar. La fusión libera energía hasta el Fe-56, lo que se llama en astrofísica el pico del hierro. Entendemos pues la fusión como el proceso contrario a la fisión (unión y separación). Los núcleos con más nucleones, esto es protones y neutrones, son más fisibles que los que contienen menos. Por contrapunto los núcleos con menos cantidad de protones y neutrones (más pequeños) son más aptos para la fisión. Llegamos hasta el hierro, donde la fusión del mismo ya no nos da energía. Llegados a este punto una estrella no puede obtener más energía de la fusión.

Para hacernos una idea, la máxima energía que se obtiene de fusionar el hierro es de 8,4MeV. Esta energía es mucho menor que la de casi 27MeV, además que los núcleos de hierro son mucho más masivos, lo que quiere decir que habrá menos para una cantidad fija de masa. Esto es lógico ya que el Fe-56 tiene 56 nucleones y el núcleo de H solamente uno. No es raro pues que en el universo haya relativa abundancia de Fe-56 por encima de otros isótopos, con diferencia.

Volviendo a la fusión del hidrógeno (hydrogen burning, en inglés). La serie de reacciones más común es la llamada reacción protón-protón, o cadena p-p. Esta reacción es la más frecuente en estrellas de la secuencia principal tales como nuestro Sol. El proceso es relativamente elaborado pero el global resulta en la reacción ya mencionada, unir cuatro núcleos de hidrógeno en uno de helio. La misma cadena tiene distintas ramas, siendo las más destacables la I, la II y la III (cada una obteniendo menor energía que la anterior). La rama I es la principal, tomando más relevancia la II y la III cuanto mayor es la temperatura de la estrella.

ppchain

La cadena p-p con sus tres ramas, siendo la I la más abundante seguido de la II.

 

Otra forma de obtener energía mediante la fusión es el llamado ciclo CNO. Se refiere a carbono, nitrógeno y oxígeno. Este ciclo es usado para el mismo fin que la cadena p-p, obtener energía fusionando hidrógeno y obteniendo helio. Estos tres elementos (C, N y O) son meros catalizadores, su cantidad es fija y solamente propician la reacción sin ser alterados de ninguna forma.

 

cno_cycle

El ciclo CNO

Ahora que conocemos los principales procesos de fusión del hidrógeno, vamos a pasar al siguiente paso lógico: ¿Qué pasa cuando la estrella ha fusionado todo su hidrógeno? Esto es harto complicado, pero ciertamente cuando el helio empieza a ser abundante y el hidrógeno a agotarse, otro proceso se lleva a cabo. Este proceso se llama triple-alfa, ya que involucra a tres núcleos de helio (partículas alfa) para crear C-12. Esta es la siguiente etapa en la evolución de una estrella de la secuencia principal. Para que ocurra este proceso, es necesaria una gran temperatura. Vamos a entender exactamente qué pasa.

 

triplealphaflash

El proceso triple-alfa

 

La estrella ha fusionado prácticamente todo el hidrógeno en helio y ya no puede mantener el ritmo de fusión ya que se está agotando el hidrógeno. Grandes cantidades de helio se acumulan en el núcleo (ya que el helio es más pesado que el hidrógeno). Al no poder la estrella obtener tanta energía, pierde el equilibrio hidrostático y su núcleo se colapsa ligeramente y se contrae. Esta presión aumenta la temperatura del núcleo y permite que se llegue a temperaturas de hasta cien millones de grados, y se lleve a cabo el proceso triple-alfa. En parte es necesaria dicha temperatura ya que uno de los primeros pasos, es ligeramente endotérmico.

 

La quema del carbono y elementos posteriores son menos frecuentes y liberan, como hemos dicho, una energía mucho menor. Debido a su menor relevancia, no entraremos en detalles en esta entrada. Comentar que dichos núcleos son del neón, del oxígeno y finalmente del silicio. Cada proceso al tener la estrella menos cantidad de los núcleos disponibles, y estos al proporcionar menos energía, duran menos. El caso más curioso es el del silicio, que permite a la estrella sobrevivir tan solo un último día más antes de colapsar y morir. Se puede apreciar en la siguiente ilustración, junto a lo anteriormente explicado:

 

f3

 

 

Etiquetado , , , , , , , , , , , , , , ,

El tiempo, la física clásica y la moderna

El tiempo no es más que una sucesión de eventos y cambios.

La dirección del tiempo está definida como positiva hacia un nivel de entropía en aumento. Esto significa que nuestro universo se vuelve más entrópico u desordenado, y si los sucesos ocurren para tal fin, deducimos que el tiempo está transcurriendo en su sentido natural. Por ejemplo si hacemos estallar un edificio, lo más probable es que nos quede un montón de runas y restos irregulares del mismo. Esta sería la evolución lógica (entrópica) del tiempo. Por otro lado, si colocamos explosivos en un montón de runas y escombros, es altamente improbable que de la explosión resulte un edificio.

entropy1

El ejemplo anterior es ampliamente usado cuando se habla del tiempo, y se explica la evolución de un sistema termodinámico. Realmente la segunda opción podría ocurrir, pero es infinitamente improbable, tanto que se da por directamente inconcebible.

Ahora que hemos definido una dirección hacia la que transcurre el tiempo, podemos empezar a contemplar otras propiedades del mismo. La más obvia es, la velocidad a la que transcurre. Es obvio que podemos afirmar que el tiempo transcurre a razón de 1:1, o lo que es lo mismo, transcurre un segundo cada segundo, una hora cada hora, etc… Podemos basarnos en la relatividad, tanto especial como general, expuesta por Albert Einstein, para imaginar situaciones en el que el tiempo transcurriría a distinta “velocidad”, respecto a un supuesto tiempo cero que sería el de la Tierra.

La relatividad general (normalmente abreviada como GR,  inglés general relativity) pretende explicar qué le ocurre al espacio-tiempo cuando hay gravedades muy elevadas. Por otro lado la relatividad especial trabaja con velocidades muy elevadas, cercanas a la de la luz. Parece obvio que hay un patrón en la relatividad de A. Einstein, y así es. Pero bien existe una mecánica clásica o newtoniana, que nos permite trabajar con velocidades, tiempo, gravedad, etc… Puede surgirle la duda al lector, de qué diferencia hay entre los postulados de Newton y los de Einstein, y precisamente hemos explicado ya la esencia: las cantidades.

Las leyes de Newton son leyes, y se aplican como tales, pero desde el estudio de Einstein se ha visto que las leyes de Sir Isaac Newton eran una aproximación. Una aproximación que funciona perfectamente para velocidades lejanas a la velocidad de la luz (300.000 km/s) y con gravedades relativamente pequeñas. Sin embargo, dichas leyes de Newton pierden la precisión cuando tocamos estas condiciones mencionadas. Realmente las de Einstein son aplicables siempre, pero se suelen relegar en dichos casos especiales, ya que las de Newton son suficientemente precisas y lo que es más importante, más sencillas de desarrollar (matemáticamente).

La mecánica clásica también pierde su validez, no solo en velocidades y gravedades muy elevadas, sino a escalas muy pequeñas, del orden del núcleo atómico. De eso se desarrolla la mecánica cuántica, que junto a la relatividad (y alguna otra disciplina), forman parte de la llamada física moderna, en contraposición a la clásica.

012btime2btravel2bmachine

No entraremos en detalles sobre la posibilidad de viajes en el tiempo, ya que esto nos gustaría dejarlo para otra entrada, pero si avanzar que los viajes hacia el futuro a más velocidad que la actual, son perfectamente posibles (como comentamos en una entrada anterior, sobre relatividad especial). Hay más controversia y quizá poca unanimidad entre la comunidad de física sobre los viajes hacia el pasado. La existencia de diversas paradojas y la quizá probable violación de la segunda ley de la termodinámica (el hecho de que aumente la entropía) son condiciones que pesan mucho a la hora de tomar semejante idea como posible. Sentamos así la base para una entrada destinada a ver con menos ficción los viajes en el tiempo, con menos ficción que en la ciencia ficción y con más ciencia, por supuesto.

Etiquetado , , , , , , , , , , ,

Cosmología física

La cosmología como tal, es el estudio del universo o “cosmos”, tanto su nacimiento (cosmogonía) como su evolución, composición y posible final.

Es una rama teórica de la astrofísica, que cuenta con varios físicos de renombre tales como Stephen Hawking, Albert Einstein o Edwin Hubble. En esta disciplina se hacen avances continuamente, y es una de las más dinámicas dentro de la física, debido también al tamaño de la empresa a la que se dedica.

Podríamos decir que la cosmología física moderna nace a partir de las formulaciones de A. Einstein, que por primera vez describe nuestro universo como un universo plano, homogéneo e isótropo. Esto sucede antes de que se conozca la existencia de otras galaxias, ya que se creía que todos los objetos que podíamos ver y existían en el universo, formaban parte de una sola estructura (una Vía Láctea enorme, en cierto modo). Años más tarde, E. Hubble formuló su famosa Ley de Hubble, sobre el corrimiento al rojo de galaxias lejanas.

 

2xcluster

 

Antes que nada, definamos nuestro universo, como lo hizo Einstein hace un siglo, y entendamos qué significa. Un universo plano no significa otra cosa que la curvatura es nula, al menos localmente. Lo que nos viene a decir esto es que se cumple la geometría euclídea, que podríamos definir de forma poco apropiada pero más entendible, que una recta se alejará siempre de su “inicio”, no acabará dando la vuelta al universo y volviendo al punto inicial (como pasa con una esfera, pero no en una hoja de papel, por ejemplo). Einstein demostró que el espacio puede curvarse (y de hecho lo hace), pero esto en condiciones puntuales y localizadas.

Tenemos por otro lado la homogeneidad y la isotropía. Estas palabras solamente indican que el universo es más o menos regular y en todas las direcciones, a escala global. A comentar sobre la isotropía fueron los resultados del satélite WMAP sobre la CMB (cosmic microwave background, o radiación cósmica de fondo) presentaban anisotropías, esto es, irregularidades en función de la dirección de la medida. Estas anisotropías, serían dadas por pequeñas fluctuaciones debidas al estallido primordial o Big Bang, y reafirmarían esta teoría sobre la formación de nuestro universo. Finalmente estos datos resultaron ser interferencia de polvo y gases interestelares presentes en nuestra galaxia, aún así el Big Bang es la teoría más sólida hoy día.

Posteriormente al trabajo de A. Einstein, De Sitter formuló la métrica de un universo homogéneo e isótropo, pero vacío (sin materia). Esta métrica es de interés teórico. Posteriormente se desarrolló la métrica usada hoy día en muchos casos, la métrica FLRW (Friedman-Lemaitre-Robinson-Walker), que describe un universo en expansión, también homogéneo e isótropo, como sería nuestro universo actual. En esta métrica destacan varios términos, como uno para la curvatura del espacio y uno llamado el factor de escala. El factor de escala es dependiente del tiempo, y varía la métrica en función de este. El factor de escala cambia su valor tan lentamente que el valor actual es considerado una constante, aunque si quisiésemos ser extremadamente precisos, deberíamos tener en cuenta que no lo es. Esta métrica es también una solución a las ecuaciones de Einstein en el marco de la relatividad general.

Etiquetado , , , , , , , , , , , , , , ,

Habitabilidad planetaria, más a fondo.

En una entrada anterior, ya comentamos brevemente el tema, y las necesidades que presentan las formas de vida terrestres para sobrevivir. Esta entrada, y posiblemente partes posteriores, pretenden ahondar más en el tema, que podría ser clave en el futuro de la humanidad.

Antes de nada repasaremos brevemente dichas condiciones necesarias. Temperatura, luz, gravedad, composición y presión atmosféricas. Son las principales características que deberíamos considerar a la hora de escoger un planeta para colonizarlo. La temperatura es muy importante, para la existencia de agua líquida (no solo digamos, la que forma parte del planeta en si, sino el propio agua que poseemos en nuestros cuerpos) en su superficie. La luminosidad es un factor a tener en cuenta, en el cual mayoritariamente afecta el tipo de estrella y la distancia a la misma, así como la composición y proporciones de la atmósfera del planeta. La gravedad viene determinada por el tamaño y la densidad del planeta, e influye en una de las últimas propiedades, la presión atmosférica. Dicha presión debe estar dentro de unos valores para que podamos respirar los gases, así como dichos gases deben ser unos de concretos y en proporciones también determinadas (el oxígeno, por ejemplo).

Varias propiedades vienen derivadas, como hemos expuesto, del tipo de estrella del sistema planetario. Para empezar nos centraremos en evaluar el tipo espectral de una estrella, y en base a las características de la estrella, deducir cuales serían más propensas a albergar planetas habitables. (Nota: se requieren ciertos conocimientos previos, que en su gran mayoría pueden adquirirse en anteriores entradas de este blog, en el apartado de astrofísica).

Podríamos descartar fácilmente las estrellas menos aptas para albergar planetas habitables, y luego analizar las restantes. Las estrellas de población II y las hipotéticas de población III quedarían totalmente descartadas, al tener una metalicidad insuficiente.

Para el desarrollo de la vida tal y como la conocemos, se requiere de una cantidad razonable de años. Las estrellas de la rama asintótica, así como gigantes y supergigantes quedarían descartadas, debido a la inestabilidad de las mismas y a la corta vida de estas últimas. De haber habido suficiente tiempo para que la vida proliferara, se habría perdido ya debido a dicha inestabilidad.

Por temas de luminosidad descartamos a las estrellas de tipo espectral O, B y A. Son estrellas con demasiada masa, luminosidad y temperatura superficial. Los tipos espectrales más deseables se encuentran en el tipo G, y tipo F bajo (F8, F9..) o K alto (K1, K0..). Recordemos que el tipo espectral del Sol es G2.

Esto nos lleva a preguntarnos algo. ¿Son los sistemas de enanas rojas, potencialmente habitables? Esta pregunta es bastante importante ya que existe un número muy elevado de enanas rojas en la galaxia y universo probablemente, además de su longevidad.

602111_extrasolar-planet-gliese-581-g-orbiting-a-red-dwarf-star

A priori se podría caer en la afirmación fácil, y decir que pueden existir dichos planetas habitables, pero hay factores que dificultan tal respuesta:

Debemos considerar que una enana roja posee una masa muy reducida. El radio orbital de un planeta con un tamaño apto (que genere una gravedad de aproximadamente 1G), debería orbitar extremadamente cerca de la estrella. Este poco radio orbital deriva en un posible acoplamiento de marea o sincronía orbital del planeta hacia la estrella. Esto es, una cara del planeta siempre estaría iluminada, y la otra de noche, al igual que pasa con la Luna y la Tierra.

b7ffccbff80647c383d964f7ba61ba28

El planeta debería estar cercano a la estrella para recibir suficiente energía para tener una temperatura habitable, ya que una enana roja es una estrella fría y pequeña. Dicho acoplamiento resultaría en una zona del planeta totalmente caliente y una totalmente fría. Una posibilidad sería que se originara vida en el terminador (zona con puesta/salida de sol permanente). Se han hecho estudios al respecto de vida en sistemas de enanas rojas, algunos han llegado a la conclusión que la vida vegetal sería posible en dichos planetas, pero que posiblemente dichos organismos serían negros (las plantas, árboles..). Esto sería para aprovechar el máximo de energía que emite la estrella, que por la ley de Stefan-Boltzmann sabemos que se encontraría en gran parte en el infrarojo.

En próximas entradas seguiremos ahondando en el tema, para no saturar una sola entrada con demasiada información, siguiendo en la línea de ciencia políticamente incorrecta.

Artículo relacionado con los planetas de enanas rojas.

Etiquetado , , , , , , , , , ,

Reactores de fusión nuclear

Recientemente se ha puesto en marcha un reactor de fusión en el Instituto Max Planck de física del plasma (Alemania), el Wendelstein 7-X. Aprovecharemos la noticia para hablar un poco sobre dos tipos de reactores de fusión nuclear que son bastante usados en la actualidad. El más popular quizá es el reactor de origen ruso Tokamak. Tiene una geometría de forma toroidal (de donut, para que nos entendamos) y usa confinamiento magnético. Esto significa que el plasma resultante de la fusión nuclear está levitando en su interior, confinamiento magnético. Este mismo sistema se usa en el reactor stellarator (o reactor estelar).

Vamos a entrar un poco en las bases físicas que sostienen todo esto. El plasma es un estado de agregación de la materia por el cual, los electrones de la misma se mueven con libertad por dicho plasma (podríamos definirlo como una especie de fluido). Esto le confiere carga al plasma, por lo que se puede aplicar fuerzas de Lorentz. Dicha fuerza es la recibida por una partícula cargada (el plasma) en el seno de un campo electromagnético. Entonces, si creamos un campo electromagnético uniforme en todas direcciones deberíamos poder contener el plasma en la zona central de una estructura en forma de tubo. El problema de esto es que, el plasma recibiría una fuerza que haría que se saliera de dicho tubo. La solución es sencilla, unir el tubo con si mismo, creando así una estructura de forma toroidal.

Interior del Wendelstein 7-X

Como crear el campo electromagnético es sencillo, se añaden unas bobinas alrededor de la estructura ya descrita. El problema reside en que, en la zona exterior del toro, el campo magnético será menos intenso ya que la superficie en dicha zona es mayor que en la de la parte interior. Esto provoca fluctuaciones que resultan en pérdida de confinamiento de parte del plasma. Debemos entender que dicho confinamiento es necesario, ya que durante la fusión se adquieren temperaturas muy elevadas. El Wendelstein 7-X ha alcanzado temperaturas de un millón de grados Celsius, y se prevé que pueda alcanzar los 100, mayores que las del interior de nuestro Sol. Este plasma en contacto con cualquier material, lo derretiría inmediatamente, perdiéndose así el confinamiento y escapándose el plasma, una catástrofe. Es por esto que es esencial que el plasma levite, y haya el vacío a su alrededor. Recordemos que esencialmente hay tres tipos de transferencia de calor, dicho de forma rápida e imprecisa estarían los de “contacto directo” y de “fluctuación” de un gas o líquido (conducción y convección) y finalmente está el que nos interesa, el de radiación (la “luz” que emite la materia). Al estar en el vacío, no hay aire que pueda calentarse y transferir el calor del plasma a la estructura, y al estar levitando no toca las paredes de la misma. Así que solo hay pérdida por radiación.

Ahora entendemos la importancia del confinamiento electromagnético del plasma. El tokamak soluciona el problema antes descrito, induciendo una corriente en el propio plasma que lo compensa. Las dificultades residen en que este propio flujo de electrones desestabiliza el plasma en si. La solución del stellarator es añadir electroimanes en la zona donde sea requerido, además que las bobinas del mismo son helicoidales y no circulares.

El Wendelstein 7-X en construcción.

El tokamak es especialmente famoso ya que del dicho tipo es el nuevo reactor de fusión ITER que está actualmente en construcción en Francia, y en el proyecto han participado numerosos países tales como EEUU, Japón, la Unión Europea, Rusia, China, la India… Estará en funcionamiento sobre el 2020, y nos ayudará a entender más a fondo la fusión nuclear, y su viabilidad como fuente de energía limpia. Tengamos en cuenta que, no se ha conseguido estabilizar la reacción de fusión para que se obtenga más energía de la que se aporta para “encender” el reactor. Entonces, la fusión nuclear existe y podemos producirla, pero a cambio de pérdida de energía (hecho poco deseable). Un gran punto a favor de este fuente de energía es que, si bien el deuterio es reactivo, los productos de la reacción no lo son (helio, gas inerte y ya existente en relativa abundancia en nuestro planeta), por lo que es una energía limpia.

El complejo del ITER en construcción.

Etiquetado , , , , , , , , , , , , , , , , ,

La paradoja de Olbers

La paradoja de Olbers defiende que, si el universo es infinito, el cielo debería verse completamente luminoso debido a una cantidad infinita de estrellas en todo el universo iluminándolo en su totalidad.

Obviamente esto no sucede, o no habría noche y la temperatura de nuestro planeta sería de miles de grados. Se han propuesto varias explicaciones, ya que en principio las bases de la paradoja de Olbers son correctas.

Primero debemos entender que una estrella se ve mayor o menor en función de la distancia. Puede parecer trivial ya que, lógicamente incluso en nuestro día a día, nos exponemos a dicha condición al acercarnos a cualquier objeto (y lo vemos aumentar de tamaño aparente). La relación reside en la distancia pues, concretamente los fotones emitidos por una estrella cualquiera deben distribuirse de forma esférica en todas las direcciones, por lo que podríamos considerar que se distribuyen sobre una superficie esférica de la cual su radio es la distancia a la estrella. Como sabemos, dicha superficie no aumenta su tamaño de forma lineal, al tratar con una superficie lo hará a razón del cuadrado del radio (que, insisto, será la distancia a la estrella). Entonces, una cantidad concreta de fotones, o podríamos decir de forma poco correcta, intensidad, se distribuye en cada vez una superficie mayor, esa misma “intensidad”. Entonces, hablando de distancias interestelares, ese radio es tan elevado que estrellas enormes y muy luminosas no nos parecen más que simples puntos de luz en el cielo nocturno.

La primera de las explicaciones a la paradoja de Olbers es quizá la más simple de todas. Hay objetos opacos, esto es, que absorben la luz. Dichos objetos estarían a temperaturas considerablemente altas debido a la energía absorbida, eventualmente reemitiendo la energía en alguna zona del espectro electromagnético (ver ley de Stefan-Boltzmann).

Otras soluciones proponen que, si el Big Bang sucedió en una fecha concreta, oficialmente hace 13.700 millones de años, hay una cantidad finita de luz que nos ha podido llegar (ya que la luz viaja a una velocidad constante c). Además, si el universo se expande, y así parece ser, la luz de estrellas muy lejanas sufren un corrimiento al rojo considerable, reduciendo la frecuencia de dichas ondas y desapareciendo así del espectro visible.

Hay más propuestas, algunas incluyendo que la cantidad de Hidrógeno disponible en el universo se ve reducida a medida que transcurre el tiempo debido a las reacciones de fusión nuclear de las estrellas que lo convierten en Helio. Así pues, muchas estrellas mueren y no pueden crearse otras si no hay una cantidad mínima de Hidrógeno. Esto explicaría que hay estrellas que mueren y no se forman otras para suplir dicha falta. No hay métodos a gran escala para generar hidrógeno, ni que sucedan de forma esporádica (requieren de aporte energético para producirse), dicho proceso violaría la segunda ley de la termodinámica y se da por imposible.

Lo cierto es que no se sabe cual es la explicación que realmente es la buena, o cuales. Quizá no es ninguna de las existentes hasta la fecha, así que si a alguno se le ocurre una buena opción, no se llegará a ganar el premio nobel de física, pero si que será reconocido por la comunidad.

Etiquetado , , , , , , , , ,

Breve explicación sobre el modelo atmosférico de celdas

A lo largo de la historia se ha intentado crear modelos que se adaptaran a la atmósfera que posee nuestro planeta. Varias opciones, cada vez más complejas (y próximas a la realidad) se han ido formulando. Debemos entender que la atmósfera es cambiante y posee circulación.

Como bien sabemos la Tierra está inclinada respecto a su plano orbital (unos 23,5º). Esto es lo que permite que existan las estaciones. Cuando, debido a dicha inclinación, el Sol incide de forma más perpendicular a la superficie de un lugar, se dice que ahí es verano.

Vamos a considerar distintos puntos de la Tierra para un momento determinado. Supongamos que es invierno en el hemisferio norte, por lo tanto los rayos del Sol inciden de forma más perpendicular en el hemisferio sur (ya que ahí es verano) y si estamos en el hemisferio norte vemos la estrella baja en el cielo. Los fotones procedentes del Sol deben recorrer más distancia y su intensidad se ve reducida en función del seno del ángulo de incidencia respecto la superficie (siendo máximo cuando es perpendicular a la misma, esto es, seno de 90º o p/2 rad).

El concepto del párrafo anterior, de “intensidad” de los rayos, variará en función del ángulo de incidencia pues. Y sabemos que la Tierra es esférica, por lo que depende del punto que nos encontremos de la misma, el ángulo de incidencia del Sol será distinto. No cuesta demasiado ver que donde el ángulo será menor es cerca del Polo Norte en la situación antes descrita, aunque no exactamente en el mismo.

Todo esto nos permite ver que habrá distintas temperaturas en función de la latitud, algo obvio pero muy importante. Lógicamente en el desierto hará calor y en el Polo Norte frío. Esto propicia una circulación atmosférica, debido a esta diferencia de temperaturas. Como sabemos, un gas si se calienta se expande, disminuyendo su densidad y ascendiendo. También podemos definir el concepto inverso, que sería el de un gas que se enfría, se vuelve más denso y desciende (“cae”).

Estas dos situaciones son aproximadamente las que suceden entre dos celdas, del modelo de celdas atmosféricas. En él se proponen diversas celdas donde el aire va circulando en un ciclo cerrado. Estas celdas vienen determinadas únicamente por la latitud. Concretamente existen tres celdas por hemisferio (siendo las mismas repetidas en el otro, como si se tratara de un espejo).

Estas celdas o células son: celda de Hadley (entre 0 y 30º de latitud), celda de Ferrel (de 30 a 60º) y celda polar (de 60 a 90º).

Las uniones entre distintas celdas pueden crear zonas de convergencia o divergencia (zonas de ascensión de aire o de descenso). Hay que imaginas las celdas como una rueda que gira en un sentido, entonces, cuando en el punto en el que están juntas dos celdas, ambas “giran” hacia un sentido (por ejemplo, ambas suben en ese punto) habrá una zona donde el aire ascenderá, pudiendo crear los denominados chorros o jet streams (el subtropical y el polar).

Esto crea zonas de formación de nubes, y ayuda a explicar parte del clima ya que podemos saber en qué zonas será más frecuente que ocurra dicho proceso, además de que suele haber vientos más pronunciados.

El efecto Coriolis también es muy importante a la hora de definir la dinámica de la atmósfera, así como incluso de los océanos de forma indirecta. Pero de él hablaremos en otra entrada.

Etiquetado , , , , , , , , , , , , , , ,

Novas y supernovas

Una supernova tiene tal nombre ya que, en la antigüedad, se veía una estrella “nueva” donde antes no había ninguna (nova). El prefijo super- se usa para designar una nova muy brillante, aunque esto suele denotar también un proceso diferente.

 

Supernova SN1994D, del tipo Ia. Se aprecia en la esquina inferior izquierda, ocurrió en el exterior de la galaxia NGC 4526.

 

Una nova suele producirse cuando, en un sistema binario de estrellas (dos estrellas orbitando la una a la otra, y bastante juntas) hay absorción de masa de una a la otra. Una de ellas es una enana blanca, y la otra una estrella de la secuencia principal por ejemplo. Eventualmente la estrella de la secuencia principal puede pasar a ser una gigante roja y aumentar su volumen, por lo que la superficie de ésta estará más lejana al núcleo de la estrella y será más susceptible a ser atraída por la estrella compañera. La enana blanca acumula Hidrógeno que atrae de la estrella vecina, y se acumula en su superficie, que tiene una temperatura suficiente para llevar a cabo la fusión nuclear. Así pues, una nova es una “mancha” de Hidrógeno en la superficie de una enana blanca, que “explota”.

El anterior proceso es mucho menos violento que el de una supernova. Hay distintos tipos de supernova, el desenlace de la mayoría es fatal (acaba en la destrucción de la estrella como tal). Las supernovas de tipo Ia son similares a las novas descritas en el párrafo anterior. Una enana blanca, de nuevo en un sistema binario, absorbe tanta masa de la compañera y a una velocidad enorme que se ve recubierta de los elementos de dicha estrella. Llega un punto en el que la enana blanca tiene tanta masa, que puede fusionar al acto todo su núcleo (lo que antes era la propia estrella). Este proceso ocurre de forma instantánea, colapsándose primero dicho núcleo y luego las capas más exteriores, liberando una cantidad de energía que la humanidad no podría consumir en miles de millones de años, en apenas unos segundos.

 

Concepción artística de una supernova.

 

Para comprender aproximadamente de qué números estamos hablando, hace falta saber que se elaboró una nueva medida para hablar de la energía que se produce en una supernova, el foe. El consumo aproximado de todo el planeta en el año 2005 fue de 5×10^20 J, o lo que es lo mismo, un 5 seguido de veinte ceros (en Julios). Un foe equivale a 1×10^44 J, y una supernova puede emitir varias veces esa cifra. Puede parecer que no es tanta la diferencia, pero las apariencias engañan. Veinticuatro ceros, que es lo que separarían estas dos cifras, equivalen a un cuatrillón, o sea, un millón de un millón de un millón de un millón de veces. Se estima que el universo tiene 13,700 millones de años de antigüedad, vamos a escribir los años de energía (en base al año 2005) que nos proporcionaría una supernova, y a compararlo con el tiempo que lleva existiendo nuestro universo: 13,700,000,000 años (edad del universo); 1,000,000,000,000,000,000,000,000 años (años de consumo como el 2005). Así pues podemos ver que tendríamos suficiente energía para consumir durante trillones de “universos”.

Por supuesto estas cantidades son inimaginables, pero uno puede hacerse a la idea al menos, de lo enorme de las cifras en las que se mueven varios fenómenos del cosmos. O en su defecto, de las ridículas cantidades que maneja el ser humano referente a ellos mismos.

Etiquetado , , , , , , , , , , , , , , ,