Un estudio explica por qué la piel no se disuelve en agua pero sí se arruga

Fuente: Physorg
Autor: Lin Edwards

Un nuevo estudio realizado por matemáticos australianos explica por qué la piel se mantiene estable en el agua y no se disuelve. También da las razones por las que se arruga y, a pesar de absorber grandes cantidades de agua, se comporta como una gran barrera que no permite el paso del líquido.

Myfanwy Evans, matemática del Research School of Physics and Engineering de la Universidad de Canberra y varios compañeros desarrollaron un modelo para la piel que intenta explicar cómo se organizan las fibras de queratina de la piel. La queratina es una proteína fibrosa que también se encuentra en las uñas y el pelo. Los científicos ya sabían que las redes de queratina cumplían un papel muy importante en la piel, pero hasta ahora nadie había descrito su estructura.

Tras un tiempo sumergida, la piel se expande, produciendo arrugas similares a las de las ciruelas pasas. Varios investigadores habían especulado sobre una expansión de la capa córnea al absorber agua, pero nadie había explicado por qué la piel no se destruía al expandirse.

Se sabe que la queratina previene la evaporación de la piel y absorbe agua para ayudarle a hidratarse. La capa córnea también da a la piel la capacidad de estirarse y contraerse.

Utilizando modelos por ordenador, Evans analizó el problema desde un punto de vista geométrico para intentar explicar por qué la piel mantiene su rigidez estructural tras largos períodos sumergida. Explicó que la capa exterior de la piel contiene un patrón tridimensional de fibras de queratina que se unen para formar una estructura capaz de actuar como una esponja.

Las fibras son helicoidales cuando se secan, pero se refuerzan al absorber agua, lo que les permite absorber una gran cantidad de líquido. Todos los contactos entre las fibras se mantienen intactos durante la expansión y esto hace que el material tenga una estructura estable, comentó Evans.

El estudio también describe que si se sumerge la piel en agua durante 24 horas, la piel puede sufrir un daño irreparable.

Evans se especializó en el estudio de los giroides, que son figuras matemáticas descritas por Alan Schoen en 1970. Desde entonces, se han encontrado giroides en la naturaleza, como en mariposas, que les permiten obtener esos colores vivos.

Evans dijo que una mejor comprensión de la geometría de las arrugas podría ayudarles a diseñar materiales con propiedades similares, que puedan encogerse sin perder rigidez.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Un virus tan grande que otros virus le afectan

Fuente: ArsTechnica
Autor: John Timmer
Artículo: Science Express

El año pasado, unos investigadores descubrieron el virus más grande jamás conocido. Con un genoma que de más de más de 7.000 parejas, el virus CroV tiene más ADN que algunas bacterias. Por suerte, infecta a un organismo unicelular que está muy lejos de los humanos en la cadena evolutiva. Ahora, el mismo equipo ha vuelto para anunciar que han descubierto un virus que le ataca y puede arrojar luz sobre los transposones o "genes saltarines".

Al estudiar el CroV, los investigadores descubrieron un virus mucho más pequeño que suele acompañarle. El nuevo virus, al que han llamado Mavirus (contracción de "virus Maverick") tiene un tamaño saludable con más de 19.000 bases de ADN y más de 20 genes. Pero Mavirus nunca aparece sólo; en vez de eso, sólo se activa en células que tienen el virus CroV. Y eso a pesar de que podría entrar en las células por sí solo. Los autores concluyen que probablemente roba a CroV su maquinaria de copia para hacer más Maviruses. Esto concuerda con el hecho de que las infecciones de CroV se ralentizan cuando Mavirus está cerca.

No es el primer virus gigante víctima de un compañero más pequeño. De hecho, hay un término para esto: virofagia. Pero, cuando los autores observaron los 20 genes de Mavirus, no tenían nada que ver con ningún otro virófago. Más bien parecían genes de un tipo específico de transposón.

Los transposones son fragmentos de ADN que se puede mover en el genoma, saltando de un lugar a otro de la cadena. Son tan efectivos que un tercio del genoma humano se compone de diversas formas de transposones, que, a pesar de no aparentan no hacer nada útil, necesitan energía para copiarse.

Los autores sugieren, sin embargo, que los transposones empezaron siendo algo útil. El Mavirus ayuda a proteger las células de CroV, así que células que incorporan una copia permanente de sí mismos podrían ser una ventaja significativa. Una vez en el genoma, sin embargo, el ADN viral podría evolucionar libremente en algo más parecido a un parásito. Los autores predicen que, si miramos en los lugares adecuados, encontraremos virófagos que se corresponden con la mayoría de las familias de transposones.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

En África está creándose un nuevo Océano a gran velocidad

Fuente: Daily Galaxy

En 2005 un volcán etíope entró en erupción, creando una fisura de 35 millas en cuestión de días, algo extremadamente rápido en términos geológicos, sobre todo porque este es probablemente el primer síntoma de que se está creando un océano en Etiopía.

Algunos científicos de varios países han podido confirmar que los procesos volcánicos que tienen lugar debajo de la fisura son casi idénticos a los que se dan en el fondo de los océanos de la Tierra, y creen que la fisura es en sí misma la semilla para un nuevo océano.

Se sabe que los océanos se forman cuando fuerzas magmáticas crean fisuras entre las placas tectónicas, pero dado que todos los lugares en los que pasó algo similar están ahora cubiertos por toneladas de agua no podemos tener claro qué pinta tienen en realidad. Así que un grupo de científicos de diversos países estudiaron el "mega-dique" y descubrieron que cumple casi todas las características de un lecho oceánico.

Imagen: DailyGalaxy
"Este trabajo supone un paso clave en nuestra comprensión de las fisuras continentales que llevan a la creación de nuevos lechos oceánicos", explicó Ken McDonald, profesor de la Universidad de California, quien no tomó parte en la investigación.

"Lo más importante del estudio es saber si lo que ocurre en Etiopía es similar a lo que ocurre en el fondo del océano al que no podemos ir", explicó Cindy Ebinger, coautora del estudio. "Sabíamos que si podíamos demostrar que eso es así, quedaría claro que Etiopia sería un laboratorio excepcional en el que poder estudiar los océanos. Gracias a la colaboración de varios países que hemos tenido, podemos asegurar que es así, es lo mismo".

Atalay Ayele, profesor de Addis Ababa University en Etiopía, lideró la investigación, obteniendo datos sísmicos del suceso que aconteció en 2005 y que dio lugar a la enorme fisura de más de 6 metros en pocos días.

Junto con la información sísmica recogida en Etiopía, Ayele utilizó datos de Eritrea con la ayuda de Ghebrebrhan Ogubazghi y de Yemen en colaboración con Jamal Sholan. El mapa que dibujó con los lugares en los que ocurrieron los terremotos en la región se ajusta muy bien con los análisis más detallados que Ebinger realizó durante años.

la reconstrucción del suceso que hizo Ayele mostró que la fisura no se abrió por una serie de pequeños terremotos en un período largo de tiempo, si no que se rompió en muy pocos días. Un volcán llamado Dabbahu en el extremo norte de la fisura entró en erupción al principio, luego el magma subió a través del área rota y comenzó a "desabrochar" el resto del terreno en ambas direcciones, explicó Ebinger.

Desde el suceso de 2005, Ebinger y sus compañeros han instalados sismómetros y han medido 12 eventos similares, aunque mucho menos importantes.

"Sabemos que los arreciges oceánicos se forman a partir de una intrusión similar de magma en una fisura, pero nunca habíamos imaginado que una longitud tan grande podía romperse de una vez y de esta forma", admitió Ebinger. Explicó que, dado que las áreas en las que ha ocurrido algo similar están cubiertas por agua, es casi imposible monitorizar una pequeña sección del arrecife por lo que es imposible que los geólogos sepan qué proporción del arrecife se rompe de una vez.

"Los lechos oceánicos están dividios en secciones, cada una de las cuales puede medir cientos de millas. Gracias a este estudio ahora sabemos que cada uno de esos segmentos puede abrirse en cuestión de días".

La gran velocidad es lo que ha impresionado a los científicos: se suponía que estos sucesos ocurrían lentamente en pequeños pasos, no que hubiese ascensiones tectónicas instantáneas que cortan la Tierra en menos de una semana. Estábamos equivocados. Esto lanza interesantes preguntas, tanto para los que estudian los procesos geofísicos que formaron la Tierra en la que vivimos como para los que viven cerca de una región sísmica.

Incluso con esta aceleración, pasará mucho tiempo antes de que la falla etíope se convierta en un problema. Pero este repentino punto de partida será un lugar de interés oceanográfico hasta entonces.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Resuelto el misterioso caso de la disminución de manchas solares

Fuente: SPACE
Autor: Charles Q. Choi
Otros enlaces muy recomendados de interés: Francis The Mule News (inglés y español)

La fuente de una misteriosa disminución de manchas solares en los últimos años se originó, según una nueva investigación, debajo de la piel de la estrella.

Las manchas solares son regiones oscuras, más frías que la superficie del sol dominadas por campos magnéticos muy fuertes. Estos son los lugares de los que salen tormentas de partículas cargadas que generan las auroras de la Tierra, pero también pueden hacer estragos a los componentes electrónicos que están en el espacio, afectar al tráfico aéreo de las regiones polares y afectar a las redes eléctricas de la Tierra.

Fuente: NASA
"Las manchas solares se llevan observando de forma más o menos continua desde que Galileo creó su telescopio a principios del Siglo XVII", comentó Dibyendu Nandi del Indian Institute of Science Education and Research de Calcuta, que lideró el estudio.

El sol periódicamente tiene un incremento en el número de manchas, un ciclo que dura unos 11 años. Sin embargo, cerca del Ciclo Solar 23, que tuvo su pico en 2001, la actividad solar entró en un poco usual "mínimo" con un gran número de días sin manchas solares y muy poca actividad magnética.

"Hemos de irnos atrás unos 100 años para encontrar un mínimo solar con un mayor número de días sin manchas", explicó Nandi.

Sin embargo, esta deriva se terminó a finales de 2009. El sol está actualmente en el siguiente Ciclo Solar, el 24.

Para comprender cómo perdió el sol sus manchas, los científicos desarrollaron simulaciones por ordenador del campo magnético solar para simular los ciclos de manchas de 2010.

Al mismo tiempo, variaron la velocidad de la circulación norte-sur (o meridional) del plasma super caliente en el tercio superior del interior del sol.

Los investigadores descubrieron que un flujo rápido meridional de la primera mitad de un ciclo solar, seguido por un flujo más lento en la segunda mitad, lleva a un mínimo de manchas solares, produciendo el mínimo que sufrió el sol en el Ciclo 23.

"Los resultados son emocionantes porque demuestran cómo pequeños cambios en la dinámica interna de nuestra estrella pueden afectar profundamente a nuestra sociedad basada en la tecnología", explicó Nandi.

Estos días sin manchas hicieron que algunos investigadores especulasen con que podríamos estar viendo una repetición del Maunder Minimum, una falta de manchas solares que algunos investigadores vinculan con la mini Edad del Hielo del siglo XVII.

Nandi y sus compañeros Andres Muñoz-Jaramillo y Petrus martens detallarán sus hallazgos en el número de mañana de la revista Nature.

Sigue siendo desconocido qué llevó a estos flujos a cambiar sus velocidades causando la falta de manchas solares.

Esta circulación meridional es movida, en parte, por la energía que viene del interior del sol y las pequeñas diferencias de temperatura entre el ecuador y los polos. Las variaciones en la circulación pueden ser provocadas por cambios en estos factores o por la retroalimentación de los potentes campos magnéticos y los flujos. "No comprendemos al detalle todos los procesos que tienen lugar", aceptó nandi.

Aun así, en principio, se podría extender el modelo, junto con las observaciones del flujo de plasma solar, para hacer predicciones de actividad solar a corto plazo, sugirió Nandi.

"Podemos predecir si vamos a tener un buen tiempo espacial y sobre regiones polares para un período de tiempo y utilizar este conocimiento para planear las misiones espaciales y el tráfico sobre los polos", comentó Nandi.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

¿Por qué los terremotos de Nueva Zelanda provocaron un incremento en la natalidad?

Fuente: Live Science
Autor: Natalie Wolchover

Una semana después de que un terremoto quitase la vida de, al menos, 160 personas en Nueva Zelanda, el país está viviendo una gran cantidad de nacimientos. En Carterbury, la región afectada por el terremoto, las salas de maternidad están desbordadas y han tenido que transferir a niños recién nacidos a otros hospitales.

La tasa de natalidad también creció justo después de un terremoto de 7 grados que hizo temblar la misma región el pasado septiembre.

Vista satelital del teremoto de NZ. Fuente: NASA
"Los terremotos tienden a acelerar los partos", explicó el Director de Salud de Carterbury. La directora de maternidad de la región, Samantha Burke comentó que "es como si, anecdóticamente, la gente entrase en modo supervivencia".

Los estudios han demostrado que un pico de estrés durante el embarazo puede activar, en ocasiones, una hormona que induce al parto prematuro.

Pero la tasa de natalidad no crece sólo tras los desastres naturales. También crece nueve meses después.

El terremoto de 8.8 grados que sacudió Chile hace un año, por ejemplo, dejó un baby boom nueve meses después. "Hemos encontrado un incremento claro en las consultas ginecológicas en las áreas más dañadas por el terremoto", comentó el Ministro de Sanidad chileno en noviembre.

Lo mismo ocurrió nueve meses después del de Haití. Según una encuesta sobre salud reproductiva realizada por el Fondo Poblacional de la ONU, la fertilidad se había triplicado en las áreas urbanas del país desde el desastre.

Un representante del Fondo, Igor Bosc dijo que los problemas en las infraestructuras tienen que ver. "La mayoría de los hospitales capaces de dar servicios se destruyeron en las zonas más pobladas del país", comentó Bosc. Esto supuso una dificultad por parte de las mujeres para acceder a los anticonceptivos.

Además de menos condones, los supervivientes del desastre quizá también incrementaron su actividad sexual.

El sexo es una forma de lidiar con el estrés, explicó un periodista haitiano. "En esas situaciones difíciles, la gente intenta lentamente reconstruir sus vidas", comentó Fredrick Hean Pierre. "Hay mujeres que se entregan a un hombre para beneficiarse de su protección en zonas rurales. Otras se venden para conseguir agua y comida. A veces es el único medio para conseguirlo. Esto pasa bastante".

No tener nada que hacer también influye. Nueve meses después del apagón de Nueva York de 1965, los nacimientos aumentaron. "Las luces se apagaron y la gente sólo podía interactuar unos con otros", explicó Paul Siegel, sociólogo. Algunos escépticos, sin embargo, aseguran que sólo hubo una fluctuación sin importancia.

Los medios informaron de picos de natalidad en toda la costa Este los dos últimos otoños y lo atribuyeron a grandes tormentas de nieve.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Un experimento demuestra cómo se puede evitar la paradoja del abuelo

Fuente: Physorg
Autor: Lisa Zyga

Entre los muchos misteriosos conceptos de las teorías relativistas de Einstein está la idea de las Curvas Cerradas de Tipo Tiempo (CTC), que son caminos del espacio-tiempo que vuelven a sus puntos iniciales. Como tales, las CTCs ofrecen la posibilidad de viajar en el tiempo. Pero, como muchas películas de ciencia ficción han explicado, el viaje en el tiempo está lleno de posibles paradojas. Probablemente la más conocida de ellas es la paradoja del abuelo, en la que el viajero vuelve al pasado y mata a su abuelo, previniendo su propio nacimiento.

Fuente: Physorg
En un nuevo estudio, un equipo de investigadores ha propuesto una nueva teoría de los CTCs que puede resolver esta paradoja, e incluso han llevado a cabo un experimento que muestra cómo funciona su sistema. Los investigadores, liderados por Seth Lloyd del MIT, junto con científicos de Piazza dei Cavalieri de Pisa, la Tokyo Institute of Technology y la Universidad de Toronto, han publicado su estudio en el último número de Physical Review Letters. Los conceptos del estudio son similares a los de otro publicado en arXiv.org el año pasado.

En la nueva teoría, se obliga a que los CTCs se comporten como los canales cuánticos ideales del tipo involucrado en la teletransportación. En esta teoría, los CTCs auto consistentes (los que no tienen paradojas) son seleccionados a posteriori y se llaman "P-CTCs". Como explican los científicos, esta teoría difiere de la aceptada comúnmente, propuesta por David Deutsch, en la que un viajero mantiene la auto-consistencia al viajar de vuelta a un pasado diferente del que recuerda. En la formulación P-CTC, los viajeros deben viajar al pasado que recuerdan.

Aunque los P-CTCs pueden parecer complicados, la verdad es que pueden ser analizados experimentalmente en simulaciones de laboratorio. Al enviar un qubit "viviente" (por ejemplo, un bit en el estado 1) unas billonésimas de segundo en el tiempo para intentar "matar" a su "yo" antiguo (por ejemplo, que se ponga a 0), los científicos muestran que sólo los fotones que no se matan a sí mismos pueden hacer el viaje.

Para demostrar esto, los científicos guardaron dos qubits en un único fotón, uno de los cuales representa el qubit que viaja hacia adelante y otro que representa el qubit que viaja al pasado. El que viaja al pasado puede teletransportarse a través del canal cuántico (CTC) sólo si el CTC terminar proyectando ambos qubits entrelazados en el mismo estado.

Después de que los qubits estén entrelazados, sus estados se miden con dos qubits de medida. Luego, una "pistola cuántica" se dispara sobre el qubit que viaja hacia adelante, el cual, dependiendo del ángulo de la pistola, puede o no rotar la polarización del qubit. Los estados de los qubits se miden de nuevo para averiguar si la pistola se ha girado hacia el qubit que va hacia adelante o no. Si ambos qubits están en el mismo estado (00 o 11), quiere decir que la pistola no ha cambiado la polarización y el fotón "sobrevive". Si los estados no son iguales (01 o 10), entonces el fotón ha matado a su "yo" del pasado. Los estados de los qubits siempre fueron iguales, lo que demuestra que un qubit no puede matarse a sí mismo.

Los científicos aseguran que su experimento no puede probar si un CTC real obedece a su nueva teoría, dado que no se sabe a ciencia cierta si en realidad existen. Sin embargo, anteriores investigaciones han probado que, de existir, podrían utilizarse en informática.

Más información: Seth Lloyd, et al. “Closed Timelike Curves via Postselection: Theory and Experimental Test of Consistency.” Physical Review Letters 106, 040403 (2011). DOI:10.1103/PhysRevLett.106.040403

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

El telescopio Subaru descubre un cluster de galaxias clave para la comprensión de la formación estelar

Fuente: Physorg

Un equipo internacional de investigadores, liderado por Ichi Tanaka del National Astronomical Observatory de Japón (NAOJ), ha descubierto un grupo de galaxias que están sufriendo una explosión de formación estelar que podría contener la clave para comprende cómo se formaron las galaxias en las etapas iniciales del Universo.

El grupo está localizado en la Constelación Vulpecula y está a 11 mil millones años luz de distancia, dos mil setecientos millones de años después del nacimiento del Universo, cuando aun estaba en pañales. Este baby-boom galáctico puede ser un proto-cluster, un ancestro de los clusters actuales; parece que aun está convirtiéndose en galaxias de tamaño real. El descubrimiento es el producto de las observaciones llevadas a cabo en 2007 con el Multi-Object Infrared Camera and Spectrograph (MOIRCS) en el Telescopio Subaru y posteriores observaciones realizadas con el Telescopio Spitzer. Al analizar la emisión cercana al infrarojo del Subaru junto con emisiones de infrarrojos medios del Spitzer, los investigadores pudieron identificar que los objetos brillantes del infrarrojo constituían un cluster primario. Este logro muestra cómo la retroalimentación con datos archivados, los avances tecnológicos y la colaboración pueden producir descubrimientos continuos y mejoras en la comprensión del Universo.

Área del cluster.
Los astrónomos están interesados en comprender cómo evolucionaron las galaxias tras el Big Bang, hace 13.700 millones de años, buscan el lugar en el que la transición desde el caos a una estructura "organizada" ocurrió -una "Piedra Rosetta" celestial que pueda clarificar cómo se desarrollaron las galaxias iniciales. Especulan con que la transición a estructuras galácticas probablemente se dio en una etapa desde hace 11 hasta hace 10 mil millones de años. Las imágenes de galaxias durante este período podrían darnos la base para comprender la formación de galaxias. Sin embargo, la observación de objetos tan distantes es complicada.

Aunque los telescopios actuales pueden capturar imágenes brorosas de galaxias antiguas, los científicos necesitan más pruebas que confirmen e identifiquen la naturaleza de los objetos que aparecen en esas imágenes. La velocidad de formación estelar (SFR) es uno de los criterios fundamentales que los astrónomos usan para acotar su búsqueda de galaxias antiguas, dado que el SFR probablemente era bastante alto durante la formación galáctica.

Análisis espectroscópicos de la firma de luz de un objeto pueden dar una estimación del SFR. Las líneas de emisión H-alfa son una de las firmas más populares que los astrónomos utilizan para aproximar el SFR; miden el hidrógeno ionizado en la parte visible del espectro.

Sin embargo, las emisiones atmosféricas comenzaron a restringir las medidas con líneas H-Alfa hasta un corrimiento al rojo de 2.7, una distancia de unos 11.200 millones de años. Cuanto más lejos está la galaxia, más larga es la longitud de onda del espectro; esto se llama "corrimiento al rojo". Un telescopio terrestre no puede pasar de un corrimiento al rojo de 2.7.

A pesar de todo, el equipo pudo identificar una galaxia primordial a unos 11.000 millones de años luz de distancia. Pudieron sortear las limitaciones al medir características de objetos lejanos analizando los datos de emisión de observaciones del mismo área con dos telescopios diferentes en dos momentos diferentes.

En 2007, Ichi Tanaka utilizó el Subaru para hacer observaciones directas del área 4C 23.56, una de las áreas con más posibilidades de albergar los proto-clusters. El telescopio montó el MOIRCS y utilizó un filtro de banda estrecha para detectar las líneas H-alfa a distancias concretas. Las observaciones dieron datos del área que se convertiría en una pieza del mecanismo para indentificar objetos en las observaciones.

Lo más importante para el descubrimiento vino en el verano de 2010, cuando Tanaka, estaba como residente en el ESO. Algunos de los colegas de Tanaka estaban estudiando galaxias distantes y analizando y archivando datos del Spitzer cuando se dieron cuenta de la presencia de objetos con emisiones de infrarrojos medios muy débiles en esa misma zona. En conversaciones posteriores con los astrónomos europeos se dieron cuenta del significado y la importancia de la conexión entre las líneas H-alpha obtenidas del Subaru y las infrarrojas medias del Spitzer.

Los análisis de todos los datos conjuntos dieron lugar a una conclusión muy interesante.

Las observaciones con el MOIRCS mostraron muchas líneas de emisión cercanas al infrarrojo. Aunque esto no era suficiente para establecer una gran velocidad de formación de estrellas, al juntarlo con los datos del Spitzer se pudo concluir que había una explosión de formación de estrellas. Además, la comparación de las velocidades de formación con las de otras áreas mostró una clara diferencia en la actividad de formación estelar.

El descubrimiento sorprendió incluso a los investigadores. Tanaka reflejó con entusiasmo el descubrimiento: "Estas galaxias primarias mostraron una gran velocidad de formación estelar, que se corresponde con la creación de varios cientos de soles cada año. Esta alta velocidad no ocurre en galaxias cercanas, ni en la Vía Láctea. Además, el número de fuentes de infrarrojos medios parece exceder la cantidad que se puede atribuir a los objetos visibles en la emisión H-alfa. Esto indica que podría haber más galaxias ocultas por polvo en las que se están formando estrellas".

Aunque los clusters de galaxias en el universo forman redes grandes y complejas, sólo hay un puñado de proto-clusters conocidos que pertenecen a la era "Piedra Rosetta". El cluster de galaxias descubierto en la observación actual está a 2.5 de corrimiento al rojo. Esto es lo más lejano conocido que se ha podido encontrar con un telescopio desde la Tierra.

El equipo espera poder expandir sus esfuerzos para localizar y decodificar más galaxias de Piedra Rosetta utilizando el Subaru y el Atacama Large Millimiter Array, un interferómetro submilimetral que será construído en poco tiempo.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

La "atomtrónica" puede ser la electrónica del futuro

Fuente: Science News
Autor: Devin Powell

Olvídate de los cables, el silicio y la electricidad. Unos físicos han desarrollado un nuevo tipo de circuito que es poco más que una nube de gas bailando entre rayos láser. Coreografiando los átomos en este gas ultrafrío para que fluyan formando una corriente que puede ser controlada y encendida y apagada, los científicos han dado un paso más hacia la construcción del primer dispositivo "atomtrónico" del mundo.

Formación del Condensado de Bose-Einstein
La "atomtrónica" es un campo bastante nuevo, pequeño y, sobre todo, teórico. Está basado en la idea de que los estados cuánticos poco comunes de los átomos pueden constituir una alternativa a los electronces para crear dispositivos útiles. Los defensores de este campo han dibujado planos para versiones atómicas de muchos de los componentes electrónicos tradicionales -desde cables y baterías a transistores y díodos.

En el Joint Quantum Institute de Maryland, el estudiante Anand Ramanathan y sus compañeros esperan utilizar un gas ultrafrío llamado condensado Bose-Einsten para hacer sensores atomtrónicos. En un artículo que saldrá próximamente en Physical Review Letters, el equipo asegura haber creado este gas al enfríar átomos de Sodio suspendidos en campos magnéticos. Los investigadores atraparon los átomos entre dos rayos láser y los siguieron enfríando a menos de 10 milmillonésimas de grado sobre el cero absoluto. Los dos rayos también modificaron el condensado que se formó a bajas temperaturas para darle la forma de un dónut con un radio de unos 20 micrómetros.

"Tuvimos que tener mucho cuidado al crear la trampa", dijo Ramanathan. "Tuvimos que hacerlo lo más suave posible para asegurarnos de que las imperfecciones jugasen un papel mínimo".

Un segundo par de lásers transfirió la energía al dónut para comenza a girarlo. Dado que los átomos del condensado se comportan como una única partícula coherente, un anillo como este no se acelera ni se frena de forma gradual -salta entre diferentes velocidades, como una licuadora que pudiese cambiar su configuración instantáneamente. Los científicos escogieron la configuración más baja para su anillo: una revolución cada segundo.

Dado que el condensado no tiene fricción, el anillo debería, en teoría, rotar indefinidamente. Como estuvieron limitados por dificultades técnicas, el equipo sólo lo pudo mantener unos 40 segundos, el tiempo que vive su condensado.

"Es la primera vez que alguien consigue un condensado con forma de anillo", explicó Gretchen Campbell, miembro del equipo. "Esperamos utilizar este condensado de una forma parecida a la que se usaron los superconductores para mejorar los sensores".
Her first idea for a useful device was inspired by superconducting quantum interference devices, commonly known as SQUIDs. These devices reveal the presence of very weak magnetic fields by detecting sudden changes of current in semiconductor loops.

Su primera idea para crear un dispositivo útil se inspiró en los dispositivos superconductores de interferencia cuántica, conocidos como SQUIDS. Estos dispositivos revelan la presencia de campos magnéticos muy débiles detectando cambios repentinos de corriente en bucles semiconductores.

Utilizando un principio similar, Campbell cree que el condensado podría darles un sensor extremadamente sensible. Añadieron un "eslabón débil" a su anillo de condensado -una barrera creada por un láser azul que podría acelerar o apagar el flujo. Teóricamente, si el condensado se mantuviese quieto y la barrera se quedase pegada al sensor rotativo, la barrera provocaría un salto en la corriente a ciertas velocidades de rotación.

La idea del equipo de crear un dispositivo electrónico es sólo una de la media docena de laboratorios que buscan lo mismo alrededor del mundo. "Han dado otra herramienta sobre la que trabajar para construir una caja de herramientas atomtrónica", comentó Dana Anderso, física de la Universidad de Colorado.

Todos estos pioneros espera que, para ciertas aplicaciones, los átomos sean más interesantes que los electrones.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

¿Qué pinta tendría una misión interestelar?

Fuente: Discovery News
Autor: Robert Adams

El Proyecto Icarus es un estudio ambicioso para envíar una misión no tripulada a un destino interestelar. Dirigido por la Fundación Tau Zero, en grupo sin ánimo de lucro dedicado a los viajes interestelares, Icarus buscar desarrollar una nave que pueda viajar a una estrella cercana. Robert Adams, director de Advanced Concepts Office de la NASA, asignado al Proyecto Icarus, nos explica en esta entrada cómo pretenden conseguir que la nave llegue a su destino.

Un componente fundamental de cualquier viaje interestelar es el "análisis de la misión", que organiza los objetivos científicos, traza la trayectoria y define los escenarios de corrección y anulación.

Misiones complejas, como la de Icarus, necesitan utilizar diversos fenómenos como la asistencia gravitatoria por parte de planetas y estrellas, maniobras de corrección y otras herramientas.

Proyecto Dedalus. SPACE.com
El analista de la misión debe jugar con todo esto y encontrar la ruta más eficiente equilibrando el coste y el riesgo.

Sin duda el mayor obstáculo que se necesita saltar es la gran distancia que separa una estrella de otra. Considérese, por ejemplo, el sistema estelar más cercano al sol: Alpha Centauri. Está a 4.4 años luz, Alpha Centauri es un sistema binario, las estrellas A y B giran alrededor de un punto central y una tercera estrella, Proxima Centauri, gira alrededor de las otras dos.

Utilizando la tecnología actual, un viaje de ida a Alpha Centauri tardaría unos 75.000 años. Para que nos hagamos una idea, es más o menos ciento cincuenta veces el tiempo que ha pasado desde que Colón descubrió América.

Ahora que sabemos la velocidad a la que podemos ir, analicemos a qué velocidad querríamos ir. Idealmente, una duración de larga duración no debería durar más de 50 años. Un hombre o una mujer joven puede unirse al equipo de la misión justo cuando sale y seguir vivo cuando llegue a su destino.

Tener a alguien que se mantenga en el proyecto asegura cierta continuidad a la misión. Icarus tiene la tarea de diseñar una nave que llegue a su destino en menos de 100 años, este hecho es en sí uno de los retos más notables -específicamente la creación de una organización que pudiese durar todo ese tiempo.

Con un máximo de 100 años, nuestro vehículo debe alcanzar la velocidad de 0.1*c (10% de la de la luz) para alcanzar la estrella en ese período de tiempo. Esto es unas 1000 veces más rápido que cualquier nave jamás construída.

Por conveniencia, démonos una velocidad máxima de 0.15*c para que podamos barajar varios sistemas estelares. Alcanzar una velocidad del 15% la de la luz es muy complicado, pero no es algo imposible utilizando la tecnología que tenemos disponible hoy en día.

En proimos artículos, el equipo hablará sobre los esquemas de propulsión con más detalle. También están por venir los problemas para proteger el vehículo cuando choque con polvo estelar a velocidades extremas. En este artículo, nos centraremos en la trayectoria más eficiente para alcanzar la velocidad deseada.

Finalmente, debemos tener en cuenta los métodos de frenado cuando lleguemos a nuestra estrella, dado que es uno de los objetivos de la misión Icarus. Al 15% de la velocidad de la luz, una nave recorrería un sistema solar tradicional en pocas horas. Un viaje de 50 años que culminase en menos de un día de observación y adquisición de datos es... poco satisfactorio. Por lo que, si es posible, deberíamos encontrar una forma de frenar la máquina y quedarnos un rato más.

Hay unas pocas herramientas que solemos utilizar en misiones espaciales. Compartimentar los vehículos nos suele permitir deshacernos de masas como tanques de gasolina cuando ya no se necesitan. La gravedad también nos permite ganar velocidad al pasar cerca de planetas de nuestro sistema solar. Perdemos un poco de tiempo en ir hasta un planeta, por ejemplo Júpiter, y utilizarlo como una especia de lanzadera. Este método de aceleración ha sido utilizado desde la sonda Luna 3 soviética que fotografió el lado oculto de la luna.

Sin embargo, nuestros trucos habituales son útiles pero no son suficientes para alcanzar los retos que la misión tiene porque las velocidades necesarias son demasiado grandes. Necesitaremos utilizar una vieja maniobra que cayó en el olvido.

Fue descrita inicialmente por Hermann Oberth en 1927, el escape "two-burn" puede ser muy efectivo para esta misión. Considérese una nave orbitando un cuerpo mucho más masivo como el Sol. Oberth describió cómo la nave podría revertir esta aceleración para frenarse y caer por el otro lado del cuerpo masivo.

Cuando la nave llega al punto más cercano del cuerpo gira y hace un "hard burn" para acelerar todo loq ue pueda. Los cálculos del autor muestran que esta maniobra puede alcanzar dos o tres veces la velocidad sin ella. Es importante apreciar que es muy diferente a la famosa maniobra de asistencia gravitatoria.

Parece como conseguir algo gratis, ¿no? Y todos sabemos que el Universo no da nada gratis. Sin embargo, esta maniobra no viola ninguna ley de la física.

Téngase en cuenta que el combustible del vehículo también está en órbita del cuerpo masivo. Si el vehículo quema combustible mientras lo tira a una órbita interior, se podrá quemar mucho más propelente en la órbita inferior. El propelente puede dejarse en otra órbita más baja (y con menos energía). Orbeth se dio cuenta de que al soltar la energía química o nuclear no se utilizaba toda la energía disponible. El propelente también tiene energía mecánica (cinética y potencial) que puede utilizarse -para acelerar el vehículo- utilizando esta maniobra.

Utilizando esta maniobra alrededor del sol, podemos anticipar que un vehículo que puede conseguir una velocidad del 5% la de la luz podrá salir del sistema solar a nuestro 15% deseado. Sin embargo aun hay muchos problemas a investigar.

¿Cuál es la máxima aceleración de la nave? ¿Podemos acercarnos al Sol sin sufrir los efectos del recalentamiento? ¿En cuántos compartimentos debemos dividir el vehículo? Además, conseguir el 5% antes de hacer la maniobra Oberth es algo que sigue estando lejos de nuestro alcance. Próximos artículos discutirán los sistemas de propulsión que pueden llegar a esas velocidades.

Una misión factible podría comenzar en la Órbita Baja de la Tierra (LEO) en la que Icarus se construirá. Utilizando sistemas de propulsión convencional como cohetes líquidos, la nave comenzará su viaje a Júpiter. Los cochetes químicos se desprenderían en ese momento.

La gravedad de Júpiter pondría la sonda en una nueva trayectoria perpendicular al plano del sistema solar. Además esta gravedad asistida acortaría la órbita de Icarus para que comienza a caer hacia el sol. Un pequeño acelerón aumentaría la órbita para poder acercarse, años más tarde, a la atmósfera del Sol, la corona solar.

Un conjunto de tanques de combustible se desprendería en Júpiter tras un pequeño acelerón. Mientras la sonda se acerca al sol comenzará a acelerar al máximo durante semanas o meses. La sonda tendrá que utilizar parte de su sistema de propulsión para girar hacia el sol al acelerar. La sonda giraría alrededor del sol durante un tiempo mientras continua acelerando. Se desprenderían muchos tanques durante esta etapa. La aceleración no se parará hasta que la sonda alcance la velocidad objetivo.

La sonda continuará acelerando en pequeños tramos en sus camino a la estrella. Esos acelerones contrarrestarán cualquier efecto de otras estrellas y se usarán para hacer pequeñas correcciones. A medida que la sonda se acerca a la estrella hará una maniobra Oberth, acelerando al máximo para dirigirse a la otra estrella. Si es posible, la sonda se frenará lo suficiente como para ser capturada alrededor de la estrella objetivo y extender el tiempo de estudio lo más posible.

Aun no está claro que el equipo vaya a conseguir encontrar la combinación adecuada de tecnologías de propulsión que permitan completa aceleración y frenado hacia la estrella objetivo. Y muchos de los elementos de la misión descritos más arriba podrán ser cambiados por otras opciones mejores.

El equipo Icarus tiene como objetivo perfilar la misión que hará que la humanidad se comunique con otras estrellas.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Una pequeña guerra nuclear podría revertir el Cambio Climático durante años

Fuente: National Geographic

Incluso una guerra nuclear regional podría desatar un enfriamiento global "sin precedentes" y reducir la lluvia durante años, según unos modelos computacionales del Gobierno de EEUU.

A esto seguramente le seguirían hambrunas y enfermedades globales, especulan los autores.

Durante la Guerra Fría se temía una guerra nuclear entre las superpotencias que podría dar lugar a un "invierno nuclear".

En ese escenario cientos de explosiones nucleares provocarían enormes incendios cuyo humo, polvo y cenizas bloquearían el sol durante semanas. Además habría un gran incremento de los niveles de radiación. La mayoría de la población terminaría muriendo de hambre.

Hoy, con EEUU como única superpotencia, el invierno nuclear es poco más que una pesadilla. Sin embargo, la guerra nuclear sigue siendo una amenaza -por ejemplo, entre India y Pakistan.

Para ver qué efectos climáticos tendría un conflicto regional nuclear, los científicos de la NASA y otras instituciones modelaron una guerra con bombas del tipo de la de Hiroshima, equivalente a unas 15.000 toneladas de TNT.

Los investigadores predijeron que los incendios resultantes enviarían poco más de 5 millones de toneladas de carbóno negro a la parte superior de la troposfera, la capa más baja de la atmósfera.

En los modelos de la NASA, este carbono absorbería calor solar y, como un globo de aire caliente, subiría a más altura, donde el hollín tardaría mucho más en dispersarse y limpiar el cielo.

¿Contrarrestar el Calentamiento Global?

El enfriamiento global causado por estas nubes de carbono no sería tan catastrófico como el invierno nuclear provocado por una guerra de superpoderes, pero "los efectos seguirían siendo el mayor cambio climático hasta el momento", explicó Luke Oman en una reunión de la American Association for the Advancement of Science.

La Tierra está ahora mismo en un período largo de calentamiento. Tras una guerra nuclear regional, las temperaturas globales bajarían 1.25 ºC en dos o tres años, según los modelos.

En los trópicos, Europa, Asia y Alaska el enfriamiento sería de 3 a 4 ºC. Por otro lado, partes del Ártico y la Antártida sí que se calentarían un poco debido al viento y los patrones de circulación oceánica, según los investigadores.

Tras diez años, las temperaturas globales aun estarían 0.9 ºC por debajo de la etapa previa a la guerra, según los modelos.

Años sin verano

Durante un tiempo, lo más probable es que la Tierra se convierta en un planeta frío y hambriento.

"Nuestros resultados sugieren que la agricultura se vería muy afectada, sobre todo en las áreas que suelen tener heladas cerca del verano", explicó Oman, del Goddard Space Flight Center de la NASA en Greenbelt.

Todos estos cambios también alterarían los patrones de circulación de la armósfera tropical, reduciendo la precipitación un 10% de forma global de uno a cuatro años, explicaron los científicos. Incluso después de siete años, la precipitación global media sería un 5% más baja que lo que era antes del conflicto.

Además, el investigador Michael Mills, encontró grandes disminuciones de la capa protectora de ozono, llevando a una radiación mucho más ultravioleta y dañando a los habitantes del Planeta.

"Lo más importante de nuestro trabajo", explicó Oman, "es que incluso un conflicto nuclear regional tendría consecuencias globales".

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Las estrellas podrían tener agujeros de gusano en su núcleo

Fuente: Technology Review

Lejos de ser enlaces entre regiones vacías del espacio, los agujeros de gusano podrían cosntituir atajos de una estrella a otra.

Recreación de un agujero de gusano.
Wikipedia
Los agujeros de gusano son atajos en el espacio tiempo, una especie de túneles entre partes distantes del Universo. No hay pruebas de que existan pero aparecen como soluciones matemáticamente estables a las ecuaciones de la relatividad, al igual que otros objetos exóticos como los agujeros negros.

Hay pruebas de que los agujeros negros existen por lo que los astrofísicos no pueden desechar sin más las otras soluciones. De hecho, han dedicado mucho tiempo y esfuerzo a averiguar cómo se forman los agujeros de gusano, qué pinta tienen y qué les mantiene abiertos.

Pero al imaginarse los agujeros de gusano, dieron por hecho que serían superautopistas similares a un túnel entre una y otra región del espacio vacío.

Sin embargo, Vladimir Szhunushaliev de la Eurasian National University de Kazakhstan y sus compañeros tienen otra idea. Dicen que no hay razón por la que los agujeros de gusano no puedan estar llenos de materia. Y hoy detallan las propiedades de ese tipo de objetos.

Comienzan imaginándose una estrella ordinaria o una estrella de neutrones con un agujero de gusano en su núcleo. "Para un observador lejano, una estrella como esa sería muy parecida a una estrella normal", dicen.

Pero la realidad es que habría varias diferencias apreciables. Para empezar, esta estrella tendría que tener una estrella gemela en la otra punta del agujero de gusano. Estas estrellas serían como gemelos siameses, unidos por la cadera en el más extraño de los enlaces.

Estos gemelos también pulsarían de un modo poco corriente. Esto se debe a que la materia exótica del agujero podría fluir adentro y afuera, como el líquido en un tubo con forma de U, creando una especie de resonancia que haría que la estrella oscilase.

Esto podría dar lugar a un desprendimiento de energía de muchos tipos, creando rayos de energía cósmica ultra alta, por ejemplo.

También debería haber una forma de distinguir los siameses de otras estrellas. Pero eso es más difícil de lo que parece.

Los cálculos detallados necesitan averiguar qué oscilaciones son posibles deben tener en cuenta las singularidades que existen por culpa de los agujeros negros. Esto hace que sean extremadamente difíciles y, por el momento, lejos del alcance de Dzhunushaliev y sus compañeros.

Por lo tanto, no hacen predicciones específicas sobre cómo podrían los astrónomos atrapar estos objetos.

Esto deja para los demás un interesante rompecabezas. Si las estrellas pueden tener agujeros negros en su centro, está claro que queremos saber cómo son para poder ver si hay alguna cerca. Es hora de ponerse a calcular.

Ref: arxiv.org/abs/1102.4454: A Star Harbouring A Wormhole At Its Center

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Nuevas condiciones para la vida en otros planetas

Fuente: Science Daily

Las mareas pueden hacer que la llamada "zona habitable" alrededor de estrellas poco masivas sea inhabitable. Este es el principal resultado de un estudio reciente publicado por un equipo de astrónomos liderados por René Heller del Astrophysical Institute Postdam (AIP).

Exoplanetas. Wikipedia.
Los planetas extrasolares, o exoplanetas, se conocen desde 1995. Al buscar vida en otros lugares, los científicos se centran en esos exoplanetas que están en la llamada "zona habitable". Esto quiere decir que orbitan su sol a una distancia en la que las temperaturas de la superficie del planeta permiten la presencia de agua líquida. Se cree que el agua es un componente esencial para la vida. Hasta ahora, las dos principales cosas que se tenían en cuenta a la hora de determinar la temperatura de un planeta eran la distancia a la estrella central y la composición de la atmósfera del planeta. Al estudiar las corrientes provocadas por estrellas poco masivas en sus potenciales acompañantes similares a la tierra, Heller y sus compañeros han concluído que los efectos de las corrientes modifican el concepto tradicional de zona habitable.

Heller dedujo esto a partir de tres efectos diferentes. En primer lugar, las mareas pueden provocar que el eje de rotación del planeta se haga perpendicular a su órbita en unos pocos millones de años. Para hacernos una idea, el eje de rotación de la Tierra está inclinado 23.5º --un efecto que provoca las estaciones. Debido a esto, no habría variación estacional en estos planetas de la zona habitable de estrellas poco masivas. Estos planetas tendrían grandes diferencias de temperatura entre sus polos, que estarían en un enfriamiento continuo y su ecuador que, a largo plazo, evaporaría cualquier atmósfera. Esta diferencia de temperatura causaría vientos y tormentas extremos.

El segundo efecto de estas corrientes sería el calentamiento del exoplaneta, similar al calentamiento por corriente de Io, una luna de Júpiter que tiene volcanismo global.

Por último, las corrientes pueden provocar que el período rotacional del planeta (su "día) se sincronice con el período orbital (su "año"). Esta situación es idéntica a la Luna: la luna sólo muestra una cara a la Tierra, la otra se conoce como "la cara oculta de la luna". Como resultado de esto, la mitad del exoplaneta recibe una radiación extrema de la estrella mientras que la otra está en una oscuridad permanente.

La zona habitale alrededor de estas estrellas no es, por tanto, muy cómoda -puede ser incluso inhabitable. Desde el punto de vista del observador, las estrellas poco masivas habían sido las candidatas que más posibilidades tenían de tener planetas con vida. Ahora, debido a estos hallazgos, los exoplanetas del tipo de la Tierra que han sido encontrados en estas zonas han de ser revisados teniendo en cuenta estos efectos.

Heller y sus compañeros han aplicado su teoría al GI581g: un exoplaneta candidato que recientemente se declaró habitable. Encontraron que el GI581g no debería tener ninguna estación y que su día está sincronizado con su año. Es poco probable que haya agua en ese planeta, lo que lo convertiría en inhabitable.

Heller: "Creo que las opciones de que haya vida en exoplanetas que estén en la zona habitable "tradicional" alrededor de estrellas poco masivas son muy pocas cuando se tienen en cuenta los efectos de las corrientes. Si se quiere encontrar una segunda tierra, parece que se tendrá que buscar en otro Sol".

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Astrónomos europeos pueden haber detectado por primera vez un planeta en formación

Fuente: ESO News

Utilizando el VLT de la ESO, un equipo internacional de astrónomos ha podido estudiar el recién creado disco de materia alrededor de una estrella joven que está en las etapas iniciales de construcción de un sistema planetario. Por primera vez un compañero más pequeño pudo ser detectado y podría ser el causante de la gran brecha que se ha encontrado en el disco. Próximas observaciones determinarán si este acompañante es un planeta o una enana marrón.

Fuente: ESO
Los planetas se forman a partir de discos de materia alrededor de estrellas jóvenes, pero la transición de polvo a sistema planetario es rápida y muy pocos objetos se detectan durante esa fase. Un objeto de este tipo es el T Chamaleon (T Cha), una estrella en la pequeña constelación Chamaleon que es comparable al Sol, pero al principio de su vida. T Cha está a unos 350 años luz de la Tierra y sólo tiene siete millones de años. Hasta ahora no se habían encontrado planetas en formación en estos discos en transición, aunque planetas en discos menos jóvenes sí que se habían podido observar (eso0842, heic0821).

"Estudios previos habían mostrado que T Cha era un objetivo excelente para estudiar cómo se forman los sistemas planetarios", apunta Johan Olofsson (del Max Planck Institute for Astronomy), uno de los directores de los dos artículos que se publicarán en Astronomy & Astrophysics describiendo el trabajo. "Pero esta estrella está bastante lejos y se necesitó toda la potencia del VLTI (Very Large Telescope Interferometer) para poder verlo con detalle y analizar lo que realmente estaba ocurriendo en el disco de polvo".

Los astrónomos observaron T Cha por primera vez utilizando el instrumento AMBER y el VLTI. Encontraron que parte de la materia del disco se formó en un anillo muy estrecho a sólo 20 millones de kilómetros de la estrella. Más lejos de este disco interno, encontraron una región de polvo con la parte exterior del disco ocupando regiones a unos mil millones de kilómetros de la estrella.

Nuria Huélamo (ESAC), la directora del segundo artículo retoma la historia: "Para nosotros la brecha en el disco de polvo alrededor de T Cha era la prueba del delito y nos preguntamos: ¿podríamos estar siendo testigos de un acompañante creando una brecha en el disco protoplanetario?".

Sin embargo, el hallazgo de un acompañante borroso tan cerca de la estrella es un gran reto y el equipo tuvo que usar el instrumento NACO del VLT con una técnica novedosa, llamada Sparse Aperture Masking, para conseguir su objetivo. Tras un análisis cuidadoso encontraron la clara señal de que había un objeto en la brecha del disco de polvo, a unos mil millones de kilómetros de la estrella -un poco más lejos que lo que está Júpiter del Sol. Esta es la primera vez que se detecta un objeto mucho más pequeño que una estrella en una brecha del disco de polvo de una estrella joven. La prueba sugiere que el objeto acompañante no puede ser una estrella normal y será o bien una enana marrón rodeada de polvo o un planeta de reciente formación.

Huelamo concluye: "Es un estudio sobresaliente que combina dos instrumentos de última tecnología del ESO. Próximas observaciones nos permitirán saber más sobre este acompañante y el disco, así como comprender qué mueve el disco interno".

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

El observatorio Chandra de la NASA encuentra un superfluído en el núcleo de una estrella de neutrones

Fuente: NASA
Autores: Janet Anderson y Megan Watzke

Estrella de neutrones. NASA
El Observatorio de Rayos X Chandra ha descubierto la primera prueba directa de un superfluido, un extraño estado de la materia en el que no hay fricción, en el núcleo de una estrella de neutrones. Los superfluídos creados en laboratorios de la Tierra muestran asombrosas propiedades, como la capacidad de ascender y escapar de recipientes herméticos.

Las estrellas de neutrones contienen la materia más densa que se puede observar de forma directa. Una cucharadita de una estrella de neutrones pesaría 6 mil millones de toneladas. La presión en el núcleo es tan alta que la mayoría de las partículas cargadas, electrones y protones, se unen dando lugar a una estrella compuesta sobre todo por partículas sin carga llamadas neutrones.

Los dos equipos de investigación independientes que estudiaron la supernova Cassiopeia A (Cas A), los restos de una estrella masiva a 11.000 años luz de distancia cuya explosión se habría producido 330 años antes. Los datos de Chandra mostraron un rápido declive en la temperatura de la estrella de neutrones que quedó tras la supernova, lo que quiere decir que se había enfríado un 4% en un período de 10 años.

"Esta caída en la temperatura, aunque pueda parecer pequeña, fue realmente sorprendente", aseguró Dany Page de la Universidad Autónoma de México (UNAM), jefe de la investigación que será publicada el día 25 en Physical Review Letters. "Esto implica que algo muy extraño está ocurriendo en el núcleo de la estrella de neutrones".

Los superfluidos que contienen partículas cargadas son también superconductores, lo que quiere decir que actúan como conductores eléctricos perfectos y nunca pierden energía. Los nuevos resultados sugieren que los protones que quedan en el núcleo de la estrella están en un estado de superfluído y, dado que llevan carga, también forman un superconductor.

"El rápido enfriamiento de la estrella de neutrones, visto por Chandra, es la primera prueba directa de que los núcleos de las estrellas de neutrones son, en realidad, un material superfluído y superconductor", comentó Peter Shternin, del Ioffe Institute de Rusia, director del equipo que publicará un artículo en Monthly Notices of the Royal Astronomical Society.

Ambos equipos prueban que este rápido enfriamiento se explica por la formación de un superfluído de neutros en el núcleo de la estrella de neutrones en los últimos 100 años (vistos desde la Tierra). El rápido enfriamiento se espera que continúe unas décadas más y luego se ralentice.

La aparición de la superfluidez en materiales en la Tierra ocurre a temperaturas extremadamente bajas, cerca del cero absoluto, pero en las estrellas de neutrones puede ocurrir a mil millones de grados. Hasta ahora había una gran incertidumbre en las estimaciones de esta temperatura crítica. Esta nueva investigación restringe la temperatura crítica entre 500 millones y poco menos de 1.000 millones de grados.

Cas A permitirá a los investigadores comprobar los modelos sobre cómo la fuerza nuclear, que mantiene unidas a las partículas subatómicas, se comporta en una materia ultradensa. Estos resultados son, asimismo, importantes para comprender el rango en el que se mueven las estrellas de neurones.

Pequeños cambios bruscos en la velocidad del spin de rotación de las estrellas de neurones dieron en el pasado pruebas de neutrones superfluídos en la corteza de las estrellas de neutrones, en los que las densidades son mucho más bajas que las del núcleo de la estrella. Esta noticia de Cas A revela nueva información sobre la región interior de la estrella.

"Anteriormente no teníamos ni idea de la forma en que se extendía la superconductividad de los protones", aseguró Dmitry Yvakovlev, coautor del estudio.

El enfriamiento de Cas A fue inicialmente descubierto por Craig Heinke, de la Universidad de Alberta, y Wynn Ho, de la Universidad de Southampton. Fue la primera vez que se pudo medir la velocidad de enfriamiento de una estrella de neutrones joven.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

¿Por qué los estadounidenses están tan mal informados sobr eel Cambio Climático?

Fuente: Scientific American
Autor: Robin Lloyd

Wikipedia
A medida que los glaciares se derriten y las poblaciones de las islas se van de las costas para escapar de los mares que ascienden, muchos científicos continúan anonadados porque no se explican por qué el consenso que hay entre los investigadores sobre un cambio climático inducido por el ser humano sigue siendo controvertido en EEUU.

La frustración se pudo ver en unas cuantas sesiones de la conferencia anual de la American Association for the Advancement of Science en Washington, D.C., el pasado fin de semana, y llegó a su punto más álgido el viernes durante la conferencia "Ciencia sin fronteras y medios de comunicación sin límites".

Cuando se llegaba al final, el climatólogo Kerry Emanuel preguntó a unos cuantos periodistas por qué los medios siguen cubriendo el Cambio Climático como un debate controvertido, cuando la realidad es que hay un consenso muy grande entre organizaciones como la American Geophysical Union, el American Institute of Physics, la American Chemical Society, la American Meteorological Association, el National Research Council y las academias nacionales de más de una docena de países.

"No habéis podido convencer al público", respondió Elizabeth Shogren de National Public Radio. Emanuel le sonrío y le dijo: "No, VOSOTROS no habéis podido". Acto seguido, el público (la mayoría científicos) rompió en aplausos y se oyó una voz que dijo: "Es cierto, Kerry dice la verdad".

Se discutió sobre este tema en varias sesiones intentando buscar formas de motivar a los americanos sobre el tema del Cambio Climático. Sólo el 25% de los estadounidenses lo ven como un serio problema, según una encuesta de 2009 del Pew Research Center for the People & the Press.

Es obvio que hay una campaña organizada y con grandes fondos para confundir al público sobre el consenso alrededor del Cambio Climático antropogénico.

De hecho, en Korea del Sur, donde esa campaña no tiene tanta fuerza, no hay duda sobre los descubrimientos de la climatología, comentó Sun-Jin Yun de la Seoul National Unviersity. Los tres periódicos más importantes (uno conservador, otro progresista y otro económico) aceptan el Cambio Climático sin apenas escepticismo injustificado.

Por ello, es difícil explicar la intransigencia del público estadounidense y de los políticos sobre este tema.

Explicaciones: medios de comunicación, 'analfabetismo' o negacionismo

Tom Rosensteil del Project for Excellence in Journalism puso su dedo acusador sobre los medios, centrándose en sus recortes de las dos últimas décadas. Presupuestos cada vez más pequeños han llevado a una proliferación de los artículos baratos y rápidos, así como a formatos de debate que rara vez tienen discusiones informativas sobre resultados científicos reales.

"Lo que está disminuyendo es el componente informativo en nuestra cultura en la que la gente sale y encuentra y verifica las cosas", comentó. La verdad tiene pocas oportunidades de darse a conocer en la nueva, estrecha y profunda escena pública.

Encuesta tras encuesta, incluso los 'late night', parecen revelar una gran ignorancia de los estadounidenses por hechos científicos básicos, incluyendo los fundamentos de la física y la biología.

¿Es este "modelo deficitario", por tanto, la razón de nuestro fracaso en aceptar el Cambio Climático? Naomi Oreskes, de la Universidad de California, San Diego, historiadora científica rechazó esa hipótesis durante una sesión sobre negacionismo. "Está bastante claro que hay muchas personas bien educadas que no aceptan el calentamiento global", aseguró. Aún así, los científicos "deben comunicar la climatología de la forma más clara y efectiva que puedan", añadió.

El contexto cultural y político actual lleva al negacionismo actual sobre el Cambio Climático, la evolución y las vacunas, comentó Gavin Schmidt, de la NASA, durante una conferencia. La educación científica no es el problema.

Aun así, la mayoría de los americanos son, realmente, ignorantes en climatología e incluso "confunden el Cambio Climático con la capa de ozono", resaltó Schmidt. Es cierto que pueden tener algo en común, pero "¿cómo se puede tener una conversación sensata en base a eso?", se preguntó.

Soluciones: Hablar de una forma inteligente y dominar los medios

Las encuestas muestran que la mayoría de las personas quieren más información sobre el calentamiento global, aseguró Schmidt, así que los científicos deberían ir a foros y blogs y responder a las preguntas de la gente, sin enzarzarse simplemente con opinantes furiosos.

Los científicos deben hablar con la gente y vigilar que no se creen estereotipos sobre su profesión -como el de que un científico es arrogante y elitista- añadió Schmidt.

Rosensteil se hizo eco de este consejo y pidió a los científicos a saltarse a los medios, que ya no son intermediarios fundamentales para llegar al público gracias al crecimiento de la blogosfera y la fragmentación de la industria.

Aconsejó a los científicos asegurarse de que sus argumentos quedasen claros y a evitar dar a los negacionistas una oportunidad para extraer una frase de una respuesta que se ajuste al tópico anti-ciencia.

De hecho, Thomas Lessl, de la Universidad de Georgia, definió a los comunicadores científicos como "ingenuos" y dijo que sus métodos debían ser reformados. No ayudará más información. "El conocimiento personal siempre queda por encima del conocimiento técnico en la comunicación pública", aseguró.

"Una forma de conseguirlo es ser como un político y responder sólo lo que te interesa responder y no responder por completo lo que se te preguntó", aconsejó. También, "si sientes que la pregunta es capciosa, dales la respuesta que habrías dado si no fuese así".

A pesar de todo, el optimismo reinó en las conferencias y quedó el convencimiento de que los periodistas y los científicos serán mejor comunicando en el futuro. "Mejorará, el hecho de que estemos aquí hoy es una prueba de ello.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

¿Por qué la Tierra y Titán comparten atmósferas gemelas?

Fuente: Technology Review

La Tierra y Titán tienen atmósferas gruesas y ricas en nitrógeno. Esto se debe a que ambas se formaron a partir de los restos de impactos de cometas, según un estudio llevado a cabo por un equipo de geólogos planetarios.

Titán. Wikipedia.
Titán, la luna de Saturno, debe de haberse formado de una forma completamente diferente a la Tierra y, aún así, comparten una cosa: atmósferas gruesas y ricas en atmósfera que son un hervidero de compuestos orgánicos.

Hoy, Josep Trigo-Rodríguez de la UAB y Javier Martín-Torres del Centro de Astrobiología de Madrid apuntan a que esto podría ser una pista definitiva. Su creencia es que las características comunes apuntan a un pasado común, lo que quiere decir que las atmósferas de la Tierra y Titán pueden haberse formado de maneras similares.

A primera vista, esto parece poco probable. El pensamiento convencional es que la Tierra se formó en la parte interna del Sistema Solar juntando una gran cantidad de planetesimales rocosos. TItan, por otro lado, se formó en una melé de bolas de hielo del tipo cometas que orbitaban Saturno en el Sistema Solar inicial.

A pesar de todo, la atmósfera inicial de la Tierra lleva trayendo de cabeza a los geólogos muchos tiempo. Una teoría es que se formó a partir de la desgasificación de las rocas al unirse en las etapas iniciales de la Tierra. Pero se cree que estas rocas eran demasiado pobres en elementos ligeros como el hidrógeno, el carbono y el nitrógeno porque estos habrían sido eliminados del disco interior del Sistema Solar inicial.

Por lo que es una sorpresa ver una distribución similar de estos elementos en la atmósfera de Titán que se formó a partir de bolas de hielo mucho más lejos.

Trigo-Rodríguez y Martín-Torres concluyen que la similitud implica que la atmósfera terrestre debe haberse formado a partir de cometas, probablemente durante el último bombardeo pesado, un periodo de hace 4.000 millones de años cuando el Sistema Solar fue bañado con hielo y rocas que provenían de muy lejos.

Esta teoría parece sensata. De hecho, concuerda con las conclusiones de otra línea de pensamiento: el análisis isotópico del ratio N14 y N15 en la atmósfera terrestre.

Y esto quiere decir que cada vez parece más probable que la vida en la Tierra, hecha de materiales estelares, haya evolucionado respirando gas de un cometa.

Ref: arxiv.org/abs/1102.4198: Clues On The Importance Of Comets In The Origin And Evolution Of The Atmospheres Of Earth And Titan

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Los monos dudan de sí mismos como los humanos

Fuente: BBC
Autor: Victoria Gull

Los monos entrenados para jugar a juegos de ordenador ayudaron a probar que no sólo los humanos sienten dudas y tienen incertidumbre.

Unos investigadores americanos encontraron que los macacos prefieren "pasar" en vez de arriesgarse a contestar erróneamente.

Macaco. Wikipedia.
La consciencia de nuestro propio pensamiento se pensaba que era exclusivamente humana, pero el estudio, presentado en Washington, sugiere que los primates más primitivos tienen la capacidad de la auto-consciencia.

El profesor John David Smith, de la State University of New York y Michael Beran, de la Georgia State University llevaron a cabo el estudio.

Entrenaron a los macacos y les enseñaron a utilizar juegos con joystick. Los animales aprendieron a juzgar la densidad de una caja que aparecía en la parte superior de la pantalla como "densa" o "poco densa". Para dar su respuesta, los monos llevaban el cursor a la "S" (poco densa) o a la "D" (densa).

Cuando los animales escogían la letra correcta, se les daba una recompensa. No había castigo por escoger la respuesta incorrecta, pero el juego se paraba, llevándose -durante unos segundos- la oportunidad de ganar otra recompensa.

Pero los monos tenían una tercera opción -escoger una interrogación- que se saltaba la prueba y pasaba a la siguiente. Esto quitaba la recompensa, pero no paraba el juego.

Los científicos vieron que los macacos usaban esta opción de la forma en que los humanos lo harían: escogerían pasar a la siguiente pregunta cuando no lo tenían claro.

Smith presentó imágenes de los animales jugando al juego (ver aquí) en una conferencia organizada por la European Science Foundation.

"Los monos parecían saber cuando podían equivocarse", comentó a la BBC. "Parecen saber lo que no saben".

En ese mismo estudio, los capucchinos, que pertenecen al grupo de Monos del Nuevo Mundo, no supieron cuándo utilizar la tercera opción.

Dr. Smith explicó: "Hay una gran pregunta teórica por hacerse: ¿Se desarrolló esta capacidad sólo una vez en una línea de primates, saliendo así sólo en la línea de los primates del Viejo Mundo como los simios y los humanos?".

Dijo que la capacidad de pensar de esta forma era una "de las facetas más importantes de la mente humana, central a cada aspecto de nuestra comprensión y aprendizaje".

"Estos resultados... podrían explicar por qué nuestra autoconsciencia es tan importante en nuestra estructura cognitiva y de dónde venimos". Añadió.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Descubren la Ley Cuántica del plegamiento de proteínas

Enlace original: Technology Review

La mecánica cuántica puede explicar, al fin, por qué el plegamiento de las proteínas depende de una forma tan peculiar de la temperatura. Este descubrimiento podría dar lugar a explicaciones de un gran número de fenómenos biológicos.

La famosa relación de Arrenius dice que las cosas ocurren más rápido cuanto más calientes estén. en química, esto es algo que suele ser cierto pero hay una excepción importante: la velocidad a la que las proteínas se pliegan hasta su forma funcional.

Podría pensarse que las proteínas deberían de plegarse más rápido al enfríarse y "desplegarse" más rápido al calentarse, pero la relación real no es ni lineal ni simétrica, lo que quiere decir que el plegado no es el inverso del "desplegado".

Los aminoácidos se convierten en proteínas. Fuente:Wikipedia
Unos biólogos moleculares han propuesto varios mecanismos que lo podrían explicar, como la interacción no lineal entre el agua y las partes hidrófobas de las proteínas, pero ninguna ha resultado convincente.

Eso parece que va a cambiar con el trabajo de Liaofu Luo de la Universidad de Inner Mongolia y Jun Lu de la Inner Mongolia University of Technology, ambas sitúadas en China. Dicen que la forma en que se pliegan depende claramente de la temperatura si se tiene en cuenta la mecánica cuántica.

Antes que nada, analicemos un poco el plegamiento proteínico. Las proteínas son largas cadenas de aminoácidos que se vuelven biológicamente activas cuando se pliegan hasta adquirir una forma específica y muy compleja. El problema es averiguar cómo hacen esto de una forma tan rápida cuando hay tantas configuraciones posibles.

Para hacerse una idea, una proteína relativamente pequeña de sólo 100 aminoácidos puede tomar 10^100 configuraciones diferentes. Si se probase cada una de estas formas cada 100 milmillonésimas de segundo, se tardaría más que la edad del Universo en encontrar la correcta. Nadie sabe cómo son capaces de hacerlo en microsegundos.

Lo que sí se sabe es que la velocidad a la que se pliegan es muy sensible a la temperatura y los biólogos tienen muchos datos que muestran de una forma muy precisa la velocidad a la que varía. Al dibujar estos valores, se obtuvieron curvas inesperadas.

Hoy, Luo y Lo dicen que estas curvas podrían explicarse con facilidad si el proceso fuese cuántico, la forma podría cambiar por transición cuántica, es decir, que la proteína podría "saltar" de una forma a otra sin adoptar las formas intermedias.

Luo y Lo analizaron esta idea utilizando un modelo matemático sobre la forma en la que podría funcionar y luego derivan las ecuaciones que describen la forma en la que la velocidad del plegamiento cambiaría con la temperatura. Finalmente ajustaron las predicciones de su modelo con experimentos reales.

Su sorprendente resultado es que este modelo de transición cuántico se ajusta a las curvas de 15 proteínas diferentes e incluso explica la diferencia entre el plegado y el "desplegado" de las mismas proteínas.

Es un resultado muy importante. Las ecuaciones de Luo y Lo constituyen las primeras leyes universales sobre el plegamiento de proteínas. Es el equivalente biológico a algo como las leyes de la Termodinámica en la Física.

Impresionante... y no se termina ahí.

Varios grupos están buscando pruebas de que los procesos cuánticos estén presentes en todo desde la fotosíntesis a la navegación de las aves.

Si la mecánica cuántica juega un papel tan importante en el plegamiento proteínico, entonces habrá pocas dudas sobre la importancia que puede tener en otras máquinas celulares. Sólo será cuestión de tiempo que empiecen a salir biólogos cuánticos.

Ref: arxiv.org/abs/1102.3748: Temperature Dependence of Protein Folding Deduced from Quantum Transition

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Cómo abandonar tu cuerpo

Enlace original: Physorg

Abandonar tu cuerpo y darte la mano a tí mismo, conseguir que tu cuerpo reconozca un tercer brazo o convertirte en un robot un rato. El neurocientífico sueco Henrik Ehrsson ha demostrado que la imagen que el cerebro tiene del cuerpo es modificable. Las aplicaciones van desde prótesis sensibles a la robótica y los mundos virtuales.

Pregúntale a un niño si sus manos le pertenecen y el niño responderá: "¡Por supuesto!". Pero, ¿cómo identifica el cerebro su propio cuerpo? ¿Por qué sentimos que el centro de la conciencia está físicamente dentro de nuestro cuerpo?

A lo largo de diversos estudios, el neurocientífico Henrik Ehrsson del Karolinska Institutet sueco ha mostrado que la percepción que el cerebro tiene de su propio cuerpo puede modificarse de una forma sobresaliente. A través de la manipulación coordinada de los diferentes sentidos, se puede hacer que los sujetos sientan que su cuerpo, de repente, tiene otro miembro adicional o que han dejado su cuerpo por completo. Sus experimentos han sido publicados en Science y otras revistas de prestigio y han generado una atención considerable.

"Al entender cómo el cerebro normal produce la sensación de posesión del cuerpo, podemos aprender a proyectar esa pertenencia sobre cuerpos artificiales o simulados. Incluso podemos hacer que dos personas experimenten un intercambio de cuerpo", dijo Ehrsson.


La investigación se centra en preguntas fundamentales sobre la relación entre la mente y el cuerpo. Este ha sido un tema teológico, filosófico y psicológico que ha sido debatido durante siglos, pero que no se ha podido investigar hasta hace bien poco. La clave para resolver este problema es identificar el mecanismo multisensorial a través del que el sistema nervioso central distingue entre señales sensoriales del cuerpo y de su entorno.

La investigación podría tener importantes aplicaciones en un gran número de campos, como el desarrollo de prótesis que parezcan más reales y las próximas generaciones de realidad virtual, en las que la sensación del Yo se proyecta en cuerpo virtuales.

Los investigadores están averiguando aun qué tipo de cuerpo puede el cerebro percibir como propios. La consciencia puede, por ejemplo, transferirse a un cuerpo de otro sexo, edad y tamaño, pero no a objetos como bloques o sillas. Un proyecto en desarrollo en la robótica es saber si el cuerpo percibido puede empequeñecerse hasta el tamaño de una muñeca; otro estudio intenta averiguar si se pueden tener tres brazos.

"Esto podría dar a los paralíticos una esperanza de que algún día puedan percibir un brazo como el suyo", comentó Ehrsson.

Artículo del Dr. Ehrsson: Science

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Si se quiere combatir el Calentamiento Global, es un error centrarse sólo en el CO2

Enlace original: Science Magazine
Autor: Eli Kintisch

El dióxido de carbono es el sospechoso habitual en cualquier discusión sobre el Calentamiento Global, pero un nuevo informe sugiere que acortar las emisiones de otros dos contaminantes -metano y hollines- podrían frenar el calentamiento esperado en 0.5 ºC más que lo que conseguiría el CO2 para el año 2070.

Camión emitiendo hollines.
Fuente: Wikipedia.
El informe, que será expuesto el domingo en la conferencia anual de la American Association for the Advancement of Science, tiene muchas incertidumbres, pero se ajusta a lo que los científicos han podido averiguar sobre estos contaminantes en los últimos años. El metano es un agente más potente que el CO2, aunque su duración en la atmósfera se mide en décadas y no en siglos. El metano también contribuye al asma causada por la contaminación. El hollín, subproducto de la quema de madera y otros combustibles fósiles, calienta el aire directamente, acelera la fusión de la nieve sobre la que cae y crea las llamadas setas marrones que calientan el cielo. Aunque es dañino para todos los que lo respieran, el hollín sale de la atmósfera en pocas semanas. Por ello, una reducción de sus emisiones tendría un impacto evidente e inmediato en las temperaturas globales.

En el estudio, un equipo internacional de investigadores examinaron 2000 medidas diferentes provenientes de controles de la contaminación y escogieron 16 de ellas. Las medidas incluían fugas de metano de minas de carbón y hollines provenientes de cocinas antiguas y equipamiento diesel. Los científicos hicieron dos modelos climáticos para estudiar cómo cambiaba la tasa de calentamiento global si en esas medidas no hubiese ningún control de contaminación.

Sin controles, la temperatura global crecería en 2.5 ºC en 2070, al controlar el CO2, serían 2 ºC. Al añadir los controles para el hollín y el metano, la temperatura dejaría de subir otro 0.5 ºC, es decir, se quedaría en una subida de 1.5 ºC.

"Me sorprendió mucho que sólo retocar 16 de los 2000 controles tuviese tanta incidencia sobre el clima", comentó Drew Shindell, quuien coordinó el experimento.

"Es la primera vez que un grupo escoge unas pocas medidas reales que podrían mejorar al controlar contaminantes a corto plazo", explicó Tami Bond, de la Universidad de Illionis, que no es autor del trabajo. "Anteriormente, los análisis se habían centrado sólo en un contaminante o en sectores económicos enteros".

David Fahey, investigador del National Oceanic and Atmospheric Administration de Boulder, Colorado, dijo que se necesitarán aún análisis adicionales para reducir las "importantes incertidumbres que los hollines tienen sobre el cambio climático", pero aseguró que este estudio constituía una contribución importante a su campo de investigación.

El informe no ha sido sometido a revisión de pares, pero Bond y Fahey estuvieron entre los cientos de científicos que aportaron sus comentarios antes de que el estudio se publicase. El miércoles que viene, ministros de todo el mundo recibirán la versión preliminar del estudio en una conferencia de las Naciones Unidas.

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS

Pánico autoinducido y crisis financiera

Enlace original: Technology Review

Determinados comportamientos precipitados, activados por el pánico, pueden dar lugar a caídas de las bolsas. Ahora unos investigadores dicen que podría haber una forma de detectarlo con antelación.

Una idea muy importante para el mundo financiero es que la volatilidad de un mercado es una buena medida de los riesgos que representa. Por ello, es fácil suponer que la volatilidad debería ser un buen indicador de cualquier crisis financiera, en las que se dan la mayoría de las correcciones.

Sin embargo, eso no es así, según Dion Harman del New England Complex Systems Institute de Cambridge Massachussetts. Él y sus compañeros aseguran que, aunque la volatilidad se incrementa al comienzo de la crisis, no es un indicador fiable de que el problema se acerca.

Fuente: Wikipedia
En vez de eso, han visto que la presencia de pánico real en las bolsas es un indicador mucho más fiable.

Esto, aunque suena a perogrullada, no lo es. Según Harman y sus compañeros, los signos claros de un pánico incipiente comienzan mucho antes de la crisis y se manifiestan de varias maneras. Dicen que tienen indicios que lo prueban.

Antes de nada, deberíamos dejar claro qué es el pánico. En Sociología, el "pánico" se define como la huida colectiva de una amenaza real o imaginaria. Por lo tanto, un elemento importante es la forma en la que los individuos se copian unos a otros. La transición que se da al principio del pánico va de un comportamiento estimulado externamente a un comportamiento que se activa desde dentro del colectivo.

Por lo tanto, una forma de medir el nerviosismo que precede al pánico es ver lo bien que unos individuos se copian a otros, explican Harman y sus compañeros. Para ello, midieron la cantidad de acciones iguales que se compran en la Bolsa de Nueva York en un día en concreto.

Si estos movimientos son el resultado de un estímulo externo, el mismo número debería subir y bajar. Y está claro que los datos desde el año 2000 muestran exactamente esto. En un momento dado en el año 2000, la mitad de las empresas subieron y la otra mitad bajaron.

Pero en 2008 fue peor aún. El comportamiento de copia fue tan claro que la probabilidad de que en un momento dado una empresa subiese o bajase era la misma. Es decir, que la probabilidad de que el 80% del mercado subiese era similar a que el 80% bajase o a que hubiese un 50/50.

Harman y compañía dicen que este movimiento es un indicador del nerviosismo del mercado que constituye el pánico. "Encontramos una firma que es una medida del riesgo sistémico y la vulnerabilidad a un pánico auto-inducido", comentan.

Y, de hecho, fue este pánico auto-inducido el que se dio cuando la crisis actual comenzó a finales de 2008.

Lo interesante de este enfoque es que Harman y compañía dicen que un nerviosismo similar había aparecido también en otras grandes caídas históricas. De hecho, cuando sometieron datos históricos a su método, descubrieron otros cuatro períodos de un año en los que ocurrieron 8 de las mayores caídas de los últimos 26 años.

Lo interesante del estudio no es que pueda detectar las crisis a posteriori, si no que puede hacerlo con antelación. Para demostrarlo tendrán que hacer alguna predicción comprobable.

Ref: arxiv.org/abs/1102.2620: Predicting Economic Market Crises Using Measures Of Collective Panic

  • Digg
  • Del.icio.us
  • StumbleUpon
  • Reddit
  • RSS
Related Posts Plugin for WordPress, Blogger...