"El hombre encuentra a Dios detrás de cada puerta que la ciencia logra abrir." EINSTEIN


sábado, 30 de octubre de 2010

Un holómetro determinará si nuestra realidad es verdadera

Poner patas arriba nuestro universo tal y como la conocemos. Es lo que pretende  Fermilab, el laboratorio físico nacional estadounidense poseedor del segundo acelerador de partículas más potente del mundo.

 Más concretamente lo que quieren probar los científicos es que el mundo en el que vivimos es en realidad… holograma. Una idea que se sostiene sobre la teoría de que el espacio-tiempo no es un todo uniforme si no que se muestra separado y "pixelado" según vamos aumentando nuestra vista sobre él, como si fuera una imagen de baja resolución. El Universo existiría en dos dimensiones y la tercera sería solo una ilusión producida por el entrelazado del tiempo con la profundidad. Un "engaño" que no podemos percibir como tal porque nada viaja más rápido que la luz y los instrumentos que utilizamos para estas mediciones no alcanzan tan lejos.
¿Parece claro, no? Lo cierto es que no, y para ello los técnicos de Fermilab ultiman la construcción de un holómetro, un aparato que sirve para testar a pequeña escala el comportamiento del tiempo, espacio, la materia y la energía. Una aplicación láser y también el reloj más preciso jamás construido para aumentar esa vista sobre el espacio-tiempo y comprobar si la teoría es cierta.
Link: Fermilab is Building a "Holomoter" to Determine Once and For All Wether Reality is Just an Illusion (Popsci)

Las medicinas alternativas también matan

Probablemente a todos se nos viene a la mente la acupuntura cuando pensamos en técnicas orientales de medicina alternativa. Lleva siendo usada desde hace cientos (tal vez miles) de años sin evidencias científicas que respalden su efectividad, y como en la mayoría de los casos parece ser inocua, esta tradicional forma de placebo no recibe demasiadas críticas.

Sin embargo un trabajo reciente ha revelado que a lo largo de los últimos 45 años la acupuntura ha causado al menos 86 muertos a causa de pinchazos incorrectos e involuntarios en el corazón y en los pulmones, así como por daños en arterias e hígado, problemas nerviosos, shocks, infecciones (provocadas por la ausencia de esterilización de las agujas), hemorragias, etc.
Y no lo digo yo, el autor del estudio es un experto británico en medicinas complementarias. La mayoría de los fallecidos (con edades comprendidas entre los 26 y 82) se encontraron con la fatalidad en China o Japón, aunque un puñado de esas muertes tuvieron lugar en occidente.
La causa más común de muerte fue una enfermedad llamada neumotórax que se da cuando el aire encuentra un camino entre las membranas que separan las paredes del pecho de los pulmones y que provocan que estos se colapsen. En la mayoría de los casos, los doctores tuvieron la certeza de que la causa de estas muertes fue la acupuntura, pero en otros queda menos claro.
El trabajo de Edzard Ernst, profesor de medicina complementaria en la Escuela de Medicina Península en Exeter (Reino Unido) se ha publicado en la revista Journal of Risk and Safety.
Y es que, a pesar de que muchos encuentran útiles estas técnicas, hay que insistir en entrenar de forma adecuada a los acupunturistas para que se eviten estas fatalidades. Sobre todo teniendo en cuenta que el número de fallecimientos registrados puede ser simplemente "la punta del iceberg", como sostiene el profesor Ernst.









jueves, 28 de octubre de 2010

Científicos crean ratones que son capaces de 'oler' la luz

Investigadores de la Universidad de Harvard en Cambridge (Estados Unidos) han creado ratones que pueden 'oler' la luz y que podrían convertirse en una poderosa herramienta para el estudio de las bases neuronales del olfato. El estudio, que se publica en la revista 'Nature Neuroscience', tiene implicaciones para el complejo campo de la investigación sobre este sentido, difícil de estudiar mediante los métodos tradicionales.

Según explica Venkatesh N. Murthy, responsable del estudio, "los olores son tan complejos químicamente que es extremadamente difícil aislar los circuitos neuronales que subyacen al olfato". Los científicos utilizaron luz mediante el campo de la optogenética para responder a la cuestión de cómo las células cerebrales diferencian entre los olores.

Las técnicas de la optogenética integran proteínas que reaccionan ante la luz en sistemas que suelen detectar entradas de información distintas a la luz. Los científicos integraron estas proteínas, llamadas canalradopsinas, en los sistemas olfativos de ratones, creando animales en los que los mecanismos olfativos se activaban no mediante olores sino por la luz.

"Para distinguir cómo percibe el cerebro las diferencias entre los olores, parecía más razonable examinar los patrones de activación cerebral pero es difícil seguir estos patrones utilizando estímulos olfativos ya que los olores son muy diversos y a menudo bastante sutiles. Por esto nos preguntamos qué pasaría si la nariz actuara como una retina".

Con estos animales modificados mediante la optogenética, los científicos pudieron caracterizar los patrones de activación en el bulbo olfativo, la región del cerebro que recibe información directamente de la nariz. Debido a que la entrada de luz puede ser controlada fácilmente, los investigadores diseñaron una serie de experimentos que estimulaban neuronas sensoriales específicas en la nariz y examinaron los patrones de activación que llegan hasta el bulbo olfativo.

"La primera cuestión era cómo el procesamiento se organizaba y cómo entradas similares eran procesadas por las células adyacentes en el cerebro", explica Murthy.

Objetivos del experimento
Pero parece ser que la organización espacial de la información olfativa en el cerebro no explica por completo la capacidad para percibir los olores. La organización temporal de la información olfativa arroja luz sobre cómo el ser humano percibe los olores. Además de determinar la organización espacial del bulbo olfativo, el estudio muestra cómo el momento en el que se detecta el olor juega un papel importante en cómo se perciben los olores.

El trabajo tiene implicaciones no sólo para el futuro estudio del sistema olfativo sino para distinguir los circuitos neuronales que subyacen a otros sistemas



http://www.laflecha.net/canales/ciencia/cientificos-crean-ratones-que-son-capaces-de-oler-la-luz?_xm=newsletter

Plantas eléctricas

células de combustible

Una empresa noruega está desarrollando generadores diesel silenciosos basándose en un nuevo tipo de célula de combustible. Nordic Power Systems, que construye los generadores del ejército del país, ha probado con éxito una célula de combustible de ácido sólido de 250 vatios desarrollada por SAFCell, una empresa surgida de Caltech. Las empresas están ahora trabajando en un sistema de 1,2 kilovatios.

 Las células de combustible de ácido sólido se encuentran todavía en una fase inicial de desarrollo. Sin embargo SAFCell afirma que son más simples que las células de combustible convencionales, y los componentes clave (como el electrolito) pueden ser fabricados con materiales relativamente baratos. Los investigadores que desarrollan la tecnología piensan que podría ser lo suficientemente barata para sustituir a las turbinas de las centrales eléctricas de alta eficiencia. (El alto coste de las actuales células de combustible las limita a aplicaciones específicas, tales como la energía de reserva.)
Los nuevos generadores funcionan mediante la producción de gas de hidrógeno a partir de diesel en un proceso conocido como reforma (el combustible se calienta pero no se quema, y se mezcla con aire y vapor). Después, el hidrógeno se incorpora a la célula de combustible para producir electricidad. A diferencia de las células de combustible que han sido puestas a prueba en automóviles, las nuevas células pueden tolerar las impurezas, tales como el monóxido de carbono, que están presentes en el hidrógeno hecho a partir del diesel. En la producción a gran escala, las nuevas células de combustible también podrían ser significativamente más baratas que las células de combustible de óxido sólido de alta temperatura, como por ejemplo las que vende Bloom Energy, puesto que operan a temperaturas más bajas, y no requieren costosos materiales tolerantes al calor, asegura Calum Chisolm, director general de SAFCell.
Las células de combustible de ácido sólido se demostraron por primera vez en el laboratorio hace 10 años. Están basadas en ácidos sólidos que son buenos para la conducción de iones de hidrógeno, o protones, una clase de productos químicos que fueron descubiertos en la década de los 80, aunque se creía que eran poco prácticos para las células de combustible puesto que se disuelven en agua, la cual se produce cuando las células de combustible se combinan con hidrógeno y oxígeno. Sossina Haile, profesora de ciencias de los materiales e ingeniería química en Caltech, junto a sus colegas, descubrió una manera sencilla de solucionar este problema: hacer que las células de combustible funcionasen a temperaturas lo suficientemente altas como para convertir el agua en vapor, el cual no disuelve los ácidos sólidos.
Las células de combustible resultantes combinaban los beneficios de dos tipos principales de células de combustible: las células de combustible con membrana de electrolito de polímero y las células de óxido sólido. Las células de combustible con membrana de electrolito de polímero, el tipo que GM y otras empresas usan en sus prototipos de vehículos con células de combustible, son prácticas porque funcionan a bajas temperaturas. Sin embargo, a estas bajas temperaturas, el monóxido de carbono puede acumularse en los catalizadores y evitar que hagan su trabajo. Esto hace que tengan que utilizar combustible de hidrógeno purificado, que no está ampliamente disponible. Las nuevas células de combustible de ácido sólido pueden funcionar a temperaturas más altas (250°C en lugar de 90°C) bajo las cuales el dióxido de carbono no es un problema, por lo que pueden funcionar con hidrógeno creado sobre el terreno a partir de gas natural e incluso combustibles relativamente sucios como el diesel, que es mucho más fácil de conseguir que el hidrógeno.
En su capacidad para utilizar una gama de combustibles, las nuevas células de combustible son como las de óxido sólido. Sin embargo estas últimas suelen funcionar a temperaturas altas-entre 800°C y 1000°C-y requieren materiales costosos. Las nuevas células de combustible, una vez en dentro de la producción comercial, se espera que cuesten tanto como las células de combustible de óxido sólido que vende Bloom Energy, señala Chisolm, aunque los costes podrían bajar rápidamente a cerca de una décima parte del coste de la tecnología de Bloom a medida que la empresa desarrolle e implemente una serie de medidas de ahorro. En ese momento, las células de combustible serían lo suficientemente baratas como para ser competitivas con las turbinas de alta eficiencia en las plantas eléctricas.
Un desafío clave es la reducción de la cantidad de catalizador de platino usado, afirma Robert Savinell, profesor de ingeniería química en la Case Western Reserve University. Haile y los investigadores de SAFCell ya han identificado un catalizador de platino-paladio y unos métodos de deposición de catalizador que reducen la cantidad de platino requerido y aumentan la potencia de salida, pero la cantidad de platino debe reducirse más. Están desarrollando nuevos catalizadores que se aprovechen del hecho de que el sistema funcione a temperaturas relativamente bajas.
Otra opción es el reciclaje del platino, un proceso relativamente simple gracias a la composición química de las células de combustible, señala Chisolm. Eso, combinado con un buen plan de financiación, podría permitir que las células de combustible alcanzasen los 1.000 dólares por kilovatio, un punto ampliamente considerado como el punto en el cual las células de combustible disfrutarán de una adopción masiva, afirma.

El secreto de las manchas del leopardo

Rudyard Kipling narró en el cuento «Así fue como se puso las manchas el leopardo» que este animal posee sus marcas en la piel debido a que se escondió en un «gran bosque exclusivamente lleno de árboles, de arbustos y de sombras a rayas, a motas y a manchas». Ahora una nueva investigación de la Universidad de Bristol (Reino Unido) revela que Kipling no andaba lejos de la verdad, pues las especies de felinos que habitan zonas boscosas, pasan gran parte de su tiempo en árboles y cazan por la noche suelen poseer pieles con distintos patrones, mientras que las que habitan espacios más abiertos suelen poseer pieles relativamente uniformes.

Los descubrimientos, publicados en un artículo de la revista Royal Society B, sugieren que las pieles de los felinos ejercen funciones de camuflaje. El estudio explica por qué las panteras negras son bastante comunes, pero no se conoce ningún guepardo negro.
Los felinos poseen marcas muy variadas; algunos, como los leones, no tienen apenas, mientras que otros están cubiertos de puntos, rosetas y rayas de diversa complejidad e irregularidad en la forma.
Para determinar las causas de esta diversidad los investigadores clasificaron las marcas de 35 especies de felinos de todo el mundo y las relacionaron mediante un modelo matemático de desarrollo de patrones.
El estudio revela que los felinos lisos suelen habitar entornos abiertos de color, textura e intensidad de luz uniformes. En cambio, los felinos con marcas suelen vivir en zonas boscosas en las que los árboles proyectan «sombras a rayas, a motas y a manchas». Los patrones más irregulares se encuentran en felinos que cazan por la noche, viven en bosques tropicales y pasan gran parte de sus vidas en árboles.
«También es probable que el patrón en concreto evolucione para imitar el tamaño, la forma y la variabilidad de los patrones de los elementos del fondo», aventuran los investigadores.
Los científicos indican que estos descubrimientos apoyan la idea de que las marcas de los felinos sirven como un camuflaje efectivo. Cualquiera que tenga un gato doméstico sabe que los felinos cazan acechando a su presa con sigilo antes de lanzarse sobre ella cuando están lo suficientemente cerca. Un buen camuflaje es esencial para el éxito de esta estrategia y además puede proteger a las especies de felinos de menor tamaño frente a sus depredadores.
Uno de los resultados más interesantes del estudio hace referencia a los tigres, los únicos felinos con rayas verticales incluidos en el trabajo. Este patrón tan poco común no está relacionado con un hábitat de pradera y, según los investigadores, los tigres no guardan «una relación estrecha» con este hábitat. No obstante, el camuflaje de los tigres es extremadamente efectivo, lo que lleva a los investigadores a preguntarse por qué las rayas verticales no son más comunes en los felinos y otros mamíferos.
El estudio también aclara por qué algunas especies de felinos (como el leopardo) cuentan a menudo con individuos negros y otras (como el guepardo) no. Los investigadores explican que, al contrario que los guepardos, los leopardos viven en una amplia gama de hábitats y presentan comportamientos variados. Esta diversidad implica que cada uno de los individuos es capaz de aprovechar nichos ecológicos distintos, lo que favorece a su vez que surjan patrones o colores fuera de lo común.
Existen algunas excepciones a las tendencias descubiertas. Los guepardos, por ejemplo, suelen vivir en praderas abiertas pero presentan puntos en la piel, mientras que el gato de cabeza plana, que no tiene marcas, habita en entornos más cerrados. Según los investigadores es necesario estudiar más a fondo estas anomalías.





Compartir contenidos por email es más efectivo que a través de las redes sociales

Tres de cada cuatro usuarios suelen compartir contenidos con sus amigos y sus familiares, según Chadwick Martin Bailey, y las marcas están estudiando estos comportamientos muy de cerca para así poder aprovechar al máximo la influencia que tienen sus defensores. En un estudio de SocialTwist realizado en agosto se descubrió que el email es el canal más común para compartir contenidos, con un 55% del total de las referencias. En cambio, las redes sociales suponen sólo el 24%.

 En cambio, la importancia de compartir contenidos a través de los social media radica en el CTR, ya que el 60% de los clics que se generan a partir de contenidos compartidos provienen de las redes sociales, mientras que sólo el 31% de los emails. Y es que en los social media hay unas tasas de clics muchísimo más altas: en Facebook, cada link posteado genera una media de 2,87 clics y en Twitter 19,04.
Pero a pesar de las cifras, los hechos demuestran que el email puede estar funcionando mucho mejor de lo que parece. Cuando se manda un email a través de la aplicación "cuéntaselo a un amigo" en él aparece toda la información de la página original, por lo que no necesita hacer clic para acceder a la página original y leer el contenido. En cambio, en Facebook y Twitter sí es necesario hacer clic para leer los contenidos que se querían compartir.
Para muchas páginas los clics son clave, ya que cuando un visitante accede a la página a través de un link se obtienen beneficios publicitarios además de la posibilidad de hacerse conocido y provocar intenciones de compra mientras el usuario esté en su propiedad. Pero a través del email, los usuarios todavía pueden aprovecharse de los contenidos de estos medios, por lo que las marcas tienen que asegurar que los contenidos que se comparten lleven un mensaje que se mantenga efectivo cuando llegue al correo del receptor.
En un estudio anterior se descubrió que al compartir contenidos a través del email, aunque se consigue un CTR menor, el compromiso y la participación es mayor, además de que se aumentan las páginas vistas y, por tanto, las conversiones.

Un estudio revela que el deshielo polar acelerará el calentamiento global

El deshielo ártico se ha acelerado en las últimas décadas y podría causar un alud de cambios climáticos en las regiones templadas del planeta, advirtió un estudio divulgado por la revista "Science".

El informe de esa investigación es uno de una serie publicada por la revista en la que se advierte de la existencia de cuatro glaciares antárticos, cuyo deshielo amenaza con aumentar el nivel marino.
Ese deshielo, según señala otro estudio, es consecuencia de la contaminación que ha aumentado en las latitudes altas del planeta.
La serie coincide con una reunión científica en el estado de New Hampshire para analizar las consecuencias del cambio climático en todo el planeta.
Según Mark Serreze, científico del Centro Nacional de Datos sobre la Nieve y el Hielo en la Universidad de Colorado, la desaparición del hielo en los mares árticos ha llegado a un momento "crítico", cuyo impacto "no se limitará a la región ártica".
De acuerdo con su informe, la acumulación de hielo en los mares árticos ha sido negativa en todos los meses desde 1979, cuando se comenzaron a utilizar satélites para su observación.
Añadió que desde ese año se ha perdido una media anual de unos 100.000 kilómetros cuadrados de hielo como resultado del aumento en las concentraciones de gases invernadero.
"Mientras el Ártico pierde mucho hielo en los meses del verano, parece que también está generando menos hielo en el invierno", manifestó el científico.
Y cuando el hielo llega a un estado vulnerable, la situación se desquicia a tal punto que es posible que estemos avanzando rápidamente hacia una situación en que en un momento no haya hielo en el Ártico, agregó.
Serraze indicó que debido a que el aumento de las temperaturas registrado en las últimas décadas se debe a la emisión de gases invernadero en la atmósfera, a corto plazo no se prevé un fin de la declinación del hielo en los mares árticos.
El científico recordó que, en general, se vincula la pérdida de hielo al efecto negativo que pudiera tener sobre la vida silvestre, en especial para los osos polares y la erosión de las zonas costeras de Alaska y Siberia.
Sin embargo, señaló, otros estudios han vinculado esa pérdida a cambios en los patrones atmosféricos que causan una reducción en el oeste de EEUU o una mayor precipitación en el oeste y el sur de Europa.
Otro estudio publicado en "Science", realizado por científicos de la Universidad de Edimburgo y del University College de Londres, pone cifras más precisas al deshielo y señala que cada año este es de 125.000 millones de toneladas.
Los científicos Andrew Shepherd y Duncan Wingham manifiestan que ese deshielo es suficiente para aumentar el nivel marino en 0,35 milímetros por año, encima del incremento anual actual de tres milímetros.
Como prueba, los científicos ofrecen el caso de cuatro glaciares antárticos cuyo deshielo ha sido detectado mediante observaciones de satélite y que constituyen una amenaza para los niveles marinos.
Esos glaciares, descubiertos en el este y oeste de la Antártida provienen de cuencas submarinas que fluyen en los océanos y son vulnerables a los cambios de temperatura, como los ocurridos en el siglo XX y los que se pronostican para el siglo XXI, señalan.
Según un informe de científicos de la Universidad Pierre y Marie Curie, en París, también publicado en "Science", el calentamiento global está ocurriendo cada vez con mayor rapidez en las latitudes altas del planeta y se debe a la creciente concentración de gases invernadero.
Las fuentes de contaminación incluyen la que proviene de la zona euroasiática, las emisiones de buques y los incendios forestales del verano, según señalan.
La publicación de los estudios coincidió con una reunión científica en la ciudad de Hanover, en el estado de New Hampshire, convocada para determinar el impacto del calentamiento global.
Según los científicos, el calentamiento global es mayor en torno al ecuador planetario, pero allí los cambios que produce no son tan dramáticos como en los polos.
Las consecuencias del cambio climático afectarán a todo el mundo, a cada uno de los aspectos de nuestra vida y nadie podrá eludirlos, indican.







martes, 26 de octubre de 2010

Los días de frío extremo en Europa disminuyen y los de calor aumentan

Científicos de la Universidad Complutense de Madrid (UCM) han seleccionado 262 observatorios europeos que han analizado las series de temperaturas mínimas y máximas diarias de 1955 a 1998 para estimar las variaciones de tendencia en los eventos de temperatura extrema. Según el estudio, en Europa los días de frío extremo disminuyen y los de calor extremo aumentan: de 0,5º a 1ºC en la temperatura mínima media, y de 0,5º a 2ºC en la temperatura máxima media.

Los incrementos constantes de las temperaturas anuales en ciertas zonas implican "cambios en el medio ambiente e incrementos significativos en la frecuencia de los valores que se consideran temperaturas extremas", explica a SINC Emiliano Hernández, catedrático de Física de la Atmósfera de la UCM y uno de los autores del estudio. Para llegar a esta afirmación, los científicos han trabajado con 135 estaciones con series diarias de temperaturas mínimas y 127 estaciones con series diarias de temperaturas máximas distribuidas en 34 países europeos.
El estudio, que se ha publicado recientemente en Atmosfera , considera las temperaturas desde 1 de enero de 1955 hasta el 31 de diciembre de 1998, y analiza el comportamiento de los días de temperaturas extremas en Europa. "Todas las series de temperaturas han pasado por un proceso de homogeneización para eliminar posibles puntos de discontinuidad, y descartar cualquier factor que no sea meteorológico y climático", señalan los físicos.
Mayor frecuencia de días de calor extremo
Durante los 44 años de análisis, los investigadores han registrado los eventos de frío extremo (entre los meses de noviembre y marzo), y los de calor extremo (de junio a septiembre) donde han observado "un ligero descenso en los eventos de días de frío extremo e incrementos en los eventos de días de calor extremo", señala Hernández.
En el 65,2% de las estaciones que han medido las temperaturas mínimas, éstas han sido cada vez más altas, y en el 40% de las estaciones que miden las máximas, éstas han sido también más elevadas. Los observatorios donde se han detectado estas tendencias están en Europa occidental, incluidas las Islas Británicas e Islandia tanto para los días de frío extremo como los de calor extremo.
"La disminución de los días de frío extremo se debe al aumento de la temperatura mínima media de 0,5º a 1ºC a lo largo del periodo de análisis, mientras que para los días de calor extremo, los incrementos son de 0,5º a 2ºC en la temperatura máxima media", subrayan los científicos.
La disminución de los días de frío extremo y el incremento de los de calor extremo se explicarían por factores locales y globales, según los científicos. Algunos de ellos son la isla de calor que se produce en el interior de las ciudades, o el cambio de la circulación general de la atmósfera que determina directamente los eventos de temperatura extrema.
El peligro de los golpes de calor
Además de su relación directa con el cambio climático, las temperaturas extremas (mínimas y máximas) afectan, sobre todo, a la salud humana. La comunidad científica ha explicado en numerosas ocasiones que el impacto producido por las olas de calor es mucho mayor que el de las temperaturas mínimas.
Desde 1860 hasta ahora, la temperatura media del planeta se ha incrementado en 0,60ºC. "Particularmente en la ola de calor de 2003, en gran parte de Europa, la temperatura media excedió en 3ºC en relación al valor normal de los veranos de 1961 a 1990 con aumentos más significativos en el centro de Francia, Suiza, norte de Italia y sur de Alemania", recalca Marco Cony, coautor del estudio y físico en la UCM.
Un ejemplo de los efectos de días de calor extremo que incrementarán su frecuencia es la ola de calor que asoló Europa en 2003. Ese verano se registraron récords de temperaturas máximas en las escalas mensuales, semanales y diarias. En concreto, en Suiza se llegaron a registrar 41,50ºC y en Portugal, 47,30ºC.
Los expertos advierten que el exceso de calor puede causar estrés, empeoramiento de las enfermedades e incluso la muerte, como en el verano de 2003, cuando más de 30.000 personas fallecieron en toda Europa por las altas temperaturas.





El cerebro conoce la intención de las acciones ajenas

Las así llamadas neuronas espejo no sólo imitan comportamientos, sino que integran también su intencionalidad
Neurocientíficos de California han verificado finalmente lo que hasta ahora era una hipótesis: que el cerebro humano no sólo percibe las actividades de los otros, sino también la intención que los motiva a hacerlas. Han comprobado que las áreas del cerebro donde se encuentran las neuronas espejo, que se activan durante la ejecución y observación de una acción, también añaden intenciones a las acciones presentadas en un contexto. Hasta ahora, se pensaba que este tipo de neuronas sólo estaban implicadas en el reconocimiento de acciones, no en su interpretación.

Un estudio realizado por neurocientíficos de la universidad de California, en Estados Unidos, acaba de demostrar que las denominadas "neuronas espejo" de nuestro cerebro son capaces no sólo de activarse cuando ven realizar una acción, sino también de reconocer la intención de aquél que la realiza.

En la corteza cerebral existe un grupo de neuronas que tienen la facultad, desconocida hasta hace poco para una neurona, de descargar impulsos tanto cuando el sujeto observa a otro realizar un movimiento, como cuando es el mismo sujeto quien lo hace.

Las neuronas espejo forman parte de un sistema de percepción y de ejecución cerebral que activa las regiones específicas de nuestra corteza motora cuando vemos que se mueve una mano u otra parte del cuerpo de otra persona, como si nosotros mismos también nos moviéramos aunque no lo hagamos.

Gracias a estas neuronas, entre otros factores, se producen los procesos de identificación esenciales para que los padres y cuidadores pasen sus caracteres a los niños, al mismo tiempo que los movimientos de los lactantes son registrados por sus cuidadores, hasta el punto de sentirlos como suyos.

Sin embargo, el descubrimiento de las neuronas espejo va más allá de que el movimiento del otro, al ser observado, genere un movimiento igual en el observador. Los investigadores que trabajan en el sistema percepción y ejecución de las "neuronas espejo" se planteaban desde hace tiempo la hipótesis de que este sistema integrara un circuito que permitiese atribuir y entender también las intenciones de los otros, que es lo que han verificado ahora los neurocientíficos de California.

Espejo e interpretación

Según publica la revista online PloS Biology, el equipo de investigación ha descubierto que las áreas del cerebro pre motor donde se encuentran las neuronas espejo, que se activan durante la ejecución y observación de una acción, también añaden intenciones a las acciones si son presentadas en un contexto. Hasta ahora, se pensaba que este tipo de neuronas sólo estaban implicadas en el reconocimiento de acciones, no en su interpretación.

Además de aumentar el conocimiento de las funciones cerebrales, este descubrimiento proporciona pautas para el desarrollo de determinados tratamientos basados en la imitación, tratamientos que serán aplicables a pacientes con autismo y desórdenes similares, y que estimularán la función de las neuronas espejo, ayudándolas a desarrollar su capacidad para entender las intenciones de otras personas, de manera que los pacientes puedan empatizar con sus pensamientos y sentimientos.

Según explica el director del estudio, el doctor Marco Iacoboni, profesor asociado de psiquiatría y ciencias del comportamiento, en un comunicado difundido por el UCLA Neuropsychiatric Institute, este descubrimiento demuestra por primera vez que las intenciones en las acciones de los otros pueden ser reconocidas por un sistema motor utilizando un mecanismo cerebral que haría de espejo.

Imágenes de resonancia magnética

Para el experimento fueron analizados 33 sujetos con un sistema funcional MRI, que genera imágenes de resonancia magnética del cerebro. Se trata de una de las tecnologías más avanzadas para examinar la estructura, tejidos y fluidos internos del cuerpo humano, capaz de producir imágenes nítidas en dos o tres dimensiones. Estas imágenes se realizan utilizando un poderoso imán y ondas radiales.

Estos 33 voluntarios visualizaron alternativamente tres tipos de estímulos en vídeos cortos: primero una mano que agarraba una taza sin que este movimiento se encontrara enmarcado en un contexto; después sólo el contexto: un servicio de té completo con la comida y la bebida servidas; y finalmente los movimientos de beber o de limpiar dentro del contexto reflejado.

Se descubrió que las acciones realizadas dentro de contexto, en comparación con las realizadas fuera de él, aumentan el flujo de la sangre en la parte posterior del gyrus frontal inferior del cerebro, conocido por su importancia en la ejecución del control, y también en los sectores adyacentes del la corteza ventral premotora, donde las acciones de las manos se representan. El incremento del fluido sanguíneo es siempre un indicador de la actividad neuronal.

Este hecho implica que las neuronas espejo se activan en mayor grado cuando las acciones motoras que vemos no son aisladas, sino que se encuadran en un entorno que para nosotros tiene un significado determinado, lo que implica cierta capacidad de interpretación neuronal de identificación de las intenciones de la persona que tenemos enfrente.

Teoría de la mente

Este descubrimiento está en la base de lo que hoy se conoce como teoría de la mente, según la cual se supone en el comportamiento de otro determinadas intenciones. Cuando somos testigos de cualquier tipo de actividad o secuencia de actividades llevadas a cabo por una persona o grupo de personas, según la Teoría de la Mente en general tendemos a asignarle algún significado. Tendemos a explicarnos los comportamientos de los demás de tal manera que nos resulten consistentes y que otorguen cierta continuidad al devenir de las acciones de los otros y al discurrir de nuestros propios pensamientos.

De esta forma, cuando un sujeto realiza acciones -simples o complejas-, estas acciones van acompañadas de la captación de las propias intenciones que impulsan a hacerlas. Se forma así una articulación en el psiquismo de modo que la propia acción queda asociada a la intención que la puso en marcha. Cada intención queda asociada a acciones específicas que le dan expresión, y cada acción evoca las intenciones asociadas, según esta teoría.

Lo que ha comprobado el equipo de California es que, una vez formado ese complejo asociativo "acción/intención" en un sujeto, cuando el otro realiza una acción, las neuronas espejo provocan en el cerebro del observador la acción equivalente, al mismo tiempo que el observador integra también la intención que llevó al otro a realizar determinada acción. De esta forma, el otro atribuye naturalmente al observador la intención que tendría la acción si la realizase él mismo.

El estudio ha sido patrocinado, entre otros, por la Brain Mapping Medical Research Organization, la Pierson-Lovelace Foundation, el National Center for Research Resources, la National Science Foundation y el National Institute of Mental Health norteamericanos.






Los ecosistemas del planeta están amenazados por una cantidad ingente de nitrógeno generado por el ser humano

Investigadores de Dinamarca y Estados Unidos han descubierto que los ecosistemas del planeta están saturados de nitrógeno generado por el ser humano. Además, la concentración de nitrógeno se ve aumentada por la quema de combustibles fósiles y por la intensificación de la actividad industrial y agrícola. Este exceso de nitrógeno podría repercutir gravemente en el clima y viene al mismo tiempo acompañado de una contaminación de cursos de agua dulce y zonas litorales por efecto de diversas actividades humanas. El estudio, publicado en la revista Science, ha revelado que una aplicación más amplia de prácticas sostenibles y ya consolidadas contribuiría a limitar los impactos nocivos en el medio ambiente.

Los investigadores, pertenecientes a la Universidad del Sur de Dinamarca y a las Universidades de California-Berkeley y Rutgers (Estados Unidos), explican que el ciclo del nitrógeno, que tiene miles de millones de años de antigüedad, consiste en la transformación de las formas de nitrógeno de la atmósfera que no son útiles biológicamente en una serie de formas que sí lo son y que diversos organismos necesitan para crear proteínas, ADN y ARN (ácidos desoxirribonucleico y ribonucleico) y hacer la fotosíntesis. La «fijación del nitrógeno» es el término científico empleado para referirse a la conversión de nitrógeno atmosférico en diversos compuestos, como el amoníaco, ya sea por medios naturales o procesos industriales. . La fijación del nitrógeno se produce en un ciclo que abarca la atmósfera, el suelo, las plantas y sus raíces y por él discurren los productos generados, fomentando relaciones entre organismos, microorganismos y plantas.
Con el tiempo, dicho ciclo ha cambiado gradualmente desde sus orígenes debido a distintas circunstancias como la luz solar, los procesos volcánicos y las actividades biológicas. Tras 2.500 millones de años de evolución, los procesos microbianos han conformado el ciclo del nitrógeno tal y como lo conocemos ahora.
Las actividades humanas empezaron a influir en este ciclo a principios del s. XX. «De hecho, en los últimos 2.500 millones de años probablemente ningún otro fenómeno ha influido más que las actividades humanas en el ciclo del nitrógeno», indicó uno de los autores del estudio, el profesor Paul Falkowski del Instituto de Estudios Marinos y Costeros de la Universidad Rutgers. «En conjunto, las actividades humanas generan actualmente el doble de los procesos de fijación de nitrógeno terrestre que las fuentes naturales y proporcionan cerca del 45% del total del nitrógeno biológicamente útil que se produce cada año en la Tierra.»
Los datos recabados indican que la mayor parte del exceso de nitrógeno que hay en los ecosistemas del planeta se debe a un incremento del 800% en el uso de fertilizantes a base de nitrógeno en el periodo 1960-2000.
Este exceso se atribuye también a un uso inadecuado de una gran cantidad de fertilizante a base de nitrógeno en cultivos de todo el planeta. Cerca del 60% del nitrógeno contenido en los fertilizantes aplicados no llega a ser absorbido por las plantas y por tanto es arrastrado desde las zonas radicales y a va a parar a ríos, lagos, acuíferos y aguas costeras, los cuales contamina por eutrofización. Este proceso se debe al exceso de nutrientes que agota el oxígeno de las masas de agua y, por consiguiente, provoca la muerte de la flora y la fauna.
Con respecto a la atmósfera, los investigadores indican que el óxido de nitrógeno es un gas de efecto invernadero cuyo efecto en el calentamiento del planeta es 300 veces por molécula superior al del dióxido de carbono. En resumen, el óxido de nitrógeno elimina el ozono de la estratosfera, que protege el planeta frente a los dañinos rayos ultravioleta.
«Es probable que los procesos naturales de retroalimentación de los microorganismos provoquen un nuevo régimen estacionario en escalas de tiempo de numerosas décadas», afirmó el profesor Falkowski. «En dicho régimen estacionario, el nitrógeno excedente procedente de fuentes humanas se eliminará a la misma velocidad a la que se añadirá, sin llegar a acumularse.»
Los autores han concretado tres intervenciones fundamentales para remediar los daños causados al ciclo del nitrógeno: 1) aplicar rotaciones sistemáticas en cultivos que suministren nitrógeno; 2) optimizar los tiempos y las cantidades de los fertilizantes aplicados y adoptar técnicas fitogenéticas seleccionadas o bien desarrollar variedades de plantas transgénicas cuya eficiencia en el uso del nitrógeno sea mayor; y 3) aplicar técnicas fitológicas tradicionales que aumenten el potencial de variedades económicamente viables de trigo, cebada y centeno.





Un cerebro holgazán es un cerebro que se encoge

Los investigadores encontraron que las personas que han sido más activas mentalmente durante sus vidas tienen un hipocampo más grande que las que han realizado menores esfuerzos mentales. Además, la tasa de encogimiento de su hipocampo es la mitad que la sufrida por quienes ejercitaron menos su mente.

Esta es la primera vez que unos científicos han comparado los cerebros de los participantes en un estudio durante un largo período de tiempo con respecto a los patrones de actividad mental. Lo descubierto respalda un trabajo anterior que mostró que las actividades mentales complejas ayudan a prevenir la demencia.
El nuevo hallazgo es significativo porque un hipocampo pequeño es un factor de riesgo específico para desarrollar la enfermedad de Alzheimer.
El estudio también ayuda a aclarar por qué existe este vínculo sistemático entre la actividad mental intensa y un riesgo más bajo de padecer demencia.
En esta investigación, los científicos estudiaron un grupo de más de 50 personas sexagenarias durante un período de 3 años.
El autor principal, Dr. Michael Valenzuela de la Escuela de Psiquiatría de la Universidad de Nueva Gales del Sur, subraya que mientras muchas compañías farmacéuticas están intentando encontrar un fármaco específico para impedir el encogimiento del hipocampo, es una buena noticia saber que las personas pueden ayudarse a sí mismas con estrategias a su alcance.
El Dr. Valenzuela y otros investigadores de su universidad, así como de la Universidad de Sydney y de la Universidad James Cook están trabajando ahora en un ensayo clínico para evaluar si el ejercicio cognoscitivo y físico en períodos relativamente cortos de tiempo puede reducir la severidad del declive cognoscitivo en las personas ancianas que están bajo ese riesgo.




Una nueva investigación sitúa el origen del ser humano en África

Evolucionó de 'homo erectus' a 'homo sapiens'
Un nuevo estudio sobre el origen del ser humano ha probado, mediante la combinación de pruebas genéticas y medidas de cerca de 6.000 cráneos recogidos por todo el mundo, que África es la cuna de la especie humana.

 Esta investigación ha sido llevada a cabo por el Departamento de Investigaciones Científicas de la Universidad de Cambridge y se publicó en el número de julio de la revista 'Nature'.
El estudio ha demostrado la teoría de que el ser humano apareció en un punto del África subsahariana desde el que emigró por todo el mundo a la vez que evolucionó de 'homo erectus' a 'homo sapiens'.
La investigación se probó genéticamente comprobando que cuanto más alejada se encontraba una población de África, menor es su variación genética, y por el contrario, a mayor cercanía del continente, la variedad genética aumenta considerablemente. Esta prueba desmantela ya por completo el resto de teorías que defendían el origen del ser humano en diferentes puntos del planeta.
La doctora Andrea Manica, coordinadora del proyecto Departamento de Zoología de la Universidad afirma: 'pese a que hay quien ha intentado utilizar las medidas de los cráneos como argumento para defender la multioriginalidad del ser humano por todo el mundo, nuestras pruebas con los cráneos, combinadas con las investigaciones genéticas han demostrado definitivamente la que la raza humana nació en un área del África subsahariana.'

Trigonias: fósiles vivientes

Consideradas por las ciencias curiosidad de la fauna marina debido a su antigüedad, las trigonias,especie de molusco fósil viviente, son visibles en los mares del archipiélago de Los Colorados, en el norte de la occidental provincia cubana de Pinar del Río, a 175 kilómetros al oeste de La Habana.

 Las trigonias son conchas asimétricas cerradas, con una quilla anterior y, externamente ornamentada por costillas concéntricas, que son consideradas por los científicos como el fósil viviente de más edad en la isla, donde su aparición es situada en la era mesozoica,hace unos 245 millones de año.
La observación de esas singulares conchas es atractivo para expertos y turistas que guiados por buzos llegan a los fondos cercanos a Cayo Levisa, en la costa norte pinareña. Ese ejemplar, una de las aproximadamente 50.000 especies vivientes de moluscos, grupo animal de proverbial vastedad, se suma a la lista de peces, esponjas, corales y gorgonias, abundantes en las aguas aledañas a Levisa, islote turístico con tres kilómetros de playas y 23 sitios dedicados al buceo.
A ese cayo, parte de las 62 millas que comprende el archipiélago de Los Colorados, se accede por mar desde el embarcadero de Palma Rubia,en una travesía de alrededor de 30 minutos, destino donde el visitante encuentra un virginal paraje dotado de decenas de cabañas confortables y otras instalaciones.
Por la biodiversidad, es interés de las autoridades científicas de la isla acoger en el Sistema Nacional de Áreas Protegidas (SNAP), al menos el 15 por ciento de la plataforma insular y la cuarta parte de los arrecifes coralinos.
Las costas cubanas rondan los 5.800 kilómetros de extensión, y más de 100 áreas en litorales están propuestas a integrar el SNAP.

lunes, 25 de octubre de 2010

¿Qué es lo que impide que los peces se congelen en el Océano Ártico?

¿Qué es lo que impide que los peces se congelen en el Océano Ártico?

Las temperaturas de 1,8 grados centígrados bajo cero deberían ser lo bastante frías como para congelar a cualquier pez, ya que el punto de congelación de la sangre de estos animales es de alrededor de 0,9 grados centígrados bajo cero. El enigma de cómo los peces antárticos son capaces de seguir moviéndose sometidos a estas temperaturas tan gélidas ha intrigado desde hace mucho tiempo a la comunidad científica.

Hace tanto como 50 años, se descubrió en estos peces la presencia de proteínas especiales anticongelantes, capaces de protegerles de la congelación de la sangre. Estas proteínas anticongelantes funcionan mejor que cualquier anticongelante doméstico. Sin embargo, hasta ahora ha estado poco claro cómo actúan dentro de los peces.
Con la cooperación de expertos de Estados Unidos, el equipo de la profesora Martina Havenith de la Universidad del Ruhr en Bochum, Alemania, usó una técnica especial de espectroscopia para desentrañar el mecanismo subyacente.
Gracias a esta técnica, es posible grabar el movimiento colectivo de las moléculas de agua y proteínas.
Valiéndose de ello, el equipo ha sido capaz de demostrar que las moléculas de agua se mueven de un modo especial, más ordenado, en presencia de estas proteínas.
La investigación actual se centró en las glicoproteínas anticongelantes del pez antártico Dissostichus mawsoni, que uno de los colaboradores estadounidenses, Arthur L. Devries, había pescado él mismo en una expedición antártica. Él y su equipo ya se dieron cuenta de que la proteína tiene un importante efecto sobre las moléculas de agua a su alrededor, hasta una distancia considerablemente grande.





El "sexo espacial" (para procrear) podría ser peligroso

Los astronautas son profesionales y no piensan en sexo espacial, pero Stephen Hawking dijo que la humanidad puede extinguirse si no conquista el espacio. Esto significa, que el futuro de la raza humana depende de encontrar las condiciones propicias para la procreación lejos de la Tierra, sin embargo hay un factor que puede determinar esta posibilidad: la graved-
Un grupo de investigadores australianos que simularon condiciones de gravedad cero para examinar el comportamiento de células madre embrionarias, descubrieron efectos negativos que advierten que la procreación en el espacio (de momento) es imposible o al menos no recomendable.
Emplearon células madre embrionarias humanas porque que poseen la extraordinaria capacidad de convertirse en cualquier otra célula, y para simular la microgravedad en la Tierra, los científicos utilizaron una máquina diseñada por la NASA que mantiene las células alimentadas con oxígeno y nutrientes, mientras gira constantemente para mantenerlas en un estado de caída libre durante 28 días.
Después del experimento, las células mostraron grandes diferencias en el nivel molecular, el 64% de sus proteínas eran diferentes a las cultivadas en gravedad normal. Estas células expuestas a microgravedad generaron más proteínas que degradan los huesos y menos proteínas con efectos antioxidantes - que protegen contra los oxidantes reactivos que pueden dañar el ADN.
La microgravedad también influyó en los niveles de una amplia gama de otras proteínas, incluyendo las que participan en la división celular, el sistema inmunitario, los músculos y esqueleto, así como los niveles de calcio en las células y la motilidad celular.
Estos resultados en las células madre embrionarias no son un buen augurio para los intentos de la procreación en condiciones de microgravedad. Algunos de los riesgos negativos que puede tener la microgravedad en un embrión incluye la falta de maduración ósea, alteraciones de los vasos sanguíneos y corazón, retraso en el crecimiento neuronal, y tejido muscular alterado.
"El efecto que la microgravedad puede tener en el crecimiento del embrión o feto sería similar a un cuerpo adulto, pero el cuerpo de un adulto puede adaptarse a ambientes de microgravedad a diferencia de un embrión, del cual se desconoce su capacidad para adaptarse", dijo Helder Marcal, un ingeniero de tejido en la Universidad de New South Wales en Australia.
Pero esto no es tan malo, ya que ahora que conocen el problema su meta es aislar los efectos - quizás modificando genéticamente algo que sustituya la falta de gravedad - ya que la procreación en el espacio es algo inevitable.
Los científicos detallaron sus hallazgos en la pasada Conferencia sobre Astrobiología en Texas, por lo que, de momento olvídate de tu traje 2suit o las cuatro posiciones sexuales que detalla Pierre Kohler en el libro The Final Mision: Mir, The Human Adventure, sobre todo porque Virgin Galactic tampoco está interesada en el porno espacial suborbital.

viernes, 22 de octubre de 2010

Astrónomos descubren un raro magnetar con un campo magnético pequeño

Hasta ahora se pensaba que todos los magnetares, estrellas de neutrones que emiten rayos X y gamma, presentaban un campo magnético muy alto, pero no siempre es así, según un estudio internacional liderado desde el Instituto de Ciencias del Espacio (CSIC-IEEC) y que hoy publica Science. Los investigadores han encontrado que el magnetar SGR 0418+5729 tiene un campo magnético mucho más pequeño que el resto, lo que obliga a revisar los modelos sobre el origen y evolución de los magnetares.

 Los magnetares son conocidos por disparar rayos X o rayos gamma en explosiones cortas, esporádicas, e incluyen estrellas denominadas "repetidores de gamma suave" y pulsares anómalos de rayos X. Se creía que los magnetares son impulsados por campos magnéticos extremadamente altos, pero un equipo europeo informa esta semana en Science que esto no siempre es cierto, y que la población de estrellas de neutrones con un comportamiento tipo magnetar es más amplia que lo que se pensaba hasta ahora.
La investigadora Nanda Rea del Instituto de Ciencias del Espacio (CSIC-IEEC) y otros colegas han analizado los datos de tres diferentes observatorios espaciales de rayos X y han descubierto que un conocido repetidor de gamma suave, SGR 0418+5729, detectado recientemente después de que emitió explosiones tipo magnetar, tiene un campo magnético mucho más pequeño que el de otros miembros de esta clase.
El equipo ha descubierto que incluso las estrellas de neutrones con un campo magnético normal pueden generar explosiones de rayos gamma y experimentar grandes picos de luminosidad. Los resultados del estudio, que se anticipan esta semana en Science Express, hacen necesario revisar los modelos teóricos sobre el origen de estos objetos, que podrían ser mucho más frecuentes de lo que se pensaba hasta ahora.
Los investigadores han estudiado durante más de un año la estrella SGR0418, descubierta en junio del pasado año cuando el satélite Fermi detectó una explosión de rayos gamma que provenía de ella. Usando varios satélites de la NASA y la ESA los científicos han concluido que tiene todas las características de un magnetar (emisiones muy energéticas de rayos gamma y X) pero que, a diferencia de los conocidos hasta el momento, su periodo rotacional no decrece y su campo magnético en superficie es mucho menor.
"Hasta ahora se pensaba que estas radiaciones tan energéticas eran debidas al gran campo magnético tanto interior como exterior de la estrella, que provocaban que se rompiera la corteza de la estrella y la materia saliera disparada, cargándose de energía X y gamma", explica Rea.
"Sin embargo, el campo externo es aquí menor que en otros magnetares y aún así se detectan emisiones muy intensas, lo que nos hace sospechar que debe de haber un campo magnético interno mucho mayor que el del exterior de la estrella (que es el que nosotros podemos medir). Esto nos obliga a replantear los modelos y explicaciones que se manejaban hasta ahora para el origen de estos objetos", añade.
La energía de los magnetares
Los magnetares expulsan en un breve periodo de tiempo enormes cantidades de energía en forma de rayos X y rayos gamma -uno de los fenómenos más energéticos del universo-, que incluso pueden afectar a la ionosfera terrestre e interrumpir las comunicaciones. Así ocurrió en 2004, cuando la explosión de rayos gamma del magnetar SGR 1806‐20, a más de 50.000 años luz de distancia, alcanzó la atmósfera de la Tierra y paralizó muchos de los satélites durante varias décimas de segundo.
"Las estrellas de neutrones son bastante frecuentes: sólo en nuestra galaxia hay unas 2.000 o 3.000", comenta Rea. De ellas, la gran mayoría son púlsares y tan sólo 16 se consideraban como magnetares, es decir, capaces de generar emisiones altamente energéticas. Pero SRG 0418 obliga a reconsiderar este planteamiento.
"Si estrellas con un campo magnético externo tan bajo pueden comportarse así, podría ocurrir que muchas de las estrellas de neutrones que conocemos fueran magnetares en potencia, dormidos hasta que se dieran las condiciones adecuadas para que se desencadene una explosión", apunta la investigadora.
"Esto que nos obliga a replantear lo que sabemos sobre el origen de estas estrellas y por tanto, a reconsiderar y construir nuevos modelos teóricos sobre las explosiones de supernovas que pueden generar campos magnéticos tan intensos", concluye Rea. Estas explosiones se producen cuando una estrella masiva, de al menos ocho veces la masa del Sol, llega al final de su vida y puede originar agujeros negros, magnetares u otras estrellas de neutrones.

La aparición de las plantas vasculares posibilitó el aumento del oxígeno terrestre y la evolución de animales más grandes y complejos

Un grupo internacional de científicos ha dado pasos importantes a la hora de desvelar los secretos de la oxigenación en la atmósfera y océanos terrestres. Estudiando el registro fósil y analizando las rocas de épocas anteriores se pueden encontrar correlaciones entre un aumento de la complejidad animal y el aumento de la concentración de oxígeno. Así por ejemplo, ya se había señalado en el pasado que la explosión del Cámbrico de hace 550 millones de años pudo ser debida a un aumento en la cantidad de oxígeno disponible para los animales de la época. Durante esa diversificación aparecieron grupos de animales y filos en gran número nunca vistos antes sobre la Tierra.

Ahora, este grupo de investigadores sostiene que la aparición de los grandes peces depredadores y de las plantas vasculares de hace 400 millones de años coincidieron con otro aumento en la concentración de oxígeno hasta niveles que son comparables a los que tenemos hoy en día. Si esto es cierto los animales que aparecieron antes debieron de evolucionar bajo unos niveles de oxígeno inferiores a lo que se pensaba.
Los investigadores se basaron para este estudio en un método ideado por Ariel Anbar de Arizona State University. El método puede usarse para estimar los niveles globales de oxígeno en océanos primitivos a partir de la composición isotópica de los sedimentos marinos de la época conservados hasta ahora en forma de rocas.
Según este investigador ha habido muchas especulaciones sobre si el nivel de oxígeno terrestre ha cambiado o permanecido estable durante los últimos 500 millones de años. Durante ese tiempo aparecieron y se diversificaron las plantas y animales terrestres. Por tanto, es importante a la hora de comprender la historia de la vida. Según Anbar este nuevo hallazgo no solamente sugiere que los niveles de oxígeno variaron, sino que además esa variación tuvo consecuencias directas sobre la evolución de la vida compleja.
Desde casi el comienzo de la vida y hasta hace 2300 millones de años la atmósfera empezó a tener trazas de oxígeno como subproducto de la fotosíntesis de microorganismos. Pero ese oxígeno era insuficiente como para que se acumulara en la atmósfera o en los océanos. Esto cambio justamente tras el Evento de Gran Oxidación hace 2300 millones de años.
Los niveles de oxígeno volvieron a subir hace 550 millones de años, justo cuando los primeros animales complejos aparecen en el registro fósil, marcando el comienzo de Fanerozoico que en griego significa "animales evidentes".
Para este estudio se midió las cantidades relativas de diferentes isótopos de molibdeno en rocas de esquisto formadas en el lecho marino hace millones de años a partir de los sedimentos que caían.
El molibdeno tiene siete isótopos estables. Las reacciones químicas seleccionan unos isótopos frente a otros. Así por ejemplo, el carbono 12 está más enriquecido (en torno a un 3% más) en las plantas que en la atmósfera terrestre. De manera similar los isótopos de molibdeno son fraccionados en función de su peso durante su paso del agua del océano a los sedimentos marinos. La magnitud de este fraccionamiento es sensible a la presencia de oxígeno.
Los datos obtenidos por estos investigadores revelan que al menos hubo dos etapas de oxigenación durante el Fanerozoico, separadas por un evento de oxigenación hace 400 millones de años. Esto está corroborado por el registro fósil ya que coincide con la aparición de grandes peces predadores de 10 metros de longitud. Los animales de este tamaño consumen energía de forma rápida y por tanto requieren altos niveles de oxígeno para mantener su metabolismo. Los animales anteriores a esta época evolucionaron, por consiguiente, en ambientes con menos oxígeno que en la actualidad. El nuevo evento de oxigenación ahora descubierto explicaría la misteriosa aparición de estos peces en el registro fósil.
Pero el verdadero causante de este evento sería una innovación evolutiva: la aparición de las plantas vasculares. Según Anbar el hecho de que las plantas vasculares aparecieran en el registro fósil justo hace 400 millones de años explicaría precisamente el aumento de oxígeno. Los restos de este tipo de plantas se descomponen lentamente y mucho carbono queda secuestrado en los sedimentos. Esto aleja a esta materia orgánica de una posible combinación con el oxígeno para producir dióxido de carbono que reduciría los niveles de oxígeno. De este modo, la fotosíntesis tendría a partir de esa época una producción neta de oxígeno más alta que antes y como consecuencia se elevarían los niveles de oxigeno.
La innovación biológica de las plantas vasculares dio lugar a un mayor enterramiento de carbono y a un mayor nivel de oxígeno.
El aumento de oxigeno hizo posible la evolución de animales más grandes y complejos. Según Anbar esto representa un buen ejemplo de "coevolución" entre la vida y el ambiente que la aloja. "Aunque los geólogos habían hablado acerca de esta idea, rara vez habían encontrado ejemplos tan bonitos", afirma.
Así que cuando el amable lector mire a un helecho o a una selaginela piense que sus antepasado directos de hace 400 millones de años permitieron la aparición de tiburones gigantes y más tarde los dinosaurios y la evolución del género humano. Es el aire que respira.





Lavabos prehistóricos

Para realizar una investigación diacrónica del clima la comunidad científica se ha valido en múltiples ocasiones de testigos de hielo, sedimentos lacustres y anillos anuales. Ahora investigadores de Francia y Reino Unidohan descubierto otra fuente de información poco ortodoxa que brindará información nueva sobre el cambio climático, especialmente en zonas secas: la orina animal fósil. El equipo recibió una subvención del Consejo Europeo de Investigación (CEI) para la realización de su estudio.

El Procavia capensis (damán de El Cabo), un animal común en África y Oriente Próximo parecido a un conejillo de indias pero relacionado con el elefante, suele habitar en formaciones rocosas, peñascos y acantilados. Uno de sus comportamientos más sorprendentes es que las colonias de estos animales utilizan una misma zona para evacuar.
Investigadores del Institut des sciences de l'évolution de Montpellier(ISEM, Francia)y la Universidadde Leicester(Reino Unido), ambosmiembros de un grupo internacional, indicaron que algunos de estos retretes comunales se han utilizado durante miles de años. Pero lo que despierta verdadero interés acerca de estas letrinas milenarias es lo que queda en las rocas. La orina de estos animales se cristaliza y crea acumulaciones estratificadas denominadas «middens». Los investigadores utilizaron los depósitos de orina de los middens para indagar en cambios climáticos a largo plazo.
«Para estudiar cambios medioambientales del pasado los científicos suelen obtener muestras de depósitos en turberas o lagos en los que se conserva materia orgánica a la que se le puede calcular una fecha», explicó el Dr. Andrew Carr del Departamento de Geografía de la Universidad de Leicester. «Pero en entornos secos como el sur de Áfricaesto es imposible. Por suerte parece ser que la orina de los damanes conserva materia orgánica de miles de años de antigüedad que permite obtener importantes datos sobre cambios medioambientales pasados del hábitat de estos animales.»
El equipo de la Universidad de Leicesterdescubrió moléculas orgánicas especiales conservadas en los middens, entre las que se encontraron compuestos producidos por el metabolismo de los animales y moléculas derivadas de vegetales que habían atravesado su sistema digestivo.
Según los investigadores, estos «biomarcadores» ayudaron a esclarecer el tipo de alimentación de estos herbívoros y por consiguiente el tipo de entorno que habitaban. Por esta razón los datos sobre biomarcadores permitieron al equipo completar el rompecabezas que muestra los cambios climáticos de la región durante los últimos 30.000 años e incluso permite realizar predicciones precisas a décadas o siglos vista.
«Los registros paleomedioambientales de la zona estaban fragmentados», indicó el Dr. Carr. «Los middens nos aportan registros terrestres únicos que se pueden comparar con otros testigos cercanos de los fondos oceánicos y así estudiar con mucho mayor detalle las causas del cambio climático en África. Este entorno posee gran dinamismo y parece que el clima de la región cambió de modo extraño durante y tras la última glaciación (hace unos 20.000 años).»
El Dr. Carr indicó que el próximo paso, que formará parte de un nuevo estudio dirigido por el también participante de este estudio Dr. Brian Chase del ISEM, será comparar los datos de los middens con simulaciones de climas pasados generadas por modelos de circulación general (MCG) informáticos con el fin de evaluar su validez y determinar «las razones por las que el clima ha cambiado de una forma y no de otra». Los MCG se utilizan para simular climas pasados y futuros.
El Leverhulme Trust también aportó fondos para esta investigación, que se ha publicado en las revistas Geology, Quaternary Research y Palaeogeography, Palaeoclimatology, Palaeoecology.



Nuevos enfoques en el estudio de la mente

Se cuestiona el enfoque central de la Ciencia Cognitiva y la Inteligencia Artificial clásicas en favor de un modelo corporizado
La cognición se entiende hoy como una función de supervivencia que sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva. Este nuevo paradigma científico ha dado origen a una Ciencia Cognitiva “corporizada” y a una “Nueva Inteligencia Artificial”. Ambas consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con el entorno. Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics).

El estudio de la mente humana comenzó hace varios siglos atrás, pero se aceleró hace relativamente poco tiempo con el inicio de la Ciencia Cognitiva (de ahora en más, CC). Por otra parte, la posibilidad de dotar a las máquinas con una especie de “protomente” (de forma más concreta, inteligencia) surge con el advenimiento de la Inteligencia Artificial (de ahora en más, IA). Quizás por casualidad, ambas disciplinas nacen en el mismo año: 1956 [Gardner, 1996]; es decir, hace casi 50 años.

La CC es “el estudio teórico y experimental de los mecanismos de codificación, almacenamiento, manipulación y transferencia de la información en sistemas naturales y artificiales que aseguran de manera integrada funciones de percepción, razonamiento y producción” (producción, en el sentido de actuación, de ejecutar una acción visible) [Engel, 1993, p. 228].

Se trata de un esfuerzo interdisciplinario que toma elementos de la Filosofía, la Psicología, la Antropología, la Neurociencia, la Inteligencia Artificial y la Lingüística. Estudia fundamentalmente los procesos –y las estructuras– relacionadas con la mente humana.

La IA, en cambio, “tiene por objeto el estudio del comportamiento inteligente en la máquina” [Nilsson, 2001, p. 1]. Se trata de una disciplina que basa sus raíces en la Ingeniería (Electrónica e Informática), en la Ciencia de la Computación, en la Lógica y en las Matemáticas.

La IA y la CC

Ambas disciplinas conciben al cerebro humano como una especie de mecanismo computacional biológico y postulan a la computadora digital convencional como su mejor metáfora funcional. Se basan sobre lo que Newell y Simon denominan “hipótesis del sistema de símbolos físicos”, el cual postula que un sistema de símbolos físicos posee los medios necesarios y suficientes para realizar una acción inteligente genérica [Rich y Knight, 1994, p. 6/7].

En otras palabras, la CC y la IA clásicas modelan a la materia gris como un dispositivo computacional físico –de muy alta complejidad– que procesa información operando sobre representaciones simbólicas internas a través de la aplicación secuencial de un conjunto de reglas almacenadas.

Dichas representaciones codifican –en el nivel cognitivo– aspectos relevantes del mundo a fin de ser utilizables y las reglas transforman esas representaciones en otras nuevas [Duffy y Joue, 2000]. De esta manera, si todos los estados mentales (como creencias, pensamientos y conceptos) pueden describirse como operaciones sobre representaciones simbólicas, la actividad mental (razonamiento, planificación, toma de decisión) es equivalente a la ejecución de un algoritmo.

Algunas limitaciones

Sin embargo, ambas disciplinas tienen algunas restricciones claves. La CC clásica no considera el nivel biológico-neurológico ni el social-cultural y tampoco presta mucha atención a los procesos emocionales ni a los contextuales.

La IA clásica, en cambio, presenta los problemas de “escalamiento” (los procedimientos que trabajan bien en escalas reducidas no siempre se comportan igualmente bien aplicados a versiones más grandes del mismo problema), de “marco” (cómo representar los hechos que cambian y aquellos que no lo hacen), de “falta de comprensión” (sus productos manejan símbolos que reconocen pero no comprenden) y de “sentido común” (esa elevada riqueza de conocimientos y comprensión inmediata del mundo, producto de la experiencia acumulada durante millones de años).

Asimismo, ambas describen y sintetizan algunos procesos mentales de “alto nivel” (como la cognición, el lenguaje y el razonamiento), subestimando los de “bajo nivel” (como la percepción, el movimiento y la interacción con el mundo real) en la generación de la conducta inteligente. Además, el procesamiento simbólico se encuentra localizado: la pérdida o mal funcionamiento de cualquier símbolo o regla puede terminar en un daño catastrófico [Ojeda, 2001].

Por último, este tipo de máquinas sólo puede procesar un tipo particular de símbolos: aquellos pertenecientes a un lenguaje formal sistemático, a un lenguaje lógico-matemático. El hombre, en cambio, es capaz de utilizar lenguajes descriptivos: sus elementos son palabras, nombres. En otros términos, una máquina de IA clásica puede resolver solamente un subconjunto de los problemas que el hombre enfrenta, aquellos representables en un lenguaje sistematizado.

La Robótica clásica

En cuanto al paradigma del control para los robots, la principal desventaja del acercamiento a la IA clásica es que el razonamiento explícito acerca de los efectos producidos por las acciones de bajo nivel son demasiados caros computacionalmente y consumen mucho tiempo como para generar un adecuado comportamiento de tiempo real en ambientes dinámicos complejos [Russell y Norvig, 1996, p. 831].

Es así que los robots clásicos son generalmente frágiles, en el sentido que no toleran muy bien el ruido en las señales entrantes y no pueden adaptarse a aquellas nuevas situaciones que no fueron previstas por su programador.

El mundo real no puede modelarse de manera confiable ya que es inabarcable y cuenta –además– con propiedades dinámicas e inciertas: se encuentra lleno de sorpresas.

Muchos de los problemas que los humanos resuelven cotidianamente parecen tener una inmanejable complejidad computacional para los sistemas diseñados en el marco de la IA clásica [Florian, 2003].

Un nuevo paradigma

La metáfora postulada por la CC y la IA clásicas es tentadora y –hasta cierto grado– fructífera, pero es válida sólo a un nivel relativamente abstracto, por lo que tiene una utilidad muy restringida. El modelo “des-encarnado” (desembodiment) y “des-situado” (desituated) de una computadora digital que procesa únicamente información estructurada y programada de antemano, sin interacción con el medio ambiente, no explica de forma adecuada el éxito adaptativo de muchas criaturas [Queiroz, 2000] [Ripalda, 2005] [Maccari, s/d].

El sistema cerebro-mente biológico procesa la información de un modo distribuido y está organizado de manera mucho más maleable y adaptable que una computadora secuencial, ya que funciona con relación al contexto y se modifica con cada nueva percepción y acción. Todo parece indicar que la metáfora convencional no es una base sólida sobre la cual construir máquinas con una inteligencia de nivel animal, y mucho menos humano [Kapor, 2002].

De allí que, a lo largo de su escasa historia, estas disciplinas modificaron su punto de vista. El primigenio enfoque dualista (el cerebro y la mente son dos cosas diferentes) se reemplazó por el monista (el cerebro y la mente son una y la misma cosa). De la inicial base psicológica y lingüística, se cambió a una base biológica y etológica.

Asimismo, de la antigua idea de imaginar a la mente como un programa secuencial (el software) que corre sobre un sustrato físico –un cerebro o una máquina– (el hardware) se pasó a considerar al sistema mente-cerebro como una red autónoma que emerge del “acoplamiento estructural” entre el cuerpo y el entorno, a través de la coordinación entre el sistema sensorial y el motor.

Algunos cuestionamientos: el entorno

Actualmente se cuestiona una de las hipótesis fundamentales tanto del cognitivismo como del conexionismo: la idea de que el entorno existe de antemano, está fijado y acabado. El medio ambiente hoy se considera como un trasfondo, un ámbito o campo para la experiencia de la máquina –algo que la circunda, la rodea o la cerca–, que nunca se puede precisar en forma absoluta y definitiva, y que se modela continuamente a través de los actos que aquella efectúa [Varela, Thompson y Rosch, 1997, p. 166, 168 y 173].

En el caso de los organismos, su entorno está constituido por las condiciones exteriores que son relevantes para ellos, y está determinado por sus actividades. En otras palabras, los organismos no “se adaptan” a un medio fijado de antemano, a un “nicho” exterior autónomo, sino que –en cierta medida– “lo construyen” a través de sus propias actividades vitales [Lewontin, 2000, p. 51].

En consecuencia, tanto los organismos vivos como el ecosistema habitado por ellos se encuentran en un estado de constante flujo, de fluidez, en donde se modifican y reconstruyen continuamente al interactuar entre sí, “acoplándose” de forma mutua y recíproca [Lewontin, 2000, p. 76/8].

Algunos cuestionamientos: la representación

También se cuestiona la idea de que la cognición consista en recobrar –de modo pasivo– los rasgos extrínsecos del medio ambiente externo a través de un proceso de representación relativamente atinado. La cognición denota ahora al fenómeno de “hacer emerger” el significado a partir de realimentaciones sucesivas entre el organismo y el entorno local (tanto físico como cultural); surge a partir de una interacción “dialéctica”, de un “diálogo” entre ambos componentes.

El conocimiento depende, entonces, de las experiencias vividas que se originan debido a la posesión de un cuerpo con diferentes capacidades sensomotoras, las cuales están “encastradas” dentro de un entorno biológico, psicológico y cultural mucho más amplio [Varela, Thompson y Rosch, 1997, p. 203].

Por eso, conocer y vivir son cosas inseparables y se equivalen [Maturana y Varela, 2003, p. 58]. En síntesis, la cognición es una función de supervivencia, sirve para organizar el mundo experiencial del sujeto según sus propósitos, no para describir una realidad externa objetiva.

La Nueva IA y la CC Corporizada

A partir de este nuevo paradigma científico (y hasta filosófico), y con el aporte de otras ciencias (como la Sistémica, la Cibernética, la Biología, la Sociología y la Etología), surgen la “CC corporizada” y la “Nueva IA” (o “Nouvelle IA”). Estudian la interacción dinámica entre el comportamiento de bajo nivel de los agentes completos (es decir, agentes corporizados y situados) y su entorno.

No manipulan representaciones simbólicas internas del mundo, sino que operan directamente sobre él a través de patrones de actividad sensomotoras; es decir, consideran a la acción –más bien que al pensamiento– como primaria. Su objetivo final es entender –y tratar de reproducir– cómo surgen los procesos cognitivos de alto nivel a partir de las interacciones de bajo nivel con su nicho ecológico [Kortmann, 2001].

Y de ellas derivan los “sistemas cognitivos corporizados” (embodied cognitive systems) y, en particular, la “robótica basada en el comportamiento” (behaviour-base robotics), la “robótica situada” (situated robotics), la “robótica epigenética” (epigenetic robotics) y la “robótica evolutiva” (evolutionary robotics).



jueves, 21 de octubre de 2010

Científicos producen biodiesel utilizando aceite frito como base

Las cafeterías y la Escuela de Hostelería del campus de Leioa utilizan litros y litros de aceite, ya que son muchos los alumnos, investigadores, profesores y trabajadores del PAS que comen allí. Actualmente, un camión se lleva todo el residuo. Sin embargo, unos profesores de Química han probado que en la misma universidad se le podría sacar provecho, ya que han conseguido producir biodiesel a partir de este aceite. Según explica la profesora Eneritz Anakabe, "hemos demostrado que a pequeña escala se puede hacer, que se puede lograr biodiesel de manera sencilla partiendo de este aceite".

Detrás de esta iniciativa se encuentran tres profesores de Química de la UPV/EHU, uno de la Escuela de Ingenieros de Bilbao y varios colaboradores. Su proyecto de investigación se llama Transesterificación. Biodiesels. Está financiado por la Cátedra UNESCO sobre Desarrollo Sostenible y Educación Ambiental de la UPV/EHU, y tiene una duración de dos años; lo culminarán a principios del 2011. Obviamente, para producir grandes cantidades de biodiesel necesitarían otro tipo de instalaciones, pero lo que se puede producir en los laboratorios de la Facultad de Ciencia y Tecnología basta para las máquinas cortacesped, la calefacción y los coches oficiales de la UPV/EHU.
Sin efecto invernadero Para obtener biodiesel del aceite, es necesaria la reacción de transesterificación. Los profesores ya mencionados han recopilado documentación sobre diversas técnicas experimentales que posibilitan dicha reacción, y han realizado pruebas hasta encontrar la que resulta más barata, rápida y, a su juicio, adecuada. No necesitan más que una hora para llevar a cabo dicha transformación. Además, han comparado su resultado con el biodiesel comercial (aprovechando que sus propiedades y cantidades son conocidas), probando que el producto creado se puede utilizar en la universidad.
Fernando Mijangos, responsable principal del proyecto, destaca las ventajas que el biodiesel, y por lo tanto el producto que han obtenido, tiene respecto al diesel: "Desde el punto de vista de los gases emisores que provocan el efecto invernadero, éstos -los biodiesels- son mucho más rentables y limpios que los otros. Los diesels son combustibles fósiles, y por lo tanto inducen el efecto invernadero. Estos aceites fritos, en cambio, no". Es más, si la técnica con la que han experimentado se implantara en la universidad, no sólo su efecto invernadero sería cero, sino que "depuraría" el medio ambiente: "En vez de arrojar los residuos por el fregadero, les proporcionaríamos una solución más limpia. Es su mayor ventaja".
Contenedor para la recogida de aceite En los meses restantes hasta culminar el proyecto, este grupo de químicos va a estar ocupado principalmente en dos asuntos: por un lado, la optimización del producto obtenido, y por otro, la sensibilización social. En cuanto a esta última, según expresa Mijangos, los datos muestran que sólo en 3 de cada 10 casos se recicla aceite. La voluntad de la gente, claro está, es indispensable para que la materia prima recogida sea suficiente como para obtener biodiesel de ella. Los profesores han tomado medidas para concienciar a los alumnos, tal y como explica Anakabe: "Nos pusimos en contacto con la empresa Rafrinor, y nos han colocado un contenedor en la entrada -en el lado derecho- de la facultad, para recoger aceite". Lo instalaron a principios de mayo, y permanecerá ahí durante varios meses, para medir y fomentar la implicación de la gente.
Concienciar a la gente resulta una tarea ardua. Como muestra de ello, Anakabe menciona a sus alumnos: "Yo tengo 40 alumnos, pero realmente se habrán implicado sólo unos diez. Es significativo. Los alumnos están más concienciados, pero aun y todo cuesta, es más fácil echar el aceite directamente". Por esta razón, y para motivarlos, Mijangos explica que están realizando junto a ellos la reacción de transesterificación por la cual se obtiene el biodiesel: "Estamos haciendo dos experimentos diarios, a través de los cuales también aprendemos. Además, cuando acabemos el proyecto, esperamos escribir un pequeño libro que contenga todos los experimentos y técnicas realizadas, para posteriormente implementarlo con los alumnos".
El apoyo de la UPV/EHU, fundamental De todas maneras, tal y como recuerda Mijangos, "los investigadores no lo vamos a solucionar, si no hay un compromiso institucional". Anakabe añade que llevar a la práctica el fruto del trabajo de estos dos años está "en manos de las personas que están en el Rectorado", porque el apoyo institucional es esencial. "Nosotros somos químicos y continuaremos con nuestros experimentos. Por ejemplo, estudiaremos los tratamientos a realizar (viscosidad, densidad…). Todo esto es fácil para nosotros. Lo que no es tan fácil es acertar en cómo trasladar el resultado a la sociedad", dice Mijangos.









La aparición de las plantas vasculares posibilitó el aumento del oxígeno terrestre y la evolución de animales más grandes y complejos

Un grupo internacional de científicos ha dado pasos importantes a la hora de desvelar los secretos de la oxigenación en la atmósfera y océanos terrestres. Estudiando el registro fósil y analizando las rocas de épocas anteriores se pueden encontrar correlaciones entre un aumento de la complejidad animal y el aumento de la concentración de oxígeno. Así por ejemplo, ya se había señalado en el pasado que la explosión del Cámbrico de hace 550 millones de años pudo ser debida a un aumento en la cantidad de oxígeno disponible para los animales de la época. Durante esa diversificación aparecieron grupos de animales y filos en gran número nunca vistos antes sobre la Tierra.

Ahora, este grupo de investigadores sostiene que la aparición de los grandes peces depredadores y de las plantas vasculares de hace 400 millones de años coincidieron con otro aumento en la concentración de oxígeno hasta niveles que son comparables a los que tenemos hoy en día. Si esto es cierto los animales que aparecieron antes debieron de evolucionar bajo unos niveles de oxígeno inferiores a lo que se pensaba.
Los investigadores se basaron para este estudio en un método ideado por Ariel Anbar de Arizona State University. El método puede usarse para estimar los niveles globales de oxígeno en océanos primitivos a partir de la composición isotópica de los sedimentos marinos de la época conservados hasta ahora en forma de rocas.
Según este investigador ha habido muchas especulaciones sobre si el nivel de oxígeno terrestre ha cambiado o permanecido estable durante los últimos 500 millones de años. Durante ese tiempo aparecieron y se diversificaron las plantas y animales terrestres. Por tanto, es importante a la hora de comprender la historia de la vida. Según Anbar este nuevo hallazgo no solamente sugiere que los niveles de oxígeno variaron, sino que además esa variación tuvo consecuencias directas sobre la evolución de la vida compleja.
Desde casi el comienzo de la vida y hasta hace 2300 millones de años la atmósfera empezó a tener trazas de oxígeno como subproducto de la fotosíntesis de microorganismos. Pero ese oxígeno era insuficiente como para que se acumulara en la atmósfera o en los océanos. Esto cambio justamente tras el Evento de Gran Oxidación hace 2300 millones de años.
Los niveles de oxígeno volvieron a subir hace 550 millones de años, justo cuando los primeros animales complejos aparecen en el registro fósil, marcando el comienzo de Fanerozoico que en griego significa "animales evidentes".
Para este estudio se midió las cantidades relativas de diferentes isótopos de molibdeno en rocas de esquisto formadas en el lecho marino hace millones de años a partir de los sedimentos que caían.
El molibdeno tiene siete isótopos estables. Las reacciones químicas seleccionan unos isótopos frente a otros. Así por ejemplo, el carbono 12 está más enriquecido (en torno a un 3% más) en las plantas que en la atmósfera terrestre. De manera similar los isótopos de molibdeno son fraccionados en función de su peso durante su paso del agua del océano a los sedimentos marinos. La magnitud de este fraccionamiento es sensible a la presencia de oxígeno.
Los datos obtenidos por estos investigadores revelan que al menos hubo dos etapas de oxigenación durante el Fanerozoico, separadas por un evento de oxigenación hace 400 millones de años. Esto está corroborado por el registro fósil ya que coincide con la aparición de grandes peces predadores de 10 metros de longitud. Los animales de este tamaño consumen energía de forma rápida y por tanto requieren altos niveles de oxígeno para mantener su metabolismo. Los animales anteriores a esta época evolucionaron, por consiguiente, en ambientes con menos oxígeno que en la actualidad. El nuevo evento de oxigenación ahora descubierto explicaría la misteriosa aparición de estos peces en el registro fósil.
Pero el verdadero causante de este evento sería una innovación evolutiva: la aparición de las plantas vasculares. Según Anbar el hecho de que las plantas vasculares aparecieran en el registro fósil justo hace 400 millones de años explicaría precisamente el aumento de oxígeno. Los restos de este tipo de plantas se descomponen lentamente y mucho carbono queda secuestrado en los sedimentos. Esto aleja a esta materia orgánica de una posible combinación con el oxígeno para producir dióxido de carbono que reduciría los niveles de oxígeno. De este modo, la fotosíntesis tendría a partir de esa época una producción neta de oxígeno más alta que antes y como consecuencia se elevarían los niveles de oxigeno.
La innovación biológica de las plantas vasculares dio lugar a un mayor enterramiento de carbono y a un mayor nivel de oxígeno.
El aumento de oxigeno hizo posible la evolución de animales más grandes y complejos. Según Anbar esto representa un buen ejemplo de "coevolución" entre la vida y el ambiente que la aloja. "Aunque los geólogos habían hablado acerca de esta idea, rara vez habían encontrado ejemplos tan bonitos", afirma.
Así que cuando el amable lector mire a un helecho o a una selaginela piense que sus antepasado directos de hace 400 millones de años permitieron la aparición de tiburones gigantes y más tarde los dinosaurios y la evolución del género humano. Es el aire que respira.






"El ciberespacio está en lucha cada día, cada hora, cada minuto, cada segundo"

Según el director de la agencia estatal de espionaje británica, varios países ya están utilizando técnicas de 'ciberguerra' para atacarse entre ellos y necesitan permanecer alerta todo el día para proteger sus sistemas informáticos.

Ian Lobban, director del Cuartel General para las Comunicaciones Gubernamentales (GCHQ, por sus siglas en inglés), dijo que los sistemas del Gobierno británico son objetivos de ataques unas 1.000 veces cada mes.
"El ciberespacio está en lucha cada día, cada hora, cada minuto, cada segundo", aseguró en una conferencia ante audiencia londinense.
Internet bajó "el listón para la entrada en el juego del espionaje", dijo. Su expansión aumentó el riesgo de afectar infraestructuras como centrales eléctricas o servicios financieros.
"La amenaza es real y creíble", aseguró Lobban, cuya agencia, similar a la Agencia de Seguridad Nacional (NSA) de Estados Unidos, lleva operaciones como la recogida de información y la ruptura de códigos.
Políticos y jefes de inteligencia británicos y de todo el mundo han advertido desde hace tiempo de una creciente ciberamenaza.
Este asunto cobró relevancia de nuevo el mes pasado cuando expertos en seguridad informática sugirieron que el 'gusano' Stuxnet, que ataca un extendido sistema de control industrial, había sido creado por un estado para atacar las instalaciones nucleares de Irán.
"Es cierto que hemos visto el uso de técnicas cibernéticas por parte de algunas naciones para ejercer presión diplomática o económica", explicó Lobban en el Instituto Internacional de Estudios Estratégicos. Sin embargo, no dio detalles específicos.
Un reciente informe parlamentario decía que el GCHQ había indicado que estados como Rusia y China representaban la mayor amenaza de un ataque electrónico en Gran Bretaña.
Actualmente, Estados Unidos está preparando un 'Cibercomando' para defender sus redes y preparar ofensivas ante ciberataques y Lobban aseguró que debería haber un acuerdo sobre las "normas adecuadas de comportamiento para los estados en el ciberespacio".
Además, explicó que el crecimiento en el crimen electrónico era "preocupante" y que le costaba a la economía británica miles de millones de libras.
"Sólo porque yo, como oficial de seguridad nacional, esté dando esta conferencia, no quiero que penséis que estos es simplemente una cuestión de seguridad nacional o defensa", dijo Lobban. "Afecta al corazón de nuestro bienestar económico e interés nacional".







¿Cómo es que existen tantísimos tipos de flores?

¿Cuál es la causa de que la Naturaleza haya producido tanta diversidad floral? Esta pregunta es objeto de debate desde hace mucho tiempo. Ahora, sin embargo, la respuesta parece estar mucho más clara, gracias a una investigación llevada a cabo por científicos de la Universidad de Calgary, en Canadá.

Jana Vamosi y Steven Vamosi del Departamento de Ciencias Biológicas de la citada universidad han descubierto, mediante un amplio análisis estadístico, que el tamaño de la zona geográfica es el factor más importante para el grado de diversidad biológica de una familia de plantas con flores en particular. El número de especies en un linaje está más fuertemente determinado por el tamaño del continente (o continentes) que ocupa.
Los resultados de esta investigación van a ayudar a esclarecer el mecanismo responsable de la diversidad floral del mundo, pero también podrían contribuir a un mejor conocimiento sobre cómo surgen los patrones de extinción.
El siguiente paso en esta línea de investigación es determinar si los patrones de riesgo de extinción son similares a los observados para la diversificación.
Normalmente, cuando se trata de explicar la biodiversidad de plantas con flores, las opiniones de los biólogos se mueven por tres campos diferentes: las características de la familia (por ejemplo, una flor vistosa frente a una flor sencilla), el medio ambiente (por ejemplo, el clima árido frente al tropical) o la pura suerte en la geografía (una semilla va a parar de algún modo rocambolesco a un nuevo continente, genera allí descendencia que prospera, y así se amplía el área de distribución geográfica de una familia).
La nueva investigación demuestra también que la geografía no es la única respuesta. Los rasgos que pueden fomentar una mayor diversidad son conocidos como "innovaciones clave" y hay científicos que sostienen la hipótesis de que algunas familias poseen más especies porque son hierbas, tienen frutos carnosos como la manzana o el melocotón (durazno), o sus flores tienen una morfología más compleja.