"El hombre encuentra a Dios detrás de cada puerta que la ciencia logra abrir." EINSTEIN


sábado, 31 de julio de 2010

El cerebro es capaz de inventar recuerdos de hechos que nunca ocurrieron


Las zonas del cerebro que utilizamos para percibir o imaginar objetos se superponen de tal forma que un hecho únicamente imaginado puede dejar en nuestra memoria la misma marca que un hecho realmente ocurrido. Esta constatación permite que nos resulte difícil, pasado algún tiempo, determinar si nos hemos imaginado alguna situación determinada o si, por el contrario, la hemos vivido realmente. Un nuevo ingrediente para la polémica psicológica sobre los falsos recuerdos... y un poderoso recurso para guiones cinematográficos como el de "Misteriosa Obsesión".

L a naturaleza imperfecta de la memoria llama la atención a los expertos, especialmente por la capacidad humana, no ya de olvidar ciertos hechos, sino de inventar incluso aquello que jamás ha pasado, y archivarlo dentro de nuestro cerebro como si fuera cierto.


Investigadores de la universidad estadounidense de Northwestern, en Chicago, han descubierto que la imaginación puede llegar a adquirir en nuestra memoria tanta verosimilitud como los hechos, hasta tal punto que es posible confundir lo imaginado con lo real dentro de nuestros recuerdos.


Estos investigadores han estudiado los llamados "falsos recuerdos" para intentar conocer cómo se forman, empleando para el estudio escáneres de resonancia magnética conectados a los cerebros de un número determinado de voluntarios.

El desafío consistía en descubrir en qué circunstancias la gente recuerda hechos que realmente no han ocurrido. Para ello, se midió la actividad cerebral de los voluntarios mientras éstos, o bien observaban imágenes de objetos, o bien se imaginaban objetos que los investigadores les pedían que visualizaran.

Visualización vívida

De esta forma, los investigadores se dieron cuenta de que las partes concretas del cerebro destinadas a generar imágenes visuales se activaban con mucha fuerza cuando los voluntarios tan sólo imaginaban los objetos.

Después, cuando los participantes en el estudio recordaban lo que habían imaginado, a menudo pensaban que lo habían visto, en lugar de saber que había sido producto de su imaginación.

Los investigadores piensan que las zonas del cerebro que utilizamos para percibir objetos y aquéllas que usamos para imaginar objetos se superponen. De esta manera, un hecho imaginado los suficientemente vívido puede dejar en nuestro cerebro la misma marca o similar que un hecho realmente ocurrido.

Cuando la memoria almacena lo percibido o lo imaginado, algunas de las zonas cerebrales implicadas en el esfuerzo coinciden. Según los expertos, este hecho hace que nos resulte difícil, pasado algún tiempo, determinar si ciertas cosas han pasado o no, si nos hemos imaginado alguna situación determinada o si, por el contrario, la hemos vivido realmente.

Durante el estudio, publicado en la edición de octubre de la revista Psychological Science, los participantes tuvieron que imaginar una imagen visual por cada objeto que les nombraban. La otra mitad de estos objetos les fueron presentados en fotografías o imágenes.

Además, se les pidió que emitieran juicios acerca de la medida de cada uno de los objetos. Por ejemplo, si la palabra era "gato", tenían que decir si el gato era mayor o menor que una televisión.

Partes implicadas

Tres partes del cerebro (precuneus, corteza parietal inferior derecha y giro cingulado anterior) mostraron una gran respuesta en la fase del estudio en que se decían las palabras que luego eran recordadas como fotos, a pesar de que sólo habían sido imaginadas.

Asimismo, a través del escáner se podía prever qué imágenes serían recordadas y cuáles no, dada la actividad del hipocampo izquierdo y de la corteza prefrontal izquierda activados durante la imaginación o presentación de imágenes. Estas dos zonas del cerebro están altamente relacionadas con la creación de los contenidos de la memoria.

Según los expertos, del estudio se deriva que las imágenes mentales dejan una marca en el cerebro que, si es lo suficientemente fuerte, puede confundirse posteriormente con la marca dejada por imágenes realmente vistas.

Por todo ello, tal como explica un comunicado de la Northwestern University, puede decirse que lo que han conseguido estos investigadores es una nueva evidencia de la existencia de los falsos recuerdos y, lo que es más importante, la observación de los procesos cerebrales que permiten su formación.

Polémica en psicología

Las consecuencias del estudio no pasarán inadvertidas, ya que existe una amplia polémica en el campo de la psicología acerca de lo que se conoce como falsos recuerdos, objeto también de base argumental para algunas películas como Misteriosa Obsesión o Abre los ojos.

Muchas terapias psicológicas, particularmente indicadas en los casos de traumas infantiles, tienden a revivir recuerdos de esas experiencias para proceder a su curación mediante la integración consciente del trauma en la psicología del sujeto.

Sin embargo, ha surgido una corriente, que puede personalizarse en la False Memory Syndrome Foundation, según la cual la recuperación de un recuerdo no significa que realmente haya ocurrido, que es lo que acaban de verificar experimentalmente los investigadores de la Northwestern University con la ayuda de imágenes cerebrales de resonancia magnética.
 
 
 

Registran por primera vez neuronas espejo en humanos

La historia de las neuronas espejo es tan bonita que cuesta no creer en ellas, aunque finalmente no se demostrara su existencia. El concepto de las neuronas espejo se introdujo cuando se analizaba la actividad cerebral en unos monos. Se pudo ver que ciertas neuronas motoras se activan no solamente cuando el mono movía en brazo, sino cuando el mono veía a otro mover un brazo, aunque él no lo hiciera. Parecía que estas neuronas actuaban a modo de "espejo" de las acciones de los demás.

A partir de ahí se empezó a afirmar la existencia de otros tipo de neuronas espejo y se plantearon diversas modelos neurológicos basados en esta idea. Según algunos las neuronas nos harían humanos y estarían detrás de nuestra capacidad de empatía, de sentirnos en la piel de los demás. Estas neuronas serían el mecanismo que nos permitiría "leer" la mente de los demás y solidarizarnos con ellos.
De este modo, el sufrimiento que experimentamos al ver a nuestros semejantes sufrir después de un desastre natural, o incluso los sentimientos que tenemos al ver sufrir al personaje principal de una película dramática estaría controlados por neuronas espejo. Otro tipo de películas más eróticas quizás funcionen bajo los mismos mecanismos neuronales. Incluso se llegó a proponer que algún tipo de autismo podría estar causado por un mal funcionamiento de este tipo de neuronas.
El problema es que no había pruebas de la existencia de estas neuronas, sólo sospechas de su existencia y pruebas indirectas. Algo que dificultaba la investigación en este campo era la dudosa moralidad de estudiar este asunto mediante el implante de electrodos en el cerebro de personas sanas.
Ahora, en la edición de abril de la revista Cell, Itzhak Fried y Roy Mukamel, de UCLA, dicen haber conseguido registrar por primera vez la actividad de neuronas espejo en el cerebro humano.
Los investigadores registraron la actividad individual y múltiple de las células nerviosas tanto de las regiones motoras del cerebro como de otras regiones relacionadas con la visión y la memoria. Comprobaron que la mayoría de las neuronas respondía solamente a la observación o ejecución de una acción, pero un 8% de ellas respondían a ambos, células que serían precisamente neuronas espejo. Además, mostraron que un subconjunto específico de estas neuronas espejo aumentaban su actividad durante la ejecución de un acto pero su actividad decrecía cuando la acción era sólo observada. Estos investigadores proponen la hipótesis de que la disminución de actividad de estas células durante la observación puede inhibir que el observador realice el mismo acto. Puede que este subconjunto de neuronas espejo nos ayude además a distinguir entre las acciones de los demás y las nuestras.
Los investigadores tomaron sus datos directamente de la actividad cerebral de 21 pacientes que eran tratados en el Ronald Reagan UCLA Medical Center para mitigar su epilepsia. Hubo que implantarles electrodos en el cerebro para identificar el foco de sus ataques de epilepsia para así diseñar un tratamiento. Aprovechando esta oportunidad estos investigadores estudiaron las neuronas espejo con el consentimiento de los pacientes.
El experimento incluía tres partes: la expresión facial, agarrar algo y un experimento de control. Se grabó la actividad de 1.177 neuronas en los 21 pacientes mientras que éstos observaban o realizaban las mismas acciones. En la parte de observación los voluntarios observaron varias acciones representadas en la pantalla de un ordenador portátil. En la fase de actividad se pidió a los sujetos que realizaran una acción basada en la representación visual de una palabra. En la tarea de control se presentaban las palabras de la misma manera, pero se les pedía no ejecutar la acción.
Los investigadores encontraron que las neuronas se activaban tanto cuando el individuo realizaba la tarea como cuando la observaba. Las neuronas espejo que efectuaban las respuestas estaban localizadas en el córtex frontal medio y en el córtex temporal. Es la primera vez que se ve a dos sistemas neuronales reflejando respuestas a nivel celular, tanto en monos como en humanos.
El nuevo hallazgo demuestra que las neuronas espejo están localizadas en más áreas del cerebro humano de lo que previamente se creía. Dado que diferentes áreas del cerebro están especializadas en diferentes funciones (en este caso el córtex frontal medio está especializado en la selección de movimientos y el temporal en la memoria), el hallazgo sugiere que las neuronas espejo proporcionan una respuesta rica y compleja al reflejar las acciones de los demás.
Debido a que las neuronas espejo se activan tanto al efectuarse la acción como al ver ésta realizada por los demás, se cree que este reflejo es el mecanismo neuronal mediante el cual las acciones, intenciones y emociones de las personas pueden ser automáticamente entendidas.
Este estudio sugiriere que la distribución de estas células que ligan la actividad de uno mismo con las de los demás es más amplia de lo que previamente se creía.
Según Mukamel, en el autismo puede estar implicada una disfunción en este tipo de neuronas, pues em este caso los síntomas clínicos incluyen dificultades con la comunicación verbal y no verbal, con la imitación de los otros y problemas teniendo empatía con los demás. Así que tener un mejor conocimiento del sistema de neuronas espejos podría a diseñar estrategias de tratamiento para este desorden.











Descubren Uranio en la Antártida a 133 metros de profundidad

Un grupo de científicos ha descubierto la presencia de uranio en un trozo de hielo extraído desde una profundidad de 133 metros en la llamada meseta Detroit en el territorio antártico. La presencia de estos restos de uranio coincidirían con el aumento en la producción de este mineral ocurrido en 1995 en Australia, y se presume que la propia circulación atmosférica transportó estas partículas.

Los estudios corresponden al proyecto 'CASA, Clima de Antártica y Sudamérica', que realizan los investigadores del Instituto de Cambio Climático de la Universidad de Maine, EE.UU; el Instituto Antártico Chileno (INACh) y la Universidad Rio Grande do Sul, de Brasil.
"La presencia de trazas de uranio que precipitaron sobre el continente antártico en 1995 es uno de los secretos develados por un trozo de hielo en forma cilíndrica que fue extraído desde una profundidad de 133 metros", aseguran los científicos en una nota de prensa.
La investigación comenzó en noviembre de 2007, cuando extrajeron un testigo de hielo en la meseta Detroit, al norte de la península antártica y a 1.930 metros de altura sobre el nivel del mar. Para el geofísico y glaciólogo del INACh, Ricardo Jaña, un testigo de hielo constituye un muy buen registro del pasado climático de la zona, que está expuesta a los procesos de cambio climático que vive el planeta.
A comienzos del 2009, investigadores de la Universidad de Washington informaron de que la temperatura de la Antártida aumentó 0,5 grados entre 1957 y 2006.
Asimismo, desde la llamada revolución industrial el promedio global de aumento de la temperatura en la Tierra ha sido de 0,6 grados. Según Jaña, la evidencia científica que proporcionan los testigos de hielo 'es contundente', y es informativa en cuanto a una serie de fenómenos relacionadas con la dinámica del clima.
Aseguró que el registro ambiental contenido en los testigos de hielo (trozos) cubre años del pasado que no están registrados en las lecturas instrumentales de observatorios que han sido instalados en diversas partes del mundo. "En la Antártica, los datos más antiguos climáticos son de 60 años atrás, cuando se instalaron las primeras bases", ha recalcado.
Además explica que el análisis de estas muestras involucró un trabajo lento y de largo aliento y que expertos de glacioquímica del Instituto de Cambio Climático de la Universidad de Maine han "desmenuzado" las partes por millón, por billón y ahora por cuatrillón de elementos trazas. "Haciendo un número grande de mediciones en cantidades tan pequeñas se logró detectar la presencia de trazas de uranio que, de acuerdo con el nivel en que se encuentra, coincide con un año cuando en Australia aumentó la producción de uranio", detalla el investigador chileno.
La hipótesis plantea que el material particulado generado por esta actividad minera fue arrastrado por el viento y siguió la trayectoria de la circulación atmosférica similar al sentido de las agujas del reloj hasta llegar y precipitar en la zona de la meseta Detroit




viernes, 30 de julio de 2010

¿Qué pasaría si mañana Internet hubiera dejado de existir?

¿Qué pasaría en el mundo si de repente, una mañana, nos despertáramos e Internet hubiera dejado de existir? ¿Cómo afectaría a nuestra vida, a nuestro trabajo, a nuestra manera de relacionarnos? Con motivo de la celebración del Día de Internet, la fundación Fundetec ha puesto en marcha una iniciativa innovadora con la que anima a la Comunidad Internauta a construir un relato encadenado que narre la historia imaginaria de la desaparición de la Red, con todas sus implicaciones en la vida social y profesional.

Desde hoy hasta la medianoche del 12 de mayo, a través de la página web www.fundetec.es/diadeinternet2010 (a la que se puede acceder también desde la web de Fundetec o de su página oficial en Facebook), los usuarios podrán ir añadiendo su aportación a esta historia con tintes futuristas cuyo inicio se sitúa en el año 2030. El resultado, es decir, el relato completo, se dará a conocer el 17 de mayo, fecha en que se conmemora el Día Mundial de las Telecomunicaciones y Sociedad de la Información.
Fundeteces miembro del Comité de Impulso del Día de Internet desde el primer momento en que comenzó a celebrarse en España, en el año 2005. Con esta iniciativa experimental, la Fundación pretende resaltar el carácter imprescindible que ha adquirido la Red en nuestros días, tanto en el entorno personal como -y sobre todo- en el profesional.


Sorteo 'Un mundo sin Internet'

Con objeto de incentivar la participación, la Fundación ha creado el sorteo 'Un mundo sin Internet', en el que entrarán todos los internautas que hayan contribuido con su aportación a la construcción del relato. El premio son dos Smartphone, y el sorteo se realizará el 17 de mayo, en un acto público que se celebrará en la sede de Fundetec para elegir a los dos ganadores. Cada aportación de texto a la historia debe tener una extensión de entre 60 y 200 palabras, y ha de estar escrito en correcto castellano, preferiblemente teniendo en cuenta aspectos como la creatividad y originalidad y el carácter literario.









¿Materia oscura = materia espejo?

Proponen las partículas espejo como mejor explicación a la materia oscura y los recientes resultados sobre su supuesta detección directa.

Todo lo que rodea la materia oscura es cada día más confuso. La última especulación al respecto habla de la materia espejo. Según una teoría las partículas del modelo estándar tendrían una familia de partículas casi idénticas a ellas con las cuales no podrían interaccionar. Esto doblaría el número de tipos de partículas, habiendo partículas "a derechas" y "a izquierdas". Lo más interesante de las partículas espejo es que interaccionarían entre ellas de la misma manera que lo hacen las partículas de materia ordinaria entre sí, de este modo formaría átomos espejo, moléculas espejo, planetas espejo, estrellas espejo y galaxias espejo. Aunque la materia espejo produciría luz, nosotros no la veríamos al estar hechos de materia ordinaria "a izquierdas".
Pues bien, un investigador propone que las partículas espejo son la mejor explicación a las supuestas pruebas experimentales de la detección directa de materia oscura obtenidas recientemente.
Desde hace ya décadas se trata de detectar en experimentos de laboratorio la presencia de partículas que interactúen débilmente con la materia ordinaria, para así poder explicar la aparente presencia de una materia que dé cuenta de una masa que según todos los indicios astronómicos provoca atracción gravitaría en diversas estructuras del Universo. Hay unos 30 experimentos en marcha para detectar estas partículas y hasta ahora, pese a todos los esfuerzos, ninguno había proporcionado pruebas claras de la existencia de partículas de materia oscura.
Un grupo italiano decía hace poco, sin embargo, que había registrado algo. Han dedicado diez años a un experimento denominado DAMA/LIBRA que está basado en la observación de un bloque de ioduro sódico de cientos de kilos de peso. Se cree que una partícula de materia oscura que interaccione con este bloque debe de generar un fotón. Según la Tierra se mueve alrededor del Sol se deberían de ver más fotones cuando nos acercamos al "mar de materia oscura" que cuando nos alejamos de él. Esto es precisamente lo que este grupo de investigadores italiano dice haber visto.
Lo malo es que casi nadie cree al grupo italiano, principalmente porque otros experimentos similares no habían visto este efecto estacional ni nada parecido. Achacaban los resultados a una variación estacional y local de la temperatura.
Hace un mes todo cambió por culpa del experimento norteamericano CoGent, basado en cristales de germanio y encaminado a la detección de partículas ligeras de materia oscura. Según estos otros investigadores, en este experimento se están registrando abundantes colisiones de materia oscura.



Lo interesante es que ambos experimentos están pensados para la detección de partículas ligeras, en lugar de para la detección de partículas pesadas, como el resto de los experimentos, siendo el resultado un tanto inesperado.
Ahora es el turno de los teóricos que deben reconciliar estos dos nuevos resultados experimentales entre sí y con los modelos de materia oscura.
El mes pasado Liam Fitzpatrick, de la Universidad de Boston, y sus colaboradores sugirieron que las partículas ligeras débilmente interaccionantes podrían explicar ambos resultados. Pero hace unos días Robert Foot de la Universidad de Melbourne propuso una solución más exótica. Según él la materia espejo podría explicar mejor ambos resultados. Según el modelo de Fot, en este tipo de experimentos las partículas espejo interaccionarían con una partícula ordinaria a través de un proceso denominado mezcla cinética fotón fotón-espejo.
Foot es uno de líderes teóricos que proponen la existencia de estas partículas espejo. Según él un plasma de partículas espejos sería el ingrediente predominante en los halos galácticos, donde, según las observaciones astronómicas, parece encontrarse la materia oscura.
Si la hipótesis de la materia espejo es cierta quizás podría ser detectada, con dificultad, por los astrofísicos. Si se agrega en forma de estrellas y similares, los objetos resultantes deben producir fenómenos de microlente gravitatoria, aunque éstos serían casi indistinguibles de los producidos por la materia ordinaria.
La inspiración para esta hipótesis de las partículas espejo vino de un experimento realizado en 1956, que mostró que las leyes de la Naturaleza no son simétricas respecto a la paridad. Concretamente se vio que las partículas que interaccionan bajo la fuerza nuclear débil exhibían un comportamiento preferentemente "a izquierdas". Como la rotación y la translación son simétricas, los físicos se preguntaron por qué la Naturaleza no tiene una simetría en este caso, por lo que habría que explicar la causa o proponer la existencia de otras partículas con la preferencia contraria y así restaurar la simetría del Universo en este aspecto.
Estas ideas pueden sonar muy bien, ¿verdad? Sin embargo últimamente se ha puesto todavía más en entre dicho la supuesta detección de materia oscura en este tipo de experimentos, sobre todo los datos de DAMA.
El experimento Xenon 100 se encuentra en el mismo laboratorio bajo tierra que DAMA, pero es bastante más sensible. En lugar de usar ioduro de sodio usa xenon. Pese a que lleva ya funcionando unos meses no ha logrado detectar señales de materia oscura.
El xenon es el gas no radiactivo más pesado de la tabla periódica. En su forma licuada es 3 veces más denso que el agua, conteniendo muchos átomos por litro. Esto aumenta las posibilidades de que una partícula de materia oscura colisionen con uno de estos átomos, evento que produciría un destello de luz que se podría detectar. El análisis de los datos tomados a finales del año pasado lleva a la conclusión de que lo único que se ha registrado es ruido producido por la radiación de fondo y no partículas de materia oscura.
De acuerdo a su mayor sensibilidad Xenon 100 debería de detectar muchas más partículas oscuras que DAMA o CDMS-II.
El equipo de CDMS-II también informó hace poco del registro de dos eventos atribuidos a la interacción con materia oscura.
Si la señal original de DAMA se debiera a partículas de materia oscura Xenon 100 debería de ver docenas, a no ser que las propiedades de estas partículas fueran aún más exóticas de lo que imaginamos. Los resultados son, en definitiva, difíciles de reconciliar.
Si lo detectado por CDMS-II fuera materia oscura entonces los resultados de Xenon 100 sugieren que si existen las partículas oscuras deben tener, como mínimo, 80 veces la masa del protón, pues el CDMS-II es más sensible a partículas pesadas.
Xenon 100 comenzó a tomar nuevos datos en enero, pero aún no han sido analizados. Esperemos que los nuevos resultados aclaren la situación, aunque sólo sea para decir que lo único que se detecta es radiación ambiente.
En todo caso, por suerte o por desgracia, no se ha dicho la última palabra sobre este asunto.











Fue la amenaza ambiental más seria del siglo XX. Ahora está en vías de recuperarse. ¿Qué lecciones dejó su descubrimiento?

25 años del agujero en la capa de ozono

Fue la amenaza ambiental más seria del siglo XX. Ahora está en vías de recuperarse. ¿Qué lecciones dejó su descubrimiento?
25 años del agujero en la capa de ozono"Agujero de ozono en 1999. "
Este mayo se cumplen 25 años del descubrimiento del agujero en la capa de ozono sobre el continente antártico.
Cuando el equipo del British Antartic Surveypublicó su hallazgo en la revista Nature,en 1985, advirtió que el agujero podría expandirse a otras partes del mundo.
La capa de ozono es la encargada de proteger a todas las criaturas del planeta del efecto nocivo de los rayos ultravioletas del sol.
Por esta razón, advirtieron en ese entonces los científicos, si su tamaño continúa creciendo -debido al uso de clorofluorocarbonados, unos gases utilizados comúnmente en los aerosoles- aumentarán también los casos letales de cáncer piel a causa de la exposición a los rayos solares.
El descubrimiento realizado por Joe Farman, Brian Gardiner y Jonathan Shanklin se convirtió en un símbolo de la fragilidad de la Tierra y en un emblema de la lucha de los ambientalistas.
La seriedad de la amenaza ambiental fue tal que dos años después de que se publicara el estudio se firmó el Protocolo de Montreal, que prohibió el uso de sustancias químicas como los clorofluorocarbonados y obligó a los científicos a buscar alternativas para reemplazarlos.
Pese a la existencia de este protocolo y al conocimiento de que estas sustancias permanecen durante años en la atmósfera, su uso está permitido en algunos casos.
La ofensiva contra estos gases permitió frenar el crecimiento del agujero, pero se calcula que deberán pasar al menos unos 100 años para que se recupere por completo.
Lecciones
Jonathan Shanklin publicó esta semana una serie de reflexiones generales sobre el agujero en la capa de ozono y el rol que jugó la suerte en el hallazgo.
Pero quizás, lo que más valga la pena destacar de sus comentarios, es la lección que dejó la investigación.
"Lo que podemos aprender de ello es lo rápido que puede cambiar nuestro planeta. Dada la velocidad con la que la humanidad puede afectarlo, ser precavidos es el camino más seguro hacia la prosperidad", dijo Shanklin.
"Y aunque el foco ahora esté puesto en el cambio climático, la causa de todos problemas ambientales -una población que sobrecarga la capacidad del planeta- está creciendo".
"Futuros historiadores notarán que, aunque la humanidad logró resolver inesperadamente un problema ambiental, creó muchos más por no atacar los problemas ambientales de una manera holística", concluyó el científico.
Cambio climático
Aerosol"Aerosol"
Shanklin no fue el único de los tres investigadores en criticar como se le está haciendo frente al calentamiento global. En entrevista con la BBC, Joe Farman criticó a los políticos por su accionar frente al cambio climático.
Es una "gran estupidez" continuar aumentando las emisiones de CO2 cuando sabemos que es un gas contaminante, aseguró Farman.
El experto condenó el hecho de que los gobiernos no hayan eliminado todas las sustancias químicas que contribuyen a la destrucción de la capa de ozono y añadió que algunas de las sustancias que se usan en reemplazo de los clorofluorocarbonados son gases con un efecto invernadero potente.
Para Farman, los gobiernos no aprendieron la lección: que tienen que actuar rápidamente y con decisión ante amenazas globales sobre el medio ambiente como el cambio climático.
Pero también, culpó a la comunidad científica por no haber tomado en serio las críticas específicas a la ciencia detrás del cambio climático.




Las creencias religiosas se debilitan por el avance científico

Steven Weinberg analiza las tensiones más importantes entre ciencia y religión

Steven Weinberg, físico estadounidense ganador del Premio Nobel de física en 1979, escribe en The New York Review of Books que las creencias religiosas se han debilitado en Occidente gracias al avance científico, que ha golpeado algunas de las bases de la religiosidad. Una de ellas: el hecho de que la ciencia explique fenómenos antiguamente considerados como misteriosos (el trueno o el fuego). Otra importante tensión es que la ciencia nos haya obligado a replantearnos el papel del ser humano en el mundo: de ser un actor creado por Dios ha pasado a ser un producto de la evolución animal. En definitiva, señala Weinberg, la ciencia ha debilitado las creencias religiosas. ¿Cómo se puede vivir sin Dios a partir de ahora? Según el físico, disfrutando de la vida y tomándola con humor.

Steven Weinberg, físico estadounidense ganador del Premio Nobel de física en 1979 por combinar el electromagnetismo y la fuerza nuclear débil en el Modelo electrodébil, escribe en un reciente artículo publicado por The New York Review of Books acerca del conflicto derivado de la expansión de la ciencia y el debilitamiento paralelo de las creencias religiosas.
Según Weinberg, la idea del conflicto entre ciencia y religión es antigua. Edward Gibbon, historiador británico del siglo XVIII, ya señaló que "el estudio de la naturaleza es el síntoma más seguro de una mente incrédula".
Weinberg, por su parte, afirma que aunque la ciencia y la religión no sean del todo incompatibles -tal y como lo señalan científicos muy creyentes como Charles Townes o Francis Collins-, la confluencia de ambas ha ido debilitando gradualmente las creencias religiosas, especialmente en Occidente, donde la ciencia está más avanzada.
Cuatro fuentes de tensión
¿Cuáles son las causas de esta tensión? Para Weinberg, el hecho de que existan contradicciones entre los descubrimientos científicos y las doctrinas religiosas específicas no sería una de las causas. Estas contradicciones se han dado muchas veces a lo largo de las historia, y generalmente el conocimiento científico ha terminado siendo adoptado por las personas con mayor visión entre los grupos religiosos.
Pero si el conflicto entre conocimiento científico y creencias religiosas no ha sido tan importante en sí mismo, al menos hay cuatro fuentes de tensión entre ciencia y religión que sí que han sido relevantes.
La primera de ellas es el hecho de que la religión haya tomado gran parte de su fuerza de la observación de fenómenos misteriosos como los terremotos, las enfermedades, los truenos, etc, que parecerían requerir para su existencia de la intervención de algún ser divino.
A medida que el tiempo ha ido pasando, esos misterios se han ido explicando desde una perspectiva cada vez más naturalista. Evidentemente, la ciencia no ha podido explicar todo ni podrá hacerlo nunca pero, lo más importante es que, según Weinberg, no ha constatado nunca nada que requiera de una intervención sobrenatural para su explicación.

Transformación del auto-concepto humano

Una segunda fuente de tensión entre religión y ciencia se deriva del hecho de que las explicaciones científicas hayan aumentado las dudas del rol especial del ser humano en el mundo.
El ser humano ha pasado de considerarse un actor creado por Dios para desempeñar su papel en un gran drama cósmico de pecado y salvación a tener que aceptar que nuestro hogar, la Tierra, es tan sólo otro planeta más que gira alrededor del sol; que nuestro sol es tan sólo una estrella entre cientos de miles de millones de estrellas de una galaxia que, además, está entre miles de millones de galaxias visibles.
Otro descubrimiento importante, y que también cambiaría el concepto que teníamos de nosotros mismos, fue el realizado por Charles Darwin, que señaló que el ser humano es un producto de la evolución a partir de animales que nos precedieron. Es decir, que no existe un plan divino que explique la existencia de la humanidad.
Una tercera fuente de tensión entre ciencia y religión ha sido más revelante para la cultura islámica que para la cristiandad. Alrededor de 1100, el filósofo sufí Abu Hamid al-Ghazzali argumentó en contra de la idea de las leyes de la naturaleza. Siendo como fue el filósofo islámico más influyente, sus ideas ayudaron a que el Islam rechazara la ciencia. Un reflejo de este rechazo fue la quema de todos los textos médicos y científicos llevada a cabo en Córdoba en 1194.
Hoy día, señala Weinberg, hay ya científicos importantes procedentes de los países islamistas, como el físico pakistaní Abdus Mohammed Salam, que en 1979 ganó el Premio Nobel. Pero, en los últimos 40 años, el caso de Salam ha sido una excepción.
En ciencia no hay profetas infalibles
La cuarta fuente de tensión entre ciencia y religión es la siguiente: las religiones tradicionales se basan en la autoridad, representada por un líder infalible (un profeta, un Papa, un Imán) o por un texto sagrado, como la Biblia o el Corán.
Los científicos se apoyan también en autoridades, pero de otra índole. Si quiero comprender la teoría de la relatividad, buscaré información escrita por un experto. Pero siempre sé que dicho experto podría estar equivocado. Para los científicos, ni siquiera los héroes de la ciencia, como Einstein, son considerados como profetas infalibles.
Weinberg señala que su propósito no es argumentar que el declive de las creencias religiosas sea algo bueno (aunque el físico piensa que sí lo es), sino más bien explicar las razones que han llevado a la pérdida de la fe en los últimos tiempos. Señala asimismo que hay que tener mucho cuidado con los sustitutos de la fe: regímenes que rechazaban la religión cometieron grandes atrocidades con la población, como la Alemania nazi o la Rusia de Stalin.
Finalmente, Weinberg apunta que no diría que es fácil vivir sin Dios y que la ciencia es lo único que se necesita. Porque, por más que se avance en el estudio de la naturaleza, los científicos son conscientes de que nunca podrán alcanzar el fondo final de las cosas. Para ayudar a aceptar este hecho, el físico propone la ayuda del humor, de los placeres sencillos de la vida y del placer del arte.
Según Weinberg, "podríamos estar tristes porque no se escriba más poesía religiosa en el futuro… pero, por supuesto, se podrá también escribir buena poesía en adelante sin la religión". En definitiva, señala el físico, no debemos preocuparnos con que la superación de la religión conduzca a una decadencia moral porque muchas personas no religiosas han vivido vidas moralmente ejemplares.













Internet se ha convertido en una mermelada informativa

La prensa tradicional está en quiebra y la información que abunda en la red es farragosa, falsa y repetitiva

La economía digital ha provocado la quiebra de la prensa tradicional y una profunda crisis en la profesión periodística. La información que abunda en Internet es mediocre porque las informaciones serias tienen poco éxito. Necesitamos la figura del periodista emprendedor, ahora que en la sociedad digital no se precisan inversiones masivas para alcanzar audiencias significativas. Una iniciativa pionera en Internet, la guía Lo Mejor del Mundo, es un testimonio del nuevo periodismo emergente en Internet.

Algunos analistas están haciendo una lectura de la crisis global que estamos viviendo como la confirmación de la obsolescencia de la economía tradicional analógica. La economía digital es el tiempo de las redes, los medios sociales y los territorios interactivos, los llamados entornos (perdón por la palabra) DOSPUNTERIZADOS.
El astronauta japonés Soichi Noguchi fue de los primeros en twitear desde el espacio. Cuando la Estación Espacial Internacional estaba atravesando una aurora boreal a 28.000 kilómetros por hora mandó a través de esta red social una foto que en pocos minutos se extendió por la globalidad. Él y su compatriota Naoko Yamazaki se están haciendo famosos como estrellas mediáticas y tienen cientos de miles de seguidores en Twiter.
Los 140 caracteres que admiten los microblogs de esta red social son un fenómeno informativo formidable, no ya por su rapidísimo crecimiento y extensión, sino por sus significados. (Se calcula -no facilita datos la empresa- que Twiter tiene unas 16 millones de cuentas y en España se puede aproximar al millón).
Obama utilizó Twiter en su campaña electoral y el 67% de la recaudación de los fondos que le llevarían a presidir el país más poderoso del mundo fue obtenida online. Ya hay un sistema operativo en el mercado, llamado BotaniCalls, que permite a las plantas comunicarse con su dueño para avisarle de sus necesidades en agua o nutrición, a través de teléfono móvil… o Twiter!
Facebook, el tercer país más poblado del mundo

Pero el rey se llama Facebook o cómo socializar online mi vida privada. Si Facebook fuera un país, sería el tercero más poblado del mundo, con más de 400 millones de usuarios. En España recientemente ha superado los 10 millones.
Recordemos que en nuestro país leen prensa escrita actualmente 93 personas por cada 1.000 habitantes, nítido nivel de subdesarrollo, tras una década de caída, pero hay cerca de 7 millones de lectores de los diarios digitales editados en España. El caso de "El Mundo" es especialmente significativo: OJD le da una difusión de 175.000 ejemplares en abril pasado, 34.000 ejemplares menos que un año antes, pero tiene 1,4 millones de lectores digitales.
Lo que está pasando es abrumador, terrorífico para los que nos dedicamos al periodismo. La Federación de Asociaciones de Periodistas de España (FAPE) ha señalado hace días, con motivo del Día Internacional de la Libertad de Prensa, que 3.351 periodistas han perdido su trabajo en España desde noviembre de 2008. No es de extrañar, si tenemos en cuenta que el líder absoluto de la prensa en España, el diario "El País", ha reducido el 16,5% su difusión en un año y, lo que es peor, el 36,3% de su facturación publicitaria.
Quiebra de la prensa tradicional

La prensa tradicional en España está en quiebra y, frente a esto, los empresarios de medios y los editores hacen EREs, recortan gastos enloquecidos, reduciendo consecuentemente la calidad de su oferta. En lugar de podar el 60% de los gastos para ver cómo se reducen el 80% los ingresos, acuciados por un futuro apocalíptico que ellos mismos azuzan, deberían ponerse a la cabeza del fenómeno, contribuyendo a crear el futuro.
La edición impresa del prestigiosísimo "Washington Post" le costó a su matriz el año pasado 164 millones de dólares de pérdidas operativas. En este momento, el ritmo de destrucción de empleo de periodistas en EE. UU. es de 1.000 al mes. Han cerrado 140 periódicos y, según un estudio hecho en Baltimore, el 86% de las noticias publicadas proceden de notas de prensa.
Sí, Internet está atiborrada de información… farragosa, falsa, repetitiva. Es la famosa "mermelada informativa" que denunciaba Umberto Eco. "Nuestra mente es como un barco a la deriva perdido en un océano de información", dice el célebre prospectivista John Naisbitt. ¿Quién gana? Los más radicales, el chismorreo y el amarillismo, los lobbystas, el carrusel de la injuria y el insulto.

Presentación en Madrid de la guía Lo Mejor del Mundo

El 27 de mayo se presentó en Madrid, en el Club Financiero Génova, la guía en Internet
Lo Mejor del Mundo. Un grupo de periodistas veteranos, varios de ellos provenientes de la información económica, han trabajado en la elaboración de este portal. La guía, editada inicialmente en español y en inglés, contiene actualmente más de 2.100 artículos, más de 1.000 fotos de calidad y se referencian unas 800 marcas, establecimientos, empresas de servicios y otras. Se estructura en 10 grandes apartados, desde viajes hasta vinos y gastronomía, pasando por salud y bienestar, moda, finanzas, electrónica, educación, coches, barcos y aviones, etc. Sus contenidos se actualizarán diariamente.
Maoísmo digital

Las informaciones serias tienen poco éxito. El centro Simón Wisenthal denuncia un incremento del 25% en el número de grupos "problemáticos" en Internet en el último año. Y gana el plagio, la idea de la agregación, del cortar y pegar, parece el espíritu de la época. Artífices de la Red, como el científico informático Jaron Lanier, advierte del pensamiento de colmena que crece en Internet y lo que llama "el maoísmo digital". Se nos anima a entregar los frutos del trabajo y el intelecto al espíritu de la colmena.
El crítico inglés James Wood dice con sorna que Internet es como una fiesta a la que uno llega cuando todo el mundo está ya muy borracho. La crítica se está debilitando en los países avanzados. Se está deslegitimando el principio de autoridad, especialmente el de autoridad intelectual. Asoma un nuevo totalitarismo intelectual. ¿No vamos a hacer nada?
Creo que los periodistas estamos obligados a dejar de ser parte del problema y empezar a ser parte de la solución. Siquiera sea modestamente, no podemos permanecer como víctimas, tenemos que alzar nuestra voz y nuestra experiencia.
Innovar y arriesgar

Lo primero que hay que hacer para salir del pozo es dejar de cavar, dice un proverbio chino. Necesitamos la figura del periodista emprendedor, profesionales que innoven y arriesguen, ahora que en la sociedad digital no se precisan inversiones masivas para alcanzar audiencias significativas.
Un solvente informe de PriceWaterhuoseCoopers indica que el 97% de sus encuestados se declaran dispuestos a pagar por información económica de calidad. Las redes sociales son todavía un juego, las redes sociales más significativas del siglo XXI serán las de las personas bien informadas. El club de la información de calidad.
El manifiesto sobre los nuevos medios que redactó el Harvard Business Publishing destaca la necesidad de reinventar las noticias enfocadas en nichos robustos, necesitados de conocimientos, no de información desechable. Los nuevos medios deben dejar de ofrecer noticias corrientes y deben apuntar a lo significativo, al conocimiento. No es la cantidad de información lo que importa, sino cómo la procesamos. Hay que seleccionarla y verificarla para descubrir los componentes que integrarán las visiones del futuro.
Los diarios crean demasiada información desechable, dicen en Harvard. Los medios están tan preocupados de la circulación que han olvidado darle valor a los contenidos. Lo primero es el contenido y luego ponerlo en una plataforma o en todas ellas.

Presente y futuro

El futuro está incrustado en el presente, dice Naisbitt. El tiempo ni vuelve ni tropieza, dijo nuestro Quevedo. Pero puestos a citar, no puedo olvidar a Woody Allen: "He visto el futuro y se parece mucho al presente, sólo que dura más".
Sólo voy a hacer una cita más. Hay un brillante "Manifiesto de Internet: cómo funciona el periodismo hoy", circulando por la Red. Fue redactado originariamente en alemán por periodistas y blogeros conocidos de esa nacionalidad. Ha hecho fortuna y está difundido en varios idiomas. Voy a citar solamente algunas frases:
-La publicación y diseminación de los contenidos de medios han dejado de estar atados a grandes inversiones.
-La Red desacredita los productos homogéneos en masa.
-Se puede hacer dinero en Internet con contenidos periodísticos, existen muchos ejemplos de eso actualmente. Los modelos de negocio tienen que estar adaptados a la estructura de la red.
-Gracias a Internet, los individuos pueden ahora informarse mejor que nunca.
-Los enlaces son conexiones. Aquellos que no los usan se excluyen a sí mismos del discurso social.
-Aquellos que quieren sobrevivir en este nuevo mundo de información necesitan un idealismo rejuvenecido, con nuevas ideas periodísticas y un sentido de placer y disfrute al explotar este nuevo potencial.
Éste es el contexto en el que nace la guía Lo Mejor del Mundo. Con un poco, tal vez, de ese idealismo rejuvenecido.
 
 
 
 




jueves, 29 de julio de 2010

Un astrónomo y sacerdote argentino estudia las estrellas para acercarse a Dios

"Me hice astrónomo para acercarme a Dios, que ha creado el universo", confiesa el sacerdote jesuita argentino José Gabriel Funes, quien dirige desde 2006 el Observatorio Astronómico del Vaticano, localizado en el inmenso parque de la residencia papal de Castelgandolfo.

 Las instalaciones del Observatorio se encuentran en un antiguo monasterio al borde de la finca papal, una suerte de frontera física entre fe y ciencia, donde trabajan seis religiosos.
Al observar que uno de ellos va vestido con pantalón y simple camiseta, se siente uno más en un campo universitario de Estados Unidos que en un lugar clave para la fe católica.
"Nosotros nos interrogamos sobre los mismos asuntos que se cuestionan los laicos: queremos entender cómo funciona el Universo, cuál fue su origen, saber si hay planetas similares a la Tierra...", afirma Funes, de 47 años. "Pero nosotros somos el Observatorio del Papa. Estamos aquí para servir al Papa, la Iglesia y nuestros colegas", sostiene.
El padre Funes inició sus estudios de astronomía antes de entrar a formar parte de la Iglesia, así como su colega Guy Consolmagno, especializado en meteoritos. "Antes que todo soy un científico", comenta Consolmagno, profesor universitario en Estados Unidos antes de abrazar la religión. "Pero es la fe en Dios la que me da la fuerza de investigar, porque hay que tener la fe enclavada en el cuerpo para creer que hay respuestas, buscar leyes y sostener que el Universo no es sólo caos", dice.
"Desde siempre la Iglesia se ocupa de astronomía", rememora Funes. Incluso cuando combatió teorías que consideraba peligrosas y que persiguió, como en el caso de Galileo. Pero todo ello parece algo muy lejano, sobre todo cuando se exhibe con orgullo la segunda edición del 'Diálogo sobre los dos sistemas del mundo', del célebre padre de la astronomía moderna, condenado en 1633 por la Santa Inquisición.
El sobrio edificio de un piso es sobre todo un lugar de estudio y de enseñanza, ya que desde 1981 utiliza los preciosos datos recabados por el telescopio instalado -a raíz de la limpieza del cielo- en Tucson, Arizona (Estados Unidos), donde trabajan otros ocho religiosos. Otro telescopio, algo más antiguo, se encuentra en el palacio apostólico y sirve sólo para la observación de los planetas más cercanos.
Algunos estudios del Observatorio han obtenido el reconocimiento de la comunidad científica. Es el caso del Rayo Verde, un fenómeno real y no una ilusión óptica, demostrado científicamente y cuya rara luz fugaz análoga a la de un faro suele aparecer inmediatamente después de la puesta de Sol con una duración de hasta dos segundos. "Demostramos que no es algo subjetivo, que es algo que se puede observar y fotografiar", contó Funes.
Como hombre de ciencia no está preocupado frente a la posible existencia de "extraterrestres", un tema delicado sobre el cual la Iglesia no tiene posiciones específicas. "Hasta ahora no hay pruebas de la existencia de una vida extraterrestre, pero en un universo tan grande, con cientos de millones de galaxias que a su vez tienen millones y millones de estrellas, puede haber entre ellas algunas con características similares a la Tierra...", dice.
En su oficina-laboratorio, el hermano Consolmagno estudia un meteorito que presenta mezclas de metales y minerales. "El vestigio de un astro desaparecido hace casi 5.000 millones de años", explica.
La pieza más preciosa es nada menos que un pedazo de Marte, grande como un puño, negra en el exterior y verdusca por dentro. "No hay ninguna tan grande ¡Pensar que los coleccionistas pagan gasta 1.000 euros al gramo!" comenta el religioso, al levantar con cuidado y protegido con guantes de caucho el valioso objeto.








Científicos calculan la intensidad del campo magnético del centro de la Tierra

Investigadores franceses ha calculado la intensidad del campo magnético en el interior del núcleo de la Tierra, y han estimado esta intensidad en 4 militeslas (mT) a partir de modelos de flujos de fluidos. El equipo de las universidades Joseph Fourier y Paris-Diderot, y del Centre national de la recherche scientifique (CNRS) resuelve con su trabajo un rompecabezas que desconcertaba desde hacía tiempo a los expertos en ciencias de la Tierra.

El núcleo sólido interior de la Tierra está rodeado por una capa fluida exterior compuesta sobre todo de hierro. El movimiento del núcleo por convección genera el campo magnético de la Tierra. Este campo en sí mismo no se puede medir directamente, pero conocer su magnitud es importante para saber como funciona la 'geodinamo" terrestre y la propia evolución de la historia térmica del planeta.
Para calcular esta intensidad los científicos se ven obligados a utilizar métodos indirectos, pero hasta ahora los resultados no eran coherentes. Por una parte, los datos geomagnéticos y las medidas relacionadas con la longitud del día daban una estimación de sólo 0,2 militeslas (mT) -la unidad con que se mide esta magnitud-. Pero, por otra, los modelos numéricos de la 'geodinamo' terrestre predecían que el campo del interior del núcleo debía ser del orden de unos 3 mT.
Ahora, científicos de las universidades francesas Joseph Fourier y Paris-Diderot, adscritos al Centre national de la recherche scientifique (CNRS), han resuelto esta discrepancia con una nueva investigación que esta semana publica la revista Nature.
"Nuestro estudio revisa la estimación de los datos geofísicos, y se reconcilia con las simulaciones de la geodinamo, además de explicar una señal de período de 6 años detectada previamente en las series sobre la longitud del día", destaca a SINC Nicolas Gillet, investigador de la Universidad Joseph Fourier-CNRS.
Propagación de las ondas de torsión

A través de modelos de flujo de fluidos, el equipo ha encontrado una onda de torsión que se repite cada seis años. A partir de esta información los científicos estimaron la intensidad del interior del núcleo de la Tierra en 4 mT.
"Estas ondas magneto-hidrodinámica de torsión (denominadas de Alfven) son llevadas por el campo magnético dentro del núcleo exterior de hierro fundido", describe Gillet, quien añade: "Son como cilindros rígidos, centrados en el eje de rotación de la Tierra, unidos entre sí por la tensión magnética. Una perturbación en un cilindro se propagará a los cilindros vecinos con una velocidad que es proporcional a la intensidad del campo magnético".
El investigador aclara que este estudio se aplica para la dinámica "rápida" (desde periodos interanuales a centenarios) del núcleo exterior de la Tierra, por lo que no trata de explicar las variaciones del campo magnético terrestre que se producen cada miles de años. "La dinámica es completamente diferente: es como comparar la dinámica de la atmósfera para unos pocos días (meteorología) y la de décadas o siglos (climatología)".




Detectan temblores en el espacio como terremotos de magnitud 6

Sus efectos llegan a notarse sobre la superficie de la Tierra y pueden provocar graves daños en las redes eléctricas 

Un temblor espacial es una violenta sacudida que se produce en el campo magnético terrestre. Sus efectos se sienten con más fuerza en órbita, pero también sobre la superficie de nuestro planeta. Cuando se producen, los terremotos espaciales sacuden los campos magnéticos que rodean la Tierra de la misma forma en que un terremoto sacude el suelo que pisamos. Sus efectos pueden ser medidos desde el suelo, y llegar a colapsar redes eléctricas y de telecomunicaciones

El terremoto espacial es una violenta sacudida en el campo magnético terrestre

"Reverberaciones magnéticas ya han sido detectadas en muchas ocasiones por estaciones con base en tierra alrededor de todo el globo terráqueo, de la misma forma en que los detectores sísmicos miden la intensidad de los terremotos", explica Vassilis Angelopoulos, investigador principal de la constelación de satélites Themis, que desde febrero de 2007 estudia la magnetosfera terrestre.
La analogía, según Eugeny Panov, del Instituto de Investigación Espacial de Austria y autor principal de un estudio recién publicado en Geophysical Research Letters, es muy adecuada, ya que "la energía total de un temblor espacial es comparable a la de un terremoto de magnitud 5 ó 6". Ya en el año 2007, la red Themis (que consta de cinco satélites) descubrió la existencia de fenómenos que hoy se consideran como precursores de un temblor espacial.
La acción empieza en la cola del campo magnético de la Tierra (ver vídeo), que se estira como una manga de viento bajo la acción de los continuos vientos solares. En ocasiones, la cola se estira tanto que rebota violentamente, tal y como lo haría una goma que estiráramos y después soltáramos de repente. Cuando eso sucede, el plasma solar atrapado en la cola es lanzado hacia la Tierra. Y en más de una ocasión los cinco satélites Themis estaban "en la línea de fuego" justo en el momento de producirse estos súbitos bombardeos de plasma.
De forma incuestionable, los chorros de plasma se dirigen directamente hacia la Tierra pero ¿qué es lo que ocurre exactamente a partir de ese momento? "Ahora lo sabemos" afirma David Sibeck, investigador del proyecto Themis en el centro espacial Goddard, de la NASA. "Los chorros de plasma provocan temblores espaciales".
Violentos «latigazos»
Según los datos recogidos por los cinco satélites, los chorros de plasma provocados por estos violentos "latigazos" se estrellan contra el campo magnético terrestre a unos 30.000 km de altura sobre el Ecuador. El impacto genera una serie de "rebotes", durante los cuales el plasma salta arriba y abajo en el interior del oscilante campo magnético. Se trata de algo parecido a lo que hace una pelota de tenis botando en el suelo. El primer rebote es el mayor, seguido de botes cada vez menores hasta que toda la energía se disipa.
 
 
"Sospechábamos desde hace mucho que sucedía algo parecido -afirma Sibeck-. Pero observando todo el proceso in situ, Themis ha descubierto algo totalmente nuevo y sorprendente".
Ese "algo" son los "vórtices de plasma", enormes remolinos de gas magnetizado, tan grandes como la propia Tierra y girando al borde mismo del "tembloroso" campo magnético. "Cuando los chorros de plasma golpean la magnetosfera desde el interior -explica Rumi Nakamura, uno de los coautores del estudio- se generan vórtices que giran en el sentido contrario, apareciendo y desapareciendo al otro lado del chorro de plasma. Y creemos que estos vórtices pueden generar importantes corrientes eléctricas en el entorno cercano de la Tierra".
Así, actuando juntos, los vórtices y los temblores espaciales consiguen producir efectos medibles en nuestro planeta. Las colas de los vórtices pueden hacer de "túneles" que inyectan partículas de plasma en la atmósfera, dando lugar a auroras polares y generando ondas de ionización que interfieren las comunicaciones por radio y los sistemas GPS.
Llegan hasta el suelo
Tirando de la superficie de los campos magnéticos, los temblores espaciales generan, por su parte, corrientes eléctricas que llegan hasta el mismísimo suelo sobre el que caminamos. Estas corrientes pueden tener graves consecuencias, llegando en casos extremos a afectar a las redes eléctricas de amplias zonas del planeta. El vídeo sobre estas líneas es una simulación informática (realizada por Joachim Birn, del Laboratorio Nacional de Los Alamos, en Nuevo México) a partir de las mediciones de los satélites Themis.
El trabajo, sin embargo, dista mucho de estar terminado. "¿Cómo de fuerte puede ser un temblor espacial? -se pregunta Sibeck- ¿Cuántos vórtices pueden estar girando a la vez alrededor de la Tierra y cómo interactúan entre ellos?". Para conocer las respuestas, habrá que estar muy pendientes de los próximos datos que aporte Themis.
 
 
 


 


La endogamia es la culpable de las enfermedades de la familia de Darwin



La dinastía Darwin/Wedgwood muestra un vínculo entre la endogamia y la mortalidad infantil. Al parecer, las preocupaciones de Charles Darwin sobre los posibles efectos secundarios de la endogamia en su familia parecían estar justificadas. Así lo indica un nuevo estudio, liderado por científicos españoles, que trata de explicar por qué tres de los hijos del naturalista inglés murieron antes de los 18 años.

Darwin se casó con su prima carnal, Emma Wedgwood, cuya madre, Susannah Wedgwood, era hija de primos terceros. Ahora, investigadores de la Universidad de Santiago de Compostela (USC) y de la Universidad de Ohio (EE UU) han encontrado una asociación estadística entre la mortalidad infantil y el coeficiente de endogamia de las personas que formaban la dinastía Darwin/Wedgwood.
Para ello, Tim M. Berra, Gonzalo Álvarez y Francisco C. Ceballos, los dos últimos de la USC, siguieron el rastro de otros 25 familiares y un total de 176 niños relacionados con el matrimonio Darwin. Los autores sugieren que la expresión de los genes dañinos "producidos por los matrimonios consanguíneos podrían explicar la alta mortalidad infantil que sufrió la progenie de Darwin".
Según el nuevo trabajo, publicado en la revista BioScience, el naturalista inglés demostró el fenómeno de la depresión endogámica en muchas plantas y, como consecuencia, empezó a ser consciente de los efectos del matrimonio entre familiares en la salud de los hijos concebidos.
"Darwin temía que su unión fuera responsable de los problemas de salud de sus hijos y pidió a un miembro del Parlamento que añadiera una pregunta sobre los matrimonios entre familiares al formulario del censo británico de 1871", apuntan los investigadores.
Trágica degeneración biológica
Tres de los diez hijos de Charles Darwin murieron antes de llegar a la edad adulta, uno de tuberculosis infantil a la edad de 10 años y uno por causas desconocidas cuando era un bebé. Un tercer hijo, que murió en su infancia de fiebre escarlatina, aparece en una fotografía y parece tener anormalidades de desarrollo.
"La endogamia es un factor de riesgo importante de una serie de enfermedades humanas, algunas de ellas infecciosas", concluyen los autores.
Además, tres de los seis hijos de Darwin que tuvieron matrimonios duraderos no alcanzaron descendencia. La inexplicada infertilidad también podría ser consecuencia de un matrimonio consanguíneo. Por otro lado, tres de los hijos de Darwin son miembros de la Royal Society y la Reina Victoria les concedió el título de Sir.




 



La contaminación causa un menor crecimiento del feto

La contaminación procedente del tráfico urbano afecta negativamente al crecimiento del feto. Un estudio publicado por investigadores del Centro de Investigación en Epidemiología Ambiental (CREAL-Centre de Recerca en Epidemiologia Ambiental), revela que los fetos de las mujeres embarazadas pesan 81,6 gramos menos respecto al crecimiento medio que se produce entre las semanas 20 y 32 de gestación por causa de la polución.

La nueva investigación detalla que el menor peso del feto se da en mujeres que viven en zonas con mayor circulación de vehículos y, por tanto, expuestas a niveles más altos de NO2 o dióxido de nitrógeno.
El estudio indica que por cada incremento 10 µg/m3 (microgramos por m3) en la exposición a NO2, que es un aumento bastante común en grandes ciudades, el crecimiento del perímetro craneal es 6,24mm inferior respecto al crecimiento medio entre las semanas 12 y 20 de gestación. Por otro lado, se observa un descenso de 6,37mm en el crecimiento del perímetro abdominal y de 2,16mm en el crecimiento del diámetro biparietal (distancia entre la sien y la sien), respecto al crecimiento medio entre las semanas 20 y 32. Estas medidas de descenso surgen respecto al crecimiento medio de la población de estudio. Cabe añadir que el peso del feto se estima en base a las medidas citadas anteriormente.
Hay que tener en cuenta que la concentración media de NO2 en Sabadell durante el periodo de estudio fue de 51 µg/m3, una concentración algo menor a la de ciudades como Barcelona o Madrid.
Además, los resultados indican que la exposición a la contaminación atmosférica al inicio del embarazo tiene un efecto negativo hacia la mitad del embarazo. Aún así, la Dra Inma Aguilera, coordinadora del estudio e investigadora del CREAL, afirma que "no podemos decir que la contaminación afecta más a un periodo que en otro, sino que solamente hemos hallado un efecto concreto en la mitad del embarazo".
Las 562 mujeres que participaron en esta investigación, que se enmarca dentro del Proyecto INMA (Infancia y Medio Ambiente), residen en Sabadell (Barcelona) y para el análisis se utilizaron los datos procedentes de tres ecografías prenatales.
Efectos en la salud
El retraso en el crecimiento intrauterino es una respuesta a un ambiente prenatal adverso y se asocia a un retardo en el neurodesarrollo y a problemas de crecimiento durante la infancia, así como un mayor riesgo de padecer enfermedades cardiovasculares y síndrome metabólico en la etapa adulta. Aún así, la coordinadora del estudio e investigadora del CREAL, Inma Aguilera, remarca que "de momento" el efecto negativo encontrado de la contaminación sobre el crecimiento fetal es "pequeño".
La Dra Aguilera puntualiza que el impacto en salud pública podría ser "relevante" ya que, por un lado, la contaminación del aire afecta a toda la población y, por otro, el crecimiento fetal es un importante indicador de salud perinatal.
Este estudio también corrobora los hallazgos de algunos estudios previos que sugieren que la zona de residencia influye en la salud de sus habitantes según esté o no próxima a un flujo intenso de tráfico de vehículos. En este sentido, para la investigadora del CREAL, "los niveles de contaminación del aire deberían ser tenidos en cuenta como un factor más en el planeamiento urbanístico a la hora de ubicar determinadas instalaciones como colegios, guarderías u hospitales".
Primer estudio que observa el feto
Mientras que la mayoría de estudios han evaluado el crecimiento fetal de manera indirecta utilizando medidas antropométricas al nacimiento (como el peso o la talla), este es el primer estudio que evalúa el crecimiento fetal directamente a través de ecografías, obteniendo así una medida más precisa.
Además, es el primer estudio de estas características que ha aplicado técnicas de análisis geográfico para estimar niveles de exposición individual, mejorando así la evaluación de la exposición respecto a estudios previos.
Actualmente el equipo del CREAL está trabajando en el análisis conjunto de las cuatro cohortes del proyecto INMA (Sabadell, Valencia, Asturias y Guipúzcoa), para investigar si se reproducen estos resultados, así como en el estudio otros efectos perinatales asociados a la exposición a contaminación atmosférica (como los nacimientos prematuros o la mortalidad intrauterina).


Los universitarios tienen menos miedo a la muerte que los que tienen menos estudios

Una investigación realizada en la Universidad de Granada (UGR) revela además que las mujeres temen más a la muerte que los hombres y que el mayor o menor miedo a la muerte que presentan tanto padres como madres influye directamente en la percepción que de ella tienen sus hijos. Es necesario un cambio de mentalidad en las familias y en los profesores respecto a este tema, ya que es crucial para la salud de los niños y la configuración de su personalidad.

Las personas con formación universitaria (licenciados y diplomados) tienen menos miedo a la muerte que quienes cuentan con un menor nivel de estudios. Además, las mujeres temen más a la muerte que los hombres, lo que influye directamente en sus hijos, ya que el 76% de los niños que manifiestan tener miedo a la muerte lo hacen porque sus madres evitan más el tema, temen más una muerte prematura y presentan peores estrategias de afrontamiento ante la muerte.
Éstas son algunas de las conclusiones de una investigación, titulada "Educación para la muerte: Estudio sobre la construcción del concepto de muerte en niños de entre 8 y 12 años de edad en el ámbito escolar", realizado en el Departamento de Personalidad, Evaluación y Tratamiento Psicológico de la Universidad de Granada por Claudia Fabiana Siracusa y dirigido por los profesores Francisco Cruz Quintana y Mª Nieves Pérez Marfil.
Para llevar a cabo esta investigación, sus autores trabajaron con una muestra formada por 288 niños escolarizados de entre 8 y 12 años, junto con sus padres, madres y/ o tutores y docentes. Los profesores de la UGR han analizado cómo influyen en la comprensión del concepto de muerte que tienen los niños las actitudes, temores, creencias y estrategias de afrontamiento hacia la misma que sostienen los adultos más cercanos a ellos.
Cambio de mentalidad
Este trabajo ha puesto de manifiesto la necesidad de un cambio de mentalidad en las familias y en los profesores respecto al tema de la muerte y el proceso de fin de vida, ya que es crucial para la salud de los niños y la configuración de su personalidad. Del estudio se desprenden otros muchos datos interesantes, como que todos los niños y niñas (en mayor o menor grado) han tenido experiencias personales relacionadas con la muerte, creen en la vida después de la muerte y muestran preocupación por ella. Además, las niñas creen más en la vida después de la muerte que los niños.
En el caso de los docentes, el 80 % de ellos afirma que la muerte no está contemplada en el currículo escolar. Seis de cada diez reconocieron haber hablado en algún momento de su actividad académica sobre la muerte con sus alumnos, y la mayoría de ellos lo hizo ante el fallecimiento de un familiar del alumno.
A la luz de estos resultados, los científicos de la UGR consideran "fundamental" llevar a cabo una educación para la muerte "como un modo de valorar la vida, acabando con la idea falsa, irreal, que de la muerte transmiten los medios de comunicación y que dote al niño de estrategias y recursos para afrontar de una forma madura las pérdidas que, inevitablemente, se van a presentar en su vida sin que ello venga acompañado de consecuencias leves o graves sobre su salud psicológica y física".
Y es que este trabajo ha revelado que el nivel educativo es un factor protector ante las actitudes negativas como son el miedo y la evitación hacia la muerte. Según explicaron los docentes que participaron en la muestra, "en la actualidad la muerte no es abordada en educación, de manera formal y sistematizada". Su incorporación, según los resultados obtenidos en este trabajo, "sería una forma de proveer a los niños de una perspectiva más cierta e intensa de la vida, y evitaría muchas de las dificultades en la resolución de los procesos de duelo que la persona debe afrontar una vez que es adulto".

Descifran códigos de telefonía celular

Un ingeniero alemán publicó detalles de las claves secretas que protegen las llamadas de miles de millones de usuarios.
Descifran códigos de 
telefonía celular "Jóvenes con celulares"
Un ingeniero en computación alemán publicó detalles de los códigos secretos utilizados en la telefonía celular para proteger las conversaciones de más de cuatro mil millones de usuarios.
Karsten Nohl, en conjunto con otros expertos, dedicó los últimos cinco meses a descifrar el algoritmo utilizado para codificar las llamadas que utilizan el Sistema Móvil Global (GSM, por sus siglas en francés).
GSM es la tecnología de mayor uso en las redes celulares alrededor del mundo.
El resultado del trabajo permitiría a cualquiera -inclusive a los delincuentes- poder interceptar llamadas telefónicas privadas.
Durante el Congreso de Comunicación Caos en Berlín, Nohl afirmó que su trabajo demostraba que la seguridad GSM era "inadecuada".
"Intentamos informar a la gente sobre esta vulnerabilidad generalizada", expresó a la BBC.
La Asociación GSM, que elaboró el algoritmo y supervisa el desarrollo de la tecnología, señaló que lo hecho por Nohl sería considerado "altamente ilegal" en el Reino Unido y muchos otros países.
"Esto no es algo que podamos tomar a la ligera", dijo una portavoz.
Nohl le comentó a la BBC que había consultado con abogados antes de la publicación y que creía que su trabajo era "legal".
"Clave secreta"
Después de trabajar con unas "cuantas docenas" de personas, Nohl afirma que el material publicado podría descifrar el algoritmo A5/1, un código que los proveedores de telefonía celular vienen utilizando durante 22 años.
El código está diseñado para prevenir la interceptación de llamadas telefónicas al forzar a los móviles y estaciones de base a cambiar rápidamente de frecuencias de radio a lo ancho de 80 canales.
Teléfono celular antiguo "Teléfono celular antiguo"
Es conocido que el sistema tiene una serie de debilidades, la primera seria falla fue expuesta en 1994.
Nohl, que se describe a sí mismo como un "investigador de seguridad de ofensiva", anunció su intención de descifrar el código durante una conferencia de "hackers" en Holanda en agosto pasado.
"Cualquier función de codificación va en una sola dirección", señaló a la BBC. "No es posible descifrar códigos sin una clave secreta".
Para resolver este problema, Nohl y otros integrantes de la comunidad de codificadores, utilizaron redes de computadores para generar "todas las combinaciones posibles" de entradas y salidas del código secreto. Nohl reconoció que había "trillones" de posibilidades.
Todas las salidas están detalladas en una gran lista, que pueden ser utilizadas para determinar los códigos secretos que mantienen la seguridad de una conversación o un mensaje de texto.
"Es como tener un directorio telefónico -si alguien te da un nombre tú puedes buscar su número", explicó.
Por medio de este directorio de códigos, cualquier persona con una poderosa computadora de juegos y US$3.000 en equipos de radio podría descifrar las señales de los miles de millones de usuarios del GSM en el mundo, agregó.
Las señales podrían ser descifradas en "tiempo real" con equipos de unos US$30.000, concluyó Nohl.
"En manos criminales"
Antes de esto ya era posible descifrar las señales de GSM y escuchar conversaciones privadas, pero el equipo cuesta "cientos de miles de dólares", dicen los expertos.
De acuerdo a Ian Meakin, de la empresa de codificación celular Cellprynt, solo agencias del gobierno y criminales "bien financiados" tenían acceso a la tecnología necesaria.
Meakin describió el trabajo de Nohl como una "gran preocupación".
"Pone mucho más al alcance de personas y organizaciones la posibilidad de descifrar las llamadas con GSM", comentó a la BBC.
"Sin darse cuenta pone estas herramientas y técnicas en manos criminales".
Sin embargo, la Asociación GSM desestimó esas prepcupaciones, diciendo que "los informes sobre la inminente capacidad de interceptación del GSM" eran "comunes".
Añadió que había una serie de ensayos académicos que describían como la seguridad de A5/1 podría estar comprometida pero "hasta la fecha ninguno ha conducido a un ataque práctico".
La asociación asegura que ya ha esbozado una propuesta para elevar el nivel del A5/1 a unon conocido como A5/3, que está siendo introducido por etapas.
"En general, consideramos esta investigación, que parece motivada por aspectos comerciales, esté todavía muy lejos de representar un ataque práctico contra GSM", declaró la portavoz de la asociación.
 
 

miércoles, 28 de julio de 2010

El Hubble capta cómo una estrella devora un planeta

El telescopio espacial Hubble descubrió un planeta en nuestra galaxia, la Vía Láctea, mientras es devorado por su estrella gravitacional, anunció un comunicado publicado en el Astrophysical Journal Letters.

E
l planeta agonizante, bautizado como Wasp-12b, es el más cálido conocido en la Vía Láctea, con una temperatura de 1.500 grados Celsius en su superficie, y podría desaparecer totalmente en el transcurso de los próximos diez millones de años, según los autores del descubrimiento.
El descubrimiento fue posible gracias a un instrumento nuevo instalado en Hubble en el 2009. Se trata del 'Cosmic Origins Spectrograph' que captó cómo se hinchaba la atmósfera del planeta a causa del calor y de la fuerza de gravedad de su estrella.
WASP-12b, descubierto en el 2008, se sitúa a 600 años luz de la tierra (un año luz corresponde a 9.4 billones de kilómetros) en la constelación del Auriga.
Los astrónomos sabían que las estrellas pueden tragarse a sus planetas si estos últimos se acercan demasiado pero es la primera vez que se observa de cerca el fenómeno.






Internet confirmaría teoría de "seis grados de separación" entre personas

(ARCHIVO) Una persona ingresa al 

portal de mensajería instantánea MSN de Microsoft, el 24 de setiembre 
de

 2003 en París. Investigadores de Microsoft estudiaron 30.000 millones 

de mensajes instantáneos enviados por 240 millones de personas y 

establecieron que, en promedio, dos personas pueden ser vinculadas en 

6,6 etapas.
Un estudio de miles de mensajes instantáneos en internet parece validar la teoría según la cual existirían "seis grados de separación" entre todos los individuos del mundo, indicó un investigador a la AFP.
Esta teoría postula que cualquier individuo puede ser vinculado a cualquier otro del mundo mediante una cadena de relaciones individuales de seis personas.
El equipo de investigadores, que trabaja para el gigante de la informática Microsoft, estudió 30.000 millones de mensajes instantáneos enviados por 240 millones de personas en junio de 2006 y estableció que, en promedio, dos personas pueden ser vinculadas en 6,6 etapas.
"Hemos logrado meternos en el tejido social de la conectividad entre los individuos a escala planetaria y hemos confirmado que el mundo es muy pequeño", declaró Eric Horvitz, que codirogió el trabajo con Jure Leskovec, el lunes a la AFP.
"Creemos que es la primera vez que una red social a escala planetaria pudo validar el hallazgo conocido como 'seis grados de separación'", destacó.
La teoría se apoya en los trabajos de Stanley Milgram y Jeffrey Travers, que habían pedido en 1969 a 300 personas que vivían en Nebraska (centro de EEUU) hacer llegar una carta a alguien de Boston (Massachusetts, noreste) mediante conocidos. Un amigo representaba un grado de separación, el amigo del amigo dos grados, y así sucesivamente. Las cartas que llegaron a sus destinatarios franquearon en promedio 6,2 grados de separación.
La teoría de los seis grados nunca fue considerada válida científicamente, pero inspiró una pieza de teatro, una película, un juego y dio su nombre a una organización caritativa.
Los investigadores precisaron que su trabajo respetó la confidencialidad de los mensajes y el anonimato de los individuos.