"El hombre encuentra a Dios detrás de cada puerta que la ciencia logra abrir." EINSTEIN


martes, 30 de noviembre de 2010

Aparece una nueva hipótesis sobre el tipo de química que permitió la aparición de vida en la tierra


La idea básica es que las leyes elementales de las interacciones químicas dan margen a un tipo de selección natural a microescala: las enzimas pueden cooperar y competir entre sí de maneras sencillas, llevando a arreglos que pueden volverse estables.

Los científicos comparan este proceso químico de "búsqueda, selección, y memoria", con otro proceso bien estudiado: distintos ritmos de descargas neuronales en el cerebro que causan la aparición de conexiones nuevas entre neuronas, y finalmente llevan al "cableado eléctrico" maduro del cerebro. De manera similar, las hormigas, insectos sociales, exploran primero al azar, luego descubren el alimento, y posteriormente construyen una memoria a corto plazo para toda la colonia utilizando huellas químicas.
También comparan los pasos químicos a los principios de evolución de Darwin: selección al azar de rasgos en organismos diferentes, selección de los rasgos mejor adaptados al entorno, y entonces la transmisión generacional de los rasgos mejor adaptados (y presumiblemente la desaparición de aquellos individuos con rasgos menos adaptados).
Al igual que estos procesos más obvios, las interacciones químicas en el modelo propuesto incluyen competencia, cooperación, innovación y una preferencia por la coherencia.
El modelo se centra en enzimas, que funcionan como catalizadores, compuestos que aceleran grandemente una reacción sin quedar modificados al final del proceso. Los catalizadores son muy comunes en los sistemas vivos, así como en los procesos industriales. Muchos investigadores creen que los primeros catalizadores primitivos en la Tierra no fueron sino las superficies de arcillas u otros minerales.
En su forma más simple, el modelo muestra cómo dos catalizadores en una solución, A y B, cada uno catalizando una reacción diferente, podrían acabar formando lo que los científicos llaman un complejo, AB. El factor decisivo es la concentración relativa de sus "compañeros deseados". El proceso podría transcurrir así: el catalizador A produce un agente químico que usa el catalizador B. Puesto que B normalmente busca este agente químico, a veces B será atraído hacia A si su agente químico "deseado" no está disponible por ningún otro medio en las cercanías. Como resultado, A y B se acercarán, formando un complejo.
La palabra "complejo" es importante porque muestra cómo interacciones químicas simples, con pocos participantes, y siguiendo leyes químicas básicas, pueden llevar a una combinación nueva de moléculas de mayor complejidad. El surgimiento de la complejidad, sea en sistemas neuronales, sistemas sociales, la evolución de la vida, o la organización del universo entero, ha sido durante mucho tiempo un gran enigma, sobre todo al tratar de averiguar cómo emergió la vida.
Este modelo simple muestra una ruta creíble hacia este tipo de complejidad.





Las comidas sabrosas reducen el estrés


El placer producido por la comida sabrosa o por el sexo reducen los efectos perniciosos del estrés en ratas de laboratorio.

Describamos una situación determinada. Usted llega tarde a casa después de una jornada laboral miserable en la que ha odiado, una vez más, su trabajo. Viene estresado y, pese a que su ocupación habitual es más bien sedentaria y no consume muchas calorías, se prepara una buena cena. Pero un rato después no puede quitarse las preocupaciones de la cabeza y, pese a que no tiene hambre, va a la cocina a devorar un flan, un helado o cualquier otro producto que le guste. Quizás en ese momento, además de darse cuenta de que todo trabajo es una cárcel física y mental, sea consciente de que está usando la comida como si fuera un ansiolítico, echando a perder, otra vez, su dieta.
Resulta que, según un estudio, este comportamiento tiene una base biológica. Una actividad que proporciona placer como es la comida o el sexo (seguimos siendo animales muy básicos) reduce el estrés mediante la inhibición de las respuestas de ansiedad del cerebro. Además, esta reducción del efecto del estrés se prolonga a lo largo de varios días, lo que sugiere un beneficio a largo plazo. Al menos así se afirma en este estudio.
El hallazgo ha sido realizado por Yvonne Ulrich-Lai de la Universidad de Cincinnati y sus colaboradores y ha sido publicado en PNAS hace unos días.
En los experimentos se administró a ratas de laboratorio una disolución azucarada (de sacarosa) dos veces al día durante dos semanas y se estudio su comportamiento y respuesta al estrés. Comparadas con las ratas del grupo de control, a las que no se les administró esa disolución, exhibían un ritmo cardíaco más reducido y sus niveles de hormonas de estrés también eran menores. Además, estaban más dispuestas a explorar ambientes no familiares y a interaccionar socialmente con otras ratas.
La situación de estrés provocada se conseguía introduciendo a las ratas en "tubos de restricción", aunque ventilados para que no se asfixiaran.
A las ratas a las que se les administró una disolución de sacarina en lugar de azúcar mostraron un comportamiento similar, mientras que a las que se les administró una disolución azucarada directamente en el estómago no manifestaron ese tipo de respuestas. Esto significaría que el comportamiento observado dependería de la sensación de placer obtenida y no de las calorías obtenidas o de la nutrición conseguida.
Este punto se vio confirmado con un grupo de ratas a las que les dio acceso a parejas sexuales receptivas. En este caso también había una respuesta reducida al estrés.
La respuesta psicológica al estrés incluye la activación del eje hipotalamo-pituitaria-adrenocortical (HPA), que es regulado por una estructura cerebral denominada amígdala basolateral. Los investigadores descubrieron que las ratas expuestas a actividades placenteras, como a una comida sabrosa o al sexo, experimentan una respuesta más débil del eje HPA frente al estrés.
También descubrieron que una lesión sobre la amígdala basolateral (es de suponer que provocada por los investigadores) impide una reducción de estrés debida al azúcar, lo que sugiere que es necesario que exista actividad neuronal en esta región cerebral para que se dé el efecto descrito.
Según Ulrich-Lai la investigación habría identificado los circuitos neuronales claves subyacentes al efecto de confort que proporciona la comida.
Se necesitan más investigaciones, pero la identificación de estos circuitos podría proporcionar estrategias potenciales para prevenir la obesidad y otros desórdenes metabólicos, según Ulrich-Lai.
Puede que la epidemia de obesidad que padecemos en el "mundo civilizado" se deba en parte a este efecto y a la vida estresante que llevamos (o bien a la escasez de parejas sexuales receptivas).
Lo malo es que saber todo esto y seguir utilizando la comida como ansiolítico probablemente cause cierto estrés debido al complejo de culpabilidad de ingerir unas calorías que no necesitamos.
Quizás la mejor manera de estar delgado sea, simplemente, ser más feliz.





La foto panorámica más grande del mundo ocupa 80 gigas


Londres en casi 8.000 fotos y 80 gigapixeles es la panorámica más grande del mundo.

 Es la nueva foto panorámica en 360º más grande del mundo. Hecha por Jeffrey Martin con 7.886 fotografías de la capital inglesa en 80 gigapixeles, que permiten un zoom ultramegahiper detallado a kilómetros de distancia o un total que abarca casi toda la ciudad en una misma toma que le llevó a su autor seis semanas en terminar de montar. Espectacular. No dejen de recorrerla.

Nace "Focax", una red social solidaria


Focax acaba de nacer, es la primera red social creada en España pensada para ayudar a crear un mundo mejor. Sus contenidos giran en torno a la sostenibilidad social, económica y medioambiental. Se trata de una nueva herramienta al servicio de personas, grupos y asociaciones con conciencia solidaria y participativa.

 Basta con teclear www.focax.compara entrar en este nuevo espacio y descubrir sus posibilidades. Focax cuenta con la tecnología necesaria para disponer de una gama de aplicaciones a la altura de las grandes redes sociales (facebook, myspace o tuenti), incluyendo vídeos, chat y multiconferencias.
Focax es una web 2.0 que permite encontrar y publicar contenidos, contactar con gente afín, intercambiar ideas, hacer llamamientos y comunicarse de una manera rápida y sencilla. Es destacable las grandes posibilidades de esta herramienta para dinamizar la acción social y conocer a personas concienciadas: "el objetivo es crear una plataforma de encuentro y de comunicación para la comunidad consciente. Consciente de la situación que vive la humanidad y de la necesidad de encontrar una alternativa a la realidad social del mundo".
Dentro de la red social hay un apartado de noticias muy completo que abarca multitud de temas relacionados con la actualidad general y el mundo de la solidaridad. Para las personas más activas es especialmente útil la sección "Acción Social", desde la que se puede acceder a dos apartados, "Proyectos de Voluntariado" y "Acciones", permitiendo así entrar en contacto con las campañas y proyectos puestos en marcha por diferentes colectivos y organizaciones. La comunidad de usuarios es parte esencial en la elaboración de estos contenidos, que se verán ampliados próximamente con una sección de iniciativas. "En el futuro se podrán crear webs de diferentes iniciativas dentro de Focax de forma gratuita"
Una de las aplicaciones más curiosas se encuentra dentro de la sección "Comunidad". Si se pincha allí, es posible acceder a un apartado denominado "Hospitalidad", que permite que cualquier persona que tenga la intención de emprender un viaje pueda contactar con otros usuarios que estén dispuestos a hacer de guías turísticos o incluso a ofrecer comida o sus propias casas como alojamiento. Focax también puede emplearse para obtener un empleo o entrar en el mundo del voluntariado.
Por último, Focax da la posibilidad al usuario de crearse tres identidades con la misma cuenta de correo. "Así puedes tener una identidad para actuar a nivel profesional, otra con un perfil más ideológico y una última para amigos, familia y conocidos".
Focax en su primeras semanas ha tenido una gran acogida, cuenta ya con usuarios en toda Latinoamérica y España.

lunes, 29 de noviembre de 2010

Computación evolutiva y algoritmos basados en las hormigas para la Inteligencia Artificial

La Inteligencia Artificial (IA) vive una segunda juventud, según lo visto en un seminario internacional sobre el tema celebrado en la Universidad Carlos III de Madrid, donde han presentado nuevas técnicas de computación evolutiva, algoritmos basados en hormigas para el manejo de robots o posibles aplicaciones de la IA a la economía, los juegos y la fusión de datos.

El campo de la Inteligencia Artificial ha cambiado mucho desde los años setenta, cuando se aspiraba a encontrar el "solucionador general de problemas", un algoritmo, programa o sistema que permitiera resolver de formar autónoma cualquier problema. "A día de hoy se piensa que no existe y que lo que tenemos es un conjunto de algoritmos y sistemas que en su conjunto denominamos técnicas de Inteligencia Artificial", explica el profesor José Manuel Molina, organizador del Segundo Seminario Internacional sobre Nuevas Cuestiones en Inteligencia Artificial promovido por los cuatro grupos de Inteligencia Artificial del departamento de Informática, celebrado del 2 al 6 de febrero en la Universidad Carlos III de Madrid (UC3M).
Entre Darwin y hormigas inteligentes
Allí han presentado sus trabajos algunos expertos internacionales en la materia, que cada vez encuentra relaciones y aplicaciones más sorprendentes. La Teoría de la Evolución de Charles Darwin, por ejemplo, podría aplicarse a la resolución de problemas con ordenadores. En eso trabaja el investigador del Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional (Méjico), Carlos Coello, un especialista en técnicas de optimización multiobjetivo de procesos complejos en ingeniería mediante técnicas genéticas. Otro invitado al seminario, Silvano Cincotti, de la Universidad de Genova (Italia) explicó cómo se pueden aplicar estas técnicas a la economía actual y fundamentalmente cómo modelar la realidad utilizando agentes inteligentes.
La presencia de la naturaleza en la Inteligencia Artificial no acaba en la denominada computación evolutiva. Otro científico de la Universidad Libre de Bruselas (Bélgica) que impartió un seminario en esta reunión, Marco Dorigo, presentó el algoritmo de optimización basado en colonias de hormigas que inventó, que consiste en una técnica probabilística para resolver determinados problemas de computación. Este algoritmo, que puede utilizarse para manejar pequeños grupos de robots, forma parte de la " Swarm Intelligence " (inteligencia basada en enjambres), famosa a raíz del libro Presa del recientemente fallecido Michael Crichton. Esta especialidad busca el desarrollo de comportamientos complejos a partir de la interacción de un conjunto de agentes que tienen unas reglas de actuación muy sencillas. La unión hace la fuerza.
La conclusión más importante que se ha podido extraer del seminario celebrado en la UC3M es que la Inteligencia Artificial es un área que no tiene un único objetivo, si no que ha incorporado muchas técnicas diferentes para conseguir dotar de cierta inteligencia algunas soluciones. "La técnica es una función del problema y así hay técnicas para que las máquinas puedan aprender de la experiencia, que identifiquen a las personas, que interpreten el entorno, que razonen las acciones más prometed oras, etc", explica Molina, que dirige el grupo de investigación de Inteligencia Artificial Aplicada de la UC3M. El mayor reto, explica, es que las máquinas sean capaces de realizar tareas que no estén preprogramadas, para que puedan elaborar una estrategia que va más allá de lo pensado en un principio.
El mayor problema al que se enfrentan los científicos en este área es la necesidad de sistematizar toda la investigación que se está llevando a cabo en Inteligencia Artificial en todo el mundo para poder unificar las diferentes técnicas que se desarrollan. "La idea es buscar una integración y sinergias que permitan ver ese conjunto de técnicas como un todo", explica el profesor Molina, aunque aclara que la percepción que se tiene sobre este tema a nivel social es bastante diferente porque se espera mucho de la IA, tal vez por lo que se ve en las películas de ciencia ficción. "La gente ya espera ver a R2D2 por la calle y todavía queda mucho para eso", concluye.





Un coche que funciona con aceite de cocina usado


Hoy por hoy, el 90 por ciento de los vehículos del planeta se mueven impulsados por combustibles fósiles. La hora de encontrar una solución definitiva al dilema del petróleo como fuente de energía para los vehículos es un problema que preocupa cada vez más a los grupos ecologistas de todo el mundo.
28 May 2004 | CLARÍN
EEl martes pasado cerró la versión 2004 del Tour de Sol en Nueva York, Estados Unidos, un espacio destinado a promover el desarrollo de autos impulsados por fuentes de energía renovables y no contaminantes pensados para cuando al oro negro le llegue su hora negra, ya sea por una decisión racional del hombre o por agotamiento.


En la sexta edición del encuentro, fabricantes, científicos y estudiantes presentaron más de 30 modelos, entre los que sobresalieron los autos alimentados por aceite de cocina, maíz, energía eólica y solar.
El gran finalista fue el Vegginator, un Volkswagen Golf modelo 85’ que un grupo de alumnos secundarios de Trenton autodenominados “The Tornados Fuelmasters”, decoró con ensaladas de todo tipo en alusión a su fuente de energía: aceite de cocina usado que sacaban de la cafetería del colegio. “Sólo teníamos que filtrarlo para sacarle los pedazos de comida que le quedaban y listo, teníamos un biodiesel funcionando”, comentó uno de los estudiantes.






El aspecto de la cara oculta de la Luna


La cara oculta de la Luna siempre está escondida a simple vista desde la Tierra, pero ahora los científicos han desarrollado una forma simple de describir qué aspecto tiene, y haciendo esto podrían arrojar luz sobre su enigmática historia.

 La cara oculta de la Luna siempre está escondida a simple vista desde la Tierra, pero ahora los científicos han desarrollado una forma simple de describir qué aspecto tiene, y haciendo esto podrían arrojar luz sobre su enigmática historia.

La simple fórmula matemática que han ideado "explica un cuarto de la geografía y geología lunar", incluyendo las tierras altas del lado oculto lunar, comenta Ian Garrick-Bethell, científico lunar de la Universidad de California en Santa Cruz.

Los lados visible y oculto de la Luna son muy diferentes - por ejemplo, las elevaciones en el lado oculto son 1,9 km mayores, de media - y comprender las raíces de estas diferencias podría arrojar luz sobre los misteriosos primeros días de la Luna.
La cara oculta de la Luna
La Luna siempre mantiene la misma cara mirando hacia la Tierra, lo que significa que el lado más alejado no podemos verlo - al que a veces se hace mención erróneamente como su "lado oscuro" - desde la superficie de la Tierra. La humanidad vio sus primeras imágenes del la cara oculta de la Luna en 1959, procedentes de sondas no tripuladas, y los primeros ojos humanos en observarla directamente fueron los de la misión Apolo VIII en 1968.
Los investigadores descubrieron la fórmula mientras analizaban conjuntos de datos de topografía y gravedad lunar, dice Garrick-Bethell a SPACE.com.
La extensión de superficie de la cara oculta explicada por la nueva fórmula es el rasgo lunar más antiguo visto, dado que yace bajo la antigua Cuenca Aitken del Polo Sur. Las matemáticas son similares a las que se aplican a los efectos de marea de Júpiter sobre su luna Europa.
"Europa es distinta a la Luna en muchos aspectos, pero al principio, la Luna tenía un océano líquido bajo su corteza, u probablemente comparte eso en común con la Europa actual", señala Garrick-Bethell. "El océano de la Luna era de roca líquida, no obstante, no de agua".
El océano de magma de la Luna
De la misma forma que la Luna tira de los océanos de la Tierra generando mareas, la Tierra también tira de la Luna. Los investigadores sugieren que hace aproximadamente 4400 millones de años, cuando la Luna tenía menos de 100 millones de años y su corteza flotaba en un océano de roca fundida, estos efectos de marea provocaron distorsiones que más tarde quedaron congeladas en el lugar.
"La gente ha estado pensando en explicaciones de marea para las estructuras a gran escala y la forma de la Luna durante al menos 100 años", comenta Garrick-Bethell. "Lo novedoso de esta investigación es observar una única región de la Luna que es muy antigua, en lugar de probar la hipótesis sobre toda la Luna en global, que es lo que se había hecho anteriormente. Globalmente, la Luna exhibe un amplio rango de procesos geológicos, algunos jóvenes y algunos viejos, por lo que creo que no es justo explorarla como un todo".
Estos hallazgos arrojan una nueva visión sobre los procesos fundamentales que construyeron la corteza lunar, señala Garrick-Bethell.
"Me gustaría cartografiar cómo puede extenderse realmente este terreno a otras partes de la Luna, y abarcar aún más área de superficie de la que se informa inicialmente", añade.

sábado, 27 de noviembre de 2010

Descubren que el agua puede formar puentes

En determinadas condiciones la estructura puede medir 2,5 centímetros y resistir 45 minutos

Una investigación realizada en Austria ha producido un fenómeno que nunca había sido observado: agua contenida en dos cubetas de laboratorio, separadas un milímetro la una de la otra, y sometida a cargas eléctricas positiva y negativa, se salió de dichas cubetas para unirse entre ellas formando un puente de hasta 2,5 centímetros de longitud durante 45 minutos. Los científicos creen que el campo eléctrico es el que genera cargas electroestáticas en la superficie del agua, provocando el efecto puente.

 Un equipo de científicos de la Universidad Tecnológica de Graz, en Austria, ha hecho un sorprendente descubrimiento: aplicando un alto voltaje a dos cubetas de laboratorio llenas de agua destilada y que estaban en contacto entre sí, se generó de manera espontánea una conexión estable entre el agua de ambos vasos, formándose un puente de agua de hasta 2,5 centímetros de longitud, que se mantuvo suspendido en el aire desafiando a la gravedad durante 45 minutos.
Este fenómeno, hasta ahora desconocido, ha aparecido explicado en la revista especializada Journal of Physics D: Applied Physics bajo el título de "The floating water bridge". En este artículo se señala que un detallado análisis experimental reveló que, además, el puente de agua transportó estructuras estáticas y dinámicas, así como calor y masa.
Los investigadores utilizaron dos cubetas de 100 mililitros, agua tres veces desionizada (es decir, agua a la que se le han quitado los iones de carga positiva y negativa), y dos electrodos -un ánodo y un cátodo- introducidos en las cubetas y cargados de forma que generasen una diferencia de potencial entre ambas del orden de entre 15 y 25 kilovoltios.
Tras la formación del campo eléctrico, se produjo un puente cilíndrico de agua de un diámetro de uno a tres milímetros, en el momento inicial del experimento, en el que las cubetas estaban separadas por una distancia de un milímetro. La superficie del agua se encontraba a tres milímetros de distancia de los bordes de los contenedores, que el agua escaló para "encontrarse" en el exterior de éstos.
Calentamiento del agua
Poco a poco, los científicos fueron separando los recipientes pero el puente de agua se mantuvo, hasta alcanzar los 2,5 centímetros de longitud antes de que la estructura acuosa se rompiese.
De forma independiente a la longitud que tuviera el puente durante el proceso, se observó además que el agua fluía de una cubeta a otra, normalmente desde aquélla que contenía el ánodo hacia la que contenía el cátodo. La dirección del transporte de masa no pudo ser predicha.
Con el paso del tiempo, se comprobó asimismo que el puente de agua se calentaba, pudiendo alcanzar los 60 ºC después de 30 minutos, como consecuencia del campo eléctrico. Los científicos creen que la inestabilidad del puente tras los primeros 45 minutos podría estar ocasionada por este calentamiento.
Por último, las herramientas de medición empleadas por los investigadores revelaron la presencia de ondas de superficie y de oscilación internas de frecuencias de tres kilo hercios.
Posibles explicaciones
Para explicar el fenómeno, los científicos consideran que el campo eléctrico genera cargas electroestáticas en la superficie del agua que provocan el efecto puente. Según esta hipótesis, el campo eléctrico se concentra en el interior del líquido y convierte las moléculas de agua en una microestructura ordenada y estable que es la que hace que el puente se mantenga.
Esta hipótesis de la micro-estructura tiene su origen en el hecho observado de que la densidad del agua cambiaba entre los extremos de las cubetas y el centro del puente, dado que una micro-estructura que consistiera en una disposición de moléculas de agua podría tener una variación similar de la densidad.
Por otro lado, tal como explica al respecto el Instituto Leloir, los científicos detectaron estructuras internas con una cámara fotográfica de alta velocidad que, según ellos, tenían un patrón. Cada experimento comenzó con una estructura interna simple que, tras unos minutos, dio lugar a otras estructuras menores Según ellos, este hecho podría estar originado tanto por la contaminación del agua con polvo ambiental como por la temperatura creciente del agua antes mencionada.
Finalmente, el puente resultó sensible a los campos eléctricos externos: cuando los investigadores acercaron al puente de agua un trozo de vidrio cargado en forma electrostática, las moléculas del líquido se alinearon debido al campo electrostático no homogéneo de la superficie que cargó el vidrio, lo que resultó en una fuerza atractiva entre el puente y el vidrio. Esto hizo que el puente se curvara hacia el trozo de vidrio y formara un arco de agua.
Misteriosa sustancia
El agua es sin duda la sustancia química más importante del mundo. Se han realizado numerosos intentos de medir o calcular la estructura del agua líquida más allá de la escala de su molécula, formada por dos átomos de hidrógeno y uno de oxígeno.
Pero se trata de una difícil tarea por la compleja red que forman los enlaces de hidrógeno, que en sí ha sido objeto de varios estudios experimentales y teóricos, que se considera responsable de muchas de las propiedades especiales del agua y la razón por la que este líquido no puede ser tratado como cualquier otro.
Además, la interacción del agua con los campos eléctricos ha sido explorada intensamente en los últimos años, como en el caso de este experimento, cuyos resultados, según los científicos, suponen una nueva y desconocida manifestación de la desconcertante estructura del agua.
Los investigadores, liderados por Elmar Fuchs, explican que el inusual efecto del puente de agua flotante, así como las micro-estructuras en él observadas, podrían ser una pieza más del puzzle misterioso de la estructura del agua. Según publica la revista Physorg, el grupo investiga ahora el grado de organización que deberían tener dichas micro-estructuras para explicar los cambios de densidad en el puente de agua. Los resultados aparecerán publicados en el futuro.

La meditación potencia la salud celular

El bienestar mental que produce esta práctica tiene un profundo efecto en la fisiología humana, revela un estudio
Los cambios psicológicos positivos que propicia la meditación están relacionados con un aumento de la actividad de la telomerasa, una enzima esencial para el mantenimiento de la salud celular del organismo. Esto es lo que revela un estudio realizado por científicos norteamericanos, que es el primero en relacionar el bienestar y los cambios psicológicos que ayudan a enfrentar el estrés con un aumento de dicha enzima. Los resultados obtenidos vienen a sumarse a los de otros estudios, que apuntan a que esta práctica es altamente beneficiosa, tanto para la salud mental como para la salud física del ser humano.

Los cambios psicológicos positivos provocados por la meditación están relacionados con un aumento de la actividad de la telomerasa, enzima presente en células, en tejidos fetales y en ciertas células madre, que permite el alargamiento de los telómeros (extremos de los cromosomas). Además, la telomerasa resulta esencial para el mantenimiento de la salud celular del organismo.
Esto es lo que revela un estudio realizado por investigadores de la Universidad de California en Davis (UCDavis) y de la Universidad de California en San Francisco (UCSF).
La presente investigación es la primera en relacionar el bienestar y los cambios psicológicos que ayudan a enfrentar el estrés con un aumento de dicha enzima.
Efecto fisiológico
Según explica Clifford Saron, investigador del UC Davis Center for Mind and Brain y uno de los autores del estudio, en un comunicado emitido por la UCDavis, lo que se ha descubierto es que la meditación promueve cambios psicológicos positivos y que la gente que medita muestra los mayores progresos en diversas mediciones psicológicas. Asimismo, presentan los más altos niveles de telomerasa.
La conclusión a la que llegan los científicos es que la meditación aumenta el bienestar psicológico humano y, en consecuencia, puede incrementar la actividad de la telomerasa en las células inmunes, lo que aumenta la longevidad celular.
En definitiva: el bienestar mental propiciado por la meditación puede tener un profundo efecto en los aspectos más fundamentales de la fisiología humana.
La investigación realizada se enmarca en un proyecto de la UCDavis denominado Proyecto Shamatha, en el que se están analizando los efectos de la meditación intensiva en cuerpo y mente.
Características del estudio
En el presente estudio, los científicos midieron la actividad de la telomerasa en 30 participantes del Proyecto Shamatha, tras tres meses de entrenamiento en meditación intensiva.
Durante estos tres meses, los voluntarios meditaron dos veces cada día, un total de seis horas diarias, publica la revista Psychoneuroendocrinology.
Al finalizar el plazo de tres meses, los científicos pudieron constatar una actividad incrementada de la telomerasa (de alrededor de un tercio más) en los glóbulos blancos de los participantes que habían completado el retiro para meditar, en comparación con otras 30 personas que no habían meditado, y que pertenecían a un grupo de control.
Los voluntarios que meditaron también mostraron un incremento en ciertas cualidades psicológicas beneficiosas, como el control percibido (creencia en la propia capacidad de influenciar o controlar eventos vitales y en que uno puede provocar cambios deseados), la atención (capacidad para observar las experiencias personales de manera no reactiva) y el sentimiento de propósito vital (la percepción de la propia vida como si ésta tuviera un sentido, fuera importante y estuviera relacionada con objetivos a largo plazo y con valores).
Por último, los participantes en el estudio experimentaron una reducción de la neurosis o de las emociones negativas.
Dos aspectos psicológicos concretos
A partir de la aplicación de un modelo estadístico, los investigadores concluyeron que la actividad incrementada de la telomerasa tenía su origen en los efectos beneficiosos de la meditación sobre dos aspectos psicológicos concretos: el control percibido y la neurosis.
Además de los cambios en la telomerasa, la reducción de estos dos aspectos gracias a la meditación conllevó cambios en la atención y el sentido de propósito vital de los participantes.
Dentro del mismo Proyecto Shamatha, Saron y sus colaboradores han sacado a la luz otros interesantes descubrimientos sobre los efectos de la meditación.
Por ejemplo, el pasado mes de mayo, Katherine MacLean, otra de las investigadoras del proyecto, publicaba en la revista Psychological Science un artículo en el que se explicaba que las personas que meditan presentan una mayor capacidad de distinción visual y de atención sostenida durante un largo periodo.
Por otro lado, en un artículo que publicará próximamente la revista Emotion, los investigadores describen cómo la meditación puede reducir las reacciones impulsivas. Esta reducción estaría relacionada con una mejora del funcionamiento psicológico positivo.
Otros beneficios
La meditación es la práctica de un estado de atención concentrada, sobre un objeto externo, pensamiento, la propia consciencia, o el propio estado de concentración. En estudios anteriores a los realizados por los investigadores del Proyecto Shamatha, se ha demostrado que este ejercicio puede tener otros efectos beneficiosos.
El pasado mes de abril, científicos de la Universidad de Carolina del Norte en Charlotte (UNCC), en Estados Unido, hicieron públicos los resultados de un estudio en el que se demostró, por ejemplo, que la meditación puede mejorar las capacidades cognitivas en tan solo cuatro días.
En el experimento de la UNCC participaron más de 60 personas que meditaron durante breves periodos de tiempo, y a las que posteriormente se les realizaron una serie de tests. Con ellos se constató que los voluntarios habían mejorado de manera significativa sus capacidades de procesamiento visual del espacio, su memoria de trabajo y sus funciones ejecutivas gracias a la meditación.
Por otro lado, en 2009, un estudio de la la American University revelaba que la meditación trascendental puede prevenir los problemas de hipertensión. En este caso, 300 estudiantes universitarios utilizaron esta técnica durante tres meses.
Investigaciones anteriores han demostrado asimismo que la meditación puede mejorar las habilidades visuales, contener el avance del SIDA e incluso aliviar el estrés postraumático y el insomnio crónico, entre otras posibilidades.





Estudian los campos electromagnéticos para el rescate en avalanchas de nieve


Las investigaciones desarrolladas en colaboración con la Escuela Militar de Montaña y Operaciones Especiales de Jaca (EMMOE), el Servicio de Montaña de la Guardia Civil, han servido para la elaboración de un protocolo que mejora las operaciones de rescate de víctimas de avalanchas en las que se utilizan los dispositivos ARVA.

Para establecer los parámetros de las simulaciones, ha sido necesaria una campaña de recogida de datos puesto que los parámetros de conductividad de la nieve eran desconocidos. Durante los inviernos de 2005 y 2006 se midió la conductividad de la nieve y suelo subyacente en los Pirineos, los Alpes y la Antártida. Este trabajo fue realizado por miembros de la Escuela Militar de Montaña y Operaciones Especiales (EMMOE)y Grupo de investigación en Tecnologías en Entornos hostiles (GTE), perteneciente al Instituto de Investigación en Ingeniería de Aragón (I3A) de la Universidad de Zaragoza.
Las simulaciones fueron realizadas en MATLAB para los parámetros de espesores de nieve y profundidades de emisión reportados en los accidentes. Como conclusión de los resultados de las simulaciones, se establece que un modelo de propagación aire-suelo horizontal es básico para aplicarlo al problema de la búsqueda de víctimas de avalancha de nieve en las zonas alejadas al emisor. Sin embargo, la capa de nieve, puede ser obviada en base a los resultados obtenidos.
Por otro lado, en la parte final de la búsqueda, la aproximación cuasi-estática es válida. No obstante, no se puede asumir que el emisor se comporta como un dipolo magnético vertical puesto que las diferencias con otras orientaciones pueden ser muy importantes.
"A partir de esta última conclusión, decidimos cuantificar el error en la localización que producía la orientación del emisor. Esto ha permitido saber por primera vez que el error de localización puede acotarse en base a la profundidad del emisor y número de antenas del ARVA receptor. Con una o dos antenas, es del 50% de la profundidad y el 25% para los de tres antenas", cuentan los investigadores.
Este resultado sienta los fundamentos para establecer la zona a sondear a partir de una profundidad del sepultado establecida. Además, se da la explicación científica a los problemas que se observaban cuando se buscaba a víctimas a grandes profundidades.
La demostración experimental de parte de los resultados obtenidos, fue llevada a cabo en 2010 con la colaboración de La Escuela Militar de Montaña y Operaciones Especiales, el Servicio de Montaña de la Guardia Civil y Aramón, en la estación de esquí de Formigal (Huesca). Además, dichas pruebas de campo sirvieron para poner de manifiesto la pérdida de precisión en la localización debida a las limitaciones técnicas de los aparatos de búsqueda actuales. Como resultado, se ha propuesto y validado un método para reducir el error de localización en la parte final de la búsqueda.
Todos estos los trabajos son aplicados a la búsqueda de una víctima y son igualmente utilizables para el caso de varias víctimas con identificación de la señal procedente de un único emisor. Nuestro trabajo actual trata de abordar la problemática de un rescate con varias víctimas que interfieran entre sí. El objetivo es identificar escenarios de trabajo que ayuden a definir técnicas de procesado de señal y estrategias para minimizar el efecto de las señales interferentes.
¿Qué es un ARVA?
Del acrónimo francés Appareil de Reserche de Victimes d'Alvalanche es un aparato capaz de localizar a una víctima de avalancha de nieve que ha quedado completamente sepultada y que también lleva otro ARVA. En emisión es una radiobaliza que emite un campo magnético a 457 KHz. En recepción recibe esta señal, la amplifica y transforma bien en una señal audible o en una indicación digital de distancia al emisor.
Durante el desarrollo de una actividad en montañas nevadas, el ARVA tiene que estar encendido y en la función de emisión. En el caso que una persona quede sepultada, sus compañeros o los equipos de rescate utilizan otro ARVA en la función de receptor, para poder así detectar y localizar el ARVA en emisión de la persona sepultada por la avalancha.
En la actualidad, todas las estrategias de búsqueda están basadas en el modelo de propagación en el vacío y se asume que el emisor está en posición vertical. Por tanto, las soluciones del campo magnético se pueden aproximar a las expresiones cuasi-estáticas para un dipolo magnético vertical.
Sin embargo, la existencia de la capa de nieve, donde se localiza el emisor, y el suelo subyacente hacen que tengan que tenerse en cuenta otros modelos de propagación más complejos. Los modelos de propagación considerados se basan en una estructura de capas horizontales donde cada capa se comporta como un medio lineal, homogéneo e isótropo. De esta manera, la presencia de interfaces entre distintos materiales (aire-nieve-suelo) produce reflexiones y refracciones de campo magnético que pueden ser significativas en comparación con la propagación en el aire, aproximación que hasta ahora venía utilizándose.
Por otro lado, cuando se produce una avalancha, el transmisor de la víctima puede quedar en una orientación arbitraria. Por consiguiente, para un estudio más completo de los campos magnéticos generados por un ARVA, son precisas las expresiones del campo magnético para un dipolo en posición vertical y en posición horizontal. De esta manera, aplicando la superposición de ambas soluciones, se obtiene el campo debido a una fuente en cualquier orientación.
Aunque la formulación y solución de los modelos de propagación considerados se remontan a principios del siglo XX, no se disponían de expresiones válidas para el rango de interés de los ARVA. La explicación está en que las soluciones son integrales de Sommerfeld, cuya naturaleza infinita y oscilante hace que, salvo aproximaciones, tengan que ser evaluadas numéricamente. Además, el cómputo de este tipo de expresiones es difícil.






viernes, 26 de noviembre de 2010

La energía taquiónica

Con la palabra taquión la física identifica una partícula retenida teorica, que puede viajar a una velocidad superior a la de la luz.

A final de 800, Nikola Tesla notó durante una eclipse de sol, unos fenómenos antigravitacionales: profundizando su investigación descubrió un campo de energía que patentó con el nombre de energía cósmica, porque todo el universo está sumergido.

En el XX siglo varios científicos han profundizado sus estudios de este campo de energía: el "campo de Feinberg" o "taquiónico", así llamado por el físico Feinberg que expuso una teoria en 1966.

El espacio no es vacío, pero sumergido en un campo magnético muy concentrado, compuesto de partículas teoricas que se mueven más rapidamente de la luz y que constituyen una fuente de energía libre situada fuera del campo electromagnético, independiente de la luz y el sol.
Es una energía primaria que crea y mantiene el orden en el caos de la materia. Cuando el flujo de esta energía se encoje, el organismo no se regenera, nacen molestias y el cuerpo se deteriora.

Por eso hay necesidad de mantenernos abiertos a este flujo de energia taquiónica.

La energía taquiónica, empapa todo lo creado y los seres humanos que lo habitan, permitiendo a los sistemas biológicos de regenerarse a través la congenita capacidad que tienen de asimilar esta energía vital.

El campo taquiónico, en sintesis, constituye una fuente inesaurible de energía que puede ser empleada a favor de los seres vivientes.

Para tener un cuerpo en salud y perfectamente equilibrado en sus funciones deberíamos lograr mantenernos abiertos a este flujo de energía taquiónica.
Todos sabemos que estamos circundados por varias fuentes de ondas electromágneticas contaminantes que provienen de muchas partes, los teléfonos móviles, los ordenadores, los televisores y los electrodomésticos.
Este envenenamento invisible debe ser evitado.

El empleo del campo taquiónico de alta intensidad introducirá la tercera revolución energética, declaró recientemente el científico alemán Hans Nieper.

Científicos del Takionic Energy Research Group han elaborado una nueva tecnología, que valoriza la congenita capacidad de nuestro cuerpo de recojer energía taquiónica (universal) con el objetivo de balancear el débil flujo energético del cuerpo, mejorando la vitalidad y liberando sus congénitas potencialidades físicas.

Han sido desarrolados materiales Takionic® que presentan una cohesión molecular superior a la de otros materiales y son por lo tanto en grado de mantener un nivel de orden alto.

La energía taquiónica, siendo energía a punto cero (zero point energy), no tiene particular polaridad o frecuencia y puede ser aplicada a todo el espectro multidimensional de las energías. El punto cero representa el estado potencial optimal, el equlibrio ideal u omeóstasis. Ha sido teorizado que la aplicación de la energía taquiónica consentiría al hombre de realizar sus mejores potencialidades en términos de rendimiento físico y de estado de salud general.

Los productos Takionic influyen sobre la parte líquida del cuerpo humano, que está hecho por el 75% de agua, para mejorar la funcionalidad de las moléculas de fluido que constituyen el organismo favorenciendo la asunción de oxígeno y de sustancias nutricionales y al mismo tiempo la eliminación de las sustancias de desecho

Los activadores taquiónicos superan los bloqueos causados por el estrés, la contaminación, la alimentación equivocada y por costumbres de vida insalubres y mantienen de manera constante el correr de la energía vital; el cuerpo emplea en seguida esta energía para reorganizarse y armonizarse reduciendo el caos interior y esterior.

Además de los materiales originales Takionic®, hoy están disponibles en el mercado productos taquiónicos de diferentes productores. Es comprensible que, una vez que se haya conocido la tecnología para producir materiales a alta resonancia, empresas de todo el mundo, tal vez solamente por motivos económicos y de mercado, hayan tratado de realizar y distribuir productos parecidos a los originales.

Cuando se elije un producto taquiónico es oportuno prestar atención a algunas características fundamentales: la calidad de la realización y la alta tecnología utilizada son factores determinantes para realizar productos eficaces y duradero.Esto vale para los productos taquiónicos.
En respeto a los productos originales Takionic®, la diferencia es evidente. Un producto taquionizado debe ser energizado y puede mantener su propia capacidad de comportarse como material taquiónico sólo por algunos periodos, para descargarse luego.

Los productos originales Takionic® están hechos de manera que ejercen su acción en continuación sin descargarse. Estos materiales emiten energía fotónica en longitud de onda de 4-16 milimicron, una banda típica de la luz natural que resulta ser vital para el mantenimiento de un optimal metabolismo celular, que ayuda a equilibrar y a organizar las moléculas presentes en el agua del cuerpo.

Por eso es importante dirigirse solamente a los productos originales Takionic®, con la seguridad que el efecto será duradero y no perdeá su eficacia.





FUENTE: BIO ENERGY RESEARCH

Proyecto PACO-PLUS


Científicos financiados con fondos comunitarios han comprobado una hipótesis revolucionaria según la cual los robots podrían aprender a «pensar» acerca de las acciones que pueden realizar en relación con un objeto. A grandes rasgos, los robots podrían aprender de forma autónoma a partir de sus observaciones y experiencias. Este trabajo es fruto del proyecto PACO-PLUS («Percepción, acción y cognición mediante el aprendizaje de complejos objeto-acción»), financiado con 6,9 millones de euros procedentes del área temática «Tecnologías de la sociedad de la información» (TSI) del Sexto Programa Marco (6PM) de la UE.

Los socios de este proyecto se proponían comprobar la llamada teoría de los «complejos objeto-acción» (object-action complexes, OAC). Estos complejos son unidades de «pensamiento práctico» («thinking by doing»), un enfoque mediante el que se diseñan programas y dispositivos informáticos que permiten a un robot pensar acerca de objetos desde la perspectiva de las acciones que pueden realizarse sobre ellos. Por ejemplo, si un robot ve un objeto que tiene un asa, podría agarrarla. Si el objeto tiene una abertura, el robot podría encajar algo en ella o llenar el objeto de líquido. Si tiene una tapa o compuerta, el robot podría abrirla. Así pues, los objetos adquirirían significado a través de la gama de acciones que el robot podría realizar sobre ellos.
Se trata de un planteamiento mucho más interesante de pensamiento autónomo de los robots, puesto que favorece la aparición de comportamientos nuevos y complejos de manera espontánea a partir de reglas bastante sencillas, según explicaron los socios.
En muchos sentidos, el enfoque de este equipo imita los procesos de aprendizaje de los niños pequeños. Cuando se encuentran con un objeto nuevo, suelen tratar de agarrarlo, introducírselo en la boca o golpearlo contra otro objeto. Gradualmente, y por medio de ensayo y error, aprenden por ejemplo que un palito redondeado encaja en un orificio redondeado, y de esta manera se amplía su repertorio de acciones. Asimismo, la comprensión de los niños se amplía mediante la observación de otras personas.
PACO-PLUS llevó a cabo la mayor parte de su trabajo con robots humanoides, es decir, robots con forma de persona. «Los robots humanoides son réplicas artificiales con capacidades perceptivas y motoras complejas y sofisticadas, lo que los convierte en... la plataforma experimental más adecuada para estudiar la cognición y el procesamiento cognitivo de información», explicó el Dr. Tamim Asfour del Grupo de Investigación con Humanoides del Instituto de Antropomática del Instituto Tecnológico de Karlsruhe (KIT, Alemania), coordinador de PACO-PLUS.
Según indicó, el trabajo de su equipo retoma la labor realizada por Rodney Brooks, ilustre profesor de robótica empleado actualmente en el Instituto de Tecnología de Massachusetts (MIT, Estados Unidos). El Dr. Asfour explicó que el profesor Brooks fue «el primero en declarar explícitamente que la cognición es una función de nuestras percepciones y de nuestra capacidad de interactuar con el entorno. En otras palabras, la cognición surge de nuestra presencia física y ubicada en el medio».
El profesor Brooks opinaba que el movimiento y la interacción con el entorno son los problemas más complicados en la evolución biológica y que, una vez una especie lo consigue, resulta relativamente fácil «evolucionar» hacia el razonamiento simbólico avanzado propio del pensamiento abstracto, según el Dr. Asfour. La inteligencia artificial se basa en el planteamiento contrario, que postula que si se desarrolla un nivel de inteligencia suficiente, el pensamiento automático será capaz de percibir y solucionar problemas, añadió.
El debate sobre cuál de los dos planteamientos es el más acertado permanece abierto, y los investigadores admitieron que, si bien se han logrado avances, aún no se vislumbran verdaderos candidatos a robots inteligentes. «Esa interpretación "hollywoodiense" queda aún muy lejos, pero las aplicaciones y los prototipos desarrollados por PACO-PLUS indican que quizás vamos por buen camino», adujeron fuentes del proyecto.





La Nasa y Microsoft abren la exploración de Marte en internet


La Nasa y Microsoft lanzaron un sitio internet interactivo que permite a los internautas explorar el 'planeta rojo', según un comunicado de la agencia espacial estadounidense y del primer editor mundial de programas informáticos.

 
El sitio 'be a Martian' ('sea un marciano') invita al público a ayudar a los investigadores en sus trabajos, como por ejemplo mejorar los mapas de Marte.
"Vivimos en una época en la que todo el mundo puede ser un explorador", observó Doug McCuistion, director del programa de exploración de Marte de la Nasa.
Los internautas pueden por ejemplo contar el número de cráteres en la superficie de Marte, una tarea titánica, vista la gran cantidad de ellos.
"Una colaboración de miles de participantes puede ayudar a los científicos a confeccionar mapas más precisos", subrayan la Nasa y Microsoft en el comunicado.
El sitio contiene centenares de miles de fotografías del planeta rojo, muchas de las cuales nunca habían sido publicadas antes.

jueves, 25 de noviembre de 2010

Un nuevo prototipo de planta solar no sólo genera electricidad, sino que también calienta el agua


Recientemente, una startup llamada Cogenra Solar ha instalado un banco de matrices de paneles solares diferentes en una bodega del norte de California. Las matrices combinan células solares fotovoltaicas convencionales con un sistema de recogida del calor residual. Esto produce electricidad para la iluminación y las máquinas de embotellado, y crea el agua caliente necesaria para el lavado de tanques y de barriles.

 Cogenra tiene planeado instalar estos paneles solares "híbridos" en las empresas que utilizan grandes cantidades de electricidad y de agua, y luego tienen que cargar con los costes de suministro de ambas. La empresa no ha publicado una estimación del coste por vatio de la electricidad, pero afirma que el coste del agua caliente será considerablemente inferior a la norma.
En la bodega, propiedad de Sonoma Wine Company, varias antenas parabólicas, cada una de 10 metros de largo y tres metros de ancho y recubierta de espejos, concentran la luz solar en dos tiras de células solares de silicio monocristalino suspendidas más arriba. Las antenas parabólicas reposan sobre unos brazos mecánicos que se mueven siguiendo el sol. El calor es recogido con una mezcla de glicol y agua que fluye a través de un tubo de aluminio que se encuentra detrás de las células solares. La solución de glicol es alimentada a un intercambiador de calor, donde se utilizar para calentar el agua. Seguidamente, el agua caliente es bombeada a un tanque de almacenamiento, y la solución enfriada de glicol se recircula a los paneles solares.
En el pasado, varios sistemas solares híbridos similares han fracasado porque las células solares se han sobrecalentado. Cogenra utiliza sensores para controlar la temperatura de sus paneles solares y un sistema de control automatizado para extraer el líquido con mayor rapidez si necesitan enfriarse.
El sobrecalentamiento afecta el rendimiento de las células solares y es un gran problema para los sistemas de energía solar híbridos, destaca Tim Merrigan, responsable de programas senior del Laboratorio Nacional de Energías Renovables, con sede en Colorado. Merrigan señala de que unos equipos de control de la acumulación del calor y de regulación del caudal del líquido más sofisticados podría ayudar a prevenir esto, pero añade que, "ciertamente no es algo fácil de hacer correctamente." Con la tecnología de Cogenra, también hay una relación inversa entre la cantidad de calor que puede ser producido y la eficiencia de las células solares--producir más agua caliente reduce la eficiencia de las células.
La instalación de la bodega servirá como un importante banco de pruebas para la tecnología de Cogenra y para la tecnología solar híbrida en general. El sistema generará datos que determinarán la eficacia con que se puede producir electricidad y agua caliente en diferentes condiciones atmosféricas y lo bien que puede satisfacer las necesidades fluctuantes de operación de la bodega.
Los paneles solares podrán producir 50 kilovatios de electricidad, y el equivalente a 222 kilovatios de energía térmica. Gilad Almogy, director general de Cogenra, asegura que esto reducirá entre un 45 y un 50 por ciento el uso de gas natural de la bodega para calentar agua, y le proporcionará aproximadamente el 10 por ciento de sus necesidades de electricidad.
Conseguir que la tecnología sea rentable será otro reto para Cogenra. Sin embargo, una cantidad cada vez mayor de programas del gobierno que reparten descuentos para la instalación de calentadores solares de agua podría ayudar. Uno de estos programas fue lanzado este pasado octubre en California. Hasta el 2017, proporcionará 350,8 millones dólares en descuentos para la instalación de calentadores solares de agua. Actualmente, la mayoría de los calentadores de agua del estado funcionan con gas natural.
Vinod Khosla, cuya sociedad de capital riesgo Khosla Ventures, ha invertido 10.5 millones de dólares en el proyecto, asegura que la tecnología es muy rentable. "Otras empresas de energía solar necesitaron cientos de millones de dólares para salir al mercado", señala Khosla.

La selva tropical se diversificó en lugar de sufrir extinciones durante el cambio climático de hace 60 millones de años

Hace unos 60 millones de años el bosque tropical sufrió una temperatura que era de 3 a 5 grados centígrados superior a la que tienen que tiene que soportar en la actualidad las plantas que lo pueblan, mientras que el nivel de dióxido de carbono era 2,5 superior al actual. Carlos Jaramillo, del Smithsonian Tropical Research Institute (STRI), y sus colaboradores dicen que, pese a todo, el bosque tropical de la época prosperó igualmente y contenía una gran biodiversidad.

La mayoría de los científicos asume que los niveles de dióxido que estamos alcanzando por culpa de nuestras emisiones (y que aumentan el efecto invernadero) tendrán un coste alto para las plantas, éstas serán incapaces de adaptarse a las nuevas condiciones más cálidas y desaparecerán. En el caso del bosque tropical el factor probablemente más importante serán las sequías provocadas por este cambio climático, que finalmente provocará una extinción de las plantas que lo forman.
Hacia finales de siglo se espera que la temperatura de los bosques tropicales se eleve en 3 grados. Según ya dijo el año pasado Joe Wright, también del STRI, el mundo actual se aproxima a un escenario nuevo y no sabemos cómo reaccionarán las especies al cambio climático actual. El grupo de Jaramillo ha intentado ver qué es lo que pasó en el pasado en circunstancias similares. Al parecer, al bosque tropical no le fue tan mal como nos habíamos imaginado.
Este grupo de investigadores se puso a estudiar los granos de polen atrapados en rocas procedentes de Colombia y Venezuela que se formaron durante el máximo térmico del Paleoceno-Eoceno de hace 56,3 millones de años. Entonces el mundo se calentó de 3 a 5 grados centígrados y los niveles de dióxido de carbono se doblaron en 10.000 años. Estas condiciones duraron 200.000 años.
Analizando estos granos de polen se puede saber qué plantas había en la época y en definitiva se puede inferir la biodiversidad y los procesos de extinción y evolución de la época.
Contrariamente a lo que se suponía, en cuanto al daño que este evento causó al bosque tropical, los datos indican que la diversidad aumentó rápidamente durante este periodo de tiempo. Nuevas plantas evolucionaron más rápido y algunas plantas antiguas se extinguieron. Así por ejemplo, la familia de las pasifloras apareció por primera vez durante esta época.
Por tanto, según una primera aproximación, unas condiciones un poco más cálidas no provocan un desastre sobre la biodiversidad, sino todo lo contrario. Estos investigadores encontraron lo opuesto a lo que esperaban. Así que un mayor nivel de dióxido de carbono y una mayor temperatura puede espolear la biodiversidad tropical.
Según opina Jaramillo, si no hubiera deforestación la selva puede que pudiera soportar el cambio climático.
Aunque estos resultados sugieren que el bosque tropical no sufrió en general durante este periodo, eso no significa que ese mismo escenario se dé ahora. Los supuestos beneficios del dióxido de carbono y la temperatura pueden verse contrarrestados por otros factores.
Según Kalus Winter, también del STRI, hay mucha preocupación sobre el efecto del cambio climático sobre los bosques tropicales actuales, pero "estos escenarios de horror probablemente tienen alguna validez si el aumento de temperatura da lugar a sequías más severas y frecuentes, tal y como sugieren las actuales predicciones para escenarios similares".
Según indica esta investigación, los niveles de humedad no decrecieron significativamente durante este evento y los regímenes de lluvia se mantuvieron. No está claro que esto mismo se mantenga en la actualidad, más bien parece todo lo contrario y, por ejemplo, la selva del Amazonas sufre cada año sequías más intensas.
Que los niveles de dióxido de carbono se doblen en 10.000 años no es lo mismo que lo hagan en 100. Hay dos órdenes de magnitud de diferencia. La velocidad de cambio actual es mucho mayor que la del máximo térmico y las plantas no tienen tiempo de adaptarse o evolucionar hacia nuevas especies. Además, la selva tropical afecta al propio clima y se retroalimentan el uno al otro, quizás una evolución más pausada permita mantener el régimen de lluvias.
Además, otros expertos, como Guy Harrington de University of Birmingham (RU), ponen el énfasis en otro factor. Que las plantas de la selva se adapten no significa que lo hagan otras a otras latitudes. El estudio de fósiles de ese periodo que ha efectuado Harrington en Norteamérica indica que allí las plantas simplemente se extinguieron.
Según Matthew Huber, de Purdue University en West Lafayette, los resultados de Jaramillo puede que no se apliquen a todo el trópico, ya que las muestras procedían solamente de la parte norte de Sudamérica. Según sugieren los modelos, la parte central (actual Brasil) tendría condiciones mucho más duras. Matthew Huber predice que cuando se analicen muestras de esa región los resultados serán distintos.
Los científicos del STRI trabajan en más de 40 países del mundo realizando un seguimiento global de los bosques para así evaluar escenarios que permitan predecir los efectos del cambio climático y otros procesos a gran escala sobre el bosque tropical. Ya veremos lo que nos cuentan en el futuro, pero probablemente no sea bueno. Independientemente del cambio climático, la selva tropical y los bosques en general son destruidos de manera directa por la acción humana. Algo que puede ser vigilado por cualquiera a través de Google Maps. Es posible que en 20 años hayan desaparecido todos los bosques de la Tierra. A partir de ese momento, la temperatura que se pueda alcanzar allí 70 años después será totalmente irrelevante.





¿Qué es lo que despierta a un volcán?

Los volcanes dormidos mantienen en vilo a la comunidad científica, puesto que nunca deja de debatirse si volverán a entrar en actividad y, en este caso, en qué momento. En el caso del volcán islandés Eyjafjallajökull, que la pasada primavera tuvo en jaque a la aviación europea, los vulcanólogos eran conscientes de que algo se estaba fraguando en el interior de esta montaña tras dos siglos de letargo. Una investigación atribuye el despertar del Eyjafjallajökull a la existencia de un flujo de magma que discurría bajo el mismo.

En un artículo publicado en la revista Nature, vulcanólogos de Islandia, Países Bajos, Suecia y Estados Unidos indican que «estas erupciones son el colofón a dieciocho años de actividad volcánica intermitente.» Partiendo de datos de sistemas de GPS (Sistema de Posicionamiento Global) y de vigilancia sísmica, así como de mediciones superficiales, satelitales y de radar, evaluaron los cambios geofísicos observados en el Eyjafjallajökull, sobre todo cuando la estructura del volcán empezó a deformarse. Según los autores, el volcán empezó a hincharse casi tres meses antes de que en marzo entrara en erupción por uno de sus costados.
«Las erupciones estuvieron precedidas por varios meses de inestabilidad y desplazamientos de magma subterráneos que se dejaron sentir en forma de terremotos», explicó el profesor Kurt Feigl de la Universidad de Wisconsin-Madison (Estados Unidos). «El seguimiento de los volcanes permite comprender los procesos que conducen a las erupciones. Si se observa un volcán durante décadas se puede apreciar cuándo ha despertado de su letargo.»
El equipo, dirigido por el Dr. Freysteinn Sigmundsson del Centro Nórdico de Vulcanología de la Universidad de Islandia, empezó a vigilar muy atentamente esta montaña a finales del verano de 2009, cuando una estación de GPS situada en una ladera del Eyjafjallajökull reveló un leve desplazamiento. A principios del 2010 los investigadores observaron una aceleración de la deformación y una mayor frecuencia de los terremotos. Al no remitir esta actividad, los científicos instalaron más estaciones de GPS en las cercanías de la montaña. Pocas semanas después se detectó una aceleración en su proceso de dilatación. De este modo los investigadores se percataron de que en el interior del volcán había magma desplazándose en dirección ascendente.
Cuando a finales de marzo comenzaron las erupciones del Eyjafjallajökull, sus laderas se habían dilatado más de 15 centímetros, según indican los autores, por efecto del flujo de magma desde las profundidades de la Tierra hacia cámaras situadas por debajo de la montaña y próximas a su superficie.
La deformación se detuvo una vez el volcán entró en erupción. Sin embargo, el Eyjafjallajökull se diferencia de la mayoría de los volcanes en que, en lugar de desinflarse a medida que fluía el magma, permaneció dilatado hasta mediados de abril, cuando acabó la primera erupción.
«La deformación asociada a las erupciones fue inusual, al no guardar relación con cambios de presión en una única cámara magmática», escriben los autores. «La deformación fue rápida antes de la primera erupción, pero imperceptible durante la misma. La ausencia de una contracción co-eruptiva clara indica que el volumen neto del magma expulsado desde capas poco profundas durante esta erupción fue reducido. El magma debió fluir desde una profundidad considerable.»
El volcán volvió a entrar en erupción el 22 de abril, y en esta ocasión la lava fluyó por otro conducto situado bajo el hielo de la cumbre. En consecuencia, el agua helada se convirtió en vapor y emanaron gases atrapados en burbujas dentro del magma, generando una columna de cenizas que se elevó a gran altura y provocó grandes quebraderos de cabeza a todos los viajeros en Europa.
Los resultados de este trabajo ayudarán a comprender mejor el fenómeno islandés, pero los autores señalan la necesidad de realizar más estudios para determinar el motivo de que los volcanes entren en erupción justamente cuando lo hacen, ya que los procesos geológicos que desencadenan la erupción siguen siendo una incógnita.
«Seguimos tratando de averiguar qué es lo que despierta a un volcán», reconoció el profesor Feigl. «La explosividad de la erupción depende del tipo de magma, y éste depende a su vez de la profundidad de la que procede. Nos encontramos muy lejos de poder predecir las erupciones, pero si logramos visualizar el movimiento ascendente del magma en el interior del volcán, conseguiremos comprender con mayor claridad los procesos que motivan la actividad volcánica.»






miércoles, 24 de noviembre de 2010

Los latidos de las estrellas


La estrella central del Sistema Solar, el Sol, es la fuente de vida de nuestro planeta. Para los físicos estelares es, además, la piedra angular en la que basan sus estudios de evolución estelar. Gracias a su proximidad, es factible observar su superficie con precisión sin igual en otras estrellas y ver su evolución con el transcurso del tiempo, al menos a escala humana, esto es, durante unas decenas de años. Desde los tiempos de la antigua China, y más señaladamente desde Galileo, la superficie visible del Sol ha atraído la mirada de muchos estudiosos debido a la presencia de manchas solares, cuya abundancia varía a lo largo de un ciclo de unos once años.

Las manchas solares son una manifestación externa del magnetismo presente en el interior de nuestra estrella. Durante los máximos de actividad del Sol, está plagado de ellas, mientras que en los mínimos posee una superficie homogénea. Nos interesa comprender el origen de sus ciclos de actividad, para, algún día, poder predecirlos, tal y como hoy hacemos con la meteorología terrestre. Necesitamos hacerlo porque cada vez vivimos más supeditados a la tecnología y una intensa actividad solar es una amenaza para ella: nuestra estrella emite muchas más partículas al espacio, que pueden afectar a los instrumentos, principalmente a los satélites, y trastornar las comunicaciones y emisiones de televisión vía satélite así como los sistemas de navegación GPS. En ocasiones, al estar cargadas eléctricamente, generan tormentas geomagnéticas que si alcanzan la superficie de la Tierra pueden sobrecargar la red eléctrica. En 1989 una de estas tormentas solares dejó sin luz a una gran parte de los tres millones de habitantes de la región de Quebec (Canadá) durante más de nueve horas. Diversos satélites meteorológicos y de comunicaciones no funcionaron durante unas horas y el transbordador Discovery sufrió lecturas erróneas en algunos de sus sensores, que se repararon por sí solos una vez pasada la tormenta.
El gran problema existente para comprender la actividad en el Sol es que los instrumentos habituales de medida no pueden atravesar la superficie solar y ver lo que ocurre en las capas más profundas. Tal y como ya decía Sir Arthur Eddington en su tratado sobre la constitución interna de las estrellas publicado en 1926:
"Nuestros telescopios pueden estudiar regiones cada vez más profundas del espacio, pero ¿cómo podemos obtener un mayor conocimiento de lo que hay detrás de ciertas barreras sustanciales? A primera vista parecería que el interior del Sol y de las estrellas es menos accesible a la investigación científica que cualquier otra región del Universo. ¿Qué tipo de instrumentación podrá atravesar las capas externas de las estrellas y estudiar las condiciones de su interior?".
La respuesta llegó de la mano de la Sismología Solar y Estelar, que comenzó su camino a finales de los años sesenta y alcanzó, en el caso solar, su máximo esplendor en los años ochenta, noventa y comienzo del siglo XXI. Aplicando los mismos principios que se emplean para estudiar la corteza terrestre a partir de las ondas sísmicas, los heliosismólogos no han sido capaces de "ver", sino de "escuchar" el interior solar.
En realidad, todos usamos conceptos de la sismología en la vida diaria. Sin ir más lejos, para saber si una caja esta llena o vacía no necesitamos abrirla, según cómo suene al golpearla conoceremos si hay algo dentro de ella. Cada objeto emite un sonido particular en función de sus características físicas (forma, tamaño…), así como del material que lo compone. Por ejemplo, no suenan igual un violín, una viola o un violón. Su principal diferencia es el tamaño, que provoca que el violín tenga un sonido más agudo que una viola o que el violón, que es el más grande y por tanto el que suena más grave de los tres.
Estudiando las ondas que se propagan en el interior del Sol somos pues capaces de deducir su estructura y dinámica internas. Sin embargo, aún nos falta mucho para comprender en detalle el magnetismo solar, sus ciclos y los mecanismos de dínamo que los originan. ¿Cómo podríamos lograrlo? Aunque parezca sorprendente, para progresar en el conocimiento de la física que gobierna estos procesos magnéticos, hay que observar otras estrellas más lejanas, aunque las medidas obtenidas no sean tan precisas como en el caso del Sol. El fin es aprender cómo se desarrollan esos fenómenos en condiciones distintas a las solares.
Hagamos una analogía sencilla para entender mejor este modo de proceder. Imaginemos que unos seres extraterrestres quieren conocer mejor la raza humana. Podrían llevar a un ser humano a su nave y hacerle infinidad de pruebas. De esta forma sabrían muchísimas cosas sobre nuestra fisionomía, fisiología, etc. Sin embargo estarían limitados a un color de piel, un sexo y una edad, las del espécimen elegido. Nunca podrían deducir la evolución del hombre, desconocerían cómo nacemos, llegamos a la edad adulta o envejecemos. Pero en cambio si se dedicaran a sacar fotos de la Tierra obtendrían una idea clara de la diversidad humana reinante. Tendrían imágenes de ancianos y jóvenes, mujeres y hombres, niños y niñas, blancos y negros… La información sobre un individuo sería menor que en el primer caso pero dispondrían de una visión global del ser humano y cómo cambia a lo largo de la vida.
Pues bien, esto es lo que tratamos de hacer al estudiar el magnetismo en estrellas parecidas al Sol. Utilizamos para ello los datos obtenidos con el satélite CoRoT (Convección, Rotación y Tránsitos Planetarios), dedicado al estudio astrosismológico de la estructura interna de estrellas brillantes y a la búsqueda de planetas extrasolares.
Una de esas estrellas es HD49933. Está situada en la constelación del Unicornio a unos 100 años luz de distancia y es aproximadamente un 20% más pesada y un 34% más grande que el Sol. CoRoT recibió su tenue luz durante dos periodos de observación: de 60 días en el año 2007 y de 137 días en el año 2008. Se realizó el análisis astrosismológico de las fluctuaciones de su radiación, lo que permitió caracterizar el espectro de oscilaciones de HD49933 y así poder comparar la evolución en el tiempo de las propiedades de sus modos de oscilación (el equivalente a las notas de un instrumento musical). Curiosamente, descubrimos la presencia de una modulación de origen magnético de algo más de 120 días similar a la que encontramos en el Sol. De hecho, pudimos incluso establecer la existencia de manchas en la superficie de la estrella utilizando métodos indirectos. Gracias a esto, pudimos determinar que en ciertos momentos la superficie de HD49933 estaba en calma y en otros cubierta por manchas.
Este hallazgo abre la puerta a la investigación de otros muchos ciclos estelares en los que además se podrá conocer la estructura interna del astro en cuestión gracias a la Astrosismología. Esto servirá para entender mejor los procesos físicos que gobiernan la dinámica de los ciclos magnéticos en estrellas de tipo solar. Hasta ahora sólo disponíamos de un único ejemplo: el Sol. En el marco de la búsqueda de vida extraterrestre, la descripción de la actividad de estrellas con planetas es necesaria porque las condiciones magnéticas en la superficie estelar pueden influir en la zona de habitabilidad, llamada así porque los planetas que se encuentran en ella podrían albergar vida en condiciones similares a la de la Tierra.
El futuro de este tipo de investigaciones es más que prometedor gracias a las observaciones del satélite americano Kepler, lanzado el 7 de marzo de 2009, que tiene previsto realizar medidas astrosismológicas en unas 100 estrellas de tipo solar durante un periodo inicial de tres años y medio que podría ampliarse a más de seis. Medirá en dichas estrellas ciclos magnéticos comparables al solar de periodos más largos que el detectado en HD49933. Las informaciones recogidas permitirán mejorar nuestro conocimiento en este campo. Esto no ha hecho más que comenzar.





La materia es en realidad energía oscura

Nuevas bases del paso de la microfísica a la macrofísica

Se ha llegado a sugerir que en Física estaba prácticamente todo inventado. Sin embargo, no se menciona que hay muchas imprecisiones, arreglos y trucos que los científicos han utilizado para explicar las realidades con las que se encontraban. Las teorías conocidas son incapaces de explicar las nuevas realidades y han llevado a los científicos a una vía muerta. La realidad es que no se conocen las características básicas de la naturaleza del universo, por lo que hay que descubrir nuevos principios mediante los cuales se puedan definir las primeras causas y explicar los resultados experimentales, tanto antiguos como actuales, dando un paso para progresar honestamente en el desarrollo de la ciencia y la tecnología. Para corregir esas deficiencias y explicar tantos misterios, he escrito un libro: "La materia, energía oscura", que contiene las bases de la Física Cuántica, la Teoría Cuántica del Movimiento (TCM) y la Teoría Cuántica de los Campos Unificados (TCCU), y el paso de la microfísica a la macrofísica. Este nuevo paradigma establece un nuevo postulado: el Principio de la Energía Oscura, el cual define en primer lugar la energía: la energía es la única sustancia material disponible en la naturaleza física, determinando que la energía oscura ocupa todos los espacios, las partículas elementales y las cargas eléctricas, siendo susceptible de deformarse. Por Mariano Gómez Olea 

Este trabajo está dedicado a todos los pensadores de mente abierta que buscan nuevas ideas racionales para mejorar el conocimiento de la naturaleza, porque, si repasamos toda la Física con espíritu crítico y riguroso, nos encontramos con que las teorías conocidas son incapaces de explicar las nuevas realidades y han llevado a los científicos a una vía muerta.
Se ha llegado a sugerir que en Física estaba prácticamente todo inventado. Sin embargo, no se menciona que hay muchas imprecisiones, arreglos y trucos que los científicos han utilizado para explicar las realidades con las que se encontraban.
La definición clásica de energía es la capacidad de producir trabajo, sin embargo, si la fuerza resultante no es nula, el trabajo es igual al incremento de energía cinética, por lo cual, la energía sería definida como la capacidad de producir energía, lo cual no es una definición. Tampoco se conocen las propiedades específicas independientes de las magnitudes fuerza, masa y carga eléctrica, ni se conoce la definición del campo magnético. Así que la ciencia trabaja con magnitudes que prácticamente desconoce. Por otro lado, los conceptos clásicos campo escalar o potencial gravitacional o electrostático, no son rigurosos, pues sólo se cumplen si el cuerpo que lo genera está en reposo
Si arrastramos un cuerpo sujeto con una cuerda; la cuerda se tensa porque se están aplicando dos fuerzas reales: la fuerza exterior y la fuerza de oposición o fuerza de inercia. Pero si los cuerpos estuvieran sometidos a dos fuerzas reales, iguales y opuestas, nunca se podrían acelerar (F - m.a = 0). Así que el concepto de inercia conduce a una paradoja.
En la ley de acción y reacción de Newton se determina que la fuerza de oposición es una fuerza de reacción que surge espontáneamente de forma misteriosa.
Leyes incompletas
Por lo tanto, las leyes de Newton no sólo son meramente empíricas, sino también incompletas.
Se suele denominar fuerza de inercia a una fuerza ficticia con el objeto de explicar la aceleración relativa observada, cuando el sistema de referencia no es inercial (acelerado), en la que se considera la masa invariable. La denominación de fuerza de inercia, en este caso, no es afortunada porque dicha fuerza ficticia no tiene nada que ver con la inercia.
El principio de equivalencia general de Einstein dice: "todo lo que sucede en el entorno infinitesimal de un punto respecto de un sistema de referencia acelerado deberá suceder de la misma manera en un sistema gravitatorio...El sistema de referencia acelerado debe también considerarse como un sistema de referencia en reposo respecto del cual existe un campo gravitatorio (campo de fuerza centrífuga y fuerza de Coriolis)".
Sin embargo, a pesar de Einstein, las fuerzas de Coriolis, a diferencia de las fuerzas gravitatorias, dependen de la velocidad de la partícula sobre que se actúa. La curvatura de la trayectoria aparente de un rayo de luz, que atraviesa tangencialmente los sistemas en rotación, depende de la dirección del rayo de luz respecto del sentido de giro, consecuentemente la gravitación equivalente deberá ser atractiva en un sentido de giro y repulsiva en el opuesto, es decir, la aceleración centrífuga no puede tener equivalencia relativista con un campo gravitatorio.
Respecto de un sistema en caída libre, acelerado por la gravedad, los cuerpos aparentemente no sufren los efectos de la fuerza de gravedad, parecen flotar, no tienen peso ni sufren la fuerza de inercia, es decir, tienen un comportamiento idéntico al de los cuerpos respecto de sistemas de referencia sin gravedad cuyo movimiento es inercial (en reposo o con velocidad uniforme). Einstein expresó que cada punto de la trayectoria en caída libre se trata de «una región infinitamente pequeña del continuo espacio-tiempo, pues la región infinitamente pequeña será un sistema inercial respecto del cual debemos considerar como válidas las leyes de la teoría especial de la relatividad».
Caída libre
En esta versión del principio de equivalencia, Einstein no tuvo en cuenta que en la caída libre, debido a la aceleración de la gravedad, la trayectoria aparente de un rayo de luz transversal es curva, mientras que, respecto de sistemas inerciales sin gravedad, los rayos de luz no se curvan. Por consiguiente, las leyes de la curvatura aparente de la luz están en contra de todas las versiones del principio de equivalencia de la teoría general de la relatividad.
Schwarzschild, utilizando las ecuaciones de la teoría general de la relatividad a un objeto que gira alrededor de un agujero negro giratorio, llegó a la absurda conclusión que el objeto debe aparecer saliendo por un lado antes de haber entrado por el otro. Algunos autores tratan de ocultar este problema recurriendo a la esotérica existencia de universos paralelos, desde donde surgen objetos idénticos a los de nuestro mundo.
The Establishment de la Comunidad Científica, se enfrenta a muchos problemas sin resolver, tales son: la formulación de un modelo preciso para las interacciones nucleares fuertes, el problema de la auto-acción en las teorías cuánticas de campo, una teoría cuántica gravitatoria, la materia oscura que determina una dinámica rotacional en la zona exterior de las galaxias distinta de la esperada por las leyes de Newton y por la Teoría General de la Relatividad (Vera Rubin descubrió en 1970 que en el espacio envolvente de las galaxias, la velocidad lineal de rotación no disminuye con relación a la distancia al centro galáctico, sino que se mantiene), la no menos enigmática energía oscura, cuya presencia influye decisivamente en el ritmo de expansión del universo, la posibilidad de que ciertas constantes fundamentales (la constante de estructura fina y la velocidad de la luz en el espacio) modifiquen su valor en el espacio de forma estructurada (John K. Webb, 2001-2006) y por ello no sean constantes a nivel universal, una explicación que justifique por qué las partículas elementales poseen las masas que realmente tienen, y no valores diferentes (para ello, se está intentando descubrir el supuesto bosón de Higgs).
La realidad es que no se conocen las características básicas de la naturaleza del universo, por lo que hay que descubrir nuevos principios mediante los cuales se puedan definir las primeras causas y explicar los resultados experimentales, tanto antiguos como actuales, dando un paso para progresar honestamente en el desarrollo de la ciencia y la tecnología.
Magnitudes desconocidas
Por consiguiente, la comunidad científica trabaja con magnitudes que desconoce y con teorías incompletas, defectuosas o abstractas. Para corregir esas deficiencias y explicar tantos misterios, he escrito un libro: "La materia, energía oscura", que contiene las bases de la Física Cuántica, la Teoría Cuántica del Movimiento (TCM) y la Teoría Cuántica de los Campos Unificados (TCCU), y el paso de la microfísica a la macrofísica.
Este nuevo paradigma establece un nuevo postulado: el Principio de la Energía Oscura, el cual define en primer lugar la energía: la energía es la única sustancia material disponible en la naturaleza física, determinando que la energía oscura ocupa todos los espacios, las partículas elementales y las cargas eléctricas, siendo susceptible de deformarse, y a la que atribuyo las siguientes características y propiedades:
- Toda la materia emitida en el origen del universo es energía oscura y en cualquiera de sus manifestaciones ocupa espacio. El espacio y las partículas no están vacíos sino llenos de energía oscura. Sólo podemos ver o detectar las perturbaciones de la energía del espacio en forma de ondas y de paquetes de energía, generalmente generados por el movimiento de las partículas. El Instituto de Astrofísica de Canarias (IAC) en el año 2002, mediante el nuevo interferómetro de microondas VSA ha descubierto que en el universo existe una forma de "energía del vacío".
- La energía se puede comprimir y dilatar, variando su densidad de energía, por lo cual, la densidad de la energía ha de ser la única causa de toda acción física. Podemos concretar las propiedades específicas de las magnitudes básicas que estaban sin definir. La densidad volumétrica de energía es la acción escalar presión ; la densidad lineal de la energía es la acción vectorial fuerza . La densidad superficial de la energía es una nueva magnitud vectorial que denomino empuje o energía por unidad de superficie. Las fuerzas de la energía del espacio envolvente de las partículas esféricas ejercen una acción escalar conjunta sobre las partículas, denominada densidad lineal total de energía.
- La energía presenta dos clases: polarizada y neutra. La energía polarizada es de dos signos o clases denominadas convencionalmente: positiva y negativa, de forma que las energías polarizadas del mismo signo en íntimo contacto, se repelen expansionándose. Las energías de distinto signo en íntimo contacto se atraen. Las energías polarizadas en contacto íntimo, que contengan iguales cantidades de energía de distinto signo, se asociarán formando energía neutra siempre que su densidad lineal total de energía sea igual o mayor que un valor fijo y determinado de la densidad lineal total de energía polarizada necesaria para producir dicha asociación. Por ello, es necesario que las cargas eléctricas estén constituidas por una cantidad constante de energía polarizada (negativa o positiva).
- En un estado ideal de equilibrio absolutamente estático, suponemos que las partículas son esferas. Debido a los efectos expansivos y repulsivos, las partículas con carga eléctrica están formadas por energía neutra interna y por una capa periférica de energía polarizada por lo que la presión en el centro de la partícula es nula. Los empujes que ejerce la energía del espacio envolvente sobre la partícula son iguales y opuestos a los empujes de la energía interna de la partícula. Dado que ambos empujes son la acción de energía por unidad de superficie en cada punto de la superficie periférica, y ésta es común para ambas energías, la energía del espacio envolvente, en contacto con la partícula, se configura en una capa esférica con la misma energía que la energía interna de la partícula. Debido al equilibrio, toda la energía restante del espacio se configura en capas discretas de energía concéntricas con la partícula y con su misma energía, es decir, la energía del espacio se curva y cuantifica. Debido a la atracción entre cargas de distinto signo, la partícula que tiene carga eléctrica, atrae una cantidad de energía de signo contrario procedente de la capa que la envuelve y repele otra cantidad de energía igual y del mismo signo.
Así, la energía de las capas del espacio tiene signos opuestos alternativos. El vector empuje en las superficies de las capas del espacio energético es el vector unificado del campo, siendo el empuje gravitacional de compresión y el electrostático de succión, los cuales sustituyen a los campos definidos en la física clásica.
Teorías cuánticas de la gravedad y de la electrostática
El campo eléctrico clásico no tiene la dimensión de una aceleración, por lo cual, el campo gravitacional clásico y el campo electrostático clásico no pueden unificarse, pero, ahora, ambos campos son la misma magnitud, pues ambos son empujes. Esto permite unificar ambos campos y desarrollar la Teoría Cuántica de los Campos Unificados (TCCU), que desde hace mucho tiempo se ha intentado conseguir. Así, las ecuaciones de Maxwell tienen la misma aplicación en ambos campos.
La energía del espacio, neutra o polarizada, configurada por una partícula distante de la partícula de prueba, modifica la densidad de energía, la presión o la polaridad de su capa envolvente, la cual ejerce la fuerza de gravedad o electrostática, respectivamente, sobre la partícula de prueba, resultando nuevas leyes cuánticas para la gravedad y para la electrostática.
Se deduce que la constante de gravitación G es inversamente proporcional a la función escalar de la densidad lineal de energía del espacio. Una partícula aislada genera en cualquier punto exterior una densidad lineal proporcional a la masa de dicha partícula e inversamente proporcional a la distancia que les separa. Esta función se puede tratar de la misma forma que la función del potencial clásico.
Por lo tanto, si la masa generadora es un cuerpo esférico de grandes dimensiones, tal como una galaxia, con distribución razonablemente uniforme de partículas, en cualquier punto interior la densidad lineal de energía es constante, es decir, G es constante, lo cual confirma la ley de la gravedad clásica. Si la masa unitaria se encuentra en el exterior de dicha galaxia esférica, la densidad lineal de energía es inversamente proporcional a la distancia al centro de la galaxia, por lo cual, G es proporcional a dicha distancia.
Esta nueva ley de la gravedad determina que en el exterior de la galaxia las fuerzas de gravedad disminuyen linealmente con la distancia al centro galáctico y las velocidades lineales en la rotación no disminuyen con relación a dicha distancia, sino que se mantienen, lo cual satisface el resultado del experimento de Vera Rubin, y explica por qué los cúmulos de galaxias se mantienen sin dispersarse en el espacio.
La energía cinética, suministrada por las acciones fuerza y empuje exteriores, acompaña a las partículas formando una multicapa de energía a un lado de la superficie periférica de la partícula, sobre la que ejerce permanentemente las acciones: presión cinética, fuerza cinética y empuje cinético, magnitudes que actúan independientes de la acción previa del agente exterior. La fuerza cinética tiene la misma intensidad que la fuerza exterior, por lo cual, la partícula se desplaza en el interior de la capa de energía del espacio que la envuelve.
Dado que ésta capa tiene un espesor inicial, correspondiente al estado de reposo, se comprime en el lado de avance, junto con una parte de las capas contiguas y concéntricas en el lado de avance hasta formar una multicapa que presenta una energía igual a la energía cinética de la partícula ejerciendo acciones de oposición, fuerza y empuje, sobre la partícula, de forma que los empujes respectivos son iguales y opuestos en todo momento. La fuerza de oposición no es constante, pues aumenta al comprimirse dichas capas. Así, defino la masa m, o masa inerte, como una magnitud proporcional a la fuerza de oposición inicial, en el instante inmediatamente posterior al estado de reposo. Es la primera fuerza que presenta oposición en contra de la fuerza cinética, siempre menor que ésta.
Dado que la densidad lineal de energía de dicha multicapa, que se está comprimiendo en el lado de avance, va aumentando, llega un momento en que adquiere un espesor tal que su densidad lineal de energía es igual y opuesta a la fuerza exterior o a la fuerza cinética, alcanzando la fuerza máxima de oposición, o fuerza de inercia. En ese instante, los empujes y las fuerzas que actúan sobre la partícula son iguales y opuestos, por lo cual, la partícula se detiene. Cuando se detiene, la partícula ha realizado un desplazamiento discreto, cuya longitud depende del empuje de la energía cinética. A continuación, la multicapa del espacio comprimida se delata y expande en el espacio con una velocidad cuyo valor medio es la velocidad de la luz, recuperando su estado inicial y permitiendo que se repita el proceso, realizándose desplazamientos discretos. La velocidad de dilatación de la capa envolvente depende de la densidad de energía de esta capa, por lo cual, la velocidad de la luz c es inversamente proporcional a la densidad lineal de energía del espacio por donde se propaga, por lo cual, en el interior de la galaxia la velocidad de la luz, respecto del espacio energético, es constante.
Al expandirse, la capa envolvente de la partícula recupera el espesor inicial y comprime la siguiente, y ésta al expandirse, comprime la siguiente, etc, realizando desplazamientos discretos y propagándose una perturbación en forma de onda de desplazamiento de las multicapas que depende solamente de la velocidad de la partícula.
Perturbaciones electrónicas
Si un foco emisor, fijo a la Tierra en movimiento, emite una onda electromagnética (luz), cada uno de los electrones del foco se desplaza acompañando a la Tierra con su misma velocidad V, por lo cual, además de la onda electromagnética, originan una onda de desplazamiento que se desplaza en la dirección del movimiento de la Tierra. Las capas envolventes de los electrones emisores sufren estas dos perturbaciones, por lo que, respecto del espacio exterior, se suman vectorialmente las velocidades V y c, de forma que la onda e.m. de la luz sufre el arrastre de la onda de desplazamiento, y la velocidad de propagación de la luz emitida en la Tierra, respecto del foco emisor y del receptor fijos a la Tierra, o respecto de la Tierra, es siempre c, lo cual satisface con los resultados del experimento de Michelson, y explica el caso del mesón pi , acelerado hasta la velocidad: V' = 0,99975.c, respecto de la Tierra, en el acelerador de partículas de Suiza,
Sin embargo, el arrastre recibido de la onda de desplazamiento no se mantiene indefinidamente, pues al finalizar el intervalo t , la multicapa siguiente a la primera corteza de energía, se encuentra comprimida, es decir, el espesor del conjunto de multicapas, contiguo a la primera corteza, queda reducido en una multicapa, y, eso sucede, sucesivamente, en todos los conjuntos de multicapas siguientes que forman la propagación de la onda de desplazamiento. Dado que cada una de las longitudes de los conjuntos queda reducido en una multicapa, la velocidad media de la onda de desplazamiento, respecto de la partícula, se va reduciendo a medida que se aleja de la partícula.
La onda de desplazamiento se retrasa respecto de la onda electromagnética un recorrido igual al espesor de la corteza de energía. Al cabo de n intervalos, la distancia recorrida por la onda se ha reducido en la longitud n.e, resultando una distancia d = n.n.e. La onda e.m. emitida por un foco emisor en movimiento sobrepasa a la onda de desplazamiento a la distancia d , y acaba perdiendo el arrastre de ésta, continuando la propagación con su velocidad propia c , respecto del espacio exterior. Lo cual explica el experimento con estrellas doble de De Setter y el fenómeno de aberración de la luz (Bradley), pues la velocidad de la luz, respecto de la Tierra, al llegar a la Tierra procedente de una estrella, es una velocidad relativa y depende de la velocidad de la Tierra, lo cual se manifiesta por la inclinación del telescopio.
Por consiguiente, no son necesarios ni el citado principio de la constancia universal de la velocidad de la luz de Einstein ni las teorías especial y general de la relatividad. Por consiguiente, en todos los argumentos prescindo de la relatividad. Esto coincide con la carta que Sir Kart Popper dirigió al autor."Puesto que hace varios años que pienso que la teoría de Einstein debería ser refutada, estoy fascinado por su intento de proponer una teoría alternativa…me parece una alternativa muy prometedora.
El agente que ejerce las acciones exteriores realiza esos mismos desplazamientos discretos, por lo que suministra energía únicamente durante el intervalo de cada desplazamiento discreto. De esta forma, la energía se suministra en cantidades discretas o cuantos de energía y los desplazamientos son discretos, lo cual constituye la teoría cuántica del movimiento (TCM), base de la física cuántica, pues todo fenómeno en microfísica es cuántico.
En el caso de que la partícula se desplace con una multicapa de energía cinética constante que ejerce fuerza cinética y empuje cinético constantes, en el mismo tiempo se produce el mismo recorrido en cada desplazamiento discreto. Bajo el punto de vista microfísico, la partícula se moverá con desplazamientos discretos iguales en tiempos iguales, lo cual constituye el movimiento uniforme. Este concepto explica de forma cuántica la primera ley de Newton
Aparentememte continuos
Los espesores de las capas de energía y los desplazamientos discretos son tan pequeños que en microfísica se consideran infinitesimales, de forma que el movimiento discreto de la partícula y el de dilatación de las capas de energía del espacio, son aparentemente continuos y las velocidades respectivas en un instante en realidad son las velocidades medias durante cada desplazamiento discreto. De esta forma, la TCM permite pasar de la microfísica cuántica a la macrofísica.
Si una partícula se desplaza con velocidad no despreciable con respecto a la velocidad de la luz, la capa de energía del espacio envolvente, en el lado de avance, no tiene tiempo para recuperar por completo el espesor del estado inicial, de forma que la masa aumenta con la velocidad. Se deducen las mismas fórmulas que las relativistas para la energía en reposo, o energía interna: E = m.c2 y para la masa total, sin necesidad de la relatividad. Observamos que la fuerza tiene dos componentes: la que se encarga de la aceleración y la que se encarga de mantener la velocidad o fuerza cinética, la cual es básica para comprender el movimiento uniforme, para calcular la fuerza magnética y la órbita de los planetas, y confirmar la precesión o variación del perihelio de los planetas.
Cuando las partículas se mueven, actúan dos fuerzas opuestas, la fuerza cinética y la de oposición o fuerza de inercia, por lo cual, las partículas se deforman o aplastan, de forma que la energía interna se comprime y se opone recuperando a continuación su forma, es decir, las partículas laten. Si las partículas fueran esféricas, al girar sobre si mismas no rozarían con la energía del espacio y girarían con velocidad angular infinita, pero los latidos deforman las partículas y se generan momentos de inercia que se oponen al giro. Las partículas giran y laten a gran velocidad. Por consiguiente, el movimiento de una partícula cualquiera está relacionado con un proceso ondulatorio correspondiente a su latido, de forma que las ondas de materia (De Broglie) corresponden a las oscilaciones de los latidos, generando los mismos fenómenos de interferencia en rendija que los fotones de la luz.
Si la partícula, que está latiendo, oscila, se generan paquetes planos de energía (fotones) y ondas de energía, de forma que la energía de un solo fotón es igual a E = h.f . La constante h de Planck en la onda emitida varía con la velocidad de la partícula con la misma función que la masa, lo cual explica el retraso de los procesos de desintegración (prolongación de la vida media de las partículas inestables), y el retraso de los relojes atómicos con respecto a la velocidad y a la altura. El tiempo no se contrae por la velocidad relativa, sino que lo que cambia es la medida del tiempo que marcan los relojes atómicos. La frecuencia f lo hace en proporción inversa, lo cual explica las dislocaciones hacia el rojo del espectro.
Definición del campo magnético
Defino el campo magnético y su equivalente gravitatorio como: "el momento de la variación en el tiempo del vector del campo (empuje)". Es la primera vez que se define este concepto. Si la fuerza de interacción no es colineal con la velocidad, la partícula sufre un vuelco y gira rodando sobre la capa de energía envolvente, generándose una fuerza transversal cuyo cálculo resulta ser la fuerza magnética o su homóloga gravitacional transversal.
Las partículas además de girar, laten y los latidos generan ondas de un alcance igual a la longitud de onda de Compton (distancia de interacción en la constante de estructura fina) que producen un cambio de polaridad en las capas de energía del espacio, invirtiéndose las fuerzas electromagnéticas, de forma que las partículas atómicas se mantienen asociadas con un movimiento oscilatorio mediante las fuerzas débiles o fuertes. El neutrón es el resultado de la asociación oscilatoria de un electrón y un protón mediante la energía de un neutrino. El espín 1/2 corresponde a media vuelta por latido.
Las sumas de los desplazamientos discretos y de las energías de las partículas con aceleración uniforme varían con el cuadrado del número n de intervalos. En los procesos de interacción varían con el factor n.(n + 1). Esto, junto con la definición del espín, permite deducir los cuatro números cuánticos en el átomo
Si una radiación violenta con energía m.c² actúa sobre una partícula estable, ésta se desplaza y comprime perforando justamente la primera capa polarizada de energía del espacio envolvente Si la energía de la radiación violenta es 2.m.c² , la partícula se desplaza violentamente fuera de su posición dejando un hueco en el espacio vacío que se rellena con energía del espacio, generándose una nueva partícula con carga contraria: la antipartícula o antimateria, todo lo cual está confirmado por los resultados experimentales.
Dependiendo de la energía incidente se pueden formar otras partículas de diferentes masas, tamaños y polaridades, pero serán inestables. Esta energía 2.m.c² coincide con la energía potencial discreta que recibe la partícula desde el espacio energético para pasar a la capa contigua, pero la acción no es violenta y no se produce antipartícula, por lo que no sirve para explicar la gravedad. La generación de antipartículas, junto con las definición de la masa y de la acción conjunta de las fuerzas de asociación de la energía polarizada, permite conocer las causas por las que solamente el electrón y el protón son estables.
En el instante inicial del universo, el espacio estaba vacío sin energía. Al surgir la energía ocupó un volumen tan pequeño que su densidad de energía, presión y fuerza, fue descomunal. Dado que la densidad de energía del espacio exterior era nula, la masa era nula, de forma que la aceleración de la primera oleada de energía fue infinita. El espacio vacío infinito se llenó de energía con una velocidad infinita. Se sucedieron continuas oleadas de energía llenando el espacio y aumentando la densidad de energía, y, por tanto, aumentando la masa en cada punto del espacio, pero disminuyendo con la distancia. Dado que la energía emitida en el origen del universo contenía un exceso de energía de signo negativo, cuando el espacio adquirió una densidad de energía determinada se generaron los electrones, y, por radiaciones muy intensas de los electrones, se generaron los protones. Por eso, no hay simetría entre materia y antimateria, sino entre energía positiva y negativa. Al interaccionar entre ellos se generaron los neutrones, los átomos, las estrellas y las galaxias, las cuales se separan unas de otras por el efecto expansivo.
Oleadas de energía
Las posteriores oleadas de energía se propagaron en un espacio con mayor densidad de energía, encontrando mayor oposición o mayor masa, por lo que su velocidad de expansión fue menor que las anteriores. Así, todas las galaxias se están alejando unas de otras, lo cual confirma las conclusiones de los astrofísicos. Por consiguiente, la densidad de energía en el espacio ha de variar de forma estructurada, de forma que ha de ser mayor cuanto más cerca del origen o big-bang, lo cual coincide con el descubrimiento de John K. Webb pues los análisis demuestran que la velocidad de la luz en el espacio es estructurada, es decir, a un lado de nuestro planeta es menor y al otro lado es mayor. Por consiguiente, la velocidad de la luz en el universo debe ser diferente que en la Tierra, en aparente contradicción con la teoría de la relatividad.
Hay que tener en cuenta que la luz se propaga en el espacio exterior que es un medio material sin partículas cuya sustancia es la energía. Por eso, las variaciones de la densidad de la energía del espacio en las capas que envuelven a los cuerpos de gran masa, generan un tipo determinado de refracción y la consiguiente curvatura de la luz, por lo que se pueden explicar los efectos de lupa (lente gravitacional) observados por los astrofísicos. Si las variaciones de densidad son muy intensas se produce una refracción en retroceso; la luz retrocede, lo cual permite explicar los efectos observados en los denominados agujeros negros.
La consecuencia de este paradigma y de las teorías TCM y TCCU, es que, tal y como predijo Louis de Broglie, "detrás del universo de nuestra percepción se encuentra un mundo oculto microfísico gobernado por la causalidad" , y en el que los desplazamientos y la energía, de las partículas y de las ondas, se manifiestan en cantidades discretas, y de cuyo desarrollo resulta la física cuántica y su conexión con la microfísica.