"El hombre encuentra a Dios detrás de cada puerta que la ciencia logra abrir." EINSTEIN


sábado, 31 de marzo de 2012

FISICA CUANTICA: Relatividad vs. Cuántica






Creo que el universo es una evolución.
Creo que la evolución camina hacia el Espíritu.
Creo que el Espíritu en el ser humano llega a su perfección en lo personal.
Creo que lo personal supremo es el Cristo universal
.

La teoría de la relatividad general hace una reinterpretación inclusiva de la gravedad y de la estructura macroscópica del universo en toda su extensión (un uno con 24 ceros detrás). La física cuántica se dedica a explicar el funcionamiento del mundo de las partículas y subpartículas de una millonésima de millonésima de centímetro (los quarks, protones, electrones, neutrones, etc).

¿Cómo se podrían combinar estas dos magnitudes, lo ilimitadamente grande y lo ilimitadamente pequeño? Se busca una teoría que englobe todas las energías y redes de relaciones. Algunos científicos piensan que una teoría cuántica de la gravedad guardaría el secreto de la Teoría de la Gran Unificación. Ésta uniría las dos visiones, la de la relatividad general de Einstein y la de la física cuántica de Planck, Bohr y Heisenberg. Pero hasta ahora no ha sido alcanzada.

Ahora bien: si se parte de la hipótesis de que el universo no es totalmente caótico y arbitrario, sino que se rige por leyes que mantienen su dinámica y su armonía a pesar de las incertidumbres de índole cuántica, entonces se debería descubrir la fórmula secreta de esa inconmensurable unidad.

Pero, ¿hay alguna base científica que permita a la ciencia buscar una Teoría del Todo? Los científicos están indagando unas pistas que pueden llevar a respuestas positivas: la energía del vacío cuántico, la teoría especial de la relatividad (de Einstein, 1905), la llamada Teoría-M (teoría Mater/madre), la constante cosmológica, las nuevas contribuciones de la biología y la teoría de las cuatro energías fundamentales.






Cerebro, Dios y Física Cuántica




La religión sin la ciencia es ciega,
La ciencia sin religión es coja
Albert Einstein.



Nuestra verdad siempre es relativa, 
ya que es un camino sin fin








viernes, 30 de marzo de 2012

Un nuevo método sobre la variación genética depara sorpresas sobre nuestra ascendencia



Un nuevo modo de analizar la variación genética en las poblaciones humanas está deparando varias sorpresas por lo que respecta a nuestra ascendencia. Entre otras cosas, la nueva técnica pone de manifiesto un importante traspaso de genes desde el norte de Europa hacia el este de Siberia.

L
os métodos convencionales de análisis del genoma solían centrarse en una parte del genoma humano, como el cromosoma Y, que se transmite de padre a hijo. Otras técnicas se basaban en un modelo excesivamente simplificado de la herencia genética que pasaba por alto la estructura cromosómica.
En este estudio reciente, científicos de Irlanda, Estados Unidos y Reino Unido analizaron 2.540 marcadores genéticos del ADN de casi mil personas de todo el mundo cuyo material había sido recopilado por el Proyecto de Diversidad del Genoma Humano.
Los resultados han deparado varias sorpresas. Por ejemplo, se descubrió que los Yakut, originarios del norte de Siberia, habían recibido una aportación genética considerable de las gentes de las Islas Órcadas, en aguas de Escocia. También se encontraron genes procedentes de las Órcadas en otras poblaciones del Asia oriental, en concreto entre los Han del norte de China y los Hezhen, otra población originaria del noreste de Asia. Con estos datos, los científicos deducen que debió existir un período de traspaso de genes desde el norte de Europa hacia el Asia oriental.
Este estudio esclareció también el proceso de población del continente americano, ya que sus resultados indican que las poblaciones nativas de América del Norte y del Sur tienen orígenes distintos. Para explicarlo, los investigadores proponen la hipótesis de que se produjeran múltiples olas migratorias. Según esta hipótesis, los primeros pobladores del noreste de Asia habrían cruzado también el Estrecho de Bering y llegado hasta Sudamérica. Esta población habría sido sustituida posteriormente por pobladores más próximos a los asiáticos orientales contemporáneos, que también lograron cruzar el Estrecho de Bering. Los nativos de Norteamérica guardan lazos ancestrales con ellos.
«Nuestra técnica nos permite dar con detalles más sutiles relativos a las contribuciones genéticas que con otros métodos», explicó el Dr. Garrett Hellenthal de la Universidad de Oxford, uno de los autores del artículo. «Al incorporar la herencia de "bloques" de ADN entre generaciones, en lugar de genes aislados, capta una panorámica del intercambio de patrones de ADN a escala de todo el genoma humano. De este modo podemos plantear diversas hipótesis posibles sobre el proceso de colonización, sin reducirnos a las que ya se han considerado en otros estudios, y aplicar un algoritmo para determinar las vías migratorias más probables.»
De cara al futuro, los científicos se proponen ampliar este método para abarcar corpus de datos con más de 500.000 marcadores genéticos. Así esperan poder reconstruir los patrones de migración humana con un grado de detalle sin precedentes.
«A las personas nos gusta contar historias, y una de las más cautivadoras es la de la expansión mundial de los humanos modernos desde su tierra natal, en África», apuntó el Dr. Daniel Falush del University College de Cork (Irlanda). «Tradicionalmente, éste era un dominio exclusivo de los antropólogos, pero últimamente también empiezan a contribuir los genetistas. No obstante, los indicios genéticos se siguen analizando a la luz de ideas preconcebidas de la antropología, y las técnicas estadísticas nos ayudan a ver las cosas con más objetividad.»
El apoyo comunitario a esta investigación provino del proyecto POLYGENES («Identificación de variantes genéticas comunes que influyen en el riesgo de cáncer de mama y de próstata»), financiado a través del área temática «Ciencias de la vida, genómica y biotecnología para la salud» del Sexto Programa Marco (6PM).

Resuelven el misterio del cadaver humano de 5.300 años hallado en un glaciar



Otzi es un ejemplar inusualmente bien preservado del Neolítico Tardío, que fue descubierto en 1991 en el sur del Tirol, a 3.210 metros por encima del nivel del mar. Los cuerpos humanos son la mejor fuente de información fiable para estudiar las condiciones de vida de seres humanos en el pasado. Por eso, Otzi ha sido objeto de diversos exámenes científicos. Y no sólo con fines arqueológicos, sino también por la importancia que tiene indagar sobre la evolución de cualquier enfermedad humana a lo largo de un periodo de tiempo tan largo.

E
l Dr. Frank Rühli del Instituto Anatómico de la Universidad de Zurich en Suiza, en estrecha colaboración con Eduard Egarter Vigl del Museo de Arqueología del Sur del Tirol en Bolzano, Italia, así como el Dr. Paul Gostner y la Dra. Patrizia Pernter, ambos del Departamento de Radiología del Hospital general de Bolzano, han completado una larga investigación, en la que resultó crucial la utilización de técnicas sofisticadas de tomografía computerizada.
Los análisis de las imágenes obtenidas mediante tales técnicas desvelaron una herida en la pared dorsal de la arteria subclavia izquierda, la arteria localizada bajo la clavícula, provocada por una punta de flecha ya detectada, que sigue en la espalda. Además, un gran hematoma fue visualizado en el tejido circundante. Mediante la combinación de datos históricos, así como información moderna sobre los efectos de una herida tan grave, los científicos han llegado a la conclusión de que Otzi falleció poco después de recibir el flechazo, como consecuencia del mismo.
Una huella tan clara de una lesión vascular en un cuerpo de tanta antigüedad, detectada del modo en que se ha hecho, es, al menos por ahora, un caso único. La técnica empleada ha resultado crucial para determinar la causa de la muerte sin tener que recurrir a una autopsia, con los inevitables efectos destructivos que ésta habría comportado.
Los investigadores tratarán ahora de indagar sobre las circunstancias que rodearon la muerte de este misterioso sujeto.

Una bomba nuclear es el método más eficaz para desviar un asteroide que fuese a impactar sobre la Tierra



Según las películas de Hollywood la mejor manera de evitar el impacto de un cuerpo astronómico como un cometa o un asteroide sobre la Tierra es con un buen bombazo nuclear. Mandar allí a unos astronautas heroicos añade además mucho dramatismo al guión. Los expertos, sin embargo, nos han venido diciendo que hay formas más baratas, sencillas y elegantes de realizar la misma tarea. Con suficientes años de anticipación bastaría con pintar de blanco todo o parte del asteroide para que así la luz solar lo desvíe. El uso de láseres sobre su superficie también puede servir, o unos potentes motores de plasma, unas explosiones químicas o un cañón electromagnético que expulse trozos del mismo asteroide a gran velocidad. Pero una noticia tras otra nos habla de lo cerca de la Tierra que pasó una roca que no vimos venir. Puede que al final no contemos con tanto tiempo como creemos o queremos.

O
tro gran inconveniente es que no sabemos muy bien de qué están hechos los asteroides o, más bien cómo están estructurados. Algunos de ellos parecen, más bien, un conglomerado de gravilla levemente unida entre sí. En estos casos no solamente no podemos empujar el objeto, sino que volarlo con una explosión significaría multiplicar los fragmentos que caerían sobre la Tierra: un bonita lluvia de estrella fugaces o un desastre según su tamaño.
Ahora, en la reunión bianual de la Sociedad Americana de Astronomía, David Dearborn del Lawrence Livermore National Laboratory, parece dar la razón a Hollywood, ya que ha afirmado que la mejor opción a la hora de evitar una colisión de un asteroide sobre la Tierra es usar armas nucleares.
Según Dearborn una explosión nuclear es el sistema más barato, práctico y efectivo de desviar o fragmentar un asteroide comparado con otras alternativas como el uso de láseres de potencia. Esto se debe, sobre todo, a la gran cantidad de energía por unidad de masa que una bomba nuclear tiene en contraste con otros métodos no nucleares, que requerirían varios lanzamientos con cohetes pesados.
Además, la opción nuclear puede implementarse en un corto periodo de tiempo. Una detonación 15 días antes del impacto puede fragmentar o desviar un asteroide de 270 metros como Apophis (que tiene una probabilidad de 1 entre 250.000 de impactar contra la Tierra en 2036) y evitar así una colisión.
Como la radiación se libera en el espacio exterior, que es un lugar bastante radiactivo per se, y a miles de kilómetros de nuestro planeta no habría problemas para vida en la Tierra.
Dearborn ha desarrollado modelos y corrido simulaciones para determinar los efectos de una detonación nuclear, tanto cerca de la superficie como sobre la superficie de uno de estos cuerpos. La mejor estrategia depende del tamaño y del tiempo disponible antes del impacto. Si se espera una colisión con una pequeño asteroide con décadas de anticipación una detonación cerca del asteroide puede desviarlo de su ruta de colisión lo suficiente. Si la colisión se espera sólo en unas pocas semanas se requeriría una detonación directa sobre su superficie, pero algunos de los fragmentos podrían impactar de todos modos sobre la Tierra.
Aunque el tamaño y la distancia a la Tierra pueden ser estimados bastante bien, la gran incógnita en la elaboración de una estrategia es la composición de estos cuerpos. Los asteroides son objetos muy diversos. Dearborn aconseja que si se dispone de 30 años antes de la colisión lo mejor es enviar una misión previa para analizar la composición, forma y estructura del cuerpo en cuestión.
Pese a todo, aunque Dearborn y otros científicos quisieran hacer explotar una bomba nuclear sobre uno de estos cuerpos a modo de prueba, los tratados internacionales lo prohíben y la opinión pública se opondría.
No se espera un impacto de asteroide pronto. La NASA ha identificado el 90% de los asteroides cercanos a la Tierra con tamaño suficiente (10 Km) como para causar una extinción masiva y ninguno supone un riesgo en el futuro próximo. Incluso se considera a Apophis un riesgo menor. Pero los objetos menores son más difíciles de vigilar. El más pequeño conocido (1991 BA) mide 6 metros de largo.
"En unos pocos años más, seremos capaces de decir si hay algo ahí fuera que pueda causar un catástrofe global", dice David Morrison, director del Lunar Science Institute de la NASA. "Pero, habrá millones lo suficientemente grandes como para destruir una ciudad al completo. Se necesitará mucho tiempo, puede que interminable, para encontrarlos y calcular sus órbitas. Básicamente, podemos ser impactados por unos de estos objetos menores en cualquier momento, sin ningún tipo de aviso. Ahora mismo, no puedo decir casi nada acerca de la probabilidad de que unos de estos objetos nos alcance, porque, simplemente, no los hemos encontrados todos."
Lo que parece que queremos olvidar es que la mayor amenaza para la vida en la Tierra es precisamente el ser humano, con una probabilidad de desastre que ya es exactamente 1 si no hacemos nada para remediarlo. Pero una película de Hollywood cuya trama transcurra a lo largo de décadas de desastres ecológicos y medioambientales sería aburrida. Además, ya tenemos asientos de primera fila para el espectáculo.

Descubren en España un esqueleto de tapir único en Europa



El esqueleto de un tapir completo y de 3,5 millones de años, único en Europa en su género y antigüedad, fue hallado en el yacimiento del Camp dels Ninots (Girona), informó el Instituto catalán de Paleoecología Humana y Evolución Social (IPHES).

"
A pesar de que se conocen restos aislados de este animal en Italia Central y en otros puntos del continente, éste es el único esqueleto completo conocido en Europa", anunció en su página 'web' ('prehistoria.urv.es/es/node/250') el Instituto.
Se trata de una bestia que actualmente sólo se encuentra en zonas muy concretas de Sudamérica y Asia, explicó un portavoz del IPHES, que actualmente desarrolla en Machu Picchu (Perú) una innovadora tecnología para prevenir la degradación de la ciudadela y su entorno.
El tapir hallado es un "mamífero perisodáctilo que desaparece en Europa a principios del Pleistoceno" (el origen de la ocupación humana del continente) y es un "lofodontos", una especie que tiene cuatro dedos en la mano y tres en el pie.
"Sus características nos indican que no son corredores y que comen fruta y hojas, por lo tanto, son claros indicadores del tipo de ambiente que había (clima subtropical con espacios de bosque). Su desaparición en Europa es probablemente el resultado de un cambio climático", explicó el IPHES.
El Instituto, cuya sede se encuentra en Tarragona, también localizó en la misma campaña una gran cantidad de tortugas acuáticas "en un nivel de conservación excelente, ya que en algún caso se ha podido incluso conservar el cráneo", concluyó.
"La campaña de excavación de 2008 en el Camp dels Ninots ha sido una de la más importantes realizadas hasta ahora", señaló a AFP Bruno Gómez, uno de los directores de la excavación.
"Se ha localizado un nivel paleontológico y paleobotánico riquísimo que permite conocer cómo era el clima, el paisaje y cuáles eran las especies animales hace 3,5 millones de años", añadió el otro director, Gerard Campeny, también colaborador del IPHES.

Hace 13.000 años ya había indicios de diferenciación social humana



Hace 13.000 años, las comunidades humanas que habitaban el sur de Siria comenzaban a exhibir una diferenciación social, según los análisis de un yacimiento en el que ha participado el Consejo Superior de Investigaciones Científicas (CSIC).

E
l poblado completo, denominado Qarassa 3, se compone de 12 cabañas, dos de las cuales muestran un nivel de complejidad superior al resto. Según el investigador del CSIC en la Institución Milá y Fontanals Juan José Ibáñez, "esta característica podría indicar una diferencia en el rol social de sus habitantes".
De las cabañas, se conserva la base de los muros, erigidos con piedras basálticas. Gracias a ellas, se sabe que las estancias eran circulares, de entre cuatro y cinco metros de diámetro. La existencia de agujeros de poste sugiere que la cubierta y el alzado de las paredes eran de materia vegetal.
Las dos viviendas con un mayor nivel de complejidad son las que están situadas en la zona más meridional del poblado. Una de ellas presenta divisiones internas y una pequeña plataforma interior sobreelevada, y la otra consta de una fosa y dos plataformas exteriores asociadas a la puerta de entrada. Para el responsable de la excavación, el investigador del CSIC en el mismo centro que Ibáñez, Xavier Terradas, "la estructuración del espacio interior es un hallazgo clave en la historia de la arquitectura".
Las estancias tienen entre 12 y 16 metros cuadrados de superficie, por lo que Terradas interpreta que el poblado debía componerse de entre 40 y 60 individuos. El investigador del CSIC explica: "La distribución de todas ellas, adyacentes entre sí, pero no superpuestas y organizadas en forma de arco orientado hacia un antiguo lago, demuestra que todas formaban parte de un mismo poblado".
Empieza el sedentarismo
Las características del yacimiento lo incluyen dentro de la cultura natufiense, que habitó esta región hace entre 14.000 años y 9.000 años aproximadamente. El hallazgo, por tanto, asienta los rasgos de esta cultura, asociada al principio de la sedentarización. Ibáñez detalla: "No podemos saber con seguridad si vivían todo el año en esas cabañas o sólo durante largos periodos, pero supone un gran asentamiento frente a las comunidades nómadas".
La sedentarización trajo consigo la aparición de la ganadería y la agricultura, y el abandono de la caza y la recolección. Según el investigador del CSIC, "no se han encontrado indicios de agricultura en el poblado, pero sí se ha comprobado una mayor explotación de los cereales ya que han aparecido más de 80 morteros excavados en la roca de los alrededores y útiles para el segado".
Para dilucidar la importancia de la agricultura dentro de esta comunidad el equipo planea una nueva expedición para analizar los sedimentos del lago seco. Según Ibáñez, "este proyecto podría revelar indicios de cultivos cerca de la orilla".
El hallazgo del poblado tuvo lugar cerca de la ciudad de Sweida, al sur de Siria. Fue encontrado por arqueólogos del Centro Nacional de Investigaciones de Francia en 2005. El equipo de investigación solicitó ayuda para los análisis al equipo de Ibáñez y al Instituto Internacional de Investigaciones Prehistóricas de Cantabria (unidad asociada al CSIC y perteneciente a Universidad de Cantabria).

¿El espacio y el tiempo son fundamentales?



De todos los misterios de la vida y el universo, ninguno se resiste más obstinadamente a los mejores ojos de los sabuesos de la ciencia, que la naturaleza final del espacio y el tiempo. Cada varios siglos aproximadamente, tienen lugar profundas visiones, inmortalizando los nombres de los investigadores que las lograron: Euclides (que catalogó las visiones que le precedieron), Galileo, Newton, Einstein. Aunque cada avance deja cuestiones más profundas sin resolver. Y ahora, los mejores cerebros del siglo XXI, aún no pueden decir con seguridad si el espacio y el tiempo son bloques básicos de la existencia natural, o si ellos mismos están construidos a partir de ingredientes más primordiales, hasta el momento, imperceptibles.

PNewton simplemente declaró el espacio y el tiempo como absolutos y constantes, proporcionando una arena adecuada para el funcionamiento de sus leyes de movimiento y gravedad. Einstein vio, y demostró, que el espacio y el tiempo en realidad cambian de forma o velocidad conforme se desarrollan los acontecimientos; la masa y el movimiento curvan el espacio y alteran el flujo del tiempo.
ara solventar estos inconvenientes se requería de una fusión, espacio y tiempo se convirtieron en espacio-tiempo. De esa fusión surgió un bonus: Un modelo para la evolución del cosmos, desde una mota inicial de materia y energía a una gigantesca red multigaláctica.
Actualmente, sin embargo, la capacidad del espacio-tiempo para acomodar los fenómenos naturales ha empezado a apagarse, conforme los físicos llevan sus sondas hasta los límites de distancia y duración. Por debajo de cierta minúscula distancia, la dimensión de la longitud no puede explorarse más allá, ni siquiera definirse. El tiempo se enfrenta a un límite similar cuando la duración se aproxima a lo muy breve.
Las teorías principales actuales para responder estas grandes cuestiones cósmicas, sugieren que ni el espacio ni el tiempo parecen la receta final de la realidad. En algún punto entre la estufa y la mesa, surgen el espacio y el tiempo, cocinadas a partir de un conjunto de ecuaciones subyacentes a una existencia sin reglas de medir ni relojes. Al menos ésta es "la creencia actual más extendida", dice el físico Joe Polchinski del Instituto Kavli para Física Teórica en la Universidad de California en Santa Bárbara.
El espacio como sociedad
Para ilustrar esto, Fotini Markopoulou del Instituto Perimeter de Física Teórica en Waterloo, Canadá, compara el espacio con la sociedad. El espacio, como la sociedad, tiene características que pueden describirse - los libros de texto de geometría catalogan las propiedades del espacio y sus implicaciones. Pero el espacio, tal y como se refleja en geometría, no necesitaba estar presente al inicio. Podría haber surgido a partir de interacciones de materia y fuerzas, de la misma forma que la sociedad se materializa a partir de las interacciones entre personas.
"Tenemos sociedades capitalistas, agrícolas, totalitarias", escribe Markopoulou en un artículo de 2008 (arXiv.org/abs/0909.1861). Nadie queda confundido por frases tales como "nuestra sociedad es adicta al crédito". Pero eso ni significa que la sociedad sea una característica fundamental de la existencia.
"Una sociedad no existe de manera independiente a sus miembros", señala Markopoulou. "Podemos ver la geometría del espacio-tiempo como el análogo de la sociedad, con el papel de individuos desempeñado por la materia y su dinámica".
Como señala Polchinski, especificar el estatus del espacio-tiempo en relación con la materia es parte de la búsqueda de una teoría de la gravedad cuántica - las matemáticas que unificarían la teoría de la relatividad de Einstein, que describe el espacio-tiempo a gran escala, con la física cuántica que gobierna el micromundo. Una pista clave en esta búsqueda es una correspondencia entre la superficie de un agujero negro, un pozo sin fondo gravitatorio del que nada escapa, y el espacio en su interior. Resulta que una descripción matemática del límite exterior del agujero negro (el punto de no retorno para los objetos que caen en él) contiene toda la información necesaria para especificar las tres dimensiones del interior. En esencia, esto significa que el espacio 3-D dentro de algo emerge a partir de la física de la superficie 2-D.
El tiempo materializado
Generalizar las peculiaridades de los agujeros negros al espacio y tiempo común sigue siendo un desafío investigador para los físicos que trabajan con gravedad cuántica. Pero la mayor parte están de acuerdo en que antes o después el espacio y el tiempo tendrán que marcharse. La Teoría de Cuerdas - la aproximación más estudiada a la gravedad cuántica - ofrece varios ejemplos de cómo el espacio, en lugar de ser fundamental, surge a la existencia, como esbozó el físico Nathan Seiberg del Instituto de Estudios Avanzados en Princeton, Nueva Jersey, en un artículo de 2006 (arXiv.org/abs/hep-th/0601234).
Si la materia en su composición más básica está formada de diminutas cuerdas vibrantes, por ejemplo, se hace imposible estudiar el espacio a una distancia arbitrariamente pequeña, observa Seiberg. Ésta es otra forma de decir que a distancias menores que una distancia dada (muy corta), la idea de espacio pierde su sentido.
Un mayor estudio de teorías sin espacio puede que ayuden a resolver algunos serios problemas a los que se enfrentan los físicos actuales, cree Seiberg. La Teoría de Cuerdas implica incontables estados posibles de vacío - es decir, espacios de distintas propiedades físicas - sin un método obvio para determinar cuál debería haber elegido el universo visible. Saber cómo surge el espacio a partir de un estado sin espacio podría ayudar a explicar por qué los humanos existen en un espacio particular entre las incontables posibilidades.
Librarse del tiempo supone problemas más difíciles, reconoce Seiberg. Las nociones básicas de la física, tales como que las causas preceden a los efectos, o predecir la salida de un experimento antes de que se realice, parecen perder su significado su no hay tiempo para definir antes y después. Por lo que algunos físicos, por ejemplo Markopoulou, han sugerido que incluso si el espacio es emergente, el tiempo puede seguir siendo fundamental. De hecho, conjetura que el tiempo es necesario para permitir que los procesos cuánticos creen la ilusión del espacio. El espacio puede que no estuviese por allí en el inicio, pero ese inicio sería aún un nonato sin tiempo para que la realidad se iniciara.
Seiberg, sin embargo, cree que espacio y tiempo desaparecerán en el desagüe cósmico juntos.
"Mi prejuicio personal es que estas objeciones y cuestiones no son obstáculos para un tiempo emergente", escribe Seiberg. "En lugar de esto, deberían verse como desafíos y, tal vez, incluso como pistas para las respuestas".
Más intrigante aún, señala, es que el estatus final del espacio y el tiempo en la naturaleza puede tener algo que decir sobre la práctica de la ciencia. Gran parte de la ciencia moderna se basa en el concepto de reduccionismo - explicar los fenómenos a gran escala a partir de las leyes que funcionan a escalas menores. Esta idea, finalmente colapsará su hay una escala mínima por debajo de la cual el espacio deja de existir.
"Por tanto, una vez comprendamos cómo surge el espacio-tiempo, podríamos buscar leyes aún más básicas, pero estas leyes no operarían a distancias más cortas", escribe. "Esto se sigue del simple hecho de que la noción de "distancias más cortas" dejaría de tener sentido. Esto podría significar el final del reduccionismo estándar". Y el principio de una nueva visión no sólo del espacio, sino de la propia ciencia.
Tan pequeño como pueda ser
Las actuales teorías son incapaces de describir el espacio y el tiempo por debajo de ciertos límites definidos por lo que llamamos "unidades naturales". Estas unidades, propuestas por el físico alemán Max Planck, se derivan de cantidades fundamentales como la velocidad de la luz. Una teoría que unifique mecánica cuántica con gravedad tendrá que revelar si es espacio y el tiempo son conceptos con sentido a escalas menores.
Longitud de Planck: 1,616 x 10-35 metros
La longitud de Planck se deriva de la constante gravitatoria de Newton, la velocidad de la luz y la propia constante de Planck de la teoría cuántica. Es increíblemente pequeña: Comparar su tamaño con el de una bacteria es como comparar el tamaño de una bacteria con el del universo visible. Muchos físicos creen que a longitudes más cortas el espacio no puede estudiarse, y la idea de distancia pierde su sentido.
Tiempo de Planck: 5,391 x 10-44 segundos
El tiempo de Planck también se calcula a partir de la constante gravitatoria, la velocidad de la luz y la constante de Planck, de tal forma que moverse a una longitud de Planck cada tiempo de Planck sería igual a moverse a la velocidad de la luz. Las actuales teorías serían incapaces de describir el universo a una edad menor que el tiempo de Planck; los físicos esperan que una teoría de la gravedad cuántica pudiera iluminar tal época.

Células solares en 3D duplican la producción energética de los paneles


Desarrolladas por ingenieros del MIT, además logran una potencia de salida veinte veces mayor


Un equipo de ingenieros del MIT (Massachusetts Institute of Technology), en Estados Unidos, ha realizado una importante innovación en el terreno de la energía solar, con el diseño de nuevas células solares fotovoltaicas con configuraciones tridimensionales. Este desarrollo permite producir más del doble de energía por área con respecto a las células solares convencionales, además de lograr una potencia de salida que puede ser veinte veces mayor que la obtenida con los paneles planos. 

U
na nueva etapa en el desarrollo de la energía solar podría ser protagonizada por el aprovechamiento de células solares fotovoltaicas con diseño 3D, una innovación que permite obtener más del doble de la producción energética conseguida con los dispositivos planos utilizados en la actualidad. El avance ha sido realizado por un grupo de ingenieros e investigadores del MIT.
Hasta el momento, la investigación intensiva en todo el mundo relacionada con la energía solar se ha centrado mayormente en mejorar el rendimiento de las células solares fotovoltaicas y en disminuir su coste. Sin embargo, se ha prestado muy poca atención a la optimización de las formas de organización y diseño de las células solares, que normalmente presentan formas planas.
Pero un equipo de ingenieros e investigadores del MIT ha partido de un enfoque muy diferente, y ha desarrollado células solares con configuraciones tridimensionales, con disposición cúbica o en forma de torres. Sorprendentemente, los resultados de las estructuras que se han probado muestran una potencia de salida que puede ser hasta 20 veces mayor que la obtenida con los paneles planos.
Asimismo, la producción energética por área logra como mínimo duplicarse, si se la compara con la generada en los paneles tradicionales, con cifras que superan estos indicadores. El avance ha sido difundido a través de una nota de prensa del MIT, y también en un artículo publicado en el medio especializado Energy and Environmental Science.
Modelos informáticos y pruebas experimentales
Los mayores incrementos en el potencial energético de las células solares se advirtieron en aquellas situaciones donde precisamente las mejoras son más necesarias: en lugares alejados de la línea ecuatorial, en los meses de invierno y en días nublados. Los resultados que dan sustento a esta investigación están basados en modelos informáticos y pruebas de los módulos reales al aire libre.
Según Jeffrey Grossman, líder del grupo de trabajo del MIT, el nuevo concepto podría convertirse en un sector primordial de desarrollo dentro del futuro de la energía solar fotovoltaica. En principio, los ingenieros e investigadores utilizaron un algoritmo informático para explorar una enorme variedad de configuraciones posibles para los paneles y células solares.
De esta forma se creó un software analítico, capaz de probar cualquier configuración dada en virtud de una amplia gama de parámetros, como por ejemplo la latitud geográfica, las estaciones del año o el clima imperante en el lugar donde se operarían las células solares.
Posteriormente, para confirmar las predicciones del modelo informático, se construyeron y probaron tres diferentes disposiciones de las células solares, ubicándolas en el techo de un edificio de laboratorios del MIT durante varias semanas. Es así que se lograron combinar los resultados obtenidos con los modelos teóricos y los alcanzados en la fase experimental.
Aunque el coste de la energía generada por estos módulos 3D es mayor que el registrado en la producción energética de los paneles planos convencionales, el gasto se lograría equilibrar gracias al incremento en la generación de energía por área utilizada, además de la obtención de una potencia de salida mucho más uniforme, tanto a lo largo del día como en las diferentes estaciones del año o frente a variaciones climáticas.
Al mismo tiempo, al obtener una potencia de salida más predecible y uniforme, la integración con la red eléctrica de los paneles solares sería mucho más sencilla que la obtenida actualmente con los sistemas convencionales. La razón básica para la mejora en la producción de energía es que las superficies de las estructuras 3D pueden recoger en mayor medida la luz solar en los momentos más complejos, como por ejemplo en las tardes o durante el invierno.
Según los especialistas, este tipo de innovaciones presenta actualmente un escenario favorable, ya que las células solares se han vuelto más económicas que las propias estructuras de soporte y cableado y que los procesos de instalación. A medida que el coste de las células continúe disminuyendo más rápidamente que los restantes procesos, las ventajas de los sistemas 3D se incrementarán en la misma magnitud.
En la actualidad, hasta un 65% del coste de la energía solar fotovoltaica está asociado a la instalación de los sistemas, el permiso para el uso de la tierra y otros componentes y estructuras, además de las propias células. Las opciones de diseño 3D en los dispositivos fotovoltaicos podrían proporcionar beneficios significativos en términos de captación de la luz solar en diferentes ángulos. El reto, sin embargo, es llegar a producir en masa estos elementos de una manera rentable.

Un grupo de investigadores consigue provocar la evocación de recuerdos específicos a voluntad activando con luz unas neuronas determinadas



A Marcel Proust se le dispararon los recuerdos de la infancia cuando olió el aroma de una magdalena. A partir de ahí empezó a escribir compulsivamente sobre esos recuerdos del pasado. El caso de Proust se ha puesto como ejemplo para estudios de Neurología, Psicología e incluso para ilustrar cómo funcionan la redes neuronales computacionales. Los humanos tenemos muchos recuerdos de nuestro pasado. Algunos son tan importantes y vívidos que, como la magdalena de Proust, desatan todas las sensaciones que experimentamos en ese momento. Los neurocientíficos llaman a estos recuerdos engramas.

H
asta ahora se creía que estos engramas eran meros entes conceptuales y que no necesariamente tenían que tener un reflejo físico en nuestra estructura neuronal. En un estudio del MIT se ha demostrado que esos recuerdos realmente residen en células específicas del cerebro.
Para demostrar este punto los investigadores implicados se han valido de una nueva técnica basada en la optogenética. Esta técnica permite estimular neuronas específicas que previamente han sido modificadas genéticamente para expresar proteínas sensibles a la luz.
En este estudio pudieron ver que una activación mediante luz de específicas pequeñas subpoblaciones de neuronas puede generar comportamientos de alto nivel cognitivo, como por ejemplo la expresión de recuerdos específicos.
Todo empezó cuando hace años el neurocirujano Wilder Penfield observó de manera accidental que se podían activar recuerdos de manera física. Este médico trataba a pacientes con epilepsia grave que querían dejar de tener ataques. En la epilepsia un pequeño grupo de neuronas puede ser el origen de esos ataques, así que este cirujano arreglaba el problema eliminando esa región productora de ataques. Lo malo es que no es fácil saber qué región es. Para asegurarse de que sólo destruía esa parte de cerebro, estimulaba con pequeñas descargas ciertas regiones del cerebro mientras que los pacientes estaban bajo los efectos de una anestesia local (y el cráneo abierto). Los pacientes informaban de las sensaciones que tenían en cada estimulación. Al parecer experimentaban evocaciones vívidas cuando Penfield estimulaba sólo unas pocas neuronas del hipocampo. El hipocampo es una región esencial el la formación y evocación de recuerdos episódicos.
Aunque los científicos han estado explorando este fenómeno desde entonces, hasta ahora no se había demostrado directamente que la activación directa del hipocampo fuera suficiente para provocar evocaciones.
Susumu Tonegawa, Xu Liu y otros investigadores del MIT pensaron que se podía utilizar la optogenética para estudiar el fenómeno. La idea era demostrar la hipótesis de la codificación y almacenamiento de la memoria a través de un experimento con un modelo animal (ratones) que simulara las condiciones de Penfield y activarían los recuerdos de manera artificial.
Primero identificaron un conjunto específico de células nerviosas en el hipocampo que estaban activas sólo cuando el ratón realizaba un aprendizaje sobre un nuevo ambiente. Determinaron qué genes estaban activados en esas células y le acoplaron el gen foráneo ChR2, gen que expresa una proteína activada por la luz y usada en optogenética. Esto permitía marcar la red neuronal física asociada con un engrama específico para una experiencia específica.
Luego a estos ratones modificados les acoplaron unas fibras ópticas para así llevar pulsos de luz hasta una región específica del hipocampo. Esto permitía excitar con luz las neuronas con el gen ChR2. La clave estaba en que la proteína activada por la luz sólo se expresaba en las neuronas que estaban involucradas en el aprendizaje experimental de los ratones.
El ratón entraba en un ambiente específico y después de unos minutos de exploración recibía una descarga eléctrica en sus patas, con lo que asociaba ese ambiente con una mala experiencia y aprendía que ese ambiente le producía un daño. Si se volviera a meter al ratón en ese ambiente experimentaría miedo debido al recuerdo de su experiencia pasada con la descarga eléctrica. Incluso la sólo evocación de la experiencia debería de producir la misma reacción.
Pero en lugar de eso, los investigadores introdujeron pulsos de luz a través de las fibras ópticas mientras los ratones estaban tan tranquilos en un ambiente totalmente diferente. Entonces se activarían las neuronas etiquetadas con ChR2 produciendo la evocación de los recuerdos asociados con el primer ambiente. Observaron que el envío de luz provocaba que los ratones se pusieran a la defensiva guiados por el miedo.
Este montaje experimental no es más que un manera imaginativa de demostrar que los ratones recordaban su experiencia de ser electrocutados sin necesidad de que lo cuenten (hasta ahora no se han encontrado ratones que hablen). Los ratones experimentaban una evocación de un mal recuerdo y actuaban en consecuencia. Un recuerdo evocado a voluntad por los investigadores activando células específicas de su cerebro, aquellas en las que residía ese recuerdo.
Tonegawa afirma que, al contrario de lo que creía Descartes, este tipo de experimento demuestra que la mente puede ser estudiada por la ciencia y que fenómenos como la evocación de un recuerdo están basados en cambios de la materia.
Además del valor filosófico y de un mejor conocimiento de nuestra propia mente y de la esencia del ser humano, el resultado puede tener aplicaciones prácticas en el estudio de desórdenes neurodegenerativos y psiquiátricos.
Así que, amigo lector, ya sabe. Ese recuerdo de su infancia con su familia, su primer beso o el nacimiento de su hijo residen cada uno de ellos en un pequeño grupo de neuronas, nada más y nada menos.

La selección natural puede haber motivado las actividades físicas aeróbicas de alta intensidad en humanos



Recurrir a la evolución de nuestra especie en la sabana africana es un argumento muy socorrido. Este recurso da una explicación a muchos de los problemas a la civilización moderna. Esos seres del pasado fueron diseñados físicamente por la evolución para sobrevivir en un entorno muy diferente del actual y por eso tendríamos ciertos problemas ahora. Incluso los problemas de relaciones de pareja que tenemos en los tiempos modernos pueden explicarse en parte mirando hacia nuestro pasado africano.

E
n el último siglo nos hemos vuelto sedentarios y obesos, pero esas no son las condiciones bajo las que evolucionamos. Así por ejemplo, si vemos algo de comida tendemos a consumirla, porque en aquella época del pasado cualquier oportunidad de comer no debía ser desaprovechada so pena de perecer y no transmitir nuestros genes.
Nuestra afición por los dulces y grasas vienen también de aquel entonces, cuando estas sustancias eran muy escasas, pero eran tan energéticos como ahora. Tendemos a acumular tejido adiposo para así superar los periodos de escasez. Lo malo es que ahora no hay problemas de escasez de alimentos (en general) y, por tanto, no es extraño que los tiempos actuales el "homo computer" gane sobrepeso y tenga problemas de salud.
Si se hace un análisis de sangre a alguien que pase un poco de hambre se puede comprobar que todos los parámetros son buenos. Parece que estamos pensados para situaciones en las que la comida no sea abundante. Nuestros cuerpos han incorporado adaptaciones evolutivas recientes relacionadas con la invención de la agricultura y ganadería, pero, en esencia, físicamente somos los mismos que una vez corríamos detrás de las gacelas.
Se viene sugiriendo desde hace un tiempo que precisamente estamos diseñados para la carrera de fondo. Por mucho que nos empeñemos en creer que corremos rápido, es fácil darse cuenta que casi cualquier animal a cuatro patas nos gana en velocidad en distancias cortas. Sin embargo, en una carrera de fondo somos muy resistentes, principalmente porque conseguimos no sobrecalentarnos. Esto es además más importante en climas cálidos e incuso el reducido vello corporal también nos ayuda en este sentido (también para reducir el número de parásitos en otra adaptación evolutiva). No podemos ganar a la carrera a una gacela, pero si la perseguimos durante mucho tiempo ésta terminará agotada y la podamos capturar.
Se ha especulado que nuestros antepasados podrían estar incluso días persiguiendo una presa como técnica de caza en un ejercicio de baja intensidad, aunque este punto es controvertido.
Por tanto según una teoría, nuestros antepasados eran unos atletas aeróbicos diseñados para cazar, pero lo difícil es demostrar esta teoría y el nivel o intensidad de dicho ejercicio. David Raichlen (University of Arizona), Gregory Gerdeman y otros colaboradores han comprobado positivamente un aspecto de esta teoría. Según Raichlen el problema a la hora de comprobar esta hipótesis es que la mayoría de los mamíferos resistentes al ejercicio aeróbico prolongado son cuadrúpedos y es complicado comparar entre sí.
Si estamos pensados para las carreras de fondo o el ejercicio aeróbico en general, quizás la evolución haya dispuesto de algún incentivo al respecto.
Las personas que realizan este tipo de ejercicio con regularidad informan que se sienten más contentas y animadas. Algunos de ellos parecen incluso encontrarse enganchados al ejercicio como un drogadicto a su sustancia. ¿Hay alguna dependencia química en este asunto o sólo se trata de una pose? Hay gente que incluso sugiere que se haga ejercicio para combatir la depresión o el estado de tristeza o desánimo, lo malo es que a las personas en esa situación no les apetece ni lo más mínimo hacer ejercicio de ningún tipo.
Al parecer el estado de ánimo positivo de los atletas se debe a los endocannabinoides que se producen en nuestro organismo de forma natural y que operan sobre los centros de recompensa del cerebro. Estos investigadores se han centrado en este aspecto a la hora de realizar su investigación. Para ello han realizado una comparación entre las respuestas de humanos, perros y hurones al ejercicio aeróbico.
Según sus conclusiones los animales que evolucionaron para resistir el ejercicio aeróbico intenso se benefician del efecto de los endocannabinoides, mientras que los otros animales no experimentan placer con dicho ejercicio. La interpretación es que la evolución habría suministrado un incentivo para promover el ejercicio aeróbico en humanos.
Los investigadores tomaron muestras de sangre tanto de los voluntarios humanos, como de perros y hurones antes y después de realizar un ejercicio aeróbico intenso. Analizaron dichas muestras en busca de endocannabinoides y encontraron que en humanos y perros el nivel de anandamina (un endocannabinoide) se disparaba después del ejercicio, mientras que en los hurones eso no ocurría.
Los test psicológicos que realizaron esos mismos humanos indicaban además que estos voluntarios estaban más contentos después del ejercicio.
Según Raichlen el resultado sugiere que la selección natural puede haber motivado las actividades físicas de alta intensidad en grupos de mamíferos que evolucionaron para realizar este tipo de actividad aeróbica, en lugar de ejercicios de baja intensidad como andar y correr largas distancias.
Por otra parte añade que este resultado tampoco sirve para resolver el problema de obesidad que aqueja al hombre moderno. Según él una persona sedentaria es difícil que deje sus hábitos para súbitamente experimentar las agradables sensaciones del ejercicio físico, porque probablemente no produce suficientes endocannabinoides. Puede que este tipo de personas no sean adecuadas para alcanzar la intensidad de ejercicio necesaria para tener la sensación de recompensa. Sin embargo, sugiere que quizás este tipo de personas pueden ser ayudadas a alcanzar la forma física necesaria como para que puedan cruzar el umbral a partir del cual ya pueden ser motivadas por los efectos positivos de los endocannabinoides.
Sugiere además que el ejercicio físico puede ser una solución barata para ciertas condiciones médicas, puede mejorar nuestro estado mental además de los conocidos beneficios para el sistema cardiovascular.

El asteroide 2012 EG5 se acerca a la Tierra



El próximo 1 de abril, el asteroide 2012 EG5 pasará a 0,6 LD, es decir, a 0,6 distancias lunares, de nuestro planeta. Su diámetro es de 60 metros y está clasificado como un asteroide NEO tipo Apolo.

E
n astronomía, los objetos próximos a la Tierra (más conocidos por su acrónimo en inglés NEO, Near Earth Object) son cometas y asteroides atrapados por la atracción del Sol o los distintos planetas, en órbitas que podrían hacerles penetrar en las cercanías de la Tierra.
Asteroide Apolo es cualquiera de los asteroides con una órbita cuyo semieje mayor sea mayor que el de la Tierra (1 UA) y cuyo perihelio sea menor que el afelio de la Tierra (1,017 UA). Este grupo de asteroides lleva el nombre del asteroide (1862) Apolo y es uno de los tres grupos de asteroides que son asteroides cercanos a la Tierra.
Este asteroide no supone ningún peligro para nuestro planeta.

miércoles, 28 de marzo de 2012

Aparece una nueva teoría sobre las extinciones masivas



Según una teoría los cambios en el ambiente marino relacionados con el nivel del mar y los sedimentos explicarían todas las extinciones masivas.

H
a habido cinco episodios de extinción masiva en la Tierra en los últimos 500 millones de años. Sobre estas extinciones masivas hay diversas hipótesis, desde impactos de meteoritos a vulcanismo. Algunas no son muy satisfactorias, no explican ciertas cosas y hay todavía misterios sin resolver. Así por ejemplo, no explican por qué ciertos animales han sobrevivido a las diversas extinciones y otros no, o el porqué de la casi equidistancia temporal de estos eventos. Recordemos que los datos que disponemos sobre estos eventos proceden del registro fósil, y principalmente de la vida marina, siempre más abundante y más susceptible de dejar huellas fósiles, sobre todo cuando los animales tiene conchas o partes duras.
Ahora un nuevo estudio, publicado el 15 de junio de 2008 en la revista Nature, sugiere que la explicación para todas estas extinciones está en el océano y, en particular, en la relación entre el nivel del mar y los sedimentos a lo largo del tiempo geológico.
Según Peters Shanan, de la Universidad de Wisconsin-Madison, las expansiones y contracciones de esos ambientes tienen profundos efectos sobre la vida en la Tierra.
Según Peters, los cambios en el ambiente marino relacionados con el nivel del mar ejercen una influencia sobre las tasas de extinción que, en general, determinan la composición de la vida en los océanos.
Los científicos piensan que desde el advenimiento de la vida en la Tierra, hace 3.500 millones de años, puede haber habido 23 eventos de extinción masiva. Pero durante la mayor parte de ese tiempo solamente había formas de vida simples (unicelulares) que dejaron pocas pruebas fósiles. Durante los últimos 540 millones de años, periodo en el cual ya había vida compleja, se produjeron cinco extinciones masivas bien documentadas, principalmente de plantas y animales marinos, en las que se llegaron a extinguir un porcentaje de especies que va del 75% al 95% del total. Aunque hubo otros eventos de extinción, éstos no alcanzaron las proporciones de estas cinco extinciones masivas.
En su mayor parte, los científicos no han podido explicar bien las causas de esos dramáticos acontecimientos. En el caso de la desaparición de los dinosaurios los científicos tienen una pista: un cráter de impacto. Según la teoría dominante los dinosaurios (y muchas otras especies del Cretácico) fueron eliminados como resultado del impacto de un gran meteorito sobre la Tierra. Pero las causas de las otras extinciones masivas no han sido bien explicadas a pesar de que los paleontólogos han intentado explicar este misterio durante los últimos 60 años. No obstante, se han propuesto diversas teorías.
Arnold I. Miller, de la Uversidad de Cincinnati, dice que el nuevo estudio es sorprendente, ya que establece una relación clara entre la periodicidad de los eventos de extinción masiva y los cambios en el nivel del mar y los sedimentos: "A lo largo de los años, los investigadores han tratado con bastante desdén la idea de que las extinciones masivas marinas, como la gran extinción del Pérmico tardío, podrían estar vinculadas con una disminución del nivel del mar, a pesar de que estos descensos se sabe que han ocurrido muchas veces a lo largo de toda la historia de la vida. La clara relación que este estudio documenta motivará a muchos a reconsiderar sus anteriores puntos de vista. "
Peters puede medir dos tipos principales de ambientes de plataforma marina conservados en la roca del registro geológico: uno derivado de la erosión de la tierra y otro compuesto principalmente de carbonato de calcio, que es producido localmente por los organismos con concha o por procesos químicos. Las diferencias físicas entre estos dos tipos de ambientes marinos tienen importantes consecuencias biológicas. Peters ha notado diferencias en la estabilidad de los sedimentos, la temperatura y la disponibilidad de nutrientes y luz solar.
En el transcurso de cientos de millones de años los océanos del mundo se han expandido y contraído en respuesta a la tectónica y a los cambios en el clima. Hubo períodos de la historia del planeta en los que vastas extensiones de los continentes fueron inundadas por mares someros, como el que anegaba parte de lo que hoy es Norteamérica durante la época de los dinosaurios.
Según estos mares se drenaban los animales que los poblaban se extinguieron, cambiando también las condiciones en las plataformas marinas, donde la vida exhibió su mayor diversidad en forma de seres como las almejas y los caracoles.
El nuevo estudio no se opone a otras influencias físicas a la extinción, como las erupciones volcánicas o los impactos de asteroides, ni a las influencias biológicas como las enfermedades y la competencia entre las especies. Pero lo que sí hace, sostiene Peters, es proporcionar un vínculo común para eventos de extinción en masa durante un tramo de la historia de la Tierra.
Según Peters los científicos tienden a tratar las principales extinciones en masa de forma aislada. Este trabajo las une en términos de un mecanismo de forzamiento, y también nos dice algo acerca de quien sobrevive y quien no a lo largo de estas fronteras. También estos resultados abogan porque una fracción importante de cambio en las tasas de extinción está controlada por un solo parámetro ambiental.

¿Es posible observar entrelazamiento cuántico a simple vista?



in duda la Mecánica Cuántica (MC) ha tenido mucho éxito en la Física y es capaz de predecir, por ejemplo, la longitud de onda de un fotón emitido desde el primer estado excitado hasta el estado fundamental por un átomo de hidrógeno. Las líneas espectrales de las estrellas, correspondientes a los distintos elementos presentes en su atmósfera, pueden ser predichas con exactitud. Pero esta parte de la MC es ya tan normal que casi no nos fascina. Lo que nos cuesta creer son los efectos más extraños que predice. Uno de ellos es el entrelazamiento cuántico, mecanismo mediante cual una o más partículas pueden ponerse de acuerdo para tener el mismo estado cuántico. Lo más fascinante es que el colapso de la función de onda de uno de ellas al efectuar una medida produce el colapso de la otra.

P
artículas entrelazadas son, precisamente, las que se usan en experimentos tipo EPR y en los prototipos muy simples de computadores cuánticos con los que se está experimentando ahora. La última plusmarca de computadores cuánticos consiste en un sistema capaz de mantener 14 qubits.
Pero estos efectos extraños no suelen manifestarse en el mundo macroscópico, sino en el microscópico de partículas y átomos.
En los últimos años hemos asistido al empuje de los límites cuánticos hasta que ese tipo de fenómenos se han manifestado en el mundo mesoscópico. Así por ejemplo, recientemente se creo un tambor de Schördinger en una superposición de estados vibracionales que "casi" se podría ver a simple vista.
El ser humano necesita ver para creer, aunque en ciencia se ve últimamente más indirectamente a través de detectores que directamente con lo ojos. Nicolas Gisin, de la Universidad de Ginebra, se puso a pensar cómo diseñar un experimento en el que se pudiera ver entrelazamiento cuántico directamente con los ojos. Se inspiró en un experimento de Fabio Sciarrino, de la Universidad de la Sapienza en Roma, realizado en 2008. En los experimento al uso sobre entrelazamiento se usan unos pocos fotones que obviamente el ojo humano no puede ver. Pero en el experimento de Sciarrino conseguían amplificar un fotón para crear un chaparrón de miles de fotones con el mismo estado cuántico. Y el ojo humano sí puede ver miles de fotones.
Así que Gisin y sus colaboradores usaron esa idea para montar un experimento en el que se entrelazaban dos fotones, uno lo enviaban a un detector habitual y el otro se amplificaba para producir un chaparrón de fotones con el mismo estado de polarización que era detectado por un ojo humano.
El haz de luz producido por el amplificador podía aparecer en dos posiciones y esto delataba el estado de polarización. Esta observación básicamente sería una medida que colapsaría el estado a una de esas posiciones y determinaría el estado del fotón que había sido enviado al detector. Estos investigadores se sentaron en la oscuridad del laboratorio para supuestamente observar a simple vista los efectos del entrelazamiento cuántico. Los resultados obtenidos estaban de acuerdo con los resultados de Sciarrino y con los predichos por la MC.
Pero hay una pega. Lo que estos investigadores vieron no fueron micro-macro entrelazamientos. Asumieron que el test de Bell no sería válido para objetos macroscópicos así que deliberadamente diseñaron el experimento para que el estado del segundo fotón fuera medido antes de ser amplificado, el decir, el colapso se efectuaba antes de ver nada con los ojos y ese colapso rompía el entrelazamiento antes de dicho acto de observación con los ojos.
La razón es que no hay detector, humano o electrónico, perfecto, y algunos fotones se pierden durante el experimento. Esto no afecta al test de Bell si hay dos fotones, pero si entran en juego muchos más este efecto distorsiona grandemente los resultados. Independientemente de si el grupo de Sciarrino creó o no micro-macro entrelazamientos en 2008, el test de Bell daría resultados positivos, indicativos la ausencia de entrelazamiento.
Sciarrino no se muestra sorprendido por los nuevos resultados y ya está trabajando en una manera de verificar la existencia de micro-macro entrelazamientos sin recurrir al test de Bell. Experimentos que no podrán hacer uso del ojo humano de manera directa so pena de que el láser queme la retina.
Aunque el grupo de Gisin no ha visto micro-macro entrelazamientos, los resultados procedentes de los detectores confirman una vez más la existencia de micro-micro entrelazamiento.
Parece ser que cuesta ver gatos de Schördinger macroscópicos, quizás haya que esperar más o quizás no sea posible. El tiempo lo dirá.