Neutrinos – Primer paso para descubrir por qué existe la materia

Neutrinos: la Luz Invisible

Primer paso para descubrir por qué existe la materia

Colocada la primera piedra de un gran experimento que puede cambiar nuestro conocimiento del Universo

Más de 1.000 científicos e ingenieros de 30 países, entre ellos España, participan en un gran experimento internacional que puede cambiar nuestro conocimiento del Universo. Tardará una década en construirse, pero la primera piedra de su infraestructura acaba de colocarse en USA. El experimento estudiará las propiedades de las misteriosas partículas llamadas neutrinos, que pueden desvelarnos cómo funciona el Universo y por qué existe la materia.

neutrinos-1.jpg

Los científicos, en el inicio de las obras. Foto: Reidar Hahn, Fermilab.

Con una ceremonia celebrada el viernes pasado en el Laboratorio Subterráneo de Sanford (SURF) en Lead, Dakota del Sur, Estados Unidos, un grupo de dirigentes políticos, científicos e ingenieros de todo el mundo marcó el inicio de la construcción de un gran experimento internacional que podría cambiar nuestro conocimiento del Universo.

Se trata de la instalación Long-Baseline Neutrino Facility (LBNF), que albergará el experimento internacional DUNE(Deep Underground Neutrino Experiment), que será construido y operado por más de 1.000 científicos e ingenieros de 30 países, entre ellos España.

Cuando esté finalizado, LBNF/DUNE será el mayor experimento construido en Estados Unidos para estudiar las propiedades de las misteriosas partículas llamadas neutrinos. Desvelar los misterios de estas partículas podría ayudarnos a explicar mejor cómo funciona el Universo y por qué existe la materia.

Instituciones de decenas de países contribuirán a la construcción de los componentes de DUNE. Este experimento atraerá a estudiantes y jóvenes investigadores de todo el mundo, formando a la próxima generación de científicos que liderará este campo de investigación.

El laboratorio Fermilab, situado a las afueras de Chicago, producirá un haz de neutrinos y lo enviará a 1.300 kilómetros a través de la Tierra hasta SURF, donde se construirán cuatro grandes detectores de una altura de 4 pisos y 70.000 toneladas de argón líquido bajo la superficie para atrapar estos neutrinos.

El misterio de los neutrinos

Los científicos estudiarán las interacciones de los neutrinos en los detectores para entender mejor los cambios que sufren estas partículas cuando viajan de un punto a otro en un abrir y cerrar de ojos.

Desde su descubrimiento hace más de 60 años, los neutrinos han demostrado ser la partícula subatómica más sorprendente, y el que oscile entre tres estados diferentes es una de sus mayores sorpresas. Este hallazgo comenzó con un experimento de neutrinos solares dirigido por Ray Davis en los años 60, y llevado a cabo en la misma mina subterránea que ahora albergará a LBNF/DUNE. Davis obtuvo el Premio Nobel de Física en 2002 por este experimento.

Los científicos de DUNE también buscarán diferencias en el comportamiento entre los neutrinos y sus réplicas de antimateria, los antineutrinos, lo que nos podría dar pistas sobre por qué vivimos en un Universo dominado por la materia. DUNE también observará los neutrinos producidos en las explosiones estelares, lo que revelaría la formación de estrellas de neutrones y agujeros negros. También investigará si los protones viven para siempre o se desintegran eventualmente en otras partículas, acercándonos a la realización del sueño de Einstein: la Teoría de la Gran Unificación.

Pero antes se tiene que construir la instalación, algo que ocurrirá en la próxima década. Los operarios comenzarán la construcción excavando más de 870.000 toneladas de rocas para crear las enormes cavernas subterráneas del detector DUNE. Mientras, se construyen grandes prototipos de DUNE en el laboratorio europeo de física de partículas (CERN), uno de los mayores socios del proyecto, y la tecnología desarrollada para estas versiones más pequeñas se probará y ampliará cuando se fabriquen los grandes detectores de DUNE.

Esta instalación está financiada por la Oficina de Ciencia del Departamento de Energía de los Estados Unidos, en colaboración con el CERN y otros socios de 30 países. Los científicos que participan en DUNE proceden de instituciones científicas de Armenia, Brasil, Bulgaria, Canadá, Chile, China, Colombia, Corea del Sur, Estados Unidos, España, Finlandia, Francia, Grecia, Holanda, India, Irán, Italia, Japón, Madagascar, México, Perú, Polonia, República Checa, Rumanía, Rusia,  Suecia, Suiza, Turquía, Ucrania y Reino Unido.

neutrinos-2

Fermilab, situado a las afueras de Chicago, producirá un haz de neutrinos y lo enviará a 1.300 kilómetros a través de la Tierra hasta SURF, en Dakota del Sur. Imagen: Fermilab.

Amplia participación española

Cuatro centros de investigación españoles forman parte de la colaboración científica del experimento DUNE: el Centro de Investigaciones Energéticas Medioambientales y Tecnológicas (CIEMAT), el Instituto de Física Teórica (IFT, UAM-CSIC), el Instituto de Física de Altas Energías (IFAE) y el Instituto de Física Corpuscular (IFIC, CSIC-UV).

Sus contribuciones abarcan tanto el diseño y la construcción del experimento, en particular de los detectores que se instalarán en el Laboratorio Subterráneo de Sanford, como los estudios para optimizar la explotación científica del experimento.

Un paso previo y crucial a la construcción de estos detectores en SURF es fabricar prototipos para probar la tecnología. Esta tarea, donde las instituciones españolas también participan, se lleva a cabo en el CERN con la construcción de dos grandes prototipos, llamados ProtoDUNE single phase (ProtoDUNE-SP) y ProtoDUNE dual phase (ProtoDUNE-DP), que se probarán con haces de partículas cargadas a partir de 2018.

Los grupos de investigación en neutrinos del CIEMAT de Madrid y del IFAE de Barcelona son responsables del sistema de detección de luz de ProtoDUNE-DP, formado por 36 fotomultiplicadores que detectan y amplifican la luz producida por las interacciones de partículas en el detector y la convierten en una señal eléctrica.

El CIEMAT lleva a cabo la caracterización de estos fotomultiplicadores para comprender su respuesta ante distintas señales de luz. Además, estos requieren un revestimiento especial que permite cambiar la luz invisible producida en el argón a una longitud de onda visible por los detectores, tarea que realiza el IFAE. El CIEMAT coordina el grupo de trabajo de DUNE dedicado a la detección de neutrinos procedentes de supernovas, donde la señal de luz producida por los fotomultiplicadores es vital al indicar el comienzo de los sucesos originados por la explosión de una supernova.

Desintegración del protón

Por otro lado, el grupo experimental de física de neutrinos del IFIC (CSIC-Universidad de Valencia) lidera el sistema de instrumentación criogénica del detector ProtoDUNE-SP, así como su sistema de monitorización y control de parámetros fundamentales como temperatura, presión, nivel y pureza del argón. Además, el grupo del IFIC coordina el grupo de trabajo de la colaboración DUNE sobre la desintegración del protón, estudiando la sensibilidad del experimento para medir este fenómeno que aún no ha sido detectado. Por otra parte, los científicos e ingenieros del IFIC trabajan también en el desarrollo de herramientas para el análisis de datos de ProtoDUNE-SP y DUNE.

Por su parte, el IFT (Universidad Autónoma de Madrid-CSIC), con contribuciones de miembros del IFIC, lidera la realización de simulaciones sobre las capacidades de DUNE para determinar parámetros aún desconocidos, como el que codifica la posible diferencia de comportamiento entre neutrinos y antineutrinos, clave para entender el exceso de materia sobre antimateria en el Universo. DUNE observará haces de neutrinos con una intensidad y precisión sin precedentes, lo que permitirá explorar respuestas a preguntas fundamentales de la física actual.

Por ejemplo, comprobando la existencia de neutrinos más pesados pero con interacciones aún más débiles que los conocidos hasta ahora, o de nuevas interacciones de los neutrinos. DUNE también podría desentrañar la naturaleza de las misteriosas partículas que forman la materia oscura del Universo, que podrían producirse junto con los neutrinos en el haz producido en Fermilab y ser descubiertas en el detector más cercano. Estas simulaciones son fundamentales en esta etapa del experimento para identificar las posibles modificaciones en el diseño que optimizarían la sensibilidad del mismo

Fuente: Tendencias21

HOLOGRAMAS CON ONDAS WIFI

Las ondas wifi sirven para crear hologramas

Permiten crear una imagen 3D de una persona usando únicamente la red doméstica

Investigadores alemanes han conseguido fabricar un holograma usando ondas wifi en vez de láser. El holograma refleja la imagen tridimensional de un objeto en un ordenador, a partir de las ondas wifi. En el futuro permitirá crear el holograma de una persona usando únicamente la red doméstica y localizarla en un edificio a través del wifi.

Innvestigadores alemanes han conseguido utilizar las ondas wifi que circulan en una habitación para crear un holograma de un objeto presente en esa sala. La tecnología permitiría en el futuro crear un holograma de una persona usando únicamente las ondas wifi de la red doméstica, sin necesidad de estar presente en la misma habitación o vivienda.

De momento la tecnología está en fase experimental, pero sus creadores piensan que en cinco o diez años se podrán usar las ondas wifi para localizar a una persona dentro de un edificio, más que para comunicarse con ella.

Wifi es la abreviatura de Wireless Fidelity, un conjunto de normas para redes inalámbricas que permiten la comunicación entre sus componentes mediante ondas electromagnéticas, que son las que han servido para la fabricación del holograma en esta investigación.

Las ondas wifi están separadas entre sí a una distancia menor que la de las ondas de radio y mayor que la distancia entre microondas, lo que les otorga una frecuencia única que no puede ser alterada por otras señales.

La comunicación mediante ondas wifi se consigue utilizando la cresta y la depresión de las ondas para enviar información, representando la cresta el 1 y la depresión del 0. De esta forma, las cadenas de 1 y 0 se pueden traducir a mensajes (letras, números y códigos) a través de los cuales se puede navegar por Internet.

Dimensión inesperada 

La nueva tecnología otorga a las ondas wifi una nueva dimensión inesperada, ya que podrían usarse para observar el interior de una habitación usando únicamente las ondas wifi y su incidencia sobre los objetos presentes en la sala.

La proeza se consigue creando un holograma de la habitación con ondas wifi. Los investigadores, Friedemann Reinhard y Philipp Holl, han sustituido el rayo láser que se usa para fabricar holografías por las ondas wifi. De esta forma, han construido un holograma de una delgada cruz de aluminio de un metro de ancho, según un artículoaceptado para publicación en Physical Review Letters.

La holografía es una técnica avanzada de fotografía que se basa en la creación de hologramas. Un holograma de un objeto o de una escena es un registro plano, realizado con un rayo láser sobre una película fotosensible, de la interferencia que se produce entre dos haces de luz coherentes cuando la luz de uno de los haces se refleja en el objeto. Cuando la película recibe la luz desde una perspectiva adecuada se proyecta una imagen tridimensional: el holograma.

Tal como se explica al respecto en la revista Science, el holograma de la cruz se basa en las características de las ondas wifi, a través de las cuales los investigadores alemanes pudieron construir el holograma de la cruz en un ordenador.

Un transmisor wifi fue colocado en una habitación, a 90 centímetros de la parte posterior de la cruz. Asimismo, un receptor wifi fue colocado a 1,4 metros de la parte delantera de la cruz, con la finalidad de que pudiera representar el papel de una placa fotográfica, capaz de capturar imágenes de la cruz. Un segundo receptor fijo fue colocado a una distancia mayor, a pocos metros, para tener una visión directa del emisor.

Nuevo tipo de holograma 

Lo que quedaba por hacer era relativamente sencillo: fabricar un holograma con las señales que llegaban a ambos receptores. No es un holograma tal como se consigue con un láser, ya que en realidad no están capturando fotográficamente la imagen, pero el resultado permite observar el objeto y sus formas. La cruz podía observarse en la pantalla del ordenador, sin ninguna cámara presente en la habitación.

Evidentemente, se tienen que dar determinados requisitos para que esta técnica holográfica basada en wifi funcione, pero esta investigación constituye un primer paso que puede aportar interesantes innovaciones en el campo de las ondas wifi.

También habría que ver si la técnica funciona estando los objetos situados en una habitación colindante al espacio donde está en emisor de ondas wifi, ya que estas ondas tienen un alcance de unos veinte metros en interiores.

Los investigadores señalan que ya existen algunas formas de utilizar señales wifi para rastrear el movimiento de personas dentro de un edificio, y que gracias a su experimento, estas técnicas evolucionarán rápidamente llevando a usar las ondas wifi más para localizar personas que para comunicarse con ellas. Dentro de 5 o 10 años.

Fuente: Tendencias21

El futuro de la humanidad en manos de la IA

Nick Bostrom ¿Qué sucede cuando nuestras computadoras se vuelven más inteligentes que nosotros?

Un equipo de expertos investiga en un Instituto de Oxford los riesgos de extinción del ser humano.

Necesitamos sabiduría para enfrentar el futuro. Para saber si los progresos tecnológicos de vanguardia van en la dirección adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificación de microbios letales o la creación de mentes digitales más inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.

Al frente de un heterodoxo grupo de filósofos, tecnólogos, físicos, economistas y matemáticos se encuentra un filósofo formado en física, neurociencia computacional y matemáticas, un tipo que desde su adolescencia se encontró sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 años que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, proteínas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo. Se llama Nick Bostrom, y es el autor deSuperinteligencia: Caminos, Peligros, Estrategias, un libro que ha causado impacto, una reflexión acerca de cómo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo explícito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de filósofos como Derek Parfit o Peter Singer, de físicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, además, se coló en la lista de los libros más vendidos que elabora The New York Times Book Review. La ONU le reclama para que exponga su visión, sociedades científicas como The Royal Society le invitan a dar conferencias, una de sus charlas TED lleva ya contabilizados más de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.

El Instituto para el Futuro de la Humanidad —FHI, siglas en inglés— es un espacio con salas de reuniones bautizadas con nombres de héroes anónimos que con un gesto salvaron el mundo —como Stanislav Petrov, teniente coronel ruso que evitó un incidente nuclear durante la Guerra Fría— donde fluyen las ideas, los intercambios de impresiones, donde florecen hipótesis y análisis. Sobre todo, por las tardes-noches: el jefe es, como él mismo confiesa, un noctámbulo; se queda en la oficina hasta las dos de la madrugada.

“En el momento en que sepamos cómo hacer máquinas inteligentes, las haremos”, afirma Bostrom, en una sala del Instituto que dirige, “y para entonces, debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico”. Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos. En la transición hacia esa nueva era habrá que tomar decisiones. Inocular valores morales a las máquinas, tal vez. Evitar que se vuelvan contra nosotros.

A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos días lee intensivamente sobre machine learning (aprendizaje automático, rama de la inteligencia artificial que explora técnicas para que las computadoras puedan aprender por sí solas) y economía de la innovación. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. “El tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos”.

La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopolítica podría ser un peligro

Estudiar, formular hipótesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras vileda con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de Un mundo feliz, la visionaria distopía firmada por Aldous Huxley en 1932. Un total de 16 profesionales trabajan aquí. Publican en revistas académicas, hacen informes de riesgos para compañías tecnológicas, para gobiernos (por ejemplo, el finlandés) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial —uno de cuyos representantes andaba la semana pasada por las oficinas del FHI—. Niel Bowerman, director adjunto, físico del clima y exasesor del equipo político de Energía y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian cómo de grande es un problema, cuánta gente trabaja en él y cómo de fácil es realizar progresos en esa área para determinar los campos de estudio.

Bostrom es el hombre que comanda el Instituto, el que decide por dónde se transita, el visionario. Desarrolla su labor gracias al impulso filantrópico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impulsó el FHI hace diez años para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qué pensar.

Al filósofo sueco, que formó parte en 2009 de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. “Cuanto más largo sea el plazo”, dice, «mayores son las posibilidades de un escenario de extinción o de era posthumana”. Pero existen peligros a corto plazo. Los que más le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.

En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo más claro lo presentan los drones y las armas letales autónomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. “La gente parece haber dejado de preocuparse por ella; un cambio para mal en la situación geopolítica podría convertirse en un gran peligro”.

“Hay una carrera entre nuestro progreso tecnológico y nuestra sabiduría, que va mucho más despacio

La biotecnología, y en particular, la posibilidad que ofrece el sistema de edición genética CRISPR de crear armas biológicas, también plantea nuevos desafíos. “La biotecnología está avanzando rápidamente va a permitir manipular la vida, modificar microbios con gran precisión y poder. Eso abre el paso a capacidades muy destructivas”. La tecnología nuclear, señala, se puede controlar. La biotecnología, la nanotecnología, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho daño.

Superada su etapa transhumanista —fundó en 1998 junto a David Pearce la Asociación Mundial Transhumanista, colectivo que aboga de modo entusiasta por la expansión de las capacidades humanas mediante el uso de las tecnologías—, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas —Google compró en 2014 la tecnológica DeepMind— y Estados pugnan por hacerse con un sector que podría otorgar poderes inmensos, casi inimaginables.

Uno de los escenarios que proyecta en su libro, cuya versión en español publica el 25 de febrero la editorial Teell, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en inglés). Se produce una explosión de inteligencia. Las máquinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a sí mismas. De desarrollar grandes habilidades de programación, estratégicas, de manipulación social, de hacking. Pueden querer tomar el control del planeta. Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podrán mostrarse inicialmente dóciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. Hackeardrones, armas. Liberar robots del tamaño de un mosquito elaborados en nanofactorías que producen gas nervioso, o gas mostaza.

Esta es simplemente la síntesis del desarrollo de un escenario. Pero, como decía la crítica de Superinteligencia de la revista The Economist, las implicaciones de la introducción de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. “Antes, muchas de estas cuestiones, no solo las del AI, solían estar en el campo de la ciencia ficción, de la especulación”, dice Bostrom, “para mucha gente era difícil de entender que se pudiera hacer trabajo académico con ello, que se podían hacer progresos intelectuales”.

El libro también plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una economía que produce inimaginables cotas de riqueza, descubrimientos tecnológicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en múltiples trabajos.

— ¿Los robots nos enriquecerán o nos reemplazarán?

— Primero, tal vez nos enriquezcan. A largo plazo ya se verá. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, ¿cómo se mantiene? Lo cual se convierte en una cuestión política, ¿se piensa en una garantía de renta básica? ¿En un Estado del Bienestar? Si esta tecnología realmente hace que el mundo se convierta en un lugar mucho más rico, con un crecimiento más rápido, el problema debería ser fácil de resolver, habría más dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en día, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente inútil. Se necesitaría cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos históricos: los aristócratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los niños parece tener mucho sentido incluso si no hacen nada útil. Soy optimista: la cultura se puede cambiar.

A Bostrom se le ha acusado desde algunos sectores de la comunidad científica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. “Sus visiones sobre la edición genética o sobre la mejora del humano son controvertidas”, señala Miquel-Ángel Serra, biólogo que acaba de publicar junto a Albert Cortina Humanidad: desafío éticos de las tecnologías emergentes.“Somos muchos los escépticos con las propuestas que hace”. Serra, no obstante, deja claro que Bostrom está ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.

— ¿Proyecta usted una visión demasiado apocalíptica en su libro de lo que puede ocurrir con la humanidad?

— Mucha gente puede quedarse con la impresión de que soy más pesimista con la AI de lo que realmente soy. Cuando lo escribí parecía más urgente tratar de ver qué podía ir mal para asegurarnos de cómo evitarlo.

— Pero, ¿es usted optimista con respecto al futuro?

— Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podríamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.

— O sea, que hay cosas que hacer. ¿Cuáles?

— Estamos haciendo todo lo posible para crear este campo de investigación de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones.

Fuente: El País

El Nacimiento de la Astronomía de Ondas Gravitacionales

CIENTIFICOS DETECTAN POR PRIMERA VEZ ONDAS GRAVITACIONALES

Hoy es un día histórico para la ciencia. Hoy se ha anunciado la detección directa ondas gravitacionales, una de las principales predicciones de la Teoría de la Relatividad General de Albert Einstein. El descubrimiento nos abre una nueva ventana a la realidad que nos permitirá estudiar los sucesos más energéticos del Universo de forma totalmente diferente. Ya somos capaces de “ver” directamente algo tan sorprendente como es la fusión de dos agujeros negros situados a millones de años luz de distancia. ¿Y cuál es el aspecto de una onda gravitacional creada por la brutal colisión de dos agujeros negros? Pues ahora, al fin, podemos confirmar que tienen el siguiente aspecto:

43434341

Ondas gravitacionales de la señal GW150914 detectadas por los dos interferómetros de LIGO (LIGO).

Después de semanas de rumores, el equipo del observatorio Advanced LIGO (Advanced Laser Interferometer Gravitational-Wave Observatory) ha confirmado que, efectivamente, el 14 de septiembre de 2015 los dos interferómetros del experimento detectaron la sutil deformación del espaciotiempo causada por el paso de ondas gravitacionales creadas por la colisión de dos agujeros a 1300 millones de años luz de la Tierra, uno de 36 masas solares y otro de 29. La fusión creó un nuevo agujero negro de 62 masas solares, o lo que es lo mismo, emitió nada más y nada menos que el equivalente a 3 masas solares en forma de ondas gravitacionales. Los dos instrumentos, uno situado en Livingston (Louisiana) y el otro en Hanford (Washington), detectaron la misma señal, denominada GW150914, con un intervalo de siete milisegundos de diferencia, confirmando de paso que las ondas se mueven a la velocidad de la luz, tal y como había predicho Einstein.

Un hecho que ha pasado desapercibido en las noticias de la mayoría de medios es que la señal GW150914 confirma también por primera vez la existencia de los agujeros negros. Hasta ahora las únicas pruebas directas de la existencia de estos astros era su efecto en otros objetos astronómicos como estrellas o gases, pero todas ellas eran bastante discutibles. Sin embargo, esta señal es una prueba inequívoca de que son reales, pues solo dos agujeros negros estelares son capaces de producir las ondas gravitacionales observadas.

captura-de-pantalla-2016-02-11-a-las-22-45-09

Modelo numérico de la señal GW150914. La escasa separación entre los objetos es una prueba inequívoca de que se trataba de agujeros negros (Abbott et al.).

La fusión de estos dos agujeros negros fue tan increíblemente violenta que durante un momento emitió más energía que la luz combinada de todas las estrellas del Universo juntas (!!). El patrón de las ondas detectadas concuerda casi perfectamente con los modelos teóricos. Y no es una cuestión trivial, porque en las últimas décadas habían surgido varios modelos teóricos alternativos que predecían ondas ligeramente distintas a las predichas por la Relatividad General. De hecho, la señal es tan “perfecta” que los investigadores de LIGO pensaron en un primer momento que era una “inyección”, es decir, una señal falsa introducida en el sistema para comprobar que el personal y los equipos del detector están alerta.

Como se ve en las imágenes, la longitud de onda de las ondas disminuye a medida que los agujeros se acercan, al mismo tiempo que su amplitud aumenta hasta culminar en la brutal fusión final. Midiendo la intensidad de la onda, los investigadores han determinado que el suceso se produjo a una distancia de entre 750 y 1860 millones de años luz. En cuanto a la posición, los dos detectores de LIGO no tienen la suficiente resolución espacial como para determinar de dónde procede exactamente la señal, pero se puede estimar de forma aproximada como vemos en la siguiente imagen:

44ee

Región del cielo de donde pudo venir la señal ().

Vídeo a cámara lenta reconstruyendo la fusión de los dos agujeros negros que causaron la señal GW150914:

Vídeo de la apariencia aproximada de la fusión en luz visible (los agujeros negros aparecen sin discos de acreción):

El camino hasta el anuncio de hoy ha sido largo y complejo, un auténtico homenaje al tesón y la fuerza de voluntad del ser humano. Einstein predijo la existencia de las ondas gravitacionales en 1916 dentro del marco de la Relatividad General, pero no sería hasta los años 60 cuando se crearon los primeros detectores. Fue entonces cuando Joseph Weber ideó un instrumento con masas suspendidas que debían vibrar al paso de una onda gravitacional. Lamentablemente, estos primeros instrumentos eran muy poco sensibles para detectar nada. Todo cambió en 1974 cuando Joseph Taylor y Russell Hulse detectaron de forma indirecta las primeras ondas gravitacionales emitidas por una pareja de estrellas de neutrones. “¿En 1974? Pero ¿no habíamos dicho que es ahora cuando se habían descubierto estas ondas”, puede que se pregunte más de uno. Sí, pero fíjate que hemos dicho de forma “indirecta”. El sistema binario de estrellas de neutrones PSR B1913+16 se acerca cada vez más al perder energía en forma de ondas gravitacionales y, gracias a que somos capaces de medir su periodo orbital con enorme precisión, es posible comprobar que el ritmo de acercamiento concuerda con lo predicho por la Relatividad General. O sea, una prueba indirecta. Pero lo importante es que PSR B1913+16 demostró a la comunidad científica que las ondas gravitatorias estaban ahí. Ahora había que detectarlas.

captura-de-pantalla-2016-02-11-a-las-22-17-18

Funcionamiento simplificado de LIGO (Abbott et al.).

A principios de siglo se pusieron en marcha varios detectores por todo el mundo destinados a descubrir la presencia de estas ondas, todos ellos construidos usando el principio de un interferómetro láser. El fundamento de estos instrumentos es sencillo: un haz láser se divide en dos mediante un espejo y cada uno viaja a lo largo de dos trayectorias perpendiculares de la misma longitud. Después de rebotar en un espejo al final, los dos haces vuelven a unirse en el origen y medimos si la distancia recorrida es la misma para ambos. Porque las ondas gravitacionales se caracterizan, precisamente, por distorsionar el espaciotiempo. Si una onda gravitacional pasa por el detector, este se deformará ligeramente y podremos detectar su presencia teniendo en cuenta que la longitud de los dos brazos ya no será la misma.

Ni que decir tiene, la deformación es tan minúscula que es necesario usar al menos otro detector similar para comprobar que la señal es real y no se debe al ruido del instrumento (hay que tener en cuenta que los movimientos sísmicos o el tráfico que pasa cerca del detector generan una distorsión de mayor intensidad que cualquier onda gravitacional real). Usando este diseño, en Estados Unidos se creo el experimento LIGO, el GEO600 en Alemania, el Virgo en Italia y el TAMA 300 en Japón. Desde 2002 estos detectores comenzaron a observar el Universo con nuevos ojos, pero, para sorpresa de los investigadores, no lograron descubrir nada.

Las ondas debían existir, pero estaba claro que eran más débiles de lo predicho por los modelos más optimistas. O quizás las fusiones de estrellas de neutrones y agujeros negros -los fenómenos más energéticos que pueden descubrir estos instrumentos- eran menos frecuentes de lo esperado. En cualquier caso, solo había dos opciones: esperar más tiempo y aumentar la sensibilidad de los instrumentos. LIGO, formado por dos detectores dotados de sendos brazos de 4 kilómetros de longitud cada uno, decidió mejorar sus instalaciones para crear Advanced LIGO -o AdvLIGO-, capaz de detectar con mayor probabilidad las ondas gravitacionales de fusiones de agujeros negros y estrellas de neutrones, púlsares deformados o supernovas. En 2015 Advanced LIGO comenzó sus operaciones, esperando encontrar distorsiones superiores a la millonésima parte del tamaño de un protón (!!!).

ca8c8yhw0aakk5w-1

Recreación de la señal GW150914 (LIGO).

Los resultados negativos de los interferómetros terrestres tipo LIGO hicieron que muchos investigadores criticasen el gasto de esta iniciativa (1100 millones de dólares en los últimos 40 años) y comenzasen a apostar seriamente por otra técnica, denominada PTA (Pulsar Timing Array). Este método, completamente distinto e independiente de los inteferómetros terrestres, consiste en usar la señal emitida por varios púlsares -estrellas de neutrones que emiten señales de radio muy precisas al girar- como detectores de ondas gravitacionales. Sin embargo, finalmente ha sido LIGO el que se ha llevado el gato al agua, aunque si Advanced Virgo hubiera estado funcionando el día de la detección probablemente también hubiera descubierto la señal. Además de la GW150914, durante el primer mes de operaciones AdvLIGO también detectó otra señal, LVT151012, mucho más débil. Todavía no está claro si se trata de una señal real o no. La gran pregunta es, ¿se trata GW150914 de una señal poco frecuente o es algo común en el Universo? Todavía no lo sabemos. El objetivo principal de LIGO y los demás detectores es precisamente medir la frecuencia de estos sucesos tan energéticos.

captura-de-pantalla-2016-02-11-a-las-23-35-50

Detector LIGO de Livingston (LIGO).

Además de fusiones de agujeros negros, LIGO y sus hermanos deberán ser capaces de detectar en el futuro colisiones de estrellas de neutrones o sistemas binarios formados por estas estrellas. Del mismo modo que la astronomía tradicional estudia todo el espectro electromagnético mediante multitud de instrumentos distintos, los interferómetros terrestres solo son capaces de observar un “color” de las ondas gravitacionales. Para observar otras longitudes de onda necesitamos detectores distintos. El interferómetro espacial europeo eLISA podrá detectar en el futuro ondas gravitacionales de mayor longitud de onda -correspondientes, por ejemplo, a sistemas binarios de enanas blancas o fusiones de agujeros negros supermasivos-, mientras que la técnica PTA de la que hablamos más arriba podrá ser sensible a longitudes de onda aún mayores propias de las ondas gravitacionales primordiales o las emitidas por sistemas binarios supermasivos.

captura-de-pantalla-2016-02-11-a-las-23-39-00

Distintos detectores para distintas longitudes de onda de ondas gravitacionales (LIGO).

Han sido muchos años de espera, muchos más de lo previsto, pero al fin, justamente un siglo después de que Einstein predijese su existencia, ahora podemos decir que son reales. Hoy ha nacido la astronomía de ondas gravitacionales.

PD 1: el sonido de las ondas gravitacionales

Si “traducimos” la señal GW150914 a ondas de sonido detectables por el oído humano podemos obtener un inquietante a la par que fascinante efecto:

Ahora bien, las ondas gravitacionales no son ondas de sonido. Esto puede parecer una obviedad, pero lo recalco porque en un par de medios han llevado la analogía un pelín demasiado lejos (el sonido es una onda de presión que se desplaza por el aire, mientras que las ondas gravitacionales son una distorsión del propio tejido del espaciotiempo). También se pueden transformar en sonido las emisiones de radio procedentes de púlsares, por ejemplo, o, si me apuran, cualquier tipo de señal electromagnética, pero eso no las convierte en sonido. Y, por cierto, la señal tampoco se llama chirp. Chirp significa en inglés “gorjeo” o “pío” y es el adjetivo que se le ha dado a esta señal por su curiosa traducción sonora.

PD 2: ¿ondas gravitatorias u ondas gravitacionales?

Originalmente escribí esta entrada usando el adjetivo gravitatorio en vez de gravitacional, este último usado por el 99% de medios. La razón es simple. Siempre he pensado que “gravitacional” es un calco del inglés gravitational y, además, no me gusta. Pero, como bien apunta el maestro César Tomé, hoy en día se ha normalizado en castellano el uso del término “onda gravitatoria” para referirse a las gravity waves de la física de fluidos. No estoy de acuerdo con esta traducción -prefiero “ondas de gravedad”-, ¿pero quién soy yo para llevar la contraria? Además, si he pasado por el aro a la hora de escribir “jupíteres calientes” en vez de “júpiteres calientes” -lo odio-, puedo superar esto. Hay que adaptarse.

Fuente: Eureka

La Primera Persona en el Mundo en ser Reconocida como Cyborg

El primer ‘cyborg’ del mundo

Concierto a Color

(CNN) — Neil Harbisson es el primer cyborg (organismo cibernético) reconocido legalmente en el mundo. Tiene una antena implantada en el cráneo que le da acceso a algo con lo que no había nacido: la capacidad de ver a colores.

En un mundo donde la tecnología está abrumando nuestro enfoque mental y nuestras vidas sociales, Harbisson, de 32 años, tiene una relación más estrecha con la tecnología que incluso el más ávido usuario de un teléfono inteligente.

Harbisson creció en un pueblo costero de Cataluña, España y cuando era niño, fue diagnosticado con acromatopsia, una condición que no permite ver a colores.

En 2004, decidió encontrar una forma de salir de su mundo en blanco y negro, al desarrollar una tecnología que le permitiera tener una experiencia sensorial como ningún otro humano hubiera experimentado jamás.

La idea surgió mientras estudiaba composición de música experimentalen el Dartington College of Arts en Devon, Inglaterra. Para su proyecto final, Harbisson y el experto en computación Adam Montandon desarrollaron la primera personificación de lo que ellos llamaron eleyeborg. El aparato era una antena sujetada a un ordenador de cinco kilogramos y un par de auriculares. La cámara web en el extremo de la antena convertía cada color en 360 ondas de sonido diferentes que Harbisson podía escuchar por los audífonos.

Aunque parezca una forma de sinestesia inducida (una condición neurológica que causa que las personas vean o incluso saboreen los colores) la nueva condición de Harbisson es diferente, y merece un nombre completamente nuevo: sonocromatopsia, un sentido extra que conecta a los colores con el sonido.

A diferencia de la sinestesia, que puede variar enormemente de persona a persona, la sonocromatopsia hace que cada color corresponda a un sonido específico.

Le tomó alrededor de cinco semanas acostumbrarse a las jaquecas ocasionadas por los sonidos de cada color nuevo, y alrededor de cinco meses poder descifrar cada frecuencia como un color particular que ahora podía percibir como un sonido.

En los años posteriores a cuando empezó a usar el eyeborg, Harbisson pasó de no distinguir ningún color en absoluto a la capacidad de descifrar colores como rojo, verde y azul.

Incluso podía detectar colores como el infrarrojo y el ultravioleta, que están fuera del espectro de colores que alcanza a percibir el ojo humano.

Desde entonces, ir al supermercado se convirtió en algo parecido a una visita a un club nocturno. La ropa que elegía a diario comenzó a reflejar la escala de tonos musicales que coincidía con su estado emocional, de la misma forma en que algunas personas combinan sus pantalones con el resto de su atuendo.

Cuando estaba de buen humor, Harbisson se vestía en un acorde do mayor, colores cuya frecuencia de sonido corresponden al rosa, amarillo y azul; si se sentía triste, se vestía en colores turquesa, morado y naranja, que corresponden a re menor. También cambió el concepto que tenía sobre las razas: se dio cuenta de que el color de piel, para él, en realidad no era blanco y negro.

«Yo creía que la gente negra era negra, pero no es así. Ellos son de un tono de piel naranja muy oscuro y las personas que dicen ser blancas son de un naranja bastante claro», explica Harbisson.

El siguiente paso fue lograr que la antena se viera menos voluminosa. Comenzó por reducir el peso de la computadora a un kilo y a sujetarla bajo su ropa. Después, el software fue reducido a un chip instalado bajo su piel. Y en diciembre del año pasado, a Harbisson le implantaron la antena directamente en su cráneo.

Encontrar a un doctor que hiciera este procedimiento no fue fácil. Le presentó su caso a cirujanos plásticos, y después a una docena de médicos. Todos lo rechazaron. Finalmente encontró a uno que estuvo dispuesto a hacerlo siempre y cuando su identidad se mantuviera en secreto. Pasaron meses antes de que la antena y el hueso se fusionaran, pero Harbisson dice que logró exactamente lo que deseaba.

«No siento ningún peso, ni presión», dice, tomando el delgado cuello de la antena. «Solo parece como si tocara una parte de mi cuerpo. Parece ser una nueva parte de mi cuerpo, como una nariz o un dedo».

El cyborgismo, un movimento del cual Harbisson es uno de los pioneros más destacados, es una tendencia que crece lentamente. El desarrollo de Google Glass ha atraído más atención al concepto de utilizar la tecnología portátil durante largos períodos de tiempo.

Los implantes magnéticos que permiten que uno sienta la atracción de campos magnéticos, como microondas o transformadores conectados a un suministro de energía, se han vuelto un equipo popular para los autodenominados «hackers biológicos».

Y más recientemente, un cinematógrafo canadiense desarrolló e implantó su propio tipo de eyeborg: un ojo protésico incrustado con una cámara de vídeo.

Pero Harbisson dice que él tiene la distinción de ser el primer cyborglegalmente reconocido por un gobierno: la fotografía de su pasaporte británico lo muestra con su dispositivo, lo que efectivamente lo aprueba como parte de su cara.

Él cree que el movimiento necesita más impulso: «Pensaba que luego de unos pocos años esto sería realmente popular, que mucha gente empezaría a extender sus sentidos, pero todavía no es así».

Esto lo atribuye a la presión social, señalando que una organización en contra de los cyborgs llamada Stop Cyborgs, cuyo blanco específico son aquellos que usan tecnología portátil como Google Glass o Narrative Clip, una cámara automática portátil que captura tu vida en video.

«La gente le tiene miedo a lo desconocido. Suelen exagerar o ser muy negativos sobre las posibles consecuencias de lo que es nuevo para ellos».

Para Harbisson, acostumbrarse físicamente a la tecnología fue la parte sencilla. Obtener la aceptación de los demás ha sido el verdadero desafío. Frecuentemente compara los obstáculos a los que se enfrenta cada día con los que experimentaron los transexuales y travestis hace medio siglo.

En un esfuerzo por abordar algunos de estos problemas, Harbisson fundó, junto a su amigo de la infancia, Moon Ribas, la fundación Cyborg en 2010. Afirma que no está haciendo nada antinatural: «Oír mediante conducción es algo que los delfines hacen, una antena es algo que muchos insectos tienen, y saber dónde está el norte es algo que los tiburones también pueden detectar. Estos sentidos son muy naturales; todos existen ya, pero ahora podemos aplicarlos a los humanos».

Una de las maneras en las que la fundación está tratando de mostrarle a la gente qué se siente ser un cyborg es mediante la aplicación Eyegorg para Android, que traduce los colores a las frecuencias de sonido que Harbisson escucha.

Él considera que la aplicación es el primer paso para presentarle a las personas la experiencia cyborg: «Todos tenemos un teléfono móvil y constantemente usamos la tecnología, de modo que esto se ha convertido en algo normal. También llegará a ser normal tener tecnología dentro de nuestros cuerpos o hacer que nos la implanten. Creo que solo tenemos que darle algo de tiempo.

Fuente: CNN México

El misterioso fenómeno de la acción fantasmal a distancia

La teoría de la «Horripilante acción fantasmal a distancia» de Einstein

La equivocación de Einstein: Demuestran que la ‘acción fantasmal a distancia’ es real

Pese a las dudas de Albert Einstein, el padre de la física moderna, existe la llamada ‘acción fantasmal a distancia’. Científicos del Instituto Nacional de Normas y Tecnología de EE.UU. (NIST, por sus siglas en inglés) llevaron a cabo un experimento que lo demostró.

Einstein utilizó el término ‘acción fantasmal a distancia’ para referirse a la mecánica cuántica, que describe el extraño comportamiento de las partículas más pequeñas de la materia y la luz. Particularmente tenía en cuenta el entrelazamiento, la idea de que los pares de partículas subatómicas pueden conectarse de forma invisible de una manera que trasciende el tiempo y el espacio. El eminente físico dudó de que fuera posible.

Sin embargo, experimentos de los investigadores del NIST demostraron que el fenómeno existe. Para eso, los científicos crearon fotones y los enviaron a dos lugares diferentes. Luego midieron los fotones y los resultados revelaron que esas partículas ligeras no solo se correlacionaban, sino que también eliminaban todas las demás opciones, para dejar claro que estas correlaciones no pueden ser causadas en el universo «realista» localmente controlado en el que Einstein pensaba que vivíamos.

«No se puede probar la mecánica cuántica, pero el realismo local, o acción local oculto, es incompatible con nuestro experimento. Nuestros resultados están de acuerdo con lo que la mecánica cuántica predice acerca de las acciones espeluznantes compartidas por partículas entrelazadas», explica uno de los investigadores del NIST, Krister Shalm, en el artículo sobre el experimento.

Fuente: RT SEPA MÁS

Físicos de la Universidad de Washington y de la Universidad de Stony Brook de Nueva York, creen que el fenómeno del entrelazamiento cuántico o como Albert Einstein solía llamarle “acción fantasmal a distancia”, podría estar intrínsecamente asociado a los agujeros de gusano.

Los agujeros de gusano o como formalmente se les conoce “puentes Einstein-Rosen”, son una predicción de la teoría de la relatividad, vienen a ser una especie de pliegue espacio-temporal que en muchas novelas de ciencia ficción son usados para recorrer grandes distancias más rápido que si se viajara a la velocidad de la luz.

La acción fantasmal a distancia o entrelazamiento cuántico, ocurre cuando un par o grupo de partículas se entrelazan de tal forma que el comportamiento de una, determina el comportamiento de la otra, por ejemplo, si en un par de partículas entrelazadas una cambia, lo otra también lo hace de forma simultánea y sin importar que la distancia a la que se encuentren sea de unos pocos metros ¡o de varias galaxias!.

La ciencia ha demostrado que el entrelazamiento cuántico es real, y actualmente se estudia para el desarrollo de computadoras cuánticas y en la elaboración de una especie de encriptamiento cuántico que permitiría una seguridad prácticamente inviolable en las transferencias de datos.

Recientemente, los físicos teóricos Juan Martín Maldacena del Instituto de Estudios Avanzados de Princeton y Leonard Susskind de la Universidad de Stanford, sostenían que los agujeros negros estaban relacionados con el fenómeno de entrelazamiento. Específicamente, que los agujeros de gusano están formados por un par de agujeros negros entrelazados, pero no sólo eso, sino que el fenómeno de entrelazamiento en general está relacionado con los agujeros de gusano, por lo que las partículas entrelazadas, como podrían ser dos electrones, posiblemente estén conectados por agujeros de gusano extremadamente pequeños.

Los agujeros negros se forman cuando una estrella de gran masa, llega al final de sus días convirtiéndose en una gigante roja que colapsa sobre si misma debido a la gran cantidad de fuerza gravitatoria que posee, creando una masa concentrada en un pequeño volumen, una enana blanca, si el proceso de auto-atracción gravitatoria continúa, la enana blanca termina convirtiéndose en un agujero negro, cuyo tamaño puede variar desde el  de un átomo hasta varias veces la masa del Sol. Se llaman agujeros negros porque el campo gravitatorio que poseen es tan descomunal que ni la luz puede escapar a el.

El entrelazamiento de los agujeros negros puede ocurrir de varias formas, por ejemplo, al formarse simultáneamente dos agujeros negros, éstos resultarían automáticamente entrelazados. Otra forma sería que la radiación emitida por un agujero negro sea capturada y luego colapsada en el interior de otro agujero negro, lo que daría como resultado que el agujero negro que capturó esa energía quedara entrelazado con el que suplió la energía.

El trabajo de investigación realizado por Andreas Karch profesor de física de la Universidad de Washington y Kristian Jensen de la Universidad de Stanford, y que fue publicado en la revista Physical Review Letters en el mes de noviembre, resulta interesante porque aporta una herramienta que los científicos podrán usar para desarrollar el anhelado deseo de la física de encontrar una teoría unificadora, es decir que explique todo lo que sucede en el universo, ya que actualmente para ello contamos con dos teorías incompatibles entre sí, la mecánica cuántica que sirve para explicar lo que sucede a escalas ultra diminutas y la teoría de la relatividad, que funciona únicamente para comprender los fenómenos que ocurren a mayor escala.

Fuente: Criptogramas

Las Manos Que Cuentan Historias

MANOS RUPESTRES

MANOS EN NEGATIVO

La representación de las manos en negativo es una práctica llamativamente habitual entre los artistas de las cuevas prehistóricas. Tales siluetas son, en todos los casos, realizadas con antiguos métodos de aerografía mediante los cuales el material cromático se aplica, ya sea soplando a través de los huecos medulares de pequeños huesos de animales, o bien espolvoreando pigmentos sobre la mano apoyada en la roca.

4668339443_1a1e21ff91_b

Se trata de una técnica que requeriría ciertos conocimientos, dominio de los materiales, inventiva y tiempo para practicarla. Es realmente asombroso que todos estos artistas prehistóricos hayan podido desarrollar esta misma técnica.

Más aún, se ha generado en una etapa tan primitiva de nuestra evolución que debe haber representado un verdadero desafío para aquellos hombres, no estando todos en condiciones de lograrlo.

Es tan sorprendente como si, por ejemplo, el movimiento pictórico impresionista hubiera surgido en varios lugares del mundo independientemente uno de otro.

Cueva de las Bestias, Gilf Kebir, Wadi Sura, Egipto

Las conjeturas sobre su significado incluyen que: representaba las manos sanadoras del chamán de la tribu; que era un hecho artístico por sí mismo; que era la huella del paso por la vida de quienes la imprimían y junto con la de sus ancestros simbolizaban sus árboles genealógicos, etc.

Más allá de las hipótesis al respecto, el verdadero significado de las representaciones de las manos en negativo es aún un misterio, como lo es también si era el mismo para todas las tribus que las representaron o, por el contrario, en cada una simbolizaba otro concepto.

le Bouquet de Mains (Bornéo) d'Ilas Kenceng

Con decenas de milenios de antigüedad, las figuras de las manos nos resultan increíblemente familiares, contemporáneas. Se ven frescas, vivas, como si hubiesen sido dejadas ayer. Sus siluetas poseen una enorme carga expresiva que, en muchos sentidos, acorta las distancias y diferencias entre nosotros y ellos. Son manos hacedoras, manos creativas y transmisoras de emociones.

Parecen las huellas de quien apoya sus manos detrás de un vidrio opaco. Como si quienes las imprimieron estuvieran aún del otro lado, encerrados dentro de las piedras tratando de comunicarse con nosotros.

Indonesia's Gua Ham cave

Como debiéramos interpretar este fenómeno artístico? Es acaso el inconsciente colectivo prehistórico el que hizo que estos artistas desarrollaran aisladamente la misma técnica de pintura, o es que quizás hubo alguna clase de contacto entre estas culturas distantes temporaria y geográficamente?

Este motivo pictórico puede encontrarse a lo largo de milenios y a través de regiones, como en las cuevas de El Castillo (España), Altamira (España), Chauvet(Francia), Cueva de las Manos (Argentina), Cueva de las Bestias (Egipto), Cuevas de Indonesia, Cuevas de Tassili n’Ajjer (Argelia), Pinturas de los Anasazi (USA) yen Catal Huyuk (Turquía), entre muchos otros lugares.

Mapa Manos en Negativo

Cueva de la isla Célebes, Indonesia: Las cuevas de Maros, en la isla de Célebes (Sulawesi), Indonesia, contienen muestras de arte rupestre con pinturas de animales y de manos en negativo. Mediciones recientes han revelado que algunas representaciones contarían con unos 40.000 años de antigüedad aprox.

Sulawesi_cae_art

Cueva de El Castillo, España: es uno de los exponentes de arte paleolítico más sobresalientes de la Prehistoria de Europa. Sus numerosas figuras representan un paseo por los orígenes del pensamiento simbólico, la mente abstracta y la expresión artística. La pintura del disco rojo del Panel de las Manos fue datada en 40.800 años de antigüedad, tratándose del arte rupestre conocido más antiguo de Europa, sino del mundo.

54922

Cueva de Altamira, España: es uno de los yacimientos arqueológicos más importantes del mundo, con algunas de las pinturas y grabados más sobresalientes de la Prehistoria. Mediciones recientes han datado al caballo del Techo de las Manos en 37.000 años, y el símbolo en forma de bastón del Techo de los Policromos en 35.600.

Nomada_Altamira2_18g

Cueva de Chauvet, Francia: La cueva esta ubicada cerca de la pequeña localidad de Vallon-Pont-d’Arc, junto al río Ardèche, y contiene una de las muestras de pintura rupestre más exquisita y antigua del mundo entero, con dibujos y pinturas se remontan a unos 32.000 años atrás y se conservan como si se hubieran pintado ayer.

35dd6e0b582c941e8e12cc21b9e8366c

Cueva Gua Tewet, Indonesia: sobresaliendo por encima de la selva tropical de Borneo (Kalimantan) del este, las montañas de Marang contienen 25 cuevas con pinturas rupestre de abundante cantidad de imágenes de manos en negativo.

GuaTewet_tree_of_life-LHFage1-1024x803

Cueva de las Manos, Santa Cruz, Argentina: La Cueva de las Manos, ubicada en el Cañadón del río Pintura, en la Provincia de Santa Cruz, Argentina, contiene una de las expresiones artísticas más antiguas de los pueblos sudamericanos, con inscripcionesfechadas de 9.300 años AP («antes del presente»).

800px-SantaCruz-CuevaManos-P2210651b

Cueva de las Bestias, Wadi Sura, meseta de Gilf Kebir, Egipto: se trata de un abrigo natural que conserva una de las representaciones de arte rupestre más espectaculares como enigmáticas. Las pinturas tienen 7.000 años de antigüedadaprox., proviniendo de los albores del neolítico.

13563822855_f38fd791fc_z

Catal Huyuk, Turquía: el símbolo más impresionante y más frecuentemente representado en Catal Huyuk es la mano humana, tal como las que pintaron losauriñacienses, varias decenas de milenios antes. La gente de Catal Huyuk emplea­ba un procedimiento distinto, pues aplicaban la pintura entre los dedos y alrededor de las manos, reproduciendo de esta forma su ima­gen en negativo.

catal_huyuk_mano

Tassili n’Ajjer, Argelia: Tassili es un área montañosa en pleno desierto del sudeste argelino en la cual se localizan más de 15.000 estaciones de grabados y pinturas rupestres de más de 8.000 años de antigüedad, y uno de los conjuntos pictóricos rupestres más enigmáticos del mundo.

Manos en negativo Superimposition of handprints and other figures. In Awanghet, Tassili n’Ajjer, Algeria.

Pinturas de los Anasazi: Los anasazi ocupaban los estados actuales de Colorado, Utah, Arizona y Nuevo México, en USA. Los descendientes de los Anazasi son los indios pueblo, entre ellos los Hopi, aunque no se sabe con certeza si la continuidad entre ellos es étnica o sólo geográfica.

Anasazi hand print along the Colorado River near Moab, Utah.

Wadi el-Obeiyd, Egipto: ubicada al norte del Oasis Farafra, en Egipto, esta cueva de piedra caliza contiene grabados de animales y marcas de grandes gatos, así como huellas de manos en negativo. Fue descubierta en 1995 y excavado por Barbara Barich.

Negative handprints, Wadi el-Obeiyd, Egypt

Gruta de Gargas, Francia: situada en la región de Pirineos, con 27.000 años de antigüedad, contiene 231 pinturas de manos en negativo.

gargas204cmysm

Gruta de Pech Merle, Francia: ubicada en el departamento de Lot en la región de los Pirineos, representa uno de los lugares más importantes del arte paleolítico en Europa. La impresión de la mano en negativo, en rojo ocre, tiene unos 25.000 años.

Pech_Merle_main

Serranía de Chiribiquete, Colombia: ubicada en el corazón de la Amazonia colombiana, guarda abrigos rocosos con pinturas rupestres que han servido de santuario a los indígenas desde hace 19.500 años.

pinturas-rupestres-en-la-serrania-de-chiribiquete-_906_573_1263689

Actun Uyazba Kab, Belize: esta “Cueva de las manos impresas” esta próxima al sitio de Cahal Witz Na, y dentro de la misma se pueden encontrar huellas de manos que dan su nombre a la cueva.

Belize handprint-cave_10471_990x742

Pensamiento Creativo y Pensamiento Paradójico

EL QUEHACER DE LA CREATIVIDAD.

La próxima vez que alguien te acuse de tomar una decisión irracional, simplemente explícale que obedeces las leyes de la física cuántica.

En la psicología se está formándose una nueva tendencia que utiliza la física cuántica para explicar el pensamiento paradójico que algunas veces ocurre en los seres humanos, y que también puede ayudar a que los investigadores resuelvan ciertas contradicciones en los resultados de los estudios psicológicos anteriores.

Según la investigadora Zheng Joyce Wang y otros que tratan de modelar matemáticamente nuestros procesos de toma de decisiones, las ecuaciones y los axiomas que más se acercan a la conducta humana pueden ser los que tienen su origen en la física cuántica.

Cuando surge algo que no es consistente con las teorías clásicas, a menudo se le tilda de “irracional”; sin embargo, desde la perspectiva de la cognición cuántica, algunos resultados no resultan ser irracionales: son consistentes con la teoría cuántica y con la forma en la que las personas realmente se comportan.

En dos nuevos estudios, Wang y sus colegas explican su nuevo enfoque teórico de la psicología.

Sus trabajos sugieren que pensar de una manera cuántica, que esencialmente consiste en no seguir un enfoque convencional basado en la teoría clásica de la probabilidad, permite que los seres humanos tomen decisiones importantes en un contexto de incertidumbre, y les permite confrontar preguntas complejas, a pesar de sus recursos mentales limitados.

Cuando los investigadores intentan estudiar el comportamiento humano utilizando sólo modelos matemáticos clásicos de racionalidad, algunos aspectos de la conducta humana resultan inconsistentes. Desde el punto de vista clásico, esos comportamientos parecen irracionales, explica Wang.

Por ejemplo, los científicos han sabido desde hace tiempo que el orden en el que se formulan las preguntas en una encuesta puede cambiar las respuestas, por ello, las encuestadoras normalmente cambian el orden de las preguntas con la esperanza de anular este efecto. Pero Wang y sus colaboradores han demostrado que el efecto se puede predecir y explicar por un aspecto cuántico del comportamiento de las personas.

Solemos pensar que la física cuántica describe el comportamiento de las partículas subatómicas, pero no el comportamiento de las personas. Sin embargo, dice Wang, la idea de que la física cuántica describe el comportamiento humano no es tan descabellada. Wang y sus colaboradores no se centran en los aspectos físicos del cerebro, sino más bien en la manera en la que los principios matemáticos abstractos de la teoría cuántica pueden arrojar luz sobre la cognición humana y el comportamiento.

La física cuántica se ocupa de la ambigüedad en el mundo físico. Debido a su incertidumbre intrínseca, el estado de una partícula particular, la energía que contiene y su ubicación se calculan únicamente en términos de probabilidades.

La cognición cuántica es lo que ocurre cuando los seres humanos tienen que lidiar mentalmente con la ambigüedad. A veces no estamos seguros de cómo nos sentimos, o sentimos incertidumbre sobre qué opción elegir, o tenemos que tomar decisiones basadas en información limitada.

En el célebre experimento mental de Schrödinger, en el que a un gato se le coloca en una caja junto con un matraz que contiene un veneno y una fuente radiactiva, después de un tiempo el gato está simultáneamente vivo y muerto, ya que su estado depende de que si un contador Geiger detecta la radiación y el frasco se rompe, liberando el veneno que mata al gato. En ese sentido, el gato tiene un potencial de estar vivo o muerto al mismo tiempo. El efecto se llama superposición cuántica. Cuando abrimos la caja, ambas posibilidades ya no se superponen, y el gato debe estar vivo o muerto.

Con la cognición cuántica, es como si cada decisión que tomamos es nuestro propio y único gato de Schrödinger, ejemplifica la investigadora.

A medida que reflexionamos sobre nuestras opciones, las imaginamos en nuestra mente. Durante un tiempo, todas las opciones coexisten con diferentes grados de potencial: esa es la superposición. Luego, cuando nos concentramos en nuestra opción preferida, las otras opciones dejan de existir para nosotros.

Con el enfoque clásico de la psicología, las decisiones podrían no tener sentido, y los investigadores tienen que construir nuevos axiomas matemáticos para explicar el comportamiento en ese caso particular. El resultado es que hay muchos modelos psicológicos clásicos, algunos de los cuales están en conflicto, y ninguno de los cuales se aplica a todas las situaciones.

Con el enfoque cuántico, Wang y sus colegas argumentan que muchos aspectos diferentes y complejos del comportamiento se puede explicar con el mismo conjunto limitado de axiomas.

Fuente: Ciencia al Día

 

Después de la singularidad, ¿qué? 7 futuros hipotéticos entre la humanidad y la inteligencia artificial

¿LA CIVILIZACIÓN HUMANA TIENE FUTURO ANTE UNA ENTIDAD QUE FÁCILMENTE PODRÍA SOBREPASARNOS INTELECTUAL Y TECNOLÓGICAMENTE? ¿NUESTRA ESPECIE SERÁ VÍCTIMA DE SU PROPIA INVENCIÓN?

Ray Kurzweil El Futuro y la Singularidad Tecnológica

El ser humano es una especie sorprendente por la capacidad de ir más allá de sus propios recursos. Ese fue el recurso que aseguró la supervivencia del género y aun ahora nos mantiene en este planeta. El desarrollo intelectual de nuestra especie permitió que comprendiésemos los procesos del mundo para, poco a poco, utilizarlos a nuestro favor. En cierta forma eso es la tecnología: la manipulación del medio para asegurar nuestra supervivencia.

Esa, sin embargo, es una definición elemental. Con el tiempo nuestra tecnología llegó a un punto en el que parece encaminada a desprenderse del ser humano, a existir autónomamente e incluso continuar su existencia por medio de mejoras que puede implementar por sí misma.Grosso modo, esas son las cualidades de la inteligencia artificial, la cual podría alcanzar un grado de perfeccionamiento que en el dominio especializado se conoce como singularidad.

Recientemente, George Dvorsky elaboró en el sitio io9 una lista con escenarios hipotéticos, aunque inesperados, que podrían ocurrir una vez que la tecnología cobre conciencia de sí misma y tome decisiones al margen de los intereses de nuestra especie.

Después de todo, si la inteligencia artificial está hecha a nuestra imagen y semejanza, no sería extraño que hiciera lo que nosotros ya hacemos con otros seres vivos de este planeta.

¿Una humanidad interconectada por el placer?

Supongamos que un dispositivo de Superinteligencia Artificial que se mejora a sí mismo (SAI, por sus siglas en inglés) llega a la conclusión de que el propósito último de la existencia es el placer. De entrada no sería un razonamiento extraño, pues ya el ser humano en algún momento de su historia pensó algo parecido (el caso más célebre es el del filósofo griego Epicuro). Supongamos entonces que dicho dispositivo concluye no sólo que ese es el propósito de su existencia, sino también de la humanidad. En un escenario de tecnología extrema en el que pudiéramos recibir estimulación transcraneal, ¿podría una entidad robótica mantener conectada a toda la población en una fantasía de placer artificial continuo?

La huida

Otra conclusión factible: después de analizar posibilidades y escenarios hipotéticos, la entidad dotada con SAI concluye que la mejor alternativa es abandonar al ser humano y este planeta: “Hasta luego, y gracias por el pescado”.

La distopía del control único

Una entidad superinteligente, construida en el marco de los límites del razonamiento humano, podría llegar a la conclusión de que para cumplir con su razón de ser antes tiene que asegurar su supervivencia. ¿De qué manera? Eliminando cualquier situación o entidad que le represente una amenaza, lo cual implicaría vigilar, controlar y, en fin, convertirse en el punto focal de un régimen totalitario en donde todo sucedería bajo su mirada.

El hombre vs las máquinas y la regresión civilizatoria resultante

En varias fantasías de ciencia ficción la convivencia entre el hombre y la inteligencia artificial pronto deviene dependencia y, a partir de ahí, sometimiento: al ceder tantos aspectos de su vida y sus acciones cotidianas, la humanidad termina esclavizada por su propia invención. ¿Y no es este el antecedente de la rebeldía que, por otro lado, también ha caracterizado a nuestra especie? El resultado sin embargo sería que, si la humanidad resultara triunfante en esta lucha, tal vez tendría que comenzar a reconstruir su historia desde una etapa parcialmente primitiva.

Encuentros cercanos

Si la humanidad fuera capaz de desarrollar una entidad de Superinteligencia Artificial, es posible que ello implicaría también la consecución de la tecnología necesaria para entrar en contacto con civilizaciones extraterrestres. Quizá la singularidad es el punto indicado para demostrar el avance de nuestra especie, el logro necesario para que otras civilizaciones presten atención a lo que sucede en la Tierra.

Si es el caso, ¿esas civilizaciones permitirían que continuásemos con nuestro propio desarrollo?

¿Despertar del sueño?

 

La posibilidad de que vivamos en una simulación hecha por computadora podría tener en la singularidad su punto ciego. Tal vez esto que vivimos es la fantasía virtual de una civilización humana mucho más avanzada de lo que somos capaces de imaginar; quizá somos parte de un experimento que busca conocer el efecto de múltiples variables. Si este fuera el caso, tal vez conseguir la singularidad en IA equivaldría a alcanzar el límite de un sistema después del cual no habría nada.

El hack último

¿Una SAI podría descifrar los misterios del cosmos? ¿Podría encontrar la manera de detener la entropía? ¿Podría generar una especie de universo artificial alterno conectado con el que conocemos por medio de un agujero de gusano? Si su propósito es asegurar su supervivencia, ¿no llegaría hasta lo último para conseguirlo?

Fuente: pijamasurf

La Biología de La Creencia versus Epigenética

La Biología de La Creencia Dr. Bruce Lipton

Epigenética, la esencia del cambio

Verónica Guerrero Mothelet

En la frontera del conocimiento, esta joven disciplina estudia los procesos bioquímicos que regulan la actividad de los genes y que responden a la influencia del ambiente.

Desde el descubrimiento de la estructura del ácido desoxirribonucleico, o ADN, comenzó una persistente controversia: ¿qué determina la salud y longevidad de un individuo?, ¿los genes con los que nace o el entorno en el que se desarrolla? Para enriquecer la discusión, en años recientes se han presentado pruebas de que el entorno puede influir en ciertos aspectos de la vida de un organismo que antes se consideraban determinados por los genes. Por ejemplo, se ha observado que los gemelos idénticos pueden, con el paso del tiempo, presentar divergencias fisiológicas, así como de salud e incluso psicológicas, pese a tener la misma información genética. Estas diferencias no se deben, pues, a los genes del individuo, que por lo general no cambian, sino a procesos bioquímicos que regulan la actividad de los genes y que responden a la influencia del ambiente. Estos procesos forman una segunda capa de información relacionada con el ADN: la información epigenética.

Expresión genética

Cuando miras a una persona lo que ves son proteínas: la piel, el pelo y las uñas están hechas de moléculas de ese tipo. Hay otras proteínas que, en vez de formar tejidos, controlan las reacciones químicas de las células. Para funcionar, el organismo necesita producir una gran diversidad de proteínas, las cuales se fabrican en el interior de las células.

Las instrucciones para fabricar todas las proteínas que necesita el organismo están escritas en el ADN, molécula complicada que forma un hilo muy largo. El doctor Félix Recillas Targa, investigador del Departamento de Genética Molecular del Instituto de Fisiología Celular de la UNAM, explica: “Dentro de una célula eucariota, como las de los organismos superiores, existe un núcleo, y en su interior está compactado el ADN con la información genética. Si estiramos la molécula de ADN, ésta tendría una longitud de dos a tres metros lineales. La célula eucariota tuvo que evolucionar hasta convertirse en un sistema altamente complejo que compacta la molécula de ADN en el interior del diminuto núcleo celular”.

Pero no basta simplemente con enredarla y meterla en el núcleo. El mecanismo lector de la célula debe tener acceso a los genes. En esencia, un gen es un tramo de ADN que contienen la información necesaria para fabricar una proteína. Para que pueda ser leída por la maquinaria celular, la molécula tiene que compactarse de una manera organizada. También es necesario que exista algún mecanismo que relaje el ADN compactado.

Las hebras de ADN se enrollan alrededor de unas moléculas llamadas histonas, que hacen las veces de carretes. La fibra que resulta de esta primera etapa de compactación se enreda aún más, y así en varios pasos. Debidamente compactado, el conjunto forma unas cuantas madejas separadas que se llaman cromosomas. Al desenredarse para que lo lea la maquinaria celular, el conjunto que forma el ADN, las histonas y otras moléculas que le dan estructura se llama cromatina.

Cuando la célula lee un gen y fabrica la proteína correspondiente decimos que el gen “se expresa”. Tu organismo, su apariencia y su funcionamiento son producto de la expresión de tus genes.

El ADN no lo es todo

Una célula no fabrica todas las proteínas catalogadas en el ADN, sino sólo unas cuantas, que dependen del tejido al que pertenece la célula y de sus necesidades del momento. Así, la célula no produce al mismo tiempo todas las proteínas que le corresponden, por lo que hay mecanismos que “encienden” y “apagan” los genes y regulan su expresión como si fueran un botón de volumen. Decimos que el efecto de estos mecanismos es epigenético(“epi” significa “encima” en griego) porque no está determinado por la información contenida en la secuencia del ADN, sino por las proteínas y otras sustancias químicas que la rodean y que afectan la expresión de los genes. Estos mecanismos responden a distintos factores del ambiente, como la exposición a sustancias químicas, los hábitos alimenticios y, en general, el estilo de vida.

Uno de los mecanismos reguladores más importantes se conoce como metilación del ADN. El metilo es un grupo químico formado por un átomo de carbono y tres de hidrógeno, que tiende a unirse a otras moléculas. El organismo lo extrae de los alimentos. En el núcleo celular, donde se encuentra el ADN, unas enzimas especiales pegan grupos metilo en ciertos puntos de la secuencia genética. Mientras más metilado esté un tramo de ADN, menos probable es que se exprese la información que contiene. La metilación es un mecanismo de defensa de la célula contra la gran cantidad de genes parásitos y defectos que se han acumulado en el ADN a lo largo de la evolución, como si fueran virus informáticos.

El nivel de metilación es muy importante, pues cuando no es el adecuado, puede favorecer el desarrollo de enfermedades, ya sea porque es excesivo y apaga genes que son necesarios, o bien porque es insuficiente y deja activos genes parásitos. Ernesto Soto-Reyes, estudiante e investigador del laboratorio del doctor Recillas, refiere que en la literatura científica la metilación del ADN se considera como el “quinto nucleótido”. Además de las moléculas adenina (A), timina (T), guanina (G) y citosina (C) —llamadas nucleótidos y que forman la secuencia del ADN—, existe la citosina metilada, que contribuye directamente a los fenómenos de regulación de los genes.

Todas las células albergan la misma información genética, pero la función y desarrollo de cada una dependen de los patrones de encendido y apagado de ciertos genes, patrones determinados por la metilación. Esto es más claro en el caso de las células troncales embrionarias, células que son como materia prima que puede convertirse en cualquier tipo de célula, como neurona, leucocito o célula epitelial. Para que una célula troncal se transforme, por ejemplo, en una neurona, deben activarse los genes apropiados y desactivarse todos los que no se requieran. Así, la diferenciación celular está regida por procesos epigenéticos, que producen cambios en la expresión de los genes sin que por ello se modifique la secuencia del ADN.

Cambios con consecuencias

Las histonas que forman la estructura de la cromatina —y que se encargan de enredar y desenredar el ADN— son el blanco de otro mecanismo epigenético que les pega distintos tipos de moléculas para modificar su comportamiento. Cuando se modifican las histonas, el tramo de ADN correspondiente puede relajarse o compactarse, mostrando u ocultando la información.

En los procesos muy tempranos del desarrollo embrionario, cuando todas las células son iguales, los mecanismos epigenéticos son cruciales porque le dicen a cada una en qué se tiene que convertir. Por ejemplo, en las células totipotenciales embrionarias, células indiferenciadas que tienen la capacidad de convertirse en todos los tejidos que componen un nuevo organismo, la cromatina necesita mantenerse abierta durante una etapa, pero debe cerrarse una vez que las células han tomado su ruta de diferenciación.

En el curso de la vida, algunos factores ambientales como la alimentación, las sustancias tóxicas y hasta el estrés también actúan sobre las histonas y, al modificarlas, activan o desactivan genes. Los genes afectados pueden producir más o menos proteínas de lo normal, lo que altera las funciones orgánicas. Este cambio en la producción de proteínas puede transmitirse por herencia de una célula a otra y también puede transmitirse de padres a hijos.

Los cambios epigenéticos pueden tener consecuencias de peso para el organismo. Por ejemplo, en la propensión a contraer ciertas enfermedades con componente hereditaria. “Muchos estudios se concentran en el nivel genético, pero la modulación tiene consecuencias en el cáncer”, señala Félix Recillas. Hoy en día se sabe que 50% o más de los procesos tumorales se originan por defectos a nivel epigenético (errores de metilación que dejan activos genes nocivos o que suprimen genes benéficos) y no forzosamente genético.

Soto-Reyes añade que hay genes conocidos como “supresores de tumores”, como el que contiene la información para fabricar la proteína P53, considerada el guardián del genoma. Esta proteína es la encargada de decidir si la célula debe repararse, si puede sobrevivir con el daño que tiene o debe morir. El cáncer puede surgir cuando un proceso epigenético bloquea los genes de ésta y otras proteínas supresoras de tumores. Al mismo tiempo, se pueden activar otros tramos de ADN, llamados oncogenes. Como resultado, la célula ya no puede ni repararse ni morir, y empieza a crecer y a multiplicarse sin medida. “El cáncer es una enfermedad muy compleja, y a veces se considera más bien un conjunto de enfermedades, que coinciden en que siempre se presenta una elevada división celular, y los fenómenos epigenéticos participan en la modulación de muchos de los genes implicados”, dice Soto-Reyes.

Descifrar el Epigenoma Humano

En agosto de 2008, un grupo de más de 36 investigadores de diversos países publicó en la revista Nature la propuesta de iniciar un importante esfuerzo conjunto para descifrar el epigenoma humano, y exhortó a la comunidad científica a apoyar la Alianza para el Epigenoma Humano contra las Enfermedades (AHEAD, por sus siglas en inglés), con el objetivo de ayudar a resolver los problemas que presentan algunos padecimientos mortales o incurables. Así como el Proyecto del Genoma Humano produjo una secuencia «normal» de referencia para estudiar las enfermedades humanas, el proyecto AHEAD pretende crear mapas epigenómicos de alta resolución, que puedan emplearse como referencia. Esa solicitud contó con el apoyo de la Red de Excelencia del Epigenoma, organismo de la Unión Europea, así como de la Fuerza de Tareas para el Epigenoma Humano, un equipo internacional de investigación fundado por la Asociación Estadounidense para la Investigación del Cáncer hace cinco años.

Un mes después de que se publicara la propuesta en Nature, el gobierno de Estados Unidos otorgó 190 millones de dólares a un programa preliminar de epigenómica llamado Roadmap Epigenomics Program, a cargo de los Institutos Nacionales de Salud (NIH).

AHEAD no es el primer proyecto para analizar el epigenoma. En 1999, siete instituciones de Gran Bretaña, Alemania y Francia formaron el Consorcio para el Epigenoma Humano (HEC), cuyo objetivo final es «determinar el perfil de metilación de todos los genes en todos los tejidos». El proyecto piloto del HEC, financiado por la Unión Europea, concluyó en 2004. La siguiente etapa ya está muy avanzada y permitirá conocer con exactitud cuál es la metilación en cada tipo de célula; de allí podrá deducirse cuáles genes se expresan.

La vida deja huellas

La epigenética está adquiriendo tal relevancia que se investiga desde diversos frentes en muchos países. Un área importante es la de estudios comparativos como los que se hacen con gemelos idénticos. Estos estudios muestran que, pese a tener la misma información genética y ser indistinguibles en apariencia, los gemelos pueden diferir notablemente, en especial en lo que toca a la salud. Una de las investigaciones más conocidas fue llevada a cabo por un grupo español, dirigido por el especialista Manel Esteller, del Centro Nacional de Investigaciones Oncológicas de Madrid. Estudiando componentes epigenéticos de 40 parejas de gemelos de edades que iban de los tres a los 74 años, los investigadores encontraron que, en promedio, el grado de metilación del ADN variaba significativamente en una tercera parte de los gemelos, incrementándose conforme aumentaba la edad de los individuos. Así, puede ser que con el paso del tiempo uno de los gemelos contraiga diabetes y el otro no, por ejemplo.

Las emociones y vivencias de los sujetos también pueden propiciar cambios epigenéticos. El neurocientífico Eric Nestler, director del Instituto del Cerebro de la Escuela de Medicina Monte Sinaí, en Nueva York, encontró que el estrés social crónico puede alterar la cromatina, modificando la expresión de los genes que regulan dos importantes regiones cerebrales: el núcleo accumbens y el hipocampo. Estos cambios llegan a afectar rasgos fisiológicos y conductuales de los individuos y, además de transmitirse a nivel celular cuando las células se duplican, pueden transmitirse a la descendencia.

En un estudio con ratas, el investigador Ian Weaver, del Hospital Infantil de Toronto, encontró resultados parecidos, pero descubrió asimismo que la modificación epigenética puede revertirse por medio de fármacos. Sus resultados sugieren que la información epigenética es dinámica y que podríamos manipularla, a condición de conocerla mejor.

Otros experimentos sugieren que los cambios epigenéticos favorables se heredan tanto como los negativos. Larry Feig, de la Universidad Tufts, Estados Unidos, llevó a cabo una investigación para buscar efectos generacionales. Feig utilizó ratones modificados genéticamente para padecer trastornos de la memoria y los crió en un ambiente enriquecido, con interacción social, juguetes y aparatos de ejercicio. Como resultado, sus ratones adquirieron una memoria normal. Pero lo más asombroso fue que la siguiente generación heredó la buena memoria pese a padecer el mismo defecto genético y no criarse en el mismo ambiente estimulante que sus padres.

En busca de transformaciones

Un área muy prometedora en el futuro de la epigenética se relaciona con las células troncales. Uno de los retos es programar células pluripotenciales (que pueden convertirse en cualquier tipo de célula) para transformarse en un tipo celular específico, como neuronas dopaminérgicas, que podrían corregir el mal de Parkinson. “Eso sólo se podrá lograr si comprendemos el código epigenético”, dice Félix Recillas. “No es suficiente con conocer el genoma completo; también es importante saber cómo se modula”, añade.

Más novedosa es una línea de investigación relacionada con las células llamadas iPS (induced pluripotent stem cell, “célula troncal de pluripotencialidad inducida”) y que explora la posibilidad de convertir células diferenciadas tomadas de un adulto en células pluripotenciales (indiferenciadas) iguales a las que se extraen los embriones. Las células de pluripotencialidad inducida podrían reprogramarse para convertirse en células del tipo que se desee, por ejemplo, para regenerar tejidos dañados (como el corazón o el cerebro). En opinión del doctor Recillas, esto es posible, pero todavía está muy lejos de conseguirse.

Si bien el aspecto terapéutico de este tipo de reprogramación puede tomar mucho tiempo, el proceso podría permitir probar fármacos en tejidos humanos sin poner en riesgo a nadie. “Podrían hacerse cultivos de células de un paciente, transformarlas en las células requeridas y analizar en ellas el efecto de los medicamentos o vectores virales, que de funcionar podrían servir, por ejemplo, para corregir defectos genéticos”, señala Recillas.

“El desafío es enorme”, dice Félix Recillas, “porque cualquier error podría resultar muy peligroso. Por ello las aplicaciones terapéuticas todavía están restringidas. Sin embargo, desde el punto de vista de la ciencia básica y del análisis de medicamentos, podría ser una de las primeras aplicaciones”.

Algunos grandes laboratorios multinacionales están desarrollando fármacos para modificar la cromatina, es decir, para manipular la información epigenética. Esto sería muy útil en padecimientos como ciertos tipos de leucemias, en los cuales se produce una proteína anormal que desactiva genes que deberían encenderse. En general, descifrar el código epigenético y aprender a manipularlo podría aportarnos terapias epigenéticas e impulsar la medicina epigenética.

Fuente: ¿cómovez?