jueves, 19 de julio de 2018

EL VALOR DEL AGUA


El Siguiente, es el comentario del Profesor Leonardo Vanzi que aparece en Comentarista.Emol.com relacionada con el Valor del Agua.    

Leonardo Vanzi, Doctor en Astronomía en la Universidad de Florencia (Italia). Fue investigador postdoctorado en la misma universidad, en la Universidad de Arizona y en el Observatorio Europeo Austral. Fue astrónomo en los observatorios La Silla y Paranal y actualmente es Profesor asociado del Centro de Astro-Ingeniería de la Pontificia Universidad Católica de Chile en el área de instrumentación astronómica. Dirige el Laboratorio de Instrumentación del Centro de Astro Ingeniería UC


Un litro de gasolina vale aproximadamente 1 dólar, mientras que un kilo de cobre 7 dólares. El oro es tan caro que su precio se indica por gramo y llega a los 40 dólares por gramo.

¡Claro!, son bienes relativamente escasos. El agua, en cambio, abunda más y su valor se da por metro cúbico, llegando a menos de 400 pesos los mil litros. ¡Es muy bajo el valor del agua!

Esta visión cambia bastante si salimos de nuestro hermoso planeta azul, donde el agua cubre más del 70% de la superficie.
Lejos de la Tierra, el elemento clave para el desarrollo de la vida, se hace más escaso. Incidentalmente, el agua no es un elemento, sino una substancia cuya molécula está constituida por dos átomos de hidrógeno y uno de oxígeno. Es esta configuración la que hace al agua tan valiosa para la vida.
Su molécula posee un “momento de dipolo eléctrico”, es decir que la carga eléctrica no está uniformemente distribuida, sino que tiene más carga positiva por un lado y más negativa por otro. Por ello el agua es un excelente solvente, o sea otras substancias se disuelven con facilidad en ella porque el dipolo eléctrico “rompe” los enlaces iónicos que son de naturaleza eléctrica y que mantienen unidos elementos químicos y moléculas. Así, muchas substancias se disuelven en agua, son transportadas, puesta en contacto y terminan reaccionando entre sí.

Tan esquiva es el agua fuera de la Tierra que, mientras conocemos con buena precisión las abundancias de los elementos que podemos detectar con relativa facilidad – en los espectros de las estrellas o del medio interestelar – sabemos relativamente poco sobre la abundancia del agua. En la Tierra se estima que hay aproximadamente un millón cuatrocientos mil millones de metros cúbicos de agua. Esto, en parte, debido a que nuestro planeta se sitúa en la zona habitable del Sol donde el agua puede existir en su estado líquido, lo que ha permitido el desarrollo de la vida.

Fuera de la Tierra, rastros de agua han sido detectados en los planetas mayores y en algunas de sus lunas, incluyendo nuestro satélite natural.
Se piensa que, por ejemplo, la luna de Júpiter, Europa, alberga un extenso océano de agua bajo su superficie helada, en el cual podrían, incluso, hallarse formas de vida. Estudiar la presencia de agua en Marte es una de las grandes tareas de las misiones no tripuladas enviadas a este planeta, las que han tenido hallazgos muy interesantes, los que son fundamentales desde la perspectiva de establecer asentamientos humanos en ese planeta.

¿De dónde viene el agua? El hidrógeno es un elemento primordial, este se formó poco después del Big Bang. El oxígeno, en cambio, junto con muchos otros elementos, es el resultado de los procesos de fusión nuclear que ocurren en el interior de estrellas macizas.
Y ¿el agua? Podemos detectar su presencia a través de la emisión de líneas espectrales en la banda infrarroja. Con este tipo de observacionesse ha observado la presencia de agua en los discos circumestelares – el material que rodea muchas estrellas jóvenes y que eventualmente puede originar sistemas planetarios –. Esto hace pensar que el oxígeno y el hidrógeno podrían juntarse en la superficie de partículas sólidas, a las que los astrónomos llaman “polvo”, y ahí originar la famosa molécula.
¿Y cómo habría llegado el agua a la Tierra? Se piensa que, en parte a bordo de cometas, los cuales sabemos contienen agua; en parte a través de protoplanetas originados en las regiones externas del Sistema Solar; y en parte a través de mecanismos que aún no se aclaran.

Muchas físicas, mucha química, mucha historia cósmica y mucho misterio y en un vaso de agua por tan solo 5 centavos de pesos.
Fuente: Comentarista.Emol.com -  19.julio.2018

AMENAZANTE ICEBERG EN GROENLANDIA



Esta imagen satelital, capturada por el Sentinel-2A el 9 de julio de 2018, muestra un enorme iceberg peligrosamente cerca de la aldea de Innaarsuit en la costa oeste de Groenlandia. 
Si el iceberg se rompe, las olas resultantes del hielo que cae podrían arrasar partes de la aldea.

Los 169 residentes de Innaarsuit están relativamente acostumbrados a ver flotar grandes icebergs, pero con un peso de alrededor de 10 millones de toneladas, este es el más grande en la memoria. Con trozos de hielo que nacen del iceberg, varios residentes fueron evacuados en medio de temores de una ruptura mayor. La planta de energía local también se encuentra en la costa, por lo que las olas también podrían cerrar el suministro de energía del pueblo. Sin embargo, hay informes recientes de que los fuertes vientos del sur han comenzado a empujar el témpano hacia el norte. La imagen también muestra varios otros icebergs grandes en los alrededores.

La Misión Copernicus Sentinel-2 es una constelación de dos satélites. Cada uno de los dos satélites lleva un innovador generador de imágenes multiespectrales de alta resolución con 13 bandas espectrales. La combinación de alta resolución, capacidades espectrales novedosas, un ancho de franja de 290 km y tiempos de revisitas frecuentes proporciona vistas sin precedentes de la Tierra y la capacidad de monitorear eventos rápidamente cambiantes como este.
Fuente: ESA Looming iceberg – 17.julio.2018

Traducción libre Soca

miércoles, 18 de julio de 2018

IMÁGENES EXTREMADAMENTE PRECISAS CON EL NUEVO SISTEMA DE ÓPTICA ADAPTATIVA DEL “VLT”

Estas imágenes del planeta Neptuno fueron obtenidos durante las pruebas del modo de óptica adaptativa de campo estrecho en el instrumento MUSE/GALACSI, instalado en el VLT (Very Large Telescope) de ESO. La imagen de la derecha está tomada sin el sistema de óptica adaptativa y la de la izquierda después de la instalación de la óptica adaptativa. Crédito: ESO/P. Weilbacher (AIP)

El VLT (Very Large Telescope) de ESO, ha llevado a cabo la primera luz de un nuevo modo de óptica adaptativa llamado “Tomografía láser” y ha captado imágenes de prueba extraordinariamente precisas del planeta Neptuno, cúmulos de estrellas y otros objetos.

El instrumento pionero MUSE en modo de campo estrecho, trabajando con el módulo de óptica adaptativa GALACSI, ahora puede utilizar esta nueva técnica para corregir las turbulencias de la atmósfera a diferentes altitudes. Ahora es posible captar imágenes desde la superficie de la Tierra en longitudes de onda visibles más nítidas que las del Telescopio Espacial Hubble de NASA / ESA.

La combinación de una gran nitidez de la imagen junto con las capacidades espectroscópicas de MUSE, permitirá a los astrónomos estudiar las propiedades de los objetos astronómicos con mucho más detalle de lo que ha sido posible hasta ahora.

El instrumento MUSE (Multi Unit Spectroscopic Explorer, explorador espectroscópico de multiunidad) instalado en el VLT (Very Large Telescope) de ESO, trabaja con una unidad de óptica adaptativa denominada GALACSI.
Hace uso de las instalaciones de estrellas de guiado láser (Laser Guide Stars Facility), 4LGSF, un subsistema de la instalación de óptica adaptativa (AOF, Adaptive Optics Facility). El AOF proporciona óptica adaptativa a los instrumentos de la Unidad de Telescopio 4 del VLT (UT4). MUSE fue el primer instrumento en beneficiarse de esta nueva instalación y ahora tiene dos modos de óptica adaptativa: el modo de campo amplio y el modo de campo estrecho. MUSE  y GALACSI en modo de campo amplio ya proporcionan la corrección sobre un campo de visión de 1.0 minuto de arco, con píxeles de un tamaño de 0,2" por 0,2". Este nuevo modo de campo estrecho de GALACSI cubre un campo de visión mucho más pequeño, de 7,5 segundos de arco, pero con píxeles mucho más pequeños, de sólo 0,025" por 0,025", para explotar al máximo su resolución.

El modo de amplio campo de MUSE, junto con GALACSI en modo nivel del suelo, corrige los efectos de la turbulencia atmosférica hasta un kilómetro por encima del telescopio sobre un campo de visión relativamente amplio. Pero el nuevo modo de campo estrecho, que utiliza tomografía láser, corrige casi la totalidad de las turbulencias atmosféricas sobre el telescopio para crear imágenes mucho más nítidas, pero en una región más pequeña del cielo. La turbulencia atmosférica varía con la altitud; algunas capas degradan más el haz de luz de las estrellas que otras. La compleja técnica de óptica adaptativa de tomografía láser pretende corregir, principalmente, las turbulencias de estas capas atmosféricas. Se ha seleccionado previamente un conjunto de capas para el modo de campo estrecho de MUSE/GALACSI a 0 km (a nivel del suelo; siempre una medida importante), 3,9 y 14 km de altitud. Posteriormente, el algoritmo de corrección se optimiza en estas capas, permitiendo a los astrónomos alcanzar una calidad de imagen casi tan buena como si se utilizara una estrella guía natural y alcanzando el límite teórico del telescopio.

Con esta nueva capacidad, el telescopio UT-4 de ocho metros alcanza el límite teórico de nitidez de la imagen y ya no está limitado por las perturbaciones atmosféricas.
Es algo extremadamente difícil de lograr en el rango visible y proporciona imágenes comparables en nitidez a las del Telescopio Espacial Hubble de NASA/ESA. Permitirá a los astrónomos estudiar con un detalle sin precedentes objetos fascinantes como agujeros negros supermasivos en el centro de galaxias distantes, chorros lanzados por estrellas jóvenes, cúmulos globulares, supernovas, planetas y sus satélites en el Sistema Solar y mucho más.

La óptica adaptativa es una técnica que compensa los efectos de las turbulencias provocadas por la atmósfera terrestre, también conocido como visibilidad astronómica o seeing, un gran problema al que se enfrentan todos los telescopios terrestres. La misma turbulencia de la atmósfera que hace que las estrellas titilen a simple vista, hace que los grandes telescopios obtengan imágenes borrosas del universo. La luz que nos llega de estrellas y galaxias se distorsiona al atravesar la capa protectora de nuestra atmósfera, y los astrónomos deben utilizar tecnología inteligente para mejorar de forma artificial la calidad de la imagen.
Para lograrlo, se fijan cuatro láseres brillantes al UT4 para proyectar hacia el cielo columnas de una intensa luz anaranjada de 30 centímetros de diámetro que excitan los átomos de sodio de las capas altas de la atmósfera y crean estrellas de guiado láser artificiales. Los sistemas de óptica adaptativa utilizan la luz de estas "estrellas" para determinar la turbulencia de la atmósfera y calcular las correcciones mil veces por segundo, ordenando al espejo secundario del UT4, delgado y deformable, que modificar constantemente su forma, compensando las deformaciones que provoca la atmósfera y corrigiendo la luz distorsionada.

Vídeo: ESOcast 172 Light: Imágenes extremadamente precisas con el nuevo sistema de óptica adaptativa del VLT (4K UHD

MUSE no es el único instrumento que disfruta de unas instalaciones de óptica adaptativa. La cámara infrarroja HAWK-Iya utiliza otro sistema de óptica adaptativaGRAAL. En unos años le seguirá el potente y nuevo instrumento ERIS. Juntos, estos grandes avances en óptica adaptativa están mejorando la ya poderosa flota de telescopios de ESO, cuyo objetivo es observar el universo.
Este nuevo modo constituye también un importante paso adelante para el ELT (Extremely Large Telescope) de ESO, que necesitará tomografía láser para alcanzar sus objetivos  científicos. Estos resultados en UT4 con el AOF ayudarán a los científicos e ingenieros del ELT a implementar una tecnología de óptica adaptativa similar en el gigante de 39 metros.
Fuente: ESO 1824es -18. julio.2018

Enlaces


Traducción libre de Soca

martes, 17 de julio de 2018

LA REBELIÓN DE LAS MÁQUINAS


El aprendizaje automático se convertirá en una herramienta aún más importante cuando los científicos se actualicen al Gran Colisionador de Hadrones de alta luminosidad.


Obra de Sandbox Studio, Chicago

¿Cuándo se convierten algunos puntos dispersos en una línea? ¿Y cuándo se convierte esa línea en una pista de partículas? Durante décadas, los físicos han estado haciendo este tipo de preguntas. 
Hoy, también lo son sus máquinas.

El aprendizaje automático es el proceso mediante el cual la tarea de reconocimiento de patrones se subcontrata a un algoritmo informático. Los humanos son naturalmente muy buenos para encontrar y procesar patrones. Es por eso que puedes reconocer al instante una canción de tu banda favorita, incluso si nunca la has escuchado antes.

El aprendizaje automático toma este proceso muy humano y deja atrás el poder de la computación. Mientras que un ser humano podría reconocer una banda basada en una variedad de atributos, como el tenor vocal del cantante principal, una computadora puede procesar otras características sutiles que un ser humano podría pasar por alto. La plataforma de transmisión de música Pandora categoriza cada pieza de música en términos de 450 cualidades auditivas diferentes.
"Las máquinas pueden manejar mucha más información de la que nuestros cerebros pueden", dice Eduardo Rodrigues, físico de la Universidad de Cincinnati. "Es por eso que pueden encontrar patrones que a veces son invisibles para nosotros".

El aprendizaje automático comenzó a ser un lugar común en informática durante la década de 1980, y los físicos de LHC lo han usado rutinariamente para ayudar a gestionar y procesar datos brutos desde 2012. Ahora, con las actualizaciones de lo que ya es el acelerador de partículas más poderoso del mundo en el horizonte, los físicos están implementando nuevas aplicaciones de aprendizaje automático para ayudarlos con el inminente diluvio de datos.
"La actualización de alta luminosidad al LHC va a aumentar nuestra cantidad de datos en un factor de 100 en relación con la utilizada para descubrir el Higgs", dice Peter Elmer, físico de la Universidad de Princeton. "Esto nos ayudará a buscar partículas raras y nueva física, pero si no estamos preparados, corremos el riesgo de quedar completamente inundado de datos".

Solo una pequeña fracción de las colisiones del LHC son interesantes para los científicos. Por ejemplo, los bosones de Higgs nacen en aproximadamente una de cada dos mil millones de colisiones de protones y protones. El aprendizaje automático está ayudando a los científicos a clasificar el ruido y aislar lo que es realmente importante.
"Es como extraer gemas raras", dice Rodrigues. "Mantener toda la arena y los guijarros sería ridículo, así que usamos algoritmos para ayudarnos a identificar las cosas que parecen interesantes. Con el aprendizaje automático, podemos purificar la muestra aún más y de manera más eficiente ".

Los físicos de LHC usan un tipo de aprendizaje automático llamado aprendizaje supervisado. El principio detrás del aprendizaje supervisado no es nada nuevo; de hecho, es la forma en que la mayoría de nosotros aprende a leer y escribir. Los físicos comienzan por entrenar sus algoritmos de aprendizaje automático con datos de colisiones que ya están bien entendidas.
Ellos les dicen: "Así es como se ve un Higgs; esto es lo que parece una partícula con un quark inferior".

Después de darle a un algoritmo toda la información que ya conocen sobre cientos de ejemplos, los físicos retroceden y le asignan tareas a la computadora para identificar las partículas en colisiones sin etiquetas. Monitorean qué tan bien funciona el algoritmo y dan correcciones en el camino. Eventualmente, la computadora necesita solo una guía mínima y puede llegar a ser incluso mejor que los humanos al analizar los datos.
"Esto está ahorrando mucho tiempo al experimento LHCb", dice Rodrigues. "En el pasado, necesitábamos meses para dar sentido a nuestros datos de detectores sin procesar. Con el aprendizaje automático, ahora podemos procesar y etiquetar eventos dentro de las primeras horas después de que los grabemos ". 

El aprendizaje automático no solo ayuda a los físicos a comprender sus datos reales, sino que también les ayudará a crear simulaciones para probar sus predicciones a partir de la teoría.
Utilizando algoritmos en ausencia de aprendizaje automático, los científicos han creado versiones virtuales de sus detectores con todas las leyes conocidas de la física pre programadas. 
"El experimento virtual sigue las leyes conocidas de la física a una T", dice Elmer. "Simulamos colisiones protón-protón y luego predecimos cómo los subproductos interactuarán con cada parte de nuestro detector".
Si los científicos encuentran una discrepancia consistente entre los datos virtuales generados por sus simulaciones y los datos reales registrados por sus detectores, podría significar que las partículas en el mundo real están jugando con un conjunto de reglas diferentes a las que los físicos ya conocen.

Una debilidad de las simulaciones actuales de los científicos es que son demasiado lentos. Utilizan una serie de algoritmos para calcular con precisión cómo una partícula interactuará con cada parte del detector que golpea mientras se mueve a través de las muchas capas de un detector de partículas. 
A pesar de que solo se necesitan unos minutos para simular una colisión de esta manera, los científicos necesitan simular billones de colisiones para cubrir los posibles resultados de los 600 millones de colisiones por segundo que registrarán con el HL-LHC."No tenemos el tiempo o los recursos para eso", dice Elmer.
Con el aprendizaje automático, por otro lado, pueden generalizar. En lugar de calcular cada interacción individual de partículas con la materia a lo largo del camino, pueden estimar su comportamiento general en función de sus rutas típicas a través del detector.

"Es una cuestión de equilibrar la calidad con la cantidad", dice Elmer. "Todavía utilizaremos los cálculos muy precisos para algunos estudios. Pero para otros, no necesitamos tales simulaciones de alta resolución para la física que queremos hacer ".

El aprendizaje automático está ayudando a los científicos a procesar más datos más rápidamente. Con las actualizaciones planificadas para el LHC, podría jugar un papel aún grande en el futuro. Pero no es una bala de plata, dice Elmer.
"Todavía queremos entender por qué y cómo funcionan todos nuestros análisis para que podamos estar completamente seguros de los resultados que producen", dice. "Siempre necesitaremos un equilibrio entre las nuevas tecnologías brillantes y nuestras técnicas de análisis más tradicionales".
Fuente: SYMMETRY 17. julio.2018 – Sara Charley (Rice of the Machines)


Traducción libre de Soca

domingo, 15 de julio de 2018

DESCUBREN CÓMO SE INICIA EL “ALZHEIMER” EN EL CEREBRO


 Tal vez ahora sea posible impedir su desarrollo

Los científicos han identificado el momento preciso en el que se inicia en el cerebro la enfermedad de Alzheimer. Le llaman el Big Bang de esta forma de demencia y ocurre cuando una proteína del sistema nervioso se vuelve tóxica, se adhiere a otras proteínas, se extiende como un virus y comienza a destruir neuronas. Ahora tal vez sea posible impedirlo.


Las acumulaciones anormales de una proteína llamada tau (en azul en la imagen) pueden acumularse dentro de las neuronas, formando hilos enredados y, finalmente, dañando la conexión sináptica entre las neuronas. Imagen: National Institute on Aging.

Los científicos han conseguido observar por primera vez el momento preciso en el que la enfermedad de Alzheimer comienza a formarse en el cerebro. El descubrimiento abre la posibilidad de impedir clínicamente su desarrollo.

Investigaciones anteriores habían determinado que el Alzheimer se produce por la acumulación de dos proteínas anormales: beta amiloide y, especialmente, la tau. Esta última proteína, abundante en el sistema nervioso central y periférico, es la que destruye las células nerviosas, provocando la pérdida de la memoria y de otras funciones cognitivas.

Lo que ha descubierto la nueva investigación es el momento en el que la proteína tau se vuelve tóxica, antes de que pueda empezar a dañar las neuronas.  “Pensamos en esto como el 'Big Bang' de la patología tau. Es una forma de observar desde el principio del proceso de la enfermedad", explica Mark Diamond, Director del Centro de Alzheimer y Enfermedades Neurodegenerativas de UT Southwestern, en un comunicado

"Este es quizás el hallazgo más grande que hemos realizado hasta la fecha, aunque es probable que pase algún tiempo antes de que pueda traducirse en tratamientos clínicos. De momento cambia mucho la forma en que pensamos sobre el problema", añade. 

El estudio, publicado en la Revista eLife, contradice la creencia anterior de que una proteína tau aislada no tiene una forma definida y que sólo es dañina después de que comienza a ensamblarse con otras proteínas tau para formar los distintos ovillos observados en los cerebros de los pacientes de Alzheimer.

Los científicos hicieron el descubrimiento después de extraer proteínas tau de cerebros humanos y aislarlos como moléculas individuales. Descubrieron que cuando la proteína tau se vuelve tóxica, una parte de ella se adhiere a otras proteínas tau, formando así las marañas que luego terminan matando las neuronas. 

Estas acumulaciones anormales de la proteína tau pueden acumularse dentro de las neuronas, formando hilos enredados y, finalmente, dañan la conexión sináptica, originando así la enfermedad de Alzheimer.

Tau, la clave 
Investigaciones anteriores de este mismo equipo habían determinado que tau actúa como una proteína infecciosa que se puede diseminar como un virus a través del cerebro. También había establecido que tau puede formar muchas cepas distintas en el cerebro humano, e incluso había desarrollado métodos para reproducir estas cepas en el laboratorio. Su investigación más reciente indica que una única forma patológica de proteína tau puede tener múltiples formas posibles, cada una asociada con una forma diferente de demencia. 

El nuevo estudio proporciona una nueva comprensión de la naturaleza cambiante de forma de una molécula tau, justo antes de que empiece a adherirse a sí misma para formar agregados más grandes. 

El hallazgo permite pensar en una nueva estrategia para detectar la enfermedad de Alzheimer antes de que arraigue y permitirá desarrollar tratamientos que estabilicen las proteínas tau antes de que cambien de forma y desencadene la destrucción de neuronas. 
Según Diamond,” La búsqueda continua para conseguir un tratamiento que bloquee el proceso de neurodegeneración allí donde comienza. Si funciona, la incidencia de la enfermedad de Alzheimer podría reducirse sustancialmente. Sería algo realmente sorprendente."
Según la Organización Mundial de la Salud, el Alzheimer afecta al 20 por ciento de la población mayor de 80 años.
Fuente: Tendencias 21 / Tendencias Científicas 15.julio.2018

Referencia: Hilda Mirbaha et al.  eLife2018 7. E36584 DOI:10.7554/eLife 36584

EL OBSERVATORIO “IceCUBE” DE NEUTRINOS, DETECTA Y DESCUBRE UN BLAZAR COMO FUENTE


IceCube es un observatorio de neutrinos cuyos detectores están enterrados a más de una milla por debajo de la superficie del Polo Sur. Crédito de la imagen: Emanuel Jacobi / National Science Foundation.

Hace unos cuatro mil millones de años, cuando el planeta Tierra todavía estaba en su infancia, el eje de un agujero negro aproximadamente mil millones de veces más masivo que el sol apuntaba hacia donde estaría nuestro planeta el 22 de septiembre de 2017.

 A lo largo del eje dispara neutrinos y rayos gamma a la Tierra: los Blazar son un tipo de núcleo galáctico activo con uno de sus jets apuntando hacia nosotros. En esta representación artística, un blazar emite tanto neutrinos como rayos gamma que podrían ser detectados por el IceCube Neutrino Observatory así como por otros telescopios en la Tierra y en el espacio. IceCube / NASA

A lo largo del eje, un chorro de partículas de alta energía que envió fotones y neutrinos en nuestra dirección a la velocidad de la luz o cerca de ella. El IceCube Neutrino Observatory en el Polo Sur detectó una de estas partículas subatómicas, el IceCube -170922A de neutrinos, y la remontó a un pequeño parche de cielo en la Constelación de Orión y señaló la fuente cósmica: Un Agujero Negro ardiente del tamaño de un billón soles, ubicado a 3.7 billones de años luz de la Tierra, conocidos como Blazar TXS 0506 + 056.

Los Blazars se conocen desde hace un tiempo. Lo que no estaba claro era que podían producir neutrinos de alta energía
Aún más emocionante fue que tales neutrinos nunca antes se habían rastreado hasta su origen.
Encontrar la fuente cósmica de neutrinos de alta energía por primera vez, anunciada el 12 de julio de 2018 por la National Science Foundation, marca el comienzo de una nueva era de astronomía de neutrinos. Perseguidos desde 1976, cuando los primeros físicos intentaron construir un detector de neutrinos de alta energía a gran escala frente a la costa hawaiana , el descubrimiento de IceCube marca la conclusión triunfal de una larga y difícil campaña de cientos de científicos e ingenieros, y simultáneamente el nacimiento de una rama de astronomía completamente nueva.

La constelación de Orión, con una diana en la ubicación del blazar. Silvia Bravo Gallart / Proyecto_WIPAC_Communications , CC BY-ND

La detección de dos mensajeros astronómicos distintos (neutrinos y luz) es una poderosa demostración de cómo la llamada astronomía multimessenger puede proporcionar la influencia que necesitamos para identificar y comprender algunos de los fenómenos más energéticos del universo. Desde su descubrimiento como fuente de neutrinos hace menos de un año, el Blazar TXS 0506 + 056 ha sido objeto de un intenso escrutinio. Su flujo asociado de neutrinos continúa proporcionando una visión profunda de los procesos físicos en el trabajo cerca del agujero negro y su poderoso chorro de partículas y radiación, transmitido casi directamente hacia la Tierra desde su ubicación justo al lado de Orión.

Como tres científicos en un equipo global de físicos y astrónomos involucrados en este notable descubrimiento, nos sentimos atraídos por participar en este experimento por su gran audacia, por el desafío físico y emocional de trabajar en turnos largos en un lugar brutalmente frío mientras insertamos costosos, el equipo sensible en los agujeros perforó 1.5 millas de profundidad en el hielo y haciendo que todo funcione. Y, por supuesto, por la emocionante oportunidad de ser las primeras personas en mirar un nuevo tipo de telescopio y ver lo que revela sobre los cielos.

Un detector remoto y frío de neutrinos

A una altitud que excede los 9,000 pies (2743 metros) y con temperaturas promedio en verano que rara vez alcanzan los frígidos -30 grados Celsius, el Polo Sur puede no parecerle el lugar ideal para hacer nada, además de alardear sobre visitar un lugar tan soleado y brillante que necesita protección solar para tus narices. Por otro lado, una vez que te das cuenta de que la altitud se debe a una gruesa capa de hielo ultrapuro formado por varios cientos de miles de años de nieve prístina y que las bajas temperaturas lo han mantenido todo muy bien congelado, entonces no te sorprenderá que para el neutrino constructores de telescopios, las ventajas científicas superan el entorno prohibitivo. El Polo Sur es ahora el hogar del detector de neutrinos más grande del mundo, IceCube .

Marzo de 2015: el laboratorio IceCube en la estación de South Pole de Amundsen-Scott, en la Antártida, alberga las computadoras que recopilan datos brutos del detector. Debido a las asignaciones de ancho de banda satelital, el primer nivel de reconstrucción y filtrado de eventos ocurre casi en tiempo real en este laboratorio. Erik Beiser, IceCube / NSF

Puede parecer extraño que necesitemos un detector tan elaborado dado que alrededor de 100 mil millones de estas partículas fundamentales se desplazan a través de la uña cada segundo y se deslizan sin esfuerzo por toda la Tierra sin interactuar con un solo átomo terrestre.

De hecho, los neutrinos son las segundas partículas más ubicuas, solo superadas por los fotones cósmicos del fondo de microondas que quedaron del Big Bang. Comprenden una cuarta parte de las partículas fundamentales conocidas. Sin embargo, debido a que apenas interactúan con otras materias, son posiblemente las menos comprendidas.

Para atrapar un puñado de estas partículas elusivas y descubrir sus fuentes, los físicos necesitan detectores de un gran kilómetro de ancho hechos de un material ópticamente transparente, como el hielo. Afortunadamente, la madre naturaleza nos proporcionó esta losa prístina de hielo transparente donde pudimos construir nuestro detector.

El IceCube Neutrino Observatory instrumenta un volumen de aproximadamente un kilómetro cúbico de hielo antártico transparente con 5.160 módulos ópticos digitales (DOM) a profundidades entre 1.450 y 2.450 metros. El observatorio incluye un subdetector densamente instrumentado, DeepCore, y un conjunto de ducha de aire de superficie, IceTop. Felipe Pedreros, IceCube / NSF

En el Polo Sur, varios cientos de científicos e ingenieros han construido y desplegado más de 5.000 fotosensores individuales en 86 agujeros separados de 1.5 millas (4.572 metros) de profundidad fundidos en el casquete polar con un taladro de agua caliente diseñado a medida. En el transcurso de siete temporadas de verano australes instalamos todos los sensores. La matriz IceCube se instaló por completo a principios de 2011 y ha estado tomando datos continuamente desde entonces.

Este conjunto de detectores unidos por hielo puede detectar con gran precisión cuando un neutrino vuela e interactúa con unas pocas partículas terrestres que generan patrones tenues de luz azul de Cherenkov, emitidas cuando las partículas cargadas se mueven a través de un medio como el hielo a una velocidad cercana a la de la luz.

 
La emisión de Blazar llega a la Tierra: los rayos gamma (magenta), la forma más energética de la luz, y las partículas elusivas llamadas neutrinos (grises) formadas en el chorro de un núcleo galáctico activo muy, muy lejano. La radiación viajó durante aproximadamente 4 mil millones de años antes de llegar a la Tierra. El IceCube Neutrino Observatory en el Polo Sur detectó la llegada del neutrino IC170922 a la Antártida el 22 de septiembre de 2017. Después de la interacción con una molécula de hielo, una partícula secundaria de alta energía - un muón - ingresa a IceCube, dejando un rastro de azul luz detrás de ella. Crédito: Centro Goddard de Vuelos Espaciales de la NASA / CI Lab / Nicolle R. Fuller / NSF / Ice Cube

Neutrinos del cosmos

El talón de Aquiles de los detectores de neutrinos es que otras partículas, que se originan en la atmósfera cercana, también pueden desencadenar estos patrones de luz azul de Cherenkov. Para eliminar estas señales falsas, los detectores están enterrados profundamente en el hielo para filtrar la interferencia antes de que pueda llegar al detector sensible. Pero a pesar de estar a menos de una milla de hielo sólido, IceCube todavía enfrenta una avalancha de aproximadamente 2,500 de tales partículas por segundo, cada una de las cuales podría deberse a un neutrino.
Con la tasa esperada de interesantes interacciones de neutrinos astrofísicos reales (como los neutrinos entrantes de un agujero negro) que rondan alrededor de uno por mes, nos enfrentamos con un problema desalentador como sería la búsqueda de una aguja en un pajar.

La estrategia de IceCube es mirar solo los eventos con tanta energía que es muy poco probable que sean de origen atmosférico. Con estos criterios de selección y varios años de datos, IceCube descubrió los neutrinos astrofísicos que había estado buscando durante mucho tiempo, pero no pudo identificar ninguna fuente individual, como núcleos galácticos activos o estallidos de rayos gamma, entre las varias docenas de neutrinos de alta energía que había capturado.

Para descubrir las fuentes reales, IceCube comenzó a distribuir alertas de llegada de neutrinos en abril de 2016 con la ayuda de la Red de Observatorios Astrofísicos Multimessenger en Penn State.
En el transcurso de los próximos 16 meses, se distribuyeron 11 alertas de neutrinos IceCube-AMON a través de AMON y la red de coordenadas de rayos gamma, solo minutos o segundos después de ser detectados en el Polo Sur.

El 22 de septiembre de 2017, IceCube alertó a la comunidad internacional de astronomía sobre la detección de un neutrino de alta energía. Alrededor de 20 observatorios en la Tierra y en el espacio realizaron observaciones de seguimiento, lo que permitió la identificación de lo que los científicos consideran una fuente de neutrinos de muy alta energía y, por lo tanto, de rayos cósmicos. Además de los neutrinos, las observaciones realizadas a través del espectro electromagnético incluyeron rayos gamma, rayos X y radiación óptica y de radio. Estos observatorios son administrados por equipos internacionales con un total de más de 1,000 científicos apoyados por agencias de financiamiento en países de todo el mundo. Nicolle R. Fuller / NSF / IceCube

Una nueva ventana en el universo

Las alertas desencadenaron una secuencia automatizada de observaciones de rayos X y ultravioleta con el Observatorio Neil Gehrels Swift de la NASA y condujeron a más estudios con el Telescopio Espacial Fermi Gamma-Ray de la NASA y la Matriz del Telescopio Espectroscópico Nuclear , y otros 13 observatorios en todo el mundo.

Swift fue la primera instalación que identificó el blazar flamígero TXS 0506 + 056 como una posible fuente del evento de neutrinos. El Telescopio de área grande de Fermi informó que el Blazar estaba en un estado de llamarada y emitía muchos más rayos gamma que en el pasado. A medida que se difundió la noticia, otros observatorios se subieron al tren con entusiasmo y se produjo una amplia gama de observaciones. 
El telescopio terrestre MAGIC notó que nuestro neutrino provenía de una región que producía rayos gamma de muy alta energía (cada uno diez millones de veces más enérgico que un rayo X), la primera vez que se ha observado tal coincidencia. Otras observaciones ópticas completaron el rompecabezas midiendo la distancia al Blazar TXS 0506 + 056: a unos cuatro mil millones de años luz de la Tierra.

Con la primera identificación de una fuente cósmica de neutrinos de altas energía, ha surgido una nueva rama en el árbol de la astronomía. A medida que la neutrino astronomía de alta energía crece con más datos, una mejor coordinación entre interobservadores y detectores más sensibles, podremos mapear el cielo de neutrinos con una precisión cada vez mejor.
Y esperamos nuevos y emocionantes avances en nuestra comprensión del universo para hacer lo mismo, tales como: resolver el misterio centenario del origen de los rayos cósmicos increíblemente energéticos; probar si el espaciotiempo en sí es espumoso, con fluctuaciones cuánticas a escalas de distancia muy pequeñas, como lo predicen ciertas teorías de la gravedad cuántica; y descubriendo exactamente cómo los aceleradores cósmicos, como los que están alrededor del agujero negro TXS 0506 + 056, logran acelerar las partículas a energías tan asombrosamente altas.
Durante 20 años, IceCube Collaboration tuvo el sueño de identificar las fuentes de neutrinos cósmicos de alta energía, y este sueño ahora es una realidad.

Este trabajo de Doug Cowen, Profesor de Física y Astronomía y Astrofísica, de la Universidad Estatal de Pensilvania; Azaden Keivani, Frontiers of Science Fellow, Columbia University y Derek Fox, Profesor Asociado de Astronomía y Astrof{isica, Universidad Estatal de Pensilvania, se encuentra en “The Conversation” bajo el título: The IceCube observatory detects neutrino and discovers a blazar asits source”
Fuente: The Conversation – 12 de julio. 2018

Glosario
Blazar: Un blazar es una fuente de energía muy compacta y altamente variable, asociada a un agujero negro situado en el centro de una galaxia. Los blazares están entre los fenómenos más violentos del universo y son un tema importante en la astronomía extragaláctica. ... Los blazars no constituyen un grupo homogéneo

Traducción libre de Soca