Un método peculiar

Primero, Wood y su equipo revisaron artículos de revistas antiguas para rastrear el cambio a largo plazo del Anisakis y el Pseudoterranova. Su aumento en las últimas décadas implica que “en la actualidad, podría ser un poco más arriesgado consumir mariscos crudos que en la década de 1970”, explica Wood en un declaraciones a la revista Hakai. "Aún así, las medidas de salud pública en los países desarrollados son lo suficientemente buenas para “mantener estas exquisiteces a salvo”, añade.

Los gusanos son un problema mayor para sus huéspedes acuáticos: los peces infectados pueden sufrir daños en los órganos, y los peces debilitados tienen más probabilidades de enfermarse y morir.

Para remontarse a muestras más antiguas, el equipo se adentró en la colección de peces preservados en el Museo Burke de la Universidad de Washington, que Wood describe como una cápsula del tiempo de parásitos. “Se conservan junto con el espécimen y aún son detectables”, explica Wood. “Se puede ver cómo eran los parásitos en un pez de 1888”.

Al observar 306 lenguados de la especie platija limón (Parophrys vetulus) recolectados en Puget Sound, Washington, los investigadores encontraron un aumento de ocho veces del parásito nematodo Clavinema mariae desde la década de 1930, que no había sido reportado previamente. Si bien este parásito no afecta a los humanos, es una plaga importante.

Skylar Hopkins, ecologista de parásitos en Virginia Tech (Instituto Politécnico y Universidad Estatal de Virginia), afirma que la capacidad de estudiar las cargas históricas de parásitos con fines comparativos es un gran problema para los ecólogos. “Esto abre un mundo completamente nuevo para estudiar el pasado", explica.

Cambios en los ecosistemas

No está claro qué causó exactamente los cambios en las cargas de parásitos en los peces, pero es probable que los humanos hayan tenido algo que ver. En el caso del lenguado, la escorrentía agrícola en Puget Sound podría aumentar la población de copépodos que albergan los parásitos. Esta subclase de crustáceo es una importante fuente de alimento para los peces.

Wood señala que los diferentes parásitos podrían reaccionar a los cambios en su entorno de maneras distintas. Según ha descubierto, en las áreas con una la alta presión de pesca, los parásitos con ciclos de vida complejos y de múltiples huéspedes tienden a disminuir, mientras que los que tienen ciclos de vida más simples tienden a aumentar.

Según Hopkins, es importante comprender cómo los cambios ambientales afectan a los parásitos, incluso los que generalmente no afectan a los humanos, para predecir cómo podrían reaccionar a los cambios en el futuro y cómo esos cambios podrían repercutir en el ecosistema. “Los parásitos están arraigados a las redes alimentarias”, explica.

Investigadores del Institute for Systems Neuroscience, de la Universidad de Ciencia y Tecnología de Trondheim, en Noruega, han descubierto una red de células cerebrales que expresa nuestro sentido del tiempo en las experiencias y los recuerdos que forman nuestra memoria episódica.

El área del cerebro donde se experimenta el tiempo se encuentra en la corteza entorrinal lateral (LEC), junto a la corteza entorrinal media (MEC), que es donde el cerebro registra la dimensión espacial. Y al lado de la MEC se encuentra el hipocampo, que desempeña funciones relacionadas con la memoria y la gestión del espacio.

Los relojes son dispositivos creados por los humanos para medir el tiempo. Por contrato social, acordamos coordinar nuestras propias actividades de acuerdo con el tiempo del reloj. Sin embargo, el cerebro no percibe la duración en el tiempo con las unidades estandarizadas de minutos y horas del reloj. La firma del tiempo en nuestras experiencias y recuerdos pertenece a un tipo diferente de temporalidad.

A lo largo de la evolución, los organismos vivos, incluidos los humanos, han desarrollado múltiples relojes biológicos para ayudarnos a mantener un registro del tiempo. Lo que separa a los diversos cronometradores del cerebro no es solo la escala de tiempo que se mide, sino también los fenómenos a los que se sintonizan los relojes neuronales.

Algunos cronometradores están configurados por procesos externos, como el reloj circadiano, que está sintonizado con el ascenso y la caída de la luz del día. Este reloj ayuda a los organismos a adaptarse a los ritmos de un día.

Otros cronometradores están configurados por fenómenos de orígenes más intrínsecos, como las células de tiempo del hipocampo, que forman una señal en cadena similar al dominó: rastrean los intervalos de tiempo de hasta 10 segundos de manera precisa.

Hoy sabemos mucho sobre los mecanismos del cerebro para medir escalas de tiempo pequeñas como segundos. Sin embargo, poco se sabe acerca de la escala de tiempo que usa el cerebro para registrar nuestras experiencias y recuerdos, que pueden durar desde segundos hasta minutos u horas.

La prueba


A los equipos se les dio un conjunto de imágenes que representaban a un grupo de personas y se les asignó la tarea de desarrollar un algoritmo que pudiera clasificar a las personas en las fotos como felices, neutrales o negativas. Los equipos tuvieron un mes y medio y siete intentos para crear el algoritmo más preciso posible.


El grupo, guiado por el presidente del departamento y asesor de Guo, Kenneth E. Barner, fusionó ocho modelos diferentes para desarrollar su solución ganadora. El algoritmo funciona en fotografías de varias resoluciones y fue publicada por la Association for Computing Machinery.


Aplicaciones


El objetivo del trabajo es clasificar automáticamente las imágenes subidas a sitios web. “Los usuarios verían las imágenes que están buscando porque el algoritmo se ejecutaría y etiquetaría si las personas están felices o no”, explica Guo en un comunicado. “Podría usarse para analizar las emociones de un grupo de personas fotografiadas en una protesta, una fiesta, una boda o una reunión, por ejemplo. Esta tecnología también podría desarrollarse para determinar qué tipo de evento muestra una imagen dada”.

La ablación en redes neuronales artificiales


El primer paso que llevaron a cabo los investigadores fue entrenar una red para realizar una tarea específica, como reconocer dígitos escritos a mano. Después, cortaron una pequeña parte de la red y evaluaron cómo cambiaba su rendimiento debido al daño causado. En cada sección se eliminó de la red un “grupo de ablación” y solo se separó un grupo cada vez.


En tercer lugar, determinaron si existía una relación entre la ubicación de la parte dañada y el efecto que tuvo en el rendimiento de la red. “De esta manera, observamos que las habilidades específicas de la red, como realizar movimientos hacia adelante del robot controlado, están representadas localmente y se pueden destruir a propósito”, señalan Mayes y Meisen.


Conclusiones principales


Al examinar cómo las intervenciones afectaron en al funcionamiento de sus redes, los investigadores sugirieren que existen vínculos y similitudes entre las redes artificiales y biológicas. Están relacionadas tanto con la forma en que las redes se organizan como con la forma en que almacenan la información.


“Nuestro hallazgo más interesante es la observación de que el rendimiento de una red dañada generalmente disminuye, mientras que las capacidades muy específicas de la red, como el reconocimiento de un dígito específico, pueden mejorarse dañando partes específicas”, señalan Meyes y Meisen. “Además, nuestro estudio implica que la aplicación de métodos neurocientíficos para las redes neuronales artificiales puede abrir nuevas perspectivas para comprender la inteligencia artificial”.


Próximas investigaciones


Las investigaciones futuras podrían estudiar las similitudes entre las redes neuronales artificiales y las redes cerebrales con mayor detalle y en escalas más grandes.

“Uno de nuestros próximos pasos será visualizar la actividad en las redes neuronales artificiales con métodos de imagen como la Resonancia Magnética Funcional (RMF), que se emplean en neurociencia. Nuestro objetivo es hacer que el proceso de toma de decisiones en los redes neuronales artificiales sea más transparente y obtener una nueva perspectiva sobre la Inteligencia Artificial en general”, adelantan Meyes y Meisen.

La más precisa cosmología

“Con el análisis de sólo una quinta parte de sus datos, DES ya ha conseguido las medidas cosmológicas más precisas hasta la fecha. Con el análisis de todos los datos, en los próximos años, DES someterá al modelo cosmológico en vigor, que asume que la energía oscura es debida a la constante cosmológica, propuesta y luego descartada por Einstein, al más duro test al que jamás se ha enfrentado”, indica Ramon Miquel, investigador principal de DES en el IFAE.

Por su parte, Juan García-Bellido, investigador principal de DES en el IFT-UAM/CSIC, considera que "Es emocionante haber podido participar, gracias a DECam, en un descubrimiento como el de la Kilonova, que inició una nueva era, la de la Astronomía de Multimensajeros, y que ha permitido determinar de forma independiente el ritmo de expansión del Universo".

Recientemente, DES ha publicado sus primeros resultados cosmológicos basados en supernovas (207 de ellas con seguimiento espectroscópico de los 3 primeros años de datos), utilizando un método que proporcionó la primera evidencia de la aceleración cósmica hace 20 años. Muchos nuevos resultados cosmológicos, más exhaustivos y precisos, se publicarán en los próximos años.

Importante papel español

Los científicos de DES-Spain han tenido y tienen un papel muy destacado en el análisis de los datos. En los resultados cosmológicos obtenidos hasta la fecha, investigadores del IFAE han sido líderes en la determinación de la distancia a las galaxias, que es un elemento esencial para poder interpretar las observaciones realizadas, así como en el estudio de las correlaciones entre las posiciones de galaxias cercanas y la forma de galaxias lejanas.

El ICE-CSIC/IEEC ha participado en la creación de mapas de materia oscura, así como en las simulaciones y el estudio de agrupamiento de galaxias. El IFT-UAM/CSIC ha construido catálogos sintéticos para el estudio de errores sistemáticos y las matrices de covariancia. El CIEMAT ha sido una de las instituciones responsables de la construcción de los catálogos de galaxias y del estudio del agrupamiento de las mismas, una de las pruebas utilizadas para obtener los resultados cosmológicos.

Ingente tarea

La tarea de acumular tal cantidad de datos no es pequeña. A lo largo del cartografiado, se requirió a cientos de científicos para que hicieran funcionar la cámara durante varias noches, por turnos, con la ayuda de los técnicos del observatorio. Para organizar este esfuerzo, DES adoptó algunos de los métodos utilizados en los experimentos de física de partículas, en los que toda persona que trabaje en el experimento colabora de alguna manera en su operación.

DECam permanecerá montada en el telescopio Blanco de Cerro Tololo durante 5 o 10 años más, y continuará siendo un instrumento de enorme utilidad para colaboraciones de todo el mundo.

La colaboración DES se centrará ahora en la producción de nuevos resultados usando los 6 años de datos, incluyendo nuevas observaciones sobre la energía oscura. Aunque una era toca a su fin para DES, la siguiente era del cartografiado no ha hecho más que empezar.

El Telescopio Espacial Hubble de la NASA / ESA ha capturado la imagen más detallada hasta la fecha de un vecino cercano de la Vía Láctea: la galaxia del Triándulo, ubicada a una distancia de solo tres millones de años luz.

Este estudio panorámico de la tercera galaxia más grande en nuestro grupo local de galaxias brinda una visión fascinante de los 40 mil millones de estrellas que conforman uno de los objetos más distantes visibles a simple vista.

La Galaxia del Triángulo es la tercera galaxia más grande del Grupo Local, un conjunto de más de 50 galaxias unidas por la gravedad, pero también la galaxia espiral más pequeña. Mide solo unos 60. 000 años luz de diámetro, en comparación con los 200.000 años luz de la galaxia de Andrómeda. La Vía Láctea se encuentra entre estos extremos a unos 100.000 años luz de diámetro.

Gas y polvo

La Galaxia del Triángulo no solo es superada en tamaño por las otras dos galaxias espirales del Grupo Local, sino por la multitud de estrellas que contienen. En contraste con las dos espirales más grandes, la Galaxia del Triángulo no tiene un bulto brillante en el centro y tampoco tiene una barra que conecte sus brazos en espiral al centro. Sin embargo, contiene una gran cantidad de gas y polvo, dando lugar a una rápida formación de estrellas. Las nuevas estrellas se forman a una tasa de aproximadamente una masa solar cada dos años.

La abundancia de nubes de gas en la galaxia del Triángulo es precisamente lo que atrajo a los astrónomos a realizar este estudio detallado. Cuando nacen las estrellas, consumen material en estas nubes de gas y polvo, dejando menos combustible para que surjan nuevas estrellas. La imagen del Hubble muestra dos de las cuatro regiones más brillantes de la galaxia: NGC 595 y NGC 604. Esta última es la segunda región más luminosa del hidrógeno ionizado dentro del Grupo Local y también se encuentra entre las regiones de formación estelar más grandes conocidas en el Grupo Local.

Estas observaciones detalladas de la Galaxia del Triángulo tienen un tremendo valor heredado: combinadas con las de la Vía Láctea, la galaxia Andrómeda y las galaxias irregulares de la Nube de Magallanes, ayudarán a los astrónomos a comprender mejor la formación de estrellas y la evolución estelar .

Más información

El Club Nuevo Mundo y Dinámica Fundación han puesto en marcha el premio ANTÍTESIS A LA TEORÍA DE INTERACCIONES DINÁMICAS DE GABRIEL BARCELÓ.

La TEORÍA DE INTERACCIONES DINÁMICAS, propuesta por Gabriel Barceló Rico-Avello, en múltiples trabajos y artículos científicos, se recoge en su tratado NUEVO PARADIGMA EN FÍSICA. La teoría ha sido contrastada con múltiples pruebas y experimentos realizados en aplicación del método científico, que supuestamente, demuestran su veracidad.

Esta teoría propone un nuevo modelo dinámico para los cuerpos en movimiento acelerado por rotaciones simultáneas no coaxiales, aplicable a la astrofísica y, en general, a la dinámica, coherente con la Teoría de la Relatividad y con las Leyes de Kepler, pero en oposición a las ideas de Newton.

No obstante, en el libro: SIEMPRE ES POSIBLE… UN NUEVO PARADIGMA, se anunciaba ya la convocatoria de un premio, con el fin de verificar, confirmar o rebatir esa propuesta científica, y dar respuesta a este reto que plantea Gabriel Barceló.

Es un premio a quien consiga refutar la TEORÍA DE INTERACCIONES DINÁMICAS y demostrar que es errónea o equivocada. Los concursantes deberán aportar un análisis lógico y científico de la teoría y una propuesta razonada de su ANTITESIS, y de su refutación, con descripción de sus posibles errores. El trabajo seleccionado será premiado con la cantidad de 3.000 euros, una vez valorado por el jurado creado al efecto.

Respecto al calendario de participación, se establece en primer lugar que los participantes rellenen un formulario de participación antes del 1 de marzo de 2019. El plazo para presentar los trabajos se abre desde entonces y concluye el 2 de octubre de 2019. El fallo del jurado se conocerá en enero 2020 y en la primavera de 2020 tendrá lugar en Madrid un Seminario en el que los ganadores del concurso expondrán sus resultados y se les entregará el premio.

La Vía Láctea tiene alrededor de 100 mil millones de estrellas, la mayoría de las cuales se formaron cuando nuestra galaxia tenía la mitad de su edad actual. Con el tiempo, el ritmo de formación de estrellas se ha reducido considerablemente en nuestra galaxia.

Investigadores del CNRS y sus colegas internacionales proporcionan ahora una explicación sin precedentes para este fenómeno al mostrar que los vientos estelares liberados por las estrellas masivas perturban las nubes de gas en las que se forman estrellas como el Sol, lo que ralentiza su formación.

Gracias al Observatorio SOFIA de la NASA, los científicos han mapeado la "huella" dejada por los vientos estelares en las nubes de gas de la Nebulosa de Orión (imagen).

En particular, han podido medir la cantidad de energía depositada en la nube con una precisión sin precedentes. Estos resultados revelan que la influencia de los vientos estelares es incluso mayor que la de las supernovas, conocidas como los fenómenos más violentos del Universo. El estudio se publica en la revista Nature.

Más información

1.
Lo que ocurre con La caída hacia arriba, entre otras cosas, es todo. Todo ocurre a causa de una dialéctica entre orientaciones y sensaciones que ponen en contraste lo más alto con lo más bajo, el descenso con el ascenso, la anterioridad con la posterioridad, lo que se dice con lo que se calla. Y así sucesivamente, sin centro y sin origen, ad infinitum. Los poemas (se) suceden como partes de una serie que solamente existe como posibilidad, y esa posibilidad se da únicamente (como totalidad) en cada una de sus partes, de sus tentativas, que por un momento se viven a sí mismas como totales en su misma parcialidad o precariedad. Así, si de la lectura de La caída hacia arriba se saca algo en claro, por decir así, es seguramente que todo está en el aire, que todo está en juego en todo momento, en todo lugar.

Aunque parezca paradójico, o aunque de hecho lo sea, el primer y el último resultado de esta tentativa de decirlo todo, de ir a todo o nada, es un lenguaje que vive en (y de) su propio colapso o, como dice Cristian Aliaga en uno de estos textos, un lenguaje que no se habla, que ha perdido su potencia referencial y ordenadora del mundo, pero que ha ganado en ese preciso instante la potencia nueva de callar (y de hablar, hay que decirlo también) de otra manera, en otra clave. Claro que al pasar de una clave a otra será preciso pasar por un intersticio desconocido, desconcertante. Lo que aquí se plantea, dicho con otras palabras, es un lenguaje de nadie, que nadie reconoce, que nadie parecería necesitar, pero que precisamente por eso es o puede ser un lenguaje común, de cualquiera, radicalmente dialógico en su condición anónima, impersonal. Su apertura a la alteridad lo ha alterado, cómo no, lo ha trastornado como no podía ser de otra manera en su esfuerzo por recorrer todo un mundo también trastocado y trastornado en toda su provisionalidad. Ese carácter negativo de un lenguaje que no se habla admite a primera vista una lectura anticanónica, de resistencia a las inercias del poder (literario, cultural, político…) pero no se puede quedar ahí. Ese negarse a hablar produce sin remedio una reserva incesante de sentido en el espacio donde esperábamos que el sentido se nos ofreciera como significado trasmisible, cuantificable, manipulable. En lugar de eso, la poética de Aliaga, como han mostrado de diverso modo Celan o Blanchot, hace sitio para una disponibilidad imposible y, por esta misma razón, insaciable, inevitable. Este podría estar siendo su gesto fundador, inicial, quizá oculto en su polémica evidencia.

2.
Ya un poema de Lejía (1988) anticipaba la inminencia y la fecundidad del desastre: “Porque no hay nadie, canto”. Y a continuación podía entonces leerse “Este es el destino y la luz que encienda...”. ¿Qué más se puede pedir? ¿Qué más se puede esperar? Una cosa: oír encenderse esa luz, ese destino de silencio, que ahora aquí se enuncia como silenciamiento de la palabra, como “canto del mudo”, es decir, como violencia inscrita en el hecho lingüístico como hecho del mundo, en el movimiento desesperado del poema hacia ninguna parte. Puede que ese movimiento se quede en nada, incluso en “menos que nada”. Puede ser. Pero entonces en esa negación, de nuevo, en esa dialéctica irresuelta se abre otra vez la fisura de un nuevo poder-ser. Es lógico pensar, en este punto, que ese poder-ser, si es o puede ser algo para alguien, y si en verdad viene del aprendizaje de la pérdida y de la negación, entonces es un poder a la contra: a la contra, sin ir más lejos, del poder que se reproduce en el lenguaje como lenguaje, en el mundo como mundo. Parece un juego de palabras, de acuerdo. Y lo es: lo puede ser: en la medida exacta e irreversible en que viviendo se juega con fuego. En el plano de la filosofía política hablaría Holloway de un anti-poder como práctica crítica, como recurso táctico para cambiar el mundo sin tomar el poder (ya que el poder no se deja tomar y es por eso Poder, Auctoritas, con mayúsculas debido a su sentido absoluto y no reconciliable).

Aliaga sabe reconocer que “es una guerra del lenguaje primero”, del lenguaje ante todo, del lenguaje como todo que puede y debe ser perforado, agujereado por un decir intempestivo, inesperado. Es el decir del poema, del poema caído, del poema equivocado que ha hecho lo que no debía: nada menos que asesinar a su hermano, el lenguaje común, comunicativo, instrumental. El lenguaje poético se convierte así en el lenguaje del error (de un error des-comunal) en tanto encarna la violencia de un mundo supuestamente amable, progresista, democrático. De ahí la negación, la necesidad de no hablar, o de hablar solo para decir que no-es-así: el poema caído se reconoce como poema-Caín, que solo acabando con su doble tramposamente fraterno (el lenguaje informativo, comunicativo, claro…) se libera de toda subordinación o sumisión a una Realidad supuestamente impuesta como realidad a priori. El reto libertario de esta poesía, así, radicaría en su concepción de la lectura como escritura sin fondo, del poema como caída libre.

La palabra en caída libre, desde luego, es una palabra expuesta al dolor, al daño. Y La caída hacia arriba se compone ciertamente a la manera, como ha escrito Eduardo Milán, de un “diario del dolor”. El daño, sin embargo, no se presenta como amenaza por venir, como riesgo inminente, sino que late siempre más bien como materia prima o punto de partida, como precondición para la experiencia del poema y del mundo. Es sintomático que Ariel Williams, en su lúcido ensayo introductorio a la reedición de Lejía/No es el aura de Kant (2009), haya hablado de “la vida dañada” para situar las coordenadas de una poética como la que Cristian Aliaga defiende a vida o muerte. La apelación a la “vida dañada” estaba ya en la forma de pensar esgrimida por Theodor W. Adorno en su estremecedor Minima moralia (Reflexiones desde la vida dañada) (1944-1947), que se desplegaba a su vez con un gesto negativo y al tiempo auroral: “la vida no vive”… La escritura de Aliaga comparte con la perspectiva crítica de Adorno tanto la imposibilidad de representar lo histórico como la conciencia de que la catástrofe del mundo (la conciencia como catástrofe de facto) debe atravesar la dialéctica para reencontrar lo que esta dialéctica totalizante ha dejado de lado bajo la forma de escombro, de residuo impensado o invivible. Un pasaje ilustrativo de Adorno afirmaba: “Al pensamiento no le queda otra posibilidad de comprensión que el espanto ante lo incomprensible. Así como la mirada reflexiva que encuentra el sonriente cartel de una belleza de pasta dentífrica capta en su amplia mueca el dolor de la tortura, en cada ingeniosidad, y más aún en cada representación gráfica, se le revela la sentencia de muerte del sujeto contenida en la victoria universal de la razón subjetiva”. Sería como decir: la sinrazón de la razón (subjetiva) trastorna y aniquila a un sujeto que, en medio de una modernidad catastrófica, hace de la tortura su hogar más cotidiano y más incomprensible. No es difícil ver que de este (y desde este) hogar sin techo y sin paredes habla el lenguaje sin fondo, sin habla, de Cristian Aliaga en La caída hacia arriba.

Fijación visual

Cuando miramos una cara, tendemos a centrarnos en el lado izquierdo desde la perspectiva del espectador. Este fenómeno, conocido desde hace décadas como “sesgo de la mirada hacia la izquierda”, se cree que está relacionado con que el hemisferio del cerebro que domina la tarea de procesamiento facial es el derecho.

Para nuestro cerebro resulta un desafío reconocer las facciones de una cara al revés. En esta ocasión, los investigadores se han centrado en el estudio del reconocimiento de expresiones en caras con diferentes inclinaciones, empleando la tecnología de seguimiento ocular.

El principal hallazgo ha sido que, cuando la cara observada no está recta, el sesgo de la mirada hacia la izquierda desaparece por completo y surge en su lugar el “sesgo del ojo superior”, incluso con una inclinación tan pequeña como 11 grados respecto al eje vertical.

“Las personas tienden a mirar primero el ojo que está más arriba”, explica Davidenko. “Una ligera inclinación mata el sesgo de la mirada hacia la izquierda. Eso es lo interesante”.

El efecto es más fuerte cuando la rotación es de 45 grados, pero el sesgo del ojo superior es mucho más débil con una rotación de 90 grados. “Es una inclinación demasiado rara”, apunta Davidenko. “La gente no sabe a dónde mirar, y cambia su comportamiento totalmente”.

Una ayuda para las personas con autismo

Los investigadores han descubierto que la inclinación de la cara conduce más la atención hacia los ojos, posiblemente porque los hace más accesibles y menos amenazantes. “En todas las especies, el contacto directo con los ojos puede ser amenazador”, señala Davidenko. “Cuando la cabeza está inclinada, observamos el ojo superior más o que ambos ojos cuando la cabeza está derecha”.

Este hecho podría ser de gran ayuda para las personas con autismo. Según Davidenko, “este hallazgo podría usarse terapéuticamente”. El siguiente paso es investigar si las personas con autismo se sienten más cómodas interactuando con imágenes de rostros rotados, y si las inclinaciones ayudan a facilitar la comprensión en una conversación.

Los nuevos descubrimientos también pueden ser valiosos para las personas con ambiopía u “ojo vago”, que puede desconcertar a los demás. “En una conversación, es posible que estos pacientes quieran inclinar la cabeza para que su ojo dominante esté arriba”, explica Davidenko. "Eso se nutre de nuestra tendencia natural a fijar la mirada en ese ojo”.

Una ingeniosa técnica desarrollada por ingenieros de la Escuela Politécnica Federal de Lausana (EPFL) ha permitido descubrir algunos de los misterios del agua, por ejemplo, ¿por qué es más densa a unos 4 grados centígrados?, o ¿por qué flota el hielo?, o ¿por qué el agua pesada tiene un punto de fusión diferente al agua normal?, o ¿por qué los copos de nieve tienen una simetría hexagonal?

Los investigadores se valieron del aprendizaje automático, una rama de la Inteligencia Artificial que permite a los ordenadores aprender, y de la mecánica cuántica, que describe los procesos más básicos de la naturaleza, para comprender cómo se articula el agua a nivel subatómico.

Usando ambas técnicas, los investigadores pudieron reproducir varias propiedades termodinámicas del agua a nivel cuántico, incluida la densidad del hielo y del agua, la diferencia en la temperatura de fusión para el agua normal y pesada, y la estabilidad de diferentes formas de hielo. Además, el estudio reveló varios puntos de vista físicos sobre qué dan a los sistemas cuánticos del hielo y del agua sus propiedades peculiares.

Uno de los hallazgos más notables de esta investigación es el hecho de que las fluctuaciones cuánticas nucleares, que es la tendencia de elementos ligeros como el hidrógeno a comportarse más como una nube difusa en lugar de como una partícula localizada, promueven el empaquetamiento hexagonal de las moléculas en el hielo, lo que en última instancia provoca la singular simetría hexagonal de los copos de nieve.

Llegar a comprender el agua en su composición cuántica no ha sido sencillo. En primer lugar por las dificultades propias del mundo subatómico. Como se sabe, los átomos están compuestos por partículas mucho más pequeñas llamadas protones, neutrones y electrones. Los protones y los neutrones se encuentran en el centro del átomo y forman el núcleo atómico.

Todas estas partículas están sujetas a la dualidad onda-partícula, un concepto de la mecánica cuántica según el cual no hay diferencias fundamentales entre partículas y ondas, ya que las partículas pueden comportarse como ondas y viceversa. ¿Cómo investigar pues la naturaleza de estas partículas si están cambiando su estado constantemente?

Remontando limitaciones cuánticas

Esa dificultad se ha resuelto gracias a la así llamada Ecuación de Schrödinger, que describe la evolución temporal de una partícula subatómica en su fase ondulatoria. Gracias a esta ecuación es posible hacer modelos y predicciones de cualquier material, incluyendo las partículas elementales del agua.

Los investigadores explican en un comunicado que los electrones y los núcleos atómicos son la base más tangible de la construcción de la materia y que, siguiendo las leyes de la mecánica cuántica, su comportamiento se puede describir en términos de su función de onda, una especie de nube difusa que está relacionada con la probabilidad de observarlos en un momento y punto determinados.

Pero esta ecuación tiene sus limitaciones, que son las que han resuelto estos investigadores. El problema radica en que, a medida que aumenta el número de electrones y núcleos, la complejidad involucrada pronto se vuelve intratable incluso con los ordenadores más rápidos. De hecho, los cálculos mecánico-cuánticos aún son inaccesibles para sistemas con más de unos pocos cientos de átomos, o para períodos de tiempo más largos que un nanosegundo, que equivale a la milmillonésima parte de un segundo.

La fibrilación auricular es la forma más común de arritmia cardíaca. Alrededor del diez por ciento de las personas mayores de 75 años desarrollan esta condición, en la que las dos cámaras superiores del corazón (las aurículas) laten mucho más rápido que las cámaras principales (los ventrículos), creando una sensación de aleteo en el pecho.

Un nuevo estudio que se basa en datos de más de 1.000.000 de personas les ha dado a los investigadores una mejor comprensión de la relación entre nuestros genes y el riesgo de insuficiencia cardíaca.

La afección está más extendida entre las personas mayores, pero en los últimos años, la fibrilación auricular también se ha vuelto más común en otros grupos de edad. El mayor incremento se ha encontrado en mujeres entre los 40 y 59 años. La condición también se asocia con insuficiencia cardíaca y accidente cerebrovascular.

Los genes juegan un papel

Hay varios factores que afectan a la predisposición al desarrollo de fibrilación auricular, como sobrepeso, actividad física insuficiente o escasa. Pero los genes también pueden jugar un papel importante y ahora los investigadores saben más sobre qué genes están involucrados.

Investigadores internacionales utilizaron datos de seis encuestas de salud importantes que han obtenido información sobre los genes involucrados en el desarrollo de la fibrilación auricular. Los resultados fueron publicados en Nature Genetics.

Los investigadores compararon los datos médicos de todas las encuestas, incluido el estudio longitudinal HUNT de Noruega. En total, estas encuestas incluyeron cerca de 35 millones de variaciones genéticas, que se relacionaron con más de 60.000 casos de fibrilación auricular.

"Identificamos 142 variantes de riesgo independientes en 111 lugares diferentes en los cromosomas", explica el profesor Kristian Hveem en un comunicado de la Universidad Noruega de la Ciencia y la Tecnología (NTNU).

Científicos de la Universidad de Ginebra han descubierto que el cerebro aprende hablando consigo mismo: le da varias vueltas a la información sensorial hasta determinar su importancia. Luego fortalece las sinapsis y destaca así lo más relevante para el conocimiento del entorno.

Los seres humanos, como otros animales, poseen una enorme capacidad de aprendizaje que permite captar nueva información sensorial para dominar nuevas habilidades o adaptarse a un entorno en constante cambio. Sin embargo, muchos de los mecanismos que nos permiten aprender siguen siendo poco conocidos.

Uno de los mayores desafíos de la neurociencia de los sistemas es explicar cómo cambian las conexiones sinápticas para admitir comportamientos adaptativos. Neurocientíficos de la Universidad de Ginebra (UNIGE), Suiza, demostraron anteriormente que los mecanismos de aprendizaje sináptico en la corteza cerebral dependen de la retroalimentación de las regiones cerebrales más profundas. Ahora han descifrado con precisión cómo esta retroalimentación permite el fortalecimiento sináptico: ocurre mediante la activación y desactivación de neuronas inhibitorias particulares.

Este estudio, que puede leerse en Neuron, no solo constituye un hito importante en nuestra comprensión de los mecanismos para el aprendizaje perceptivo, sino que también puede ofrecer información sobre los sistemas de aprendizaje automático y la inteligencia artificial.

La corteza, la región externa y más grande del cerebro, es importante para funciones cognitivas superiores, comportamientos complejos, percepción y aprendizaje. Tras la llegada de un estímulo sensorial, la corteza procesa y filtra su información antes de pasar los aspectos más relevantes a otras regiones del cerebro. Algunas de estas regiones del cerebro, a su vez, envían información de vuelta a la corteza.

Estos bucles, conocidos como "sistemas de retroalimentación", se consideran esenciales para el funcionamiento de las redes corticales y su adaptación a la nueva información sensorial. “Para el aprendizaje perceptivo, que es la capacidad mejorada para responder a un estímulo sensorial, los circuitos neuronales deben evaluar primero la importancia de la información sensorial entrante y luego refinar la forma en que se procesa en el futuro”, explica Anthony Holtmaat, director del estudio, en un comunicado.

Bigotes detectores

Los bigotes del hocico de un ratón están especializados en la detección táctil y desempeñan un papel importante en la capacidad del animal para comprender aspectos de su entorno directo. La parte de la corteza que procesa la información sensorial de los bigotes optimiza continuamente sus sinapsis (conexiones entre neuronas) para aprender nuevos aspectos sobre el entorno táctil. Por lo tanto, constituye un modelo interesante para comprender el papel de los sistemas de retroalimentación en los mecanismos de aprendizaje sináptico.

Los científicos de UNIGE aislaron un circuito cerebral de retroalimentación relacionado con los bigotes del ratón y utilizaron electrodos para medir la actividad eléctrica de las neuronas en la corteza. Luego imitaron la entrada sensorial estimulando una parte específica de la corteza conocida para procesar esta información y, al mismo tiempo, utilizaron la luz para controlar el circuito de retroalimentación.

“Este modelo ex vivo nos permitió controlar la retroalimentación independientemente de la información sensorial, lo cual es imposible de hacer in vivo. Sin embargo, desconectar la información sensorial de la retroalimentación fue esencial para comprender cómo la interacción entre los dos conduce al fortalecimiento sináptico" (necesario para la percepción sensorial), agrega Holtmaat.

Más artículos...