Vistas de página en total

domingo, 15 de febrero de 2026

EL VENENO DE LA SELVA QUE LLEGÓ A SIBERIA

 

Epipedobates tricolor. Dominio público a través de Wikipedia

Hay historias que parecen concebidas por un novelista británico con debilidad por los detalles improbables. Un opositor ruso muere en una prisión ártica y, meses después, algunos gobiernos europeos sostienen que en su organismo apareció una toxina procedente de una pequeña rana tropical sudamericana. No un agente nervioso de laboratorio con nombre impronunciable y pedigrí de Guerra Fría, sino una molécula descubierta en la piel brillante de un anfibio ecuatoriano. El protagonista humano es Alexéi Navalni; la sustancia, la epibatidina; el escenario final, una colonia penal en el hielo siberiano. Si la geografía tuviera sentido del humor, probablemente habría intentado algo menos exagerado.

Navalni ya había sobrevivido en 2020 a un envenenamiento con un agente del grupo Novichok, en un capítulo que parecía pertenecer al manual clásico del espionaje químico. Esta vez, sin embargo, la acusación difundida por varios gobiernos europeos introduce un elemento más desconcertante: la detección de epibatidina en análisis toxicológicos posteriores a su muerte. Su viuda, Yulia Navalnaya, ha respaldado públicamente estas conclusiones y pedido una investigación internacional exhaustiva. Rusia rechaza las acusaciones. La diplomacia se tensa. Y, mientras tanto, conviene mirar con calma a la auténtica protagonista microscópica.

La epibatidina fue aislada en 1992 a partir de la piel de la Epipedobates tricolor, una rana pequeña, de colores vivos, que habita en Ecuador. Su descubrimiento se produjo en el marco de investigaciones impulsadas por los National Institutes of Health, en los cuales los científicos llevaban tiempo examinando las secreciones cutáneas de las ranas venenosas neotropicales. Estas especies, popularmente conocidas como ranas dardo, habían intrigado a la comunidad científica por una razón sencilla: las comunidades indígenas del Chocó y otras regiones amazónicas impregnaban con su veneno las puntas de las cerbatanas. Si algo puede derribar a un mono a decenas de metros, probablemente tenga interés farmacológico.

Y lo tenía. La epibatidina resultó ser un analgésico extraordinariamente potente. En modelos animales, superaba con creces a la morfina —hasta doscientas veces más potente en ciertos ensayos— y lo hacía sin actuar sobre los receptores opioides clásicos. En plena preocupación por la dependencia asociada a los opiáceos, aquello sonaba a revolución terapéutica. Un analgésico no opioide, potente y potencialmente libre de adicción. Las revistas científicas se animaron. Los laboratorios empezaron a diseñar análogos. Durante un tiempo, la pequeña rana ecuatoriana parecía destinada a aliviar el dolor humano a escala planetaria.

La euforia duró poco. La epibatidina no sólo era potente; era peligrosamente indiscriminada. Su mecanismo de acción explica tanto su atractivo como su letalidad. La molécula se une con gran afinidad a los receptores nicotínicos de acetilcolina, que están distribuidos por todo el sistema nervioso central y periférico, en la unión neuromuscular y en el sistema nervioso autónomo. Dicho sin rodeos: actúa sobre interruptores eléctricos fundamentales para el control del movimiento, la respiración y el ritmo cardíaco.

Al unirse a estos receptores, la epibatidina los activa de manera intensa y prolongada. La primera fase puede incluir hipertensión, taquicardia, sudoración, náuseas y vómitos. Luego sobreviene el caos: convulsiones, parálisis muscular, arritmias graves, depresión respiratoria. La línea que separa la analgesia experimental del colapso fisiológico es extremadamente fina. Hablamos de microgramos. No miligramos, no gotas visibles: microgramos. La diferencia entre una dosis “interesante” y una dosis potencialmente mortal puede ser mínima. No existe un antídoto específico. El tratamiento, si se llega a tiempo, consiste en ventilación mecánica, control de arritmias y soporte vital intensivo.

Este perfil toxicológico hizo que la epibatidina, pese a su brillo científico inicial, quedara descartada como fármaco. Se desarrollaron derivados menos tóxicos, pero ninguno alcanzó el equilibrio deseado entre eficacia y seguridad. La molécula original pasó a ocupar un lugar curioso en los manuales: ejemplo perfecto de cómo la naturaleza puede producir compuestos de enorme potencia que resultan, para el uso humano, demasiado peligrosos.

E. tricolor comparada con una moneda de medio euro. Wikipedia.

Aquí es donde la biología se cruza con la política. Las ranas venenosas no fabrican necesariamente estos alcaloides desde cero. En muchos casos, los acumulan a partir de su dieta, especialmente de ciertos insectos. En cautividad, al cambiar su alimentación, pierden buena parte de su toxicidad. Son, en cierto modo, intermediarias químicas de la selva. Que una molécula asociada a este delicado equilibrio ecológico aparezca en un caso de presunto envenenamiento político resulta, como mínimo, simbólicamente perturbador.

Desde el punto de vista técnico, la epibatidina puede sintetizarse en laboratorio; no es necesario capturar ranas en la Amazonía. Pero no es un compuesto industrial de uso común ni forma parte de los arsenales químicos clásicos. Su detección en un organismo humano sería, en principio, extraordinaria. No es algo que se encuentre por accidente en el agua potable ni en un medicamento mal etiquetado. Su mera presencia obliga a formular preguntas.

En mi blog he escrito en alguna ocasión sobre estas ranas y sobre la mezcla casi literaria de inocencia cromática y potencia letal que encarnan. Son pequeñas, brillantes, casi decorativas. Parecen diseñadas por un ilustrador infantil con predilección por los colores saturados. Y, sin embargo, su piel puede albergar sustancias capaces de alterar de forma radical la fisiología humana. En el siglo XIX, algunos ilusionistas europeos incluían ranas en sus espectáculos, tragándolas ante el público como demostración de audacia. Con especies locales no había mayor peligro. Con una rana dardo sudamericana, el número habría adquirido un dramatismo involuntario.

Una rana que cabe en la palma de la mano, una molécula que pesa microgramos, un laboratorio en Maryland que celebra un hallazgo prometedor, y décadas después un debate diplomático entre potencias europeas. La biología rara vez se limita a los márgenes exóticos de los documentales; a veces irrumpe en los titulares internacionales.

Más allá de sus implicaciones políticas y jurídicas, el caso de Navalni nos recuerda también la doble cara de la investigación biomédica. La exploración de la biodiversidad ha proporcionado antibióticos, antitumorales y analgésicos. Pero ese mismo arsenal químico natural puede convertirse en herramienta de daño si se desvía de su contexto original. La selva no distingue entre farmacología y toxicología; esa distinción la imponemos nosotros.

Que el veneno de una rana ecuatoriana termine vinculado a una muerte en el Ártico ruso es, en términos geográficos, una enorme ironía. Del calor húmedo de los bosques tropicales al frío extremo de una colonia penal. De los insectos que alimentan a un anfibio diminuto a los laboratorios capaces de sintetizar su alcaloide. El trayecto es improbable, pero no imposible.

Al final, la historia encierra una lección inquietante. La naturaleza no produce sustancias “malvadas”; produce moléculas eficaces. Somos nosotros quienes decidimos cómo utilizarlas. La epibatidina nació como promesa analgésica, fue descartada por su peligrosidad y hoy reaparece en un contexto que mezcla ciencia, diplomacia y tragedia. Y todo ello gracias a una rana de colores brillantes que, en su entorno natural, sólo pretendía evitar que alguien la mordiera.

La próxima vez que vea una fotografía de una rana tropical y piense que es poco más que un adorno viviente, recuerde que en su piel puede esconderse una química capaz de detener un corazón humano. Y que, en ocasiones, la distancia entre la selva y la política internacional es mucho más corta de lo que imaginamos.

TRUMP Y EL NEGACIONISMO DEL CAMBIO CLIMÁTICO

 

Trump es conocido por despreciar el cambio climático y relegarlo a la categoría de cuento chino, y nunca mejor dicho: en 2012 tuiteó que era un concepto creado por China para dañar la competitividad de las empresas estadounidenses. Esta idea está totalmente en línea con la trayectoria de décadas de negacionismo organizado que, perfectamente engrasado con petrodólares, ha actuado de ariete de cualquier atisbo de política climática, en ocasiones con estimable éxito. 

La diferencia es que si hasta hace poco las grandes empresas de combustibles fósiles sostenían con fondos tramas negacionistas que en su nombre intentaban influir a la clase política, ahora los negacionistas han tomado literalmente la Casa Blanca y forman parte de la nueva clase dirigente estadounidense.

Con una declaración de barra de bar en la que dijo que todo lo relacionado con el cambio climático es “una gran estafa”, el pasado 12 de febrero Donald Trump anunció la revocación del llamado “dictamen de peligro” de 2009, la declaración científica que había servido durante más de una década como fundamento jurídico para regular las emisiones de gases de efecto invernadero en Estados Unidos.

Al hacerlo, Estados Unidos ha revocado un hallazgo científico que durante mucho tiempo ha sido la base central de sus acciones para regular las emisiones de gases de efecto invernadero y combatir el cambio climático. La decisión del jueves es la medida más agresiva del presidente Donald Trump para revertir las regulaciones ambientales desde el inicio de su segundo mandato.

Con esa decisión no solo se altera una política concreta, sino que se cuestiona el uso de una ley ambiental de 1970 como instrumento central de la política climática federal. Para comprender el alcance del movimiento conviene retroceder medio siglo y reconstruir la arquitectura institucional que lo hizo posible.

Impulsado tanto por la evidencia científica como por episodios simbólicos de degradación ambiental, el debate ambiental estadounidense adquirió intensidad en los años sesenta. La publicación en 1962 de Primavera silenciosa por Rachel Carson contribuyó decisivamente a sensibilizar a la opinión pública frente al uso indiscriminado de pesticidas. A ello se sumaron desastres visibles, como el derrame de crudo desde una plataforma petrolífera anclada frente a la costa de California o el incendio del río Cuyahoga en Ohio, cuyo cauce, saturado de residuos industriales, llegó a arder. Las primeras imágenes de la Tierra vistas desde el espacio reforzaron la percepción de fragilidad ecológica en un contexto de rápido crecimiento industrial.

En este clima, el presidente Richard Nixon presentó en 1970 un ambicioso programa ambiental y promovió la reorganización de competencias federales dispersas en materia de contaminación. El resultado fue la creación de la primera Agencia de Protección Ambiental (EPA) del mundo, concebida como un organismo capaz de centralizar investigación, vigilancia y regulación. Ese mismo año se reformó en profundidad la Clean Air Act, la Ley de Aire Limpio (LAL), aprobada inicialmente en 1963 con un alcance limitado y cooperativo, para convertirla en una ley de carácter obligatorio y técnicamente exigente. Desde entonces, la LAL constituye la autoridad normativa y la EPA su órgano ejecutor.

La ley estableció un sistema federal basado en estándares nacionales de calidad del aire, definidos a partir de criterios de salud pública. El modelo se diseñó para afrontar problemas concretos y localizados: el smog urbano, la lluvia ácida y las emisiones industriales tóxicas. El “smog clásico” al que respondía la legislación incluía contaminantes como el dióxido de azufre, los óxidos de nitrógeno, las partículas en suspensión o el plomo, sustancias directamente nocivas para la salud y visibles en el deterioro atmosférico de grandes ciudades como Los Ángeles o Cleveland. Se trataba de contaminantes de efectos inmediatos y territoriales, cuya reducción podía medirse en términos relativamente directos.

Un elemento decisivo de la reforma de 1970 fue la definición amplia que hizo el Congreso de “contaminante del aire”, considerado literalmente como «cualquier agente físico, químico o biológico emitido al aire». El Congreso no pensaba entonces en el dióxido de carbono ni en el calentamiento global, un fenómeno desconocido por entonces en el debate político. Sin embargo, la amplitud de la definición dejó abierta la posibilidad de interpretar la ley de manera evolutiva. Esa ambigüedad semántica es la que décadas más tarde permitió conectar una norma concebida para combatir el smog con la regulación del cambio climático.

El punto de inflexión jurídico se produjo en 2007 con la sentencia del Tribunal Supremo en el caso Massachusetts vs. EPA. El estado de Massachusetts y otros demandantes sostenían que la EPA se negaba a regular las emisiones de CO₂ de los vehículos, pese a que la LAL incluía una definición lo suficientemente amplia como para abarcar ese gas. La cuestión central era doble: si el CO₂ podía considerarse un “contaminante del aire” y si la agencia tenía discrecionalidad para no actuar.

Por una mayoría ajustada (5 a 4), el Tribunal concluyó que los gases de efecto invernadero encajan en la definición legal y que la EPA debía basar su decisión en criterios científicos sobre el riesgo para la salud o el bienestar público, no en consideraciones políticas generales. La sentencia no creó una ley climática nueva, pero abrió la puerta a utilizar la LAL como fundamento de la regulación de emisiones de gases de efecto invernadero.

En cumplimiento de ese mandato, la EPA emitió en diciembre de 2009 el denominado “dictamen de peligro”, en el que se declaraba que seis gases de efecto invernadero —entre ellos el CO₂, el metano y el óxido nitroso— amenazaban la salud pública. Ese pronunciamiento científico-administrativo se convirtió en la piedra angular de la política climática federal, pues desde ese momento habilitó a la EPA para imponer estándares de emisión a vehículos, centrales eléctricas y otras fuentes relevantes en aplicación de la LAL. En términos jurídicos, el dictamen funcionaba como condición previa indispensable: si los gases son peligrosos en el sentido de la ley, la agencia está obligada a regularlos.

La revocación anunciada el 12 de febrero afecta precisamente a ese presupuesto. Al anular el dictamen de 2009, la administración Trump elimina la base científica y legal que sustentaba la regulación federal de las emisiones de gases de efecto invernadero. En el plano inmediato, la medida incide en las normas aplicables a vehículos y motores, pues estas dependían directamente de la constatación formal de peligro y ahora quedan desreguladas.

A medio plazo, la decisión debilita también el fundamento de las reglas dirigidas a centrales eléctricas, instalaciones industriales y al sector del petróleo y el gas, aunque la situación concreta dependerá de la interacción con otras disposiciones regulatorias y del resultado de los previsibles litigios.

Desde el punto de vista institucional, la controversia remite a una cuestión más amplia: hasta qué punto puede una ley ambiental de 1970, diseñada para afrontar contaminación local y tóxica, servir como instrumento para gestionar un fenómeno global, acumulativo y sistémico como el cambio climático.

La tensión no es meramente técnica, sino conceptual. Para algunos, la definición amplia de “contaminante” revela una voluntad legislativa de dotar a la norma de flexibilidad suficiente para adaptarse a problemas nuevos. Para otros, utilizarla para rediseñar el sistema energético nacional supone extender la ley más allá de lo que el Congreso previó, por lo que cualquier transformación estructural debería apoyarse en una legislación climática específica y explícita.

Es previsible que la revocación del dictamen desencadene una intensa batalla judicial. Diversos estados y organizaciones ambientalistas han anunciado ya su intención de impugnar la medida, alegando que ignora la evidencia científica y contradice la interpretación consolidada por el Tribunal Supremo. En ese contexto, el conflicto trasciende la política ambiental concreta y se inscribe en un debate más amplio sobre el alcance del poder de las agencias administrativas y la relación entre Congreso, Ejecutivo y tribunales.

En definitiva, la decisión del 12 de febrero no puede entenderse como un ajuste regulatorio aislado. Supone reabrir una discusión que se remonta a la década de 1970 y que conecta la lucha contra el smog urbano con la gobernanza del clima global. La LAL nació para limpiar el aire de las ciudades; medio siglo después, su interpretación define en buena medida la capacidad del Estado federal para intervenir frente al cambio climático.

En ese cruce entre historia legislativa, doctrina judicial y política contemporánea se sitúa hoy el núcleo del debate estadounidense.

BREVE RELATO DE LA LARGA HISTORIA DE LA TESTOSTERONA

 

En 1889, setenta y un años después de la publicación de Frankenstein, cuando la palabra “testosterona” todavía no existía y la endocrinología era poco más que una intuición con bigote victoriano, la revista médica The Lancet dedicó tres páginas a una historia que podría haber incitado a Mary Shelley a tomar notas si aún hubiera estado viva y que hoy habría terminado en TikTok con música épica y subtítulos fluorescentes.

El protagonista era Charles-Édouard Brown-Séquard, un fisiólogo respetable, miembro de sociedades científicas ilustres, descubridor de reflejos medulares y, a la sazón, un señor de 72 años que empezaba a notar que el cuerpo ya no obedecía con la diligencia de antaño.

Brown-Séquard estaba cansado. Débil. Un poco marchito. Y como buen científico del siglo XIX —una categoría humana que combinaba genialidad, temeridad y una relación muy relajada con la experimentación ética— decidió que el problema no era el paso del tiempo sino una carencia química. Si los jóvenes estaban llenos de vigor, ese vigor debía residir en algún fluido concreto. Y si residía en algún sitio, era razonable suponer que estuviera en los testículos.

Lo que vino después fue, en esencia, un batido. Nuestro fisiólogo trituró testículos de perro y de cobaya, los mezcló con agua, los filtró con un entusiasmo que uno imagina muy serio, y se inyectó el resultado. Acto seguido anunció al mundo que se sentía mejor. Más fuerte. Más despierto. Con mayor energía física y mental. Incluso —y aquí la cosa adquiría un brillo particular— con renovado ímpetu sexual.

La prensa se lo pasó en grande. La comunidad médica, no tanto. Aunque muchos se burlaron de aquel caballero que se inoculaba jugo testicular como quien se toma un tónico de zarzaparrilla, lo cierto es que Brown-Séquard había puesto el dedo en algo importante. Intuía que las glándulas internas secretaban sustancias capaces de modificar el organismo. No sabía aún cómo se llamaban, pero había olido la pista. La endocrinología, que hoy nos parece tan sobria y de bata impecable, nació en parte de ese gesto entre heroico y ligeramente disparatado.

En sus escritos, Brown-Séquard dejó caer una observación deliciosa. Afirmaba que los hombres que se abstienen del sexo y del “placer personal” entran en un estado de excitación que les proporciona una gran, aunque anormal, actividad física y mental. Traducido al castellano moderno: pensaba que no masturbarse generaba una especie de energía acumulada que el cuerpo podía redirigir hacia hazañas intelectuales o físicas. Es una idea tan victoriana que casi huele a biblioteca con cortinas pesadas, pero tiene su encanto. Para él, el semen no era solo una sustancia reproductiva; era, en cierto modo, una batería portátil de vigor.

Naturalmente, no tenía razón. Pero tampoco estaba completamente equivocado en el sentido amplio: de hecho, existen sustancias químicas que influyen de manera poderosa en el ánimo, la energía, la masa muscular y el deseo. Solo que no funcionan como un depósito que uno llena o vacía disciplinadamente.

La testosterona es una hormona que desempeña diversas funciones en el cuerpo. En el hombre adulto, casi toda la testosterona se produce en los testículos bajo el control de una hormona producida en el cerebro, y una pequeña cantidad se produce a partir de un precursor extraído de las glándulas suprarrenales, ubicadas sobre los riñones. La testosterona es una de las muchas moléculas que ayudan a regular la activación de los genes para producir proteínas, y desempeña un papel importante en la libido, la virilización, la musculatura, la densidad ósea y el estado de ánimo. Sin embargo, a medida que envejecemos, nuestros niveles de testosterona disminuyen lentamente.

La testosterona es la principal hormona androgénica, puesto que confiere la mayoría de los caracteres masculinos. No obstante, hay producción de testosterona tanto en el cuerpo del hombre como en el de la mujer. En el caso de los varones, la mayor parte de la testosterona se forma en los testículos y una menor cantidad en las glándulas suprarrenales. En cuanto a las mujeres, la testosterona se produce en los ovarios y una pequeña cantidad también en las glándulas suprarrenales. Su función en hombres y mujeres es diferente.

La testosterona como molécula no sería aislada hasta 1935. Cuando por fin se identificó, purificó y sintetizó, el entusiasmo encontró una base tangible. Ya no hacía falta recurrir a triturados animales; bastaba con una ampolla precisa, una dosis calculada, una aguja estéril. La hormona masculina —porque así se la empezó a llamar con una simplificación que la biología tolera con paciencia— podía administrarse de manera controlada.

Y aquí es donde la historia se vuelve peligrosamente moderna. Durante décadas, la testosterona se utilizó para situaciones claras: hombres con hipogonadismo verdadero, es decir, testículos que no producían suficiente hormona por daño primario o por fallos en la hipófisis; adolescentes con retrasos puberales, y algunos casos concretos de anemia. Indicaciones específicas, diagnósticos concretos. Pero a medida que avanzaba el siglo XXI, la narrativa empezó a ensancharse.

Apareció la “T baja”. Un concepto con la eficacia comercial de un eslogan bien afinado. ¿Cansado? ¿Con menos deseo que a los 25? ¿Algo irritable? ¿Te cuesta ganar músculo, aunque mires con intensidad las mancuernas? Tal vez tu problema tenga dos letras. Y lo mejor de todo: tiene solución inyectable.

Se popularizó incluso el término “andropausia”, como si los hombres atravesaran una versión masculina de la menopausia femenina. El paralelismo es tentador, pero biológicamente tramposo. En las mujeres, la menopausia implica una caída abrupta y universal de estrógenos. En los hombres, la testosterona desciende lentamente, aproximadamente un uno por ciento anual a partir de cierta edad. No hay un apagón hormonal repentino. Hay, más bien, un atardecer gradual.

Además, la testosterona es una hormona con hábitos caprichosos. Fluctúa a lo largo del día —más alta por la mañana—, baja con el sobrepeso, se altera con el mal sueño, el estrés crónico, la apnea nocturna o la depresión. Es decir, muchos de los síntomas que atribuimos a la “T baja” pueden ser causa y consecuencia de estilos de vida poco saludables. Y medir una cifra aislada no convierte automáticamente el cansancio en enfermedad endocrina.

Eso no significa que el déficit real no exista. Existe. Y cuando está bien documentado —con análisis repetidos, síntomas consistentes y evaluación médica adecuada— el tratamiento puede mejorar calidad de vida, densidad ósea, masa muscular y función sexual. Pero también tiene efectos secundarios: puede aumentar el hematocrito hasta niveles incómodos, suprimir la producción endógena, afectar a la fertilidad y plantea interrogantes todavía debatidos sobre el riesgo cardiovascular en ciertos perfiles.

En otras palabras: no es el elixir mágico que Brown-Séquard soñó, pero tampoco es una superstición victoriana. Lo fascinante es que, más de un siglo después, seguimos atrapados en la misma pulsión. La idea de que el declive es una deficiencia química corregible. Que el envejecimiento es un problema técnico con solución farmacológica. Que la masculinidad —concepto ya de por sí resbaladizo— puede medirse en nanogramos por decilitro.

Hay algo profundamente humano en esa esperanza. El anciano fisiólogo que se inyecta extracto testicular no es tan distinto del ejecutivo contemporáneo que acude a una clínica de terapia hormonal porque se siente apagado. Ambos buscan recuperar una versión anterior de sí mismos. Ambos quieren creer que la energía no se pierde, solo se agota un depósito.

La diferencia es que ahora sabemos más. Sabemos que el cuerpo es un sistema de equilibrios delicados. Que añadir hormona exógena puede mejorar síntomas en ciertos casos y complicarlos en otros. Que el contexto —peso, sueño, ejercicio, salud mental— importa tanto como la cifra en un análisis. Y que la promesa de juventud perpetua ha sido siempre una industria floreciente.

Quizá la lección más útil de Brown-Séquard no sea su batido improbable, sino su audacia. Se atrevió a plantear que dentro de nosotros circulan mensajeros invisibles que gobiernan nuestra energía y nuestro ánimo. Acertó en la intuición, falló en la receta. La medicina moderna ha afinado la receta, pero todavía lucha contra la expectativa desmesurada.

La testosterona no es una metáfora del carácter ni un certificado de virilidad. Es una hormona con funciones precisas y límites claros. Puede ser terapia cuando hay déficit demostrado. Puede ser innecesaria —incluso perjudicial— cuando se usa para perseguir una versión idealizada del pasado.

Y sin embargo, cada vez que alguien habla de “T baja” con un suspiro resignado, resuena, muy al fondo, el eco de aquel laboratorio decimonónico. El anciano científico, la jeringa, el extracto filtrado con fe. La esperanza de que el tiempo sea una ecuación química soluble.

Tal vez no lo sea. Pero la tentación de creerlo sigue siendo extraordinariamente potente.

CHOCOLATE AL ALBA: UNA TAZA ANTES DE LA BATALLA

 

El amanecer apenas se adivinaba sobre la llanura helada cuando el ayudante de campo removió el líquido espeso con la punta ennegrecida de su cuchara. La escarcha crujía bajo las botas y el aliento se volvía humo antes de disolverse en la bruma. A unos metros, envuelto en su capote gris, Napoleón Bonaparte observaba en silencio cómo la noche se retiraba del campamento. No era hombre de grandes desayunos, pero aceptó la taza sin ceremonia. El chocolate, oscuro y azucarado, desprendía un vapor denso que olía a cacao tostado y azúcar quemado. En aquellas marchas donde el pan se endurecía en las mochilas y la carne salada exigía dientes y paciencia, aquella bebida espesa no era un capricho: era energía inmediata, grasa concentrada y un leve estímulo que despejaba la mente de los oficiales antes del combate.

Horas después, cuando las columnas comenzaron a moverse hacia lo que terminaría siendo la Batalla de Austerlitz, nadie habría señalado el cacao como pieza del engranaje militar. Sin embargo, en la guerra de comienzos del siglo XIX la logística pesaba tanto como la estrategia. El chocolate viajaba en bloques compactos de pasta de cacao y azúcar: ocupaba poco espacio, resistía el transporte y podía transformarse en bebida caliente con rapidez. Desde su llegada a Europa a través del comercio atlántico, había pasado de exotismo cortesano a tónico medicinal y alimento energético. En un ejército que vivía de la velocidad y la resistencia, una taza humeante al alba no ganaba batallas, pero ayudaba a sostenerlas.

Si se abandona la escena y se descompone aquella taza en términos de laboratorio, el chocolate revela la lógica de su utilidad. La pasta sólida era, en esencia, una ración hipercalórica concentrada. El cacao contiene entre un 50 y un 55% de grasa —principalmente manteca de cacao— y aporta en torno a 500–600 kilocalorías por cada 100 gramos, según la proporción de azúcar añadida. A ello se suman hidratos de carbono de absorción relativamente rápida y pequeñas cantidades de proteínas. En contextos de frío intenso y gasto metabólico elevado, esa combinación resultaba ideal: energía densa, relativamente estable y fácil de transportar.

Además, el cacao contiene metilxantinas —sobre todo teobromina y, en menor medida, cafeína— con un efecto estimulante suave pero sostenido. No provoca la sacudida nerviosa del café, pero sí una sensación de alerta prolongada. Hoy sabemos que la teobromina actúa como vasodilatador leve y estimulante del sistema nervioso central. En el siglo XVIII no se hablaba ese lenguaje químico, pero sí se reconocían sus efectos. Tratadistas como Antonio Lavedán, en su Tratado de los usos, abusos, propiedades y virtudes del tabaco, café, té y chocolate (1796), describían el chocolate como alimento “nutritivo y restaurador”, recomendable para fatigados y convalecientes. Médicos ilustrados franceses lo consideraban capaz de “fortificar el estómago” y sostener las fuerzas sin sobrecargar la digestión. No era mera retórica gastronómica: era una observación empírica de su poder reconstituyente.

Así, lo que parecía un gesto íntimo —una taza caliente al amanecer— formaba parte de un sistema más amplio de intuiciones médicas y soluciones logísticas. El chocolate no sustituyó al pan ni salvó al ejército en la retirada de 1812, pero encarnaba una idea moderna: la energía del soldado era un recurso estratégico. No es casual que, en la misma época, los boticarios vendieran preparados de cacao como reconstituyentes para la fatiga, la melancolía o las dolencias pulmonares. La frontera entre alimento y medicina era difusa, y el chocolate habitaba cómodamente en ese territorio.

Con el paso del tiempo, aquel brebaje espeso evolucionó hacia algo distinto. A comienzos del siglo XIX, el químico neerlandés Coenraad Johannes van Houten desarrolló la prensa de cacao, que separaba la manteca de los sólidos y permitía obtener un polvo más manejable y menos amargo mediante el llamado “proceso holandés”. El cacao dejaba de ser solo pasta para convertirse en ingrediente industrial. Poco después, Joseph Fry dio el siguiente paso crucial en 1847 cuando logró mezclar sólidos de cacao, manteca y azúcar hasta obtener una masa moldeable: nacía la tableta moderna. El chocolate dejaba de beberse exclusivamente para empezar a masticarse.

El perfeccionamiento continuó en Suiza. Daniel Peter incorporó leche en polvo y abrió la puerta al chocolate con leche. En 1879, Rodolphe Lindt, otro chocolatero suizo, inventó la máquina de conchado que removía la mezcla de chocolate antes de verterla en moldes hasta que desaparecía toda la granulosidad del cacao en polvo. Esto daba como resultado un chocolate extremadamente suave.

Milton Hershey revolucionó entonces la industria chocolatera perfeccionando y produciendo chocolate asequible, transformando la barra de chocolate de un artículo de lujo a un producto básico popular. Para producir el volumen de chocolate necesario, construyó una fábrica en Pensilvania y fundó a su alrededor un pueblo para los trabajadores, llamado con cierta altivez "Hershey". En 1905, su fábrica comenzó a producir "barras Hershey" a las que dos años más tarde se unirían los famosos besos de Hershey, todos envueltos a mano en aquel entonces.

Cuando estalló la Segunda Guerra Mundial, el chocolate volvió a convertirse en asunto estratégico. En 1937, el ejército estadounidense encargó a Hershey una barra de emergencia que aportara unas 600 calorías, pesara unos 113 gramos y resistiera el calor tropical. Tenía que ser nutritiva y, deliberadamente, poco apetitosa para evitar su consumo prematuro. Así nació la ración D, densa, difícil de morder y más funcional que deliciosa. Años después se desarrolló la “Tropical Bar”, algo más sabrosa. Pero fueron otros productos, como los M&M’s —dulces recubiertos que “se derriten en la boca, no en la mano”— los que conquistaron definitivamente a los soldados.

Desde entonces, la química alimentaria ha buscado fórmulas de chocolate termoestable sin sacrificar textura y sabor. Sustituciones parciales de manteca de cacao por grasas vegetales de mayor punto de fusión, uso de emulsionantes y agentes estructurantes: la ciencia ha refinado lo que en tiempos de Napoleón Bonaparte era intuición práctica. Sin embargo, el equilibrio perfecto entre estabilidad y placer sigue siendo delicado. Una barra diseñada para sobrevivir al desierto rara vez compite, en sedosidad, con una elaborada según la tradición suiza.

Curiosamente, la apuesta más duradera del emperador en materia alimentaria no fue el chocolate, sino el apoyo al método de conservación desarrollado por Nicolas Appert. En 1795, el gobierno francés ofreció un premio por un sistema eficaz para preservar alimentos; Appert respondió con el sellado hermético y la cocción en recipientes cerrados, antecedente del enlatado moderno. Si el chocolate proporcionaba energía inmediata, la conservación garantizaba seguridad a largo plazo. Ambas soluciones apuntaban en la misma dirección: comprender que, en la guerra moderna, la victoria dependía tanto del estómago como del cañón. El ejército de Napoleón marchó sin preocuparse por la comida en mal estado en el estómago.

De la taza humeante al alba a la barra de emergencia en el bolsillo, el chocolate ha acompañado a los ejércitos durante más de dos siglos. Cambiaron las técnicas, los envases y los procesos industriales, pero la lógica de fondo permanece. Allí donde el esfuerzo humano exige resistencia, concentración y calorías concentradas, el cacao —amargo o azucarado, bebido o mordido— ha ofrecido algo más que consuelo: una forma compacta de energía lista para convertirse, en el momento preciso, en fuerza.

sábado, 14 de febrero de 2026

EL HUEVO: MANUAL DE INSTRUCCIONES PARA FABRICAR UN MILAGRO

 

Hay objetos que uno da por descontados hasta que decide mirarlos con la sospecha adecuada. El mando a distancia, por ejemplo. El botón de un ascensor. Y, por supuesto, el huevo. El huevo vive en nuestras cocinas con la humildad de un funcionario eficaz: siempre está ahí, nunca presume, rara vez falla. Pero si lo examinamos con la atención que solemos reservar a los cohetes espaciales o a los puentes colgantes, descubrimos que estamos ante una de las hazañas más extraordinarias de la ingeniería natural.

Un huevo es, en esencia, un sistema autónomo diseñado para fabricar un ave completa sin ayuda externa. No necesita supermercado, ni fontanero, ni plan de contingencia. Todo lo que va a ser ese animal —plumas, huesos, ojos con mirada inquisitiva— está contenido en una cápsula que cabe en la palma de la mano. Y lo hace sin cables.

La primera maravilla es la forma. El huevo no es redondo, ni ovalado en sentido escolar. Es ovoide, que es como decir “casi simétrico, pero con intención”. Tiene un extremo romo y otro ligeramente puntiagudo. Esta asimetría no es un capricho artístico de la gallina; es una solución estructural brillante. La forma ovoide distribuye las tensiones de manera tan eficiente que el huevo puede soportar una presión sorprendente si se le comprime por los extremos. Es, básicamente, una cúpula portátil. Los arquitectos tardaron milenios en comprender lo que la evolución resolvió sin planos.

La cáscara es otro acto de genialidad. Está hecha principalmente de carbonato cálcico, que suena a cosa aburrida de laboratorio, pero organizado en una microarquitectura cristalina que combina rigidez y fragilidad en proporciones exquisitas. Es lo bastante fuerte para proteger al embrión de los golpes razonables, pero lo bastante quebradiza para que el polluelo pueda romperla cuando llegue el momento. Diseñar algo que sea resistente cuando conviene y frágil cuando toca es una proeza que haría sudar a cualquier ingeniero de materiales.

Y, por si fuera poco, la cáscara no es una muralla cerrada. Está perforada por miles de microporos invisibles que permiten el intercambio de gases. El embrión respira a través de esa pared calcárea como quien abre discretamente una ventana. Pero los poros son lo bastante pequeños para impedir que la mayoría de los invasores microscópicos entren sin invitación. Es un equilibrio tan delicado que uno sospecha que, si la gallina tuviera que rellenar un formulario para justificarlo, se perdería en la segunda línea.

Debajo de la cáscara encontramos dos membranas finas y elásticas que cumplen funciones que van desde la amortiguación hasta la defensa antimicrobiana. Entre ellas se forma una pequeña cámara de aire en el extremo más ancho. Ese bolsillo, que parece insignificante cuando rompemos un huevo para una tortilla, es el primer pulmón provisional del futuro pollito. Antes de salir al mundo, perfora esa cámara y practica su respiración. Es difícil no sentir un respeto solemne por un sistema que incluye su propio simulador de emergencia.

La clara —esa sustancia transparente que muchos niños miran con desconfianza— es un prodigio químico. Está compuesta en su mayoría por agua, pero enriquecida con proteínas que cumplen tareas muy específicas. Algunas son antibacterianas; otras regulan la disponibilidad de hierro para que los microbios no prosperen. Es un caldo nutritivo, sí, pero también un laboratorio defensivo. Además, su viscosidad mantiene la yema centrada gracias a unos cordones retorcidos llamados chalazas, que funcionan como cables tensores. La yema queda suspendida en el centro del huevo como un astronauta en gravedad cero, protegida de impactos y sacudidas.

La yema, por su parte, es una central energética compacta. Contiene lípidos de alta densidad calórica, proteínas estructurales y vitaminas en proporciones que permitirán construir, célula a célula, un organismo completo. Si uno hiciera una lista de todo lo necesario para fabricar un pájaro —sistemas nervioso, digestivo, esquelético, plumaje, etcétera— y luego intentara empaquetarlo en un espacio tan reducido, probablemente acabaría llorando sobre una hoja de cálculo. El huevo, en cambio, lo hace con serenidad milenaria.

Lo que más asombra es la eficiencia. La gallina fabrica la cáscara en menos de un día, movilizando calcio con precisión fisiológica. No hay derroche. No hay exceso ornamental. Cada gramo tiene una función. Desde la perspectiva de la ingeniería sostenible, el huevo es un manifiesto: mínimo material, máxima utilidad. Ni siquiera necesita manual de reciclaje; la cáscara puede volver al suelo como fuente de minerales.

Y entonces llega el momento culminante, que es el de la fractura programada. Tras semanas de desarrollo silencioso, el embrión secreta enzimas que debilitan la cáscara desde dentro. Aparece un pequeño apéndice temporal, el “diente de huevo”, con el que empieza a golpear la pared calcárea. El sistema que durante días fue fortaleza se convierte en puerta. Es una demolición controlada de precisión exquisita. Los ingenieros humanos sueñan con materiales que cambien sus propiedades según la necesidad; el huevo lo hace como quien cambia de sombrero.

Si uno se detiene a pensarlo, el huevo resolvió hace cientos de millones de años un problema formidable: cómo permitir que un vertebrado se desarrollara fuera del agua sin deshidratarse, sin asfixiarse y sin ser devorado en la primera noche. La solución fue este pequeño contenedor autosuficiente. Gracias a él, los reptiles y luego las aves conquistaron la tierra firme con una libertad que los peces jamás conocerán.

Lo más divertido es que convivimos con esta maravilla sin inmutarnos. Lo cascamos contra el borde de un cuenco con la indiferencia de quien rompe un sobre. Pero cada vez que lo hacemos estamos asistiendo al final de una obra maestra de microarquitectura. Estamos contemplando la ruina de una bóveda cerámica perfectamente calculada, el derrame de un sistema bioquímico finamente ajustado.

Quizá eso sea lo más bryssoniano del asunto: que la grandeza se esconda en lo ordinario. No hace falta viajar a la Antártida ni asomarse a un acelerador de partículas para sentir asombro científico. Basta con abrir la nevera y sostener un huevo a contraluz. Allí, en esa silueta blanca, se encuentra comprimida una lección de física de materiales, de química de proteínas, de fisiología respiratoria y de logística evolutiva.

El huevo no presume. No tiene departamento de marketing. Pero si la naturaleza repartiera premios a la mejor solución de ingeniería integral, el huevo subiría al escenario con la modestia de quien sabe que no necesita discurso. Y nosotros, desde la cocina, quizá deberíamos aplaudir un poco antes de batirlo.

viernes, 13 de febrero de 2026

POR QUÉ RESPIRAMOS Y NO SALIMOS ARDIENDO

 

Los principales gases de la atmósfera terrestre son nitrógeno (78%), oxígeno (21%), argón (0,9%) y dióxido de carbono (0,04%). De todos ellos, el oxígeno es un oxidante (como su propio nombre indica), lo que significa que permite que otras cosas ardan. De los otros tres, ninguno arde. Afortunadamente, ninguno de ellos es inflamable. Si el aire fuera rico en un gas realmente inflamable —como el hidrógeno o el metano— la historia del planeta sería bastante más espectacular (y probablemente muy corta).

Y si ningunos es inflamable, ¿por qué hay incendios? Porque el aire contiene oxígeno, y eso es justo lo necesario para que un combustible (madera, gasolina, gas natural) pueda reaccionar rápidamente y liberar energía en forma de llama. Sin oxígeno, no hay fuego. Pero con solo oxígeno, tampoco. Y ahora vamos a lo que vamos.

El principal componente de cualquier ser humano, el que ocupa el 61% del espacio disponible, es el oxígeno. Parecer un tanto contrario a la intuición que estemos compuestos casi en dos terceras partes de un gas inodoro. La razón de que no seamos livianos e hinchables como un globo es que el oxígeno está en su mayor parte combinado con hidrógeno (que representa otro 10 % de nosotros) para formar agua; y el agua, como sabrá cualquiera que alguna vez haya intentado mover una piscina infantil o simplemente caminar con la ropa empapada, resulta muy pesada.

¿De dónde sale todo oxígeno que llena nuestro cuerpo? De la respiración. En la respiración, las cifras resultan asombrosas, de hecho, fantásticas. En silencio y con ritmo, despiertos o dormidos, como el que no quiere la cosa, todos los días inspiramos y espiramos unas 20 000 veces, procesando constantemente alrededor de 12 500 litros de aire, dependiendo de nuestra complexión y nuestro nivel de actividad. Esto equivale a unos 7,3 millones de respiraciones anuales, o 550 millones más o menos en el transcurso de toda una vida, y cada vez que respiramos exhalamos unos 25 000 trillones de moléculas de oxígeno.

En términos porcentuales, resulta que cada bocanada de aire que entra en nuestros pulmones contiene aproximadamente un 21% de oxígeno, el mismo elemento que convierte una tea en una antorcha, una chispa en un incendio forestal y una barbacoa mal vigilada en un episodio traumático del verano. Y, sin embargo, aquí estamos: caminando, leyendo, bostezando y pagando impuestos sin salir ardiendo espontáneamente. Lo cual, pensándolo bien, es un alivio.

La pregunta es evidente: si el oxígeno es el gran cómplice del fuego, ¿por qué no salimos ardiendo al respirar? ¿Qué impide que cada inspiración sea una especie de ruleta rusa térmica? Para responder hay que desmontar una confusión muy común: el oxígeno no es el pirómano de la historia. Es más bien el amigo que sostiene la puerta abierta.

El fuego, como los malos planes, necesita tres cosas para prosperar. Los bomberos lo llaman el triángulo del fuego: oxígeno, combustible y calor. Falta uno solo de esos elementos y el incendio se viene abajo como un castillo de naipes mojados. El oxígeno, por tanto, no basta. Es imprescindible, sí, pero inútil sin compañía. Y aquí empieza nuestra salvación.

Empecemos por el combustible. Uno podría pensar que el cuerpo humano, lleno de grasas, proteínas y otros materiales orgánicos de nombre inquietantemente inflamable, es un candidato ideal para la combustión. Pero no lo es. Principalmente porque —como he apuntado más arriba— somos, en esencia, bolsas ambulantes de agua. Entre un 60 y un 70% de nuestro cuerpo es agua, una sustancia famosa por muchas cosas —apagar fuegos, arruinar meriendas campestres, rebajar la leche, aguar el güisqui— pero no por arder. El agua actúa como un formidable inhibidor: absorbe calor, enfría tejidos y hace que cualquier intento de combustión sea tan frustrante como tratar de encender una fogata con sopa.

Luego está el detalle crucial del calor. Para que algo arda necesita alcanzar su temperatura de ignición, es decir, el punto en el que sus moléculas empiezan a reaccionar violentamente con el oxígeno. La madera necesita varios cientos de grados. La gasolina, menos, pero aun así muchos más de los 36,5 °C que marca un termómetro humano en un buen día. El aire que respiramos entra a temperatura ambiente y sale ligeramente calentado, pero jamás se acerca remotamente a los niveles necesarios para iniciar un incendio. Si nuestro interior alcanzara esas temperaturas, el problema no sería arder, sino sobrevivir siquiera unos segundos.

Hasta aquí, bien. Pero aún queda el punto más interesante y el que realmente marca la diferencia entre una persona viva y una antorcha con opiniones políticas: la respiración no es combustión. Aunque se parezcan en los libros de química, en la práctica son procesos muy distintos.

Cuando el oxígeno llega a nuestras células no se dedica a reaccionar de forma descontrolada, como hace en un incendio. En lugar de eso, participa en una exquisita coreografía bioquímica llamada respiración celular. Todo ocurre dentro de estructuras diminutas llamadas mitocondrias, que son, por decirlo de algún modo, centrales eléctricas microscópicas con un estricto código de seguridad. Allí, el oxígeno ayuda a extraer energía de los alimentos paso a paso, reacción a reacción, con la paciencia de un contable suizo.

Las mitocondrias son orgánulos que se encuentran en todas las células eucariotas en las que cumplen una función muy importante: mediante la respiración, transforman la energía en formas utilizables para impulsar reacciones celulares. Esto dicho en otras palabras, es que forman ATP (la “gasolina celular”) a partir de otras moléculas como son los ácidos grasos y los azúcares o hidratos de carbono.

La clave está en la lentitud. En un fuego, la energía se libera de golpe: calor, luz, caos. En el cuerpo humano, la energía se libera a cuentagotas, en cantidades tan pequeñas que pueden ser aprovechadas para mover un músculo, transmitir un impulso nervioso o mantener caliente el café interno que llamamos metabolismo. Si esa misma energía se liberase de una sola vez, como en una llama, nos cocinaríamos desde dentro antes de tener tiempo de decir “esto no parece saludable”.

Una buena analogía es comparar la combustión con quemar una casa para calentarse, y la respiración celular con encender cuidadosamente una estufa y regularla con un termostato. Ambas usan la misma fuente de energía, pero una es claramente preferible si se desea conservar el inmueble y la vida.

También ayuda recordar que el oxígeno que respiramos no es especialmente agresivo. La atmósfera terrestre lleva unos 2 400 millones de años con niveles de oxígeno relativamente altos, y si este gas tuviera tendencia a provocar incendios espontáneos, el planeta habría sido durante eones una especie de barbacoa cósmica. El hecho de que los bosques necesiten un rayo, una cerilla o un descuido humano para arder debería tranquilizarnos bastante.

Curiosamente, cuando el oxígeno sí se vuelve peligroso es cuando hay demasiado. En ambientes enriquecidos con oxígeno —quirófanos, laboratorios, estaciones espaciales— materiales normalmente inofensivos pueden arder con entusiasmo suicida. En esas condiciones, una chispa minúscula puede provocar un desastre. Pero incluso entonces, el cuerpo humano no se incendia por respirar: el problema es el entorno, no los pulmones.

Así que podemos respirar tranquilos salvo, claro está, si no nos llega una notificación de Hacienda. Cada inspiración no es un acto de valentía inconsciente, sino una colaboración cuidadosamente regulada entre química y biología. El oxígeno entra, hace su trabajo con disciplina y se va discretamente convertido en agua y dióxido de carbono, sin montar un espectáculo pirotécnico.

En resumen: no ardemos porque no somos una maldita hoguera. Nos falta el calor, nos sobra el agua y, sobre todo, tenemos un sistema exquisitamente diseñado para domar al oxígeno y obligarlo a comportarse. El verdadero milagro no es que no nos incendiemos, sino que este proceso funcione millones de veces al día, en silencio, sin que tengamos que pensar en ello.

Lo inquietante no es respirar oxígeno. Lo inquietante sería no hacerlo.

miércoles, 11 de febrero de 2026

VÓRTICE POLAR Y TREN DE BORRASCAS: POR QUÉ EL ÁRTICO ESTÁ INFLUYENDO EN LAS LLUVIAS EN ESPAÑA

 

En meteorología hay pocas expresiones tan sugerentes como “tren de borrascas”. Evoca puntualidad ferroviaria, orden, casi disciplina atmosférica. Pero lo que estamos viendo este invierno no tiene nada de apacible: una sucesión de sistemas profundos cruzando la Península, dejando lluvias persistentes, ríos crecidos y paraguas en fatiga crónica. Y, en medio del parte del tiempo, aparece un invitado aparentemente lejano: el vórtice polar. La pregunta es inevitable. ¿De verdad lo que ocurre sobre el Polo Norte puede estar influyendo en que en España no deje de llover?

España vive una de esas temporadas en que las borrascas no vienen solas, sino en cadena. No es un episodio aislado. Es un patrón. Las bajas presiones atlánticas encuentran una autopista abierta hacia la Península y la recorren una tras otra. Para entender por qué, hay que levantar la vista muy por encima de las nubes.

El vórtice polar ártico no es una tormenta gigantesca, ni un ciclón permanente. Es una vasta banda de vientos del oeste que se forma cada invierno en la estratosfera, entre 16 y 48 kilómetros de altura, sobre el Polo Norte. Allí arriba, encierra el aire más frío del hemisferio. Cuanto más rápido gira, más aislado queda ese aire helado. Cuando el vórtice es fuerte y compacto, el frío permanece confinado en el Ártico. El sistema es estable.

Figura 1. Imagen de los cambios experimentados por el vórtice polar de enero tomada por un satélite de la NASA. Observa en la barra de abajo que las temperaturas más frías (por debajo de 0 ºC) corresponden a los colores que van del blanco al azul intenso. Las más cálidas aparecen de colores ocres.

Conviene no confundirlo con la corriente en chorro. El jet stream circula mucho más abajo, en la troposfera, entre 8 y 14 kilómetros sobre la superficie. Es la gran autopista de vientos rápidos que separa el aire polar del aire templado. Y es la que guía las borrascas. El vórtice vive arriba. El chorro, más abajo. Pero están conectados.

Si el vórtice está fuerte, el chorro tiende a ser más recto y rápido. Circula de oeste a este con menos ondulaciones. Las borrascas siguen trayectorias más septentrionales. España puede quedar al margen. En cambio, cuando el vórtice se debilita, la historia cambia.

Ese debilitamiento no ocurre por capricho. Grandes ondulaciones atmosféricas, llamadas ondas planetarias, pueden ascender desde la troposfera hasta la estratosfera y perturbar el vórtice. Si el empujón es intenso, el sistema se deforma, se desplaza o incluso se divide. En los casos más llamativos se produce un calentamiento súbito estratosférico: en pocos días, la temperatura en la estratosfera polar aumenta de forma abrupta. El vórtice pierde fuerza. Empieza a tambalearse.

Los efectos no se notan de inmediato en superficie. Pueden tardar días o semanas. Pero cuando la perturbación desciende hacia capas más bajas, la corriente en chorro suele volverse más sinuosa. Aparecen grandes meandros, profundas vaguadas y dorsales persistentes. Bajo esas vaguadas, el aire frío se desplaza hacia latitudes medias. Y las borrascas encuentran nuevas rutas.

Figura 2. Cuando el vórtice polar ártico es especialmente intenso y estable (globo de la izquierda), impulsa la corriente en chorro polar, en la troposfera, a desplazarse hacia el norte. El aire polar más frío permanece en el Ártico. Cuando el vórtice se debilita, se desplaza o se divide (globo de la derecha), la corriente en chorro polar suele ondularse considerablemente formando meandros, que permiten que el aire cálido inunde el Ártico y que el aire polar descienda hacia las latitudes medias. Gráfico de NOAA Climate.gov, adaptado del original de NOAA.gov.

Eso es lo que ha sucedido este invierno. Tras un episodio de calentamiento súbito estratosférico en enero, el vórtice se debilitó y se desplazó. El chorro adoptó un trazado más ondulado. En ese nuevo dibujo atmosférico, la península ibérica quedó en la senda de las bajas presiones atlánticas.

No es que el vórtice “mande” una borrasca concreta hacia España. No funciona como un mando a distancia. Lo que hace es modificar la configuración general de la circulación atmosférica. Cambia el tablero. Y en ese tablero inclinado, las borrascas tienden a descender de latitud.

Cuando una vaguada del chorro se instala cerca de la península, el flujo húmedo del Atlántico tiene vía libre. Las bajas presiones se suceden. La inestabilidad se prolonga. Así nace el llamado tren de borrascas: no como un fenómeno aislado, sino como la consecuencia de un patrón atmosférico favorable a su repetición.

La relación entre el vórtice polar y las lluvias en España es, por tanto, indirecta pero poderosa. Vórtice fuerte, chorro más recto, borrascas al norte. Vórtice alterado, chorro ondulado, borrascas más al sur. Lo que ocurre a treinta kilómetros de altura puede terminar influyendo en algo tan cotidiano como decidir si hoy toca paraguas.

La siguiente pregunta es inevitable: ¿estos episodios serán más frecuentes en el futuro?

Aquí la respuesta exige prudencia. Sabemos que el Ártico se está calentando más rápido que la media global, un fenómeno conocido como amplificación ártica. Al reducirse el contraste térmico entre el ecuador y el polo, algunos investigadores sostienen que la corriente en chorro podría debilitarse y ondularse con mayor facilidad. Un chorro más ondulado favorecería bloqueos persistentes y episodios extremos en latitudes medias.

Sin embargo, los modelos climáticos no muestran una señal inequívoca. Algunos estudios apuntan a que los calentamientos súbitos estratosféricos podrían volverse algo más frecuentes. Otros no encuentran cambios significativos. La estratosfera es compleja. Y la variabilidad natural —oscilaciones como la Oscilación del Atlántico Norte o fenómenos como El Niño y La Niña— sigue desempeñando un papel importante.

Donde sí hay mayor consenso es en otro aspecto: en un clima más cálido, los impactos pueden intensificarse. Un aire más templado contiene más vapor de agua. Un océano más cálido aporta más energía a las borrascas. Aunque no aumente la frecuencia de las perturbaciones del vórtice, las lluvias asociadas a determinados patrones podrían ser más abundantes o persistentes.

El debate científico no enfrenta creencias, sino mecanismos. ¿Está la amplificación ártica alterando de forma sistemática la dinámica del chorro? ¿O seguimos observando sobre todo la variabilidad natural de un sistema caótico? La respuesta definitiva aún no está cerrada.

Mientras tanto, el resultado es tangible. El vórtice se debilita. El chorro se ondula. Las borrascas descienden de latitud. Y España se moja. El Polo Norte puede parecer remoto, pero cuando su equilibrio atmosférico se altera, el eco llega hasta nuestras calles, convertido en lluvia constante y cielos grises.

La atmósfera no es un dominó que cae en línea recta. Es una red de conexiones invisibles. Y a veces basta un pequeño desequilibrio en el Ártico para que, semanas después, tengamos que volver a buscar el paraguas.