Vistas de página en total

miércoles, 18 de febrero de 2026

LAS SERPIENTES ANTES DEL FUEGO: EL PRÓLOGO OLVIDADO DE LA TRAGEDIA DE SAINT-PIERRE

 

Bienvenidos a Saint-Pierre, Martinica. Año 1902. El ron corre por las destilerías, los cafés imitan a París y el Monte Pelée vigila desde el norte con esa elegancia distraída de los volcanes dormidos. La ciudad presume de ser el “París del Caribe”. Tiene teatro, comercio, periódicos, política. Tiene, sobre todo, confianza. Y entonces empiezan a bajar las serpientes.

Antes del fuego, bajaron las serpientes. Es una frase que suena a profecía bíblica, pero ocurrió en 1902, en Saint-Pierre, la capital cultural y económica de Martinica. La ciudad se hacía llamar el París del Caribe. Tenía teatro, comercio, cafés y una vida urbana orgullosa de sí misma. Sobre ella se alzaba el Monte Pelée, una presencia casi decorativa en el horizonte. Una montaña elegante, cubierta de vegetación, con un pasado volcánico demasiado lejano para inquietar a nadie. Y sin embargo, cuando el volcán empezó a despertar, quienes primero lo comprendieron no fueron los científicos ni los políticos, sino los animales.

A comienzos de mayo la montaña emitía ceniza y gases. El suelo vibraba con pequeños temblores. Hubo un flujo de lodo que destruyó una fábrica azucarera y mató a varias decenas de personas. La señal estaba ahí, pero no encajaba en el imaginario colectivo del desastre. No había ríos de lava descendiendo con solemnidad clásica, como en las ilustraciones del Vesubio. No había un espectáculo claro que justificara el pánico. Había humo, rumores y cierta incomodidad en el aire. Y luego estaban las serpientes.

La especie en cuestión, la fer-de-lance de Martinica, vivía en las laderas boscosas del Pelée. Sensibles a los cambios térmicos y químicos, comenzaron a descender cuando el suelo se calentó y los gases volcánicos alteraron su hábitat. No fue un acto de clarividencia, sino de fisiología. El entorno se volvió inhabitable y la única dirección posible era cuesta abajo. En pocos días, los barrios periféricos de Saint-Pierre registraron una invasión insólita. Se hablaría después de miles de serpientes; las cifras reales son difíciles de precisar, pero hubo decenas de mordeduras y alrededor de cincuenta muertes. Para los habitantes de la ciudad, aquello debió de ser profundamente inquietante: abrir la puerta y encontrar reptiles venenosos en la calle, como si la montaña estuviera expulsando algo que ya no podía contener.

Bothrops lanceolatus,  la víbora fer-de-lance de Martinica,

La imagen es poderosa porque parece un aviso simbólico: primero la plaga, luego el fuego. Pero lo que ocurrió no pertenece al registro de lo sobrenatural. Fue un fenómeno físico y biológico. El volcán liberaba dióxido de azufre y dióxido de carbono; el suelo se calentaba; la microfauna se desplazaba. Las serpientes reaccionaban a cambios que el cuerpo humano no percibe sin instrumentos. Mientras en los despachos se discutía la conveniencia de evacuar o no la ciudad —con elecciones próximas y una economía que no quería detenerse—, la montaña ya estaba reconfigurando su entorno de forma tangible.

A las 7:52 de la mañana, del 8 de mayo de 1902, tres días antes de que se celebraban las elecciones, el Monte Pelée liberó una nube piroclástica. No fue una colada de lava lenta y visible, sino una avalancha de gas sobrecalentado, ceniza y fragmentos de roca que descendió a cientos de kilómetros por hora y a temperaturas cercanas a los mil grados. En menos de dos minutos, Saint-Pierre dejó de existir. Murieron cerca de treinta mil personas. La ciudad que había discutido si debía preocuparse fue borrada antes de terminar el desayuno.

Lo que siguió transformó la ciencia. Hasta entonces, la vulcanología europea estaba moldeada por el modelo del Vesubio: explosiones, ceniza, lava. Pelée obligó a reconocer otra forma de violencia geológica. El geólogo Alfred Lacroix acuñó el término nuée ardente para describir aquella corriente ardiente que no era humo ligero ni roca líquida, sino una masa densa y devastadora que se comportaba como un fluido turbulento pegado al suelo. La noción de flujo piroclástico —hoy central en la evaluación del riesgo volcánico— nació de esa catástrofe. La ciencia avanzó porque fracasó antes.

En retrospectiva, resulta difícil no ver en las serpientes una metáfora incómoda. No eran oráculos, pero sí indicadores. Respondían a variaciones físicas que anticipaban un cambio mayor. Su huida no fue una predicción consciente del desastre final; fue la consecuencia directa de un sistema que ya estaba desestabilizado. La tragedia de Saint-Pierre ilustra algo que a menudo olvidamos: los desastres no comienzan con el estruendo final, sino con alteraciones sutiles en el equilibrio de un entorno.

Desde entonces, la relación entre comportamiento animal y fenómenos geológicos ha fascinado a investigadores y cronistas. Hay informes de ganado inquieto antes de terremotos, de aves que alteran sus rutas migratorias, de peces que abandonan ciertas zonas costeras. La evidencia científica es prudente: los animales no “predicen” el futuro en un sentido místico. Pero viven más cerca de los parámetros físicos del mundo. Detectan vibraciones de baja frecuencia, cambios en la composición del aire, variaciones térmicas mínimas. Lo que para nosotros es invisible hasta que se vuelve catastrófico, para ellos puede ser una molestia inmediata.

En 1902 no existían redes de sensores ni sistemas sofisticados de monitoreo volcánico. Existían, en cambio, serpientes que abandonaban la montaña. La ciudad pudo interpretarlo como un episodio molesto, una anomalía desagradable que requería control sanitario. Era más fácil pensar en una plaga que en un sistema volcánico reorganizándose bajo tierra. Más fácil discutir sobre orden público que replantear la seguridad de toda una urbe.

Cuando la nube ardiente descendió, las serpientes ya no estaban allí. Habían huido días antes, guiadas por una lógica elemental: sobrevivir. La ciudad, en cambio, permaneció. La ironía no es que los animales supieran más que los humanos, sino que estaban más atentos a su entorno inmediato. La biología reaccionó con rapidez; la política y la cultura, no.

La historia de Saint-Pierre suele contarse como una tragedia volcánica o como un ejemplo de negligencia administrativa. Ambas lecturas son válidas. Pero también es la historia de una desconexión entre sociedad y entorno. En un mundo que empezaba a confiar cada vez más en su capacidad técnica y en su estabilidad institucional, la naturaleza recordó que sus señales no siempre adoptan la forma que esperamos. A veces no es una columna de lava visible, sino un cambio en el comportamiento de criaturas que viven a ras del suelo.

Antes del fuego, bajaron las serpientes. No como advertencia divina, sino como consecuencia física de un sistema que estaba cambiando. La ciudad no las escuchó porque no sabía cómo traducir ese lenguaje. Y tal vez esa sea la lección más duradera: el desastre no siempre llega sin aviso. A veces se anuncia en formas que preferimos interpretar como anécdotas, molestias o exageraciones. Solo después, cuando la ceniza se enfría, comprendemos que eran los primeros síntomas de algo mucho mayor.

CARICATURA DE LA DIGESTIÓN

 

La imagen representa, de forma caricaturesca, el proceso completo de la digestión humana, desde que el alimento entra en la boca hasta que los residuos se eliminan, mostrando los órganos implicados y las sustancias químicas que intervienen en cada etapa.

Resumo lo que significa cada paso en orden:

1. Ingestión: boca y saliva

El proceso comienza en la boca.

Los dientes trituran el alimento (digestión mecánica).

La saliva contiene enzimas como la amilasa salival, que empieza a descomponer los carbohidratos.

Se forma el bolo alimenticio, que es empujado hacia el esófago.

2. Transporte: esófago

El bolo alimenticio desciende por el esófago gracias a movimientos musculares llamados peristaltismo. Aquí no ocurre digestión química importante; solo transporte hacia el estómago.

3. Digestión gástrica: estómago

En el estómago ocurre una fase clave. Se libera ácido clorhídrico, que:

Mata microorganismos.

Activa enzimas.

Actúa la pepsina, que comienza la digestión de las proteínas.

El alimento se mezcla y se transforma en una sustancia semilíquida llamada quimo.

4. Digestión química avanzada: intestino delgado

En el intestino delgado ocurre la mayor parte de la digestión y absorción. Intervienen:

Bilis (producida por el hígado y almacenada en la vesícula biliar): emulsiona las grasas (las fragmenta en gotas pequeñas).

Enzimas del páncreas (como la tripsina): continúan la digestión de proteínas. Descomponen grasas y carbohidratos.

En esta fase las moléculas grandes se convierten en:

Aminoácidos

Glucosa

Ácidos grasos

Vitaminas

5. Absorción de nutrientes

En el intestino delgado, a través de las vellosidades intestinales:

Los nutrientes pasan al sistema circulatorio.

La sangre los transporta a todas las células del cuerpo para obtener energía y construir tejidos.

6. Intestino grueso (colon)

Lo que no se digirió pasa al intestino grueso. Aquí ocurre:

Reabsorción de agua y vitaminas.

Acción de bacterias intestinales que fermentan residuos.

Formación de las heces.

Se mencionan partes como:

Colon transverso

Colon descendente

7. Eliminación y excreción

Finalmente:

Las heces se almacenan en el recto y se expulsan.

Los riñones filtran la sangre para eliminar desechos líquidos, produciendo orina.

En resumen

Es una representación simplificada pero bastante completa del sistema digestivo humano y su coordinación con el sistema circulatorio y el sistema excretor. La imagen representa:

Ingestión

Digestión mecánica

Digestión química

Absorción de nutrientes

Recuperación de agua

Eliminación de residuos


domingo, 15 de febrero de 2026

EL VENENO DE LA SELVA QUE LLEGÓ A SIBERIA

 

Epipedobates tricolor. Dominio público a través de Wikipedia

Hay historias que parecen concebidas por un novelista británico con debilidad por los detalles improbables. Un opositor ruso muere en una prisión ártica y, meses después, algunos gobiernos europeos sostienen que en su organismo apareció una toxina procedente de una pequeña rana tropical sudamericana. No un agente nervioso de laboratorio con nombre impronunciable y pedigrí de Guerra Fría, sino una molécula descubierta en la piel brillante de un anfibio ecuatoriano. El protagonista humano es Alexéi Navalni; la sustancia, la epibatidina; el escenario final, una colonia penal en el hielo siberiano. Si la geografía tuviera sentido del humor, probablemente habría intentado algo menos exagerado.

Navalni ya había sobrevivido en 2020 a un envenenamiento con un agente del grupo Novichok, en un capítulo que parecía pertenecer al manual clásico del espionaje químico. Esta vez, sin embargo, la acusación difundida por varios gobiernos europeos introduce un elemento más desconcertante: la detección de epibatidina en análisis toxicológicos posteriores a su muerte. Su viuda, Yulia Navalnaya, ha respaldado públicamente estas conclusiones y pedido una investigación internacional exhaustiva. Rusia rechaza las acusaciones. La diplomacia se tensa. Y, mientras tanto, conviene mirar con calma a la auténtica protagonista microscópica.

La epibatidina fue aislada en 1992 a partir de la piel de la Epipedobates tricolor, una rana pequeña, de colores vivos, que habita en Ecuador. Su descubrimiento se produjo en el marco de investigaciones impulsadas por los National Institutes of Health, en los cuales los científicos llevaban tiempo examinando las secreciones cutáneas de las ranas venenosas neotropicales. Estas especies, popularmente conocidas como ranas dardo, habían intrigado a la comunidad científica por una razón sencilla: las comunidades indígenas del Chocó y otras regiones amazónicas impregnaban con su veneno las puntas de las cerbatanas. Si algo puede derribar a un mono a decenas de metros, probablemente tenga interés farmacológico.

Y lo tenía. La epibatidina resultó ser un analgésico extraordinariamente potente. En modelos animales, superaba con creces a la morfina —hasta doscientas veces más potente en ciertos ensayos— y lo hacía sin actuar sobre los receptores opioides clásicos. En plena preocupación por la dependencia asociada a los opiáceos, aquello sonaba a revolución terapéutica. Un analgésico no opioide, potente y potencialmente libre de adicción. Las revistas científicas se animaron. Los laboratorios empezaron a diseñar análogos. Durante un tiempo, la pequeña rana ecuatoriana parecía destinada a aliviar el dolor humano a escala planetaria.

La euforia duró poco. La epibatidina no sólo era potente; era peligrosamente indiscriminada. Su mecanismo de acción explica tanto su atractivo como su letalidad. La molécula se une con gran afinidad a los receptores nicotínicos de acetilcolina, que están distribuidos por todo el sistema nervioso central y periférico, en la unión neuromuscular y en el sistema nervioso autónomo. Dicho sin rodeos: actúa sobre interruptores eléctricos fundamentales para el control del movimiento, la respiración y el ritmo cardíaco.

Al unirse a estos receptores, la epibatidina los activa de manera intensa y prolongada. La primera fase puede incluir hipertensión, taquicardia, sudoración, náuseas y vómitos. Luego sobreviene el caos: convulsiones, parálisis muscular, arritmias graves, depresión respiratoria. La línea que separa la analgesia experimental del colapso fisiológico es extremadamente fina. Hablamos de microgramos. No miligramos, no gotas visibles: microgramos. La diferencia entre una dosis “interesante” y una dosis potencialmente mortal puede ser mínima. No existe un antídoto específico. El tratamiento, si se llega a tiempo, consiste en ventilación mecánica, control de arritmias y soporte vital intensivo.

Este perfil toxicológico hizo que la epibatidina, pese a su brillo científico inicial, quedara descartada como fármaco. Se desarrollaron derivados menos tóxicos, pero ninguno alcanzó el equilibrio deseado entre eficacia y seguridad. La molécula original pasó a ocupar un lugar curioso en los manuales: ejemplo perfecto de cómo la naturaleza puede producir compuestos de enorme potencia que resultan, para el uso humano, demasiado peligrosos.

E. tricolor comparada con una moneda de medio euro. Wikipedia.

Aquí es donde la biología se cruza con la política. Las ranas venenosas no fabrican necesariamente estos alcaloides desde cero. En muchos casos, los acumulan a partir de su dieta, especialmente de ciertos insectos. En cautividad, al cambiar su alimentación, pierden buena parte de su toxicidad. Son, en cierto modo, intermediarias químicas de la selva. Que una molécula asociada a este delicado equilibrio ecológico aparezca en un caso de presunto envenenamiento político resulta, como mínimo, simbólicamente perturbador.

Desde el punto de vista técnico, la epibatidina puede sintetizarse en laboratorio; no es necesario capturar ranas en la Amazonía. Pero no es un compuesto industrial de uso común ni forma parte de los arsenales químicos clásicos. Su detección en un organismo humano sería, en principio, extraordinaria. No es algo que se encuentre por accidente en el agua potable ni en un medicamento mal etiquetado. Su mera presencia obliga a formular preguntas.

En mi blog he escrito en alguna ocasión sobre estas ranas y sobre la mezcla casi literaria de inocencia cromática y potencia letal que encarnan. Son pequeñas, brillantes, casi decorativas. Parecen diseñadas por un ilustrador infantil con predilección por los colores saturados. Y, sin embargo, su piel puede albergar sustancias capaces de alterar de forma radical la fisiología humana. En el siglo XIX, algunos ilusionistas europeos incluían ranas en sus espectáculos, tragándolas ante el público como demostración de audacia. Con especies locales no había mayor peligro. Con una rana dardo sudamericana, el número habría adquirido un dramatismo involuntario.

Una rana que cabe en la palma de la mano, una molécula que pesa microgramos, un laboratorio en Maryland que celebra un hallazgo prometedor, y décadas después un debate diplomático entre potencias europeas. La biología rara vez se limita a los márgenes exóticos de los documentales; a veces irrumpe en los titulares internacionales.

Más allá de sus implicaciones políticas y jurídicas, el caso de Navalni nos recuerda también la doble cara de la investigación biomédica. La exploración de la biodiversidad ha proporcionado antibióticos, antitumorales y analgésicos. Pero ese mismo arsenal químico natural puede convertirse en herramienta de daño si se desvía de su contexto original. La selva no distingue entre farmacología y toxicología; esa distinción la imponemos nosotros.

Que el veneno de una rana ecuatoriana termine vinculado a una muerte en el Ártico ruso es, en términos geográficos, una enorme ironía. Del calor húmedo de los bosques tropicales al frío extremo de una colonia penal. De los insectos que alimentan a un anfibio diminuto a los laboratorios capaces de sintetizar su alcaloide. El trayecto es improbable, pero no imposible.

Al final, la historia encierra una lección inquietante. La naturaleza no produce sustancias “malvadas”; produce moléculas eficaces. Somos nosotros quienes decidimos cómo utilizarlas. La epibatidina nació como promesa analgésica, fue descartada por su peligrosidad y hoy reaparece en un contexto que mezcla ciencia, diplomacia y tragedia. Y todo ello gracias a una rana de colores brillantes que, en su entorno natural, sólo pretendía evitar que alguien la mordiera.

La próxima vez que vea una fotografía de una rana tropical y piense que es poco más que un adorno viviente, recuerde que en su piel puede esconderse una química capaz de detener un corazón humano. Y que, en ocasiones, la distancia entre la selva y la política internacional es mucho más corta de lo que imaginamos.

TRUMP Y EL NEGACIONISMO DEL CAMBIO CLIMÁTICO

 

Trump es conocido por despreciar el cambio climático y relegarlo a la categoría de cuento chino, y nunca mejor dicho: en 2012 tuiteó que era un concepto creado por China para dañar la competitividad de las empresas estadounidenses. Esta idea está totalmente en línea con la trayectoria de décadas de negacionismo organizado que, perfectamente engrasado con petrodólares, ha actuado de ariete de cualquier atisbo de política climática, en ocasiones con estimable éxito. 

La diferencia es que si hasta hace poco las grandes empresas de combustibles fósiles sostenían con fondos tramas negacionistas que en su nombre intentaban influir a la clase política, ahora los negacionistas han tomado literalmente la Casa Blanca y forman parte de la nueva clase dirigente estadounidense.

Con una declaración de barra de bar en la que dijo que todo lo relacionado con el cambio climático es “una gran estafa”, el pasado 12 de febrero Donald Trump anunció la revocación del llamado “dictamen de peligro” de 2009, la declaración científica que había servido durante más de una década como fundamento jurídico para regular las emisiones de gases de efecto invernadero en Estados Unidos.

Al hacerlo, Estados Unidos ha revocado un hallazgo científico que durante mucho tiempo ha sido la base central de sus acciones para regular las emisiones de gases de efecto invernadero y combatir el cambio climático. La decisión del jueves es la medida más agresiva del presidente Donald Trump para revertir las regulaciones ambientales desde el inicio de su segundo mandato.

Con esa decisión no solo se altera una política concreta, sino que se cuestiona el uso de una ley ambiental de 1970 como instrumento central de la política climática federal. Para comprender el alcance del movimiento conviene retroceder medio siglo y reconstruir la arquitectura institucional que lo hizo posible.

Impulsado tanto por la evidencia científica como por episodios simbólicos de degradación ambiental, el debate ambiental estadounidense adquirió intensidad en los años sesenta. La publicación en 1962 de Primavera silenciosa por Rachel Carson contribuyó decisivamente a sensibilizar a la opinión pública frente al uso indiscriminado de pesticidas. A ello se sumaron desastres visibles, como el derrame de crudo desde una plataforma petrolífera anclada frente a la costa de California o el incendio del río Cuyahoga en Ohio, cuyo cauce, saturado de residuos industriales, llegó a arder. Las primeras imágenes de la Tierra vistas desde el espacio reforzaron la percepción de fragilidad ecológica en un contexto de rápido crecimiento industrial.

En este clima, el presidente Richard Nixon presentó en 1970 un ambicioso programa ambiental y promovió la reorganización de competencias federales dispersas en materia de contaminación. El resultado fue la creación de la primera Agencia de Protección Ambiental (EPA) del mundo, concebida como un organismo capaz de centralizar investigación, vigilancia y regulación. Ese mismo año se reformó en profundidad la Clean Air Act, la Ley de Aire Limpio (LAL), aprobada inicialmente en 1963 con un alcance limitado y cooperativo, para convertirla en una ley de carácter obligatorio y técnicamente exigente. Desde entonces, la LAL constituye la autoridad normativa y la EPA su órgano ejecutor.

La ley estableció un sistema federal basado en estándares nacionales de calidad del aire, definidos a partir de criterios de salud pública. El modelo se diseñó para afrontar problemas concretos y localizados: el smog urbano, la lluvia ácida y las emisiones industriales tóxicas. El “smog clásico” al que respondía la legislación incluía contaminantes como el dióxido de azufre, los óxidos de nitrógeno, las partículas en suspensión o el plomo, sustancias directamente nocivas para la salud y visibles en el deterioro atmosférico de grandes ciudades como Los Ángeles o Cleveland. Se trataba de contaminantes de efectos inmediatos y territoriales, cuya reducción podía medirse en términos relativamente directos.

Un elemento decisivo de la reforma de 1970 fue la definición amplia que hizo el Congreso de “contaminante del aire”, considerado literalmente como «cualquier agente físico, químico o biológico emitido al aire». El Congreso no pensaba entonces en el dióxido de carbono ni en el calentamiento global, un fenómeno desconocido por entonces en el debate político. Sin embargo, la amplitud de la definición dejó abierta la posibilidad de interpretar la ley de manera evolutiva. Esa ambigüedad semántica es la que décadas más tarde permitió conectar una norma concebida para combatir el smog con la regulación del cambio climático.

El punto de inflexión jurídico se produjo en 2007 con la sentencia del Tribunal Supremo en el caso Massachusetts vs. EPA. El estado de Massachusetts y otros demandantes sostenían que la EPA se negaba a regular las emisiones de CO₂ de los vehículos, pese a que la LAL incluía una definición lo suficientemente amplia como para abarcar ese gas. La cuestión central era doble: si el CO₂ podía considerarse un “contaminante del aire” y si la agencia tenía discrecionalidad para no actuar.

Por una mayoría ajustada (5 a 4), el Tribunal concluyó que los gases de efecto invernadero encajan en la definición legal y que la EPA debía basar su decisión en criterios científicos sobre el riesgo para la salud o el bienestar público, no en consideraciones políticas generales. La sentencia no creó una ley climática nueva, pero abrió la puerta a utilizar la LAL como fundamento de la regulación de emisiones de gases de efecto invernadero.

En cumplimiento de ese mandato, la EPA emitió en diciembre de 2009 el denominado “dictamen de peligro”, en el que se declaraba que seis gases de efecto invernadero —entre ellos el CO₂, el metano y el óxido nitroso— amenazaban la salud pública. Ese pronunciamiento científico-administrativo se convirtió en la piedra angular de la política climática federal, pues desde ese momento habilitó a la EPA para imponer estándares de emisión a vehículos, centrales eléctricas y otras fuentes relevantes en aplicación de la LAL. En términos jurídicos, el dictamen funcionaba como condición previa indispensable: si los gases son peligrosos en el sentido de la ley, la agencia está obligada a regularlos.

La revocación anunciada el 12 de febrero afecta precisamente a ese presupuesto. Al anular el dictamen de 2009, la administración Trump elimina la base científica y legal que sustentaba la regulación federal de las emisiones de gases de efecto invernadero. En el plano inmediato, la medida incide en las normas aplicables a vehículos y motores, pues estas dependían directamente de la constatación formal de peligro y ahora quedan desreguladas.

A medio plazo, la decisión debilita también el fundamento de las reglas dirigidas a centrales eléctricas, instalaciones industriales y al sector del petróleo y el gas, aunque la situación concreta dependerá de la interacción con otras disposiciones regulatorias y del resultado de los previsibles litigios.

Desde el punto de vista institucional, la controversia remite a una cuestión más amplia: hasta qué punto puede una ley ambiental de 1970, diseñada para afrontar contaminación local y tóxica, servir como instrumento para gestionar un fenómeno global, acumulativo y sistémico como el cambio climático.

La tensión no es meramente técnica, sino conceptual. Para algunos, la definición amplia de “contaminante” revela una voluntad legislativa de dotar a la norma de flexibilidad suficiente para adaptarse a problemas nuevos. Para otros, utilizarla para rediseñar el sistema energético nacional supone extender la ley más allá de lo que el Congreso previó, por lo que cualquier transformación estructural debería apoyarse en una legislación climática específica y explícita.

Es previsible que la revocación del dictamen desencadene una intensa batalla judicial. Diversos estados y organizaciones ambientalistas han anunciado ya su intención de impugnar la medida, alegando que ignora la evidencia científica y contradice la interpretación consolidada por el Tribunal Supremo. En ese contexto, el conflicto trasciende la política ambiental concreta y se inscribe en un debate más amplio sobre el alcance del poder de las agencias administrativas y la relación entre Congreso, Ejecutivo y tribunales.

En definitiva, la decisión del 12 de febrero no puede entenderse como un ajuste regulatorio aislado. Supone reabrir una discusión que se remonta a la década de 1970 y que conecta la lucha contra el smog urbano con la gobernanza del clima global. La LAL nació para limpiar el aire de las ciudades; medio siglo después, su interpretación define en buena medida la capacidad del Estado federal para intervenir frente al cambio climático.

En ese cruce entre historia legislativa, doctrina judicial y política contemporánea se sitúa hoy el núcleo del debate estadounidense.

BREVE RELATO DE LA LARGA HISTORIA DE LA TESTOSTERONA

 

En 1889, setenta y un años después de la publicación de Frankenstein, cuando la palabra “testosterona” todavía no existía y la endocrinología era poco más que una intuición con bigote victoriano, la revista médica The Lancet dedicó tres páginas a una historia que podría haber incitado a Mary Shelley a tomar notas si aún hubiera estado viva y que hoy habría terminado en TikTok con música épica y subtítulos fluorescentes.

El protagonista era Charles-Édouard Brown-Séquard, un fisiólogo respetable, miembro de sociedades científicas ilustres, descubridor de reflejos medulares y, a la sazón, un señor de 72 años que empezaba a notar que el cuerpo ya no obedecía con la diligencia de antaño.

Brown-Séquard estaba cansado. Débil. Un poco marchito. Y como buen científico del siglo XIX —una categoría humana que combinaba genialidad, temeridad y una relación muy relajada con la experimentación ética— decidió que el problema no era el paso del tiempo sino una carencia química. Si los jóvenes estaban llenos de vigor, ese vigor debía residir en algún fluido concreto. Y si residía en algún sitio, era razonable suponer que estuviera en los testículos.

Lo que vino después fue, en esencia, un batido. Nuestro fisiólogo trituró testículos de perro y de cobaya, los mezcló con agua, los filtró con un entusiasmo que uno imagina muy serio, y se inyectó el resultado. Acto seguido anunció al mundo que se sentía mejor. Más fuerte. Más despierto. Con mayor energía física y mental. Incluso —y aquí la cosa adquiría un brillo particular— con renovado ímpetu sexual.

La prensa se lo pasó en grande. La comunidad médica, no tanto. Aunque muchos se burlaron de aquel caballero que se inoculaba jugo testicular como quien se toma un tónico de zarzaparrilla, lo cierto es que Brown-Séquard había puesto el dedo en algo importante. Intuía que las glándulas internas secretaban sustancias capaces de modificar el organismo. No sabía aún cómo se llamaban, pero había olido la pista. La endocrinología, que hoy nos parece tan sobria y de bata impecable, nació en parte de ese gesto entre heroico y ligeramente disparatado.

En sus escritos, Brown-Séquard dejó caer una observación deliciosa. Afirmaba que los hombres que se abstienen del sexo y del “placer personal” entran en un estado de excitación que les proporciona una gran, aunque anormal, actividad física y mental. Traducido al castellano moderno: pensaba que no masturbarse generaba una especie de energía acumulada que el cuerpo podía redirigir hacia hazañas intelectuales o físicas. Es una idea tan victoriana que casi huele a biblioteca con cortinas pesadas, pero tiene su encanto. Para él, el semen no era solo una sustancia reproductiva; era, en cierto modo, una batería portátil de vigor.

Naturalmente, no tenía razón. Pero tampoco estaba completamente equivocado en el sentido amplio: de hecho, existen sustancias químicas que influyen de manera poderosa en el ánimo, la energía, la masa muscular y el deseo. Solo que no funcionan como un depósito que uno llena o vacía disciplinadamente.

La testosterona es una hormona que desempeña diversas funciones en el cuerpo. En el hombre adulto, casi toda la testosterona se produce en los testículos bajo el control de una hormona producida en el cerebro, y una pequeña cantidad se produce a partir de un precursor extraído de las glándulas suprarrenales, ubicadas sobre los riñones. La testosterona es una de las muchas moléculas que ayudan a regular la activación de los genes para producir proteínas, y desempeña un papel importante en la libido, la virilización, la musculatura, la densidad ósea y el estado de ánimo. Sin embargo, a medida que envejecemos, nuestros niveles de testosterona disminuyen lentamente.

La testosterona es la principal hormona androgénica, puesto que confiere la mayoría de los caracteres masculinos. No obstante, hay producción de testosterona tanto en el cuerpo del hombre como en el de la mujer. En el caso de los varones, la mayor parte de la testosterona se forma en los testículos y una menor cantidad en las glándulas suprarrenales. En cuanto a las mujeres, la testosterona se produce en los ovarios y una pequeña cantidad también en las glándulas suprarrenales. Su función en hombres y mujeres es diferente.

La testosterona como molécula no sería aislada hasta 1935. Cuando por fin se identificó, purificó y sintetizó, el entusiasmo encontró una base tangible. Ya no hacía falta recurrir a triturados animales; bastaba con una ampolla precisa, una dosis calculada, una aguja estéril. La hormona masculina —porque así se la empezó a llamar con una simplificación que la biología tolera con paciencia— podía administrarse de manera controlada.

Y aquí es donde la historia se vuelve peligrosamente moderna. Durante décadas, la testosterona se utilizó para situaciones claras: hombres con hipogonadismo verdadero, es decir, testículos que no producían suficiente hormona por daño primario o por fallos en la hipófisis; adolescentes con retrasos puberales, y algunos casos concretos de anemia. Indicaciones específicas, diagnósticos concretos. Pero a medida que avanzaba el siglo XXI, la narrativa empezó a ensancharse.

Apareció la “T baja”. Un concepto con la eficacia comercial de un eslogan bien afinado. ¿Cansado? ¿Con menos deseo que a los 25? ¿Algo irritable? ¿Te cuesta ganar músculo, aunque mires con intensidad las mancuernas? Tal vez tu problema tenga dos letras. Y lo mejor de todo: tiene solución inyectable.

Se popularizó incluso el término “andropausia”, como si los hombres atravesaran una versión masculina de la menopausia femenina. El paralelismo es tentador, pero biológicamente tramposo. En las mujeres, la menopausia implica una caída abrupta y universal de estrógenos. En los hombres, la testosterona desciende lentamente, aproximadamente un uno por ciento anual a partir de cierta edad. No hay un apagón hormonal repentino. Hay, más bien, un atardecer gradual.

Además, la testosterona es una hormona con hábitos caprichosos. Fluctúa a lo largo del día —más alta por la mañana—, baja con el sobrepeso, se altera con el mal sueño, el estrés crónico, la apnea nocturna o la depresión. Es decir, muchos de los síntomas que atribuimos a la “T baja” pueden ser causa y consecuencia de estilos de vida poco saludables. Y medir una cifra aislada no convierte automáticamente el cansancio en enfermedad endocrina.

Eso no significa que el déficit real no exista. Existe. Y cuando está bien documentado —con análisis repetidos, síntomas consistentes y evaluación médica adecuada— el tratamiento puede mejorar calidad de vida, densidad ósea, masa muscular y función sexual. Pero también tiene efectos secundarios: puede aumentar el hematocrito hasta niveles incómodos, suprimir la producción endógena, afectar a la fertilidad y plantea interrogantes todavía debatidos sobre el riesgo cardiovascular en ciertos perfiles.

En otras palabras: no es el elixir mágico que Brown-Séquard soñó, pero tampoco es una superstición victoriana. Lo fascinante es que, más de un siglo después, seguimos atrapados en la misma pulsión. La idea de que el declive es una deficiencia química corregible. Que el envejecimiento es un problema técnico con solución farmacológica. Que la masculinidad —concepto ya de por sí resbaladizo— puede medirse en nanogramos por decilitro.

Hay algo profundamente humano en esa esperanza. El anciano fisiólogo que se inyecta extracto testicular no es tan distinto del ejecutivo contemporáneo que acude a una clínica de terapia hormonal porque se siente apagado. Ambos buscan recuperar una versión anterior de sí mismos. Ambos quieren creer que la energía no se pierde, solo se agota un depósito.

La diferencia es que ahora sabemos más. Sabemos que el cuerpo es un sistema de equilibrios delicados. Que añadir hormona exógena puede mejorar síntomas en ciertos casos y complicarlos en otros. Que el contexto —peso, sueño, ejercicio, salud mental— importa tanto como la cifra en un análisis. Y que la promesa de juventud perpetua ha sido siempre una industria floreciente.

Quizá la lección más útil de Brown-Séquard no sea su batido improbable, sino su audacia. Se atrevió a plantear que dentro de nosotros circulan mensajeros invisibles que gobiernan nuestra energía y nuestro ánimo. Acertó en la intuición, falló en la receta. La medicina moderna ha afinado la receta, pero todavía lucha contra la expectativa desmesurada.

La testosterona no es una metáfora del carácter ni un certificado de virilidad. Es una hormona con funciones precisas y límites claros. Puede ser terapia cuando hay déficit demostrado. Puede ser innecesaria —incluso perjudicial— cuando se usa para perseguir una versión idealizada del pasado.

Y sin embargo, cada vez que alguien habla de “T baja” con un suspiro resignado, resuena, muy al fondo, el eco de aquel laboratorio decimonónico. El anciano científico, la jeringa, el extracto filtrado con fe. La esperanza de que el tiempo sea una ecuación química soluble.

Tal vez no lo sea. Pero la tentación de creerlo sigue siendo extraordinariamente potente.

CHOCOLATE AL ALBA: UNA TAZA ANTES DE LA BATALLA

 

El amanecer apenas se adivinaba sobre la llanura helada cuando el ayudante de campo removió el líquido espeso con la punta ennegrecida de su cuchara. La escarcha crujía bajo las botas y el aliento se volvía humo antes de disolverse en la bruma. A unos metros, envuelto en su capote gris, Napoleón Bonaparte observaba en silencio cómo la noche se retiraba del campamento. No era hombre de grandes desayunos, pero aceptó la taza sin ceremonia. El chocolate, oscuro y azucarado, desprendía un vapor denso que olía a cacao tostado y azúcar quemado. En aquellas marchas donde el pan se endurecía en las mochilas y la carne salada exigía dientes y paciencia, aquella bebida espesa no era un capricho: era energía inmediata, grasa concentrada y un leve estímulo que despejaba la mente de los oficiales antes del combate.

Horas después, cuando las columnas comenzaron a moverse hacia lo que terminaría siendo la Batalla de Austerlitz, nadie habría señalado el cacao como pieza del engranaje militar. Sin embargo, en la guerra de comienzos del siglo XIX la logística pesaba tanto como la estrategia. El chocolate viajaba en bloques compactos de pasta de cacao y azúcar: ocupaba poco espacio, resistía el transporte y podía transformarse en bebida caliente con rapidez. Desde su llegada a Europa a través del comercio atlántico, había pasado de exotismo cortesano a tónico medicinal y alimento energético. En un ejército que vivía de la velocidad y la resistencia, una taza humeante al alba no ganaba batallas, pero ayudaba a sostenerlas.

Si se abandona la escena y se descompone aquella taza en términos de laboratorio, el chocolate revela la lógica de su utilidad. La pasta sólida era, en esencia, una ración hipercalórica concentrada. El cacao contiene entre un 50 y un 55% de grasa —principalmente manteca de cacao— y aporta en torno a 500–600 kilocalorías por cada 100 gramos, según la proporción de azúcar añadida. A ello se suman hidratos de carbono de absorción relativamente rápida y pequeñas cantidades de proteínas. En contextos de frío intenso y gasto metabólico elevado, esa combinación resultaba ideal: energía densa, relativamente estable y fácil de transportar.

Además, el cacao contiene metilxantinas —sobre todo teobromina y, en menor medida, cafeína— con un efecto estimulante suave pero sostenido. No provoca la sacudida nerviosa del café, pero sí una sensación de alerta prolongada. Hoy sabemos que la teobromina actúa como vasodilatador leve y estimulante del sistema nervioso central. En el siglo XVIII no se hablaba ese lenguaje químico, pero sí se reconocían sus efectos. Tratadistas como Antonio Lavedán, en su Tratado de los usos, abusos, propiedades y virtudes del tabaco, café, té y chocolate (1796), describían el chocolate como alimento “nutritivo y restaurador”, recomendable para fatigados y convalecientes. Médicos ilustrados franceses lo consideraban capaz de “fortificar el estómago” y sostener las fuerzas sin sobrecargar la digestión. No era mera retórica gastronómica: era una observación empírica de su poder reconstituyente.

Así, lo que parecía un gesto íntimo —una taza caliente al amanecer— formaba parte de un sistema más amplio de intuiciones médicas y soluciones logísticas. El chocolate no sustituyó al pan ni salvó al ejército en la retirada de 1812, pero encarnaba una idea moderna: la energía del soldado era un recurso estratégico. No es casual que, en la misma época, los boticarios vendieran preparados de cacao como reconstituyentes para la fatiga, la melancolía o las dolencias pulmonares. La frontera entre alimento y medicina era difusa, y el chocolate habitaba cómodamente en ese territorio.

Con el paso del tiempo, aquel brebaje espeso evolucionó hacia algo distinto. A comienzos del siglo XIX, el químico neerlandés Coenraad Johannes van Houten desarrolló la prensa de cacao, que separaba la manteca de los sólidos y permitía obtener un polvo más manejable y menos amargo mediante el llamado “proceso holandés”. El cacao dejaba de ser solo pasta para convertirse en ingrediente industrial. Poco después, Joseph Fry dio el siguiente paso crucial en 1847 cuando logró mezclar sólidos de cacao, manteca y azúcar hasta obtener una masa moldeable: nacía la tableta moderna. El chocolate dejaba de beberse exclusivamente para empezar a masticarse.

El perfeccionamiento continuó en Suiza. Daniel Peter incorporó leche en polvo y abrió la puerta al chocolate con leche. En 1879, Rodolphe Lindt, otro chocolatero suizo, inventó la máquina de conchado que removía la mezcla de chocolate antes de verterla en moldes hasta que desaparecía toda la granulosidad del cacao en polvo. Esto daba como resultado un chocolate extremadamente suave.

Milton Hershey revolucionó entonces la industria chocolatera perfeccionando y produciendo chocolate asequible, transformando la barra de chocolate de un artículo de lujo a un producto básico popular. Para producir el volumen de chocolate necesario, construyó una fábrica en Pensilvania y fundó a su alrededor un pueblo para los trabajadores, llamado con cierta altivez "Hershey". En 1905, su fábrica comenzó a producir "barras Hershey" a las que dos años más tarde se unirían los famosos besos de Hershey, todos envueltos a mano en aquel entonces.

Cuando estalló la Segunda Guerra Mundial, el chocolate volvió a convertirse en asunto estratégico. En 1937, el ejército estadounidense encargó a Hershey una barra de emergencia que aportara unas 600 calorías, pesara unos 113 gramos y resistiera el calor tropical. Tenía que ser nutritiva y, deliberadamente, poco apetitosa para evitar su consumo prematuro. Así nació la ración D, densa, difícil de morder y más funcional que deliciosa. Años después se desarrolló la “Tropical Bar”, algo más sabrosa. Pero fueron otros productos, como los M&M’s —dulces recubiertos que “se derriten en la boca, no en la mano”— los que conquistaron definitivamente a los soldados.

Desde entonces, la química alimentaria ha buscado fórmulas de chocolate termoestable sin sacrificar textura y sabor. Sustituciones parciales de manteca de cacao por grasas vegetales de mayor punto de fusión, uso de emulsionantes y agentes estructurantes: la ciencia ha refinado lo que en tiempos de Napoleón Bonaparte era intuición práctica. Sin embargo, el equilibrio perfecto entre estabilidad y placer sigue siendo delicado. Una barra diseñada para sobrevivir al desierto rara vez compite, en sedosidad, con una elaborada según la tradición suiza.

Curiosamente, la apuesta más duradera del emperador en materia alimentaria no fue el chocolate, sino el apoyo al método de conservación desarrollado por Nicolas Appert. En 1795, el gobierno francés ofreció un premio por un sistema eficaz para preservar alimentos; Appert respondió con el sellado hermético y la cocción en recipientes cerrados, antecedente del enlatado moderno. Si el chocolate proporcionaba energía inmediata, la conservación garantizaba seguridad a largo plazo. Ambas soluciones apuntaban en la misma dirección: comprender que, en la guerra moderna, la victoria dependía tanto del estómago como del cañón. El ejército de Napoleón marchó sin preocuparse por la comida en mal estado en el estómago.

De la taza humeante al alba a la barra de emergencia en el bolsillo, el chocolate ha acompañado a los ejércitos durante más de dos siglos. Cambiaron las técnicas, los envases y los procesos industriales, pero la lógica de fondo permanece. Allí donde el esfuerzo humano exige resistencia, concentración y calorías concentradas, el cacao —amargo o azucarado, bebido o mordido— ha ofrecido algo más que consuelo: una forma compacta de energía lista para convertirse, en el momento preciso, en fuerza.

sábado, 14 de febrero de 2026

EL HUEVO: MANUAL DE INSTRUCCIONES PARA FABRICAR UN MILAGRO

 

Hay objetos que uno da por descontados hasta que decide mirarlos con la sospecha adecuada. El mando a distancia, por ejemplo. El botón de un ascensor. Y, por supuesto, el huevo. El huevo vive en nuestras cocinas con la humildad de un funcionario eficaz: siempre está ahí, nunca presume, rara vez falla. Pero si lo examinamos con la atención que solemos reservar a los cohetes espaciales o a los puentes colgantes, descubrimos que estamos ante una de las hazañas más extraordinarias de la ingeniería natural.

Un huevo es, en esencia, un sistema autónomo diseñado para fabricar un ave completa sin ayuda externa. No necesita supermercado, ni fontanero, ni plan de contingencia. Todo lo que va a ser ese animal —plumas, huesos, ojos con mirada inquisitiva— está contenido en una cápsula que cabe en la palma de la mano. Y lo hace sin cables.

La primera maravilla es la forma. El huevo no es redondo, ni ovalado en sentido escolar. Es ovoide, que es como decir “casi simétrico, pero con intención”. Tiene un extremo romo y otro ligeramente puntiagudo. Esta asimetría no es un capricho artístico de la gallina; es una solución estructural brillante. La forma ovoide distribuye las tensiones de manera tan eficiente que el huevo puede soportar una presión sorprendente si se le comprime por los extremos. Es, básicamente, una cúpula portátil. Los arquitectos tardaron milenios en comprender lo que la evolución resolvió sin planos.

La cáscara es otro acto de genialidad. Está hecha principalmente de carbonato cálcico, que suena a cosa aburrida de laboratorio, pero organizado en una microarquitectura cristalina que combina rigidez y fragilidad en proporciones exquisitas. Es lo bastante fuerte para proteger al embrión de los golpes razonables, pero lo bastante quebradiza para que el polluelo pueda romperla cuando llegue el momento. Diseñar algo que sea resistente cuando conviene y frágil cuando toca es una proeza que haría sudar a cualquier ingeniero de materiales.

Y, por si fuera poco, la cáscara no es una muralla cerrada. Está perforada por miles de microporos invisibles que permiten el intercambio de gases. El embrión respira a través de esa pared calcárea como quien abre discretamente una ventana. Pero los poros son lo bastante pequeños para impedir que la mayoría de los invasores microscópicos entren sin invitación. Es un equilibrio tan delicado que uno sospecha que, si la gallina tuviera que rellenar un formulario para justificarlo, se perdería en la segunda línea.

Debajo de la cáscara encontramos dos membranas finas y elásticas que cumplen funciones que van desde la amortiguación hasta la defensa antimicrobiana. Entre ellas se forma una pequeña cámara de aire en el extremo más ancho. Ese bolsillo, que parece insignificante cuando rompemos un huevo para una tortilla, es el primer pulmón provisional del futuro pollito. Antes de salir al mundo, perfora esa cámara y practica su respiración. Es difícil no sentir un respeto solemne por un sistema que incluye su propio simulador de emergencia.

La clara —esa sustancia transparente que muchos niños miran con desconfianza— es un prodigio químico. Está compuesta en su mayoría por agua, pero enriquecida con proteínas que cumplen tareas muy específicas. Algunas son antibacterianas; otras regulan la disponibilidad de hierro para que los microbios no prosperen. Es un caldo nutritivo, sí, pero también un laboratorio defensivo. Además, su viscosidad mantiene la yema centrada gracias a unos cordones retorcidos llamados chalazas, que funcionan como cables tensores. La yema queda suspendida en el centro del huevo como un astronauta en gravedad cero, protegida de impactos y sacudidas.

La yema, por su parte, es una central energética compacta. Contiene lípidos de alta densidad calórica, proteínas estructurales y vitaminas en proporciones que permitirán construir, célula a célula, un organismo completo. Si uno hiciera una lista de todo lo necesario para fabricar un pájaro —sistemas nervioso, digestivo, esquelético, plumaje, etcétera— y luego intentara empaquetarlo en un espacio tan reducido, probablemente acabaría llorando sobre una hoja de cálculo. El huevo, en cambio, lo hace con serenidad milenaria.

Lo que más asombra es la eficiencia. La gallina fabrica la cáscara en menos de un día, movilizando calcio con precisión fisiológica. No hay derroche. No hay exceso ornamental. Cada gramo tiene una función. Desde la perspectiva de la ingeniería sostenible, el huevo es un manifiesto: mínimo material, máxima utilidad. Ni siquiera necesita manual de reciclaje; la cáscara puede volver al suelo como fuente de minerales.

Y entonces llega el momento culminante, que es el de la fractura programada. Tras semanas de desarrollo silencioso, el embrión secreta enzimas que debilitan la cáscara desde dentro. Aparece un pequeño apéndice temporal, el “diente de huevo”, con el que empieza a golpear la pared calcárea. El sistema que durante días fue fortaleza se convierte en puerta. Es una demolición controlada de precisión exquisita. Los ingenieros humanos sueñan con materiales que cambien sus propiedades según la necesidad; el huevo lo hace como quien cambia de sombrero.

Si uno se detiene a pensarlo, el huevo resolvió hace cientos de millones de años un problema formidable: cómo permitir que un vertebrado se desarrollara fuera del agua sin deshidratarse, sin asfixiarse y sin ser devorado en la primera noche. La solución fue este pequeño contenedor autosuficiente. Gracias a él, los reptiles y luego las aves conquistaron la tierra firme con una libertad que los peces jamás conocerán.

Lo más divertido es que convivimos con esta maravilla sin inmutarnos. Lo cascamos contra el borde de un cuenco con la indiferencia de quien rompe un sobre. Pero cada vez que lo hacemos estamos asistiendo al final de una obra maestra de microarquitectura. Estamos contemplando la ruina de una bóveda cerámica perfectamente calculada, el derrame de un sistema bioquímico finamente ajustado.

Quizá eso sea lo más bryssoniano del asunto: que la grandeza se esconda en lo ordinario. No hace falta viajar a la Antártida ni asomarse a un acelerador de partículas para sentir asombro científico. Basta con abrir la nevera y sostener un huevo a contraluz. Allí, en esa silueta blanca, se encuentra comprimida una lección de física de materiales, de química de proteínas, de fisiología respiratoria y de logística evolutiva.

El huevo no presume. No tiene departamento de marketing. Pero si la naturaleza repartiera premios a la mejor solución de ingeniería integral, el huevo subiría al escenario con la modestia de quien sabe que no necesita discurso. Y nosotros, desde la cocina, quizá deberíamos aplaudir un poco antes de batirlo.