Vistas de página en total

miércoles, 5 de marzo de 2025

UN MONJE SABIO Y EL ALIENTO DE LAS VÍRGENES

 

Estatua de Roger Bacon en el Museo de Historia Natural de Oxford

El fraile franciscano Roger Bacon (1214-1292) filósofo, científico y teólogo escolástico inglés es conocido por el sobrenombre de Doctor Mirabilis (‘Doctor Admirable’, en latín). Inspirado en las obras de Aristóteles y en autores árabes posteriores como Alhacén, Bacon, que puso especial énfasis en el empirismo (la teoría debe ir ineludiblemente acompañada de la práctica) se tiene por uno de los primeros pensadores que propusieron el moderno método científico. 

Bacon era sin duda un tipo interesante. Era un monje cuya vida se suponía que debía estar dedicada al estudio de la teología, no de las matemáticas, la óptica o la alquimia. Sin embargo, eran estos trabajos científicos los que lo fascinaban. La búsqueda de estos aspectos prácticos de la vida puso al erudito en conflicto directo con la Iglesia, que no creía que sus monjes debieran dedicarse al estudio de la ciencia.

Sin embargo, Bacon sostenía que la teología y la ciencia podían coexistir. Sin duda, había que cultivar el "conocimiento interior" de un origen divino, pero también era importante adquirir conocimientos prácticos. Esto, decía, sólo podía lograrse mediante la observación y la experimentación. Si un hombre descubre que el fuego quema, no será por inspiración divina sino por colocar la mano sobre la hoguera.

Sin duda, Bacon tenía experiencia directa con las manos quemadas. Investigó en profundidad la naturaleza explosiva de una sustancia obtenida combinando salitre, carbón y azufre. De hecho, Bacon fue el primer europeo que describió por escrito las propiedades de la "pólvora negra" conocida por los chinos y, por lo tanto, se le atribuye la introducción de esta forma primitiva de pólvora en Europa. 

Este fraile franciscano estaba impulsado por el deseo de observar, observar y observar. Por lo tanto, no es de extrañar que desarrollara un interés por las lentes y, de hecho, que documentara cómo mirar a través de una lente hacía que las letras pequeñas parecieran más grandes. Esa fue la primera descripción de unas gafas. También observó que la Luna parecía más grande a través de una lente con la forma adecuada y, por lo tanto, se adelantó en varios siglos al uso del telescopio que haría famoso a Galileo. Bacon también especuló sobre los submarinos y describió máquinas que volarían en el futuro mediante el aleteo mecánico de las alas. Un hombre extraordinario que en eso se adelantó también a Leonardo.

Las contribuciones de Bacon a la ciencia tuvieron obviamente una importancia práctica, pero quizá su legado más importante sea el énfasis que puso en la experimentación y la observación. Se puede justificar que Roger Bacon fuera el primer científico auténtico, pero no debemos colocarlo en un pedestal demasiado alto. 

También creía que, como sucede con la enfermedad, la buena salud se podía contagiar, y que los ancianos podían recuperar su vitalidad acostándose e inhalando el aliento de una joven virgen. Quizá se le pueda perdonar que albergara esta idea, porque, después de todo, como fraile franciscano, ¡no podía poner la teoría a prueba experimentalmente! 

¿O sí? No seas malpensado.

NO, NI LAS OSTRAS NI LA VIAGRA SON AFRODISIACOS

 

El nacimiento de Venus, de Sandro Boticelli (1485). Galería de los Uffizi, Florencia.

Eres muy dueño de gastarte el dinero en lo que te venga en gana, pero no te engañes pensando que los “mariscos de concha” son afrodisíacos: desengáñate, no lo son. Las ostras tienen un contenido excepcionalmente rico de zinc, pero la reputación como afrodisíacos de ese metal y de los moluscos es inmerecida. 

Surgida en la Antigüedad, la imaginativa y desacreditada doctrina de las signaturas, muy extendida tanto en la medicina antigua como en la medicina popular del tiempo que nos ha tocado vivir, sostiene que las plantas, los animales o los minerales llevan sobre sí los signos que permiten conocer sus virtudes terapéuticas o mágicas. 

La metafísica cristiana, siempre presta para apropiarse de cualquier creencia que conviniera a sus intereses, introdujo esta noción en la teología, afirmando que el Creador puso en cada ser natural las señales necesarias para que, desde el principio, se sepan sus virtudes terapéuticas. Con esos antecedentes, no debe sorprender que algunos moluscos bivalvos como almejas, chirlas, mejillones y ostras, cuyo aspecto recuerda a las partes externas de los genitales femeninos, se hayan tenido como afrodisiacos. 

Alrededor del día de san Valentín, una festividad tan importada e impostada como la de Papá Noel, se incrementaron sustancialmente las ventas de ostras crudas que, animados quizás por los anuncios que las califican como «ideales para encender la llama de la pasión», algunos enamorados las llevaron para la cena romántica de ese día. 

Considerar a las ostras como afrodisíacas es tan antiguo como la civilización. Los griegos ya conocían el efecto de algunas hierbas como estimulantes sexuales y hacían con ellas infusiones, que llamaron aphrodisiakós, un vocablo surgido del nombre de la divinidad Afrodita, hija de Zeus y Dione, diosa del amor erótico y amante de Adonis. En la mitología griega, Afrodita emergió del mar en una concha de ostra, lo que para muchos es prueba suficiente de su capacidad amatoria. 

Según cuenta la leyenda, Casanova podía comer cincuenta ostras crudas para desayunar, supuestamente para no desfallecer después. Éstas y más anécdotas sobre las ostras y la comida están recogidas en el libro La cocina de la salud, escrito a seis manos por Ferran Adrià, el cardiólogo Valentín Fuster y el periodista Josep Corbella.

Cuando alguien intenta justificar científicamente el poder estimulante de las ostras, suele subrayar su alto contenido en zinc. El zinc se encuentra en muchos alimentos y la mayoría de nosotros lo obtiene en dosis más que suficientes de la carne, los cereales y el yogur. Pero las ostras tienen un contenido excepcionalmente elevado de ese metal, unas diez veces más que un trozo de carne de ternera de tamaño comparable. El zinc tiene muchas funciones en el cuerpo humano y es imprescindible, entre otras muchas cosas, para la producción de esperma; por tanto, fue un pequeño salto intuitivo suponer que mejoraría la fertilidad y el rendimiento sexual.

Pero la reputación del zinc (y, por tanto, de las ostras) como afrodisíaco no es merecida. En primer lugar, fertilidad y deseo sexual no son equivalentes. Frecuentemente confundimos diferentes conceptos cuando se trata de sexo. A menudo se habla del Viagra como afrodisíaco, pero en realidad no aumenta el deseo sexual. 



Recuérdese que el adjetivo “afrodisíaco” se aplica a las sustancias que tienen la propiedad de estimular el apetito sexual. Las famosas pastillas azules sirven para trata la disfunción eréctil, que a menudo es una consecuencia de la aterosclerosis, pero no hace que alguien esté más dispuesto a tener relaciones sexuales. Simplemente lo hace más capaz, pero tenga en cuenta que para comer es necesario tener apetito.

La fertilidad y el deseo sexual también son conceptos distintos, por lo que un problema con la primera no implica un déficit del segundo. No hay nada en la literatura científica que sugiera que el zinc pueda aumentar la libido e incluso su capacidad para mejorar la fertilidad es dudosa. Aunque su deficiencia metabólica puede perjudicar la producción de esperma, eso no significa que ingerirlo a cucharadas mejore la fertilidad.

Un ensayo clínico publicado en el Journal of the American Medical Association analizó si una combinación de zinc y folato mejoraría la calidad del semen o la capacidad de generar hijos vivos en aproximadamente 2.000 hombres que estaban planeando un tratamiento de fertilidad. Ninguno de los resultados mostró ninguna mejora, lo que subraya un punto importante sobre los criterios de valoración clínicos estrictos. 

El único criterio de valoración que importa con los tratamientos de fertilidad es si algo puede mejorar la tasa de nacimientos vivos: en este ensayo quedó claro que el zinc no lo hizo. El zinc y el folato se incluyen comúnmente en los suplementos para la fertilidad masculina, pero este estudio demuestra que probablemente sean tan inútiles como beber gaseosa.

El zinc puede parecer un tratamiento de fertilidad tan inofensivo como ineficaz, y las ostras un capricho divertido para un día especial. Pero en dosis altas (aunque no sean “casanovescas”) puede provocar malestar gastrointestinal, náuseas y vómitos. El zinc presente en ciertas terapias para el resfriado también puede causar anosmia permanente, es decir, la pérdida del sentido del olfato. Aunque a menudo se comercializa como un remedio para el resfriado, las revisiones clínicas demuestran que no produce un mínimo beneficio.

Es poco probable que se produzca una sobredosis de zinc por comer unas cuantas ostras. Es más probable conseguir una intoxicación alimentaria, una amenaza que se acentúa con el cambio climático: las ostras son particularmente peligrosas para comer crudas porque se alimentan filtrando el agua del océano. A medida que las aguas marinas se calientan, pueden prosperar más virus y bacterias, lo que aumenta el riesgo de contaminación de la ingesta de moluscos vivos. 

Las ostras comparten con el resto de bivalvos un reglamente propio (852/2004) que obliga a que los ejemplares que lleguen al mercado tengan unas características sanitarias adecuadas y cumplan con determinados requisitos de higiene que minimicen las probabilidades de que sean portadores de microorganismos patógenos o toxinas.


Sin embargo, cumplir con la legislación no equivale a decir que el riesgo microbiológico sea cero porque el marisco crudo es un alimento de alto riesgo en especial de contraer vibriosis, la infección bacteriana más habitual ligada a este producto, una amenaza cierta que aconseja no comer nunca crudos los bivalvos.

Una buena regla general para evitar infecciones es que, si la concha de una ostra está abierta, agrietada, no cierra o huele mal (obviamente), hay que desecharla inmediatamente. De lo contrario, es posible que pases el día de San Valentín con diarrea, una circunstancia muy poco romántica.


martes, 4 de marzo de 2025

LAS MISTERIOSAS ACEITUNAS BLANCAS

 

El olivo (Olea europaea) es uno de los frutales más importantes y extendidos en el área mediterránea. Pertenece a la familia Oleaceae, que incluye 600 especies dentro de 25 géneros. Gracias a los cultivos, algunos de ellos milenarios, está ampliamente distribuido en todos los continentes, desde las zonas templadas del norte hasta las regiones subtropicales y desde bajas a altas altitudes.

Originaria de las regiones mediterráneas, Olea europaea es la única especie dentro del género que produce unos frutos comestibles de tipo drupa. La calidad de sus principales productos alimenticios, el aceite de oliva y las aceitunas de mesa, depende en gran medida de las características agronómicas y organolépticas de sus drupas. Estas características varían en relación con los caracteres genéticos, las variedades, el estado de maduración, así como en relación con la diferente susceptibilidad a las condiciones ambientales de crecimiento.

Un “cultivar” es un grupo de plantas seleccionadas artificialmente por diversos métodos a partir de un cultivo más variable, con el propósito de fijar en ellas caracteres de importancia para quien las cultiva que se mantengan tras la reproducción. El cultivar leucocarpa, también llamado leucolea, es una variedad de olivo caracterizado por producir pequeños frutos que, durante la maduración, adquieren un color blanco marfil.

Un pequeño número de productores lo usa en mezclas con otros cultivares predominantes, pero debido al color blanco de los frutos, que en la cultura occidental simboliza la pureza, terminó usándose principalmente con fines religiosos. Por eso se cultiva a menudo cerca de los conventos, donde su aceite, después de ser bendecido, se destina como ungüento sacramental en diversos ritos católicos y, en el pasado, para ungir a reyes y emperadores durante la ceremonia de coronación.

La caracterización genética estableció que el origen de esta variedad pertenece a una cepa única, cuya limitada difusión probablemente se deba a su difícil propagación. Los agricultores cuidan muy bien estos olivos, los cuales, durante la temporada de fructificación y debido a una "desconexión” entre flavonoides y antocianinas, producen un efecto estético deslumbrante.

Una desconexión pigmentaria

La maduración de la aceituna implica dos fases de diferente coloración: primero, la síntesis de clorofila hace que la fruta sea verde; luego, cuando se degrada la clorofila, la aceituna pierde su color, al mismo tiempo que, en la mayoría de los olivos, como sucede en casi todas las frutas, se activa la síntesis de otros pigmentos, las antocianinas y flavonoides, cuya combinación acaba por producir el típico color azulado o negruzco de las aceitunas.


Recordemos que durante la primera parte de la maduración de la aceituna algunas variedades adquieren un tono verde muy pálido que es casi blanco. Por ejemplo, la variedad biancolilla, cuyo nombre recuerda el color blanco (bianco en italiano), se llama incorrectamente leucocarpa en algunas áreas, porque después de la degradación de la clorofila, los frutos permanecen de color claro incluso veinte días antes de que se activen los pigmentos.

En el cultivar leucocarpa, la activación de flavonoides y antocianinas no ocurre en absoluto, y por eso es la única variedad que permanece blanca en cualquier etapa de maduración. Si se dejan los frutos en los árboles hasta fines del invierno, continúan blancos o, a lo sumo, tienden a amarillear debido a la oxidación de los lípidos.

Al moler esta variedad evitando por completo la oxidación, se obtiene un excelente aceite de oliva virgen extra de frutado medio con unas características organolépticas ideales, que tiene la única particularidad de ser incoloro. Con más de 200 variedades de aceitunas, es difícil encontrar peculiaridades muy pronunciadas, pero según dicen quienes lo han saboreado es un aceite muy bueno, con un agradable sabor que destaca por la baja cantidad de compuestos fenólicos, lo que apunta a que no es un aceite picante o astringente.

martes, 25 de febrero de 2025

BREVE HISTORIA DEL DESODORANTE O DE CÓMO LLEGUÉ A THE WO

 .

Un viaje nostálgico por la centenaria historia de los desodorantes corporales

Sabido es que los aromas corporales de la adolescencia son, por ser sutiles, peculiares, así que a finales de los 60 llegué hasta el grupo británico de rock The Who gracias a The Who Sell Out, un álbum que el grupo había grabado en 1967, en cuya portada aparecía Pete Townshend aplicándose desodorante en la axila con un tubo enorme de Odorono. Compré el álbum y lo guardé durante varios años hasta que le perdí la pista no recuerdo cuándo ni dónde.

Una de las canciones del álbum titulada precisamente “Odorono” contenía unos párrafos que decían: “Ella rasgó su vestido brillante / No pudo afrontar otro espectáculo / Su desodorante la había abandonado / Debería haber usado Odorono”. A pesar de ello, a menos que yo sepa, la canción nunca se usó como música de fondo para publicitar esos productos de cuidado personal.

¿Por qué lo recuerdo ahora? Me ha venido de repente a la memoria cuando he visto la tendencia actual de los “desodorantes corporales”, es decir, aplicables a todo el cuerpo. No solo se nos insta a evitar que los olores desagradables se desprendan de nuestras axilas, sino que también debemos ser considerados con los demás y asegurarnos de que no se desprendan olores de otras partes del cuerpo, incluidas las regiones íntimas de “ahí abajo”.



Es una idea que, desde el punto de vista del marketing puro, es más que inteligente al menos en términos de superficie y ventas potenciales: si se aumenta la superficie a desodorar, aumentarán las ganancias. Impecable. Pero ¿qué tal si aplicamos algo de ciencia al asunto? ¿Son realmente necesarios estos productos? ¿Entraña algún riesgo su uso?

El sudor es el medio por el cual regulamos nuestra temperatura corporal. La evaporación de la humedad requiere calor, que se extrae del cuerpo, lo que produce un efecto refrescante. Ahora bien, desde el punto de vista químico el sudor tiene una composición diferente según el lugar desde donde se secrete.

La mayor parte del cuerpo está cubierta por glándulas sudoríparas ecrinas que producen principalmente agua salada inolora, mientras que, además de humedad, las glándulas apocrinas de las axilas y las ingles emiten desechos de proteínas, carbohidratos y grasas, que proporcionan un sabroso alimento para las bacterias que, por naturaleza, viven en la piel.

Como nosotros, las bacterias defecan, a su modo, pero defecan, y cuando lo hacen producen excrementos compuestos de sustancias con diferentes olores, el más notable de los cuales es el ácido trans-3-metil-2-hexenoico, cuyo olor es típicamente hircino (a macho cabrío, para entendernos). Cualquiera que alguna vez haya olfateado más o menos de cerca un macho cabrío confesará sin necesidad de aplicarle el tercer grado que no es una fragancia que desee que brote de sus axilas. Las cabras hembras no opinan los mismo: encuentran el aroma positivamente atractivo.

Dado que las glándulas apocrinas se encuentran únicamente en las axilas y las ingles, no parece tener mucho sentido intentar desodorizar desde la cabeza hasta los pies. Por ello, las axilas sudorosas han sido el objetivo tradicional de los antitranspirantes y desodorantes, dos productos que no son idénticos.

Los desodorantes contienen sustancias que impiden el crecimiento de las bacterias de la piel y emiten fragancias que ocultan los olores que producen los microbios. Los antitranspirantes, en realidad, impiden la sudoración al formar un tapón en las glándulas apocrinas.


Mum, la primera crema desodorante de 1888. Fuente

El primer producto para silenciar el olor corporal, elaborado en Filadelfia en 1888, fue el Mum, la primera marca registrada de desodorante comercial. Según el sitio web del fabricante, la marca debe su nombre a una enfermera que cuidó del inventor a la que apodaban "Mum" (“mami”). 

Mum se vendía al principio en una caja de crema que se aplicaba con las yemas de los dedos. Era una pasta que contenía óxido de zinc, una sustancia química que tiene algunas propiedades antibacterianas. Aunque no lo he probado y supongo que es muy probable que redujera el olor, untarse una pasta metálica espesa en las axilas no debía ser muy cómodo que digamos y menos aún para las damas que lucían vestido sin mangas.


A finales de la década de 1940, la inventora Helen Diserens desarrolló un aplicador basado en un artefacto de escritorio recién inventado: el bolígrafo. En 1952 la empresa comenzó a comercializar el producto bajo el nombre de Ban Roll-On. El resto es historia conocida: hasta el día de hoy y con permiso de los aerosoles, el roll-on es uno de los métodos de aplicación más importantes en la industria de los desodorantes

Pero la verdadera revolucionaria del mundo de los desodorantes fue Edna Murphey, creadora de la marca de desodorantes Odorono (apócope de Odor… Oh… no) y pionera de las estrategias modernas de marketing de desodorantes. El padre de Murphey era un médico que desarrolló un antitranspirante líquido para ayudar a los cirujanos con las manos sudorosas. Posteriormente, Edna descubrió que este antitranspirante era útil en las axilas y comenzó a comercializar el producto entre las mujeres. Nació Odorono.

En realidad, el antitranspirante era un invento de 1903, cuando apareció Everdryel primer antitranspirante auténtico que contenía cloruro de aluminio como ingrediente principal. Los compuestos de aluminio reaccionan con la humedad y forman un gel que obstruye las glándulas apocrinas. Sin embargo, Everdry era un incordio porque tardaba una eternidad en secarse.

Pronto aparecieron otras formulaciones con cloruro de aluminio y el Odorono acabó conquistando el mercado. Las ventas se estancaron hasta 1912, cuando Edna montó un stand en Atlantic City para promocionar el producto. En el sofocante calor del verano, la gente estaba ansiosa por probar Odorono y, como las ventas aumentaron, pudo contratar una agencia de publicidad. Se forjó un “matrimonio perfecto” cuando la cuenta fue asignada al redactor James Young, a quien se le ocurrió una brillante idea.

En aquella época, Odorono se comercializaba principalmente como un producto para reducir el sudor de las axilas y evitar que la ropa se manchara. Young tenía un mensaje diferente. Su objetivo era convencer a las mujeres de que quizás no eran conscientes de que emitían olores que generaban chismes a sus espaldas e incluso podían interferir en sus relaciones eróticas. “Si quieres conservar a un hombre, es mejor que no huelas”, fue el mensaje. Funcionó. A pesar de que algunas mujeres se sintieron tan insultadas que cancelaron sus suscripciones a revistas que incluían anuncios de Odorono, las ventas se dispararon.

Este anuncio causó una gran conmoción en una sociedad  que todavía no se sentía cómoda mencionando fluidos corporales. 

En poco tiempo, muchos fabricantes se sumaron a la tendencia que siguió hasta la década de 2000, cuando el mercado de desodorantes y antitranspirantes se estancó. Se necesitaba una nueva idea. Las axilas se habían saturado de compuestos de aluminio, antimicrobianos y aromas florales, por lo que la publicidad se centró en las zonas más bajas. Tal vez, si antes la gente no se preocupaba por los olores que se emitían “ahí abajo”, debería hacerlo.

Un ejército de novedosos “desodorantes para todo el cuerpo” estaba listo para luchar contra los olores de las partes íntimas. Presentaban una nueva arma que habían encontrado en el ácido mandélico contenido en la amigdalina, un compuesto aislado de los huesos de albaricoque que supuestamente envenena las células cancerosas al liberar lentamente cianuro.

El ácido mandélico tiene propiedades antimicrobianas que pueden reducir la cantidad de bacterias de la piel que se alimentan de las secreciones de las glándulas apocrinas. Es bastante seguro. El ácido mandélico pertenece a la familia de los “alfahidroxiácidos”, compuestos que se encuentran en las cremas para la piel debido a su capacidad para eliminar las células cutáneas muertas.

Ya ven cómo la foto de la portada de The Who Sell Out me ha llevado enganchado al estudio de los desodorantes corporales. No hay como tener tiempo libre y no emplearlo delinquiendo por ahí, como dijo no sé quién.

domingo, 16 de febrero de 2025

INTEREST IN GREENLAND EMERGED DURING WORLD WAR II AND INTENSIFIED DURING THE COLD WAR

 


Although it may seem like a newly emerging topic, Greenland’s glacial landscape has been entering and exiting U.S. politics for eight decades. President Trump has stated that his country needs the island for national security reasons. But there are other possible interests.

President Trump’s boasts at the beginning of his second term have placed the world’s largest island in direct conflict with the most powerful nation on Earth. Although it’s not the first time they’ve attempted to acquire ownership of this giant Arctic landmass, Trump’s desire to incorporate it into the United States has caused a significant impact among its 57,000 endogamous inhabitants.

In 1946, under President Truman, the United States, which wanted to control Greenland to strengthen international security against its Russian nuclear enemies, made a $1 billion purchase offer to Denmark, which had ruled the island since 1814.

The U.S. presence, which began during World War II near Thule, in the northwest corner of Greenland, has continued there ever since. As part of a secret plan to hide nuclear weapons from the Soviets, in the 1950s, during the Cold War, the U.S. military launched Project Iceworm.

Military engineers built a multi-story underground base near Thule, calling it Camp Century. It didn’t last long. Snow and ice began to slowly crush the buildings above the tunnels, forcing the military to abandon it in 1966.



During its short life, scientists were able todrill into the ice core and begin analyzing Greenland's climate history. The U.S. weather station Bluie West Six, built during the war, was located just a few kilometers from the indigenous settlement of Pituffik. Immediately after the war, as part of Operation Nanook, the Americans expanded the existing facility with a gravel runway as part of an upgrade to a larger, new weather station. This is how the Pituffik Missile Base was born, an essential piece for carrying out the polar strategy and establishing U.S. military supremacy in the Arctic.

As the historical record points out, both Denmark and the United States owe much to the ancient Icelandic Vikings, who, under Erik the Red, were the first to inhabit Greenland in the 11th century. The legendary Icelandic sagas provide a detailed (and to some extent historically accurate) account of life in Greenland during the Viking domination period, which has written testimonies from the 13th century that show how natural forces have long shaped human interaction with the region.

Unlike those medieval Vikings who, overwhelmed by the climate, abandoned their first attempts to colonize the island, the Greenland Inuit resisted. The Inuit arrived in Greenland around the year 1200 AD, forming part of a more recent culture that replaced the Paleo-Eskimo peoples who had previously inhabited Greenland, such as the Saqqaq and Dorset. The Inuit ("Eskimos" in old terms) originally came from Siberia and crossed what is now known as the Bering Strait, later expanding eastward to reach Alaska, Canada, and eventually Greenland.

The arrival of the Inuit in Greenland marked a significant change in the history of human settlement on the island, as they brought new hunting technologies and adaptations to the extremely cold climate. Today, they face a warmer climate than they ever could have imagined.

At Summit, a research station located near the highest point of the ice sheet center, temperatures increased six times faster than the global average between 1982 and 2011. For the first time in nearly 130 years, in July 2012, 97% of the surface melted for several days. The ice sheet has thinned and darkened since the early 1990s, especially at its edges, causing an increase in the number of icebergs breaking off from glaciers near the sea while more glacial earthquakes occur.

This behavior predicts a grim future because, as shown in the following video, it could potentially disrupt ocean circulation as more and more freshwater flows from the melting glaciers.

As Greenland’s temperatures rise, so does the internal political thermometer, as some of the island’s politicians are calling for full independence from the Danish crown. Although Denmark contributes two-thirds of Greenland’s budget, both Greenlanders and foreign observers are aware of the opportunities that a melting island surrounded by increasingly warmer waters offers for future naval transportation routes, not to mention the extraction of gas and rare minerals that will become more accessible as the permafrost fades away. 

Although the Greenland government banned anyattempts to extract oil and gas in 2021, arguing that "the price was too high" in terms of environmental impacts, the greed for these resources is growing. 

As expected, the ambitions of the Trump administration have put the White House in direct conflict with Greenland and Denmark. In a 1944 article for Foreign Affairs, Hans W. Weigert wrote: “The awareness that the far north is an area of great strategic importance to the United States is no longer limited to a small group of people... [..]. The strategy of this war has accelerated the pace of progress in the Arctic, but there are certain barriers that nature has raised against the development of this area; and political realities set limits on the possibilities of an American advance northward.” 

That argument, written in the context of World War II and shortly after Iceland declared its independence from Denmark (while Denmark was still occupied by Nazi Germany), remains relevant today. 

In his famous "Day of Infamy" speech to Congress in 1941, President Roosevelt spoke of the need to prevent "Germany's occupation of strategic outposts in the Arctic for a possible attack against the Western Hemisphere." Roosevelt also described the obligation of a future withdrawal from the region: “Immediately after the termination of the 'current international emergency,' all U.S. forces will be withdrawn from Iceland.” 

President Franklin Delano Roosevelt delivers his "Day of Infamy" speech before Congress on December 8, 1941. Behind him are Vice President Henry Wallace (left) and Speaker of the House Sam Rayburn. To the right, in uniform, is Roosevelt’s son, James, who escorted his father to the Capitol.

However, Roosevelt also stated that the Pact on the defense of Greenland to be signed between the United States and Denmark would open the door for negotiations on the future of the island, specifying that the pact “will remain in effect until it is agreed that the current dangers to the peace and security of the American continent have passed. At that time, the modification or termination of the agreement will be subject to consultation between the governments of the United States and Denmark.” 

Eighty-four years later, the new Trump administration’s sense is that these “current dangers” still exist. What are the chances this time of reaching a negotiated and peaceful agreement between the United States, Denmark, and the world’s largest island?

EL INTERÉS POR GROENLANDIA NACIÓ CON LA GUERRA FRÍA

 

Aunque pueda parecer un tema recién nacido, el paisaje glaciar de Groenlandia ha estado entrando y saliendo de la política estadounidense durante ocho décadas.

Las baladronadas del presidente Trump al inicio de su segundo mandato han puesto a la isla más grande del mundo en conflicto directo con el país más poderoso del orbe. Aunque no es la primera vez que han intentado adquirir la propiedad de esta gigantesca masa terrestre ártica, el deseo de Trump de incorporarla a Estados Unidos ha causado un considerable impacto entre sus 57.000 endogámicos habitantes.

En 1946, bajo la presidencia de Truman, los Estados Unidos, que deseaban controlar Groenlandia para reforzar la seguridad internacional contra sus enemigos nucleares rusos, hicieron una oferta de compra por mil millones de dólares a Dinamarca, que había gobernado la isla desde 1814.

La presencia estadounidense, que comenzó durante la Segunda Guerra Mundial cerca de Thule, en el extremo noroeste de Groenlandia, ha continuado allí desde entonces. Como parte de un plan secreto para ocultar armas nucleares a los soviéticos, en la década de los 50 del siglo pasado, en plena Guerra Fría, el ejército estadounidense puso en marcha el proyecto Iceworm (Gusano de Hielo).

Hasta el noreste de Groenlandia llegaron cientos de militares, equipos pesados e incluso un reactor nuclear. Los ingenieros militares construyeron una base subterránea soterrada. La llamaron Camp Century. No duró mucho. La nieve y el hielo comenzaron a aplastar lentamente los edificios sobre los túneles situados debajo, lo que obligó a los militares a abandonarlo en 1966.

Construcción de un túnel bajo el hielo en Camp Century. Foto

Durante su corta vida, los científicos pudieron atravesar el núcleo de hielo y comenzar a analizar la historia climática de Groenlandia. La estación meteorológica estadounidense Bluie West Six, construida durante la guerra, se encontraba a solo unos pocos kilómetros del asentamiento indígena de Pituffik. Justo después de la guerra, como parte de la Operación Nanook, los estadounidenses ampliaron la instalación existente con una pista de aterrizaje de grava como parte de una actualización para una estación meteorológica más grande y nueva.

Entre 1947 y 1950, aviones de reconocimiento estadounidenses fotografiaron a fondo la zona con fines cartográficos. Mientras tanto, estudiantes universitarios jóvenes realizaban trabajos de topografía y mapeo en el terreno. Había poca información sobre las condiciones geográficas y meteorológicas de la zona, y obtener este conocimiento era una condición esencial para llevar a cabo la estrategia polar y así establecer la supremacía militar de Estados Unidos en el Ártico.

Como señala el registro histórico, tanto Dinamarca como Estados Unidos deben mucho a los antiguos nórdicos, que se cree fueron los primeros habitantes de Groenlandia. Su oscuridad puede, al menos en parte, explicarse por los pocos detalles que poseemos de la civilización pionera en el techo del mundo.

Las sagas legendarias [islandesas] dan un relato detallado (y hasta cierto punto históricamente correcto) de la vida en Groenlandia durante el período de dominación vikinga de la que existen testimonios escritos desde el siglo XIII que demuestran que las fuerzas naturales han moldeado durante mucho tiempo la interacción humana con la región.

A diferencia de los vikingos medievales que abandonaron los primeros intentos de colonizar la isla, los inuits groenlandeses se enfrentan hoy a un clima más cálido. En Summit, una estación de investigación situada cerca del punto más alto del centro de la capa de hielo, las temperaturas aumentaron seis veces más rápido que el promedio mundial entre 1982 y 2011.

Por primera vez en casi 130 años, en julio de 2012 un 97% de la superficie se derritió durante unos días. La capa de hielo se ha adelgazado y ennegrecido desde principios de la década de 1990, especialmente en sus bordes, lo que hace que aumente el número de icebergs que se desprenden de los glaciares cercanos al mar al tiempo que aparecen más terremotos glaciales.

Ese comportamiento augura un futuro sombrío porque, como se puede se observar en el siguiente vídeo, puede interrumpir potencialmente la circulación oceánica a medida que más y más agua dulce fluye desde el deshielo glaciar.

A medida que las temperaturas de Groenlandia aumentan, también lo hace el termómetro político interno, porque algunos de los políticos de la isla reclaman la plena independencia de la corona danesa. Aunque Dinamarca contribuye con dos tercios del presupuesto de Groenlandia, tanto los groenlandeses como los observadores foráneos son conscientes de las posibilidades que una isla en deshielo rodeada de aguas cada vez más cálidas ofrece para futuras rutas de transporte naval, sin mencionar la extracción de gas y minerales raros que serán más accesibles conforme se desvanezca el permafrost. 

La codicia por esos recursos es cada vez mayor, a pesar de que el gobierno de Groenlandia prohibió en 2021 cualquier intento de extracción de petróleo y gas, argumentando que "el precio era demasiado alto" en términos de impactos ambientales.

Como cabía esperar, las ambiciones de la Administración Trump han puesto a la Casa Blanca en conflicto directo con Groenlandia y Dinamarca. Como escribió Hans W. Weigert en un artículo de la revista Foreign Affairs publicado en 1944, «la conciencia de que el lejano norte es un área de gran importancia estratégica para Estados Unidos ya no está limitada a un pequeño grupo de personas... […]. La estrategia de esta guerra ha acelerado el ritmo del progreso en el Ártico, pero existen ciertas barreras que la naturaleza ha levantado contra el desarrollo de esta área; y las realidades políticas establecen límites a las posibilidades de un avance estadounidense hacia el norte».

Ese argumento, escrito en el contexto de la Segunda Guerra Mundial y poco después de que Islandia declarara su independencia de Dinamarca (mientras que esta última aún estaba ocupada por la Alemania nazi), sigue siendo relevante hoy.

En el Day of Infamy speech, su famoso discurso de 1941 ante el Congreso, el presidente Roosevelt habló de la necesidad de prevenir la «ocupación por parte de Alemania de puestos avanzados estratégicos en el Ártico para un eventual ataque contra el hemisferio occidental». Roosevelt también describió la obligación de una futura retirada de la región: «Inmediatamente después de la terminación de la “emergencia internacional actual”, todas las fuerzas estadounidenses serán retiradas de Islandia».

El presidente Franklin Delano Roosevelt pronuncia su discurso del "Día de la Infamia" ante el Congreso el 8 de diciembre de 1941. Detrás de él están el vicepresidente Henry Wallace (izquierda) y el presidente de la Cámara de Representantes, Sam Rayburn. A la derecha, en uniforme, está el hijo de Roosevelt, James, quien escoltó a su padre al Capitolio.

Sin embargo, dijo también que el Pacto sobre la defensa de Groenlandia de 1941, a suscribir entre Estados Unidos y Dinamarca, abría la puerta a negociaciones sobre el futuro de la isla, especificando que el pacto «permanecerá en vigor hasta que se acuerde que los peligros actuales para la paz y la seguridad del continente americano hayan pasado. En ese momento, la modificación o terminación del acuerdo será objeto de consulta entre los gobiernos de Estados Unidos y Dinamarca».

Ochenta y cuatro añosdespués, la sensación de la nueva Administración Trump es que esos "peligros actuales" siguen existiendo. ¿Qué posibilidades habrá esta vez, de que se alcance un acuerdo negociado y pacífico entre Estados Unidos, Dinamarca y la isla más grande del mundo?

domingo, 9 de febrero de 2025

NO, CONSUMIR CHOCOLATE NEGRO NO REDUCE EL RIESGO DE CONTRAER DIABETES

 

Se acerca el día de San Valentín y podemos esperar una avalancha de regalos a base de chocolate. Con el afán de promocionar, algunos influencers recurren al viejo y trillado cliché de que la feniletilamina del chocolate estimula el ardor amoroso al aumentar la liberación de dopamina, la “sustancia química del bienestar” en el cerebro. ¡Olvídate! Aunque el chocolate contiene algo de feniletilamina, esta sustancia se metaboliza en el organismo antes de que pueda llegar al cerebro.

No faltan tampoco los artículos hiperbólicos sobre los beneficios del chocolate para la salud, que van desde sus capacidades hipotensoras y antioxidantes hasta la eliminación de la placa de las arterias y la prevención del deterioro de la memoria en las personas mayores. Para evitar las demandas, las publicaciones científicas citadas en esos artículos, que suelen estar financiadas por la industria del chocolate, están plagadas de palabras como "puede" y "podría" y acostumbran a terminar con la frase "se necesita más investigación".

El chocolate no es el único caso. De hecho, me ocupé de sus supuestas (e inciertas) propiedades terapéuticas en un artículo El chocolate ni mata ni cura, pero engorda, publicado hace justamente un año. Seguimos en las mismas: casi no pasa un día sin que aparezca un estudio que sugiera consumir algún alimento o suplemento para mejorar nuestra salud o que nos inste a evitar algún alimento o ingrediente que la perjudique. A esto suele seguir una serie de titulares en los medios de comunicación que exageran los resultados mucho más de lo que realmente se merecen.

Ese es el caso de un estudio publicado el pasado diciembre en el British Medical Journal sobre los supuestos beneficios de comer chocolate negro para combatir el riesgo de sufrir diabetes tipo 2. Ese artículo provocó una cascada de titulares del tipo “Buenas noticias: el chocolate negro reduce el riesgo de diabetes tipo 2”, que algunos precavidos reporteros intentan disimular para desviar las críticas con las típicas frases equívocas como “¡Qué dulce! Una dosis diaria de chocolate negro puede reducir el riesgo de diabetes”. Por supuesto, es así. Claro que, con la misma certeza, también podría escribirse “puede que no”.

El estudio en cuestión es un ejemplo de muchos otros similares que implican la “exploración retorcida” de datos recopilados en estudios estadísticos, en los cuales se pide a un gran número de participantes que completen cuestionarios detallados sobre la frecuencia de consumo de alimentos y luego informen a lo largo de un período de años sobre cualquier problema de salud que experimenten.

El objetivo es detectar cualquier asociación entre algún componente de la dieta y la enfermedad, pero estos estudios prospectivos nunca pueden demostrar una relación de causa y efecto. Sin embargo, pueden servir a modo de palanca como trampolín para otros estudios.

En este caso, se combinaron los resultados de tres grandes estudios de cohorte en los que participaron un total de 111.654 participantes, de los cuales 18.862 fueron finalmente diagnosticados con diabetes y se “diseccionaron” los datos en busca de un vínculo entre la dieta y la enfermedad.

Después de exprimir los datos hasta que arrojaron algún resultado, los investigadores concluyeron que, aunque el chocolate con leche no tenía ningún efecto sobre la diabetes, ingerir semanalmente cinco o más porciones de chocolate negro, en comparación con no consumirlo, reducían el riesgo de desarrollar diabetes en un 21%. Eso suena bastante bien y hace que uno proceda a zampar chocolate negro.

Pero antes de llegar a esa conclusión, es necesario indagar un poco más. En primer lugar, está la preocupación habitual sobre los cuestionarios de frecuencia de consumo de alimentos. La memoria sobre lo que se ha consumido no es fiable, porque los humanos somos notoriamente ineptos para estimar las cantidades de nuestras ingestas.

En este estudio se pidió a los participantes que dijeran su frecuencia media de consumo de una onza de chocolate en el último año; para facilitar el trabajo, debían elegir entre nueve niveles que iban desde "nunca, o menos de una vez al mes" hasta "más de seis al día". ¿Con qué fiabilidad se puede recordar el consumo de chocolate a lo largo de un año? ¿Cómo se tiene en cuenta el chocolate consumido comiendo tarta de chocolate, engullendo conguitos, bebiendo chocolate caliente o sacando un par de piezas de esa caja de bombones que un compañero de trabajo llevó a la oficina el día de su cumpleaños?

Y las dudas no acaban ahí. No existe un único tipo de chocolate negro. El contenido de cacao de las tabletas puede variar entre el 60 y el 90%, lo que quiere decir que hay diferencias significativas en la composición química. La cadena Lindt incluso tiene una tableta cien por cien de cacao sin azúcar. Creo que en mi caso puedo recordar cuántas veces consumí una tableta de ese tipo o de cualquier otro tipo a lo largo del año pasado: ninguna. Ahora bien, cuántas veces piqué cuando me ofrecieron una caja de bombones en alguna celebración es algo que me es imposible recordar.

Consideremos ahora las diferentes variedades de árboles de cacao que producen los granos a partir de los cuales se produce el chocolate. Dependiendo de la variedad, la composición química de los granos puede cambiar. Una vez que se cosechan y se extraen los granos, se dejan fermentar. Esto significa que las levaduras naturales descomponen los azúcares de la pulpa que rodea los granos para producir etanol. Este primero es convertido por bacterias en ácido láctico, que a su vez produce ácido acético por la acción de otras bacterias.

Con la ayuda del calor producido durante la fermentación, el ácido acético rompe las paredes de las células de las semillas (los granos) y luego degrada las proteínas liberadas en aminoácidos y péptidos. A través de una serie de reacciones, estos se convierten en varias familias de polifenoles que son los componentes saludables del chocolate.

Teniendo en cuenta todas esas variables, la química de los diferentes chocolates negros o casi negros puede ser muy diferente. Consumir una tableta de chocolate negro con un 90% de cacao que proviene de árboles cultivados en Ghana puede tener un efecto metabólico bastante diferente que otra con un 60% procedente de árboles cultivados en Oaxaca.

Obviamente, hay mucha incertidumbre en lo que se refiere a la cantidad y el tipo de chocolate negro consumido. Por si le parece poco, podemos añadir otro grado de incertidumbre cuando analizamos la afirmación de una reducción del 21% de la diabetes en los participantes que consumieron más de cinco raciones de chocolate negro a la semana.

Presentar los resultados en porcentajes siempre es problemático porque incluso un gran cambio porcentual puede ser bastante insignificante. Comprar dos billetes de lotería en lugar de uno aumenta la probabilidad de ganar en un 100%, pero la probabilidad sigue siendo insignificante. ¿Qué significa, pues, una reducción del 21% en este caso?

Por no complicarles más la vida, de los datos brutos recopilados por los investigadores, podríamos deducir que, si mil personas que no comen chocolate comenzaran a comer cinco porciones de chocolate negro a la semana durante un año, una de ellas se salvaría de ser diagnosticada con diabetes durante ese año.

Incluso este cálculo tiene a una importante incertidumbre porque de 4.771 personas a las que se les diagnosticó diabetes tipo 2, solo 132 consumieron más de cinco porciones de chocolate negro a la semana. Se trata de una cifra muy pequeña en la que basar las estadísticas. Además, como hemos visto, realmente no sabemos qué significa una "porción de chocolate negro" en términos de los componentes químicos que se suministran al cuerpo.

También está la cuestión de las diferencias en el estilo de vida entre los consumidores de chocolate negro y los que no lo consumen. Calcular los niveles de actividad física a partir de cuestionarios es difícil, como lo es determinar si los resultados se debieron a lo que no se comió en lugar de a lo que se comió. Tal vez las cinco porciones de chocolate negro reemplazaron al helado como postre y fue el hecho de evitar el helado lo que precisamente produjo el pequeño beneficio.

La conclusión es que las muchas horas de investigación que respaldaron esta investigación dieron resultados que pueden tener cierto interés académico, pero que tienen poca importancia práctica. Las conclusiones de los medios de comunicación de que añadir cinco raciones de chocolate negro a la dieta con la esperanza de reducir el riesgo de diabetes tipo 2 son, simplemente, una bobada.

LLEGA SAN VALENTÍN: OLVÍDATE DE LOS AFRODISÍACOS

 

Phallus impudicus. Wikipedia

Febrero, 14, día de San Valentín: llega el amor y su deseable consecuencia. el sexo. Entonces es cuando entran en juego los afrodisíacos. ¿Cuerno de rinoceronte, ginseng, mandrágoras, espárragos o “moscas españolas” para potenciar la sexualidad? No te lo creas.

Según se dice, las sustancias afrodisíacas, que llevan el nombre de Afrodita, la diosa griega del amor y la pasión, están destinadas a estimular la libido y representan algo así como el bálsamo de Fierabrás para quienes de alguna manera se sienten sexualmente insatisfechos.

Hubo un tiempo en que estaba muy extendida la creencia de que una sustancia de origen animal o vegetal podía servir como afrodisíaco si su forma se parecía al cuerpo humano o a una parte de este (preferiblemente relacionada con lo genital).

Probablemente por su apariencia fálica, el cuerno de rinoceronte que, a pesar de que está hecho exclusivamente de queratina, la misma proteína que forma el cabello y las uñas, todavía se venera en algunas partes de Asia como un estimulante "mágico". Consumir cuerno de rinoceronte en polvo tiene más o menos el mismo efecto sobre el apetito sexual que morderse las uñas. Desgraciadamente, el rinoceronte ha sido cazado casi hasta estar en peligro de extinción debido a la absurda creencia en sus efectos afrodisíacos.

Las raíces de ginseng, procedentes de varias plantas del género asiático Panax, suelen tener un aspecto remotamente similar al humano, lo que probablemente haya contribuido a su popularidad como impulsor de la sexualidad. Veamos.

Hay algunas pruebas clínicas, de que el ginseng ejerce un efecto sobre la disfunción eréctil al desencadenar la liberación de óxido nítrico, un neurotransmisor, cuyo mecanismo de actuación es exactamente el mismo de la Viagra. Incluso si se confirmara eso, que todavía está por ver, ni el ginseng ni la Viagra pueden clasificarse como afrodisíacos. Ambos pueden proporcionar cierta ayuda “mecánica”, pero no aumentan la libido, cuyo control reside en una combinación de factores biológicos, psicológicos y sociales.

En algunos lugares, ciertas orquídeas han sido consideradas un símbolo de amor y admiración, porque sus raíces bituberculadas evocan la imagen de los testículos masculinos (de hecho, “orquis” significa testículo en griego). Algo así ocurre con un extraño hongo maloliente, el falo de perro (Phallus impudicus), que tiene un supuesto efecto estimulante sobre el pene humano al que se parece. Bucee en PubMed, la principal fuente de publicaciones médicas, y no encontrará prueba alguna de que se haya observado tal actividad.

Casi todos los alimentos que se han consumido a lo largo de la historia se han asociado en algún momento con ciertas propiedades afrodisíacas. Los tomates se llamaban antiguamente "manzanas del amor" y se creía que eran la verdadera fruta prohibida del Edén. Los aguacates (los aztecas usaban la palabra "ahucatl", que significa testículo para denominar esta fruta), las cebollas, el ajo, las anguilas, las almejas, la miel, los huevos, las setas, los plátanos e incluso las espinacas (como ya nos demostró Popeye) tienen fama de ser afrodisíacos.

Las anguilas y los plátanos son obviamente fálicos y las almejas y las ostras se parecen algo a los genitales femeninos. Los espárragos, también fálicos, también se han utilizado mucho como estimulantes sexuales, aunque lo único que consiguen es impregnar la orina de algunas personas con un olor característico.

Las bebidas alcohólicas han sido probablemente los "afrodisíacos" más utilizados. Su consumo puede producir cierta disminución de las inhibiciones, pero siempre hay que recordar el famoso verso de Macbeth sobre cómo «el alcohol provoca el deseo, pero quita la capacidad de actuar»

En tiempos bíblicos, nos recuerda el Antiguo Testamento, la raíz de mandrágora (de aspecto humanoide como la del ginseng) era muy buscada por sus supuestos poderes. En Génesis 29, por ejemplo, puede leerse que Raquel deseaba tanto un poco de esta raíz que permitió que Lea, su hermana, se acostara con su marido Jacob a cambio de un poco de esa raíz.

Hacía tiempo que Lea no concebía, y se creía que la planta, cuyas raíces se asemejan al cuerpo humano, ayudaba a la fertilidad. Frustrada por no poder concebir, Raquel le ofreció a Lea cambiar su noche con su marido a cambio de las mandrágoras. Lea aceptó, y esa noche se acostó con Jacob y concibió a Isaac. Después dio a luz a Zabulón y a una hija, Dina. A continuación, Dios se acordó de Raquel y le dio dos hijos, José y Benjamín.


Como descepar una mandrágora. Imagen del manuscrito del siglo XV Tacuinum SanitatisImagen. 

Pero tal vez el afrodisíaco más famoso sea la “mosca española”, obtenida de los escarabajos cantáridos, supuestamente los favoritos de Casanova y del católico Rey Fernando, quien al parecer los utilizaba para satisfacer a su segunda esposa, la joven Germana de Foix. Como nos recordó Luis Monje en un divertido artículo, «la cantaridina debe su nombre a que se aisló inicialmente de un insecto alargado de color verde metálico llamado cantárida, también conocido como escarabajo del fresno (Lytta vesicatoria) o mosca de España que, al igual que Puertollano que ni es puerto ni es llano, ni es mosca, ni es exclusiva del solar patrio por más que guste de dejarse ver por nuestras fresnedas y alisedas.

[…] cantárida ha permanecido en el discreto anonimato propio del anacoreta, la traviesa cantárida pasó a la posteridad como una famosa e involuntaria agente de intrigas en las cortes europeas, cuyas coronadas cabezas han sido de siempre más aficionadas al fornicio que al cilicio.

La cantárida, como cualquier coleóptero que se precie, tiene un duro exoesqueleto que en esta especie es rico en una feromona irritante llamada cantaridina. Como nos recuerda el profesor de la Complutense José Ignacio Arana en Los grandes polvos de la historia, un ensayo tan riguroso como desenfadado, la cantaridina, transformada en polvo, es buena para el ídem, habida cuenta de que en pequeñísimas cantidades produce una irritación en la uretra que provoca que el miembro masculino se ponga cual mastelero de gavia y que el sexo opuesto entre en lo que ha dado en llamarse furor uterino.

El polvo de cantárida llegó a ser tan usado para doblegar féminas, que eminentes lingüistas y etimólogos atribuyen a su empleo el origen de la frase “echar un polvo”»

La "mosca española" es realmente un coleóptero, Lytta vesicatoria. 

En cualquier caso, no se aficione: la cantaridina es un compuesto potencialmente peligroso que puede provocar inflamación del tracto urogenital y, en dosis lo suficientemente altas, insuficiencia renal.

Por último, se dice que el emperador azteca Moctezuma consumía chocolate para reforzar su virilidad antes de visitar a su harén y en una época se creía que el chocolate era tan provocativo de inmoralidad que la Iglesia en España prohibía su consumo en seminarios y conventos. El supuesto efecto se ha atribuido a la feniletilamina del chocolate, pero no hay ninguna prueba de que tenga un efecto afrodisíaco. Y lo que es más, la feniletilamina, se descompone al pasar por el tracto digestivo, así que su efecto metabólico es nulo.

En cualquier caso, hay mucha más feniletilamina en el chucrut que en el chocolate. Pero no es muy romántico aparecer en la puerta de tu ser amado con un frasco de col fermentada.

Compra bombones y que sea lo que San Valentín quiera. ¡Feliz día!


jueves, 6 de febrero de 2025

A BRIEF HISTORY OF VITAMINS

 

The fundamental components of the human diet —the so-called macronutrients: water, carbohydrates, fats, and proteins— were identified almost two hundred years ago by an Englishman named William Prout, a curious fellow who combined chemistry with theology. Even back then, it was clear that some other elements were needed to produce a fully healthy diet. For a long time, no one knew exactly which elements those were, but it was evident that if they were missing from the diet, people were likely to suffer from deficiency diseases like beriberi or scurvy.

Initially, they were called "complementary factors of foods." We now call them vitamins. Vitamins are simply organic chemical substances that, because we cannot produce them ourselves, we need to obtain from our food.

At the dawn of the 20th century, British biochemist Frederick Gowland Hopkins, a man with a curious resemblance to the 8th Marquis of the Guadalquivir Marshes, was busy feeding his laboratory rats. He treated them well with a diet of proteins, fats, carbohydrates, and minerals. Although it was known that these substances were the main components of food, they were not sufficient to maintain health. Something was missing: the rats were succumbing to malnutrition.

In 1906, after discovering that supplementing the diet with some milk caused his rats to grow wonderfully, Hopkins coined the term "auxiliary food factor," something previously unknown but necessary for normal development.

Hopkins was not the first to make such an observation. Between 1878 and 1883, Kanehiro Takaki, a Japanese military doctor, had studied the high incidence of a terrible disease among sailors, characterized by muscle degeneration, heart irregularities, and emaciation, known as "beriberi," a name derived from a native Sri Lankan expression meaning "I can't, I can't," referring to the progressive loss of mobility experienced by those affected.

Takaki discovered that among the 276 men of a ship’s crew whose diet mainly consisted of polished rice (a type of rice ground to remove the bran, germ, and fiber, leaving a starch-rich grain), 169 cases of beriberi developed, with twenty-five deaths within nine months. On another ship, no deaths occurred, and only fourteen cases of the disease were reported. The difference was that the crew of this second ship was given more meat, milk, and vegetables. Takaki concluded that this had something to do with the protein content of the diet, but he was mistaken.

Fifteen years later, Christiaan Eijkman, a Dutch doctor working in Java, observed that chickens fed polished rice also contracted beriberi but recovered when fed brown rice. He thought the starch in polished rice was toxic to the nerves and that the bran contained an antidote. His conclusion, like Takaki's, was wrong.

Casimir Funk, a Polish biochemist who had emigrated to the United States, read an article by Eijkman describing that people who ate brown rice were less susceptible to beriberi than those who ate only completely milled rice. Funk attempted to isolate the responsible substance, and in 1912 he finally succeeded. The compound turned out to belong to a family of molecules called amines, and Funk, convinced they were vital for life, coined the term "vitamin."

Funk suggested that diseases like rickets, pellagra, and scurvy were also caused by vitamin deficiencies, an idea also proposed by Dutch researcher Gerrit Grijns, who continued Eijkman’s work. Both were correct, but their work was not recognized.

In 1929, Hopkins and Eijkman shared the Nobel Prize in Physiology or Medicine for their work on vitamins, but Grijns and Funk were ignored. Funk rightly protested because the Nobel committee awarded the prize to Hopkins for "his discovery of vitamins that stimulate growth," even though Hopkins himself never claimed to be the discoverer of vitamins. It was true: there was no single discoverer; many scientists contributed to the knowledge we now have about vitamins.

In 1913, Elmer McCollum and Marguerite Davis, biochemists at the University of Wisconsin, discovered that rats fed lard as their only fat source did not grow and developed eye problems. When butterfat or an egg yolk extract was added to their diet, growth resumed, and the eye condition was corrected.

McCollum suggested that whatever was present in the ether extract should be called fat-soluble factor "A," and the aqueous extract that Funk had used to prevent beriberi should be called water-soluble factor "B." When it was discovered that the water-soluble extract was a mixture of compounds, its components were designated with numerical subscripts. The specific factor against beriberi was eventually named vitamin B1 or thiamine.

Effects of scurvy in the Diary of Henry Walsh Mahon aboard the convict ship Barrosa.
 

Vitamin B3, or niacin, was added to the vitamin family in 1914, when American doctor Joseph Goldberger solved the mystery of pellagra, an epidemic in the southern states, particularly in cotton-growing areas. Described as the disease of the four Ds: diarrhea, dermatitis, dementia, and death, it was thought that pellagra was related to cotton, either as a germ or a toxin contained in the plant.

Goldberger, a public health doctor, demonstrated that the disease was actually caused by a diet consisting mostly of corn and could be cured by adding fresh vegetables, milk, and eggs. Twenty years later, in 1937, Norwegian-born American biochemist Conrad Elvejhem identified niacin as the nutrient lacking in corn that was necessary to prevent pellagra.

Although it is known that the Spanish, at least since the early 17th century, regularly used citrus fruits as a method to prevent scurvy, vitamin C, the most famous of all vitamins, was identified in 1932 by Hungarian-American physiologist Albert Szent Gyorgyi, who was awarded the Nobel Prize in Physiology or Medicine in 1937. He extracted the compound from paprika and suggested it be named ascorbic acid, from the Latin "scorbuticus" (scurvy). A year later, British chemist Walter Haworth determined its molecular structure.

Long before the identification of ascorbic acid, in his Treatise on Scurvy, published in 1753, Scottish doctor James Lind described experiments demonstrating that scurvy could be prevented by consuming citrus fruits. This led to British sailors being supplied with lime juice. The Anglo-French Napoleonic Wars are a good example: the British Admiralty provided about six million liters of lemon juice to sailors during the years of that conflict. Sicily actually became a lemonade factory.

Subsequently, other vitamins were identified and given the designations D and E, following the order of their discovery. Vitamin K was named as such because its discoverer, Danish biochemist Henrik Dam, proposed the term "Koagulations Vitamin" due to its promotion of blood coagulation.

Are there still unknown vitamins? It is unlikely. Many hospitalized patients have survived for many years using intravenous nutrition that incorporates the known vitamins. However, the current trend aims to investigate whether, in addition to preventing diseases caused by nutritional deficiency, vitamins may have some supplementary benefit.

It has been suggested that vitamin C may prevent the common cold, vitamin E may reduce the risk of cardiovascular diseases, and vitamin D is a sort of cure-all. None of these claims are backed by convincing scientific evidence, but that hasn’t stopped vitamin supplements from flourishing into a multimillion-dollar industry.

The main debate around vitamins was sparked by American chemist Linus Pauling, who had won not one, but two Nobel Prizes (the Chemistry Prize in 1954 for his work describing chemical bonds, and the Peace Prize eight years later for his defense of human rights). In a striking example of a cobbler not sticking to his trade, Pauling believed that taking massive doses of vitamin C was effective in fighting colds, flu, and even certain types of cancer.

Pauling himself took up to 40,000 milligrams of vitamin C daily (the recommended daily dose is 60), and claimed that this enormous intake had kept his prostate cancer at bay for twenty years. He had no evidence for any of his claims, and all of them have been largely discredited by subsequent studies. But thanks to Pauling, many people still believe that taking a lot of vitamin C helps them avoid colds. But it doesn’t.