Vistas de página en total

sábado, 24 de enero de 2026

LA VIDA SECRETA DEL PURÉ: CUANDO EL ALMIDÓN SE REORGANIZA

 

El puré, cuando está caliente, inspira una confianza que no merece. Uno lo mira y piensa: esto está resuelto. Todo está integrado, todo es suave, todo parece haber llegado a un acuerdo razonable. El puré caliente es un alimento socialdemócrata. No hay tensiones visibles, no hay bandos. La patata ha renunciado a su pasado sólido, el agua ha aceptado quedarse en segundo plano y el conjunto se presenta como una masa homogénea, educada, que no plantea problemas. Es entonces cuando cometemos el error: apartarlo del fuego y dar por hecho que seguirá siendo el mismo, pase lo que pase, por siempre jamás.

Al volver al cabo de un rato —no hace falta mucho, basta con que se enfríe— el puré ya no es uno. Hay grumos, hay líquido alrededor, hay una especie de archipiélago triste flotando en un mar de aguachirle. El puré no está malo, pero ha cambiado de estado. Y lo ha hecho sin consultarnos, como suelen hacerse las cosas importantes.

Lo que ocurre ahí no es un capricho culinario ni una mala praxis del cocinero. Son la física y la química actuando con la frialdad que las caracteriza. La patata, la calabaza, el arroz, todos esos vegetales que parecen tan dóciles contienen almidón, y el almidón es una sustancia con carácter. En caliente se comporta de manera expansiva: absorbe agua, se hincha, forma una red que atrapa el líquido y da esa textura cremosa que asociamos con la felicidad doméstica. Pero ese estado es transitorio. Es el equivalente molecular a una noche de verano en la que todo el mundo se lleva bien.

El almidón está formado por dos polisacáridos, amilosa y amilopectina. Cada uno de ellos está formado por moléculas de azúcar (glucosa). Cada molécula de glucosa es uno de los hexágonos que aparecen en la imagen.

Un poco de química elemental nos vendrá bien. Como pueden ver en la figura de arriba, el almidón tiene una composición química muy sencilla. Es la unión de dos polisacáridos (si lo prefieren, dos carbohidratos): la amilosa y la amilopectina. Ambos están formados por unidades de glucosa; las de amilosa unidas entre ellas por enlaces que dan lugar a una cadena lineal y las de amilopectina por enlaces que hacen que las cadenas de glucosa se ramifiquen. Los dos polisacáridos se modifican con la adición de agua.

En el proceso de adición de agua (hidrólisis) que tiene lugar cuando digerimos, las amilasas, unas enzimas secretadas por el páncreas y las glándulas salivales, son las encargadas de degradar los polisacáridos que se encuentran en los alimentos, los cuales se transforman en glúcidos más simples, en moléculas más sencillas, que pueden atravesar la pared digestiva o ser absorbidas en el intestino.

Como no hay enzimas, lo que sucede al hacer puré no es una hidrólisis, sino un proceso llamado gelatinización, que ocurre durante la cocción de la patata (entre 58°C y 66°C). Lo que sucede es que los gránulos de almidón absorben agua, se hinchan y eventualmente se rompen, liberando amilosa y amilopectina. Como resultado, se forma una pasta o gel espesante que da la textura característica al puré. No hay una ruptura masiva de los enlaces químicos para crear azúcares simples; las moléculas de almidón siguen siendo largas. Siguen ahí, a la espera de reorganizarse.

Cuando la temperatura baja, el almidón empieza a hacer memoria. Sus moléculas, especialmente la amilosa, sienten una irresistible necesidad de ordenarse como si se tratase de regimientos prusianos. Se alinean, se juntan, se compactan. Donde antes había una red flexible ahora hay una estructura rígida y concentrada. El agua, que ya no tiene sitio en ese nuevo orden, es expulsada sin miramientos. No hay drama: simplemente ya no la necesitan. El puré se separa porque el almidón ha decidido que en la intimidad cualquier pareja también cansa.

Este proceso tiene un nombre que parece inventado para tranquilizarnos: retrogradación del almidón. Suena técnico, pero viene a significar algo bastante cotidiano: las cosas tienden a volver a su estado más estable, aunque ese estado no nos guste. Para la molécula, el puré frío es un éxito. Para nosotros, una decepción templada.

Eso explica una de las frustraciones más persistentes de la cocina doméstica: el puré recalentado nunca vuelve a ser exactamente igual. Uno puede calentarlo con cuidado, removerlo con paciencia, añadir leche, mantequilla, aceite de oliva, incluso optimismo. El puré mejora, sí, pero no regresa del todo a su ser original. Algo irrecuperable, como la niñez o la virginidad, se ha perdido por el camino. El almidón, una vez reorganizado, no vuelve a desorganizarse completamente. El calor puede aflojar la estructura, pero no borrar lo ocurrido. Como los viejos Biscúter, no tiene marcha atrás.

Todo esto debería servirnos para mirar los purés con un poco más de respeto y algo menos de ingenuidad. La textura no es un atributo fijo: es un equilibrio temporal. El calor mantiene a raya a las moléculas, las obliga a convivir. El frío les devuelve la libertad. Y cuando cada componente puede elegir, elige el orden, no la cremosidad.

Quizá por eso los recalentados nos producen una leve melancolía. No están mal, pero nos recuerdan que el momento bueno ya pasó. El puré recién hecho es una promesa; el puré frío es otra cosa. No hay traición, solo sinceridad tardía.

Al final, los grumos no son un error ni un castigo. Son el almidón haciendo exactamente lo que lleva millones de años haciendo: buscar estabilidad. Que esa estabilidad no coincida con nuestra idea de una cena perfecta es un problema filosófico, no culinario. El puré no se estropea. Se reorganiza. Y, como tantas reorganizaciones, llega cuando ya no podemos hacer mucho más que mirarla con resignación y coger la cuchara.

Cuando el puré se congela, la reorganización íntima que ya había empezado al enfriarse se vuelve radical. Al congelar ocurren varias cosas, todas poco favorables para la mesa y perfectamente razonables desde el punto de vista de la física. El agua forma cristales de hielo que crecen, empujan y rompen. Al hacerlo, perforan las paredes celulares que quedaban y destrozan la red gelatinosa del almidón que sostenía la ilusión de unidad.

Además, la retrogradación del almidón se acelera y se consolida. Las moléculas se ordenan con convicción definitiva. Cuando el puré se descongela, ese almidón ya no está dispuesto a volver a colaborar. Ha encontrado una forma estable y no piensa abandonarla. El resultado aparece de inmediato: agua separada, grumos más firmes y una textura que recuerda vagamente a lo que fue, pero que ya no responde al proyecto original.

No es que el puré “se haya cortado”. Es que ha dejado de existir como puré en sentido estructural. Es una agregación de fases que antes estaban obligadas a convivir y ahora no. El recalentado ayuda poco. El calor puede suavizar los grumos y engañar al ojo durante unos minutos, pero no reconstruye las células rotas ni deshace la compactación del almidón. El daño ocurrió a escala microscópica. El puré congelado no envejece: sufre una metamorfosis.

Por eso algunos purés congelan mejor que otros. E mito de que "el puré no se puede congelar" nace de errores comunes: usar patatas con bajo contenido de almidón o omitir grasas protectoras. Las variedades harinosas  mantienen hasta un 92% de su textura original cuando se congelan con al menos un 10% de grasa añadida. La mantequilla o nata forman una barrera que evita la cristalización del agua, previniendo la degradación del almidón. 

Por eso, los que llevan grasa o proteínas resisten más: esos ingredientes interfieren en la formación de grandes cristales de hielo y lubrican la estructura al descongelar. Los purés “puros”, solo verdura y agua, son los más castigados. La pureza tiene un precio.

Desde el punto de vista sensorial, el puré descongelado pierde cohesión. La cuchara ya no encuentra resistencia uniforme. El puré no acompaña: cede. Se comporta como algo que ha pasado por una experiencia intensa y ya no quiere fingir normalidad. No está malo, pero ya no es un puré recién hecho: es la memoria congelada de uno.

Si el puré frío es una advertencia, el puré congelado es una muestra forense. Y la física, como siempre, ha hecho exactamente lo que prometía, no lo que queríamos.

Lo dicho para el puré no vale para la crema, pero esa es otra historia.

jueves, 22 de enero de 2026

CÓMO GROENLANDIA ACABÓ SIENDO DANESA (Y POR QUÉ TRUMP NO ENTENDIÓ NADA)

 

Ricard Ferrandiz: El capitán Trueno y Sigrid se casan.

Groenlandia me ha llamado desde que era niño y leía los tebeos del Capitán Trueno. Me fascinaba la bella y elegante Sigrid, la amada del Capitán, que no era una princesa ornamental sino reina de Thule, un reino del norte remoto y helado donde los hombres hablaban poco, cumplían su palabra y no parecían especialmente interesados en conquistar el mundo. Como suele ocurrir con los mitos infantiles bien asentados, un día quise saber más. Así que recurrí a la enciclopedia Espasa, ese Google en papel que exigía bíceps y paciencia, y busqué Thule. Descubrí entonces que no era solo un escenario de tebeo, sino también un lugar real o casi real: el asentamiento más septentrional del mundo conocido, situado al norte de Groenlandia, allí donde los mapas empiezan a pedir disculpas.

Mi imaginación quedó atrapada para siempre en ese punto del planeta. Y más aún cuando tropecé con la historia de Erik el Rojo, el vikingo que tuvo la brillante idea de llamar Greenland (Tierra Verde) a uno de los mayores pedazos de hielo del hemisferio norte. Lo hizo para atraer colonos y funcionó. Aquello me pareció prodigioso: cambiar la realidad con una palabra. Años después comprendí que esa habilidad —rebautizar el mundo para hacerlo más vendible— no se perdió con los vikingos, sino que ha tenido una larga y próspera descendencia.

Por eso, cuando Donald Trump afirmó en televisión que el hecho de que un barco danés llegara a Groenlandia hace quinientos años no da derecho a poseer la isla, sentí una mezcla de déjà vu y alarma histórica. La frase tiene esa cualidad tan suya de sonar razonable durante tres segundos y luego desplomarse como una silla plegable mal abierta. Porque, con el mismo argumento, cabría preguntarse qué derecho tienen los anglosajones a poseer Estados Unidos, si llegaron a las costas de Nueva Inglaterra hace prácticamente el mismo tiempo, armados de Biblias, escopetas y una extraordinaria fe en que Dios siempre estaba de su lado… inmobiliario.

El problema de ese razonamiento es que no desmonta solo a Dinamarca: haría saltar por los aires medio planeta. América entera, Australia, buena parte de África y Asia quedarían en suspenso jurídico, como si la historia internacional funcionara con tiques de aparcamiento que caducan a los cinco siglos. Pero Trump no hablaba de coherencia histórica; hablaba de propiedad, una palabra muy peligrosa cuando se aplica a territorios, pueblos y milenios.

Para empezar, conviene corregir el dato. Los primeros europeos que llegaron a Groenlandia no eran daneses. Eran noruegos, y llegaron hacia el año 985 empujados por el destierro, la violencia interpersonal y una notable resistencia al frío. Erik el Rojo, nacido en Noruega, fue expulsado primero de su país y luego de Islandia, antes de decidir que siempre quedaba un oeste más lejano al que huir.

Los asentamientos que fundó en Groenlandia fueron colonias noruegas: dependían políticamente del rey de Noruega, pagaban diezmos a la Iglesia noruega y mantenían lazos constantes con Islandia. Dinamarca no pintaba absolutamente nada en ese momento. Groenlandia formaba parte del mundo atlántico noruego, ese arco de islas y costas donde los vikingos sobrevivían más por tozudez que por comodidad.

Otros tipos fascinantes los vikingos, unos tipos fortachones a los que no importaba lucir una hermosa cornamenta. Parte del malentendido moderno procede de imaginar a los vikingos como una franquicia homogénea del tipo Starbucks: todos iguales, todos daneses, todos astados como mihuras, todos con el mismo mapa mental. En realidad, hubo tres grandes áreas vikingas, con rutas y destinos bien distintos.

Los vikingos noruegos miraron al Atlántico: Irlanda, Escocia, Islandia, Groenlandia y, finalmente, América del Norte. Colonizaron islas y costas donde el viento no perdonaba. Los vikingos daneses miraron al sur y al oeste: Inglaterra, Francia, el mar del Norte. Gobernaron, cobraron impuestos y dejaron una huella política duradera. Los vikingos suecos, los varegos, miraron al este: ríos interminables, comercio con Bizancio y el mundo islámico.

Groenlandia pertenece sin discusión al mundo noruego, no al danés. Así que el famoso “barco danés” de Trump no solo llega tarde: llega al sitio equivocado.

Los colonos nórdicos sobrevivieron en Groenlandia durante varios siglos. Luego, desaparecieron. Probablemente por una combinación letal de enfriamiento climático, aislamiento, falta de recursos y mala suerte. Europa miró hacia otro lado y Groenlandia quedó, durante generaciones, como un territorio inuit, habitado por los antepasados de los actuales Kalaallit, expertos en hielo, caza marina y supervivencia extrema.

Y aquí es donde Groenlandia empieza a estropear los discursos coloniales clásicos. No hubo una conquista continua ni una expansión imparable. Hubo llegada, retirada y olvido. Algo muy poco compatible con las narrativas épicas. Dinamarca entró en escena no por exploración heroica, sino por herencia política. En 1380, Noruega y Dinamarca quedaron unidas bajo un mismo monarca. Más tarde se sumó Suecia en la Unión de Kalmar, uno de esos inventos políticos medievales que sobre el papel parecían una gran idea y en la práctica funcionaron como una mesa coja: se mantenía en pie, pero nadie se atrevía a apoyar demasiado peso.

La arquitecta de la Unión fue Margarita I, reina de Dinamarca y una de las figuras políticas más impresionantes de la Europa medieval. Su objetivo era simple y muy sensato: frenar el poder de la Liga Hanseática y de los principados alemanes, que se estaban quedando con el comercio del Báltico como quien se queda con las mejores mesas del restaurante. Unir Escandinavia significaba controlar rutas comerciales, recursos y defensa común, al menos en teoría.

Así que, entre 1397 y 1523, Dinamarca, Noruega y Suecia estuvieron reunidas bajo un mismo monarca. No era un Estado unificado, sino tres reinos distintos con un solo rey. Cada uno conservaba sus leyes, su nobleza y sus problemas, lo cual garantizaba que los problemas se multiplicaran. Groenlandia, como colonia noruega, quedó incluida automáticamente en esa Unión.

En 1523, Gustavo Vasa lideró la ruptura definitiva. Suecia se separó, creó su propio Estado moderno y dejó a Dinamarca y Noruega unidas un par de siglos más. La Unión se disolvió, pero sus efectos duraron siglos: explica rivalidades, guerras posteriores y, sobre todo, por qué Dinamarca heredó territorios noruegos como Groenlandia, Islandia y las Feroe.

Cuando en 1814 Dinamarca perdió Noruega tras las guerras napoleónicas, conservó Groenlandia, Islandia y las Feroe. No por capricho, sino por tratados internacionales. A partir de entonces, Groenlandia fue danesa por continuidad legal, no por desembarco reciente ni por entusiasmo imperial.

Durante los siglos XVIII y XIX, Dinamarca recolonizó Groenlandia de forma lenta, administrativa y relativamente silenciosa. Fue colonia, luego provincia, y finalmente territorio autónomo. Hoy, Groenlandia gobierna casi todos sus asuntos internos y mantiene un debate abierto sobre su independencia futura.

No es un botín olvidado esperando comprador. Es una sociedad viva, con lengua propia, instituciones propias y memoria histórica. Algo que no encaja bien en el pensamiento inmobiliario aplicado a la geopolítica.

Cuando Trump reduce Groenlandia a “un barco danés hace quinientos años”, no solo yerra el dato —ni era danés, ni hace quinientos años—, sino que convierte mil años de historia en una caricatura televisiva. Es la misma lógica que permitiría cuestionar cualquier frontera que no haya sido dibujada esta misma mañana con rotulador permanente.

La ironía final es que Estados Unidos, el país desde el que se pronuncian estas frases, es uno de los ejemplos más claros de continuidad colonial: llegada europea, desplazamiento indígena, construcción estatal y legitimación posterior. No es una acusación moral; es un hecho histórico. Y precisamente por eso resulta tan llamativo que el argumento se use contra Groenlandia, un territorio donde el proceso fue más torpe, más discontinuo y, en algunos aspectos, menos brutal.

Como Thule en los tebeos del Capitán Trueno, Groenlandia sigue estando en el borde del mapa mental de muchos. Pero convendría recordar que, en ese borde, la historia no se deja resumir sin pelear. Y que, a veces, el hielo conserva mejor la memoria que la televisión.

domingo, 18 de enero de 2026

NO, INTERNET NO NACIÓ EN UN CUARTEL

 

Durante años se ha repetido una frase que suena tranquilizadora, casi reconfortante: tenemos Internet gracias a la investigación militar. Es una frase ordenada, jerárquica, con un aroma a despacho bien iluminado y decisiones firmes adoptadas entre estrellas y galones. Sugiere que alguien, en algún momento, supo exactamente lo que estaba haciendo y que el resultado es este caos organizado que usamos a diario para trabajar, discutir y ver vídeos de gatos.

El problema es que no es verdad. O, para ser más precisos, no es exactamente verdad. Internet no es un invento militar, aunque durante un tiempo fuera pagado por militares. Y esa diferencia, que parece menor, lo explica casi todo.

La historia suele empezar en ARPANET, una red creada a finales de los años sesenta por una agencia del Departamento de Defensa de Estados Unidos llamada ARPA, luego DARPA. A partir de ahí, el relato se simplifica peligrosamente: Defensa financia una red, por tanto, la red es militar. Pero esa lógica es como decir que las autopistas son inventos bélicos porque el Estado las paga. La financiación explica el contexto; no define el propósito.

ARPANET no se diseñó para dirigir guerras ni para resistir ataques nucleares, pese a lo mucho que se repite esa idea. De hecho, nadie en el proyecto estaba especialmente preocupado por las bombas atómicas. El problema que intentaban resolver era mucho más pedestre: los ordenadores eran enormes, carísimos y estaban infrautilizados. Las universidades y centros de investigación tenían máquinas potentes que solo podían usar unos pocos investigadores locales. La idea de conectarlas para compartir recursos parecía sensata, casi doméstica. Nada heroico. Nada estratégico. Simplemente práctico.

Mapa lógico de la ARPANET tal como existía en abril de 1971. Ilustra la estructura de la red, mostrando los nodos interconectados y los ordenadores anfitriones conectados a ellos. La red estaba compuesta por 15 Procesadores de Mensajes de Interfaz (IMP). Entre las instituciones clave conectadas se encontraban La Universidad de California Los Ángeles (UCLA), la Universidad de Stanford en California, el Instituto Tecnológico de Massachussets (MIT), la Universidad de Harvard y la RAND Corporation, un grupo estadounidense creado originalmente para asesorar a las Fuerzas Aéreas tras la Segunda Guerra Mundial. Varios ordenadores estaban conectados a los IMP, como el PDP-10, el IBM 1800 y el ILLIAC IV. El mapa muestra la etapa inicial de la red que más tarde se convertiría en la base del internet moderno. Fuente.

Quienes construyeron ARPANET no fueron generales ni estrategas, sino ingenieros, matemáticos e informáticos civiles, muchos de ellos universitarios con barba, gafas gruesas y una paciencia infinita para discutir protocolos. Los militares ponían el dinero, sí, pero no diseñaban la red ni dictaban su funcionamiento. De hecho, uno de los grandes aciertos del proyecto fue que los responsables políticos no entendían del todo qué se estaba haciendo. Eso permitió algo rarísimo en la administración pública: que los técnicos trabajaran con bastante libertad.

El correo electrónico, por ejemplo, no fue una orden ni una necesidad militar. Surgió porque era útil. Alguien escribió un programa para mandar mensajes entre ordenadores y, de repente, la red empezó a usarse más para comunicarse que para compartir capacidad de cálculo. Nadie lo había previsto. Nadie lo había autorizado formalmente. Simplemente funcionaba.

Lo mismo ocurrió con la arquitectura descentralizada de la red. No fue una genialidad estratégica pensada para sobrevivir a una guerra nuclear, sino una solución elegante a un problema técnico: qué hacer cuando un nodo falla. La respuesta fue repartir la inteligencia de la red y evitar puntos únicos de colapso. Una decisión técnica que luego adquirió un aura casi filosófica.

Hasta aquí, todo podría haber quedado en una curiosidad académica bien financiada. De hecho, si ARPANET hubiera sido un proyecto militar al uso, eso es exactamente lo que habría pasado. Habría sido cerrada, clasificada, limitada a unos pocos usuarios autorizados. No habría salido jamás de Estados Unidos y probablemente nadie fuera del Pentágono habría oído hablar de ella.

Pero ocurrió algo poco habitual. Los protocolos que hacían funcionar la red se hicieron públicos. Cuando en los años setenta y ochenta se desarrollaron TCP/IP, nadie los patentó, nadie los convirtió en un estándar propietario y nadie exigió licencias. Cualquiera podía usarlos. Cualquiera podía implementarlos. Cualquiera podía mejorarlos. Fue una decisión técnica que tuvo consecuencias políticas enormes.

Aquí aparece la pregunta clave: ¿por qué Estados Unidos permitió eso? ¿Por qué soltó el control? La respuesta corta es que no lo hizo por altruismo, sino por una combinación de pragmatismo, confianza institucional y un contexto histórico muy específico.

En primer lugar, porque el objetivo original ya estaba cumplido. ARPANET había servido para conectar centros de investigación y demostrar que el sistema funcionaba. Desde el punto de vista militar, el interés era limitado. No era un arma, no daba ventaja inmediata y no encajaba bien en la lógica de secreto que rige el mundo de la defensa.

En segundo lugar, porque el sistema académico estadounidense era —y sigue siendo— extraordinariamente influyente. Las universidades tenían peso, prestigio y capacidad de presión. Internet creció en un ecosistema donde compartir conocimiento era un valor central. Convertir la red en un coto cerrado habría sido ir contra la cultura que la había hecho posible.

En tercer lugar, porque Estados Unidos confiaba en su ventaja estructural. Liberar los protocolos no se percibía como una amenaza, sino como una oportunidad. Si el mundo iba a conectarse, mejor que lo hiciera usando estándares diseñados en universidades estadounidenses, con empresas estadounidenses listas para aprovecharlos. Y eso fue exactamente lo que ocurrió.

A finales de los años ochenta, el interés militar en la red se había evaporado casi por completo. ARPANET se apagó en 1990 sin ceremonias. Internet, en cambio, estaba a punto de empezar de verdad. Las universidades se conectaban entre sí, las empresas comenzaban a experimentar y la red dejaba de ser un experimento para convertirse en infraestructura.

El empujón definitivo llegó desde un lugar inesperado: el CERN, en Suiza. Allí, un físico británico propuso una forma sencilla de enlazar documentos usando hipertexto. No lo hizo para conquistar mercados ni para transformar el mundo, sino para que los científicos compartieran información sin volverse locos. Lo llamó World Wide Web y, en un gesto que hoy parece casi subversivo, lo liberó al dominio público.

La web no tiene absolutamente nada de militar. Es, si acaso, un invento burocrático: nació para organizar papeles. Pero era simple, gratuita y útil. Tres cualidades que suelen ser letales para cualquier sistema alternativo. A partir de ahí, Internet se convirtió en lo que conocemos: una red global, civil, caótica, comercial y profundamente humana.

El mito del Internet militar persiste porque simplifica una historia compleja y encaja bien con la narrativa de la Guerra Fría. También porque confunde financiación con autoría y porque da una falsa sensación de control. Es reconfortante pensar que alguien diseñó todo esto. La realidad es más inquietante: Internet no fue diseñado. Emergió.

Decir que tenemos Internet gracias a la investigación militar es como decir que tenemos la medicina moderna gracias a las guerras. Hay algo de verdad: dinero, urgencia, contexto. Pero lo decisivo no es la guerra, sino los médicos, los hospitales y la ética profesional. Con Internet ocurre lo mismo. Lo importante no fue el uniforme, sino la bata.

La formulación más honesta sería esta: Internet nació de investigación pública financiada en parte por el ámbito militar, pero fue concebida, desarrollada y expandida por científicos civiles y universidades, y se convirtió en lo que es gracias a su apertura, no a su origen.

O, dicho de forma menos elegante pero más clara: Internet no es un invento militar. Es un invento civil que tuvo la suerte —y la rareza histórica— de que quien pagaba supo cuándo apartarse y dejarlo crecer.

Eso, visto con perspectiva, puede que sea el verdadero milagro tecnológico del siglo XX.

VIAJAR EN EL TIEMPO, SEGÚN EL RELOJ

 

«El pasado es obstinado». La frase aparece en 22/11/63, la extraordinaria novela de Stephen King en la que un hombre intenta corregir una fecha concreta —la del asesinato de Kennedy— y descubre que el tiempo no acepta correcciones sin presentar una factura detallada. Cada intento de ajuste provoca un desorden mayor que el anterior. El tiempo, viene a decir King, es como un gato. Hace lo que quiere y se ofende si lo tocas.

En cierto modo, el viaje en el tiempo sí existe. Basta con tomar un avión de Lisboa a Ankara o a Moscú para desplazarse tres horas en el reloj. No cambia tu edad, ni tu carácter, ni tu cuenta bancaria, pero confunde lo suficiente como para que durante unos minutos no sepas si tienes hambre, sueño o ambas cosas a la vez.

Durante la mayor parte de la historia humana, esta clase de confusión no existía. Nadie necesitaba saber qué hora era en otra ciudad. Bastaba con mirar al cielo y aceptar que el mediodía llegaba cuando el sol decidía ponerse en lo alto. Era un sistema primitivo, sí, pero tenía una gran ventaja: funcionaba.

Hasta el siglo XIX, cada ciudad vivía en su propio presente. La hora era local, subjetiva y bastante flexible. Si el reloj de la plaza decía una cosa y el sol otra, se le daba la razón al sol. Y si alguien llegaba tarde, siempre podía culpar a la sombra de la torre.

El problema apareció con el ferrocarril, una invención extraordinaria que, además de transportar personas y mercancías, introdujo un concepto inquietante: la puntualidad compartida. De repente, no bastaba con salir “más o menos” a una hora. Había que salir exactamente a la misma hora que figuraba en un papel impreso. Eso fue el principio del fin.

Durante un tiempo se intentó convivir con el caos. En Estados Unidos, por ejemplo, llegaron a coexistir más de trescientas horas locales distintas. Algunas estaciones tenían varios relojes, cada uno marcando la hora correcta para una línea distinta. Era como un museo del tiempo, pero con trenes. Los viajeros aprendieron a vivir con ello. Perdían trenes, discutían con revisores y llegaban tarde a destinos que aún no sabían exactamente en qué hora vivían.

Este método de cronometraje se vio cuestionado en 1853 cuando, en Nueva Inglaterra, dos trenes que se dirigían uno hacia el otro, en la misma vía, colisionaron. Podría haberse evitado si los conductores hubieran tenido la misma hora en sus relojes. El desastre provocó la muerte de catorce pasajeros y diecisiete heridos, lo que puso de relieve los peligros de no contar con una hora ferroviaria estandarizada. Pero estandarizar la hora en los ferrocarriles norteamericanos resultó ser mucho más difícil de lo previsto, por lo que la idea estuvo prácticamente paralizada drente más de veinte años.

En 1878, Sir Sandford Fleming, ingeniero ferroviario canadiense, tuvo una idea revolucionaria. Inspirado por un error en un horario de trenes, cuando una confusión entre AM y PM le hizo perder su tren, Fleming ideó la creación de un reloj de veinticuatro horas (hora militar). Tras esta propuesta, Fleming concibió la idea de implementar otras tantas zonas horarias en todo el mundo. Las zonas horarias, según Fleming, tendrían cada una quince grados de longitud de ancho; en pocas palabras, una hora de ancho. 

El cálculo que ahora parece pan comido es que la Tierra gira 360° en un día, lo que, dividido entre veinticuatro se obtienen 15° y, ¡por lo tanto, zonas horarias iguales! Aunque inicialmente se enfrentaron a cierta resistencia, en 1883, las compañías ferroviarias de Estados Unidos decidieron operar en cuatro zonas horarias, y poco después, el resto del mundo siguió su ejemplo.

En 1884, se celebró en Washington la Conferencia Internacional del Meridiano, una reunión en la que representantes de varios países discutieron algo aparentemente sencillo: dónde empieza el mundo. Ganó Greenwich. No porque fuera el mejor sitio, sino porque los británicos ya lo usaban y tenían barcos en todas partes. Francia votó en contra, y durante décadas siguió usando su propio meridiano en París, porque el orgullo nacional también tiene huso horario.

Así como el Ecuador divide la Tierra en los hemisferios norte y sur, el meridiano de Greenwich divide la Tierra en los hemisferios este y oeste. Básicamente:

La latitud 0º es el Ecuador y sus líneas corren horizontalmente.

La longitud 0º es el meridiano de Greenwich y sus líneas corren verticalmente.

El Meridiano de Greenwich es importante porque sirve como punto de referencia para los mecanismos de medición del tiempo del mundo tal como los conocemos. El GMT (Tiempo Medio de Greenwich) es la base del sistema de husos horarios estándar.

Aunque sobre el papel, los husos horarios son elegantes franjas verticales limpias, ordenadas, casi racionales, en la realidad son una pesadilla cartográfica. Se doblan, se estiran y hacen curvas imposibles para no molestar a países, provincias, islas, intereses económicos o señores muy serios con bigote que un día dijeron “aquí no”.

Y es que, si bien la idea de Fleming de crear veinticuatro husos horarios perfectamente uniformes era lógica y parecía tener un amplio apoyo en su momento, no se mantuvo plenamente vigente por mucho tiempo. Si bien técnicamente existen veinticuatro husos horarios estándar, hoy en día existen entre treintaiocho y cuarenta reconocidos en todo el mundo. Esta discrepancia se debe en gran medida a que los países no siguen diferencias horarias de una hora completa con respecto al GMT, como India y Nepal, que operan en GMT+5:30 y GMT+5:45 respectivamente.

En el caso de la India, y de manera similar en China, la decisión de mantener una única zona horaria nacional fue impulsada por el liderazgo político con la intención de unificar el país bajo una hora estándar. La zona horaria de la India tiene también raíces históricas en el dominio colonial británico.

España vive en el mismo huso que Alemania, pese a que el sol insiste en comportarse como si estuviéramos en el de Portugal. Aunque hay quien sostiene que Franco cambió nuestro huso para adaptarlo al de los alemanes, nadie recuerda bien por qué ocurrió, pero como cambiarlo implicaría reuniones, informes y opiniones, se ha decidido que lo mejor es seguir tal y como estamos.

Rusia, cansada de cambiar el reloj dos veces al año, decidió dejar de hacerlo. Turquía hizo lo mismo. Otros países lo estudian, lo debaten, lo votan, lo posponen y vuelven a estudiarlo. El resultado es que el mapa horario europeo parece diseñado por alguien que empezó con entusiasmo y terminó con sueño.

Mientras que, siguiendo la lógica de Fleming, los científicos que viven en la Antártida simplemente usan el GMT, el continente se dividiría en veinticuatro pequeñas zonas horarias. ¡Qué manera de pasar la Nochevieja, celebrando el Año Nuevo a cada hora, todo el día! ¡Eso sí que es una fiesta!

Y es que nada de esto tiene que ver con el tiempo real. Los relojes no miden el tiempo: miden decisiones humanas. Decisiones políticas, económicas y sociales que aceptamos porque la alternativa —que cada uno viva al sol que más le caliente— sería aún más caótica.

Por eso viajar en avión produce esa sensación infantil de haber ganado o perdido horas sin merecerlo. No has hecho nada heroico. No estás en el mundo imaginario de detrás del espejo. Simplemente has cruzado una línea imaginaria que alguien dibujó hace más de un siglo para que los trenes no colisionaran.

Como advertía Stephen King, el tiempo no acepta bien las correcciones. Cada ajuste genera pequeñas molestias: jet lag, reuniones a horas absurdas, informativos que no coinciden, videollamadas en las que alguien bosteza siempre. Nada grave, pero todo constante.

La pregunta inevitable es por qué seguimos tocando el reloj, por qué continuamos modificando la hora si nadie parece estar satisfecho. La respuesta es decepcionante: porque ya estamos demasiado metidos en el lío. El sistema funciona lo suficiente como para que cambiarlo resulte aún más complicado que soportarlo.

El tiempo moderno es una infraestructura invisible. Como el alcantarillado o el wifi, solo pensamos en él cuando falla. Y cuando falla, suele hacerlo de madrugada, un domingo, con el reloj del microondas parpadeando y la vaga sensación de que alguien nos ha robado una hora de vida sin pedir permiso.

No hemos inventado la máquina del tiempo. Pero hemos creado algo quizá más inquietante: un sistema global que permite desplazarse por el tiempo administrativo con solo cruzar una frontera.

Y eso, para una especie que durante milenios se conformó con mirar al cielo y decir “más o menos ahora”, es un logro notable. O una advertencia. Depende de la hora a la que lo leas.

sábado, 17 de enero de 2026

EL ORIGEN ESTADOUNIDENSE DEL CAOS IRANÍ

El golpe de Estado de 1953 en Irán no fue un episodio aislado, sino el inicio de una cadena de decisiones que todavía hoy condicionan la política iraní y la de la Casa Blanca de Donald Trump.

Foto de Amnistía Internacional

No hay duda de que el caos que Irán vive estas semanas hunde sus raíces en un golpe de Estado que acabó con la incipiente democracia surgida de las elecciones libres celebradas en 1951. Desde entonces, los iraníes viven atrapados en una inestabilidad política y en una crisis económica que sigue llenando las calles de manifestantes abatidos a disparos por las fuerzas de seguridad.

En 1950, sin que nadie pareciera advertirlo del todo, Washington tomó una decisión que cambiaría la política internacional para siempre. La Guerra Fría estaba en marcha y los servicios de inteligencia estadounidenses habían señalado un punto rojo en el mapa: Irán. No tanto por lo que era, sino por dónde estaba.

Irán tenía petróleo. Mucho. Pero, sobre todo, tenía vecinos. Al norte, la Unión Soviética. Al oeste, Turquía e Irak. Al sur, Arabia Saudí y el Golfo Pérsico. Al este, Afganistán y Pakistán. Desde Teherán se podía vigilar media región, se controlaba el estrecho de Ormuz, la gran arteria petrolera del mundo por donde pasan el 30% del comercio global de petróleo y el 20% de gas natural licuado que Irán lleva años amenazando con bloquear, y, llegado el caso, proyectar fuerza sobre Israel, Líbano, Jordania o Siria. En geopolítica, eso no es un país: es una tentación.

Esa condición de territorio codiciado no era nueva. Irán —la antigua Persia— llevaba siglos acostumbrado a sobrevivir entre imperios. Fue un Estado que ya estaba organizado en el siglo VI antes de nuestra era, cuando Ciro el Grande fundó el Imperio aqueménida. Desde entonces, con conquistas, invasiones y dominaciones parciales, la idea de un Estado persa nunca desapareció del todo.

Alejandro Magno pasó por allí en el siglo IV antes de nuestra era. Los árabes musulmanes llegaron en el siglo VII. Los mongoles gobernaron entre los siglos XIII y XIV. Nadie “liberó” Irán de los mongoles: simplemente se diluyeron, se iranizaron y dejaron paso a nuevas dinastías locales. En Persia, incluso los conquistadores acaban pareciendo de la casa.

La reconstrucción de un Estado iraní fuerte y reconocible llegó en 1501, cuando Ismail I fundó la dinastía safávida. Unificó el territorio, expulsó rivales e impuso el chiismo duodecimano como religión oficial. Fue una decisión política más que espiritual, pero funcionó: dotó al país de una identidad propia frente a sus vecinos suníes.

Cuatro siglos después, en diciembre de 1925, el Parlamento iraní depuso a la debilitada dinastía kayar y proclamó sha a Reza Shah Pahlavi. No fue una revolución popular, sino una operación desde arriba. Reza Khan, un oficial cosaco, había dado un golpe de Estado en 1921 y desde el cargo de primer ministro fue acumulando poder mientras el último sha quedaba reducido a mero comparsa.

Con Reza Shah comenzó la construcción del Irán moderno: centralización, secularización, infraestructuras, debilitamiento del clero y de las élites tribales. Todo ello bajo un régimen autoritario, pero con ambición nacional. En 1935, incluso cambió el nombre del país: Persia pasó a llamarse oficialmente Irán.

La soberanía duró poco. En 1941, en plena Segunda Guerra Mundial, británicos y soviéticos ocuparon el país, forzaron la abdicación de Reza Shah y sentaron en el trono a su hijo, Mohammad Reza Pahlavi. El mensaje era claro: Irán era un corredor estratégico, no un Estado soberano.

Ese contexto abrió un breve paréntesis de libertad. El Parlamento recuperó peso, los partidos proliferaron, la prensa respiró. Y de ahí emergió Mohammad Mossadegh: aristócrata, nacionalista, legalista hasta la obsesión y enormemente popular. En 1951 fue nombrado primer ministro tras unas elecciones parlamentarias que el sha no promovió, pero tampoco pudo frenar.

Mossadegh había prometido algo sencillo y explosivo: que el petróleo iraní beneficiara a los iraníes. Nacionalizó los activos petrolíferos y, con ello, encendió todas las alarmas en Londres y Washington. El Reino Unido protestó. Estados Unidos calculó.

El presidente Eisenhower descartó una invasión directa. Irán estaba demasiado cerca de la URSS y nadie quería provocar una guerra nuclear. Pero la CIA tenía otra idea. Se llamaba Kermit Roosevelt, era nieto del antiguo presidente Theodore Roosevelt, y llegó a Teherán con maletas llenas de dólares.

Con ese dinero contrató matones, financió disturbios, sobornó funcionarios, compró voluntades y fabricó la sensación de que Mossadegh era un líder incapaz y detestado. En 1953 fue derrocado. Pasó por la cárcel y terminó el resto de su vida bajo arresto domiciliario.

El premio fue para el sha. Washington le otorgó poder absoluto, lo coronó como Shahanshah —Rey de reyes— y lo convirtió en garante de los intereses occidentales. Las compañías petrolíferas regresaron. Los contratos se multiplicaron. Irán volvió a ser fiable.

La CIA aprendió entonces una lección decisiva: con unos pocos millones de dólares se podía hacer el trabajo que antes exigía ejércitos enteros. Sin invasión. Sin titulares. Sin dar la cara. Sin que la mayoría de los estadounidenses supiera que su país acababa de derrocar una democracia.

El modelo se repetiría después en Guatemala, Chile y varios países africanos. Irán fue el ensayo general. Kermit Roosevelt había inaugurado una nueva forma de imperio: discreta, barata y eficaz.

Durante los años sesenta y setenta, Irán se llenó de asesores estadounidenses. Convencieron al sha de invertir los petrodólares en proyectos diseñados, gestionados y ejecutados por grandes corporaciones extranjeras. General Electric, Boeing, IBM, Citibank. Americanizar el país era una cuestión de estilo y de contratos.

Mientras tanto, la dictadura se iba pudriendo. La represión crecía. El apoyo social se evaporaba. En 1978, las protestas estallaron. El ayatolá Jomeini regresó del exilio. El sha huyó, enfermo de cáncer. Estados Unidos y Reino Unido le negaron asilo. Murió en Egipto atesorando una fortuna intacta de unos 4 000 millones de dólares que había obtenido saqueando el Banco nacional.

Los nuevos gobernantes iraníes gritaron contra el imperialismo estadounidense. Tomaron la embajada de Estados Unidos en Teherán y retuvieron a 52 diplomáticos durante 444 días. Las empresas estadounidenses fueron expulsadas. Todavía no han vuelto.

La actual inestabilidad política de Irán y los miles de muertos causados por la represión es consecuencia de la intervención de Estados Unidos. Trump ha advertido públicamente que la Casa Blanca no descarta ataques a objetivos militares iraníes como parte de su respuesta. Una respuesta a un problema de inestabilidad política que hunde sus raíces en la intervención desestabilizadora estadounidense hace casi setenta y cinco años.

El eterno retorno de lo mismo.


viernes, 16 de enero de 2026

ARISTOLOCHIA, UN ANTIGUO REMEDIO PARA LOS PARTOS

 

Aristolochia paucinervis. Foto de J. Fuentes

Vamos a empezar por la etimología. El nombre Aristolochia con el que Linneo denominó en 1753 a este género, procede del griego antiguo: áristos = “el mejor” y locheía = “parto” o “alumbramiento”. En resumen, aristolochía significa literalmente “la mejor para el parto”.

El término fue usado en la Antigüedad clásica porque varias especies del género se empleaban en la medicina grecorromana como remedios para facilitar el parto, estimular la expulsión de la placenta o tratar problemas ginecológicos. Autores como Hipócrates, Dioscórides y Galeno mencionan estas plantas con ese uso.

El nombre resulta hoy especialmente llamativo porque muchas especies de Aristolochia contienen ácidos aristolóquicos, compuestos altamente nefrotóxicos y carcinógenos. Es decir, una planta cuyo nombre significa “excelente para el parto” acabó siendo un ejemplo clásico de medicamento tradicional peligroso. En resumen, Aristolochia es un nombre botánico cargado de historia médica, optimismo terapéutico antiguo… y una buena dosis de ironía científica moderna.

Y ahora hablemos de botánica. El género Aristolochia, que da nombre a la familia a la que pertenece (Aristolochiaceae), comprende más de 500 especies de plantas herbáceas perennes o lianas leñosas, raramente arbustos. Muchas especies son trepadoras con tallos flexibles que se enrollan sobre soportes naturales. Otras son erectas o decumbentes (los tallos se arrastran paralelos al suelo para luego curvarse y levantarse). Los tallos suelen ser glabros (carentes de pelos) o ligeramente pubescentes (con un vello muy corto) y, en las formas leñosas, pueden lignificarse notablemente con la edad.

Las hojas son simples, alternas y pecioladas, generalmente grandes y de contorno cordiforme (con forma de corazón), reniforme (arriñonada) u ovado. La nerviación es palmeada, bien marcada, lo que confiere a la hoja un aspecto robusto y un tanto arcaico.

La flor de Aristolochia es uno de los ejemplos más singulares de las angiospermas, tanto por su morfología como por su función ecológica. Las flores se disponen solitarias o en pequeñas inflorescencias que nacen en la axila que forman las hojas donde surgen de los tallos.  Las flores son generalmente zigomorfas, es decir, tienen un solo plano de simetría que las divide en dos partes bilateralmente simétricas.

El perianto (de peris, alrededor, y anthos, flor) es el protagonista absoluto de las flores, que carecen de corola, es decir, no hay pétalos. El elemento visible es un cáliz petaloide, formado por tres sépalos soldados en una única estructura tubular.

(A) Flores de Aristolochia argentina. (B) sección longitudinal de las flores mostrando el ginostemo basal. Abreviaturas: l, limbo; g, ginostemo; t, tubo; u, utrículo. Fuente

Este tubo periántico se divide morfológicamente en tres regiones (véase la figura de arriba):

Utrículo basal: una cámara inflada donde quedan atrapados los insectos.

Tubo o trompa: parte estrecha y generalmente curvada.

Limbo: extremo distal expandido, a menudo en forma de lengua, embudo o bandera. En las flores tropicales el limbo puede ser espectacularmente grande, con colores que van del verde amarillento al púrpura oscuro, marrón o casi negro, frecuentemente con venaciones contrastadas o manchas que recuerdan a carne en descomposición.

La longitud del tubo o trompa que conecta el limbo y el utrículo es variable. El tubo es liso por fuera, mientras que el interior suele parecer más claro debido a la presencia de pequeños pelitos blancos (tricomas) dirigidos hacia abajo (retrorsos). La base del tubo termina en el utrículo, que externamente se observa en la curvatura del propio tubo formando un grueso collar alrededor de la entrada que se superpone a la flor a modo de cámara inflada donde quedan atrapados los insectos.

La parte masculina de la flor, el androceo, consta de seis estambres sésiles fusionados externamente con los estigmas del ovario (gineceo) en seis ramas estigmáticas formando en su conjunto una unidad funcional llamada ginostemo (de ginos, femenino, por el gineceo o parte femenina de una flor, y estemo, apócope de estambre). Las paredes internas del utrículo presentan manchas moradas rodeadas de mechones de tricomas que producen pequeñas cantidades de néctar.

Aristolochia bianorii. a) porte de la planta mostrando el único tubérculo basal. b, hoja cordiforme-lanceolada y flor. c, flor aislada, a la izquierda entera, a la derecha el dorso del limbo y del tubo; d, sección del utrículo inflado, a la izquierda mostrando los estambres, a la derecha con el ovario cortado repleto de semillas y, arriba, los estigmas (se han eliminado los estambres). e, el fruto es una cápsula, que en (f) aparece cortada en sección para mostrar las seis cavidades carpelares con semillas en su interior. Imagen tomada de Flora Iberica.

La polinización de muchas especies de Aristolochia es a través de un sofisticado sistema de polinización por engaño conocido como sapromiofilia, un término de origen grecolatino que se usa en biología para describir la atracción de ciertos organismos —especialmente insectos— por la materia orgánica en descomposición, en particular cadáveres o tejidos putrefactos. Su etimología se descompone así: saprós (“podrido”, “corrupto” o “en descomposición”), myía (“mosca”) y philia (“amor”, “afinidad”, “inclinación por”). El significado literal es, pues, “afinidad o atracción por lo podrido asociada a las moscas”.

De ahí que muchas especies emitan olores fétidos (cadaverina, putrescina) que atraen dípteros necrófagos. Los tricomas del tubo están orientados hacia abajo para impedir la salida del insecto, que queda temporalmente atrapado, se impregna de polen y, tras la fecundación, los tricomas se marchitan permitiendo su liberación. Este mecanismo convierte a la flor en una auténtica trampa biológica temporal, una rareza entre las plantas con flor.

El fruto es una cápsula, generalmente péndula, que al madurar se abre en valvas, liberando numerosas semillas planas, a menudo aladas o con expansiones membranosas que facilitan la dispersión por viento. 

Las seis especies españolas del género Aristolochia

En España hay seis especias nativas, que pueden separarse por la siguiente clave:

Clave sencilla para identificar las especies españolas de Aristolochia (ver la imagen adjunta)

1a. Flores en grupos (fascículos): A. clematidis (Cataluña y Baleares).
1b. Flores solitarias: 2

2a. Planta trepadora de flores púrpuras: A. baetica (sur de España, desde el Algarve a Levante y norte de África).
2b. Plantas no trepadoras: 3

3a. Hojas sin peciolo: A. rotunda (Cataluña y Levante).
3b. Hojas con peciolo: 4

4a. Margen de las hojas con un reborde cartilaginoso ondulado o denticulado: A. pistolochia (Península y Baleares).
4b. Margen delgado, no cartilaginoso ni denticulado: 5

5a. Tallos postrados: A. bianorii (Baleares).
5b. Tallos ascendentes. A. paucinervis (Península y Baleares).

jueves, 15 de enero de 2026

POR QUÉ LA ESCALA FAHRENHEIT PARECE UNA BROMA Y NO LO ES

 

Hay invenciones humanas que parecen concebidas expresamente para irritar a las generaciones futuras. La escala Fahrenheit es una de ellas. No porque no funcione —funciona estupendamente— sino porque parece diseñada por alguien que se levantó una mañana y pensó: “Voy a medir algo perfectamente natural usando números que no tengan ningún sentido evidente”.

Según esta escala, el agua se congela a 32 grados, hierve a 212, y el cero no coincide con ninguna de las dos cosas, ni siquiera intenta caer cerca. Es como si alguien hubiera numerado los pisos de un edificio empezando por el sótano, saltándose el tercero y llamando “ático” al quinto. Y, sin embargo, durante más de tres siglos millones de personas han vivido perfectamente bien con este sistema sin arder de indignación (aunque a veces sí de calor).

El responsable de todo esto fue Daniel Gabriel Fahrenheit, un físico del siglo XVIII que no tenía ni la más remota intención de fastidiarnos la vida. De hecho, su problema era exactamente el contrario: quería que las cosas funcionaran de una vez. En su época, medir la temperatura era un ejercicio cercano al arte adivinatorio. Dos termómetros distintos podían dar lecturas distintas para el mismo día, el mismo lugar y la misma habitación, lo cual no es ideal si uno intenta hacer ciencia y no simplemente comentar el tiempo mientras toma café.

Fahrenheit decidió que la única forma de imponer orden era fabricar termómetros fiables y, para ello, necesitaba una escala estable. Estable no en el sentido filosófico, sino práctico: que pudiera reproducirse en cualquier laboratorio sin depender de inviernos excepcionales, veranos tórridos o estados de ánimo del observador. Y ahí es donde empezó el problema, por el principio de todo sistema de medida: el cero.

Hoy damos por hecho que el cero debe significar algo profundo y solemne, como “nada”, “inicio” o “a partir de aquí pasan cosas importantes”. Pero en el siglo XVIII el cero era, ante todo, un número incómodo, y los números negativos eran vistos con una mezcla de sospecha matemática y anomalía estética. Fahrenheit decidió evitar ambos fijando el cero en la temperatura más baja que podía generar de forma fiable en su laboratorio: una mezcla de hielo, agua y sal. Un brebaje tan frío como poco apetecible, pero maravillosamente constante. Ese fue el 0 °F. Ni el frío absoluto, ni el invierno de 1709, ni el Polo Norte. Simplemente, lo más frío que puedo hacer sin cambiar de continente.

Una vez decidido el cero, Fahrenheit necesitaba puntos de referencia útiles. El primero era obvio: el punto de congelación del agua. Cuando lo midió en su escala recién creada, cayó en 32 grados. Y aquí ocurrió algo revelador: no hizo absolutamente nada al respecto. No redondeó, no reajustó, no pensó “qué número tan feo”. Aceptó el 32 con la seguridad de alguien que entiende que el mundo no tiene obligación alguna de ser elegante. El termómetro funcionaba. El punto era reproducible. Caso cerrado.

Después vino la temperatura del cuerpo humano, que le pareció un referente práctico y universal. Midió, probablemente en sí mismo o en alguien disponible y cooperativo, y obtuvo 96 grados. De nuevo, no 100, no un número bonito para los pósteres educativos, sino uno útil. Entre 32 y 96 hay 64 grados, una potencia de dos, lo que permitía dividir intervalos una y otra vez sin recurrir a fracciones endiabladas. Era una escala pensada para manos, no para pizarras; para artesanos, no para filósofos.

El último gran hito fue el punto de ebullición del agua, que resultó estar en 212 °F. Esto dejó exactamente 180 grados entre congelación y ebullición, un número extraordinariamente cooperativo. Divisible por casi todo, ideal para cálculos en una época sin calculadoras, sin hojas de cálculo y sin paciencia infinita. A esas alturas, la escala ya estaba completa. No era bonita, pero era sólida. Y, sobre todo, era consistente.

Lo que ocurre es que la escala Fahrenheit tuvo la mala suerte de ser comparada más tarde con la escala Celsius, que apareció cuando la ciencia ya había decidido que, además de funcionar, debía tener buena presencia. Celsius estableció que, por narices, el agua se congelara a 0 y hirviera a 100, creando una escala tan limpia y pedagógica que parece diseñada por un comité de profesores con regla y compás. Frente a eso, Fahrenheit parece un manuscrito medieval lleno de tachones.

Pero aquí viene la ironía: para la vida cotidiana, la escala  Fahrenheit es sorprendentemente buena. Tiene más grados en el mismo rango, lo que permite describir cambios pequeños pero perceptibles. Entre 68 y 72 °F hay una diferencia clara que cualquiera nota al salir de casa. En Celsius, 20 y 22 grados parecen casi la misma cosa, como si el clima se encogiera de hombros. Fahrenheit, en cambio, susurra matices. Es una escala con oído fino.

Por eso, cuando los estadounidenses hablan del tiempo en Fahrenheit, suenan extraordinariamente precisos, como si el clima estuviera afinado al milímetro. No es que la escala sea más científica; es que es más gradual. Está ajustada a la experiencia humana, no a la elegancia conceptual.

Así que la escala Fahrenheit no es complicada porque sea mala, sino porque es antigua. Nació antes de que la ciencia decidiera que debía ser intuitiva, bonita y fácil de explicar a adolescentes. Nació en un mundo donde lo importante era que dos instrumentos distintos dijeran lo mismo, aunque los números parecieran sacados de una rifa. Y lo consiguió.

Al final, Fahrenheit no nos dejó una escala absurda, sino un fósil funcional: algo que no encaja del todo con nuestras expectativas modernas, pero que sigue haciendo su trabajo con una dignidad imperturbable. Como muchas reliquias del siglo XVIII, no tiene sentido a primera vista, pero basta usarla un rato para darse cuenta de que, por extraño que parezca, sabe exactamente lo que está haciendo.