En esta columna quincenal, analizo un tema social vigente y ofrezco mi opinión en alrededor de 500 palabras (*)

* Se sabe que un(a) lector(a) promedio lee 250 palabras por minuto

In this biweekly column, I analyze a current societal issue, and render my opinion in about 500 words (*)

* It is known that an average person reads 250 words per minute

#48 Navidad y regalos (15.12.22)

Por Daniel Callo-Concha

La noche del 24 de diciembre, más de dos mil millones de personas celebran la natividad, navidad o el nacimiento de Jesucristo. La fecha se no instituyó en el año cero, cuando supuestamente nació Jesús, sino en el año 336, decidida por el liderazgo de la entonces emergente religión cristiana. ¿La razón?, que coincidiera con el solsticio de invierno, celebrado por varias religiones en pueblos del Levante y Medio Oriente, a fin de facilitar la adopción del cristianismo por tales pueblos.

La tradición de regalar, se cree, deriva de los que le hicieron los Reyes Magos, representantes de las culturas situadas al este de Judea al recién nacido Jesús, ofreciéndole oro, mirra e incienso, que, si bien eran bienes preciosos, al caso tenían un valor simbólico. Hoy, nuestra cultura del regalo navideño tiene poco que ver con su origen. La llamada “estación navideña”, es responsable del mayor hipo de compra-venta del año. La tradición ha trascendido su origen religioso y cristianos como no cristianos se rinden ante ella: el volumen de las transacciones comerciales no ha dejado de crecer en los últimos cien años, con raras excepciones. Para lograr tal éxito, los “mercaderes”, como les llamaban los viejos cristianos, han vinculado el regalar con los valores más preciados de cada sociedad y con ello lo transformado un gesto en una convención, una obligación y hasta una necesidad.

Taladrada en nuestros cerebros la cultura del regalar, algunos científicos han examinado cómo esta funciona y determina nuestras relaciones sociales. Las lecciones son variadas y a menudo paradójicas: para empezar, es bien sabido que recibir un regalo condiciona a quien lo recibe a dar uno de vuelta, lo que ya de por sí menoscaba su intención; en la misma línea, el precio del regalo coarta también, no se responde con una caja de chocolates a recibir un teléfono inteligente, al menos que provenga de los abuelos, padres, o alguien mayor, cuando la reciprocidad se cancela. Pero más allá del precio o valor del regalo, los psicólogos han parametrizado que quienes regalan y quienes reciben regalos guardan expectativas diferentes, el primero tiende a apreciar la forma en que se hace el regalo y la reacción de quien lo recibe, mientras que el segundo, tiende a valorar su utilidad y conveniencia. Lo que es fácil de notar al observar a unos y otros durante el intercambio. 

Como éstas, hay varias sutilezas que causan que el regalo no esté a la altura de su propósito. Tal vez sumando todo esto, en 1993, el economista J. Waldfogel publicó un artículo ya clásico del tema “El peso muerto de la Navidad”. La tesis es avasalladoramente simple, si uno se regala un bien valorado en 100 a sí mismo, se asume que la inversión es óptima, pues, ¿quién mejor que uno para saber qué es lo que uno quiere? Alternativamente, cuando alguien regala un presente valorado en 100 a otro, éste, por lo general no satisfará al recipiente a plenitud, por la razón expuesta antes, lo que le quitará valor en la estima de su nuevo propietario; es decir, valdrá menos de 100; es decir, el regalo habrá hecho más pobre a su nuevo dueño. ¿Un ejemplo? Darle una camisa a quien tiene muchas; ¿uno extremo? una caja de vino a un abstemio.  Waldfogel calculó que la pérdida de utilidad de estos regalos navideños varía entre 10 y 30% de su precio. Así las cosas, el pueblo que más regala, los Estados Unidos, sumaría para el 2022 con tales “pesos muertos” alrededor de 35 mil millones USD, lo que es superior al producto bruto interno anual de Jamaica… 

Sin embargo, no todo es tan gris. La investigación ha revelado también que regalar experiencias como subir una montaña, una clase de cocina o saltar en paracaídas, a la larga se aprecian más que recibir algo material; y por supuesto, los regalos sentimentales, como un poema enmarcado, algo hecho por uno mismo o una serenata, terminan siendo invaluables. Tal vez algo en que pensar en esta estación de consumo. 

Y por si alguien se lo pregunta, esta navidad recibo el mejor regalo posible: la persona que más me ama está de visita.

15.12.22

PD. Como la vez anterior, el tiempo de familia amerita una pausa, que esta vez se extenderá hasta febrero. ¡Buenas fiestas y buen inicio de año!

#47 Cuentos del cripto (01.12.22)

Por Daniel Callo-Concha

A fines del 2021 las criptomonedas, cadenas de bloque y toda la parafernalia alrededor de ellas había explotado en un boom de ganancias, réditos y dividendos sin precedentes. Su valor de mercado había crecido doce veces en el caso de Bitcoin y 40 veces en el de Ethereum, sólo para citar las dos criptomonedas más populares. Su valor en conjunto alcanzó el medio billón de USD, llegaron a cotizar en la bolsa, compañías internacionales las comenzaron a usar y hasta un gobierno (El Salvador) adoptó una como moneda oficial. 

Este año, las criptomonedas siguen copando las noticias, pero las malas noticias. Uno tras otro, emprendimientos relacionados a ellas han ido colapsando. Un par de ejemplos: en mayo, Terra, una criptomoneda “estable” cayó diez centavos USD en su cotización, pero al hacerlo arrastró a Luna, otra criptomoneda, que pasó de valer 120 USD a cero en un pestañeo. En noviembre, se supo que FTX, una agencia de intercambio entre criptomonedas y monedas estándar, usaba el dinero de sus inversionistas para financiar otra compañía de su propietario, que emitía su propia criptomoneda; esto desató la fuga de los inversores y su expedita declaratoria de quiebra. Las compañías reseñadas se cotizaban en 40 y 32 mil millones USD cada una, y las transacciones que operaban superaban los cientos de miles de millones USD. Este dinero real provenía de inversionistas y especuladores: entre los que había potentados y corporaciones, pero también de millones de personas comunes y corrientes, quienes las adquirieron, apostando a que sus cotizaciones no dejaran de crecer. Lo que es cierto, es que el dinero que inflaba las billeteras virtuales de unos y otros, se ha evaporado sin más.

El cómo esta anomalía monetaria ha devenido en tal, cuestiona el funcionamiento de los sistemas financieros, o más específicamente, su pasividad ante algo tan notoriamente discordante con los principios de la economía y las finanzas. En una década tropillas de jóvenes emprendedores, tan listos como transgresores, se aliaron para inventar un ecosistema para producirlas, crear mercados, negociar con ellas, y claro, a medida que su cobertura crecía, especular con las criptomonedas. El cripto se alimenta no, como solía prescribir la economía, de actividades creadoras de bienes y servicios tangibles creados con inversiones de capital y trabajo, sino de inversionistas que esperaban en la fila a cambio de crecientes dividendos. La justificación, que duró lo que le tomó a la codicia sobrepasarla, era crear una alternativa a los sistemas monetarios centralizados (como el dólar o el euro), en la que la moneda se “crea” a través de su circulación en cadenas de bloques, que son enormes redes de computadoras interconectadas operando innumerables transacciones por minuto.

Algunas caras del cripto dejan entrever su endeble naturaleza. Su último “héroe” en desgracia, el treintañero Sam Bankman-Fried, dueño de FTX (señalado arriba), en pocos años pasó de practicante en una firma de compra-venta a dueño de múltiples cripto-empresas y amasar un patrimonio de 10 mil millones USD. El Sr. Bankman-Fried exhibía un estilo de vida modesto, pero le gustaba aparecer con presidentes y celebridades, y financiar mastodónticamente causas políticas y filantrópicas. Al mismo tiempo, no le apenaba contar cómo operaba su emprendimiento: cambiar dinero a cierta criptomoneda en algún lugar del planeta y venderla en algún otro, eludiendo regulaciones en lo posible, y de acuerdo al volumen de la transacción, ganar algunos millones por vez…

Pero más sorprendente todavía que la cripto-burbuja, es la ambivalente actitud al respecto del establishment financiero. Aun cuando 8 premios nobel en economía no han dudado en llamarle estafa, instituciones, comunidades y analistas de toda laya siguen apañando al cripto, etiquetándole como “innovación” y elucubrando sobre sus “posibilidades”, normalizando algo que es económicamente inviable y llanamente inmoral. Tal vez porque detrás persiste la posibilidad de “hacer” dinero, y agazapada ahí, una ubicua y triste cualidad que ha venido a caracterizarnos y a nuestro tiempo: la angurria.

#46 Pérdidas y daños (17.11.22)

Por Daniel Callo-Concha

Escribí el artículo de abajo el jueves de la semana pasada. El sábado que siguió, durante la jornada final de la COP y tras un debate que se extendió hasta la madrugada del domingo, se acordó el establecimiento de un fondo para pérdidas y daños en países especialmente vulnerables. Éste sólo fue posible por la presión ejercida por la Unión Europea sobre otros bloques emisores. Está por ver cómo se va a operacionalizar tal fondo, hasta se ha sugerido la reforma del sistema financiero. 

Esta es sin duda una buena noticia, que me obliga, lo que hago con gran con gusto, a desdecirme.

--

Hace 30 años, invocada por la Organización de Naciones Unidas, tuvo lugar la Cumbre de la Tierra, una reunión extraordinaria para confrontar la entonces emergente crisis ambiental y promover el desarrollo sostenible. Tres temas fueron señalados cruciales: el calentamiento global, la pérdida de la biodiversidad y la desertificación. Para discutir e implementar medidas para cada uno, se establecieron foros ad hoc llamados Convenciones, que operan a través de reuniones periódicas, que vinieron a llamarse Conferencias de las Partes o COP.

Durante estos días tiene lugar la COP27 de la Convención Marco sobre el Cambio Climático, en el complejo hotelero de Sharmel Sheikh, un paraíso turístico en la costa del Mar Rojo egipcio. Durante dos semanas, 35 000 representantes de los 197 países firmantes buscan acordar y definir acciones para contener los efectos del cambio climático, las que, debe decirse, después 26 COPs y 30 años, no suelen estar a la altura del apremio

Hasta ahora, existen dos mecanismos por los que la Convención intenta paliar los efectos del cambio climático: mitigación y adaptación. En el primero, se promueven medidas que amortigüen los impactos, buscando contener el menoscabo y prolongar los plazos para continuar operando como hasta ahora; en el segundo, se fomenta el ajuste progresivo que permita sostener las mismas actividades, aunque con cambios obligados. Tanto mitigación como adaptación, dependen de la innovación científica y tecnológica, y de ajustes institucionales, de infraestructura o de comportamiento, entre muchos otros, por lo que la inyección de dinero es imprescindible. 

Dada la polarización entre Norte y Sur, eufemismos para distinguir a los países industrializados, históricamente contaminantes y con altos estándares de vida, de los países con economías débiles o emergentes, con emisiones mínimas o de reciente crecimiento y estilos de vida en alza. Se asumió que el financiamiento para implementar las medidas de mitigación y adaptación correría por cuenta del Norte. Pero apenas hasta la COP16 en 2009, se estableció un monto formal: 100 billones USD por año, que, dicho sea de paso, no se han abonado ni una vez completamente.   

Acaso por ello, y tratándose de la primera vez que la COP se realiza en África, el foco y el tono de ésta difiere de las anteriores pues ha dado cabida al concepto de Pérdida y Daño (Loss and Damage en inglés), que explicita el reclamo por justicia climática incubado por los países del Sur durante décadas. Se demanda que los efectos más destructivos del cambio climático, que no pueden evitarse por los mecanismos de mitigación o adaptación, sean atendidos. Esquemáticamente, las pérdidas y daños ocasionadas por inundaciones, sequías o incendios en los países más vulnerables y poco contaminantes, deberían ser cubiertas por los países más contaminantes, pues se asume las causaron indirectamente. Algunos científicos investigan cómo estimar estos valores y asignar responsabilidades; demandas por daños de comunidades a corporaciones crean precedentes judiciales; y ahora, en esta COP se intenta que pérdidas y daños pase de concepto a mecanismo.

Independientemente del aroma a justicia que emana la propuesta, está claro que los antecedentes de reclamo por compensación, reparación, deuda histórica o variantes de aquel tipo, llevan las de perder. Los países señalados en deuda raramente suelen aceptarlas, y más raramente aún honrarlas. Por el contrario, lo común es desentenderse de las acciones ancestrales y priorizar las urgencias del momento. Con todo, y aceptando no tener todas con uno, no hay que olvidar que la justicia es derecho y deber, y antes de eso virtud, y hacerla notar cuando se la reconoce es lo primero que hay que hacer.

#45 El innoble nobel (03.11.22)

Por Daniel Callo-Concha

Cada año a inicios de octubre, los ojos del mundo se vuelven hacia Estocolmo aguardando el anuncio de los recipientes del premio Nobel. De los seis existentes, cuatro se consideran científicos y son otorgados a contribuciones en medicina, física, química y economía; uno se da al mérito artístico, en literatura; y el último, a la aportación de individuos u organizaciones para el establecimiento y logro de la paz entre las naciones. Con más de cien años de existencia (con excepción de el de economía, que se instituyó en 1968), el Nobel es considerado el reconocimiento científico más prestigioso, lo que convierte a quienes lo han recibido en habitantes de un elíseo intelectual. 

No obstante, existen numerosos galardones científicos igualmente significativos, algunos más exclusivos, como la medalla Fields de matemática, que se ofrece sólo cada 4 años; financieramente más dotados, como el Breakthrough prize, que otorga 3 millones de dólares a quien lo recibe; u otros que superponen el valor humanitario sobre el intelectual, como el Right Livelihood Award, también conocido como el premio nobel alternativo. Y como éste existe una retahíla de premios etiquetados así: el nobel de tecnología, el nobel ambiental, el nobel asiático o el baby nobel, pero ninguno tan simpático como el premio Ig nobel, un juego de palabras en inglés que combina ignoble -que significa innoble-, y claro, Nobel.

Instituido hace 32 años los premios Ig nobel se entregan a científicos cuyos trabajos hayan resultado especialmente “inusuales e imaginativos”, eufemismos para decir chistosos. El comité que los elige, edita la revista pseudo científica "Anales de Investigación Improbable" (de acrónimo AIR, aire en inglés), y resume elegantemente la filosofía e intención del premio con el lema: “hacer primero reír para luego pensar”. Los Ig nobel además de las categorías de su afamado inspirador: física, medicina, química, paz y literatura (economía brilla por su ausencia), ofrece también la distinción en ingeniería, salud pública, biología e investigación interdisciplinaria, con lo que, debe admitirse, le lleva una sana ventaja al viejo Nobel.

Fieles a su lema, los Ig nobel han dado esclarecidos ejemplos de candidez, como el de física de 2014, otorgado a un grupo japonés por explicar la mecánica detrás del resbalón en una cáscara de plátano; o el de física de 2002 a un equipo alemán, que formuló una ecuación para calcular la duración de la espuma en la cerveza. El de biología de 1994 fue ganado por cuatro científicos norteamericanos que encuestaron a una brigada de soldados en Irak sobre sus funciones intestinales, concluyendo que el estreñimiento era inherente al servicio. Tres especialistas japoneses fueron premiados con el Ig nobel de la paz, por su investigación sobre la comunicación entre especies, en la que codificaron ladridos y movimientos de perros con significados humanos e incluso a partir de este trabajo, se produjo un aparato traductor, sí, perro-hombre solamente. El Ig nobel también ha servido para elucidar cuestiones que han agobiado el imaginario popular, como la supuesta correlación entre el tamaño de los pies y el del pene: no la hay (estadística, 1993); por qué la tostada cae siempre del lado untado: depende de la altura (física, 1996); o por qué las mujeres embarazadas no se caen de bruces: ciertamente un magnífico diseño (física, 2009).

Aunque los Ig nobel los ganan por lo general científicos, hay varios, digamos, aplicados, como los dados a la mejor manera de transportar un rinoceronte en helicóptero (ingeniería, 2021), la construcción de una armadura para resistir el ataque de un oso -probada por su inventor, dicho sea de paso- (ingeniería, 1998), o la invención de un corpiño convertible en mascarillas sanitarias (salud pública, 2009). A veces los premios tienen un tono dulcemente crítico, como el de matemática del 2011, concedido a seis individuos, varios de ellos líderes religiosos, quienes predijeron fechas específicas para el advenimiento del apocalipsis. Está de más decir el porqué del galardón. 

Espero que esta reseña justifique por qué algunos esperamos los Ig nobel con un poco de novelería, e inevitablemente, juguetear con ideas que lo merezcan, cosa que espero algunos lectores estén haciendo ahora…

#44 Causas y Azares (20.10.22)

Por Daniel Callo-Concha

He tomado prestado el título de la bella canción de Silvio Rodríguez por una buena causa, acercarnos a cómo se usa y abusa de la causalidad en la ciencia. En una columna anterior elucubré sobre cómo la causalidad se había convertido en el esquema mental más recurrido para identificar y prever las causas y consecuencias de cualquier fenómeno, y subrayado la peligrosa imprecisión de tal ejercicio. Mas esta crítica no desconoce que la asociación entre dos fenómenos pueda ser real y clave en la adquisición de conocimiento y para tomar decisiones, aunque en ocasiones el azar se vaya enredando…

Los mejores -y peores- ejemplos de causalidad son las reseñas de estudios científicos en los medios, que por ejemplo, asocian el consumo de una copa de vino con llegar a los 90 años, hacer ejercicio 30 minutos con lograr una salud ideal, o fumar un cigarrillo con la pérdida de cinco minutos de vida. Debe decirse, que estas afirmaciones no son causales. La ocurrencia de un evento no provocará el otro, y esto es así por los llamados “factores de confusión” (del inglés confounders), que ilustraré a continuación: dos personas que tomen una copa de vino, caminen 30 minutos y fumen un cigarrillo cada día, seguramente mantendrán estados de salud dispares y morirán a edades distintas, y esto no se deberá a sus hábitos, sino a las muchas variables inherentes a sus vidas diferentes. Lo que los estudios científicos refieren en esos ejemplos es más bien la correlación, que es un cierto grado de asociación no causal, ciertamente vano en inferencia.

Hay otras asociaciones que aun siendo groseras reflejan cualidades estructurales de un fenómeno. En ciencias sociales, los estadísticos, demógrafos y economistas las buscan con tesón, y los políticos las aprecian por su potencial instrumentalización. Es el caso de la probada correlación entre una adecuada nutrición infantil y el desempeño intelectual y físico como adulto, que ha servido para instituir en todo el mundo programas de alimentación escolar. Otro caso, éste trágico, se ha identificado recientemente en los Estados Unidos, al correlacionar las “muertes por desesperación” con el nivel educativo: sucede que las personas que carecen de educación universitaria mueren desproporcionadamente por suicidio, alcoholismo y sobredosis de drogas, cifra que ha crecido tres veces desde el 2000 y ya araña los 70 mil decesos por año. Hallazgo que ha llevado a cuestionar el modelo capitalista estadounidense de "ganadores" y "perdedores".

Un tercer tipo de asociación apreciada por algunos científicos está basado en la observación e identificación de patrones repetitivos en fenómenos que guardan alguna similitud. Llamados modelos heurísticos, éstos tienen la virtud de haberse probado empíricamente, al punto que su ocurrencia sea previsible y hasta se la etiquete de sentido común. Por ejemplo, los ciclos de auge y caída, aplican en historia, política o economía, tanto como en psicología, ecología o cosmología. A partir de ellos sabemos que el desarrollo cultural y económico de una sociedad eventualmente languidecerá y se convertirá en una más entre otras; al igual que podemos predecir que un régimen por más poderoso y autoritario que sea, terminará por sucumbir y dar lugar a otro. Aunque, eso sí, no sabemos cuándo ocurrirá, que tal vez sea la razón para que siguen apareciendo naciones imperialistas y dictadores abusivos, miopes a lo efímero de sus existencias.

Seguramente esta breve reseña no hará mucho para prevenir las innumerables falacias en las que incurrimos al “descubrir” causalidades, pero espero al menos nos haga repensar las que conocemos y reflexionar ante las que nos vayamos encontrando. Como perro que ladra no muerde; o que por ser mujeres ellas son peores conductoras; o una especialmente infeliz, que ser científico hace a las personas aburridas. 

#43 Internet y Democracia (06.10.22)

Por Daniel Callo-Concha

El 17 de septiembre pasado, Mahsa Amini, una mujer iraní de 22 años fue detenida por la ‘policía de la moral’ de su país, porque su hiyab, pañuelo que debía cubrir su cabello, no lo hacía del todo. Después de algunas horas de arresto, Amini fue llevada a un hospital donde se la declaró en coma y tres días después murió. El gobierno alega que la joven sufrió un paro cardiaco, pero su familia acusa a la policía de haberla golpeado hasta matarla. Lo que siguió fue una reacción en cadena, donde mujeres en todo el país protestaron quemando sus velos y cortándose el cabello. Poco después, los hombres se les unieron para reclamar reformas políticas, sociales y religiosas, y finalmente el cambio del régimen islámico. Al escribir esto, las protestas llevan ya cuatro semanas y no parecen amainar, a pesar de que los muertos se acercan a 200.

Aunque trágica por sí misma, la protesta de Irán no es extraordinaria. En las dos últimas décadas movimientos sociales similares han ocurrido en todo el mundo: la Primavera Árabe (2010), Occupy (2011), Black Lives Matter (2013) y Me Too (2017) son los ejemplos más emblemáticos. En América Latina, las hubieron también debido a detonantes varios, como el alza de precios del transporte en Brasil (2013), el retiro de subsidios al combustible en Ecuador (2019), la subida del boleto de metro en Chile (2019), la reforma tributaria en Colombia (2019), la reelección forzada de Evo Morales en Bolivia (2020) y la imposición de un gobierno ilegítimo en el Perú (2020). Movilizaciones que por su tamaño, ímpetu o persistencia obligaron a profundas reformas políticas, que llegaron a incluir cambios de gobierno.

Lo que tienen en común estas movilizaciones, ya sea para difundir ideas, desencadenar reacciones u organizar acciones, es su origen y propagación a través del internet y sus redes sociales, lo que resulta fácil, barato, trasciende fronteras y ocurre en tiempo real. El asombroso poder de convocatoria de estas plataformas radica en su capacidad para conectar individuos con ideas e intenciones similares, quienes las reafirman a medida que los intercambios se intensifican, y crecen dando lugar a grupos masivos con los mismos idearios y objetivos. En poco más de una década el activismo online se ha convertido en el principal medio de comunicación y organización de movimientos sociales en todo el mundo, y logra en pocas semanas lo que en el pasado requería de años.

Pero el optimismo que aureola estas movilizaciones se está moderando. Tanto hay ejemplos de éxito, como los hay de fracaso, el de la Primavera Árabe, tal vez el más lamentable. Tras 12 años de su acaecimiento, en casi todos los países que entonces reclamaban gobiernos democráticos, se han instalado dictaduras o han estallado guerras civiles. Algunos regímenes, como los de Corea del Norte o Myanmar, previenen la organización social restringiendo total o parcialmente el uso del internet, y otros, como el chino, crean redes sociales alternativas, sobre las que tienen control.

Pero puede que el internet y el participación política tengan otro camino. Hace diez años platicaba con un emprendedor digital que cuestionaba -como muchos hoy- la democracia representativa, y sugería a cambio una directa que operase a través del internet. ¿Ingenuo? Las votaciones electrónicas (en dispositivos fijos) se usan desde hace décadas, y las digitales (votar directamente online) se ensaya en varios países, por ejemplo para saldar referéndums regionales y tomar decisiones y ejecutar medidas, ahora sí, democrática y rápidamente.

Aunque los riesgos de manipulación son enormes, como ya vimos en los recientes incidentes protagonizados por Facebook y Twitter, la cambiante dinámica social y el apremio por decisiones democráticas requieren de procedimientos expeditos, los que probablemente transitarán por las avenidas del internet.

#42 La medida de todas las cosas (22.09.22)

Por Daniel Callo-Concha

La historia de los sistemas de medición, las unidades de medida, y lo que se deriva de ellas: las mediciones mismas, configuran un fascinante recodo histórico, del que pueden extraerse interesantes lecciones sobre la creatividad, la necesidad y el apego de las sociedades.

Al inicio, la mano, el brazo y los pasos fueron las unidades para medir la longitud y el área; y la noche, los ciclos lunares y las estaciones las que se usaron para medir el tiempo. Mas pronto, al darse cuenta de los límites de la anatomía y los ciclos naturales, nuestros ancestros crearon patrones como el codo (la distancia del antebrazo al dedo medio de algún gobernante), el shekel (un cierto número de granos de trigo) y el segundo (la división sucesiva por 60 de un año de 360 días) para medir la distancia, el volumen y el tiempo. Lo que siguió fue la creación de múltiplos y submúltiplos, y cuando la necesidad apremiaba, la invención de una unidad nueva, con frecuencia a partir de la combinación de las primeras.

Los ejemplos de arriba acontecieron en Egipto y Mesopotamia hace 5000 años, pero cada cultura que se precie de serlo desarrolló sus propios sistemas de medición y unidades. Con el tiempo, las diferencias entre estos debieron ser causas de malentendidos entre culturas al efectuar intercambios, y ya sea por conveniencia o a la fuerza algunos sistemas prevalecieron sobre otros. Tal vez el más extendido hasta la era contemporánea fue el imperial, implantado por los ingleses en sus colonias por todo el planeta en tono de edicto, aun así, no era más que uno entre muchos otros.

Dos cuestiones cambiaron esta situación: el que los sistemas de medición hayan sido impuestos y la creciente necesidad de estandarización para evitar malentendidos. Los enciclopedistas de la revolución francesa propusieron que las unidades de medida no fueran arbitrarias, sino derivaran de la naturaleza, y simbólicamente establecieron el metro, la diezmillonésima parte de la distancia del polo al ecuador, como unidad de longitud. La precisa medida del metro y las otras unidades estándar componen una historia aparte, pero lo que está claro es que su éxito como estándar, se debió en gran medida a su base decimal, por lo que el cálculo de múltiplos y submúltiplos se facilitó grandemente.

Aunque ya existía desde finales del siglo XVIII, el llamado Sistema Internacional de Unidades (SI) sólo fue propuesto como estándar global en 1875 y oficialmente establecido en 1960. Desde entonces ha sido adoptado oficialmente por casi todos los países del planeta, con la visible excepción de los Estados Unidos de América, además de Liberia en África del oeste y Myanmar en el sur de Asia.

Mas la historia de las unidades de medida no ha terminado. Tanto así que su cálculo preciso sigue en revisión, el último tuvo lugar apenas en el 2018 y es tan intrincado que sus especialistas lo defienden citando a Plank: “[las unidades de medida deben] conservar su validez para todas las épocas y culturas, incluso extraterrestres y no humanas". Igualmente, a las innumerables unidades que los científicos naturales crearon por necesidad, se han ido sumando otras, como el parsec (que mide la distancia astronómica), el bit (la información en computación), el dol (el dolor), el megadeath (la destrucción atómica) o el micromort (la probabilidad de muerte). 

Sin embargo, las unidades de medida consuetudinarias no se han extinguido, siguen conviviendo con las del SI y el imperial, ya sea para medir el valor de una joya, el grano cosechado o un vaso de cerveza, y tras 5000 años siguen llevando a confusiones. Una notable ocurrió en 1999, cuando el Surveyor 98, una nave espacial enviada por la NASA para descender suavemente en Marte se estrelló aparatosamente en la superficie, porque quienes la operaban enviaron los datos de navegación en un sistema de medición distinto al que decodificaba la nave…

A menudo, la cita de Protágoras: “El hombre es la medida de todas las cosas” se usa para justificar la invención de los sistemas de medición; pero la frase que continúa: “(…) de las que son en cuanto que son, [tanto como] de las que no son en cuanto que no son”, descifra mejor su intención: medir para entender, medir para convivir, medir para ser.

#41 Yonquis o enfermos (08.09.22)

Por Daniel Callo-Concha

La liberalización, descriminalización, despenalización y legalización de las drogas componen un debate antiguo en occidente, cuyos resultados tienden a favorecerlas; con la saltante excepción de América Latina, donde a pesar de que las posiciones a favor y en contra se equivalen, las decisiones políticas son consistentemente en contra, y por lo general, incitadas por la agenda de política exterior de los Estados Unidos.

Por ello, el discurso de toma de mando del Sr. Gustavo Petro, nuevo presidente de Colombia, denunciando que las políticas antidrogas en la región habían fracasado y era momento de cambiarlas, ha repuesto el asunto en el ojo público. Aunque el tema es multifacético y complejo, la economía, criminalidad y corrupción suelen relievarse sobre las pérdidas humanas, en lo que el Sr. Petro incidió, argumentando que, en los últimos 40 años, tales políticas habían causado un millón de asesinatos y costaban 70 000 vidas por año sólo por sobredosis. En el cúmulo de medidas punitivas de la estrategia antidrogas, tal vez la menos sustentada es la criminalización de su consumo, que es de lo que va el resto de esta columna. 

En las últimas décadas el fenómeno de la adicción humana se ha estudiado de forma profusa y multidisciplinaria. Neurobiólogos, psicólogos, sociólogos y genetistas entre otros, desentrañan su funcionamiento y mecanismos. Aquí, la dopamina, un neurotransmisor (substancia que conecta las células del sistema nervioso), es clave: pues a la vez que transmite información genera placer, y cuando la transmisión cesa causa dolor, a lo que el individuo tiende a reaccionar repitiendo la acción que causó la secreción de dopamina la primera vez. El fenómeno es simple y al parecer funciona con un asombroso número de estímulos: alcohol, tabaco, café, comida, dulces, sexo, apuestas, juegos en línea, internet, trabajo, compras, y por supuesto drogas, integran la creciente lista de sustancias y conductas adictivas. 

Pero claro, aunque muchas de las actividades que practicamos y sustancias que consumimos son adictivas, no todos nos hacemos adictos, y aquí viene lo trágico: los especialistas han encontrado que algunas personas tienen mayor predisposición que otras a las adicciones, pero identificar sus causantes específicas es un rompecabezas. Parecen ser comunes en personas adictas ciertos rasgos de personalidad, como el escaso amor propio, pero estos se confunden con características genéticas y ambientales. Por ejemplo, se ha encontrado que alrededor de la mitad de los alcohólicos comparten ciertas configuraciones genéticas; y del mismo modo, se ha asociado la proclividad a caer en adicciones a entornos y experiencias perniciosas, como la pobreza, la falta de figuras paternas, y trágicamente, el abuso infantil.

Estas evidencias sugieren que las adicciones no son desórdenes mentales y personales solamente, sino fisiológicos y sociológicos, y por tanto deben ser tratados clínicamente. Así, la última Clasificación Internacional de Enfermedades (IDC11) de la Organización Mundial de la Salud, acaba de incluir acápites sobre las adicciones al juego y el sexo, a los ya existentes sobre alcohol, tabaco, heroína, marihuana, anfetaminas, cocaína, etc.

Así pues, la práctica cotidiana de nuestros países de castigar y hasta encarcelar personas por sufrir de adicciones no se justifica científicamente y es además cruel. Peor aún, no contribuye ni al alivio del problema social, ni al restablecimiento del individuo, que no olvidemos, puede que esté simplemente enfermo.

Hace bien el Sr. Petro pidiendo una revisión de la estrategia antidrogas. El cómo hacerlo y dónde empezar serán seguramente los desafíos. Aquí, puede que la salud pública no esté entre lo más redituable políticamente, pero sí entre lo más humano.

#40 ¿Post mortem? (25.08.22)

Por Daniel Callo-Concha

A inicios de agosto un grupo de Yale publicó los resultados de sus experimentos de reactivación de funciones vitales. Una docena de puercos declarados muertos una hora antes, fueron inyectados con una solución de sangre, anticoagulantes, inmunosupresores y otras sustancias, que en pocos minutos causaron la recuperación de actividades del corazón, los riñones y el hígado, además de reducir la velocidad de descomposición de algunos tejidos. Tres años antes, el mismo grupo utilizó una técnica similar para reactivar las funciones de cerebros de cerdos cuatro horas después de haberlos extraído de sus cuerpos. Los científicos mantuvieron los cerebros ‘operando’ por hasta 36 horas, y verificaron que sus células constituyentes, incluidas las neuronas, habían reiniciado funciones metabólicas como circulación sanguínea, intercambio gaseoso y respuesta a drogas.

En ambos casos, los autores subrayaron que de ninguna manera podía considerarse que los puercos o sus cerebros hubieran recuperado funcionalidad, sino que ‘solamente’ recobraron algunas funciones metabólicas y en parte dejaron de descomponerse.

Aunque con leves variaciones por país, la muerte se define técnicamente en base a dos criterios: la muerte circulatoria y la muerte cerebral. La primera ocurre cuando el corazón deja de latir y con ello deja de enviar oxígeno al resto de órganos causando su paro y subsecuente descomposición; y la segunda sucede cuando las actividades cerebrales, conscientes e inconscientes cesan y las funciones vitales sólo pueden sostenerse con asistencia externa, como una UCI, por ejemplo. 

Formalmente, para declarar tanto la muerte circulatoria como la cerebral, es imprescindible que éstas sean irreversibles, totales y permanentes, pero legalmente, es la muerte cerebral la que más se utiliza para declarar a alguien fallecido. Todo esto sonaría a perogrullo en otras circunstancias, pero no en esta, a la luz de los experimentos expuestos en los párrafos de arriba. 

En los 70s y 80s, hubieron extendidas discusiones sobre las precisas condiciones y momentos específicos cuando debía declararse a una persona muerta, debido a la emergencia de exitosas innovaciones en reanimación. Del mismo modo, otros adelantos científicos permitieron extender las condiciones adecuadas de personas cuyos corazones se hubieran detenido, para recuperar los órganos. Con independencia de lo dramático de la situación, se trataba de que la gente no muriera o que no muriera todavía. Pero el hilo de la vida, por más delgado que fuera, aún estaba ahí.

Pero el asunto de BrainEx, que es el nombre del coctel de drogas que usaron los científicos va más allá. Aunque ellos lo evaden, sus hallazgos dejan entrever fisuras en la definición de la muerte y un rosario de consecuencias a partir de ello: la declaración de la muerte legal, los plazos de reanimación o la permisividad en la donación de órganos entre los más inmediatos, y otros muchos si uno se pone a especular: resucitación e inmortalidad entre los más sofisticados, o herencias truncas y disputas por despojos, entre los más baladíes.

El mapeo genético, la clonación, y luego, la multiplicación de células madre y la edición de genes, no sólo sacaron al genio de la biología de la botella, sino que vinieron acompañadas de un cortejo de dilemas éticos que aún no somos capaces de resolver. Puede que el próximo descubrimiento de tal calibre sea BrainEx, pero a diferencia de los anteriores, su inherente urgencia no dejará mucho tiempo para reflexiones. 


Los artículos referidos:

Andrijevic, D., Vrselja, Z., Lysyy, T. et al. Cellular recovery after prolonged warm ischaemia of the whole body. Nature 608, 405–412 (2022). https://doi.org/10.1038/s41586-022-05016-1 

Vrselja, Z., Daniele, S.G., Silbereis, J. et al. Restoration of brain circulation and cellular functions hours post-mortem. Nature 568, 336–343 (2019). https://doi.org/10.1038/s41586-019-1099-1

#39 Ser cool y científico: James Lovelock († 26 Julio 2022) (11.08.22)

Por Daniel Callo-Concha

Por meses había decidido que James Lovelock sería el siguiente en mi serie de científicos cool. Como la serie celebra sólo a personajes vivos, sus 102 años pendían como un sombrío apuro. Pues ha sucedido: el 26 de Julio pasado, exactamente cuando cumplía 103 años, James Lovelock murió, y este homenaje ya no puede esperar, aunque ahora convertido en obituario.

Lovelock se hizo globalmente famoso en los 1970s por su hipótesis Gaia, que dice que la tierra opera como un organismo vivo, regulándose a sí misma buscando su estabilidad. La idea causó un pequeño terremoto académico, por un lado, cuestionada por biólogos y ecólogos, quienes acusaron a Lovelock de herejía darwiniana, y por otro, cautelosamente recibida por físicos y químicos. Mas quienes sí la glorificaron fueron los ecologistas y hippies, que encontraron en Gaia la cristalización de sus explicaciones y anhelos, tanto así que la convirtieron en metáfora del sentido común, y algunos hasta en pseudo religión. Pero al margen de su popularidad, mediciones históricas de las fluctuaciones en los ciclos biogeoquímicos y sus recientes discordancias debidas al cambio climático, parecen afianzar la coherencia de Gaia. 

Pese a haber escrito 20 libros y haber investigado en Baylor, Harvard y Yale, y trabajado para la NASA, Lovelock no se llamaba a sí mismo científico, sino inventor. Algunos de sus ingenios, como el detector de captura de electrones, capaz de identificar sustancias en el aire -como el DDT, los CFCs o el O3 - en cantidades infinitesimales, le dieron rentas que le evitaron actividades académicas “menos excitantes” como dar clase y supervisar estudiantes. Así, implementó un laboratorio en su casa, donde pasó buena parte de la segunda mitad de su vida.

Nacido en Londres, su infancia pobre y carácter rebelde le negaron oportunidades, las que luego su talento le ganó. En los 1940s fue aprendiz en un laboratorio fotográfico donde decía: había aprendido más ciencia que en la universidad; becado, estudió química en Manchester y se doctoró en la escuela de medicina de Londres, donde en los 1950s y 60s realizó investigación empírica en radiaciones y criogenia. Entonces, inventó un aparato para descongelar órganos, que decía, contaba con todos los elementos de un horno de microondas. En los 1960s y 70s fue consultor de la NASA en sus programas de exploración de planetas vecinos, ahí ideo una técnica para determinar la posibilidad de hospedar vida a partir de sus composiciones atmosféricas. En los 1980s ya absolutamente independiente, fue consejero especial de varios gobiernos, invitado por la Sra. M. Thatcher, sugirió la renuncia a los combustibles fósiles y el uso de la energía nuclear, lo que horrorizó a sus admiradores ambientalistas. 

El nuevo milenio encontró a Lovelock escribiendo prolíficamente: en 20 años produjo siete libros, el último ya centenario. ¿Y de qué escribía Lovelock? Su creciente pesimismo a la par de su profundo -y siempre cerebral- amor por el planeta, le hacían augurar sombríos escenarios y advertencias, aun así, como siempre, buscaba soluciones: no fue tímido al proponer la geoingeniería, la energía atómica y en su último libro, la inteligencia artificial, pues creía servirían para cuidar mejor de Gaia. Hasta sus últimos días no dejó de decir lo que pensaba. Impaciente y deslenguado llamaba locos a los señores Musk y Bezos por querer ir a Marte en lugar de velar por la Tierra, repetía que los políticos estaban más preocupados por el dinero que por el clima, y proponía hacer una pausa en la democracia para resolver nuestros problemas ambientales. Lacónicamente, en una de sus últimas entrevistas dijo: … la tierra y yo de alguna manera nos parecemos, estamos en el último 1% de nuestras vidas.

Mi esposa cree que estoy un poco loco porque celebro el cumpleaños de Humboldt (14 de septiembre), posiblemente porque lleva más de 200 años de muerto. Pero estoy convencido de que hay gente que nunca muere, inclusive cuando muere. 

#38 ¿Qué onda con el metaverso? (28.07.22)

Por Daniel Callo-Concha

En el 2021 varios gigantes tecnológicos han apostado al metaverso como el futuro del internet. El Sr. M. Zuckerberg, principal accionista de Meta, que posee Facebook y Whatsapp, lo describió patéticamente: "No será sólo verlo, sino estar ahí."

La promesa del metaverso es nada menos que la de un mundo paralelo. Una vida con lo que conocemos: trabajo, negocios, amor, pero también entretenimiento, compras o experiencias. Pero eso sí, más divertida y, ahí la clave, donde cada uno decide quién y cómo es. En ella, otros emprendimientos como las cripto monedas, los bienes virtuales, los tokenes no fungibles y las cadenas de bloques, que a menudo se critican y desentonan con las reglas del mundo real, se tornarían convencionales. 

Pero bien visto, la realidad virtual no es nueva, existe desde hace décadas, aunque con más ahínco -y argumentos- desde la creación de las computadoras. Más de una tercera parte de las personas del planeta practican juegos de inmersión, como Assassin’s Creed, que a uno lo transporta a versiones asombrosamente reales de momentos históricos en las cruzadas, la revolución francesa o el descubrimiento de América. Otro tanto frecuenta plataformas que ofrecen experiencias inmersivas en tiempo real, como Second life, que permite relacionarse socialmente y trabajar usando interfaces y avatares a voluntad, o Decentraland y Superworld, donde se crea, compra y vende productos virtuales y réplicas de partes del mundo real. Mas lo de virtual no debe engañar, el precio medio de las propiedades en Superworld es de 3000 USD, eso sí pagadas con criptomonedas potencialmente convertibles en dinero real.

Y si uno va a lo filosófico del asunto, lo virtual es intrínseco a nuestra realidad. N. Harari afirma que el hombre es una especie cuya existencia social se basa en acuerdos colectivos que definimos para convivir, que etiqueta de ‘ficciones’. Buenos ejemplos son el dinero, el matrimonio o la propiedad, que no existen sino hasta que decidimos que vamos a creer en ellos y vivir respetando las normas que los mantengan. Mas aun, cuando alguien deja de hacerlo, usamos otras ficciones para que los rebeldes las respeten: la ley, la policía y la cárcel. Así pues, el hombre extiende su existencia más allá de lo físico, y la virtualidad es consecuencia y evidencia de ello, y predeciblemente sólo aumentará con el tiempo. 

Pero en esta última oleada las palabras clave son realidad virtual y realidad aumentada. Las que nada tienen que ver con la imaginación humana o la evolución social, sino con los aspectos más frívolos del "estar ahí" del Sr. Zuckerberg: el software y el hardware. En el momento Meta, Microsoft, NVIDIA, Tencent, Samsung, Alphabet y muchas compañías más, desarrollan los dispositivos y entornos en los que el metaverso podría acontecer: visores y audífonos, sensores de posición y movimiento, y controladores buscan copar el mercado; y más adelante se prevé una lucha feroz para definir el estándar del entorno operativo, pues eso le dará a quien se haga con él un poder inconmensurable. Como pasó con los teléfonos celulares antes de que Android se hiciera universal, o de que Windows se hiciera norma en casi cada computadora del planeta. En breve: los expertos creen que el metaverso será un negocio multi-trillionario. 

Así pues, el riesgo no está en que las personas vivan más allá de sus realidades reales, lo que puede verse inclusive como una progresión social, sino en la corporatización de quienes lo operen. Que las compañías más interesadas en el metaverso sean monopolios como Facebook o Google, responsables del abuso de la privacidad de los usuarios y cuyos modelos de negocio priorizan sobre todo la ganancia, no da buena espina. No es que nos enamoremos en línea, es que alguien pueda hacer dinero a cuenta de ello.

Lo que sí, es que el eventual metaverso se parecerá a Oasis (su versión literaria en la novela pionera, Ready Player One), con vidas, visiones y aventuras excitantes, pero también con egoísmo, maldad y villanos abusivos. Casi como el mundo de verdad. 

#37  Sobre el aborto (14.07.22)

Por Daniel Callo-Concha

El mes pasado la corte suprema de los Estados Unidos le retiró el derecho constitucional al aborto a las mujeres norteamericanas, dejándolo a discreción de los gobiernos federales. Esta decisión ha emitido ondas de choque en todo el mundo, pues el aborto es cuestión mayor entre progresistas y conservadores. Globalmente, hay propensión a liberalizar el derecho al aborto: sólo en los últimos 15 años un quinto de los países (36) lo ha descriminalizado. Sin embargo, hay aún extremos, mientras en China es un derecho humano, en Malta se le equivale al homicidio. Al legislarlo, América Latina ha tomado la vanguardia, recientemente, Argentina y Colombia han aprobado códigos que lo permiten, lo que parecía que reafirmaba la tendencia regional.

En el debate a favor y en contra, ambos bandos reclaman el respaldo de la ciencia, y un par de temas parecen dominar. El primero se centra en cuándo comienza la vida: conservadores invocan que el embrión o feto ya está vivo en el vientre materno y el aborto es quitarle la vida. El cuándo ocurre esto, ha sido causa de encendidos debates, aunque hay abundante evidencia de que un cigoto fecundado de tres semanas ya da signos de vida, los que sólo van incrementándose con el tiempo. El segundo asunto, se enfoca en los efectos sociales de regular (o no) el aborto: por ejemplo, se sabe que las mujeres que lo buscan pertenecen a sectores de menores ingresos y ya tienen hijos; en países donde el aborto es ilegal la mortalidad materna por parto es hasta tres veces mayor; y las que fueron persuadidas para no abortar, muy probablemente sufrirán problemas económicos serios.

Pero antes de ponderar a partir de estos argumentos, ¿de qué lado está la ciencia? Hay que tener claro que la ciencia no es jueza. Su función es a responder a preguntas específicas con evidencia específica, así pues, la magnitud de las respuestas es proporcional al alcance de las preguntas, como se ve en los ejemplos de arriba. Así que preguntar de qué lado está la ciencia es perezoso e inútil.

Lo que sí creo ayuda a dar luces sobre el tema es enmarcarlo en la evolución de las sociedades, y esto lo hacen las ciencias sociales y el feminismo. Desde fines del siglo XIX las mujeres han venido reclamando sus derechos y la decisión sobre sus circunstancias individuales y colectivas: el derecho a la ciudadanía, a votar, a la educación, al liderazgo, y en general a oportunidades en lo personal y profesional, están entre las demandas más conocidas. Pero también existen los llamados derechos sexuales reproductivos, entre los que el aborto es el más visible, pero también cuentan: el derecho a decidir entre tener hijos o no, cuándo tenerlos, y con quién tenerlos, o simplemente con quién tener sexo. Estos últimos consuman las exigencias de las mujeres a decidir ellas mismas sobre sus propios cuerpos, previniendo que otros lo hagan por ellas. Lo que en el siglo XXI debería considerarse un reclamo anacrónico -si no, obsérvese las mismas demandas desde la perspectiva masculina-. Pero como se ve, no lo es.

Mi impresión es que el debate sobre el aborto se ha politizado de modo no ingenuo, y su importancia es menos histórica y mucho más coyuntural y electoral. Las posiciones a favor sólo van a incrementarse en la medida de que la información y empoderamiento aumenten, a la par de la sucesión generacional. Oponerse es fútil y las medidas para contenerlo serán sólo posibles por ordenanzas y regímenes autoritarios. 

#36  Mi máquina del tiempo (30.06.22)

Por Daniel Callo-Concha

El viaje en el tiempo es tal vez una de las fantasías más populares que hay. Puedo imaginar que la mayoría de nosotros guarda memorias juveniles, y tal vez no tan juveniles del tipo: ¿a qué momento de la historia te gustaría ir? Memorables piezas literarias como las de H. G. Wells y M. Twain nos han develado las posibilidades del viaje en el tiempo, pero han sido la ciencia ficción y el cine, con las historias de I. Asimov y R. Bradbury, y películas como las de R. Zemeckis, las que lo han convertido en parte de la cultura popular.

Uno de los argumentos más aludidos en el viaje en el tiempo es el de los futuros alternativos. Rompiendo con la premisa de que el tiempo es una línea continua en la que un evento sucede a otro, en un futuro alternativo se sugiere variantes consecuencia de cambios en el pasado. Como en Volver al Futuro, cuando la existencia del protagonista (en el presente) se ve amenazada porque sus padres no lleguen a enamorarse (en el pasado), dando lugar a un futuro donde este protagonista no existe. Otros, especulan con la idea de futuros paralelos, donde una misma realidad, consecuencia de eventos determinantes en el pasado, da lugar a diferentes versiones del presente que ocurren simultáneamente.

Hace poco algunos creativos periodistas comenzaron a usar metáforas que aludían al viaje en el tiempo para augurar lo que podría ocurrir. Por ejemplo, en medio de la primera oleada de la pandemia de COVID-19, un columnista peruano recién llegado de Europa escribió: “Vengo del futuro y este no pinta bien”.

Algo así me ocurre estos días. En el rincón de Amazonía que comparten Bolivia, Brasil y el Perú, futuros alternativos se desarrollan a lo largo de sus fronteras. Hace un siglo, esta región era tan homogénea y estaba tan aislada, que ni los propios estados sabían dónde terminaba uno y comenzaba otro, lo que finalmente dirimieron con pequeñas guerras de conveniencia, que al terminar dejaban la región tan aislada como antes. 

Entonces como ahora, fueron pioneros quienes decidieron la suerte de la región, y lo hicieron a la medida de sus ambiciones. La extraordinaria riqueza natural de estas tierras ha atraído sucesivamente a caucheros que costearon la extracción de goma con mano de obra esclava y madereros que convirtieron bosques centenarios en exportaciones de lujo. Tan pronto como un recurso se agotaba aparecía otro y así siguieron llegando ganaderos, castañeros y mineros, que continúan convirtiendo la naturaleza de todos en bienes y riquezas de pocos. Este proceso ha hecho que donde hubo pueblos emerjan ciudades, los senderos se conviertan en autopistas y los campesinos en pseudo urbanitas.

Pero tal progresión no ha sido uniforme, la deforestación, apertura de caminos y mercantilización, han seguido rutas y ritmos distintos en cada país. Ya sea por la existencia y funcionalidad de sus instituciones, políticas de explotación y conservación, el hedonismo, la modestia o el entendido sentido común de sus gentes, tras cada frontera se ven versiones distintas del presente. Y aquí mi máquina del tiempo: recorriendo algunas decenas de kilómetros, se puede “viajar” de una pradera rebosante de reses a un bosque apenas tocado en un siglo; apartados un par de horas en coche, se encuentran comunidades que viven de recolectar semillas y frutas de árboles y palmeras, de otras que lo hacen amalgamando mercurio y oro en bancos de arena. La mayoría de quienes viven aquí están conscientes de la paradoja y de la delgada línea que hay entre sus decisiones y aquellos futuros alternativos, y hasta hay quienes los equiparan: la opulencia contra el sosiego, la premura contra lo duradero. 

En volver al futuro, Marty, el simpático protagonista, con mucha creatividad y un poco de suerte logra volver al pasado un par de veces para rehacer sus entuertos y regresar a un presente y futuros prometedores. En el sureste de la Amazonia, con viajes incluidos, está por verse si aquello será posible. 

#35  La ciencia y la guerra (16.06.22)

Por Daniel Callo-Concha

Es bien conocida la causalidad entre la ocurrencia de guerras y el impulso en la creatividad científica. Aunque ya en 300 AEC Arquímedes creaba ingenios físicos para defender Siracusa del asedio romano, la cúspide del uso de la ciencia con fines bélicos se dio en el siglo XX. Son pruebas de ello los vertiginosos galopes tecnológicos causados por las dos guerras mundiales y la guerra fría, y su sombrío saldo: 100 millones de muertos.

La mayoría sabe que la energía nuclear es hija de la bomba atómica, pero no muchos estamos al tanto de que el internet, el radar -usado en aviación-, la predicción del clima y los sensores remotos -ubicuos en cada teléfono celular-, y los hoy tan de moda cohetes espaciales, fueron concebidos originalmente para situaciones de conflicto. Y si estos ejemplos invocan sofisticados montajes tecnológicos, elegantes elaboraciones intelectuales, como la teoría de juegos (véase), y productos tan corrientes como el café en polvo, fueron también consecuencia de la guerra.

Estas variadas creaciones no fueron accidentales, se debieron a una carrera deliberada para aventajar a un oponente, a veces todavía inexistente, en todo terreno posible. No sólo trataban los estrategas de la guerra de aumentar sus capacidades de destrucción, boicot y espionaje, sino también las de restablecimiento, seguridad, comunicación, y otras más, que bien se superponen con las necesidades de la gente común y corriente en situaciones comunes y corrientes. 

En la actualidad, al menos el 25% de la ciencia que se hace tiene objetivos militares. Esto no significa que los científicos tengan especial predilección por las invenciones que instiguen a los hombres a darse de palos, sino que el financiamiento para hacer investigación es crónicamente escaso y resulta que los financistas militares tienen los bolsillos más profundos y más flojos. Es tanto así, que cuando un gobierno requiere resultados rápidos y expeditivos, apela a las fórmulas del tipo emergencia y seguridad nacional, para escalar en las prioridades de gasto y tomar atajos administrativos. 

Aunque distante, una indicación de esto es la diferencia entre los financiamientos de los dos más recientes sucesos globales: COVAX, el mecanismo lanzado por la OMS para proveer de vacunas contra el COVID-19 a los países más vulnerables, y la asistencia militar a Ucrania para defenderse de la invasión rusa emprendida por el Sr. Putin. En el primero, las aportaciones ofrecidas, tras dos años, apenas habían superado el 50% de lo prometido (6 bill. €); mientras que la oferta de ayuda para la guerra es más de doce veces aquella (~75 bill. €) y se ejecuta con presteza semanal, en menos de tres meses se ha desembolsado casi 30 billones.

En los días que corren, la guerra en Ucrania está obligando a numerosos reacomodos financieros en las economías europeas y norteamericanas, que sin duda permearán a sus sistemas científicos. Se avista una redefinición de prioridades que le quitarán dinero a algunos para dárselo a otros. Por ejemplo, en Europa, el pospuesto armamentismo y la demorada revolución energética están al inicio de la lista, los que indefectiblemente enviarán para atrás a otros temas, programas y hasta disciplinas.

Está por ver cómo lo arriba esbozado afectará a la ciencia en el corto plazo, pero al margen de ello es triste saber que cuando escribo esto hay un montón de científicos quemándose el coco para ver cómo causarle más daño a los de la orilla opuesta, y trágico, que eso les parezca encomiable a los de la propia.  

#34  ¿Nos invaden? (02.06.22)

Por Daniel Callo-Concha

Una hipótesis del origen del virus SARS-CoV-2, causante del Covid-19, dice que surgió a partir de la recombinación de material genético entre especies no relacionadas, lo que habría ocurrido en un mercado mojado de Wu Han en China. En tales mercados suelen encontrarse animales, plantas y productos de todo el mundo; pues son demandados por la gastronomía y medicina chinas, conocidas por su sofisticación y peculiaridad. “Estas situaciones nunca se hubieran dado en la naturaleza”, fue más o menos lo que dijeron los críticos, al encontrarse visones europeos junto a civetas asiáticas y serpientes americanas, enjauladas unas a lado de otras.

Aunque el incidente de Wu Han llamó la atención sobre los riesgos que las especies "fuera de lugar" podían traer, lo cierto es que la situación no es nueva. Constantemente, los ecólogos lanzan alarmas sobre alguna especie exótica especialmente penetrante. Las llaman especies invasivas. Introducida, intencional o accidentalmente, una especie invasiva encuentra en su nuevo hábitat condiciones óptimas para desarrollarse y multiplicarse, lo que a la larga tiene consecuencias ambientales negativas, pero también sociales y económicas.

Hay infinitos ejemplos de especies invasivas. Pero son estereotípicos los del eucalipto (Eucalyptus spp) o el kikuyo (Pennisetum clandestinum). Este último, una gramínea originaria del este de África que ahora se encuentra en casi todo el mundo. El kikuyo tiene varias formas de propagación y se expande tanto en el campo como en la ciudad, sofocando a otras plantas y destruyendo veredas y muros. Las medidas para contenerlo y eliminarlo son limitadas o temporales, y la única exitosa ha sido bloquear su ingreso, lo que es sólo viable en islas. Pero a otras especies invasivas les ha ido mejor en la estima popular, son buenos ejemplos los peces introducidos en América latina, como el paiche o picarucú (Arapaima gigas), un gigante de hasta 3m y 250 Kg. Mientras que en algunos países, como Bolivia, se anima a la pesca indiscriminada del paiche, pues le consideran una amenaza ecológica por ser un predador de otros peces, animales pequeños y hasta aves; en otros, como el Perú, donde se le considera un manjar regional, se le protege estableciendo periodos de veda para permitir su reproducción.

Pero tal vez los ejemplos más dramáticos ocurren en lugares de alto endemismo (sitios con fauna y flora exclusivas). Como la incontenible proliferación de conejos en Oceanía, contra la que los australianos luchan hace más de más de cien años. Pero también hay ejemplos curiosos como la “invasión” de la tortuga de Florida en Europa a partir de mascotas escapadas; y la extravagante difusión de hipopótamos en el norte de Colombia, originada por la huida de algunos animales del zoológico privado de un traficante. 

Pero como decía antes, esto no es nuevo y hay especies que se han expandido en el planeta entero, e ignoramos por su omnipresencia o los beneficios que nos proveen, su carácter invasivo. Están ahí los chivos, ratas y palomas, y el más agresivo de todos, el gato. 

Aun así, hay más ejemplos y más quejas que olvidan que la globalización biológica no es novedad. A propósito, algunos científicos afirman que la premisa de especies invasivas es espuria y debería abandonarse, y a cambio sugieren las de especies mejor adaptadas o más capaces de competir. 

En tiempos del Antropoceno, al hombre, invasor por antonomasia y activo difusor de otras especies, sólo le toca aceptar el espacio que ha creado y convivir con y en él. Quince mil años de historia son, simplemente, imposibles de retractar.

#33 Lo que nos hace uno (19.05.22)

Por Daniel Callo-Concha

La invasión de Rusia a Ucrania ha evidenciado una vez más una forma de pugna latente en la mayoría de los estados, países y territorios: el de la identidad nacional. El gobierno ruso había justificado su invasión en la premisa de que Ucrania era inherentemente parte de la Unión Soviética (1920-1991) y aún antes, pues su flanco occidental había pertenecido al imperio ruso desde el siglo XVIII. Por su parte, los ucranianos defienden una cultura e identidad independientes, originadas ya en el imperio Rus de Kiev (siglos VIII-XII) y sus recurrentes irrupciones emancipatorias, siendo la última la de 1991. 

La definición de nación es imprecisa, alude a compartir historia, tradición, cultura, religión y lenguaje, pero dice también que ninguna de ellas es definitiva y excluyente. Puesto así, las naciones surgirían naturalmente resultado de la interacción de gente que por alguna razón comparte un espacio físico o territorio. Y tal vez fue así por mucho tiempo. Antes de llamarse naciones, los clanes, tribus o pueblos ya debían haber conocido las gracias y ventajas de vivir entre semejantes. Pero con la aparición del estado-nación tuvieron que hacerse ajustes. Un estado-nación buscaba ampliarse a sí mismo a una escala que le otorgara autoridad, poder y hegemonía entre unidades similares. La formación de estados nación (por lo general por imposición), se convirtió en la forma estándar de construcción social. Es así como se formaron la mayoría de los estados europeos tras el oscurantismo: por pura utilidad política. Lo que le da a esta versión de nación un sabor de arbitrariedad y conveniencia.

Pero si las naciones se convirtieron en tales por interés y a fuerzas, lo que sucedió cuando la imposición ya no fue posible no es menos controversial. Los sociólogos del siglo XX llaman a esto ‘construcción de la nación’ y lo definen como el proceso intencionado por el que una unidad política y territorial decide inculcar en los pueblos que la integran valores como los arriba listados, y minimizar otros, como el idioma, clase, casta, familia, religión, región, etc. A cambio, se espera que esta unidad nacional sea capaz de construir una infraestructura social política, burocrática y económicamente funcionales, que a la larga le permitan evolucionar y desarrollarse. 

Así, la idea de nación que tanto se asocia a cultura, valores y tradiciones, y a banderas, paisajes, folclor, música, comida y equipos de fútbol, al final no terminan siendo más que su decorado y a veces pretexto. Más bien, sus sistemas políticos, administrativos y monetarios, son los que determinan, su razón de existir y futuro. 

Así que cuando uno se pregunte por qué en los Balcanes no dejan de aparecer países; Afganistán se ha negado a cambiar en 30 años de guerra contra rusos y norteamericanos; los catalanes quieren escindirse de España, pero los bávaros prefieren seguir financiando a Alemania; y hay quienes que hablan, viven y rezan en ruso, pero mueren por Ucrania. Probablemente las respuestas se encuentren en una intención ajena empacada convenientemente y convertida en ideal, que convierte, para bien o para mal, a cientos, miles y millones en uno.  

#32 La termodinámica del dolor (05.05.22)

Por Daniel Callo-Concha

En marzo del 2020 la OMS declaró al COVID-19 pandemia, que en lego significaba que todo el mundo podía infectarse. Ha sido así. Los casi 200 países han reaccionado de modos distintos, en función a sus prioridades, capacidades y posibilidades; y tras dos interminables años y vacunas de por medio, puede contrastarse lo que hicieron (*).  

Desde hace tres meses, los 25 millones de habitantes de Shanghái cumplen un aislamiento absoluto. Medidas similares se han tomado en otras 25 ciudades chinas, sumando 165 millones de personas que mantienen aislamiento total o parcial. El gobierno con su estrategia de Covid-cero intenta contener las 10 000 infecciones y 50 muertes por día. Hasta entonces, China había reportado 5 000 fallecidos.

En los Estados Unidos, antes y después de la liberación de las vacunas a fines del 2020, el gobierno federal y los estatales no se pusieron de acuerdo sobre las regulaciones para prevenir los contagios. El uso de máscaras, la distancia social y el aislamiento fueron discrecionales. Así, el número de muertos arañó las cuatro mil personas por día. A la fecha está en alrededor de 500, generalmente no vacunados. 

En Australia (al igual que Nueva Zelanda) el gobierno, valiéndose de su condición insular, cerró sus fronteras bloqueando tanto la entrada como la salida de personas, a la vez que suspendía los servicios para minimizar la interacción. En consecuencia, mantuvo una media de cinco fallecidos diarios hasta inicios de este año, cuando se levantaron las restricciones, y éste se multiplicó por diez.

En Sudáfrica llevan cuatro olas de infecciones, a lo largo de las cuales el gobierno ha implementado medidas varias que han ido cambiando sucesivamente. En su peor momento, las muertes llegaron a 800 al día y en conjunto se estima que sobrepasan las 100 000. 

En Brasil y México optaron por el laissez faire, que relativizaba las medidas de prevención de la epidemia a sus impactos económicos. Las medidas, cuando se aplicaron, fueron parciales y convenientes; murieron 650 000 y 350 000 personas, respectivamente. En Suecia, no se cerraron tiendas, restaurantes ni espacio público alguno, más bien, se implementaron campañas de información y se instó a la población a comportarse responsablemente. Tuvieron tres olas, las muertes llegaron a 200 al día y en suma alcanzaron los 19 000. En Dinamarca, el vecino inmediato de Suecia, además de las de concienciación, sí se implementaron medidas preventivas al contagio, el número de fallecidos fue tres veces inferior al de Suecia. En Burkina Faso, la emisión e implementación de medidas de prevención son limitadas. Oficialmente se han reportado 383 personas fallecidas.


Hay varios estudios que comparan las medidas de prevención y contención por países: hablan de experiencia, gobernanza, autoridad, permisividad, lentitud, cultura, etc. La receta ideal que buscan sus autores no aparece por ningún lado. Una pandemia tan larga y tan compleja, que recordemos, aún no ha terminado, ha demostrado que no hay líneas rojas ni balas de plata, que quienes tuvieron éxito en algún momento lo dejaron de tener luego, y al revés. Y si existe algún patrón de acción que funcione, tal vez sea la adaptabilidad, que es ajustar constantemente las medidas y su intensidad a lo que vaya ocurriendo.

Siendo este el caso, las infecciones, hospitalizaciones y muertes seguirán subiendo y bajando a la par que los gobiernos y sociedades vayamos pactando medidas, acertando y desacertando en una termodinámica sombría, que tarde o temprano termina equiparando el dolor de los pueblos.

(*) Estas son las cifras reportadas oficialmente. Pero hace una semana la OMS admitió una subestimación que las triplicaría. Así los cinco millones de fallecidos en todo el mundo se convertirían en 15.  

#31 Ser cool y científico: Daniel Kahneman (21.04.22)

Por Daniel Callo-Concha

En el siglo XVIII el filósofo escocés Adam Smith se entregó a la tarea de sistematizar una serie de conceptos que hasta entonces se habían utilizado empírica y vagamente. Así, definió la producción, el precio, la oferta y la demanda, y con ello el comercio, la competencia y el mercado. Aquella arquitectura conceptual, inspirada en la ilustración, se basó en dos parámetros absolutos: el racionalismo -que toda decisión era racional- y el egoísmo -que cada quien buscaba su propio beneficio-, lo que resultó muy conveniente con los tiempos que corrían, la revolución industrial se imponía como modo de producción dominante.

El tiempo le atribuiría la paternidad de la ciencia económica a Smith, y los conceptos y leyes que acuñó se convirtieron en norma y hasta en dogma para algunos, quienes creían que podían interpretar el funcionamiento de las sociedades con ellos. Para el siglo XX Marx, Keynes, von Hayek y Friedman le elaboraron constructos y matematizaron, intentando subvertirla y manipularla, eso sí, sin dejar de creer en aquellos parámetros de racionalidad y egoísmo.

Sólo a fines del siglo XX tales premisas han sido cuestionadas con la aparición de la economía del comportamiento. El psicólogo Daniel Kahneman, quien tuvo un rol preminente en ello, ha resumido maravillosamente su leitmotiv: (…) ocurre que las personas son infinitamente [más] complicadas e interesantes.

Kahneman nació en una familia judía que tras la segunda guerra mundial debió dejar Europa para refugiarse en Palestina poco antes de la fundación del estado de Israel. Tras licenciarse en psicología y matemática en Jerusalén, se doctoró en Berkeley, y poco después su presencia se hizo habitual Harvard, Cambridge y Stanford. En los 1980s y 1990s, junto con Amos Tversky, Kahneman edificó en sucesivos artículos su teoría sobre la toma de decisiones en situaciones de incertidumbre, que sistematiza la heurística (mecanismos simplificados de toma de decisiones) y parcialidades (perturbaciones involuntarias en tales decisiones), en los que los humanos solemos incurrir inconscientemente.

Las contribuciones de Kahneman son fundamentales para rebatir la premisa de que las decisiones humanas son sobre todo racionales. Más bien, que en la vida diaria nuestras acciones se alejan de lo probable y por tanto no pueden predecirse, lo que nos aleja del Homo economicus que los economistas se habían obstinado en erigir como arquetipo moderno. A partir de ellas, el paradigma de la investigación económica han de mudarse de una parametrizada, a otra atenta a variables sociales y psicológicas. Las preguntas de cuánto y en qué medida, se inclinan a las de cómo y por qué. Por ello, en 2002 Kahneman recibió, junto a Vernon Smith, el premio Nobel de economía. Poco después publicaría el sumario de su trabajo Pensar rápido, pensar despacio, que expone cómo el cerebro opera invocando a dos sistemas distintos según le conviene: rápida e intuitivamente o lenta y racionalmente.

Sorprendentemente, Kahneman recibió el Nobel por una fracción de su trabajo, su larga biografía académica ha generado numerosas teorías e hipótesis, que cubren temas como la felicidad, las ilusiones o la memoria. En el 2021, ya con 87 años, produjo su teoría del ‘ruido’, que identifica y lista factores que hacen que nuestro entendimiento y juicios diverjan, otra vez, más allá de lo predecible.

La próxima vez que nos detengamos frente al semáforo en rojo y vayamos a votar, sabremos que lo hacemos utilizando ‘distintos’ cerebros. Sabremos también por qué preferimos no perder 100 a ganar 100 y por qué todos creen que serán felices yéndose a vivir al Caribe. Y sabremos, gracias a Kahneman, que las razones para todo ello son contrarias a las que te darían tu candidato, tu banquero y tus amigos 

¿Cool no es así?

#30 El próximo peldaño (07.04.22)

Por Daniel Callo-Concha

La equidad de género es probablemente, dentro de los temas relacionados a la igualdad entre seres humanos, el que más atención recibe en nuestras sociedades desde mediados del siglo XX. Su simbólica proclama se dio en 1949, con la publicación del Segundo Sexo de Simone de Beauvoir, que acuciosamente desmenuzó la arbitraria dualidad de las sociedades, que le dan a la mujer un rol secundario y subsidiario al del hombre.

No obstante, ya entrados los 2020s la anhelada igualdad entre géneros es todavía utopía. El Foro Económico Mundial ha calculado que al paso que llevamos, para darles las mismas oportunidades de liderazgo a mujeres y hombres necesitaremos 146 años, y 268 años para ofrecerles a todos las mismas oportunidades económicas. Aun así, hay consenso en que el camino para lograrlo se llama equidad de género; que los especialistas afirman: no se trata de que los hombres y mujeres aspiren a lograr lo mismo, sino que reciban tratamientos de acuerdo a sus respectivas necesidades, sin que estos sean privilegios.

En esto hay innumerables tareas pendientes, pero hace poco me tropecé con un ejemplo notable: los estudios en salud pública y género. Si bien los protocolos de investigación clínica están estandarizados, la proporción de participantes por género suele ser sesgada: en promedio, sólo una tercera parte son mujeres. Esto es injustificado no sólo porque los cuerpos y mentes de las mujeres son diferentes de los de los hombres, sino también porque hay más mujeres que hombres. Así, los resultados son subóptimos para ambos grupos, que no recibirán tratamientos adecuados. Matthew Baird, investigador de RAND, afirma que aplicar tratamientos diferenciados por género contra la demencia, males del corazón y artritis, no sólo sirve para tratar mejor tales padecimientos en mujeres, sino que ahorra cuantiosas sumas a los servicios de salud. Se sabe que las inversiones en la salud de las mujeres generarían retornos de hasta 5000 por cien. Lo que evidencia además el absurdo económico de algunas sociedades patriarcales que en distintos grados limitan la aportación de las mujeres. 

Por otro lado, hay sociedades que elucidan los siguientes pasos en la construcción de la equidad de género. Desde 2017 en Suecia se debate, legisla y actúa sobre los llamados derechos menstruales. Estos buscan ofrecer un tratamiento laboral y social apropiado a las mujeres durante sus periodos menstruales, que por lo general tienen efectos biológicos y psíquicos detrimentales en ellas.

Aliadas, la sociedad civil y el gobierno han comenzado haciendo público el tema, buscando normalizar la comunicación sobre la menstruación como función corporal y terminar con el tabú y vergüenza que generalmente acarrea, así han financiado exhibiciones de arte, obras escénicas, comics, podcasts, etc. Desde hace algún tiempo, vienen implementando proyectos piloto en lugares de trabajo, donde se experimenta cómo se vería una sociedad con derechos menstruales: baños adecuadamente equipados, espacios de retiro y solaz, pero sobre todo, instituyendo un ambiente de tolerancia y respeto entre colegas y superiores.

El cómo hemos llegado a ignorar algo con lo que todos los seres humanos nos hemos visto confrontados a lo largo de nuestras vidas es algo para mí aún inentendible. Afortunadamente, hay ejemplos que nos lo hacen notar y muestran caminos para remediarlo. Pero cualquier cambio pasará necesariamente por nuestra admisión y un cambio de actitud, y cuanto antes mejor.

#29 Premiar al mensajero (24.03.22)

En 1953 James Watson y Francis Crick publicaron su artículo “La estructura molecular de los ácidos nucleicos”, en el que proponían su modelo de doble hélice para representar la ordenación tridimensional de la molécula del ácido desoxirribonucleico (ADN). Tal modelo era coherente con las propiedades físicas y bioquímicas de la molécula, y transparentaba el mecanismo de la herencia que hasta entonces había sido materia de especulación. Nueve años después, en 1962, el logro mereció el premio Nobel de medicina, concedido a los susodichos Watson y Crick, más el físico Maurice Wilkins; aunque sigue debatiéndose si no se reconoció suficientemente a Rosaline Franklin, muerta en 1958, presuntamente excluida por un sexismo entonces cotidiano.

Aun cuando el modelo del ADN explicaba la replicación de la información genética a través de la bifurcación de la molécula y su posterior reconfiguración, la transmisión de la información requirió de un modelo complementario: el del ácido ribonucleico (ARN), que hace ‘calcos’ efímeros del ADN, que saca del núcleo hacia los ribosomas en el citoplasma, los que luego al dividirse, propagarán la información genética de célula a célula. Por esta característica se llamó a esta molécula ácido ribonucleico mensajero (ARNm).

Cuando el polvo del descubrimiento de la genética de la herencia se hubo asentado, se detectó un uso potencial del ARNm: transmitir instrucciones genéticas sin llevar los genes mismos. Algo así como meter un caballo de Troya que, en lugar de llevar dentro a Ulises y sus guerreros, traería hologramas capaces de hacer lo que ellos harían, pero sin arriesgar a los originales. Todavía faltaba mapear el genoma, pero si eso se lograba, el ARNm sería la medicina genética perfecta, se dijeron los científicos. Pero los obstáculos no fueron menores, el ARNm es una molécula tremendamente lábil e inestable, y los intentos para introducirla en organismos vivos terminaban rápidamente cuando el sistema inmunológico la identificaba como ‘cuerpo extraño’.

Cómo se superaron estos inconvenientes y varios otros no siempre científicos, compone una historia que se extiende desde los 1980s hasta inicios del 2010, e incluye momentos de creatividad, éxito, fracaso, rivalidad, escepticismo, carreras truncas, alguna serendipia, pero sobre todo muchísimo trabajo y perseverancia. Se estima que la investigación en los usos terapéuticos del ARNm ha involucrado a más de 300 grupos científicos y costado de cientos a miles de millones; paradójicamente, la mayoría de estos científicos e inversores, abandonaron el tema a falta de rédito académico y/o financiero.

Pero si el camino ha sido oscuro y sinuoso, el final es por todos conocido: las vacunas producidas por los laboratorios BionTech, CureVac y Moderna contra el virus SARS-CoV-2, cuyas peculiaridades son las de estar inserta en una nanopartícula de grasa y llevar un nucleótido alterado, lo que las ha hecho viables en el organismo humano y con ello, convertido en aquella medicina genética perfecta buscada por 40 años. 

Una anotación final: la tecnología del ARNm ya estaba bien establecida para fines del 2010s, cuando varios gigantes farmacéuticos exploraban sus aplicaciones en vacunas y medicinas. Así que el sprint científico-corporativo que vimos en el 2020, fue para particularizarla para el virus del COVID-19 (lo que duro pocas semanas), y superar los ensayos clínicos. 

En diciembre se otorgan los premios Nobel y se conjetura que el ARNm será protagonista del de medicina. La convención dicta que sólo tres personas sean las que lo reciban, lo que hará su elección ardua. Pero de lo que no hay duda es de la contribución de la tecnología: se han calculado en varios millones las vidas que ha salvado desde el 2020, e innumerables las que podrían venir, pues de momento ya se trabaja en terapias contra la malaria, gripe, y hasta el cáncer. 

#28 Barbarie (10.03.22)

Por Daniel Callo-Concha

En el siglo I el Imperio Romano era el más extenso que hubiera existido hasta entonces. Se expandió al Norte hasta la Inglaterra de hoy, por el Sur cubrió la costa norte de África incluyendo Egipto, al Oeste absorbió toda la península ibérica y por el Este llegó hasta Turquía y Siria. Para anexar territorio, además de su magnético esplendor imperial, Roma contó con un poderoso ejército, una sofisticada gestión política y cualificados administradores locales, que por lo general convertían a los conquistados en súbditos y a veces hasta en ciudadanos, quienes convertidos, contribuían a abrillantar el imperio y ampliarlo.

Pero tal expansión se acompañaba inevitablemente de escaramuzas con los pueblos al otro lado de sus fronteras. A algunos especialmente agresivos, los romanos les llamaron bárbaros. La palabra no sólo llevaba una carga extranjerizante, sino acarreaba también un juicio de valor, endilgando cualidades de ignorante y poco refinado. En algunos casos, como el de los Germanos (ocupantes de la Alemania de hoy), se asumía que vivían en ambientes fríos y hostiles, y por tanto inconcebibles para la civilización. Desde entonces bárbaro se ha usado con tal desdén, para referirse a las personas y pueblos extranjeros considerados de algún modo inferiores.

El pasado 24 de febrero, el Sr. Putin, presidente de Rusia, autorizó una “operación militar especial” en Ucrania, que significaría su bombardeo, invasión y ocupación. Cuando enumeraba las razones para hacerlo, subrayó la amenazante expansión occidental “producto de su sensación de superioridad absoluta (…), en combinación con sus bajos estándares culturales y arrogancia”, ya observadas en las recientes intervenciones militares de los Estados Unidos y sus aliados en Libia, Siria e Irak. Luego, arguyó que tal expansionismo “busca destruir nuestros valores tradicionales, (...) forzando falsos valores (…) y actitudes que llevan a la degradación y degeneración contrarios a la naturaleza humana”. Concluyó el Sr. Putin listando las fallidas medidas diplomáticas y presiones geopolíticas que le obligaban a invadir Ucrania con la finalidad de mantener la integridad de la patria rusa.

¿A qué se refiere el Sr. Putin cuando habla de bajos estándares y falsos valores? Las respuestas están en sus últimos discursos. Afirma él, que las formas en que Occidente actúa para hacer valer los derechos de las minorías sexuales, la no-discriminación racial y en general, elevar la ética y justicia social son equivocadas; sostiene él, que estas medidas promueven la discriminación inversa y confunden los roles tradicionales de género y familia, y para prevenir que algo así ocurra en Rusia, ésta debe edificarse sobre sus propios valores espirituales, su tradición histórica y cultura.

La opinión personal del Sr. Putin es tan valiosa como la de cualquier otro individuo, y sus críticas a las culturas del despertar (wokeness) y la de la cancelación son legítimas. Pero como presidente de un país, endosárselas a 150 millones de personas, es inadmisible; y lo es menos, extenderla más allá de sus fronteras. Además, del asunto no menor que sus argumentos sobre la gente LGBTQ, las familias patchwork o las personas con adicciones, además de anacrónicos, los ha rebatido la ciencia abrumadoramente (véase). 

Entre luces y sombras, Rusia y la Unión Soviética nos han dado a Tolstoi, Chejov, Dostoievski, Gorki, Tchaikovski, Prokofiev, Horowitz, Baryshnikov, Kandinski, Chagall, Pavlov, Vavilov, Mendeleiev, Bakunin y un interminable etcétera. Pero su líder político de momento, el Sr. Putin, con su discurso y acciones está redefiniendo dolorosamente el significado de barbarie en el siglo XXI. 

#27 Novedades del pasado (24.02.22)

Por Daniel Callo-Concha

Los descubrimientos arqueológicos de los últimos años están convirtiendo aquel chiste que decía, que la historia antes era más fácil porque no cambiaba tanto, en una afirmación irrefutable. 

Los primeros documentos escritos datan de hace 5500 años, lo que es bastante tiempo, pero apenas cubre el 1% del tiempo que nuestra especie lleva sobre la tierra. Para enterarnos de lo que sucedió en el restante 99% debemos valernos de la arqueología, que es una disciplina que parecía haber tenido su época dorada durante el siglo XIX e inicios del siglo XX, cuando los “descubrimientos” de vestigios del pasado eran más aparentes. Entonces, avanzadillas de viajeros y exploradores occidentales se internaban en las profundidades de desiertos, junglas, cordilleras, estepas y hasta las profundidades del mar en busca de rastros de civilizaciones pasadas. En ocasiones, tales expediciones se coronaban de éxito, las magníficas ciudades de Teotihuacán, Machupicchu y Tikal, son buenos ejemplos de ello. Cubiertas de vegetación y polvo, sólo despertaron la atención popular cuando aquellos expedicionarios las develaron a los ojos de la academia primero, y luego del mundo.

Seguramente de ahí le viene a la arqueología aquella aura de aventura y misterio. Pero la arqueología del día a día era mucho menos excitante. Las excavaciones suelen durar años y hasta décadas, en las que los arqueólogos con infinita paciencia sistematizan cada estrato descubierto y registran cada hallazgo, que luego contrastarán con registros y archivos temáticos para reconstruir el pasado, eso sí, añadiendo un poquito de especulación. Aplicando tal metodología, en Troya -Turquía actual-, se identificaron hasta nueve capas de sedimentos, correspondientes a igual número de ciudades que ocuparon sucesivamente el área en los últimos 5000 años. Así solía ser el trabajo de los arqueólogos hasta hace poco, cuando algunas tecnologías les dieron un empujón notable. 

Por ejemplo, la arqueología espacial, que usa imágenes de satélite y geoestadística para inspeccionar e interpretar patrones, se ha aplicado en Egipto para detectar cientos de poblados, tumbas y hasta pirámides, que hasta entonces habían pasado desapercibidas. Pese a ser una de las regiones más excavadas del planeta, Sarah Parcak, especialista en el tema, cree que apenas se ha expuesto una milésima parte de los restos existentes.

Por mucho tiempo se creyó que la agricultura requería de condiciones climáticas estacionales para desarrollarse, por lo que se consideró ideales las regiones boreales y templadas. Pero recientes estudios eco-arqueológicos y arqueobotánicos a lo largo de la Amazonia, han descubierto numerosos asentamientos que datan del holoceno (12 000 a.e.c.), en los que se evidencia la práctica de sofisticados cultivos mixtos de cacao, maíz, yuca, camote, calabaza y otros, que se plantaban entre palmeras y árboles, y se abonaban con residuos orgánicos. Prácticas consideradas hoy modernas y ambientalmente sostenibles.

Y claro, el santo grial de los arqueólogos (y paleontólogos): el eslabón perdido. Desde los tiempos de Darwin, los descubrimientos de las especies que concatenaban nuestros tres millones de años en el planeta se sucedían con acusada lentitud. En los últimos 20 años apenas, se hallaron Danuvius guggenmosi en Alemania, Australopithecus sediba y Homo naledi en Sudáfrica, Homo longi en China, y Homo florensis en Indonesia, todos, eslabones perdidos de distintas épocas de nuestra evolución. Tales hallazgos, además de reajustar las cronologías de aparición y extinción, gracias al mapeo genómico, van transfigurando nuestra vieja noción de cadena evolutiva en más bien una red de ramificaciones interconectadas.   

No era broma, la historia cambia más que antes y lo hace más rápido. 

#26 El juego de tres enemigos (10.02.22)

Por Daniel Callo-Concha

La corporación RAND, acrónimo de Research ANd Development, Investigación y Desarrollo en español, es una organización que parece salida de una película de 007. Se creó en 1948 para aglutinar los esfuerzos científicos bélicos de los Estados Unidos (que habían proliferado durante la Segunda Guerra Mundial). Aunque ha ido ampliado sus actividades a cuestiones civiles, su mandato original persiste: “desarrollar investigación de punta para aplicaciones prácticas y de operaciones”, que son eufemismos para decir defensa, otro eufemismo para referirse a conflicto y guerra. La RAND ganó celebridad durante la guerra fría, cuando enfocó sus esfuerzos en apertrechar a los Estados Unidos con teorías, tecnologías y estrategias para ganarla, y para ello reclutaron algunas de las mentes más brillantes de la época, que no han sido pocas: en la RAND han trabajado 32 premios Nobel, y numerosas personalidades políticas.

Uno de los científicos consejeros de la RAND fue el legendario John von Neuman, cofundador de la teoría de juegos, que analiza las interacciones entre actores que buscan su propio beneficio. La disciplina fue retomada por Thomas Schelling, otro merecedor de un Nobel quien, interesado en el comportamiento de actores en situaciones de conflicto, encontró en los llamados juegos de guerra el modo de estudiarlos. Así fue que RAND creo una unidad ocupada en analizar situaciones de conflicto a partir de invasión, bombardeo, boicot, ataques biológicos, ciberataques, etc. Sus especialistas experimentan tanto medidas de coerción, disuasión o concesión, como las de amedrentamiento, bloqueo, ataque y destrucción, utilizando para ello sofisticados juegos de guerra, que abastecen con información clasificada y en los que suelen participar mandos militares reales. Entre estas guerras ficticias hay conflictos latentes como los de Irán e Israel o Corea del Sur y Corea del Norte, pero también hay otros, hasta hace poco más improbables, como el de la OTAN contra Rusia. 

Hasta ahora la lógica de tales juegos de guerra había considerado a dos competidores enfrentados entre sí, y aliados que se les van sumando para desequilibrar y equilibrar sucesivamente el conflicto. Vistas así, las guerras que conocemos siguen tal patrón: griegos contra troyanos en la mítica guerra de Troya; independentistas contra realistas en las guerras de independencia; los aliados contra el eje en la Segunda Guerra Mundial; y el arquetipo final, el bloque del Este contra el del Oeste en la guerra fría.

Pero las recientes evoluciones geopolíticas y sobre todo económicas en el concierto global, ha surgido un escenario completamente nuevo para los especialistas en defensa. Tras la guerra fría, el modelo capitalista encabezado por los Estados Unidos había mantenido una hegemonía indiscutible, sólo eventualmente cuestionada por Rusia. Pero con el debilitamiento norteamericano y el portentoso crecimiento económico chino, un escenario de tres actores se ha develado. Las muestras de señorío de China en Taiwán y Hong Kong, y las de Rusia en Asia Central, y ahora Ucrania, lo dejan avizorar aún más.

En una guerra entre tres enemigos, los enfrentamientos bilaterales crean vulnerabilidades, atacar crea flaquezas, las certezas se hacen relativas y las alianzas efímeras. Así pues, las estrategias que se tenían para prevenirlas u operar en ellas ya no sirven. 

Detrás de los oponentes de los varios conflictos en curso están estos tres actores evitando enfrentarse entre sí, previniendo efectos globales, que ojalá se mantengan así y un conflicto mayor no ocurra más que en las simulaciones de los juegos de guerra.

#25 Confiar en la ciencia (27.01.22)

Por Daniel Callo-Concha

La pandemia de COVID-19 ha tenido numerosos efectos. Además de los más graves: enfermar a más de 370 millones de personas y matar a casi seis, ha traído muchos otros colaterales. Durante el 2020, cuando buena parte de países habían instituido confinamientos y restricciones por doquier, los gestos de solidaridad proliferaron, millones de personas buscaron a familiares y amigos olvidados, se generalizaron los aplausos al personal sanitario, y muchos, admirados de cómo la naturaleza se recobraba de nuestras agresiones cotidianas, nos prometimos prestar más atención a nuestras decisiones y acciones.

También, aunque no sin altibajos, un fenómeno común ha sido la revelación del papel de la ciencia para las mayorías. Algunos ejemplos: hoy en día son ubicuos los artículos y reportajes que compilan y contrastan los resultados de las últimas publicaciones científicas sobre la epidemiología de la variante Ómicron del COVID-19; y aún más detallados y actualizados son los que describen la eficiencia de las vacunas y los tratamientos al caso. Se ha hecho popular el uso términos como umbral de rebaño, ensayo clínico, transmisión comunitaria, aplanar la curva, unidad de cuidados intensivos, distanciamiento social, enfermedades zoonóticas, etc. Y más importante todavía, parece que la consulta con especialistas está camino de convertido en estándar.

Hace algunas semanas el Wellcome Center publicó los resultados de una encuesta sobre la confianza de la gente común y corriente en la ciencia y actores relacionados. La encuesta incluyó a casi 120 mil personas en 113 países (toda América Latina fue considerada), y se ejecutó durante la fase más álgida de la crisis sanitaria del COVID-19: fines de 2020 e inicios de 2021. Una encuesta anterior sobre el mismo tema se había llevado a cabo en 2018, así que los resultados de la última expresan bien los efectos que la pandemia y la llamada ‘infodemia’ han tenido sobre la gente. 

En suma, hubo un aumento de 10% en la confianza en la ciencia y los científicos de la persona promedio (de 31 a 41%). La desconfianza y descreencia se mantuvo constante en 13%. Hay algunas discrepancias regionales, en Europa, la confianza en la ciencia oscila alrededor del 60%, en África lo hace cerca del 20%, y en América Latina está en el medio, con 40%, aunque en comparación a la medida anterior -26%-, su crecimiento fue el mayor a nivel global. Cuando se trata de los gobernantes y la ciencia, la confianza de los ciudadanos es mucho menor: apenas un 26% confía en que los políticos actúen en base a dictámenes científicos. América Latina está entre las regiones más escépticas -apenas 15%-, probablemente acostumbrada a los actos de equilibrio de nuestros líderes que tienden a equiparar las prioridades sanitarias con las económicas y electorales. Finalmente, los periodistas gozan de la menor confianza global cuando se trata de informar sobre ciencia -sólo 19%-. Lo que urge a que los comunicadores reajusten sus maneras cuando lo hagan sobre cuestiones científicas, o que los científicos mismos se involucren en comunicación popular.

El aumento de la confianza popular en la ciencia es sin duda una buena noticia y un paso adelante en el desarrollo de las sociedades. Pero hay muchos otros problemas que nuestras sociedades confrontan cuando no se están azotadas por pandemias.  Problemas para los que la ciencia tiene argumentos y consejo. El clima, la contaminación, el transporte, la alimentación y un larguísimo etcétera, son algunos de ellos, en los que científicas y científicos trabajan día a día y aguardan que sus contribuciones encuentren espacios más útiles que las revistas académicas. 

PD. El informe completo del Wellcome Center: https://wellcome.org/reports/wellcome-global-monitor-covid-19/2020 

#24 Cabezazos y demencia (13.01.22)

Por Daniel Callo-Concha

En 1928 Harrison Martland publicó un artículo en la revista de la asociación médica norteamericana, titulado sugestivamente Punch Drunk (borrachera por golpes). En este presentaba un síndrome que había observado en algunos individuos, y así lo caracterizaba: lentitud, temblores, desorientación y problemas al hablar. Estudios subsecuentes notaron que el número de afectados entre los boxeadores retirados era desproporcionadamente alto, por lo que lo llamaron Dementia pugilistica, pero sólo en 1949 los especialistas le dieron el nombre formal de encefalopatía traumática crónica (ETC). 

La ETC es una condición neurodegenerativa causada por golpes y sacudidas repetitivas y persistentes en la cabeza, lo que explica bien la razón de su presencia entre los boxeadores. Hay estimaciones de que hasta el 30% de ellos podría sufrir de ETC en alguna medida, y que sus primeros síntomas aparecen alrededor de 10 años tras el retiro; también se han identificado como agravantes potenciales la edad -cerebros más jóvenes pueden ser más delicados-, y alguna predisposición hereditaria, más de la mitad de personas aquejadas de ETC y Alzheimer comparten configuraciones genéticas similares.

Con el correr del tiempo la ETC se ha revelado también en atletas que practicaban artes marciales como el muay thai o el boxeo tailandés, pero más recientemente, se ha reportado en otros deportes de contacto como el fútbol americano, lucha, hockey y rugby, donde los choques de cabeza son intencionados y frecuentes. Un caso notable fue el de Mike Webster en 2002, un exfutbolista americano profesional, muerto repentinamente tras sufrir un rápido deterioro intelectual y cognitivo, además de dar signos de depresión e infligirse daños a sí mismo. Su autopsia ofreció pruebas irrefutables de ETC, lo que desató una controversia al respecto de la protección de los atletas en la NFL, la liga profesional de fútbol americano de los Estados Unidos.

Pero esta no es una historia nueva. Los efectos de la ETC se han exhibido a los aficionados en su forma más descarnada. Durante la inauguración de los juegos olímpicos de 1996 en Atlanta, el último portador de la antorcha fue el legendario boxeador Muhammad Ali, quien durante 90 agonizantes segundos recibió la antorcha, la levantó y giró para encender el fuego olímpico. Durante aquel tiempo su cuerpo no paró de temblar espasmódicamente.

Hace poco la ola de la ETC le llegó al otro fútbol, el de Pelé y Messi, y claro, el factor crucial fue el cabeceo.  En Inglaterra, cuatro de los campeones mundiales de la copa de 1966 fueron diagnosticados de demencia, que se ha achacado a la ETC. Tras ello, se ha volteado la mirada a las circunstancias de futbolistas retirados, a casos como el de Gerd Müller, campeón y goleador de la copa mundial de 1974, famoso por su cabezazo, quien murió demente en una casa de cuidado a los 75 años. Un rosario de estudios ha añadido evidencia palmaria, como aquel que identificó entre las causas de muerte de futbolistas profesionales escoceses, padecimientos como demencia, Alzheimer y ETC son 3.5 veces más altas que en la población media. Más recientemente, el último foco de preocupación se ha dado en el fútbol femenino, pues parece que los cerebros de las mujeres son aún más lábiles. 

Aunque la comunidad médica ha advertido y demanda medidas desde hace 70 años, es poco lo que se ha hecho. A los aficionados jóvenes se les ha recomendado medidas como revestir mejor los cascos y guantes o limitar el número de cabezazos por juego; para los de arriba de 30 ó 40, sólo esperar. Mientras tanto, el deporte comercial sigue rompiendo año a año sus propios récords financieros, y algunos deportistas profesionales empiezan a reevaluar sus costos de oportunidad.