sábado, 29 de diciembre de 2012

Biominerales

Los submarinos nucleares imitan la estructura hidrodinámica del cuerpo del delfín, los aviones plagian las enormes alas de los albatros, el sonar ya lo usaban las orcas y los murciélagos millones de años antes de que los humanos lo inventásemos. Una máquina de fotografía presenta el mismo diseño que el ojo de un pulpo; la visión en la oscuridad no consiste más que en detectar rayos infrarrojos… como hacen algunas serpientes. Los químicos, como los ingenieros, también se disponen a imitar a los seres vivos en su intento de diseñar nuevos materiales y, en su afán de obtener productos con unas características superiores a las actuales, han tratado de reproducir en los laboratorios ciertas reacciones químicas celulares; lamentablemente, no han logrado los resultados esperados: el mecanismo natural de formación de muchos biominerales todavía les resulta extremadamente complejo. Sí, conocen la composición química de más de medio centenar de biominerales: constan de cristales de fosfatos, carbonatos y sulfuros de calcio, hierro o magnesio que están imbuidos en una matriz de material orgánico; pero no es suficiente.

Sabemos que proteínas, grasas y azúcares son los componentes mayoritarios de los seres vivos; sin embargo, solemos olvidar que los minerales también constituyen una parte no desdeñable de los organismos: huesos, dientes, cáscaras, caparazones, conchas, perlas o corales están constituidos principalmente por minerales que se forman en el interior de la materia viva. Un complejo conglomerado de capas de proteína y carbonato cálcico constituye la cáscara del huevo de las aves y reptiles. Compactas estructuras de pequeños cristalitos constituyen los huesos y dientes de los animales vertebrados, y las conchas de los moluscos; de hidroxiapatito (un fosfato) los primeros y de calcita o aragonito (carbonatos) los segundos. Excepcionalmente bellos, vistos con el microscopio, son los cristales de aragonito que constituyen el nácar y las perlas de los moluscos. Y no me olvido del ópalo (sílice) elaborado por las algas diatomeas, ni de las piritas (sulfuros), magnetitas (óxidos) o dolomitas (carbonatos) sintetizadas por bacterias. Aunque los biominerales resultan imprescindibles como elementos estructurales de los esqueletos internos y externos de los seres vivos, también pueden resultar perjudiciales; ahí están, para certificarlo, los fosfatos u oxalatos de calcio que se hallan en los cálculos en el riñón, en la bilis o en las vías urinarias.

Contemplo la Peregrina, la legendaria perla que perteneció a las joyas de la Corona de España, y no sé qué admiro más, si la belleza de la gema o la habilidad del animal que la fabricó.

sábado, 22 de diciembre de 2012

Las influencias de la Luna

Durante la Edad Media era habitual creer que la Luna llena causaba trastornos mentales, de hecho, lunático significa loco. El lector escéptico habrá escuchado numerosas veces que durante la Luna llena los hospitales reciben más pacientes, que hay más partos o que los delitos aumentan: los estudios estadísticos niegan cualquier influencia lunar en estos fenómenos. Nuestro satélite, en cambio, sí causa las mareas, y también ha favorecido el desarrollo de la ciencia y la formación de la biosfera.

Comienzo con una observación aparentemente banal: la Luna nos presenta siempre la misma cara; porque gira sobre sí misma y en torno a la Tierra en el mismo tiempo, veintisiete días y tres décimas. Tiempo que se convierte en veintinueve días y medio si se considera que la Tierra también gira; y es este último dato el que marca las fases de la Luna, los eclipses y las mareas.

La Luna es un astro brillante cuya forma y posición varían periódicamente en el firmamento; unos cambios que debieron fascinar al hombre primitivo, quien la consideró una deidad. Anaxágoras, hace veinticuatro siglos, razonó que tanto la Luna como el Sol eran cuerpos gigantes, rocosos y esféricos y que la luz emitida por el satélite consistía en luz reflejada de la estrella (esta idea, ateísta, fue una de las causas de su exilio): la razón, y no el mito, trataba de explicar la naturaleza. Hiparco de Nicea demostró que la Luna distaba de la Tierra treinta diámetros terrestres y que su diámetro era la cuarta parte del terrestre (relación similar a la de una pelota de baloncesto con una de tenis): por primera vez la mente humana concebía la multiplicidad de mundos. ¡Admirémonos! La Luna está lo suficientemente cerca como para que las observaciones oculares puedan concretarse en medidas.


No solemos pensar en ello, pero si nos fijásemos observaríamos que los tamaños de los discos solar y lunar coinciden: quien haya observado un eclipse total de Sol lo habrá comprobado. Se debe a que el diámetro solar es cuatrocientos veces superior al de la Luna, pero se halla cuatrocientas veces más alejado; y no tenía por qué ser así; ningún planeta cuenta con un satélite que le tape completamente el Sol. La Luna, el quinto satélite más grande del Sistema Solar, el mayor en proporción al tamaño de su planeta, ha estabilizado el bamboleo del eje de rotación de la Tierra, y con él su clima y, en consecuencia, ha influido en la biosfera. ¡Nada menos!

sábado, 15 de diciembre de 2012

Los murciélagos y la enfermedad de Guam


Quizá el lector viajero sepa que Guam (en las islas Marianas) pertenece a los EE.UU.; pero probablemente ignorará que perteneció a España hasta 1898, y que tripulantes de la expedición de Magallanes desembarcaron en ella en 1521. En este recóndito lugar, a comienzos de la década de 1950, los médicos detectaron una enfermedad neurológica desconocida: causaba debilidad muscular, parálisis, demencia y un número anormalmente alto -entre un tercio y un cuarto- de fallecimientos entre los chamorros (hispánico nombre de la población isleña original): la denominaron ALS-PDC (iniciales de amyotrophic lateral sclerosis-Parkinsonian dementia complex), porque sus síntomas se asemejaban a los de la esclerosis lateral amiotrófica, el párkinson y el alzhéimer.

En el libro “La isla de los ciegos al color”, Oliver Sacks relató la bella historia del descubrimiento de la probable causa del mal. Descartada la genética y los virus, un alimento de la cocina local despertó las sospechas de los investigadores: los chamorros hacían tortillas con harina de semillas de cicas, unas palmeras, que contenían la neurotoxina BMAA (iniciales de beta-metil-amino-L-alanina); pero había que comer cientos de tortillas diarias para reproducir los síntomas. Intervino entonces Paul Alan Cox, quien observó que el zorro volador (una variedad de murciélagos) era un plato tradicional que los chamorros consumían en fiestas y celebraciones; también se fijó en que los zorros voladores comían grandes cantidades de semillas de cicas; conjeturó que la neurotoxina se acumulaba en los murciélagos hasta concentraciones peligrosas para la salud humana; el análisis demostró lo acertado de su hipótesis. Tranquilícese el preocupado lector: probablemente los zorros voladores de Guam no provocarán más enfermedades; desgraciadamente porque están a punto de extinguirse; afortunadamente porque se salvan vidas humanas (la incidencia de la enfermedad de Guam ha caído en picado).

El asunto no está zanjado y los descubrimientos sobre la BMAA se suceden: se ha encontrado en pacientes con esclerosis lateral amiotrófica; se ha comprobado que produce anomalías en el aparato locomotor y alteraciones en el comportamiento de los macacos Rhesus; sepan los aficionados a la sopa de aleta de tiburón que contiene mucha BMAA, que también se ha hallado en las cosmopolitas cianobacterias. Se colige de estas observaciones que los humanos estamos expuestos a concentraciones dañinas si se produce una bioacumulación a través de las cadenas alimentarias; en resumen, la BMAA podría iniciar algunas enfermedades neurodegenerativas debido a que muchas personas se exponen diariamente a dosis pequeñas, pero acumulativas de ella. La investigación continúa…

sábado, 8 de diciembre de 2012

Movimientos del Sol: nuestro vecindario cósmico

El observador que se detenga a contemplar el cielo durante una noche despejada hallará, encima de su cabeza, una mancha lechosa: es la Vía Láctea, nuestra galaxia. Describiré nuestro vecindario estelar en breves pinceladas: se trata de un inmenso conjunto de más de doscientas mil millones de estrellas que tiene la forma de un disco gigantesco, tan enorme, que la luz tardaría cien mil años en atravesarlo longitudinalmente pasando por el centro, o doce mil años si hace la travesía en dirección transversal. Nosotros nos localizamos -en el disco- a mitad del camino al centro galáctico, aproximadamente.

El Sol, acompañado de los planetas, describe una trayectoria con forma de hélice alrededor del centro de la galaxia; tres movimientos constituyen la hélice. El movimiento más largo y rápido -cada segundo recorre doscientos diecisiete kilómetros- consiste en una órbita más o menos circular alrededor del núcleo galáctico; órbita singular porque nos movemos hacia el norte terrestre: considere el astuto lector que el plano que contiene al sistema solar está inclinado casi noventa grados respecto al plano de la Vía Láctea. Un dato más: el sistema solar completa una vuelta a la galaxia cada doscientos cincuenta millones de años, quizá algo menos (un año galáctico). Detengámonos un instante para valorar la magnitud de este tiempo: si usáramos el año galáctico como unidad para medir las edades geológicas, diríamos que el Sol tiene dieciocho años galácticos, hace quince que aparecieron las primeras bacterias en la Tierra y tres los primeros animales; menos de una milésima de un año galáctico habría transcurrido desde que apareció el primer humano. El segundo movimiento del sistema solar consiste en una oscilación -a siete kilómetros por segundo- hacia arriba y hacia abajo del plano de la galaxia; actualmente nuestro sistema solar se encuentra a sesenta y siete años luz, por encima del plano, que atraviesa cada treinta y cinco (o cuarenta) millones de años. El tercer movimiento, similar al segundo en dirección perpendicular, se trata de un vaivén –a veinte kilómetros por segundo- hacia el centro y hacia afuera de la galaxia.

El lector inteligente ya habrá deducido, igual que los científicos, que nuestro vecindario cósmico podría ser responsable de alguno de los cataclismos periódicos ocurridos en el pasado en la biosfera: abundan las hipótesis, pero faltan pruebas concluyentes.

sábado, 1 de diciembre de 2012

Agotamiento de los abonos

     El final de este hermosísimo soneto de Luis de Góngora nos aporta un interesante asunto sobre el que reflexionar.

Goza cuello, cabeza, labio y frente
antes que lo que fue en tu edad dorada
oro, lirio, clavel, marfil luciente...
se vuelva...
tierra, humo, polvo, sombra, nada.

     El poeta minusvalora, como la mayoría de los humanos, el polvo; y el polvo es bastante más que nada. Si analizásemos las cenizas de un humano comprobaríamos que tres cuartos de kilo de su cuerpo son fósforo, un elemento relativamente abundante en nuestro organismo, que está destinado a adquirir una importancia fundamental a finales de este siglo.

     Las plantas necesitan cantidades relativamente grandes de los elementos -nitrógeno, fósforo y potasio- que no pueden reponer; hay que proporcionárselos mediante los abonos. Ya en la antigüedad se añadían al suelo, de manera empírica, el fosfato de los huesos (calcinados o no), el nitrógeno de los excrementos y el potasio de las cenizas. En el siglo XXI no escasea el potasio, existe en el agua del mar; los químicos han conseguido fijar el nitrógeno del aire; el fósforo es el recurso que limita la agricultura, porque no hay reservas de él en la atmósfera y su extracción se confina a los yacimientos terrestres (los mayores se sitúan en Marruecos).

     El fósforo se mueve por toda la Tierra: está en la corteza, en los océanos o forma parte de los seres vivos; sigue un ciclo diferente, sin embargo, al del carbono, nitrógeno o azufre porque, al contrario de ellos, no forma compuestos volátiles que le permitan pasar a la atmósfera y de allí retornar al suelo. Las rocas constituyen el almacén principal; a medida que se erosionan liberan los compuestos fosfatados al suelo y al agua, de donde lo absorben las raíces de las plantas; los animales lo obtienen alimentándose de los vegetales; tanto unos como otros, al morir, se descomponen y liberan el fósforo, que es utilizado de nuevo por otros seres vivos o es transportado al océano por los ríos; una vez en él sólo se recicla hacia los ecosistemas terrestres mediante los excrementos de las aves marinas o debido al levantamiento geológico de los sedimentos marinos, en un proceso que dura millones de años.

     Y ahora, ¡preocúpese el lector inteligente! Los geólogos pronostican que los yacimientos de fósforo se estarán agotando en el 2050.

sábado, 24 de noviembre de 2012

Luces misteriosas: la triboluminiscencia

Una de las tareas más hermosas de los científicos consiste en buscar la explicación de fenómenos naturales, incluso cuando aparentemente resultan inexplicables; fijémonos en dos curiosas observaciones que, en un principio, no deberían guardar relación. Nicolás Monardes, un famoso médico y botánico español del siglo XVI, se fijó en que los porteadores sevillanos que transportaban sacos de azúcar emitían una luz, que notaba en las noches sin luna. Durante el terremoto del quince de agosto de 2007, los habitantes de Lima (Perú), apreciaron fogonazos de colores durante la noche.
¿Hay algún nexo de unión entre el suceso sevillano y el limeño? Quizá la posible explicación de ambos se halle en un inusual fenómeno. La triboluminiscencia consiste en la emisión de luz por algunos materiales debido a su fricción; y se observa cuando, en la oscuridad, se trituran cristales de azúcar o se desmenuzan algunas sales de uranio o de otras sustancias; el color, la intensidad y la duración de los destellos dependen del material. Resulta obvia la explicación del relato de Monardes: no eran los porteadores, sino los cristales de azúcar los que brillaban, cuando eran triturados a lomos del transportador durante el camino; y en cuanto a lo visto por los peruanos: la trituración del cuarzo u otros minerales durante el movimiento causado por el terremoto tal vez causase la luminiscencia nocturna.
Los científicos idearon una teoría para explicar el fenómeno: sospechaban que sólo los materiales cuyos cristales son asimétricos parpadean cuando se les tritura; al dividir el cristal en dos partes, una adquiría cargas positivas, la otra, negativas; la recombinación inmediata de las cargas produce la crepitación del aire y los pequeños relámpagos. Sin embargo algo fallaba porque varios materiales con cristales simétricos también chispeaban. Para explicar la discrepancia Linda M. Sweeting estudió detenidamente el fenómeno: se fijó en unos compuestos concretos y halló que todos los asimétricos brillaban, mientras que sólo la mitad de los simétricos lo hacían, además, un compuesto asimétrico perdió su capacidad de parpadear después de purificado. Infirió que las asimetrías del cristal, creadas por las impurezas, explican la triboluminiscencia. El estudio demuestra que no sólo la estructura cristalina, sino también las impurezas resultan fundamentales para establecer si un material es o no triboluminescente.
Como sin duda habrá comprobado el crítico lector, los científicos han avanzado en la búsqueda de una explicación, pero todavía no comprenden completamente el fenómeno.

sábado, 17 de noviembre de 2012

¿Es posible aprender como en Matrix?

     ¿Cuánta realidad hay en las películas de ciencia ficción? Quienes disfrutamos con la lectura de los libros de Isaac Asimov, Arthur Clarke, Stanislav Lem o Michael Crichton nos hacemos preguntas como ¿es posible introducir conocimientos en nuestro cerebro como hace la máquina de Matrix? ¿Podríamos aprender sin esfuerzo?

     El profesor Takeo Watanabe asegura haber modificado un área cerebral concreta, logrando que una persona mejore su capacidad visual sin ser consciente de ello; dicho con otras palabras, ha introducido conocimientos directamente en el cerebro. El experimento consiste en exponer a individuos a señales visuales capaces de alterar una zona del cerebro muy plástica, conocida como área visual temprana (se localiza en la parte trasera –occipital- del cerebro, donde procesamos las imágenes que proceden del ojo). Las señales se diseñan para que cambien las conexiones neuronales del sujeto receptor y las hagan coincidir con otro patrón; el correspondiente a las conexiones neuronales de otra persona, la poseedora de las habilidades que se quieren aprender. Los investigadores han comprobado que quienes habían recibido los estímulos mejoraron sus habilidades visuales, incluso ignorando el fin del experimento. El aprendizaje visual no es nuevo: quienes trabajan diariamente con animales distinguen caras que para otro sujeto son iguales; lo nuevo consiste en que la visión de algo distinto a las caras permite reconocer las caras mejor. Aclaro que la corteza visual se ha manipulado mediante la tecnología de neuroretroalimentación fMRI decodificado, trabalenguas que significa que ciertos parámetros de la actividad cerebral se modifican usando imágenes por resonancia magnética funcional.

     Los resultados de los experimentos sugieren que podría usarse esta técnica para aprender a tocar el violín sin esfuerzo consciente: tal y como contemplamos en la película Matrix. Tal tecnología plantea interesantes problemas morales: nada que objetar si fuésemos capaces de imprimir en nuestro cerebro las habilidades cerebrales para tocar el violín; pero, ¿qué pasaría si nos introdujeran los parámetros de un asesino? Que no se preocupe el atribulado lector: es precipitado afirmar que los resultados del experimento puedan extrapolarse a las áreas del cerebro cognitivas o motoras. Por el momento los expertos se contentan con soñar que, en el futuro, tal vez aprendamos chino viendo durante unos segundos extrañas imágenes en nuestro ordenador; al fin y al cabo, ya hemos comprobado otras veces que la ciencia ficción puede convertirse en realidad.

sábado, 10 de noviembre de 2012

Los rayos cósmicos


     El aficionado a la ciencia está habituado a leer en los periódicos que los descubrimientos en la física de partículas se deben a experimentos efectuados en grandes máquinas y supone que siempre ha sido así. Se equivoca: durante décadas, y hasta la construcción de los primeros aceleradores, la física de partículas se desarrolló gracias al estudio de los rayos cósmicos. ¿Qué son estos rayos que no se observan directamente, sino que se detecta su choque con las moléculas de la atmósfera?
     Descubiertos en 1912, los rayos cósmicos no son rayos, sino partículas (noventa y ocho de cada cien, núcleos de hidrógeno y de helio) procedentes del espacio extraterrestre. Tienen una energía enorme debido a su elevada velocidad, cercana a la de la luz; para darnos una idea, el rayo cósmico más energético registrado tenía trescientos trillones de electrón-voltios, se trata de la energía equivalente a la que tiene un ladrillo de cinco kilos, que cae desde un metro, en el momento de alcanzar tu pie, amigo lector; pero concentrada en una minúscula partícula subatómica. El Sol emite rayos cósmicos de baja energía, las supernovas los expulsan de energía media. La fuente de los rayos cósmicos de alta energía ha sido un misterio durante mucho tiempo; datos recientes tomados en el observatorio Pierre Auger sugieren que proceden del centro de galaxias cercanas a la nuestra (concretamente, del supercúmulo local, que se halla a menos de ciento cincuenta millones de años-luz), donde probablemente hay agujeros negros activos. Afortunadamente o desgraciadamente, la naturaleza parece que impone una frontera a estos intrépidos viajes: la interacción de los rayos cósmicos con los fotones de la radiación del fondo cósmico de microondas, que rellena el espacio, bloquea la marcha de la mayoría de los rayos cósmicos que poseen una energía superior a un límite (GZK), estimado en sesenta trillones de electrón-voltios.
     Es cierto que los rayos cósmicos ultraenergéticos son raros: el observatorio Pierre Auger sólo ha detectado cuatro en cuatro años; pero también lo es que son cientos de millones de veces más energéticos que cualquier partícula producida por el hombre en los grandes aceleradores, el famoso LHC incluido. Me pregunto entonces ¿por qué los físicos no se arman de paciencia y usan preferentemente los rayos cósmicos en vez de los grandes aceleradores? Al fin y al cabo, las instalaciones son muchísimo más baratas.

sábado, 3 de noviembre de 2012

Contaminación agrícola infravalorada


En el siglo XXI la contaminación del agua por las prácticas agrícolas insostenibles -las habituales- plantea una grave amenaza para la salud humana y de los ecosistemas del planeta que muchos agricultores y gestores públicos infravaloran. La frase parece rotunda; pero refleja la certeza del peligro que atestiguan los expertos en el tema. Tal vez el perspicaz lector lo ignore, pero la mayor fuente de contaminación del agua no son las ciudades ni la industria, sino la agricultura, y los nitratos procedentes de la actividad agrícola son los más habituales contaminantes químicos que pueden detectarse en los acuíferos subterráneos. La agricultura vierte productos químicos sintéticos, materia orgánica, sedimentos y sales en el agua; se trata de una contaminación que afecta a miles de millones de personas y que genera costes de miles de millones de dólares anuales. No, no son las personas, ni las áreas urbanas quienes producen más aguas residuales y materia orgánica que contamina el agua que necesitamos imperiosamente, sino la agricultura y ganadería; actividades que además añaden otros riesgos, no hay más que recordar sus acompañantes: los plaguicidas, nitratos, metales tóxicos y antibióticos perjudiciales para la salud humana. 
El auge de la productividad agrícola mundial, que se inició en la mitad del siglo XX, se logró a través del uso intensivo de plaguicidas y fertilizantes químicos que, si bien es verdad que han conseguido aumentar la producción mundial de alimentos, también amenazan la salud humana y de los ecosistemas. Dos datos nos permiten valorar la amplitud del aumento: desde 1960 el uso global de fertilizantes minerales se ha multiplicado por diez, desde 1970 las ventas mundiales de plaguicidas se han multiplicado por treinta y cinco. La ganadería no se ha quedado atrás en el crecimiento: desde 1970 el número mundial de cabezas de ganado se ha más que triplicado; pero tal intensificación pecuaria ha alumbrado una nueva clase de contaminantes: los antibióticos y hormonas del crecimiento que, a través del agua, viajan desde las granjas a nuestras bebidas o a los ecosistemas. Y la acuicultura, que se ha multiplicado por veinte desde 1980; un nuevo sector que libera excrementos de los peces, antibióticos, piensos sin consumir y fungicidas en las aguas terrestres superficiales. 
¿Que la salud de las personas y de los ecosistemas está amenazada? La forma más eficaz de neutralizar el peligro consiste en limitar la emisión de contaminantes en el origen. ¡No hay otra solución!

sábado, 27 de octubre de 2012

Tragedias volcánicas

     ¿Los humanos contemporáneos son conscientes del riesgo que conlleva el lugar que han elegido para vivir? Más de quinientos millones de personas moran hoy en zonas de actividad volcánica, y veinticinco de las mayores ciudades del mundo están dentro del radio destructivo de los volcanes. Se trata de lugares peligrosos; unos cuantos datos ayudarán al lector comedido a formarse una opinión. Cito las tres erupciones que han causado más víctimas en la historia: ochenta y dos mil personas fallecieron en Tambora (Indonesia) en 1815, treinta y nueve mil en Laki (Islandia) en 1783, y treinta y seis mil en Krakatoa (Indonesia) en 1883. Según el vulcanólogo Joan Martí las erupciones volcánicas mataron más de doscientos veinte mil humanos desde finales del siglo XVIII; lo hicieron de diversas formas: la hambruna y las epidemias (el treinta por ciento), los flujos piroclásticos (el veintisiete por ciento), los flujos de lodo (el diecisiete por ciento) y los tsunamis provocados por volcanes (el diecisiete por ciento).

     Por su cercanía, tres volcanes me merecen atención. Se considera al Vesubio uno de los volcanes más peligrosos del mundo por dos razones: está activo y sus erupciones son explosivas, aunque su actividad habitual se reduzca al vapor emanado por el cráter; además, constituye la región volcánica más densamente poblada del mundo, ubicado junto a Nápoles, en sus alrededores viven unos tres millones de personas. Famoso por la erupción del año 79, en la que sepultó a las ciudades romanas Pompeya y Herculano, ha entrado en erupción numerosas veces y algunas han sido tan grandes que cubrieron Europa meridional con cenizas, cenizas que llegaron a Estambul, en los años 472 y 1631.

     El volcán más activo de Europa y uno de los más activos del mundo se encuentra en la costa de Sicilia: el Etna está casi en constante erupción, pero no se considera peligroso: miles de personas viven en sus alrededores, incluso numerosas viñas y huertos se extienden por las laderas de la montaña, porque la fertilidad de la tierra volcánica es proverbial.

     El tercer mayor volcán terrestre medido desde su base, más de siete mil metros sobre el fondo oceánico (tres mil setecientos sobre el nivel del mar), se encuentra en la isla española de Tenerife. Las fumarolas que el Teide emite regularmente desde su cráter muestran que se mantiene activo, y un reciente estudio prevé que podría tener erupciones violentas. Espero no asustar a los canarios si declaro que los geólogos ignoran cuando sucederán.

sábado, 20 de octubre de 2012

Los biocombustibles y el hambre

Mil millones de famélicos en todo el mundo sufren, desde el año 2007, la escalada en los precios de los alimentos. Probablemente el lector agobiado recluirá en el desván de su mente la causa de la crisis alimentaria mundial, porque aliviar el hambre del mundo es un fenómeno complejo que –cree- no guarda relación con la súbita escalada de precios. En 2011, -arguye Timothy Searchinger- la producción agrícola no ha disminuido, sin embargo ha aumentado la demanda; de cereales y azúcares casi se ha duplicado y la de aceites vegetales se ha elevado un cuarenta por ciento. ¿El responsable? Los biocombustibles. Tenemos la imperiosa obligación -concluye Searchinger- de alimentar a los hambrientos, y los biocombustibles están minando nuestra capacidad de hacerlo; desgraciadamente la mayoría de los expertos infravalora este efecto.
¿Qué son los biocombustibles? Materia orgánica –biomasa- utilizable como fuente de energía; que se obtiene de especies agrícolas, -como la caña de azúcar, el maíz o la mandioca-, de plantas oleaginosas, -como la soja, el girasol o las palmas-, e incluso de especies forestales, -como los eucaliptos o pinos-. Ya se emplea el bioetanol, obtenido por la fermentación de la caña de azúcar o del maíz, siendo Brasil y Estados Unidos los principales productores; también el biodiesel, elaborado a partir de grasas animales y de aceites vegetales, como los de soja, colza o girasol; y el biogás -principalmente metano y monóxido de carbono-, obtenido mediante la fermentación de materia orgánica: excrementos animales, subproductos de la caña de azúcar, residuos de mataderos, destilerías y fábricas de levadura, residuos del café, y materia seca vegetal. Aclaro que los desechos agrícolas y forestales más abundantes, los ricos en celulosa, se desechan porque no resultan rentables.
¿Las ventajas? Los seres vivos –la biomasa- absorben el dióxido de carbono de la atmósfera que después emiten al quemarlos; un balance nulo en el caso de usos tradicionales, pero en los procesos industriales resulta inevitable utilizar un suplemento de energía (en maquinaria, transporte o consumo de agua), por lo que resulta una emisión neta de dióxido de carbono a la atmósfera. El mayor inconveniente de los biocombustibles, sin embargo, consiste en la utilización de vegetales comestibles para producirlos; o en el cambio del uso de las tierras dedicadas a producir alimentos por el cultivo de vegetales destinados a biocombustibles; o incluso, provocando la desforestación o desecación de selvas, ya que al subir el precio de los biocombustibles se financia la tala.

sábado, 13 de octubre de 2012

Sonoluminiscencia: la conversión del sonido en luz

Resulta difícil de creer, pero los físicos han conseguido convertir sonido en luz dentro de sus laboratorios. Para reproducir la sonoluminiscencia -que así llaman a este singular fenómeno- aplican ultrasonidos a un líquido; las ondas generan pequeñas burbujas (cavidades) que, si colapsan rápidamente, alcanzan temperaturas, dentro de ellas, que superan los diez mil grados; en tales condiciones se forma un plasma que emite destellos de luz. 
¿Cómo sucede? Recuerde el lector aficionado que las ondas sonoras (el sonido) consisten en una serie de compresiones y expansiones sucesivas del aire. Durante la compresión, se produce un aumento de presión en el seno de la minúscula pompa de aire, que la obliga a colapsarse; a medida que la pared de la esferita gaseosa (de millonésimas de metro de tamaño)  se aplasta, se propaga una onda de choque (similar a la que se produce en el aire cuando un avión supera la velocidad del sonido) hacia su interior, calentándolo, hasta que se detiene la implosión; entonces estalla hacia afuera emitiendo luz y radiación ultravioleta. La burbuja consigue que la energía se concentre mil millones de veces porque, si bien las vibraciones acústicas se miden en centímetros, la luz sale de una región diminuta (considere el lector entendido que cada vez que el radio de la burbuja se reduce cien veces, su volumen disminuye un millón). Como al concentrar la energía en un espacio minúsculo aumenta su temperatura, el punto caliente que se forma en el interior podría alcanzar un millón de grados si la onda de choque sobreviviera hasta las veinte milmillonésimas de metro; teóricamente sería posible llegar incluso a diez millones, tan caliente como el interior del Sol. 
          Puede interesarnos que el fenómeno se haga estable: se ubica entonces la onda acústica dentro de un líquido para conseguir que una única burbuja se expanda y contraiga, emitiendo un destello de luz en cada colapso, y repitiendo una y otra vez el proceso de forma periódica. 
En 2002, Rusi P. Taleyarkhan aseguró que había producido fusión nuclear en las burbujas creadas en un líquido por ondas ultrasónicas; sin embargo, el experimento no ha podido reproducirse y otros investigadores han concluido que estaba mal concebido, incluso que era fraudulento. A pesar del dictamen negativo, el escritor es optimista; el fenómeno le parece prometedor, la teoría no presenta contradicciones y tal vez otro investigador tenga éxito donde Taleyarkhan falló.

sábado, 6 de octubre de 2012

¿La inflamación es una enfermedad?

Durante la última década los médicos han averiguado que la inflamación impulsa enfermedades mortales como el cáncer, la diabetes, la enfermedad de Alzheimer o la aterosclerosis. ¿Se trata, entonces, de una enfermedad? Cuando el médico reconoce los cuatro síntomas: tumor (un bulto, un agrandamiento anormal de una parte del cuerpo que aparece hinchada), rubor, calor y dolor, su diagnóstico es inequívoco: inflamación. Y no, no se trata de una enfermedad, sino de una respuesta del organismo que produce un efecto saludable; la inflamación es una reacción inespecífica frente a agresiones, que surge tanto con el fin de destruir al agente dañino, como para reparar el tejido u órgano dañado. Existen multitud de agentes capaces de producir inflamaciones (fíjese el filólogo lector en el sufijo itis para reconocerla): no sólo las bacterias, virus, parásitos y hongos, sino también las radiaciones, el frío, el calor, las toxinas, los traumatismos o los cuerpos extraños; sin olvidarnos de la muerte de células o de alteraciones inmunitarias. El problema de la inflamación consiste en que la defensa se dirige tanto contra los agentes dañinos como contra los tejidos y órganos sanos, a los que puede lesionar.

Cuando, por la razón que sea, se inicia la reacción inflamatoria, las hormonas de la inflamación producidas por ciertas células actúan sobre el conjunto del organismo con el fin de movilizar los recursos defensivos, entre los cuales se halla la elevación de la temperatura, el tabicado de la zona lesionada para aislarla del resto, el aumento de la síntesis de proteínas, la movilización de los leucocitos defensores y la activación de los fibroblastos reparadores. Puesto que esta potente defensa puede producir daños, resulta fundamental mantenerla bajo control; por ello se disparan unas señales químicas que sirven para terminar el proceso inflamatorio; porque si la inflamación se mantiene un tiempo prolongado, semanas o meses, se convierte en crónica, -un tipo de inflamación que también puede empezar de manera progresiva-; coexisten entonces el daño y los intentos de reparación; en cualquier caso, la inflamación es responsable del daño de los tejidos en la artritis reumatoide, la aterosclerosis o la fibrosis pulmonar. Las infecciones persistentes, la exposición prolongada a tóxicos como el polvo de sílice, la aterosclerosis y anomalías en el sistema inmunológico entre las que se hallan la artritis reumatoide, la esclerosis múltiple, la enfermedad de Crohn o el asma bronquial son las causas habituales de las inflamaciones crónicas. Espero que el lector aprensivo se haya tranquilizado.

sábado, 29 de septiembre de 2012

Fluidos supercríticos

La tecnología de fluidos supercríticos -no los confunda el lector despistado con los superfluidos- se ha desarrollado en las últimas décadas. Los métodos de extracción convencionales emplean costosos disolventes orgánicos -nocivos, tanto para la salud humana como para el medio ambiente- y altas temperaturas, que degradan los productos y aumentan la cantidad de impurezas. Afortunadamente ya pueden hacerse los mismos procesos empleando fluidos supercríticos (el dióxido de carbono es el más usado) como disolventes. Se trata de una tecnología inocua para la salud, más respetuosa con el ambiente y que garantiza una mejor calidad del producto; presenta indudables ventajas frente a los técnicas convencionales: selectividad, ausencia de emisiones y residuos peligrosos, temperaturas suaves, completo reciclado del disolvente, ahorro energético y reducción de costes. Con tales propiedades a nadie extrañará que cada vez se utilicen más como disolventes en las reacciones para la obtención de sustancias valiosas, como vitaminas, aceites esenciales, aditivos y aromas. Menciono un par de casos: se emplea el dióxido de carbono supercrítico (por encima de treinta y un grados centígrados y setenta y dos veces la presión atmosférica habitual) para extraer la cafeína de los granos del café; mediante oxidación con agua supercrítica (por encima de trescientos setenta y cuatro grados centígrados y doscientas veintiuna veces la presión atmosférica habitual) se eliminan desechos tóxicos y peligrosos, tales como los residuos de las industrias químicas o farmacéuticas, los lodos de depuradoras, los plaguicidas o los explosivos.
¿Qué propiedades tienen los fluidos supercríticos que los vuelven tan valiosos? Son un híbrido entre un líquido y un gas, en otras palabras, se trata de gases con propiedades de líquidos, porque se difunden como un gas y disuelven como un líquido. Naturalmente hay más fluidos supercríticos que el dióxido de carbono y el agua; es más, cualquier la sustancia que supere cierta temperatura y presión (su punto crítico) se considera un fluido supercrítico. ¿Qué sucede en esa cota? Que no existe diferencia entre el gas y el líquido, por encima del punto crítico ni se produce licuefacción al presurizar, ni gasificación al calentar.
Abandonemos ahora la tecnología y alejémonos de nuestro planeta; a cuarenta años-luz de distancia, en 2004, los astrónomos descubrieron el exoplaneta 55 Cancri e. De tamaño poco más que el doble de la Tierra, la composición, temperatura y presión de la superficie de este extraño mundo son tan extraordinariamente diferentes a las terrestres, que los investigadores sospechan que allí existen… fluidos supercríticos.

sábado, 22 de septiembre de 2012

Herbicidas

Las plantas no deseadas -las llamadas malas hierbas- en los cultivos constituyen un considerable problema para los agricultores; por ello aplican herbicidas al ochenta y cinco cien por ciento de las plantaciones principales. Hay herbicidas de muchos clases: los de contacto sólo afectan a la zona de la planta sobre la que caen, los sistémicos son absorbidos por la planta y afecta a toda ella; los no selectivos matan toda la vegetación y se utilizan en zonas industriales y carreteras, mientras que los selectivos eliminan sólo algún tipo de plantas (unos matan los vegetales de hoja ancha, otros las hierbas de hoja estrecha). En cualquier caso, los biólogos coinciden en que las poblaciones de maleza sometidas a la acción de un herbicida cualquiera, por un período suficientemente largo, sufren un proceso de selección que las vuelve resistentes al herbicida.

Uno de los herbicidas más usados mundialmente en los cultivos de trigo, maíz y arroz, el 2,4-D (ácido 2,4-diclorofenoxiacético), destruye las plantas de hoja ancha, pero no las gramíneas (hierbas y cereales); el compuesto que se vende contiene, además del producto activo, peligrosísimas dioxinas. El Paracuat (dicloruro de 1,1´-dimetil-4-4´-bipiridilo), extremadamente tóxico si es ingerido, también es ampliamente utilizado para el control de malas hierbas en la agricultura; en 2007 los tribunales lo prohibieron en la Unión Europea. El glifosato -Roundup de nombre comercial-, otro de los más empleados en céspedes y agricultura merece un comentario especial. Se utiliza contra los cultivos de opio y coca, y también para eliminar maleza en los cultivos de soja transgénica (o de maíz o algodón), que ha sido manipulada genéticamente para que el glifosato no le afecte. La Organización Mundial de la Salud ha declarado en 2000 que no hay riesgo potencial de que el Roundup ponga en peligro la salud humana; sin embargo, un estudio posterior (2008) ha mostrado que productos metabólicos del glifosato causaron la muerte in vitro de placentas y embriones humanos en concentraciones mucho menores que las recomendadas para el uso; otros estudios, también in vitro, han demostrado que el herbicida afecta a la producción de la hormona progesterona. ¿Debe considerarse el glifosato peligroso, entonces? Algunos esperan a experimentos con animales vivos para definirse, otros juzgan que más vale prevenir que lamentar. Mientras los expertos debaten, la Agencia de Protección Ambiental de los Estados Unidos ha denunciado, en dos ocasiones, a unos científicos que habían falsificado deliberadamente los resultados de las pruebas realizadas en sus laboratorios sobre los efectos del glifosato. ¡Vivir para ver!

sábado, 15 de septiembre de 2012

Materiales invisibles

     La habilidad del camaleón para cambiar el color de la piel y confundirse con el paisaje probablemente asombrará al lector entusiasta. En la naturaleza abundan los animales diestros en el arte del disimulo y ocultación; ahora bien, ¿cuál es el mejor camuflaje? Un animal invisible, contestará, sin duda, el lector ingenioso, ¿es posible?
     Para ver un objeto, el ojo humano (o cualquier cámara fotográfica, que funciona de la misma forma) necesita captar los fotones de la luz que se reflejan en el propio objeto. Si lográsemos que la luz, en vez de reflejarse, rodease el objeto, veríamos lo que hay detrás; este es el tipo de invisibilidad que pretenden alcanzar los científicos. Xiang Zhang ha conseguido crear un material que no refleja la luz volviendo invisible, al ojo del observador humano, un objeto cubierto con él; comprendo que el departamento de defensa de EE.UU. financie estas investigaciones: no me cuesta esfuerzo imaginar un recubrimiento que vuelva invisibles a los carros de combate; sería equivalente a la tecnología que ya usan los aviones invisibles al radar, pero operando con luz visible.
     Los investigadores han comenzado su tarea usando objetos minúsculos que, obviamente, ven con microscopios; empleando esta tecnología esperan que ni siquiera con los aparatos puedan verse. ¿Qué hacen? Xiang Zhang y su equipo han creado algo parecido a una capa de invisibilidad, un material cuya estructura consta de múltiples capas ordenadas en un patrón especial; las elaboran con óxido y nitruro de silicio; la capa, al cubrir el objeto, desvía la luz que le llega e impide los reflejos; dicho con otras palabras, la luz esquiva los objetos, volviéndolos invisibles. El trabajo de Zhang ha requerido el uso de la nanotecnología para obtener estructuras de un tamaño cercano a la milmillonésima de metro, se trata de estructuras artificiales que poseen propiedades inexistentes en los materiales naturales (se les llama metamateriales: aprenda el lector inexperto esta nueva palabra, que oirá mucho en el futuro). Las pruebas han tenido éxito cuando se han usado objetos tan diminutos como los glóbulos rojos de la sangre; pero los experimentadores esperan mejorar el método para aplicárselo a objetos de mayor tamaño, y creen que, en el futuro, podrá ser usado sobre las personas. El sueño de H. G. Wells de volver invisible a un hombre tal vez pronto se haga realidad.

sábado, 8 de septiembre de 2012

Reprogramar células

     La técnica de la reprogramación celular ha sido uno de los hallazgos científicos más populares de los últimos años. ¿Por qué entusiasma a expertos y profanos? Porque aspira a que se vuelva realidad el sueño de fabricar tejidos y órganos sanos que sustituyan a los enfermos.

     Los biólogos saben que las células madre embrionarias (células madre pluripotentes naturales) tienen la capacidad natural de convertirse en cualquier tipo de célula del cuerpo: buscan conseguir la misma capacidad de forma artificial. En el año 2006 los profesores Kazutoshi Takahashi y Shinya Yamanaka obtuvieron por primera vez células madre pluripotentes inducidas (células iPS); en otras palabras, consiguieron que una célula adulta del cuerpo fuera capaz de transformarse en otra de un tipo distinto: la reprogramaron, la modificaron para que retrocediera en su proceso evolutivo hasta que pudiera convertirse en cualquier tipo de célula, y adquiriese un potencial que tuvo y había perdido. En resumen, la técnica persigue que una célula cualquiera, de la piel por ejemplo, se convierta en una neurona o en una de los más de doscientos tipos celulares que existen en el organismo.

     ¿Cómo funciona la técnica? Los científicos insertan unos genes concretos en células adultas, y se valen de un virus como vehículo para transportar los genes; consiguen así poner a cero el reloj celular para que, al empezar la maduración de nuevo, y mediante el cultivo adecuado, se genere otro tejido. A pesar de que la técnica funciona, existen numerosos interrogantes; porque se ignora qué ocurre exactamente en la célula cuando los nuevos genes se instalan, y no es un problema menor el que los virus transportistas puedan provocar un cambio indeseable. Sin embargo, los avances técnicos se producen casi a diario: un investigador halló un atajo para que la célula modificada no necesite empezar su desarrollo desde cero, consiguió que una célula del páncreas se convirtiera en otra capaz de producir insulina, sin necesidad de pasar por el estado embrionario; otro investigador ha sustituido el virus por un plásmido (una molécula de ADN), como vehículo más seguro para transportar los genes; otro ha empleado genes distintos de los habituales para evitar la formación de tumores; aun otro ha mejorado enormemente la eficacia de la técnica usando células de la epidermis (la capa superficial de la piel).

     Quizás un día los científicos consigan crear cualquier órgano o tejido sano a partir de unas pocas células de un individuo enfermo; pero, por ahora, nadie ha osado poner fecha a esta fantasía.

sábado, 1 de septiembre de 2012

Los vientos

Los vientos son gentes muy libres, fanfarrones señores y, alguna vez, grandes, asombrosos justicias. Yo les pido humildemente que despierten y se levanten de sus secretas camas, y paseen por las alamedas y las marinas, charlando a grandes voces o soplando cañas de agudo silbo.

Los vientos han influido en la civilización: han extendido el transporte y la guerra; dispersan las semillas de algunas plantas, erosionan, modelan el relieve y constituyen suelos fértiles, mueven el polvo de los desiertos a grandes distancias y generan tormentas de polvo que perjudican la economía de las regiones afectadas. ¿Cómo se forman agentes tan activos? El viento es el movimiento del aire en la atmósfera que se traslada de las altas a las bajas presiones, para compensar las diferencias; diferencias producida por el distinto calentamiento. Las diferencias térmicas próximas producen vientos locales: el ciclo brisa diurna del mar a la tierra y brisa nocturna de la tierra al mar se debe a que, en la costa, se calienta más la tierra que el mar durante el día, al revés de lo que sucede por la noche; el mismo fenómeno se aprecia en las laderas de montaña: el valle actúa como el mar y la cima, como la tierra. La diferente absorción de energía solar por las distintas zonas terrestres produce los vientos globales; si la Tierra fuese homogénea y estuviese inmóvil, el calentamiento del ecuador originaría un ascenso del aire que sería reemplazado por el aire frío del polo, el circuito se cerraría por la parte alta de la atmósfera; como no es así, las trayectorias de los vientos se desvían y el viento polar no llega al ecuador; se forman entonces tres circuitos en cada hemisferio donde había sólo uno; y todos nos han servido en algún momento de la historia: los vientos del este de latitudes altas empujaron a los vikingos a América, igual que los alisios ayudaron a Colón, quien tuvo que ascender de latitud para que otros vientos, los del oeste, le devolvieran a Europa. Y hay más, la agricultura de la India –más de mil millones de personas- depende de los estacionales vientos monzones: que soplan de sur a norte en verano, cargados de lluvias (traen el ochenta por ciento de las precipitaciones anuales); y que, durante el invierno, viajan secos en dirección inversa.

Ignoro si los cíclopes viven en democracia o aristocracia; ya lo averiguaré algún día; pero aseguro que algunos vientos subsisten en una perpetua e irreprochable tiranía.

sábado, 25 de agosto de 2012

Armas químicas

     Durante el siglo XX los científicos han contribuido enormemente al desarrollo de armas de destrucción masiva: nadie ignora la fabricación de las bombas atómicas y a todos nos parecen horrorosas: las fotos de las explosiones nucleares y el arrasamiento de Hiroshima y Nagasaki resultan argumentos contundentes. ¿Por qué las letales armas químicas de destrucción masiva no tienen idéntica mala fama? Desde luego las razones no hay que buscarlas en su escaso uso. Los agentes químicos se utilizaron por primera vez, a gran escala, durante la Primera Guerra Mundial: los alemanes atacaron con cloro a los franceses; y desde entonces ambas partes se destruyeron con saña: un millón de heridos y ochenta y cinco mil muertos fueron causados por cincuenta millones de kilos de agentes respiratorios, lacrimógenos y vesicantes (causan ampollas en la piel y las mucosas, y matan por asfixia), entre los que incluyo el cloro, el fosgeno y el gas mostaza. Hago un breve inciso para anunciar que los españoles también participamos de la insania: durante la Guerra del Rif (de 1921 a 1927, en el norte de África), las fuerzas españolas, asesoradas por alemanes, dispararon bombas de gas mostaza contra los rebeldes bereberes. La segunda guerra mundial impulsó la industria química; los científicos alemanes descubrieron y fabricaron grandes cantidades de agentes nerviosos gaseosos como el GA (tabún), GB (sarín) y GD (somán), tanto ellos como el VX son los agentes químicos de guerra más tóxicos y de efecto más rápido que se conocen; ignoro la causa por las que no los usaron durante el conflicto. ¿Cómo actúan? Bloquean la enzima acetilcolinesterasa, que se encarga de destruir la acetilcolina (el mensajero entre las neuronas y los músculos); si no se destruye inmediatamente después de actuar, la actividad muscular se descontrola y el sujeto muere.

     La mayoría de los agentes nerviosos son compuestos fosforados que los químicos sintetizaron cuando buscaban insecticidas para la agricultura, por ello se les parecen. Y por ello entenderá el lector ingenuo la preocupación de algunos países cuando otros, cuya producción agrícola es mínima, acumulan sustancias con las que fabricar insecticidas… o armas químicas de destrucción masiva.

     Como bien imaginará el lector suspicaz, almacenar y transportar productos extremadamente tóxicos resulta peligroso. ¿Solución? Diseñar armas químicas binarias en las que el tóxico no está activo, sino que se encuentra en forma de dos precursores separados, menos tóxicos que su mezcla. Problema resuelto.

sábado, 18 de agosto de 2012

Comunicaciones con neutrinos

Las radios, los televisores, los móviles y la mayor parte de las comunicaciones funcionan mediante la emisión y la recepción de ondas electromagnéticas; ondas que no atraviesan montañas, ni océanos. En contraste con ellas, ningún obstáculo impide el paso a los neutrinos, que son capaces de atravesar planetas enteros; estas diminutas partículas se mueven libremente por el universo porque apenas interactúan con la materia. Aprecio la rareza de estas partículas -que carecen de carga eléctrica, casi de masa y viajan a casi la velocidad de la luz- cuando reparo en que los neutrinos procedentes del Sol atraviesan limpiamente nuestro planeta -y a mí mismo-, como si fuera vacío; concretamente, cada segundo, miles de millones pasan a través de cada centímetro cuadrado terrestre.

¿Ha reflexionado alguna vez, el astuto lector, sobre las ventajas de utilizar neutrinos en las comunicaciones? Haciéndolo sería posible comunicar dos lugares cualesquiera de la Tierra sin cables ni satélites: un submarino podría enviar mensajes a través del agua a grandes distancias, algo imposible con la tecnología actual; y no sólo eso, cualquiera de nosotros podría enviar mensajes a las antípodas, directamente a través del interior del planeta; incluso si nuestro interlocutor estuviera en la cara oculta de la Luna, la transmisión de información sería posible.

Un grupo de investigadores de EEUU encabezado por Dan Stancil ha conseguido, por primera vez, la hazaña de usar neutrinos para enviar un mensaje. Un potente acelerador de partículas de tres kilómetros de circunferencia emitía haces de neutrinos, y un gigantesco detector de cinco toneladas, instalado en una cueva a más de cien metros de profundidad, detectaba sólo uno de cada diez mil millones de los neutrinos emitidos. Durante dos horas los experimentadores enviaron un escueto mensaje a través de doscientos cuarenta metros de roca: el texto constaba de una única palabra, neutrino. Antes de efectuar la transmisión, los investigadores habían traducido el vocablo al código binario; el uno correspondía al envío de un grupo de neutrinos y el cero a su ausencia. El emisor disparó los neutrinos y en la pantalla del ordenador acoplado al receptor los ilusionados científicos leyeron: "Neutrino".

El experimento ha abierto la posibilidad de nuevos sistemas de comunicaciones. Por supuesto, el tamaño del emisor y del detector nos da idea de lo poco práctica que es esta tecnología; pero el primer paso para conseguir una comunicación mediante neutrinos consiste en demostrar que es posible: y eso ya se ha logrado. Quince de marzo de 2012, un día para la historia.

sábado, 11 de agosto de 2012

Orientación en el bosque: los musgos


En el mar bullía la vida, las bacterias pululaban por doquier, las algas se mecían al compás de las olas o permanecían fijas al suelo oceánico; pero la tierra firme permanecía desnuda, carecía de vida vegetal. La insignificante talla de los musgos y su poca vistosidad no estimulan la curiosidad del aficionado; sin embargo, constituyen las primeras tentativas vegetales por conquistar los continentes desnudos; un intento meritorio, aunque limitado: porque los musgos no han inventado las raíces, ni la flor, ni el fruto, ni la semilla. ¿Qué hicieron entonces para diferenciarse de las algas? Comenzaron la especialización, dividieron el trabajo entre un órgano conductor del agua, el tallito, y las hojas. Las hojas, auténticas baterías solares, aparecieron por primera vez en la Tierra, y con ellas aumentó la superficie que ofrecen las plantas al Sol para absorber más energía. No hicieron más y su incapacidad para producir madera los condenó al enanismo, pero su inventó les llegó para comenzar la colonización de las superficies emergidas, hace cuatrocientos cincuenta millones de años. En el presente los encontramos en las áreas húmedas; tanto en las selvas como en las ciudades, ya en los bordes de ríos, ya entre las piedras de los edificios o en el pavimento de las calles; pero dondequiera que se asienten, requieren agua para que ocurra la fertilización. No desdeñe el lector altivo estas plantas porque todavía cumplen una función en los ecosistemas actuales: debido a su alta capacidad de absorción de agua, retienen la humedad del suelo y evitan su degradación.
¿Le gusta al lector intrépido pasear por el bosque? Si es así, le resultará fácil orientarse durante un día nublado. Fíjese en el lado de las rocas y árboles que tenga más musgo: en esa dirección se hallará el norte, porque el lado opuesto, el que mira al Sol – el sur en el hemisferio norte - carece de agua suficiente para que los musgos vivan. Conocemos mejores usos para estos vegetales: los musgos Sphagnum son el componente principal de la turba, que se utiliza como combustible, o se agrega al suelo en la horticultura, o vale para ahumar la malta del afamado whisky escocés; incluso durante la Segunda Guerra Mundial, y debido a sus suaves propiedades bactericidas, los musgos fueron utilizados como primeros auxilios en las heridas de los soldados. 
Una última indicación que tranquilizará al amante de las plantas: los musgos secos pueden no estar muertos, algunos sobreviven desecados y reviven horas después de su rehidratación.

sábado, 4 de agosto de 2012

Volcanes en erupción

¿Cuántos volcanes, ahora mismo, construyen el suelo que pisarán nuestros nietos? El Programa de Vulcanismo Global del Instituto Smithsoniano nos proporciona una contestación. Ahora hay alrededor de veinte volcanes en erupción; cada año, entre cincuenta y setenta; durante los últimos diez mil años, mil quinientos. Probablemente haya más: cuatro kilómetros cúbicos de lava emergen anualmente a la superficie de nuestro planeta, y sólo la cuarta parte de esa cantidad está en los continentes: nos enteramos de éstas, el resto transcurre en los fondos marinos. Por cierto, en estas zonas oceánicas la nueva lava aflorada obliga a que los continentes se separen -dieciocho centímetros cada año en el Pacífico y dos en el Atlántico-.

Vesubio, Krakatoa, Kilimanjaro, Popocatépetl, Erebus, existen volcanes en todos los continentes, ¿alguna vez se preguntó el lector sensato por qué son tan distintos? Influyen muchas circunstancias. La composición del magma local es una de ellas: el magma se transforma mientras sube a la superficie; cuando se enfría, a lo largo del ascenso, cristaliza, y sus gases quedan atrapados entre los cristales; cuanto más lento sube más tiempo dispone, más se enriquece en gases y más explosivo se vuelve el magma, “como cuando abres de golpe una botella de cava". La procedencia del magma constituye otro factor a considerar: el que se origina en las zonas donde las placas tectónicas se separan, es distinto del de las zonas donde una placa se introduce debajo de otra; como es lógico, los magmas creados en la parte superior del manto terrestre difieren de los formados en la base de la corteza. Un último aspecto debemos tener en cuenta: el Eyjafjallajökull no contenía magma muy explosivo, sin embargo el glaciar que cubría el volcán islandés se mezcló con la lava y el resultado de la erupción consistió en una enorme cantidad de cenizas que paralizó el tráfico aéreo en el norte de Europa durante el 2010.

Seguro que al lector prudente le interesará conocer la capacidad predictiva de los vulcanólogos. Los volcanes son muy complejos y generan señales ambiguas difíciles de interpretar, por ello, en la mayoría de los casos, es imposible anticipar con exactitud el momento y el tamaño de una erupción. Nadie adivinó que un volcán islandés despertaría en 2010, tras dos siglos de calma, y tampoco nadie sabe cuándo se activará el Teide, en Tenerife. El único remedio consiste en vigilar porque, como no se cansan de repetir los vulcanólogos, lo bueno de los volcanes es que avisan.

sábado, 28 de julio de 2012

Termorregulación en el tórrido verano y en el gélido invierno

¿Qué resguarda mejor del frío a una casa, unas paredes de madera o una capa de nieve del mismo espesor? La nieve protege mejor que la madera porque su conductividad térmica es dos y media veces menor, escrito con otras palabras, la nieve impide el paso del calor hacia el exterior mejor que la madera. Y el transporte de calor es un asunto sugerente porque, ¿cómo se ingenia nuestro cuerpo para mantener una temperatura invariable y no seguir los cambios del ambiente?

Los físicos saben que un cuerpo puede intercambiar calor con el aire de tres maneras diferentes: mediante la conducción el calor se transfiere por contacto directo; la convección lo transporta por medio del movimiento del aire que rodea al cuerpo; la radiación depende exclusivamente de la diferencia de temperaturas. Si se trata de humanos debemos incluir en el cómputo el sudor, la eliminación de calor con el agua de la transpiración. Recurrimos a los datos para ilustrar el proceso. Con el ambiente a veintitrés grados y la temperatura de la piel a treinta y cuatro; un hombre desnudo en reposo produce noventa vatios y pierde diecisiete por transpiración, once por conducción y convección, y ciento treinta y tres por radiación: el modelo nos indica que la pérdida predominante de calor se debe a la radiación y que la persona tendrá frío. Cuando el ambiente está a cuarenta y cinco grados, y la temperatura de la piel es treinta y siete, el mismo sujeto tendrá idéntica producción de calor –noventa vatios- a la que sumará ocho por conducción y convección y ciento nueve por radiación del ambiente; en este caso la transpiración se encargará de eliminar los doscientos siete vatios sobrantes.

La temperatura corporal está regulada principalmente por una región del cerebro, el hipotálamo; bajo su control, la sudoración comienza cuando la piel alcanza treinta y siete grados, y aumenta rápidamente a medida que la temperatura se eleva. Si la temperatura de la piel cae por debajo de treinta y siete grados se inicia una doble respuesta: para evitar las pérdidas caloríficas cesa la sudoración, se desencadena una vasoconstricción y se promueve la erección de los pelos y piel que aumenta el aislamiento; para aumentar la producción se provocan temblores musculares y se sintetizan las hormonas adrenalina, noradrenalina y tiroxina.

¡Admírese el lector inteligente! Tanto en el tórrido verano como en el gélido invierno su hipotálamo vela por él para que su temperatura corporal permanezca invariable.

sábado, 21 de julio de 2012

Superfluidos

     Antes del año 1877 muchos científicos aseguraban que los gases oxígeno, nitrógeno e hidrógeno no eran licuables. Planteado el desafío pronto distintos físicos lo aceptaron: la carrera para obtener temperaturas más bajas había comenzado. Lous Cailletet y Raoul Pictet pisaron la primera meta: licuaron el oxígeno a ciento ochenta y tres grados bajo cero, el nitrógeno a ciento noventa y seis bajo cero, y el aire, a una temperatura intermedia; para conseguir hidrógeno líquido, James Dewar debió bajar a doscientos cincuenta y tres grados; marca que superó Heike Kamerlingh Onnes, en 1908, quien, a menos doscientos sesenta y nueve, licuó al helio, un nuevo gas recién descubierto.

     Y a tan bajas temperaturas (la más baja posible, doscientos setenta y tres grados bajo cero, corresponde al cero absoluto) los físicos comenzaron a observar fenómenos raros. Los átomos del helio líquido se mueven, por mucho que los enfriemos; un efecto que contradice a la teoría clásica -según ella los átomos deberían permanecer inmóviles en el cero absoluto, debido a que carecen de energía cinética-, y avala la teoría cuántica, porque, para ella, los átomos nunca se hallan completamente quietos. El hecho de que el helio no se vuelva sólido al enfriarlo –otra manera de decir que los átomos no permanecen inmóviles- es la forma más simple de manifestar las consecuencias de las extrañas leyes de la mecánica cuántica.

     Lograda a temperaturas muy bajas, la superfluidez es otra manera, quizá la más espectacular, de que los objetos visibles manifiesten efectos cuánticos. El helio (por razones técnicas lo califico como cuatro) superfluido contradice la idea intuitiva de cómo debe comportarse un líquido; porque fluye sin esfuerzo a través de obstrucciones que retardarían el flujo de un líquido normal y porque se mueve desafiando las leyes del rozamiento: fíjese el perplejo lector que las corrientes de un superfluido persisten, no desaparecen, y que, si hacemos que una vasija con helio cuatro gire lentamente, observaremos que el líquido no participa en la rotación. Y no crea que acaba aquí el asunto; cuando los físicos comenzaron a trabajar con metales a temperaturas extremadamente bajas (la mitad de una mil millonésima de grado por encima de cero es la menor temperatura conseguida): ¡nueva sorpresa! La resistencia que presentan al paso de la corriente eléctrica desaparece: los metales se vuelven superconductores. Pero ésta ya es otra historia.

sábado, 14 de julio de 2012

Dos cerebros en uno

     En el reino animal, las facultades cerebrales tienden a encontrarse equitativamente repartidas en ambos hemisferios; no sucede así con los humanos. Juzgue el lector introspectivo el experimento que va a leer. Se ilumina la parte superior o la inferior de una pantalla y un sujeto debe predecir la parte que se va a iluminar; el experimentador impone que la luz aparezca en la parte superior ocho de cada diez veces, de forma aleatoria. Los individuos pronto se dan cuenta de que la parte superior se ilumina más a menudo y siempre tratan de descubrir la pauta; a pesar de que la adopción de esta estrategia significa aceptar el sesenta y ocho por ciento de las veces, cuando si apretaran sólo el botón superior acertarían el ochenta. Las ratas y otros animales aprietan únicamente el botón de arriba -así se comporta el hemisferio cerebral humano derecho-, no tratan de interpretar lo que sucede ni encontrarle significado, se limitan a acertar el ochenta por ciento. Cuando se le pide a la persona que explique el motivo de su elección… siempre encuentra una teoría, por descabellada que sea. El hemisferio cerebral izquierdo humano indaga el significado de los hechos, busca orden, aún cuando no exista, lo que le induce a cometer errores; tiende a generalizar en exceso, incluso construyendo a veces un pasado distinto del real: por ello los recuerdos verdaderos necesitan del hemisferio derecho, mientras que los falsos requieren de ambos. Lógicamente, el ingenioso e interpretativo hemisferio izquierdo tiene una experiencia consciente diferente de la exacta y literal del hemisferio derecho que se ocupa únicamente de la percepción.

     Los pacientes que tienen destruido el puente de unión entre ambos hemisferios cerebrales (técnicamente diríamos que su cuerpo calloso está seccionado) muestran una conducta excepcional. Si proyectamos una imagen en su campo visual derecho, -es decir, en su hemisferio izquierdo-, los sujetos describen lo que ven; pero cuando presentamos la misma imagen en el campo visual izquierdo dicen que nada ven, aunque señalan un objeto semejante al proyectado. Conclusión: el hemisferio derecho ve la imagen y realiza la respuesta motriz, pero resulta incapaz decir lo que ha visto. El experimento indica que cada hemisferio cerebral regula aspectos diferentes del pensamiento y de la acción: predomina el lenguaje en el izquierdo, mientras que el derecho sobresale en las tareas visuales y motoras. Los escritores ponderarán su cerebro zurdo, los pintores y escultores su cerebro diestro. 

sábado, 7 de julio de 2012

Antimateria

     Le recuerdo al lector profano, quizá confundido con los nuevos calificativos de la materia y de la energía, que probablemente existan la energía y la materia oscuras, aunque aún se ignore en qué consistan; sepa que podrá fabricar antimateria en un laboratorio o discutir sobre la realidad de la energía negativa; desconfíe, en cambio, de quien pontifique sobre la materia negativa o la antienergía, ambas carecen de significado.

     Fijémonos en la antimateria. Los científicos saben que todos los objetos materiales están formados por partículas; y también han observado que, por cada partícula de materia ordinaria, existe otra que tiene la misma masa y carga eléctrica opuesta. Dejemos volar la imaginación: estas nuevas partículas -que calificamos como antimateria- podrían unirse y formar átomos (antiátomos), que a su vez constituirían antiplanetas, antiestrellas, antigalaxias, quizá hasta antipersonas. Volvamos a la realidad de nuevo; los físicos han comprobado que cuando las partículas chocan con las antipartículas, ambas se aniquilan totalmente y en su lugar aparecen rayos gamma, que constituyen la forma más energética de la luz. Y otra vez recurrimos a la imaginación: si fuera posible que una persona se diese un abrazo con una antipersona se produciría una explosión equivalente a mil detonaciones de bombas nucleares de un megatón, suficiente cada una de ellas para destruir una ciudad.

     El lector inteligente probablemente se preguntará si existe antimateria en el universo. Los datos apuntan a que no: los observatorios astronómicos que detectan rayos cósmicos –partículas precedentes de las estrellas y galaxias- han hallado muy pocos antiprotones y antielectrones, y ninguna antipartícula pesada. Parece que el universo está formado casi exclusivamente por materia. Y nadie sabe a que se debe esta incómoda asimetría.

     Tanto se afanaron los astrónomos en buscar antimateria por todo el universo que al final la fueron a encontrar -en minúsculas cantidades- en el sitio menos esperado: en 2011, Michael Briggs detectó chorros de antimateria… en la Tierra. ¿Su origen? Los científicos sospechan que los quinientos destellos de rayos gamma terrestres, producidos diariamente en la atmósfera, son generados en la parte superior de las tormentas; si las condiciones son adecuadas intensos campos eléctricos desencadenan un ascenso de electrones, que alcanzan velocidades cercanas a la de la luz, y despiden rayos gamma cuando interaccionan con las moléculas del aire; rayos gamma que se transforman en electrones y positrones, que son expulsados fuera de la atmósfera. Antimateria encima de las tormentas. ¡Quién lo iba a decir!

sábado, 30 de junio de 2012

Insecticidas


Escarabajos, mosquitos y orugas causan daños a las cosechas y transmiten enfermedades; al lector ingenuo no le extrañará, por tanto, que más de la mitad de los plaguicidas sean insecticidas. Espoleados por las demandas de los agricultores y de los médicos, los químicos han descubierto una gran variedad insecticidas: los organoclorados (DDT, endrin, lindano) son venenosos, permanecen años en el ambiente antes de ser destruidos y se acumulan en los seres vivos; los organofosforados (malation, paration) son muy venenosos, tanto como el arsénico o el cianuro, pero aventajan a los anteriores en que se degradan en días y no se acumulan en el cuerpo; debido a ello su uso en agricultura ha aumentado enormemente después de la prohibición de los organoclorados. Los carbamatos (carbaril y propoxur, de nombres comerciales servin o Baygon) son poco tóxicos y poco persistentes (días), pero resultan menos eficaces que los anteriores; se usan como insecticidas caseros. Los piretroides, sustancias manufacturadas parecidas a las piretrinas que se encuentran en los crisantemos, también son poco tóxicos y poco persistentes; se aplican a las cosechas, jardines, animales domésticos y también directamente a los humanos.

Parémonos en analizar las ventajas e inconvenientes del DDT, uno de los primeros insecticidas sintéticos usado ampliamente en el mundo. A Paul Hermann Müller le concedieron, en 1948, el premio Nobel de Fisiología y Medicina por su descubrimiento porque desde que comenzó a usarse, en el año 1939, salvó la vida de millones de personas; en la India y en el año 1952 había setenta y cinco millones de enfermos de malaria, doce años más tarde, después del uso del insecticida, sólo cien mil. El DDT, además de proteger las cosechas, ha prevenido numerosas enfermedades mortales transmitidas por insectos; como la malaria, la peste o el tifus. Durante un tiempo se ignoraron sus perjuicios, que no se valoraron hasta las últimas décadas del siglo XX. Tarda siglos en degradarse, se almacena en la grasa de los animales y se acumula a lo largo de la cadena trófica (en la que nosotros participamos). Concretando; las aves y peces depredadores -que nosotros comemos- almacenan en su cuerpo concentraciones de DDT que los envenenan y pueden matarlos; además, ha disminuido su eficacia insecticida porque algunos mosquitos han desarrollado resistencia; por si fuera poco, la IARC, agencia de investigación del cáncer dependiente de la ONU, ha clasificado al DDT como probablemente cancerígeno. De beneficioso se convirtió en perjudicial y algunos países prohibieron su uso. 

sábado, 23 de junio de 2012

Gigantescas tormentas solares

     En septiembre de 1859, se produjo una de las tormentas solares más potentes de los últimos siglos. El estallido bombardeó la Tierra con los protones más energéticos de la segunda mitad del milenio, indujo corrientes eléctricas que incendiaron oficinas de telégrafos y ocasionó auroras boreales sobre Cuba y Hawái. ¿Cuándo sucederá de nuevo?

     En 1859, las consecuencias de la erupción solar fueron un día o dos sin mensajes telegráficos y muchos perplejos observadores contemplando el cielo en las regiones tropicales. En el siglo XXI, la situación sería más grave; nuestra sociedad depende de la alta tecnología. El Sistema de Posicionamiento Global (GPS), los satélites de comunicaciones o las redes eléctricas son vulnerables a las tormentas solares: las corrientes eléctricas que fluirían por el suelo producirían apagones en todos los continentes, que podría durar semanas o incluso meses, el tiempo que necesitasen los ingenieros para reparar los transformadores dañados; inútiles los aparatos GPS, los barcos y los aviones no podrían navegar; sin funcionar las redes bancarias y financieras, el comercio mundial se trastornaría. Según un informe de la Academia Nacional de Ciencias de EE.UU., una poderosa tormenta solar, como las que ocurren una vez cada siglo, tendría el mismo impacto económico que veinte huracanes de máxima intensidad (recuerde el lector olvidadizo la catástrofe ocasionada por el Katrina en EE.UU.). Y no podemos olvidar que los astronautas están expuestos rutinariamente a más radiación que los trabajadores en la Tierra; las alertas sobre las condiciones del tiempo en el espacio aumentarían su seguridad.

     Afortunadamente ya es posible rastrear las tormentas solares y emitir alertas para proteger las redes de energía eléctrica y otros dispositivos durante los períodos de actividad solar extrema (desconectando un transformador durante unas horas, por ejemplo). Para hacerlo, los científicos utilizan los datos recogidos por las naves espaciales en órbita alrededor del Sol. Unas horas después de una magna erupción, los ordenadores producen una película tridimensional que muestra hacia dónde se dirige la tormenta, qué planetas serán golpeados y cuándo ocurrirá el impacto.

     El escritor, que no es supersticioso, pero sí es algo malévolo con los crédulos, recuerda que la tormenta solar de 1859 ocurrió en la víspera de un ciclo solar de intensidad inferior a la media; y sabe que, a mediados de 2011, el Sol se encuentra en la víspera de un ciclo solar que probablemente será de intensidad inferior a la media…

sábado, 16 de junio de 2012

El dilema del prisionero

     La ayuda mutua consiste en un intercambio de acciones altruistas en las que el beneficio supera al costo. ¿Por qué se produce ese comportamiento? Después de todo una de las partes ganaría si se quedase con la fracción que le correspondiese aportar. ¿En qué casos debe cooperar un individuo con otros? ¿Cuándo traicionarlos para obtener ventaja? El mundo humano, y también el animal, está lleno de conductas de ayuda recíproca. Resulta paradójica la ubicuidad de la cooperación, porque ¿qué impide a los mutualistas convertirse en parásitos? ¿Por qué contribuir al esfuerzo colectivo en vez de aprovecharse de los demás? El altruismo entre parientes se explica recurriendo a la genética; pero no sucede lo mismo entre individuos no emparentados.

     El experimento titulado el dilema del prisionero resulta fácil de estudiar. Dos participantes tienen que decidir si cooperarán o delatarán: si ambos cooperan reciben tres puntos cada uno, si ambos delatan reciben uno cada uno, pero si uno coopera y el otro delata, el delator recibirá cinco y el cooperante nada. ¿Qué hacer? El análisis lógico del juego nos asegura que la mejor jugada es defraudar siempre, sin tener en cuenta la jugada del adversario; una conclusión que resulta desazonadora porque pone en entredicho toda cooperación.

     Las decisiones del conflicto anterior resaltan la diferencia entre lo mejor desde el punto de vista individual y lo mejor desde el punto de vista colectivo. Cabe imaginar un experimento en el cual jugadores programados con estrategias fijas contiendan muchas veces entre sí. En contraste con el caso único donde gana siempre el defraudador, en la versión repetida ninguna de las estrategias constituye una respuesta óptima frente a todo posible oponente. Robert Axelrod diseñó un torneo entre varias estrategias y comprobó que la victoria final fue para la más sencilla: la estrategia del toma y daca (análoga al bíblico ojo por ojo). Comienza cooperando y después repite la jugada del contrincante. Esta estrategia no irá de primera en ninguna fase del juego, pero muchas veces logra persuadir a sus oponentes de que la cooperación es rentable, y al final resulta ganadora. De este experimento concluimos que la aparición y persistencia del comportamiento cooperativo entre los seres vivos es verosímil, siempre y cuando los participantes se encuentren repetidas veces, se reconozcan y recuerden los resultados de pasadas interacciones.

     Conclusión: a lo largo de la historia de la vida la cooperación resultó tan esencial como la competencia. Congratulémonos.

sábado, 9 de junio de 2012

Vidrios

     Plinio el Viejo cuenta, en el siglo primero, que unos mercaderes fenicios de natrón (carbonato de sodio) se habían detenido a pernoctar en la orilla de un río sirio; como no había piedras donde colocar las ollas en las que cocinaban, decidieron utilizar trozos del mineral transportado; cenaron y durmieron. A la mañana siguiente vieron, asombrados, que las piedras de natrón se habían fundido y habían reaccionado con la arena: sin quererlo habían sintetizado el primer vidrio fabricado por el hombre. Una hermosa historia que nos informa que el vidrio se fabricaba ya en tiempos remotos en los estados del Mediterráneo oriental.

     El lector fumador está familiarizado con las reacciones químicas y la combustión será la que ha empleado más veces; no necesitamos recurrir a tan insanas costumbres para utilizar otro tipo de reacciones: me refiero a la neutralización de las sustancias ácidas con los productos básicos. El sibarita lector degustará los ácidos en los zumos de frutas, -el escritor prefiere los de limón y naranja-, y reconocerá como productos básicos al bicarbonato que neutraliza la acidez del estómago, al jabón, a la pasta de dientes, y también a la ceniza, o incluso a drogas como la cafeína, la cocaína o la nicotina. Pero no me voy a referir a las reacciones químicas entre sustancias ácidas y básicas que se producen a la temperatura del ambiente, sino a las que se efectúan a temperaturas altas; concretamente, a las que producen los vidrios.

     El vidrio común se obtiene por fusión, a unos mil quinientos grados centígrados, de sus componentes; la materia prima principal para su elaboración es la sílice (óxido de silicio), un producto ácido presente en el cuarzo o en la arena, a la cual se agregan diferentes proporciones de productos básicos, concretamente de sosa (carbonato de sodio), obtenida de las cenizas de algas marinas, y de piedra caliza (carbonato de calcio). Ahora bien, no crea el lector ingenuo que todos los vidrios funden a la misma temperatura; dependiendo de cual sea su composición, unos lo harán a poco más de quinientos grados, mientras que otros necesitan más de mil seiscientos.

     Le tengo una simpatía especial al vidrio porque se trata de un material totalmente reciclable; no hay límite en la cantidad de veces que puede ser reprocesado; por si fuera poco, no pierde las propiedades y, además, se ahorra energía, concretamente alrededor del treinta por ciento con respecto a la fabricación del vidrio nuevo.

sábado, 2 de junio de 2012

Comida biológica

Durante un exquisito almuerzo, debatía con varios comensales sobre las virtudes de la comida biológica. Es verdad, como argumentaban mis oponentes, que tanto los aminoácidos, como las grasas, vitaminas o azúcares sintéticos no se diferencian en nada de los naturales. Mis razones se fundamentan no en lo que tienen los productos naturales, sino en lo que no tienen; y carecen –o al menos su cantidad es mínima- de aditivos, o dicho con otras palabras no contienen aromatizantes, colorantes, conservantes, antioxidantes, acidulantes, edulcorantes, espesantes, saborizantes o emulsionantes. El escritor no ignora que los conservantes matan la peligrosa bacteria causante del botulismo; pero también sabe que algunos aditivos autorizados ayer, se prohíben hoy porque perjudican la salud. Los aditivos alimentarios (un negocio mundial de veinte mil millones de euros anuales) están presentes en casi todos los productos comestibles industriales, en España existen unos trescientos autorizados. ¿Tiene algún valor nutritivo la adición de colorantes a un alimento? Los países nórdicos han prohibido casi todos los colorantes sintéticos, Estados Unidos autoriza nueve… España veintitrés, quizá alguno más. Y no he mencionado los restos de plaguicidas agrícolas que permanecen en los productos comestibles; cierto que en cantidades minúsculas, pero no es menos cierto que se ignora la toxicidad a largo plazo de las cantidades mínimas de muchos, sino de todos los plaguicidas empleados en la moderna agricultura industrial.

Un caso concreto, fijémonos en un producto de la industria alimentaria. El surimi -en japonés músculo de pescado picado- es la materia prima para la elaboración de los palitos de pescado, los sucedáneos de angulas y las imitaciones del marisco, tales como los palitos de cangrejo y las colas de langosta. Para su obtención se utilizan los restos procedentes del proceso de fileteado y las especies de pescado de escasa salida comercial y bajo coste; los peces se limpian para eliminar las escamas, la piel, las vísceras y la sangre; se consigue así una pasta de músculo que aporta proteínas de alto valor nutricional. A continuación, y según el producto que se pretenda lograr, se añaden diferentes aditivos: azúcares, fosfatos, aglutinantes (almidones, proteína de soja, caseinatos), potenciadores de sabor (glutamato sódico), conservantes (sal, ácido sórbico), saborizantes, grasas y, como el músculo de pescado blanco no tiene el color rosado del cangrejo, colorantes (rojo cochinilla y carotenoides) para imitarlo; el rojo de la parte externa se logra con pimentón y el naranja con tartracina. Si al lector sibarita le gusta la manufactura sólo me queda desearle salud y ¡buen provecho!