tag:blogger.com,1999:blog-255670732024-03-08T01:18:37.292+01:00Los expedientes OccamLa ciencia es asunto de todos.Unknownnoreply@blogger.comBlogger491125tag:blogger.com,1999:blog-25567073.post-15661394087718512392018-10-14T15:17:00.001+02:002018-10-14T15:17:09.671+02:00Siglo XXI: la era del hierro<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgPRLo5NgZaKj3p9cSgg1T5nMTGxmF-jO2yzSecIRPGu2T3zPzbJG-9oI5x2yOdep2_26ki0NB-7pBPyMyg06RNXOcEXXAMOdq6lHhztXzGmlRjjdqM_aidxwRCCbYbPFJBtmQbvw/s1600/Iron-meteorite.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgPRLo5NgZaKj3p9cSgg1T5nMTGxmF-jO2yzSecIRPGu2T3zPzbJG-9oI5x2yOdep2_26ki0NB-7pBPyMyg06RNXOcEXXAMOdq6lHhztXzGmlRjjdqM_aidxwRCCbYbPFJBtmQbvw/s640/Iron-meteorite.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Fragmentos del meteorito de hierro Nantan, China, caído probablemente en el siglo XVI.</td></tr>
</tbody></table>
Smartphones, ordenadores y la propia estación espacial internacional tienen, como parte fundamental de su construcción, el acero, material que, desde el descubrimiento del hierro, su elemento básico, ha dominado la cultura y tecnología humanas.<br />
<br />
El hierro es un elemento que pocos de nosotros hemos visto en su forma pura: un metal blanco plateado, relativamente suave y fácil de mellar. No lo solemos ver pues por sus características químicas reacciona fácilmente con una serie de elementos, especialmente con el oxígeno, formando un óxido de color rojizo que es lo que generalmente podemos ver. Por ello, su uso dependió de la capacidad de crear con él un material más duro y flexible, combinándolo con pequeñas cantidades de carbono: el acero.<br />
<br />
Una de las características del hierro que lo convirtió en base de la civilización y la cultura es que se trata del quinto elemento más abundante del universo y el cuarto de nuestro planeta, formando aproximadamente el 5% de la corteza terrestre como parte de diversos minerales en los que está mezclado con otros elementos. Los siete principales son pirita, magnetita, hematita, goethita, limonita, siderita y taconita.<br />
<br />
El primer uso del hierro en las civilizaciones humanas lo encontramos en la forma de joyería y adornos, unos 4000 años antes de la era común. Ese hierro no procedía, sin embargo, de los minerales mencionados, sino de los restos de meteoritos con alto contenido de hierro que los egipcios llamaron “cobre negro”. Pese a ello, la “era del hierro”, que seguiría a las del cobre y el bronce, no comenzaría sino a partir del año 1200 a.E.C., conforme la tecnología metalúrgica fue avanzando lo suficiente en distintas culturas como para poder fundir los minerales de hierro y mezclarlos con carbón, que podía “robar” el oxígeno que formaba el óxido, dejando un material más útil, el hierro colado. Ese hierro o acero primitivo fue fundamental en la fabricación, primero, de armas, y luego de una serie de productos que mejoraron toda la tecnología, desde los recubrimientos de hierro alrededor de las ruedas de madera de los carruajes hasta instrumentos quirúrgicos e implementos de cocina, desde agujas para coser hasta arados.<br />
<br />
Estos ejemplos dan testimonio de la enorme diversidad de usos del hierro, al que se le pueden dar las más variadas formas al ser moldeado, colado, inyectado o golpeado, y que ofrece flexibilidad, dureza, resistencia y capacidades como la de mantener un filo durante mucho tiempo o la de magnetizarse para distintos fines, el más importante de los cuales durante siglos fue el de ser la aguja de las brújulas que liberaron a las embarcaciones humanas para aventurarse en aguas antes impracticables.<br />
<br />
El proceso del hierro hoy es mucho más eficiente gracias a los altos hornos, que pueden alcanzar temperaturas que no imaginaban los herreros antiguos, que apenas tenían algunos conocimientos empíricos del material y que, al no conocer las características químicas de cada mineral y cada elemento que lo componía, estaban muchas veces totalmente a merced de la calidad de la materia prima para obtener un resultado aceptable.<br />
<br />
Hacia el siglo XIV, sin embargo, hornos más altos (como su nombre lo indica, hasta de 60 metros actualmente) empezaron alcanzar temperaturas lo bastante altas como para fundir el mineral de hierro junto con carbón, especialmente un tipo llamado “coque” que es carbón mineral con muy pocas impurezas, y carbonato de calcio. Los hornos utiliza chorros de aire caliente que se lanzan desde la parte inferior del alto horno para que el óxido pierda su oxígeno mientras el carbonato de calcio atrae otras impurezas y las acumula en la parte superior de la mezcla, formando la llamada “escoria”. Este primer hierro, el arrabio, con un contenido de hasta 4% de carbono, es la base de toda la industria del hierro y el acero.<br />
<br />
El acero se obtiene mediante un proceso adicional que elimina la mayor parte del carbono (dejando un contenido de sólo entre 1,5 y 0,5%) e impurezas que debilitan la estructura del metal, como el fósforo y el azufre, y añade a la aleación otros elementos que le dan distintas características. A partir de allí, la industria metalúrgica actual es capaz de producir varios miles de tipos de acero distintos para usos variados, desde estructuras para edificios y varilla para hormigón armado hasta escalpelos o muelles para maquinaria de precisión. Fuerza, resistencia, flexibilidad en distintas dimensiones (como poder estirarse, torsionarse, doblarse o comprimirse sin perder sus características) se controlan cuidadosamente para que cada uso previsto tenga el acero correcto.<br />
<br />
También se han empleado técnicas para impedir, retrasar o ralentizar la oxidación: pintura, galvanizado (la aplicación de una corriente eléctrica), el chapado (aplicación de un metal protector como el cromo mediante electrodepósito) o el recubrimiento con otro material “de sacrificio” que se oxide antes que el acero mismo. A principios del siglo XX, por fin, como resultado de una serie de investigaciones de metalúrgicos y químicos británicos, alemanes, estadounidenses y franceses desde fines del siglo anterior, se desarrolló una aleación de acero con cromo y níquel que tenía la muy deseable propiedad de no oxidarse: el acero inoxidable.<br />
<br />
Pese a la creciente utilización de otros metales como el tungsteno, el manganeso y, muy especialmente, el aluminio, no parece que la humanidad esté cerca de abandonar el uso privilegiado del acero por sus características y bajo coste.<br />
<br />
Además de esa utilidad por la cual el hierro nos ha acompañado durante toda la historia registrada, en 1840 descubrimos además que es parte fundamental de los procesos de nuestra vida. Aunque en nuestro cuerpo sólo tenemos unos 3-4 gramos de hierro, es un micronutriente insustituible, ya que, además de participar en algunas proteínas, enzimas y sistemas, compone hemoglobina, que permite a los glóbulos rojos de nuestra sangre llevar oxígeno de los pulmones a todas las células del cuerpo.<br />
<br />
El hierro, así, no sólo ha representado una vida mejor sino que es, en sí mismo, parte de la vida.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
El frágil acero del Titanic</h4>
El hallazgo de los restos del Titanic en 1985 permitió el rescate y análisis metalúrgico en 1996 de las placas de su casco, rasgado por la colisión con un iceberg, hundiéndose el 15 de abril de 1912. Los estudios indican que el daño tan grande sufrido por el transatlántico se debieron a que sus placas estaban hechas de un acero con alto contenido de azufre que se volvía extremadamente frágil a muy bajas temperaturas, como las del océano por el que navegaba la embarcación cuando ocurrió la tragedia. Los remaches, igualmente, cedieron con facilidad. Con una mejor tecnología del acero, el Titanic podría realmente haber sido insumergible.</td></tr>
</tbody></table>
<br />Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-40268015010069317042018-09-20T01:27:00.000+02:002018-09-26T02:11:42.500+02:00La real expedición de la vacuna<div style="text-align: center;">
</div>
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDdOQr4B5bsLv0hPezvgpZFoNblBfGCiLYgUujYQQnUC4BPufnidyuWEyHZWUx7I-5cwiMZ9kCIB5z_MGIwuc7AeZIEj3ADt9jF4ljqoe2OxMUAP1l3hfmhYt6wvLDrJ8LxxVKhg/s1600/balmis.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDdOQr4B5bsLv0hPezvgpZFoNblBfGCiLYgUujYQQnUC4BPufnidyuWEyHZWUx7I-5cwiMZ9kCIB5z_MGIwuc7AeZIEj3ADt9jF4ljqoe2OxMUAP1l3hfmhYt6wvLDrJ8LxxVKhg/s640/balmis.jpg" width="602" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Francisco Javier de Balmis y Berenguer</td></tr>
</tbody></table>
<div style="text-align: left;">
En Pozuelo de Alarcón tiene una calle. En su natal Alicante llevan su nombre una pequeña plaza con una fuente al medio y un instituto de secundaria, y en la Universidad Miguel Hernández hay un busto con su imagen. La calle más ancha y larga que se le ha dedicado se encuentra en la Ciudad de México, en el barrio dedicado a doctores relevantes, precisamente, en su mayoría mexicanos. Son pocos homenajes para uno de los más grandes héroes de la vacunación: Francisco Javier de Balmis y Berenguer.</div>
<br />
<div style="text-align: left;">
</div>
Javier (o Xavier) nació el 2 de diciembre de 1753 en Alicante, segundo de los nueve hijos de Antonio Balmis, “cirujano y sangrador” de origen francés, y la alicantina Luisa Berenguer. Muy joven entró al Hospital Real Militar de Alicante y, como médico militar, participó en acciones como la fallida lucha contra los piratas en Argelia en 1775 o el sitio a Gibraltar en 1780. Un año después marchó con el ejército a la Nueva España, donde además de trabajar como médico en el hospital de San Andrés de México, se interesó por las herbolaria tradicional que sobrevivía de los tiempos precoloniales e hizo varios viajes por el país, hablando con curanderos y recogiendo plantas prometedoras por las capacidades terapéuticas que se les atribuían. En 1790 dejó el ejército y volvió a España a la práctica independiente. Pronto fue nombrado médico personal de Carlos IV.<br />
<br />
Ya en España, en 1803, Balmis traduce al español un tratado del francés J.L. Moreau que relata las experiencias que Edward Jenner había publicado en 1798 sobre su creación de la vacuna contra la viruela. El tratado de Moreau analizaba los efectos de la vacuna, la reacción de los pacientes… un estudio a fondo, claramente influido por el método científico y el positivismo, que compendiaba lo que se sabía hasta el momento.<br />
<br />
Por entonces, la viruela no sólo hacía estragos en Europa, sino que se cobraba números aterradores de víctimas en toda América y, en general, en las colonias españolas, cebándose sobre todo en los niños más pequeños y especialmente en los indígenas, que tenían menor resistencia natural al virus pues éste había llegado al continente americano de la mano de los españoles a principios del siglo XVI. Carlos IV mostró preocupación por el desastre sanitario de la terrible enfermedad, algunas de cuyas variantes podían matar al 90% de quienes sufrían la infección, y seguramente se vio también influido por la memoria de su hija María Teresa, quien falleció víctima de la viruela en 1794, sin llegar a cumplir los 4 años de edad. La vacuna había llegado a España en 1801, demasiado tarde para la infanta.<br />
<br />
Carlos IV consultó con los médicos de la corte, y Balmis los encabezó para convencerlo de que debía hacerse una expedición para llevar la vacuna a los dominios de ultramar. El problema que se presentaba no era de orden económico, ya que el rey estaba en plena disposición de sufragar todos los gastos, sino técnico y médico: ¿cómo llevar la vacuna? No había vacunas en cómodos frascos, ni siquiera producidas industrialmente, cada médico generaba sus propios agentes inmunizantes a partir de la viruela de las vacas, como había hecho Jenner.<br />
<br />
Balmis dio con la solución, una solución que hoy resultaría cuestionable, sobre todo habiendo opciones. Pero en ese momento no las había. Su idea fue crear una cadena humana donde la inoculación se pasara, literalmente, de brazo a brazo. Empezaría con un grupo de niños, huérfanos residentes en las inclusas de protección españolas, que deberían tener, según expresó Balmis, entre 8 y 10 años, no haber padecido viruela y no haber sido vacunados. Él los vacunaría y luego usaría su sangre para inocular a la población al otro lado del Atlántico. Las personas inoculadas podrían entonces ser llevadas a otro puerto y donar sangre para vacunar a otros, y así sucesivamente.<br />
<br />
Era una solución brillante y, en ese momento, no había otra solución viable. Se pidió a las inclusas que designaran a los niños, con la promesa de un buen trato al cabo del viaje, y finalmente la llamada “Real Expedición Filantrópica de la Vacuna” se hizo a la mar en La Coruña el 30 de noviembre de 1803 en la corbeta María Pita, donde iban Balmis, el subdirector de la expedición José Salvany y Lleopart, 10 médicos seleccionados por Balmis y los 22 primeros niños que eran las correas transmisoras vivientes de la vacuna, mientras que Balmis era el transmisor del conocimiento, el que explicaría a los médicos de cada puerto lo que debían hacer para extender la vacuna y luchar contra la viruela.<br />
<br />
La primera escala de la expedición fueron las Islas Canarias, para luego dirigirse a Puerto Rico y Venezuela. Allí, la expedición se dividió en dos grupos. Uno, dirigido por Salvany, marchó por tierra a Quito, Ecuador, para bajar a Lima, Perú. De allí, una parte de ese grupo se dirigiría finalmente a Santiago de Chile a donde llegó más de 4 años después de salir la expedición, mientras que Salvany fallecería en Cochabamba, Bolivia, en 1810. Balmis siguió a Cuba y México, país que cruzó por tierra para volver a embarcarse en Acapulco hacia Manila, donde llegó en abril de 1805 y siguió una circunnavegación hasta la isla de Santa Elena, tocando tierra finalmente de vuelta en la península ibérica en septiembre de 1806.<br />
<br />
Javier Balmis había culminado así la primera gran expedición sanitaria de la historia, una tradición que hoy sigue, por ejemplo, en los brotes de ébola a los que asisten médicos de diversos países a llevar tecnología no disponible en los lugares que sufren la enfermedad.<br />
<br />
Edward Jenner, el creador de la vacuna que ha salvado a cientos de millones de la terrible viruela, resumió la expedición de Balmis diciendo: "No imagino que los anales de la historia ofrezcan un ejemplo de filantropía tan noble y tan extenso como éste".<br />
<br />
Todavía pudo Balmis volver a México en 1810, y siguió difundiendo y promoviendo la vacuna hasta su muerte en Madrid en 1819, uno de los pioneros de la vacunación mundial que 159 años después de su muerte proclamaría el triunfo de la humanidad sobre la viruela, erradicándola finalmente.<br />
<br />
Quizás, quizás, el doctor Javier Balmis merece una calle en Madrid, quizás una en cada ciudad donde su decisión salvó vidas. ¿Cuántas? Nadie lo puede calcular.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Los niños y las penurias</h4>
Poco contó sobre sus peripecias Balmis, sobre los amagos de ataque de piratas chinos o la mala recepción que algunas autoridades, como las de Macao, le acordaron. Pero su máxima preocupación, de eso hay constancia, fueron siempre los niños. Los que salieron de España, propuso, debían ser devueltos “y podrán ser más felices si la piedad del Rey les señala cinco ó seis Reales diarios hasta que lleguen a ser aptos para ser empleados”. Cuando las autoridades locales se mostraron reticentes a atenderlos, Balmis se quejó al Ministro de Gracia y Justicia, José Antonio Caballero.</td></tr>
</tbody></table>
(Publicado el 20 de enero de 2018)MJShttp://www.blogger.com/profile/03005508815065718767noreply@blogger.comtag:blogger.com,1999:blog-25567073.post-50475343739632701342017-10-24T14:53:00.000+02:002017-10-25T06:16:33.073+02:00¿Cómo suena una guitarra eléctrica?<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiflt5hBbZI8GeozkYcTe06oaRZUo5NybA-sZVu-zNsEh7lvUADMDP8_AotBy1ple8WC_Z4pjxtNSLlOD9CMquQIWflO5Z8KLj8v878L1ZMyZiSeag_sHpUgKnq3DPeLCJWvoJe9g/s1600/Ana_Popovic_and_Buddy_Guy_Russian_River_Blues_2011_v2.JPG" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="480" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiflt5hBbZI8GeozkYcTe06oaRZUo5NybA-sZVu-zNsEh7lvUADMDP8_AotBy1ple8WC_Z4pjxtNSLlOD9CMquQIWflO5Z8KLj8v878L1ZMyZiSeag_sHpUgKnq3DPeLCJWvoJe9g/s640/Ana_Popovic_and_Buddy_Guy_Russian_River_Blues_2011_v2.JPG" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Ana Popovic y Buddy Guy, dos generaciones y dos continentes de blues eléctrico.<br />
(Foto CC Angrylambie vía Wikimedia Commons)</td></tr>
</tbody></table>
Pocos instrumentos musicales han marcado a una época y a una forma musical como la guitarra eléctrica a la del rock, que se inicia en algún momento de la década de 1950 y sigue hasta hoy. Pero cuando escuchamos una guitarra eléctrica, estamos realmente escuchando un sonido que no existiría de otro modo. No proviene de un micrófono adosado a una guitarra tradicional, sino que depende totalmente de fenómenos electromagnéticos.<br />
<br />
Quizá el único instrumento con una influencia cultural tan profunda fue el piano (en realidad “pianoforte”, porque podía tocar a un volumen bajo o alto, algo de lo cual no eran capaces los teclados que le antecedieron, como el clavecín), inventado en 1711 por el italiano Bartolomeo Cristofori. Durante los siguientes 200 años, aparecieron pocos instrumentos realmente nuevos, entre ellos la armónica, que desarrollaron varios artesanos en la década de 1830 y el saxofón, inventado por el belga Adolphe Sax en 1842.<br />
<br />
Pero la enorme influencia de la guitarra eléctrica no ha dado a conocer los nombres de sus creadores, el músico George Beauchamp y el ingeniero eléctrico Adolph Rickenbacker. Y quizás sea igual de asombroso que la mayoría del público de un concierto de rock con alguno de los virtuosos de la guitarra eléctrica (digamos Eric Clapton, Stevie Ray Vaughan, Carolyn Wonderland o Danielle Haim) no sepan cómo ocurre que el movimiento de las cuerdas de la guitarra se convierta en el sonido que les fascina.<br />
<br />
La idea de amplificar el sonido de la guitarra se volvió imporante para los guitarristas desde fines del siglo XIX, cuando el sonido de las bandas estaba dominado por los metales y las percusiones, que podían literalmente borrar de la escena a la guitarra y poner en riesgo el arte –y el empleo– de sus intérpretes. Varios intentos por poner micrófonos dentro de las guitarras (como los micrófonos de de carbón que usaban los teléfonos antiguos) resultaron fallidos hasta que entró en escena Rickenbacker, que soñaba con electrificar y amplificar todo tipo de instrumentos (un concierto moderno habría sido su fascinación) y que junto con Beauchamp desarrolló la idea de la “pastilla” electromagnética, que instalaron en una guitarra en 1931 obteniendo un sonido aceptable. Las guitarras eléctricas empezaron a venderse en 1932 y el rest, como suele decirse, es historia.<br />
<br />
<b>La pastilla</b><br />
<br />
El primer secreto para entender la guitarra eléctrica es que no es posible tener uno de estos instrumentos con cuerdas de nylon como las que se utilizan en la guitarra española. Las guitarras acústicas producen su sonido al vibrar en el aire. La energía de su vibración se ve amplificada y modificada por el cuerpo hueco de la guitarra, que al resonar con ella aumenta el volumen del sonido. El diseño del cuerpo de la guitarra, el espesor de sus partes, especialmente la tapa, y los elementos de madera o “varillas” de su interior (que pueden variar enormemente según cada artesano o fábrica) son los responsables del sonido del instrumento, su volumen y su calidad.<br />
<br />
En el caso de la guitarra eléctrica, el sonido que producen las cuerdas es irrelevante. De hecho, si alguna vez escuchamos las cuerdas de una guitarra eléctrica desconectada, percibiremos un sonido metálico, un tanto “nasal” y deslucido, totalmente distinto del sonido que sale de un amplificador.<br />
<br />
Lo notable es que las cuerdas de la guitarra eléctrica son precisamente metálicas, hechas de acero y las tres más graves están además entorchadas o envueltas de una espiral de acero niquelado o níquel. Pero en todos los casos, lo importante es el acero.<br />
<br />
Uno de los grandes descubrimientos del siglo XIX fue que la electricidad y el magnetismo son en realidad dos expresiones de una misma fuerza. En 1831, el inglés Michael Faraday descubrió el fenómeno llamado “inducción electromagnética”, que básicamente significa que un campo magnético en movimiento produce una corriente eléctrica y, a la inversa, una corriente eléctrica en movimiento produce variaciones en un campo magnético. Es este principio el que permite que funcione un motor eléctrico.<br />
<br />
La guitarra eléctrica depende de la inducción electromagnética para funcionar. La “pastilla” de la guitarra eléctrica está formada por uno o seis imanes alrededor de cada uno de las cuales se enrolla un alambre finísimo dándole varios miles de vueltas. Los imanes atraen, mediante magnetismo simple, a las cuerdas de acero de la guitarra. Cuando una cuerda vibra, actúa como un conductor que se mueve en el campo magnético del imán y por inducción, ese movimiento se convierte en una señal eléctrica que sale del alambre enrollado alrededor del imán. Estas débiles señales eléctricas sólo se producen mientras esté vibrando la cuerda, y pueden ser modificadas en la propia guitarra mediante selectores de tono y volumen antes de transmitirse por el cable (o un sistema inalámbrico, en las versiones más modernas) a un amplificador. El amplificador a su vez aumenta (amplifica) y puede modificar la señal (distorsionándola, dándole reverberación o eco, y de muchas formas posibles) antes de convertirla, en el movimiento de uno o más altavoces, que son los que finalmente producen el sonido que escuchamos. Hasta ese momento, todo el proceso es electromagnético.<br />
<br />
Las guitarras eléctricas pueden llevar varias pastillas situadas en distintos puntos bajo las cuerdas, de modo que puedan recoger la vibración de distintas formas, que se traducen en sonidos de diversa calidad. Como el cuerpo de la guitarra no tiene ninguna importancia en la forma en que se produce el sonido, una guitarra eléctrica puede hacerse con casi cualquier diseño y materiales. Lo único que importa son los circuitos internos. De hecho, la primera guitarra de Beauchamp y Rickenbacker estaba hecha de aluminio. Si se sigue usando madera y cuatro o cinco diseños básicos, es solamente por cuestiones de estética visual y de comodidad para el guitarrista.<br />
<br />
El acompañante indispensable de una guitarra eléctrica es, por supuesto, el bajo eléctrico, que convirtió al estorboso contrabajo en un instrumento elegante y manejable. Su inventor fue Paul Turmac, que presentó el primer bajo eléctrico en 1935.<br />
<br />
(Publicado en <i>El Correo</i> el 23 de enero de 2016.)<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Hacer sonar las cuerdas</h4>
Hay muchas formas de hacer que vibren las cuerdas. Muchos guitarristas favorecen el uso de una púa o plectro de diversos materiales (nylon, metal, madera, piedra o goma, entre otras) y distintos grados de flexibilidad para obtener el sonido que desean. Algunos utilizan monedas y otros prefieren usar los dedos, para pulsar las cuerdas ya sea con las uñas o con las yemas, o ayudándose de uñas postizas. Cada una de estas técnicas (y las mezclas de las mismas) produce sonidos de calidad diferente y puede determinar la “personalidad” del guitarrista, todo mediante minúsculas variaciones de una corriente eléctrica.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-35650980438405687252017-05-07T21:13:00.003+02:002017-05-07T21:14:53.674+02:00Reparar rostros<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjyf5lOsvCAJ3jyhUETrSFRMK9mgzgcVl2uAsYHfTYHUJ5N-IeTEwBDLqeV-opqW-_4hSRG8B4j8BRcOnMS0oL-xucrBnhUR4qP4KEZl_Uk224UD5C70yInfXs0c5fguRoy22HKIg/s1600/S2773_518.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="473" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjyf5lOsvCAJ3jyhUETrSFRMK9mgzgcVl2uAsYHfTYHUJ5N-IeTEwBDLqeV-opqW-_4hSRG8B4j8BRcOnMS0oL-xucrBnhUR4qP4KEZl_Uk224UD5C70yInfXs0c5fguRoy22HKIg/s640/S2773_518.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">McIndoe y su "Club de los conejillos de Indias" en un bar.</td></tr>
</tbody></table>Somos, inevitablemente, nuestro rostro, por ello sus deformidades provocan reacciones intensas que ya preocupaban a los egipcios 1.600 años antes de la Era Común, cuando para evitar que las narices rotas quedaran deformes, las taponaban con torundas de lino empapado en grasa. 800 años después nacía la cirugía reconstructiva, cuando el indostano Sushruta desarrolló un procedimiento para recortar de la frente de los pacientes que habían perdido la nariz un colgajo que giraba y usaba para formar una nueva.<br />
<br />
Reconstruir narices se volvió urgente en Europa a partir del siglo XVI, con la diseminación de la sífilis, que entre otras consecuencias puede provocar la pérdida de la nariz. Las narices podían hacerse de diversos metales (como la del astrónomo Tycho Brahe, que perdió la propia en un duelo), o con el sistema del cirujano italiano Gaspare Tagliacozzi. Implicaba crear un colgajo de piel del antebrazo del paciente en la forma aproximada de la nariz y coserlo a la piel del rostro, dejándolo conectado en un extremo para que se alimentara e inmovilizando el brazo un par de semanas con la mano sostenida sobre la cabeza hasta que el injerto se fijaba. Entonces lo cortaba del brazo y le daba forma. En sus propias palabras: “Restauramos, reconstruimos y reintegramos aquellas partes que la naturaleza ha dado, pero que la fortuna ha arrebatado. No tanto que pueda deleitar al ojo, pero que sí pueda levantar el ánimo y ayudar a la mente del afligido”.<br />
<br />
Que es lo que hace la cirugía reconstructiva hasta hoy, aunque cada día con más capacidad de deleitar a la vista y recuperar la función.<br />
<br />
Como la cirugía sin anestesia era tremendamente brutal, no fue sino hasta que hubo anestésicos eficaces que se pudieron plantear intervenciones más complejas. La oportunidad, por desgracia, la dio la Primera Guerra Mundial, un conflicto bélico de brutalidad sin precedentes. La guerra de trincheras dejó como secuela a miles de soldados desfigurados, con heridas de lo más diversas en rostros, cuello y brazos. Del lado británico, la cirugía reconstructiva de estas bajas de guerra estuvo a cargo de un médico originario de Nueva Zelanda egresado de la facultad de Medicina de Cambridge.<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhSYwkvd_VFu__4aD-gNk2tNneX_gKL-qXQ6gzceezag_BmdSwUlHRRJ8gnSNuAglCIpI7mVD1h6ws_BxGmM9P1HPTZfsP7PkJX7R3E66VRIMWOTUkFWEeUzh-en7v0WCHO-sdf-A/s1600/31littlestitches2608b.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="400" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhSYwkvd_VFu__4aD-gNk2tNneX_gKL-qXQ6gzceezag_BmdSwUlHRRJ8gnSNuAglCIpI7mVD1h6ws_BxGmM9P1HPTZfsP7PkJX7R3E66VRIMWOTUkFWEeUzh-en7v0WCHO-sdf-A/s400/31littlestitches2608b.jpg" width="266" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Harold Gillies</td></tr>
</tbody></table>Harold Gillies, nacido en 1882, se enroló en el Cuerpo Médico del ejército británico al declararse la guerra. Después de ver las heridas de los soldados en el frente y los primeros injertos de piel, pudo ver en acción, de permiso en París, al cirujano Hippolyte Morestin, considerado uno de los fundadores de la cirugía cosmética y llamado el “Padre de las bocas” por su trabajo en cirugía maxilofacial. A su regreso, Gillies convenció al ejército de abrir una rama especializada en lesiones faciales y comenzó a luchar por reparar los daños causados por bombas, esquirlas y disparos en la cara. Trató en total a más de 2.000 víctimas, realizando injertos sin precedentes de hueso, músculos, cartílagos y piel. Su objetivo, como el de otros cirujano se la naciente especialidad en distintos países implicados en el conflicto, era restaurar lo más posible el aspecto de los jóvenes combatientes para que pudieran volver a su sociedad, algo que muchos consiguieron, pero no, por desgracia, todos.<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhLp4kNwJD8MaMU4l6doNSIfO_RogOu-DcZA1CrV9xdxjiDwBRA2oql8kP8hMD1_iCFG4yVtMmWDERNWHNlGXjytxg353u_B3wizaykSoyKUvfAnj4ik9ceBnWJatFzHoR0rKpx1g/s1600/Harold-Gillies.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="170" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhLp4kNwJD8MaMU4l6doNSIfO_RogOu-DcZA1CrV9xdxjiDwBRA2oql8kP8hMD1_iCFG4yVtMmWDERNWHNlGXjytxg353u_B3wizaykSoyKUvfAnj4ik9ceBnWJatFzHoR0rKpx1g/s400/Harold-Gillies.jpg" width="400" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">El teniente William Spreckley, herido en 1917, dado de alta por Gillies en 1920.</td></tr>
</tbody></table><div style="text-align: center;"></div>Al estallar la Segunda Guerra Mundial, sin embargo, sólo había tres cirujanos plásticos en la Gran Bretaña, Gillies con sus alumnos neozelandese Rainsford Mowlem y su primo Archibald McIndoe. Gillies formó con ellos tres equipos multidisciplinarios. El de McIndoe se dedicó a lesiones por quemaduras, empezando con los pilotos británicos quemados durante la Batalla de Inglaterra de 1940, cuando los tanques de combustible de sus aviones estallaban por los proyectiles alemanes.<br />
<br />
Como pionero de muchas técnicas para reparar los destrozos del fuego, McIndoe estableció el llamado “Club de los conejillos de indias”, formado por sus pacientes de quemaduras, que además de ser sujetos experimentales de las innovaciones del cirujano se daban sostén moral entre ellos, formando el que fue probablemente el primer grupo de apoyo de la historia, pues los procesos de reconstrucción de entonces podían durar incluso varios años, con sucesivas cirugías.<br />
<br />
Aunque la cirugía plástica sigue cargando con el estigma de ser ante todo un procedimiento electivo para satisfacer la vanidad de personas que desean un mejor aspecto, con algunos resultados aterradores y desafortunados, es en la reconstrucción del aspecto y la función de distintas partes del cuerpo donde realmente muestra su capacidad. Desde la corrección del paladar hendido, un defecto congénito que afecta a entre 1 y 2 niños de cada mil que nacen en el mundo desarrollado, y que hoy en día suelen ser operados tempranamente, evitando problemas tanto funcionales como sociales por su aspecto, hasta el tratamiento de lesiones, quemaduras y otros problemas, las funciones de esta especialidad tienen un valor incalculable para sus beneficiarios.<br />
<br />
Por lo mismo, los cirujanos plásticos esperan mucho de las opciones que se abren hoy a toda la medicina. El cultivo de tejidos, que ha permitido tener piel cultivada para tratar casos de quemaduras graves, podría dar un salto con el uso de células madre para “cultivar” en el laboratorio orejas, labios, narices, rostros enteros que se trasplantarían posteriormente. Los materiales biocompatibles como el titanio, empleado en prótesis diversas, también son sus herramientas en la reconstrucción de cráneos y mandíbulas.<br />
<br />
En esta rama de la medicina, hay que señalar, la prevención es también el elemento fundamental. Los vidrios laminados para los autos, por ejemplo, fueron una iniciativa de los colegios de cirujanos plásticos de Estados Unidos y redujeron notablemente las lesiones faciales por cortaduras en accidentes. Las reglamentaciones sobre materiales ignífugos, cada vez más estrictas, los cinturones de seguridad, los airbags y los autos sin conductor que podrían estar presentes pronto en las carreteras son todos prevención no sólo de la salud, sino de la integridad del rostro con el que salimos al mundo.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">De la reconstrucción a la reasignación de sexo</h4>Entre 1946 y 1949, Harold Gillies utilizó los conocimientos que había adquirido reconstruyendo los penes de soldados heridos para realizar la primera cirugía de reasignación que se conoce. Su paciente, nacida Laura Maud Dillon, se había sometido a una mastectomía y al primer tratamiento hormonal con testosterona. Entre 1946 y 1949, mientras la paciente, que había cambiado su hombre a Laurence Michael Dillon, estudiaba medicina en el Trinity College, Gillies le practicó 13 intervenciones quirúrgicas para darle un pene, lo que hoy se conoce como faloplastia. Dillon escribió uno de los primeros libros dedicados a la transexualidad. En 1951, Gillies realizó una segunda reasignación, de hombre a mujer.<br />
</td></tr>
</tbody></table>(Publicado el 10 de diciembre de 2016.)Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-60660195349928974272016-12-28T23:23:00.001+01:002016-12-29T01:38:31.210+01:00El hombre que erradicó la viruela<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh9I3ahAMys3stC-QwuasdvC3QBwtD4_8GN6CZgqvzffsOeRH5UKraRK5jW4zL_UPifohwrzokiQ3MQpjemndjweYxpNliNduPuw0BEuuX2QgV64J-k-hp9ZOoBJOSoavdM_dZ6cA/s1600/Smallpox_eradication_team.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="622" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh9I3ahAMys3stC-QwuasdvC3QBwtD4_8GN6CZgqvzffsOeRH5UKraRK5jW4zL_UPifohwrzokiQ3MQpjemndjweYxpNliNduPuw0BEuuX2QgV64J-k-hp9ZOoBJOSoavdM_dZ6cA/s640/Smallpox_eradication_team.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Donald A. Henderson, a la izquierda, con parte del equipo de erradicación de la viruela: el Dr. J. Donald Millar,<br />el Dr. John J. Witte y el Dr. Leo Morris, en 1966. (Foto DP del CDC/ Dr. John J. Witte)</td></tr>
</tbody></table>
<br />
La erradicación de la viruela, proclamada en 1980, es uno de los más grandes logros de la medicina, de las políticas y técnicas de vacunación y prevención, salvando cientos de millones de vidas, si consideramos que antes de que se emprendiera el esfuerzo por acabar con ella, infectaba a más de 50 millones de personas al año, más que toda la población de España. Sólo entre 1901 y 1980, la viruela ocasionó 300 millones de muertes... mientras que en todos los conflictos armados del siglo pasado murió una tercera parte de esa cifra: 100 millones de seres humanos.<br />
<br />
La viruela había sido parte de la experiencia humana al menos desde hace tres mil años, y su combate había sido totalmente ineficaz hasta que, en el siglo XVIII, el británico Edward Jenner creó la primera vacunación contra el virus. Pero el hombre que hizo de la viruela sólo un recuerdo fue Donald Ainslie “D.A.” Henderson, un epidemiólogo nacido en Cleveland en 1928, de orígenes escoceses.<br />
<br />
En 1947, un joven Henderson fue testigo de un brote de poliomielitis en Nueva York que obligó a la vacunación de millones de personas. La epidemiología se convirtió en un interés del joven estudiante que, después de graduarse primero en química y luego en medicina, entró a trabajar en los Centros para el Control y la Prevención de las Enfermedades (CDC) del Departamento de Salud de los EE.UU.<br />
<br />
Por esos años, la Organización Mundial de la Salud, creada en 1948, empezaba a plantearse erradicar la viruela, tarea que muchos consideraban imposible. Por contra, el epidemiólologo Viktor Zhdanov, viceministro de salud de la antigua Unión Soviética, afirmó una y otra vez que el objetivo era alcanzable mediante una campaña intensiva de vacunación durante 4 años en los países más afectados.<br />
<br />
Finalmente, en 1966, la Asamblea Mundial de la Salud votó por emprender un programa de erradicación promovido por los Estados Unidos. Sin embargo, el propio director de la OMS estaba en contra de la idea, y por tanto exigió que el proyecto fuera encabezado por un estadounidense, de modo que su país pagara las consecuencias cuando fracasara. El designado fue Henderson, que por entonces ya trabajaba en África occidental y central en proyectos contra la viruela, a la que consideraba “la enfermedad más odiosa”. Su labor: acabar con ella en África, América del Sur y Asia.<br />
<br />
Aunque la vacunación era parte fundamental del programa, contaba Henderson 20 años después, su proyecto planteaba que lo importante era reportar los casos y brotes de viruela para atacar el contagio selectivamente y evitar que la enfermedad se extendiera de modo epidémico. Con ese objetivo en mente, su primer trabajo fue desarrollar un manual sobre vigilancia y contención de los casos de viruela para todos los países del mundo.<br />
<br />
Con sólo nueve empleados en su cuartel general de Ginebra, Suiza, y 150 operativos de campo a nivel mundial, Henderson abordó la parte administrativa, menos relumbrante y atractiva: convencer a los gobiernos de docenas de países para que apoyaran el programa, promover la creación o mejora de laboratorios de producción de vacunas, desarrollar programas y materiales de formación... y todo sin teléfonos, sin correo electrónico, dependiendo del servicio postal y el telégrafo y de los viajes continuos de Henderson para reunirse con gobiernos o para visitar a sus equipos de campo.<br />
<br />
Hasta ese momento, los países no se interesaban en reportar los casos que ocurrían, una información que permitiría determinar la forma en que se transmitía la viruela y valorar los esfuerzos de vacunación. La vacuna de la viruela tiene la capacidad de proteger a una persona si se aplica hasta cuatro días después de que dicha persona haya estado expuesta al virus, de la misma manera en que la vacuna contra la rabia es efectiva aún después de que se ha dado la infección. Así, al determinar la presencia de un caso en una comunidad determinada, los médicos podían aislar al paciente y vacunar a quienes podrían haber sido contagiada, creando un verdadero dique de contención a la diseminación de la enfermedad.<br />
<br />
Henderson recordaba que el doctor William Foage llegó a Nigeria oriental en diciembre de 1966 y empezó a trabajar en los brotes reportados. Para junio de 1967, prácticamente habían dejado de presentarse casos. Para ello, Foage y su equipo sólo habían tenido que vacunar a 750.000 de las 12 millones de personas que vivían en la zona. Y en Tamil Nadu, en la India, con una población de 50 millones de personas, la estrategia de vigilancia y contención permitió detener la transmisión de la viruela en sólo cinco meses.<br />
<br />
La enfermedad fue erradicada de Suramérica en 1971, en Asia en 1975 y, por último, en África en 1977. Los casos que se siguieron dando, como un brote en la antigua Yugoslavia en 1972 que afectó a 170 personas, fueron cada vez más aislados y, por tanto, también era más sencillo hacer un esfuerzo amplio por controlarlos. En el caso yugoslavo, el gobierno vacunó a 18 de los 20 millones de habitantes de la nación.<br />
<br />
El último caso de contagio natural de viruela con el más agresivo de los virus que la provocan, <i>variola major</i>, se reportó el 16 de octubre de 1975, en una niña de dos años en Bangladesh. El último caso de <i>variola minor</i>, el más benigno, lo sufrió en 1977 el trabajador de la salud de 23 años Ali Maow Maalin, quien dedicaría el resto de su vida a la vacunación en su natal Somalia. Ambos sobrevivieron.<br />
<br />
En 1977, D.A. Henderson dejó el programa, terminada su labor, aunque la vigilancia siguió hasta 1979, después de lo cual la Asamblea Mundial de la Salud declaró la viruela erradicada el 8 de mayo de 1980. El médico siguió su carrera en la Escuela de Salud Pública Johns Hopkins, en diversos puestos como asesor médico y científico de varios presidentes de los Estados Unidos y fundando un centro para el estudio de estrategias de defensa contra el bioterrorismo, que sería su última preocupación. Murió el 19 de agosto de 2016.<br />
<br />
Su trabajo, la primera erradicación total de una enfermedad aterradora, tiene eco hoy en el programa mundial de erradicación de la poliomielitis, que hoy se limita a unas pocas zonas disputadas al norte de la India, en Sudán del Sur y en el Sáhara occidental. Su desaparición total será un homenaje justo a un hombre que supo convertir la mejor ciencia médica, la estadística y la política en vidas salvadas.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Homenajes y premios</h4>
Pese a su casi anonimato público, D.A. Henderson recibió 14 importantes reconocimientos internacionales, entre ellos la Medalla del Bienestar Público de la Academia Nacional de Ciencias y la Medalla Presidencial de la Libertad de los EE.UU., el Premio Internacional de Medicina Albert Schweitzer, la Medalla Edward Jenner de la Real Sociedad de Medicina del R.U., además de haber recibido 17 doctorados honorarios de universidades de todo el mundo.</td></tr>
</tbody></table>
<br />
(Publicado el 5 de noviembre de 2016)MJShttp://www.blogger.com/profile/03005508815065718767noreply@blogger.comtag:blogger.com,1999:blog-25567073.post-47568994506524162842016-12-19T15:44:00.001+01:002016-12-19T16:28:12.441+01:00Pierre Charles Alexandre Louis, la evidencia en medicina<div style="text-align: center;">
<a class="glyphicon glyphicon-chevron-left" href="http://www.lookfordiagnosis.com/mesh_info.php?term=Manubrio&lang=2#" style="padding-top: 630px;"></a></div>
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiXujI22NlFuEw8JWKk39_4BpihRPwX61PcE3lWh0VV8JfLN3iPcruf9dZlEeBkHtssoCkSq-ltj88qencudU6YMSYSdmeeB6Rv_nPROtxAg_99DKHsrQBzNSpqOZmCMh-KVT3SAQ/s1600/03421bis.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiXujI22NlFuEw8JWKk39_4BpihRPwX61PcE3lWh0VV8JfLN3iPcruf9dZlEeBkHtssoCkSq-ltj88qencudU6YMSYSdmeeB6Rv_nPROtxAg_99DKHsrQBzNSpqOZmCMh-KVT3SAQ/s640/03421bis.jpg" width="502" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Pierre Charles Alexandre Louis. Foto DP de Eugène Joseph Woillez</td></tr>
</tbody></table>
<br />
En 1828, un médico parisino puso en jaque una idea que se apoyaba en la más antigua y sólida práctica de la medicina y ayudó así a fundar la medicina basada en evidencias y la epidemiología moderna.<br />
<br />
El médico era Pierre Charles Alexandre Louis, de 41 años de edad, del hospital La Charité. La idea era del respetado François Joseph Victor Broussais, que decía que todas las fiebres tenían la misma causa, la inflamación de los órganos, y disponía que se trataran con una sangría en la piel más cercana al órgano afectado, utilizando lancetas para perforar vasos sanguíneos , ventosas o, sobre todo, sanguijuelas.<br />
<br />
Por entonces se pensaba que las “fiebres” no eran un síntoma, sino la enfermedad en sí. De allí que se hablara –y aún se hable- de fiebre amarilla, puerperal, etc. Era una época anterior a que Louis Pasteur y Robert Koch desarrollaran la teoría de los gérmenes patógenos que por primera vez daría una explicación científica de muchas enfermedades. Los médicos literalmente sabían muy poco, e intentaban usar la tradición, la experiencia y la especulación para darle respuestas a sus pacientes.<br />
<br />
La antigua práctica de la medicina era la teoría hipocrática de que el cuerpo humano constaba de cuatro “humores” o líquidos (bilis amarilla, bilis negra, flema y sangre) y que la enfermedad se producía cuando había un desequilibrio entre ellos por exceso de sangre. La práctica había sido un estándar del tratamiento médico desde la antigua Grecia y nunca había sido desafiada ni siquiera ante el evidente hecho de que no era eficaz. Todas las autoridades médicas lo aceptaban, y no se discutía.<br />
<br />
Las sangrías podían ser brutales, exigiendo a veces que se extrajeran volúmenes tales de sangre que literalmente podían matar al paciente y que hicieron enorme daño.<br />
<br />
¿Cómo someter a prueba la propuesta de Broussais? La práctica de las sangrías era tan común que, según cuenta el médico e historiador Alfredo Morabia, sólo en 1833 Francia importó más de 42 millones de sanguijuelas para ellas. Pierre Charles Alexandre Louis dudaba de Broussais y creía tener la respuesta: había que contar... contar a los pacientes, sus circunstancias, los tratamientos que recibían, y aplicar la estadística para desentrañar la eficacia de los tratamientos.<br />
<br />
Lo llamó el “método numérico”, que le permitía estudiar con una profundidad sin precedentes la distribución de la enfermedad en una población y los determinantes y hechos que la afectaban, lo que hoy se conoce como “epidemiología” y que va más allá de las epidemias en sí. Toda enfermedad se valora epidemiológicamente cuando se analiza en términos de la población a la que afecta.<br />
<br />
Lo que publicó en 1828 fue un artículo llamado “Investigación sobre los efectos de la sangría en algunas enfermedades inflamatorias”, donde daba los resultados de su aproximación. A lo largo de su labor en el hospital parisino de La Charité, había reunido numerosos casos clínicos. De entre ellos, seleccionó a 77 que no sólo tenían pneumonía, sino que tenían la misma forma de pneumonía, todos habían tenido una salud perfecta al momento de que se presentara la enfermedad y eran similares en otros aspectos. Los dividió en dos grupos, los que habían sido sangrados los primeros días de la enfermedad y los que habían sido sangrados tardíamente y descubrió que el primer grupo había sufrido un 44% de muertes mientras que el segundo sólo había sufrido un 25%, lo cual era sorprendente. Concluyó así que, teniendo en cuenta la mortalidad y la duración de la enfermedad, las sangrías de Broussais tenían poca utilidad.<br />
<br />
Hoy diríamos que la muestra con la que trabajó Pierre Charles en este primer estudio era demasiado reducida y que no había hecho un esfuerzo por evitar que el azar jugara un papel relevante en sus resultados. Pero todo esto la medicina aprendió a hacerlo después de que Pierre Charles marcara el camino. Él mismo pensaba que necesitaba muestras mayores. “Supongamos”, escribió dando una idea de las poblaciones con las que debería trabajar, “que 500 de los enfermos, tomados de la misma manera, son sometidos a un tipo de tratamiento y otros 500, tomados de la misma manera, son tratados de un modo diferente. Si la mortalidad es mayor entre el primer grupo que entre el segundo, ¿no debemos concluir que el tratamiento era menos apropiado o menos efectivo en la primera categoría que en la segunda?”<br />
<br />
Del mismo modo, Pierre Charles subrayó, en sus escritos, la necesidad de que se diera cuenta de factores tales como la edad, dieta, gravedad de la enfermedad y otros tratamientos, de modo que la comparación realmente consiguiera aislar la influencia de la variable que estudiaba.<br />
<br />
Su trabajo, que enfatizaba la importancia de la observación y del tratamiento matemático de los casos que estudiaba, sería parte de la revolución que la medicina experimentó a mediados del siglo XIX, adoptando los métodos científicos también de otras formas, como los estudios fisiológicos experimentales y el trabajo de laboratorio.<br />
<br />
No era extraño que Pierre Charles Alexandre Louis, nacido en 1787 participara en una revolución cuando él mismo era un verdadero producto de la Revolución Francesa que estalló cuando él tenía dos años. Hijo de un comerciante en vinos de clase baja, sólo pudo acceder a la universidad y a la posibilidad de estudiar medicina nada menos que en París debido a las nuevas ideas que planteaban que el conocimiento no era sólo para la aristocracia. Después de recibir su título en 1813, practicó la medicina en Rusia antes de volver a París y desarrollar sus estudios e ideas.<br />
<br />
La revolución dependió, sobre todo, de los alumnos de Pierre Charles, que fundaron la Sociedad para la Observación Médica en París y desarrollaron sus ideas. Fueron esos alumnos los que introdujeron conceptos clave como la “inmunidad de manada” que explica el funcionamiento de las vacunas, la tasa de mortalidad y otros que hoy son parte esencial de los estudios clínicos con los que se evalúan medicamentos, técnicas y procedimientos para desarrollar la medicina basada en evidencias... la medicina que no depende de la especulación sino de los datos de la ciencia, y que ya no necesita millones de sanguijuelas como parte de la terapia.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Gaspar Casal, el pionero español</h4>
La aproximación científica a la medicina comienza en España con Gaspar Casal, nacido en Gerona en 1680 y que trabajó en Asturias durante 34 años, período en el cual describió la pelagra o “mal de la rosa”, provocada por la deficiencia de vitamina B6. Casal se adscribió a la revolución científica, usando la observación y la teorización racional en lugar de la medicina de autoridad. Con esas bases, correlacionó la pelagra con la dieta de quienes la padecían, aproximación que, con el tiempo, demostraría ser la correcta.</td></tr>
</tbody></table>
<br />
(Publicado el 3/9/16)Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-25471482768797013892016-09-10T00:55:00.000+02:002016-11-22T02:06:48.138+01:00Anatomía de los terremotos<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhG6CUKkLgiW1cU6grpBf563zaUl_6FxbdGgqqL1Vk7WAecymuogxTNrlIUG5FpppwDy76SJyV5I_hx56s6s9BjzkQRZ-B12UMm3PnpfiFD9yg74M6btqpE-SVX2wUP5COqKyjFRw/s1600/Quake_epicenters_1963-98_notitle.png" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="336" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhG6CUKkLgiW1cU6grpBf563zaUl_6FxbdGgqqL1Vk7WAecymuogxTNrlIUG5FpppwDy76SJyV5I_hx56s6s9BjzkQRZ-B12UMm3PnpfiFD9yg74M6btqpE-SVX2wUP5COqKyjFRw/s640/Quake_epicenters_1963-98_notitle.png" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Determinación preliminar de epicentros de 358.214 terremotos, 1963 - 1998.<br />
(Imagen DP de la NASA vía Wikimedia Commons) </td></tr>
</tbody></table>
Los desastres naturales son capaces de desplegar fuerzas que empequeñecen la capacidad humana de generar potencia. Un terremoto de magnitud 7 en la antigua escala de Richter libera energía equivalente a 617.000 bombas como la que estalló en Hiroshima el 6 de agosto de 1945. El arma nuclear más poderosa que se ha creado, la Tsar Bomba de la Unión Soviética, era como 3.300 bombas de Hiroshima. El terremoto mencionado es <b>200 veces</b> más poderoso.<br />
<br />
Un terremoto es cualquier movimiento súbito de la corteza terrestre, generalmente causado por un deslizamiento en una falla geológica. Puede haber sacudidas debido a otros factores, como un deslizamiento de tierra o el hundimiento de una galería de una mina, pero no se suelen llamar terremotos.<br />
<br />
La corteza de nuestro planeta no es de una pieza. Está formada por 12 placas, como un puzzle, que flotan sobre el manto terrestre de roca suave fundida y que se subdividen en docenas de placas menores. Al moverse, ejercen presión una contra otra en las fallas geológicas, y cuando esta presión cede y una de ellas se mueve súbitamente, se produce esta liberación de energía.<br />
<br />
Así, los terremotos que ocasionalmente se producen en Italia, Grecia y el sur de España se deben a que la placa africana y la placa euroasiática están en contacto precisamente en esa zona, desde la mitad del Atlántico, cruzando el estrecho de Gibraltar, a lo largo del Mediterráneo hasta la península Arábiga, donde ambas placas se ven separadas por la árabe.<br />
<br />
La energía se puede liberar muy cerca de la superficie terrestre o a una profundidad de cientos de kilómetros. El punto donde esto ocurre se llama el “foco” del terremoto, mientras que el “epicentro”, que quiere decir “sobre el centro” es el punto de la superficie terrestre que está encima de ese foco. Es decir, cuando las noticias nos dicen que el epicentro está en tal punto geográfico no sabemos a qué profundidad ha ocurrido la liberación de energía, lo que es importante porque los terremotos más destructivos suelen ocurrir a poca profundidad.<br />
<br />
La superficie terrestre no es tan firme como parece, es elástica, como lo vemos en los pliegues que forman las grandes cordilleras, dobleces en la roca provocados por la presión de una placa contra otra. Así se han creado, por ejemplo, los Himalayas, a lo largo de 50 millones de años de choque entre la placa índica y la euroasiática. Esa elasticidad de la roca es la que transmite las ondas producidas en el foco de un terremoto y que se mueven como lo hace cualquier sonido o cualquier vibración que se transmite a lo largo de un sólido. Los terremotos producen tres tipos de ondas que los sismólogos pueden diferenciar claramente.<br />
<br />
Primero, se producen las llamadas “ondas primarias”, de compresión o longitudinales, que se abrevian como “ondas P”. Estas son ondas de compresión y expansión, similares a las del sonido y son las primeras que registran las estaciones sismológicas. Estas ondas se pueden propagar por medios sólidos, líquidos o gaseosos. A continuación se producen las “ondas S”, secundarias, transversales o de cizalla, y que se transmiten de modo perpendicular. Estas ondas son como las que se producen cuando los niños extienden una cuerda de salto en el suelo y sacuden súbitamente un extremo, de modo que podemos ver la onda recorriendo la cuerda hasta el otro extremo. No se transmiten por medios líquidos.<br />
<br />
Estos dos tipos de ondas se extienden en todas direcciones desde el foco del terremoto, es decir, por todo el cuerpo de la tierra. No ocurre así con las ondas superficiales que, precisamente, se transmiten sólo en las capas superiores de la tierra. Se trata de las ondas Rayleigh y Love, que son como las ondas que vemos cuando lanzamos un objeto en un cuerpo de agua tranquilo o las olas del mar. Son las que provocan los daños de los terremotos en construcciones y bienes... y en última instancia en vidas.<br />
<br />
Solemos identificar los daños causados por los terremotos principalmente en cuanto a edificaciones que se vienen abajo al no estar construidas con especificaciones adecuadas para resistir un movimiento sísmico. En palabras de un ingeniero que analizó los efectos del terremoto de 1985 de la Ciudad de México “Los terremotos no matan gente... los edificios mal construidos matan gente”.<br />
<br />
Esto es cierto sólo hasta un punto determinado. Los terremotos pueden ocasionar mortales deslizamientos de tierra y barro, o avalanchas, dañar tuberías eléctricas, de gas y drenajes que pueden ocasionar incendios y un fenómeno llamado “licuefacción de la tierra”, donde el movimiento hace que el suelo pierda estabilidad y se convierta en un fluido similar a las míticas arenas movedizas que puede tragarse edificaciones enteras.<br />
<br />
Si el epicentro ocurre en el océano o cerca de la costa, puede además provocar una serie de olas de intensidad y altura desusadas, los tsunamis, cuyos efectos conocimos claramente en 2004 cuando una serie de tsunamis producto de un terremoto en el Océano Índico (uno de los más potentes terremotos jamás registrados) ocasionaron más de 230.000 muertes en 14 países alrededor del epicentro, con olas de hasta 10 metros de altura.<br />
<br />
Los terremotos, siendo fenómenos indeseables y destructivos, permiten sin embargo a los geólogos aprender sobre el interior de nuestro planeta, del que sabemos tan poco. Analizando las distintas ondas sísmicas y midiendo su velocidad de propagación al registrarlas con sismógrafos situados en diferentes puntos del planeta, han podido saber más acerca de la composición de nuestro mundo, de las capas que lo componen, de su espesor y de otros factores. Las ondas sísmicas, como las del sonido, pueden además reflejarse contra obstáculos menos elásticos, interferirse, refractarse o difractarse, generando ondas más complejas que pueden incluso incrementar o disminuir la capacidad destructiva de un sismo y darle a los geólogos valiosa información.<br />
<br />
Cada año ocurren en todo el mundo alrededor de 1.500 terremotos de magnitud de 5 grados o mayor. Entenderlos, prevenir sus daños y conocerlos no sólo es una labor científica importante... es la base que nos permite tener reglamentos de construcción y otras normativas basadas en el conocimiento que pueden salvar vidas.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Predecir los terremotos</h4>
Es imposible saber con certeza cuándo una falla o un volcán van a liberar energía provocando un terremoto. Sin embargo, hay sistemas de advertencia previa, alarmas que registran la aparición de un terremoto en su epicentro y que pueden advertir a la gente. Las ondas superficiales de un terremoto viajan a enre 1 y 6 kilómetros por segundo, dependiendo de la composición del terreno, temperatura y otras condiciones. Así, una ciudad ubicada a 300 kilómetros del epicentro puede ser advertida varios minutos antes de que “viene” un terremoto o un tsunami para que la población se ponga a salvo.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-59238387675388170312016-06-11T01:53:00.000+02:002016-12-07T01:53:38.448+01:00Vavílov, pionero y mártir de la biotecnología<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhk7kvGM-v6YGrygPz85xZH4obDht42zpwrKtv5xdsvjQpwtJ30K_zj4MSf9Q983HUGaAYn28kx5Yxm3HLyxGLHloWac5nlgClPJWeN08AN02WMXeJ31gX6PkSzmVgDS9oRTpedew/s1600/vavilov-1.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhk7kvGM-v6YGrygPz85xZH4obDht42zpwrKtv5xdsvjQpwtJ30K_zj4MSf9Q983HUGaAYn28kx5Yxm3HLyxGLHloWac5nlgClPJWeN08AN02WMXeJ31gX6PkSzmVgDS9oRTpedew/s640/vavilov-1.jpg" width="410" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Nikolai Vavílov</td></tr>
</tbody></table>
<div style="text-align: center;">
<br /></div>
El científico mártir por excelencia es Galileo Galilei, con sus pesados nueve años de prisión domiciliaria hasta su muerte en 1642. Su suerte, sin embargo, se puede considerar benévola si se le compara con la de uno de los pioneros de la genética vegetal, el ruso Nikolai Vavílov.<br />
<br />
Vavílov fue el originador del concepto del “centro de origen” de los cultivos. Su hipótesis, posteriormente comprobada, era que se podía identificar la zona donde había comenzado la domesticación de cada uno de los cultivos que utilizan los seres humanos, que no se trataba de un fenómeno que había ocurrido al azar o en distintos puntos. Saber dónde comenzó la domesticación de una planta nos dice dónde encontrar a sus parientes silvestres, fuentes de hibridación que permitan mejorar las características de los cultivos.<br />
<br />
Los científicos agrícolas llaman a estos centros, precisamente, “Centros de Vavílov” en memoria del científico. Actualmente se considera que en el mundo hay 12 de ellos.<br />
<br />
<b>Genetista y revolucionario</b><br />
<br />
Nikolai Ivánovich Vavílov nació el 25 de noviembre de 1887, el mayor de cuatro de una familia de comerciantes. Ni él ni su otro hermano varón seguirían el negocio del padre. Sergei, el menor, se convertiría en un importante físico, mientras que Nikolai se vio atraído por la botánica y la agricultura, y se inscribió en el Instituto Agrícola de Moscú, del que se graduó en 1910.<br />
<br />
Vavílov se propuso su “misión por la humanidad”: usar la genética para mejorar los cultivos y alimentar a todo el mundo con “superplantas” resistentes a heladas, sequías y plagas. Su tesis fue sobre la protección de las plantas contra las plagas y luego definió su programa para hacer realidad su sueño alimentario, presentado en su artículo “Genética y agronomía” de 1912.<br />
<br />
En los años siguientes, Vavílov recorrió laboratorios de Gran Bretaña, Francia y Alemania para después establecerse como profesor e investigador en el Instituto Agrícola Saratov. Cuando muchos de sus colegas huían de la guerra y la revolución comunista, Vavílov se quedó y los conminó a quedarse para cumplir su tarea científica en un país con graves carencias alimenticias.<br />
<br />
En 1920 alcanzó uno de sus máximos logros científicos, al enunciar la Ley de las Series Homólogas de Variación, que en resumen dice que si ordenamos en una tabla las variaciones que sabemos que existen en una especie, tales variaciones también aparecerán en cualquier otra especie genéticamente próxima. El potencial de mutación en genes similares entre dos especies es, entonces, el mismo.<br />
<br />
Además de pertencer a los principales institutos de investigación agronómica y dirigir un importante instituto en Leningrado, además de presidir la Academia de Ciencias Agrícolas Lenin, Vavílov llegó a ser miembro extranjero de la Royal Society de Londres.<br />
<br />
Durante toda su carrera dedicó tiempo a recorrer el mundo reuniendo muestras de los diversos cultivos: Persia, Asia Central, Estados Unidos, Oriente Medio, Afganistán, Norte de África, Etiopía, China, Centro y Suramérica y Europa, incluida España, que recorrió durante meses en 1927. Formó así el que sería en su momento el mayor banco de semillas o germoplasma (recurso genético viviente), ubicado en Leningrado (San Petersburgo) y alcanzó reconocimiento como uno de los genetistas más importantes de su tiempo.<br />
<br />
Sin imaginar que de alguna forma estaba sellando su suerte, Vavílov apoyó a un joven agrónomo llamado Trofim Lysenko, que buscaba también mejorar los cultivos soviéticos, pero con otros métodos y, desgraciadamente, con otras bases teóricas. Lysenko defendía una evolución lamarckiana y llegó a teorizar que las ideas de Mendel y Darwin eran “burguesas” y contrarrevolucionarias, y por tanto no eran “ciencia verdadera”. A cambio, elaboró una hipótesis fantasiosa según la cual podía alimentar a toda la URSS fácilmente e incluso lograr milagros como convertir semillas de trigo en semillas de cebada. Entre sus afirmaciones estaba que no era necesario mejorar los cultivos soviéticos con semillas traídas de otros países como hacía Vavílov, ya que la semilla soviética era naturalmente superior. Demagogia agradable a oídos de los poderosos.<br />
<br />
Lysenko era de origen campesino, de modo que ideológicamente resultaba más atractivo para el poder que el burgués Vavílov. A la amistad original seguiría la confrontación ideológica, donde Lysenko alcanzó el favor incondicional de Stalin, el férreo gobernante de la URSS. Poco a poco, con acusaciones delirantes y sin bases, pero con la anuencia de los tribunales, Lysenko fue echando de sus puestos académicos a todos los genetistas darwinianos, y consiguiendo que algunos fueran encarcelados o fusilados. <br />
<br />
En 1940, tocó el turno a Nikolai Vavílov, detenido durante una de sus expediciones a Ucrania y sometido a juicio como instigador de una presunta contrarrevolución, saboteador de los trabajadores e incluso espía para Inglaterra. En julio de 1941, apenas un mes después de que la Alemania Nazi atacara a la URSS comenzando un enfrentamiento que duraría cuatro largos y penosos años, el científico fue condenado a muerte y a la confiscación de todos sus bienes. Un año después, la pena se conmutó por 20 años de trabajos forzados y Vavílov fue enviado al campo de trabajo de Saratov, donde, tratando de seguir su trabajo, daba conferencias de ciencia a otros presos y redactó una <i>Historia de la agricultura mundial</i> que permanece inédita. No resistió. La escasez provocada por la guerra y la brutalidad de su castigo lo llevaron rápidamente a morir de hambre, paradoja especialmente dolorosa para quien había soñado en alimentar a todos los hambrientos. Era el 26 de enero de 1943.<br />
<br />
La figura de Vavílov, junto a la de otros genetistas, no fue rehabilitada sino hasta 1960, como parte del proceso de “desestalinización” que buscaba reparar el daño de la dictadura del brutal georgiano.<br />
<br />
Hoy, reconocido como uno de los grandes de la ciencia agronómica, su banco de semillas, enriquecido hasta las 375.000 especies, se encuentra y estudia en el Instituto Vavílov de San Petersburgo. El cráter Vavílov en el lado oculto de la Luna lleva ese nombre por él y por su hermano Sergey. Su trabajo y sacrificio son reconocidos por todos los genetistas del mundo.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Los héroes del banco de semillas</h4>
Los científicos del Instituto Vavílov protegieron con sus vidas, literalmente, la colección del genetista en Leningrado. Se encerraron con las miles y miles de muestras de semillas, frutas, raíces y plantas que había reunidas allí y las guardaron, negándose a alimentarse de ellas durante los 28 meses que la ciudad estuvo sitiada por los nazis. Al terminar el sitio, nueve de ellos habían muerto de hambre sin tocar el tesoro genético. Su historia está contada en la novela <i>Hambre</i>, de la escritora Elise Blackwell.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-21329469296024248742016-04-02T00:38:00.000+02:002016-12-12T01:04:19.030+01:00Margaret Hamilton y las mujeres del Apolo<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhydnFcLa0zFSZKopsDTrpfT_Yfsd5to6e4UlIJZk4vdFzsw0OtI0Vf6sftRloxiEdbVF6O1-Au9b82J4frUCI3OCXlpm0CFWDD-y2Kje1_w94bFmK3NigJYcnx0TwAtsbvxBkBbA/s1600/Margaret_Hamilton.gif" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhydnFcLa0zFSZKopsDTrpfT_Yfsd5to6e4UlIJZk4vdFzsw0OtI0Vf6sftRloxiEdbVF6O1-Au9b82J4frUCI3OCXlpm0CFWDD-y2Kje1_w94bFmK3NigJYcnx0TwAtsbvxBkBbA/s640/Margaret_Hamilton.gif" width="512" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Margaret Hamilton (Imagen DP vía Wikimedia Commons)</td></tr>
</tbody></table>
La fotografía muestra a una joven con un aspecto inconfundible de fines de los años 60 sonriendo de pie junto a una torre de hojas de papel que mide lo mismo que ella.<br />
<br />
Sin el pie de foto, se podría interpretar de muchas maneras sin dar con la explicación: la imagen del 1º de enero de 1969 nos muestra a la Directora de la División de Ingeniería de Software del Laboratorio de Instrumentación del MIT, Margaret Hamilton, por entonces de 32 años de edad, y la torre de papel es la impresión del código fuente del Ordenador Guía del Apolo, el software que unos meses después sería utilizado para navegar y aterrizar en la Luna y cuyo desarrollo había dirigido por encargo de la NASA.<br />
<br />
En aquellos años no existía, sin embargo, el puesto o carrera profesional de “programador de software”, de “ingeniero de software”, ni de “informático”. De hecho, el término mismo de “ingeniería de software” fue popularizado por la propia Hamilton. El software no se había probado nunca en condiciones reales: era tan pionero como los astronautas que pisarían la Luna, y hecho por pioneros que no sólo pisaban territorio desconocido, iban creando el territorio conforme avanzaban y respondían a preguntas sobre cómo conseguir que un programa tomara decisiones difíciles.<br />
<br />
Nacida el 17 de agosto de 1936, Margaret Heafield (“Hamilton” es su nombre de casada) descubrió muy tempranamente su pasión por las matemáticas, que la llevó a obtener su licenciatura en la disciplina en 1958, antes de mudarse a Boston con el plan de estudiar matemáticas abstractas en la Universidad de Brandeis. Entretanto, en 1960 aceptó un empleo interino en el legendario Instituto de Tecnología de Massachusets, MIT, desarrollando software destinado a la predicción meteorológica para Edward Norton Lorenz, meteorólogo, matemático y pionero de la teoría del caos, conocido por haber acuñado el muy malinterpretado concepto del “efecto mariposa”.<br />
<br />
¿Cómo se aprendía a programar si no lo enseñaban en la escuela? Haciéndolo, equivocándose y trabajando como aprendiz con quienes ya habían avanzado en la disciplina. Y la programación resultó ser un espacio ideal para llevar a la práctica el talento y conocimientos matemáticos de Hamilton, que se dedicó de lleno a la nueva disciplina. En 1961 pasó al proyecto de vigilancia de misiles o aviones enemigos que entraran en el espacio aéreo estadounidense y dos años después volvió al MIT, al Laboratorio Charles Stark Draper, donde se empezaba a crear el software para ir a la Luna. Entonces el proyecto sólo existía en el papel y no despegaría (literalmente) sino hasta 1967.<br />
<br />
En 1965, Hamilton se hizo cargo del departamento y el proyecto. Su objetivo, algo que al principio ni siquiera se había contemplado en los presupuestos de la NASA, era el programa con el cual el ordenador a bordo de las Apolo calcularía trayectorias, posiciones, velocidades y, en última instancia, tomaría decisiones en colaboración con los astronautas.<br />
<br />
La prueba de fuego de su trabajo, inesperadamente, vendría minutos antes del aterrizaje del módulo de descenso de la Apolo 11 en la Luna. Debido a un error, un radar empezó a mandar señales equivocadas, sobrecargando al ordenador y quitándole 15% de su tiempo, que debía centrarse en realizar sus funciones de aterrizaje. El diseño del software del equipo de Hamilton incluía programas de recuperación que le permitían desechar tareas de baja prioridad y reestablecer las más importantes. El programa reconoció y resolvió el problema, evitando el riesgo de un descenso manual.<br />
<br />
Hamilton procedería, después de unos años más en el programa espacial, a fundar su propia empresa de software, que encabeza actualmente, desarrollando el Lenguaje Universal de Sistemas que creó para el programa Apolo, una forma de programación basada en la teoría de sistemas y en la idea de prevenir los problemas más que en resolverlos cuando se presenten.<br />
<br />
Pese a ser la más relevante por su posición y el evidente éxito de su trabajo al conseguir un descenso lunar con seguridad, Margaret Hamilton es sólo una de las muchas científicas del programa Apolo. Si ella consiguió que el módulo Águila se posara en el Mar de la Tranquilidad, por ejemplo, fue Dorothy Lee quien garantizó que el módulo de comando de la misión regresara con seguridad a tierra. Lee fue una de las primeras especialistas en aerotermodinámica, la disciplina que estudia cómo la fricción del aire genera o disipa calor, y por tanto la responsable de los escudos de calor que resistieron el reingreso a la atmósfera terrestre a una velocidad de 11.000 metros por segundo. Después, sería la responsable del diseño de las piezas cerámicas que protegieron todas las misiones del transbordador espacial.<br />
<br />
Está también Barbara “Bobbie” Johnson, la primera mujer graduada de ingeniería general en la Universidad de Illinois. Su primer trabajo fue como parte del equipo que hizo la propuesta para obtener el contrato para el proyecto Apolo. Después se hizo cargo del diseño y evaluación de los sistemas de monitorización del reingreso a la atmósfera de las Apolo y, en 1968, se le hizo responsable de la división de Requisitos y Evaluaciones de las Misiones Apolo, al frente de un equipo de más de 100 ingenieros. O Judith Love Cohen, la ingeniera eléctrica de Space Technology Laboratories que trabajó en el sistema alternativo de guía, el respaldo en caso de que los ordenadores principales fallaran. O Ann Dickson, la joven lectora de ciencia ficción que soñaba con ser astronauta, que trabajó en diversos equipos de control en la empresa que administró la misión y no fue admitida como candidata a astronauta por no tener 600 horas de vuelo acumuladas como piloto.<br />
<br />
Frances "Poppy" Northcutt, matemática de apenas 25 años al momento de la llegada a la Luna, se hizo conocida por ser la única mujer en la sala de control de la misión del Apolo 11. Larue W. Burbank se ocupó del diseño de los sistemas de visualización en tiempo real que utilizaron los astronautas y Catherine T. Osgood, que analizó y preparó el reencuentro entre el módulo lunar y el módulo de comando que quedaba en órbita alrededor de la Luna... La lista es, sin duda alguna, más larga de lo que se podría imaginar.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Las computadoras</h4>
Las antecesoras de Margaret Hamilton fueron las matemáticas que mayoritariamente se ocuparon en la Segunda Guerra Mundial de cálculos balísticos y de las matemáticas de las reacciones nucleares en el Proyecto Manhattan. Después de la guerra, seis de ellas fueron las responsables de crear los programas para ENIAC, el primer ordenador multipropósito. Como a ellas se les llamaba “computadoras” por dedicarse al cómputo de números, el aparato fue llamado “computer” en inglés. Esas primeras programadoras profesionales fueron Kay McNulty, Betty Snyder, Marlyn Wescoff, Ruth Lichterman, Betty Jean Jennings y Fran Bilas.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-43748126526922475442016-02-11T02:06:00.000+01:002016-02-11T03:06:47.426+01:00Mujeres en la cienciaComo parte de la celebración del Día de la Mujer en la Ciencia hoy 11 de febrero, el blog colectivo <a href="http://naukas.com/" target="_blank">Naukas</a> ha preguntado a científicos y divulgadores sobre sus científicas favoritas.<br />
<br />
A lo largo de los años, he escrito para "Territorios de la cultura" de <i>El Correo</i> y publicado en este blog varias biografías de científicas destacadas, desde la farmacóloga y Premio Nobel <a href="http://xoccam.blogspot.com.es/2013/12/de-la-leucemia-al-sida-40-anos-contra.html" target="_blank">Gertrude B. Elion</a> hasta la paleontóloga autodidacta <a href="http://xoccam.blogspot.com.es/2014/12/mary-anning-la-hija-del-carpintero.html" target="_blank">Mary Anning</a>; desde la astrónoma y descubridora de cometas <a href="http://xoccam.blogspot.com.es/2014/08/caroline-herschel-y-sus-cometas.html" target="_blank">Caroline Herschel</a>, hasta la cosmóloga <a href="http://xoccam.blogspot.com.es/2013/04/cecilia-de-que-esta-hecho-el-universo.html" target="_blank">Cecilia Payne-Gaposchkin</a>, que determinó que el hidrógeno es el elemento principal del universo. Hemos contado los logros de <a href="http://xoccam.blogspot.com.es/2014/12/los-genes-saltarines-de-barbara.html" target="_blank">Barbara McClintock</a>, revolucionaria de la genética, los de la muy reconocida física <a href="http://xoccam.blogspot.com.es/2007/11/mara-sklodowska-curie-dar-la-vida-por.html" target="_blank">Marie Curie</a> y los de la menos mencionada figura de la Ilustración <a href="http://xoccam.blogspot.com.es/2015/04/la-marquesa-que-preguntaba.html" target="_blank">Emilie du Châtelet</a>, de la física <a href="http://xoccam.blogspot.com.es/2014/05/lise-meitner.html" target="_blank">Lise Meitner</a>, descubridora de la fisión nuclear, y de la malograda <a href="http://xoccam.blogspot.com.es/2010/03/la-descubridora-olvidada-del-adn.html" target="_blank">Rosalind Franklin</a>, cuya muerte impidió que recibiera el Nobel como codescubridora del ADN.<br />
<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiaapCJyxRbqdNKr_dNXd3iWKLU56K7ogc3ld4z684s8YGDYmNnmEVJmvehJ8aDJ-LPAiIi7KNc-Mz3-lM3LvYdGZxCVwua09TJv9jkpXl-B7gEzfHfC15aBXMvOaN3if697ZSWow/s1600/thalidomide+post.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiaapCJyxRbqdNKr_dNXd3iWKLU56K7ogc3ld4z684s8YGDYmNnmEVJmvehJ8aDJ-LPAiIi7KNc-Mz3-lM3LvYdGZxCVwua09TJv9jkpXl-B7gEzfHfC15aBXMvOaN3if697ZSWow/s1600/thalidomide+post.jpg" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Nota en portada de <i>The Washington Post</i> del 15 de julio de 1962, informando<br />
de que el heroísmo de Frances Oldham Kelsey había impedido, pese a muchas<br />
presione, que llegara al mercado la talidomida. El escepticismo gana...</td></tr>
</tbody></table>
Pero mi favorita, si tuviera que elegir una, sería <a href="http://xoccam.blogspot.com.es/2013/09/la-talidomida-y-la-farmacologa-rigurosa.html" target="_blank">Frances Oldham Kelsey</a>, farmacóloga cuyo rigor y determinación impidieron que se comercializara la talidomida en los Estados Unidos, pues consideraba que no se podía autorizar el medicamento sin estudios en mujeres embarazadas. Su firmeza ante las presiones que le exigían ceder no sólo salvó a miles de sufrir los defectos congénitos causados por el uso de la talidomida durante el embarazo, sino que cambió para siempre las normas, exigencias y regulaciones sobre la autorización de medicamentos.<br />
<br />
El hashtag, por cierto, que se está utilizando es #WomenInSTEM, mujeres en ciencia, tecnología, ingeniería y matemáticas.Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-29288110060714645662016-01-16T13:20:00.000+01:002016-11-17T14:34:34.965+01:00Fuegos artificiales<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjaAcr7OJkHVedCPGeLba3K8OkFP8_I36kWEAaW4-hiQ8arHlinVrO7SxzgOjerpvO2kixEqau8qD9IxNOVxQ_4Me7siu5dOUfvwIN_0_qAHZ7weKWPghsx6Dhsw-AGDlwNZMPGKw/s1600/572px-James_Abbot_McNeill_Whistler_012.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjaAcr7OJkHVedCPGeLba3K8OkFP8_I36kWEAaW4-hiQ8arHlinVrO7SxzgOjerpvO2kixEqau8qD9IxNOVxQ_4Me7siu5dOUfvwIN_0_qAHZ7weKWPghsx6Dhsw-AGDlwNZMPGKw/s1600/572px-James_Abbot_McNeill_Whistler_012.jpg" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">"Nocturno en negro y oro: cohete cayendo" de James McNeill Whistler.<br />
(Imagen D.P. vía Wikimedia Commons)</td></tr>
</tbody></table>
<br />Resulta asombroso ver una noche a miles, quizá millones de personas, observando asombradas la danza de colores, brillo y explosiones de los fuegos artificiales con los que las más distintas culturas humanas suelen celebrar hoy todo tipo de acontecimientos. Los rostros adquieren expresiones infantiles, sorprendidos por un dibujo en el cielo, por una explosión especialmente fuerte o por una lluvia de chispas de colores. Lo hemos sentido... los fuegos artificiales nos emocionan profundamente.<br />
<br />
Sabemos que a pirotecnia nació en China entre el siglo VII y X de la Era Común gracias a la invención (probablemente por accidente) de la pólvora negra, una mezcla de carbón, azufre y nitrato de potasio y que al calentarse se quema muy rápidamente, produciendo una gran cantidad de gases. El carbón (que puede sustituirse por azúcar) es el combustible básico de la reacción, mientras que el nitrato de potasio sirve como oxidante (aporta oxígeno) que acelera la velocidad de quemado y el azufre favorece que la reacción de ambos sea estable, además de ser también combustible. Si tendemos una línea de pólvora en el suelo y la encendemos, vemos que se quema a gran velocidad. Si en lugar de ello la atrapamos en un espacio confinado, como un tubo de bambú, la súbita producción de gases provoca una explosión. En la recámara de un arma, claro, puede impulsar una bala.<br />
<br />
En el siglo X ya se vendían fuegos artificiales de tubos de papel llenos de pólvora para celebraciones familiares. Apenas servían para producir explosiones o, con un extremo abierto, podían correr sin rumbo impulsados por los gases de la combustión. En el siglo XIII, esta forma de entretenimiento llegó hasta Italia, quizás por la ruta de la seda (hay quien le atribuye a Marco Polo el haberlos llevado a occidente) o quizas traída por la invasión mongola de Europa bajo el mando de Ogodei, el hijo de Gengis Khan.<br />
<br />
En Italia, en especial en el renacimiento, los fuegos artificiales empezaron a parecerse a los que vemos hoy gracias a la invención del proyectil aéreo, un recipiente lleno de explosivos que se disparaba al aire con el impulso de la pólvora, como un cohete o un avión a reacción, y vuyo contenido detonaba al alcanzar cierta altura, dando un espectáculo mucho más atractivo. Modificando los compuestos explosivos, los “maestros del fuego” consiguieron efectos cada vez más variados: fuentes, ruedas, conos, velas romanas, bombas, candelas españolas, palmeras, crisantemos y muchos más.<br />
<br />
Pero seguían trabajando con pólvora negra, primitiva y sencilla que, cuando mucho, se producía en distintos tamaños de grano para que su combustión fuera más lenta (granos grandes) o más rápida (granos finos) y cuyos colores eran el anaranjado, producto de las chispas de la pólvora negra, y el blanco de alguna raspadura de metal. <br />
<br />
En la década de 1830, los maestros pirotécnicos empezaron a aplicar los conocimientos de la química y añadieron a sus trabajos artesanales nuevas sustancias. El clorato de potasio fue una innovación como oxidante mejor que el nitrato de potasio, que ardía más rápido y a una temperatura más alta. A esa temperatura, se podían añadir a la pólvora sales metálicas para producir chispas de distintos colores.<br />
<br />
Cuando vemos las explosiones de fuegos artificiales estamos viendo la energía que emiten distintos metales al ser calentados por la pólvora en un fenómeno llamado “luminiscencia”. Estos metales se utilizan en forma de sales. Así como la sal de mesa es cloruro de sodio, que es un metal explosivo en su estado elemental, la pirotecnia utiliza carbonatos, cloruros, sulfatos, nitratos y otros compuestos para sus despliegues. <br />
<br />
El color rojo se obtiene con sales de litio, mientras que si se añaden sales de estroncio tenemos un rojo más brillante. El anaranjado es resultado del añadido de sales de calcio, mientras que el amarillo se obtiene con sales de sodio, el verde con las de bario y el azul con las de cobre. Mezclando compuestos, además, se puede crear una paleta de colores mucho más amplia. Por ejemplo, al quemar al mismo tiempo sales de estroncio y de cobre obtenemos un color morado, igual que si mezcláramos pintura roja y azul.<br />
<br />
Otros colores se obtienen mediante incandescencia, es decir, el brillo que emiten algunas sustancias al calentarse, como el color rojo del hierro a altas temperaturas. El dorado revela la presencia de hierro, mientras que al añadir copos de magnesio, titanio o aluminio se producen chispas de color blanco azulado o plateado. El magnesio y el aluminio se pueden añadir también a otros colores para hacerlos más brillantes.<br />
<br />
Los maestros pirotécnicos pueden controlar a voluntad la altura a la que se producirán distintas explosiones, y el tiempo entre unas y otras que puede producir atractivos efectos. El misil o proyectil que lanza los fuegos al cielo (a diferencia de los que son proyectados como surtidores desde el suelo) tiene una sección de impulso y lleva, en la parte superior, una bomba con las “estrellas” o efectos que van a exhibirse en cada caso, y que suelen ser bolas comprimidas hechas de pólvora y las distintas sustancias que determinarán cómo estallará y con qué colores. Están hechos de un material explosivo más suelto y fino y cada uno de ellos puede estallar en distintos momentos, gracias a una o más mechas retardadas, calculadas para que hagan estallar los efectos a gran altura. Un proyectil puede incluso tener varios efectos distintos, empaquetados en compartimientos independientes y que se van disparando en secuencia.<br />
<br />
El disparo de los fuegos artificiales puede hacerse a mano, pero hoy se suele utilizar un sistema de encendido eléctrico con un tablero desde el cual se van lanzando los distintos proyectiles para que los distintos efectos se sucedan con el ritmo dramático ideal según el diseñador del espectáculo. Un acontecimiento así, con cientos y miles de kilos de explosivos, apoyado en la química y en los más cuidadosos cálculos, mantiene de todas formas su esencia artística: si la estructura es correcta, si la ciencia se ha hecho bien, incluso si se acompaña con alguna música relevante, nos irá llevando de una emoción a otra aún más intensa a lo largo de su desarrollo... hasta entusiasmarnos al máximo en la traca final... Un fin de fiesta a años luz de los primeros petardos chinos hace más de mil años.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Pirotecnia en el arte</h4>
Son innumerables los cuadros que representan espectáculos pirotécnicos, el más famoso de los cuales es quizá el “Nocturno en negro y oro” del pintor estadounidense del siglo XIX James McNeill Whistler. En la música, destaca la “Música para los reales fuegos de artificio” compuesta por George Frideric Handel en 1749 para acompañar los solemnes fuegos artificiales que ordenó preparar y quemar el rey Jorge II para celebrar el final de la guerra de la sucesión austríaca.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-2430632770364638772015-11-07T03:21:00.000+01:002016-11-22T03:23:53.370+01:00¿Por qué es la gripe un adversario tan difícil?<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEixyMsjdsbzb83Aw-lYEu3jgamWLKHEN-zff4cQBxIKjLKimyRuRnC-qxrfvX-C1ft2a0hFtCwTfG86eJgFn_K8gZIufA2Wg3xN-a-0j8xL3LNB-2qpAOWsnlSG_xKRXLBtgRJJJA/s1600/HD.17.025_%252811949650025%2529.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="474" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEixyMsjdsbzb83Aw-lYEu3jgamWLKHEN-zff4cQBxIKjLKimyRuRnC-qxrfvX-C1ft2a0hFtCwTfG86eJgFn_K8gZIufA2Wg3xN-a-0j8xL3LNB-2qpAOWsnlSG_xKRXLBtgRJJJA/s640/HD.17.025_%252811949650025%2529.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Cubierta de proteína del virus de la gripe HRV14.<br />(Imagen DP Departamento de Energía de los EE.UU., vía Wikimedia Commons)</td></tr>
</tbody></table>
Es nuevamente esa época del año que identificamos con el frío, las fiestas, los excesos en las comidas... y también con los moqueos, toses, fiebres y malestares de la gripe, esa enfermedad causada por virus que la ciencia biomédica sigue sin poder vencer.<br />
<br />
El hecho de que se trate de una afección vírica es ya en sí una primera indicación de cuál es el problema que enfrenta la ciencia. Hasta hoy no tenemos ninguna forma eficaz de curar las enfermedades producidas por virus, salvo por alguna excepción como es el caso de la hepatitis C. Podemos prevenir algunas mediante vacunas, motivo por el cual ante el ébola y otras enfermedades hay más esfuerzos buscando la vacuna que la curación. Podemos controlar algunos virus, como el VIH, responsable del SIDA. Y no nos servirán de nada los antibióticos, que pueden matar bacterias que nos atacan, pero no virus.<br />
<br />
Pero en la vasta mayoría de los casos, si nos curamos de una afección causada por un virus es la labor del sistema inmune de nuestro cuerpo. De hecho, muchos de los síntomas más molestos de las gripes o resfriados, como la fiebre y el cansancio, son resultado de la acción de los mecanismos de defensa del cuerpo.<br />
<br />
Cuando un virus entra en el cuerpo, lo más probable es que sea destruido por el sistema inmune. Si no fuera así, sufriríamos continuamente una multitud de enfermedades virales, ya que hay virus todo a nuestro alrededor. De hecho, hay más virus que ningún otro ser vivo... si aceptamos que los virus son seres vivos. Si lo son, son bastante peculiares. No tienen funciones respiratorias, digestivas o de movimiento, son solamente una capa de proteínas que cobija a una cadena de ARN o ADN y cuya única función es, al encontrar ciertas células vivientes, fijarse en su superficie e “inyectar” en ellas su material genético, el ARN o ADN. Este material genético funciona como un pirata que secuestra a la célula obligándola a invertir sus procesos metabólicos en la producción de miles y miles de copias del virus (de nuevo, la capa de proteínas y la cadena de material genético). Cuando se han agotado las capacidades de la célula, ésta estalla liberando a esos miles de virus, cada uno de los cuales está listo para encontrarse con otra célula y repetir el proceso.<br />
<br />
No es difícil ver cómo, con unos cuantos ciclos de infección y liberación de copias del virus, el cuerpo puede sentir los efectos de la muerte de las células. Si las células son, como en el caso de la gripe, las de nuestro tracto respiratorio, tenemos todos los efectos comunes: moqueo, garganta irritada, tos. Lo que está ocurriendo en nuestro interior es una verdadera batalla colosal entre los virus y nuestro sistema inmune. Generalmente gana éste pero, en algunos casos, una gripe puede provocar la muerte.<br />
<br />
Esta respuesta inmune permite que nuestro cuerpo adquiera inmunidad a esa cepa de ese virus. Las células encargadas de aniquilar a los intrusos en nuestro cuerpo “aprenden” cómo es ese virus y cómo destruirlo, lo que nos hace esencialmente resistentes a él en lo sucesivo. Este mecanismo es precisamente el que se aprovecha para generar vacunas, inoculando virus muertos o atenuados, o proteínas concretas, pero evocar esa inmunidad adquirida sin que tengamos que sufrir las enfermedades.<br />
<br />
<b>Gripe y resfriado, dos virus, dos enfermedades</b><br />
<br />
¿Por qué hablamos de “gripe o resfriado”? Pues porque realmente no estamos hablando de una sola enfermedad, sino de al menos dos afecciones con síntomas parecidos, una más grave y ambas causadas por virus distintos. Y no solemos estar conscientes de ello.<br />
<br />
El resfriado común es una molesta enfermedad que nos puede afectar en cualquier momento a lo largo del año con nariz moqueante o tapada, garganta dolorida, estornudos, fiebre no muy alta, tos, dolores de cabeza y cansancio leve, y suele desaparecer en una semana. Su causa es la gran familia de rinovirus (que significa virus de la nariz) humanos, que atacan todo el año, pero más frecuentemente al principio del otoño y al final de la primavera. Se conocen 3 especies de rinovirus y más de 99 tipos distintos dentro de ellas. Los rinovirus son responsables de aproximadamente la mitad de las enfermedades tipo gripe que se padecen en todo el mundo, y la infección con ellos es la más común de todas las enfermedades humanas. Son generalmente leves, aunque excepcionalmente pueden ser graves.<br />
<br />
La gripe estacional, la que suele presentarse con el clima frío, es más grave, ya que además de los síntomas del resfriado la fiebre que provocan puede llegar a ser alta, y provocan escalofríos, dolores musuclares graves y fatiga intensa que puede durar hasta más de dos semanas. Los causantes son tres géneros de virus de la influenza o gripe, que pueden afectar a otras especies además de la humana. Pero los causantes de las pandemias de gripe son los virus del género A y B, que se clasifican de acuerdo con la presencia en su superficie de las proteínas hemaglutinina (H) y neuramidasa (N), con 18 subtipos de la primera y 11 subtipos de la segunda. Así, por ejemplo, los virus H1N1 fueron responsables tanto de la gripe española de 1918 y de la gripe porcina en 2009.<br />
<br />
La prevención de la gripe se realiza por medio de vacunas que pueden proteger contra tres o cuatro de los más comunes subtipos A y B del virus. Estas vacunas ofrecen una protección que sin embargo no es tan amplia como la de otras vacunas. Además, debe renovarse anualmente, porque la de un año no nos protege contra la del siguiente. El arma del virus de la gripe para evadir nuestro sistema inmune es su capacidad de mutar, cambiar año con año las proteínas que lo recubren de modo que resulte otra vez una infección nueva para nuestras defensas naturales y para las obtenidas por medio de las vacunas. <br />
<br />
Algunos antivirales tienen un efecto limitado sobre algunos tipos del virus de la gripe, pero en general tanto para el resfriado común como para la gripe, el único alivio son los antigripales que reducen los síntomas más molestos, el reposo y la paciencia. Salvo cuando se presentan complicaciones graves, que llevan a la muerte a más de 100.000 personas cada año.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Fríos y resfríos</h4>
Aunque tendemos a relacionar la gripe con el frío, esta correlación no es tal o, al menos, no se trata de que nuestras defensas, como se suele pensar, sean menos eficaces debido al frío. Los científicos manejan varias hipótesis: que el descenso en la humedad del ambiente favorece la transmisión del virus, el hecho de que en temporada de frío estamos más tiempo bajo techo y con otras personas, lo que favorece el contagio, y el que a bajas temperaturas el virus cree un mecanismo de protección que le permite sobrevivir más y mejorar sus probabilidades de infectar a otra persona. Abrigarnos, como recomienda mamá, no nos salvará de la gripe.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-55870799335745497862015-10-10T15:23:00.000+02:002016-12-19T15:47:27.172+01:00Los inesperados datos de Hans Rosling<br />
<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg6OBEoj9hM79u72joJJPEF1vejI0e4qT7Nwo84vJkP5AJjjWtFk2ekCmARSNrmzTuK6QGpkhfAGCMTd2OHWPcsISMsYMeYDbd87kogbilHMR-h8sOGmkrMt81GvFbHuQFwpCLnUA/s1600/Hans_Rosling_Shanghai.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg6OBEoj9hM79u72joJJPEF1vejI0e4qT7Nwo84vJkP5AJjjWtFk2ekCmARSNrmzTuK6QGpkhfAGCMTd2OHWPcsISMsYMeYDbd87kogbilHMR-h8sOGmkrMt81GvFbHuQFwpCLnUA/s1600/Hans_Rosling_Shanghai.jpg" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Hans Rosling en 2010.<br />(Foto CC de Tobias Andersson Åkerblom, vía Wikimedia Commons)</td></tr>
</tbody></table>
Mucho lo que sabemos es falso.<br />
<br />
O, para ser precisos, mucho de lo que creemos saber sobre la situación del mundo es totalmente falso.<br />
<br />
Haga usted esta prueba que propone el médico y estadístico sueco Hans Rosling para determinar qué tanto conoce usted del mundo en el que vive. Son cuatro preguntas, elija una respuesta para cada una.<br />
<br />
<ol>
<li>En el último siglo, las muertes cada año debidas a desastres naturales: a) se han duplicado, b) se han mantenido más o menos iguales, c) se han reducido a la mitad.</li>
<li>Si el promedio de los hombres del mundo que hoy tienen 30 años han estudiado 8 años de escuela, ¿cuántos años ha estudiado el promedio de las mujeres que hoy tienen 30 años? a) 7 años, b) 5 años, c) 3 años</li>
<li>En los últimos 20 años, el porcentaje de seres humanos que viven en pobreza extrema: a) casi se ha duplicado, b) ha permanecido más o menos igual, c) se ha reducido a la mitad.</li>
<li>¿Qué porcentaje de niños de un año de edad en todo el mundo se han vacunado contra el sarampión? a) 20%, b) 50%, c) 80%</li>
</ol>
<br />
Si nos atenemos a la impresión que nos dejan los medios de comunicación, el mundo es un lugar de caos, destrucción, guerras, enfermedades y una situación casi al borde del abismo donde nuestra esperanza de supervivencia y la de nuestros descendientes es sumamente precaria.<br />
<br />
Pero los medios de comunicación, hay que recordarlo, sólo nos informan de lo que es noticia. O de lo que los periodistas consideran que es noticia. Eso, lo que es noticia, es sólo una fracción minúscula de los acontecimientos que ocurren en el mundo. Es lo destacable, lo desusado, lo que nos afecta. La antigua conseja del periodismo lo deja claro: ningún diario escribe reportajes detallados sobre los aviones que no se estrellan.<br />
<br />
Y los aviones son un excelente ejemplo de cómo los datos, los datos reales, sólidos, comprobables, los hechos científicamente contrastados, entran en desacuerdo con nuestra percepción. Subir a un avión con frecuencia nos provoca ansiedad, pensamos en los terribles accidentes de aviación recientemente cubiertos en detalle por la prensa, y probablemente sabemos, porque nos lo han dicho, que el avión es el medio de transporte más seguro que existe, y lo es cada vez más... Los datos están allí, pero algo dentro de nosotros no se lo puede creer.<br />
<br />
Hans Rosling, nacido en 1948, estudió medicina y estadística y desde 1976 pasó varios años como médico en Mozambique y por toda África estudiando brotes de una enfermedad paralizante que llamó konzo y que logró descubrir que tenía su origen en el consumo de mandioca poco procesada, que además de provocar deficiencias alimentarias provocaba un consumo excesivo de cianuro. Posteriormente trabajó como asesor de salud en organizaciones internacionales como la OMS y UNICEF, además de ser uno de los fundadores de Médicos sin Fronteras.<br />
<br />
Pero su pasión, en parte profesional y en parte debida a su preocupación por la pobreza y lo que llamamos “el Tercer Mundo”, y lo que lo ha dado a conocer en todo el mundo, es la estadística, el manejo de los datos reales, obtenidos científicamente, y el hecho de que la mayoría de las personas, de los propios medios de comunicación, tienen una visión del mundo que no se corresponde con la realidad, que es, cuando menos, anticuada. Y en muchas ocasiones profundamente injusta.<br />
<br />
Es más o menos conocido que hay una serie de datos que hablan en favor de un avance notable en algunos rubros del bienestar colectivo... Sabemos que la mortalidad infantil se ha abatido gracias a los avances en vacunas y alimentación, y que la expectativa de vida al nacer prácticamente se ha duplicado desde principios del siglo XX. Pero la idea que tenemos es que estos fenómenos son peculiares de los que consideramos “países desarrollados”, cuando en realidad el fenómeno también ha ocurrido en África y Asia. Incluso países pobres como Mozambique, por poner un ejemplo, la mortalidad infantil ha caído de 440 niños por cada mil nacimientos en 1900 a 87 en 2013... una cifra enorme pero que es igual a la mortalidad infantil que había en el Reino Unido en 1933 o en Estados Unidos en 1936. O Perú apenas en 1989. El avance es real.<br />
<br />
Por supuesto, si no conocemos los datos, datos que se hayan recopilado de modo fiable y con métodos científicamente sólidos, la imagen que tenemos del mundo está distorsionada y ello dificulta poder cambiar las cosas para bien. Para que estos datos sean conocidos, Hans Rosling ha desarrollado el proyecto llamado Gapminder, una forma de presentación de datos en ordenadores que permite ver la evolución de muy diversos indicadores a partir de datos sólidos.<br />
<br />
Por cierto, las respuestas a las preguntas con las que comenzamos son c, a, c, c. Las más optimistas, las que menos se ajustan a la visión que solemos tener. Rosling suele prevenir al público de que esto no significa que los problemas se hayan resuelto, pero sí nos dice que los problemas más acuciosos están resolviéndose y pueden resolverse: vacunación, alfabetización, escuela para hombres y mujeres, incluso el hambre y la pobreza extrema no son fatalidades ni problemas que esperen una solución súbita que lo cambie todo, sino asuntos que podemos enfrentar con el conocimiento, la tecnología, la ciencia y el conocimiento de la realidad.<br />
<br />
¿Y la sobrepoblación, preocupación siempre animada por los medios? Los datos y las proyecciones de los mimos indican que la población tiende a dejar de crecer. Las parejas en todo el mundo tienen ahora poco más de dos hijos en promedio, las grandes familias van quedando en el pasado y a mediados de este siglo la población podría estabilizarse en 11 mil millones de habitantes, número que se mantendría igual hacia el futuro. El problema seguirá siendo que esos 11 mil millones de vidas sean dignas, satisfactorias y plenas.<br />
<br />
Pero, según el investigador sueco, es más importante invertir tiempo y recursos en eso que en preocuparnos por miedos sin fundamento. No por optimismo, sino por que llama “posibilismo”, porque sabemos que sí es posible resolver los problemas de nuestro mundo.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
La era menos violenta</h4>
El psicólogo cognitivo Steven Pinker se ha interesado por determinar, con datos etnográficos, paleontológicos e históricos, si la violencia entre los seres humanos ha aumentado o disminuido a lo largo de la historia. Sus descubrimientos son asombrosos. Cuando en el año 1300 había una media de 40 homicidios por cada 100.000 personas, para 1700 la cifra había caído a al rededor de diez y, en la actualidad, sólo mueren una o dos personas asesinadas de cada 100.000. Otros indicadores, como la violencia contra niños o el porcentaje de personas muertas en combate han caído drásticamente. Aunque parezca contrario a todo lo que suponemos, y pese al camino que falta por andar, vivimos en la era menos violenta de la historia humana. Demostrablemente.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-42311384150095963452015-10-03T20:45:00.000+02:002016-12-11T20:47:11.767+01:00Una newtoniana en los estados papales <table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="Image result for laura caterina bassi" class="irc_mi i4JgV3mCrzQw-pQOPx8XEepE" src="https://upload.wikimedia.org/wikipedia/commons/5/56/Laura_Bassi_oval_portrait.jpg" style="margin-left: auto; margin-right: auto; margin-top: 20px;" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Laura María Catharina Bassi en un grabado de<br />Domenico Maria Fratta del siglo XVIII.</td></tr>
</tbody></table>
A principios del siglo XVIII la revolución científica había llegado a su culminación. Ya nada volvería a ser igual en el conocimiento, en la relación misma del ser humano con el universo. La revolución había comenzado en 1543, con la publicación de las ideas de Nicolás Copérnico y se cerraba en 1687 con el libro donde Newton desentrañaba las leyes del movimiento y de la gravitación. En menos de siglo y medio en el cual se había replanteado, cuestionado y reevaluado todo cuanto el ser humano había creído saber en toda su historia.<br />
<br />
Pero faltaba que las nuevas ideas fueran aceptadas por quienes manejaban el poder a todos los niveles, incluidos los científicos. Eran necesarios nuevos revolucionarios que contaran la historia y que construyeran sobre las bases fijadas por los creadores de lo que hoy llamamos ciencia.<br />
<br />
Una de las consolidadoras de la revolución científica y heraldo de la revolución social y política que la seguiría, la Ilustración, Laura María Caterina Bassi, nació el 31 de octubre de 1711 en Bolonia, por entonces parte de los Estados Papales. Hija de un abogado, llegaba a la todavía nueva élite de los profesionistas liberales con dinero pero sin título nobiliario. Su padre decidió educarla en casa; a los cinco años empezó a estudiar latín, francés y matemáticas, y a los trece, el médico familiar y profesor de la Universidad de Bolonia, Gaetano Tacconi empezó a enseñarle filosofía, metafísica, lógica y eso que por entonces se llamaba “filosofía natural”... ciencia.<br />
<br />
La joven tenía dotes intelectuales notables y un interés profundo por el universo a su alrededor, especialmente por la física, y en los años siguientes sería conocida por su capacidad intelectual tanto en su ciudad como internacionalmente. Su entorno (que incluía a Próspero Lambertini, después Benedicto XIV) le animó a buscar un puesto académico y con apenas 20 años fue admitida en la Academia de Ciencias de Bolonia. Tres semanas después, el 17 de abril de 1732, defendió 49 tesis en la Universidad de Bolonia, con tal éxito que le mereció ser doctorada el 12 de mayo.<br />
<br />
Buena parte de las tesis que defendía se referían a la física, la biología y la anatomía, y entre ellas defendía la posición de Newton respecto de la ciencia, a contracorriente de la preferencia de los académicos de la época por el pensamiento de Descartes.<br />
<br />
El filósofo francés René Descartes afirmaba que la forma correcta de descubrir la verdad es por medio de la razón y sólo la razón, mientras que Newton afirmaba que la razón podía plantear hipótesis, pero se necesitaba la experimentación y la observación para confirmarlas o rechazarlas. La visión de Newton afirmaba que la naturaleza obedece a leyes que se pueden cuantificar y predecir, no a fuerzas sobrenaturales. Laura Bassi, atraída por la experimentación y fascinada por sus resultados, oponía a ellos la posición del físico inglés con tanta claridad que llegó a ser conocida como “la mujer que entendía a Newton”, y durante 28 años enseñó, entre otros temas, la física newtoniana que sustentaba las ideas del genio británico. <br />
<br />
Su brillante exposición llevó a que la universidad la nombrara profesora a fines de 1732 y, al año siguiente, el 17 de abril, le otorgó una cátedra. En poco tiempo, Laura Bassi se había convertido en la segunda mujer que recibía un título universitario en Italia, además de ser la primera profesora universitaria de la historia y la primera científica profesional, dedicada a explorar problemas de mecánica, hidrometría, elasticidad, propiedades de los gases y la recién descubierta electricidad. Alessandro Volta, uno de los pioneros de la electricidad, solía enviarle sus artículos para obtener su opinión. Tenía también correspondencia con personajes como Voltaire, a quien ayudó para que fuera admitido en la Academia de las Ciencias de Bolonia.<br />
<br />
En 1738 se casó con el médico y físico Giuseppe Veratti, que compartía su pasión por la ciencia. En los siguientes años, además de dar clases en la universidad y, frecuentemente, en su casa, donde la pareja hacía sus experimentos, se dieron tiempo para tener y educar a una docena de hijos. En 1745 fue admitida en el selecto grupo de científicos, la Academia Benedictina, convocada precisamente por el papa Benedicto XIV, su antiguo amigo. Allí, desde 1746 y hasta su muerte, Bassi dio una conferencia anual detallando sus experimentos y hallazgos.<br />
<br />
Laura Bassi enfrentó la oposición de algunos que no consideraban correcto que una mujer discutiera de asuntos de la naturaleza y el universo, además de que se veía impropio que impartiera clases a grupos de alumnos masculinos, y el arzobispo de Bolonia dio la orden de que sólo impartiera clases públicas ocasionalmente y con permiso del Senado de Bolonia. Bassi decidió que su carrera científica no dependía ni de la universidad ni del arzobispo, y no tenía la perspectiva de ser una mera curiosidad, sino de realizar sus propias aportaciones al conocimiento, al método y a la filosofía de la ciencia. En 1749, inauguró un laboratorio privado que pronto se hizo famoso en toda Europa, y donde confirmó que era, además, la mejor profesora de física de su época.<br />
<br />
La culminación de su carrera se dio en 1776, cuando el Senado de Bolonia le confirió la cátedra de física experimental en el Instituto de las Ciencias de Bolonia, llevando a su marido como asistente. <br />
<br />
Una de las razones por las cuales Bassi es poco conocida actualmente es que sus aportaciones se anunciaban en conferencias y conversaciones, en particular las que impartió anualmente desde 1746 en la Academia Benedictina, y sólo publicó cuatro obras científicas, una sobre la compresión del aire, otra sobre las burbujas en líquidos en flujo libre, la tercera sobre burbujas de aire que escapan de los líquidos y otra sobre problemas mecánicos e hidrométricos.<br />
<br />
Laura Bassi falleció el 20 de febrero de 1778. La Ilustración llevaba a cabo su propia revolución y el puente entre las viejas ideas y el nuevo método, la ciencia, había sido transitado, en parte gracias a la labor experimental, docente e innovadora de Laura Bassi, “la mujer que entendía a Newton”.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Laura Bassi, hoy</h4>
Aunque poco conocida por el público en general, la contribución de Laura Bassi es reconocida por diversos medios. Llevan su nombre un liceo y una calle de su ciudad natal, Bolonia, y otro liceo en Sant’Antimo, además de ocho centros de especialización en Austria y un cráter de Venus. Adicionalmente, la Universidad Técnica de Munich ofrece anualmente el premio Laura Bassi, que consta de una mensualidad para apoyar a científicas destacadas. En 2016, serán 1.200 euros mensuales para candidatas al doctorado y 2.000 euros mensuales para estudiantes de postdoctorado, más un apoyo adicional para guardería, en caso de que las científicas tengan hijos.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-43742228985292049422015-09-26T14:28:00.000+02:002015-10-06T14:37:46.849+02:00El casi inexistente neutrino<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjjhaXX_Ul3dNFW78Ac4MQuK_AkwU5DIdjaMBheDF3K27bDYczPEyfZBqApNOYEyTBTdCOK85Jeu0tB-qU7NV6FrKdmw4tTDqCQvaAmLZEvibGiu3mwXxnz88-Jg6N1HNrgZzZa3w/s1600/Kamioka.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="428" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjjhaXX_Ul3dNFW78Ac4MQuK_AkwU5DIdjaMBheDF3K27bDYczPEyfZBqApNOYEyTBTdCOK85Jeu0tB-qU7NV6FrKdmw4tTDqCQvaAmLZEvibGiu3mwXxnz88-Jg6N1HNrgZzZa3w/s640/Kamioka.jpg" width="640" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Llenado de agua del gigantesco observatorio Kamiokande en 2006. Cada semiesfera<br />
plateada es un fotomultiplicador-detector de neutrinos.<br />
(© Kamioka Observatory, ICRR (Institute for Cosmic Ray Research), The University of Tokyo)</td></tr>
</tbody></table>
Miles de millones nos atraviesan a cada segundo sin que lo notemos, sin que lo podamos notar, pues los neutrinos son la más extraña de las partículas elementales (el zoo de partículas) que componen nuestro universo. Los neutrinos son la partícula con masa más abundante del universo, sólo por debajo de los fotones, que componen la luz y que no tienen masa. Se producen en las reacciones nucleares, tanto de fusión como de fisión (la mayor fuente de neutrinos que tenemos al alcance es nuestro propio sol) y en las supernovas cuando estallan.<br />
<br />
Los neutrinos tienen masa. Muy pequeña. Tanto que hasta 1998 se pensaba que no la tenía, que era una especie de partícula fantasma. Estas partículas no tienen carga eléctrica, viajan casi a la velocidad de la luz y son tan pequeños. Hacen falta diez millones de ellos para tener la masa de un electrón. Esas características han hecho tan difícil su estudio, ya que los neutrinos prácticamente no interactúan con el resto de la materia. Los neutrinos no son afectados así por dos de las cuatro fuerzas fundamentales del universo, la electromagnética y la fuerza nuclear fuerte. Sí les afecta la fuerza nuclear débil, pero ésa sólo tiene efectos en distancias muy cortas, y sí les afecta la gravedad mínimamente, en relación a su masa. Así que no suelen afectar a otras partículas ni, a su vez, verse afectados por ellas. Casi todos los neutrinos que llegan a la Tierra pueden atravesarla de lado a lado sin interactuar con ninguna otra partícula a su paso, como una nave viajando en el espacio no podría encontrarse al azar con casi ningún cuerpo estelar. Vale la pena recordar aquí que lo que nos parece materia sólida (y líquida) en realidad está formada principalmente por espacio vacío.<br />
<br />
Pero, pese a ser tan pequeño y tan etéreo, el neutrino es fundamental para entender el universo a nuestro alrededor. Por poner sólo un ejemplo, si podemos determinar el origen de los neutrinos que llegan a la Tierra, quizá podríamos determinar de dónde proceden los rayos cósmicos que nos bombardean incesantemente, rayos de una enorme energía, tanta que no la hemos podido reproducir en nuestros laboratorios.<br />
<br />
La existencia de lo que hoy llamamos neutrino fue propuesta en 1931 por el físico teórico Wolfgang Pauli, uno de los pioneros de la física cuántica y Premio Nobel en 1945. En sus cálculos, determinó que la energía no parecía conservarse en la desintegración radiactiva llamada “beta”, donde un neutrón del núcleo de un átomo radiactivo se convierte en un protón y un electrón. En el proceso radiactivo se había perdido algo de energía. Y como la energía ni se crea ni se destruye, Pauli pensó que podría haber sido tomada por una partícula neutral en aquellos años indetectable. Tres años después, otro físico, Enrico Fermi, le dio a esa partícula el nombre de “neutrino”, es decir, “el pequeño neutral”, que era fundamental para explicar la desintegración radiactiva tal como se observaba en los experimentos realizados por entonces.<br />
<br />
Pero fue necesario esperar hasta 1956 para que Clyde Cowan y Frederick Reines consiguieran demostrar la existencia de dichas partículas utilizando un reactor nuclear como fuente de neutrinos. El descubrimiento de los llamados “neutrinos electrones” le valió a Reines el premio Nobel de física por su parte en el descubrimiento. Desafortunadamente, como ha ocurrido en otros casos, la muerte prematura de Cowan le impidió ser galardonado con el premio, ya que no se otorga post mortem.<br />
<br />
Los neutrinos también se pueden encontrar en otras formas o “sabores”, el neutrino muón (hallado en 1961 por Leon Lederman, Melvin Schwartz y Jack Steinberger, en el CERN, hoy famoso por su acelerador de partículas, el LHC), y el neutrino tau, extremadamente escaso y de vida muy corta, que no pudo observarse sino hasta el año 2000 también en el CERN.<br />
<br />
La característica más peculiar de los neutrinos es que, a diferencia de las demás partículas elementales, están “oscilando” continuamente, es decir, cambiando de sabor. Y, además, pueden tener una mezcla de sabores, es decir, pueden tener parte de neutrino electrón y parte de neutrino muónico.<br />
<br />
Decíamos que casi todos los neutrinos que llegan a nuestro planeta lo atraviesan sin interactuar con ninguna partícula. Para percibir a algunos de los pocos que sí interactúan, sin embargo, necesitamos sistemas enormes que estén aislados de otras formas de radiación. Para ello, los observatorios de neutrinos se ubican a gran profundidad en la tierra, donde no pueden llegar los rayos cósmicos y otras partículas.<br />
<br />
Uno de los observatorios de neutrinos más impresionantes que existen es el Super Kamiokande, aunque no se parece a nada de lo que solemos llamar observatorio. Se trata de un tanque cilíndrico de acero inoxidable de 40 por 41 metros situado a mil metros de profundidad, en la antigua mina de Mozumi, que contiene 50.000 toneladas de agua ultrapura. El tanque está rodeado por más de 11.000 tubos capaces de multiplicar cualquier pequeñísimo destello de luz decenas de millones de veces. El funcionamiento del observatorio es el siguiente: cuando ocurren eventos como la desintegración de un protón o que una partícula colisione con un electrón o el núcleo de un átomo del agua, éstos provocan un cono de luz. El fenómeno, llamado “radiación de Cherenkov”, es percibido como un tenue anillo de luz por los tubos detectores. los datos de los distintos tubos que registran la luz permiten saber qué partícula los ha provocado. Estos detectores, por ejemplo, consiguieron registrar, en 1987, 11 neutrinos provenientes de la explosión de una supernova.<br />
<br />
¿Qué relación tienen los neutrinos con las partículas a las que están asociados (electrón, muón, tau)? ¿Por qué y cómo oscilan o cambian de uno a otro mientras recorren el universo a velocidades tan enormes? ¿Tienen que ver los neutrinos, como algunos físicos sospechan, con la materia oscura y la energía oscura que forman el 95% de nuestro universo y que aún no hemos podido detectar? Éstas son algunas de las preguntas que animan la investigación de los neutrinos. Enormes, costosos, delicadísimos aparatos a cargo de mujeres y hombres altamente preparados que investigan unas partículas casi inexistentes.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
En la cultura popular</h4>
En 1959, el poeta estadounidense John Updike escribió un poema sobre los neutrinos que ya decía que para ellos “la tierra sólo es una bola sin sentido”. En 1976, la banda canadiense de rock progresivo Klaatu grabó la canción <i>El pequeño neutrino</i>, de Dee Long, que desafiantemente dice “Yo mismo me niego a ser / soy alguien a quien nunca conocerás / Soy el pequeño neutrino / Y ahora estoy atravesando / Al que se conoce como tú / Y sin embargo nunca sabrás que lo hago”. Visto así, no deja de ser levemente inquietante.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-66772145881405688742015-09-12T17:05:00.000+02:002015-10-07T17:12:21.228+02:00De la inmunidad al SIDA a la curación<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: left; margin-right: 1em; text-align: left;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgwlarJc22v48fPQR1DH-gHbn53JbXjugKF26gvvxa6EoWa29lUknU4pxCgcRym7cLt2rtVzNKQ3Z9VcYW9CLjG2uxkSLE3_nE4wP5_VPtwpWNEb45l26Y0sYDP6YwT0Ax_OioB4w/s1600/Hiv_budding.jpg" imageanchor="1" style="clear: left; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgwlarJc22v48fPQR1DH-gHbn53JbXjugKF26gvvxa6EoWa29lUknU4pxCgcRym7cLt2rtVzNKQ3Z9VcYW9CLjG2uxkSLE3_nE4wP5_VPtwpWNEb45l26Y0sYDP6YwT0Ax_OioB4w/s1600/Hiv_budding.jpg" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Virus del VIH saliendo de una célula humana<br />
donde se ha reproducido. (Imagen D.P. National<br />
Institutes of Health, EE.UU. vía Wikimedia<br />
Commons)</td></tr>
</tbody></table>
El 1% de los seres humanos puede exponerse a la infección de VIH sin ser infectado. El retrovirus entra efectivamente en su cuerpo, pero no puede actuar, no puede reproducirse (proceso en el cual destruye los glóbulos blancos que ataca, precisamente los responsables de nuestro sistema inmune) y por lo tanto estas personas nunca desarrollan el SIDA como enfermedad. Son inmunes a la epidemia.<br />
<br />
Fue a principios de los 1980 cuando apareció el virus de la inmunodeficiencia humana (VIH), que destruye el sistema inmune de sus víctimas, dejándolas indefensas ante las infecciones, el temido síndrome de inmunodeficiencia adquirida, SIDA. Y las víctimas de SIDA tenían una esperanza de vida reducidísima, la enfermedad parecía ser altamente contagiosa, sobre todo mediante agujas infectadas (cebándose en los drogadictos más extremos) y a través del contacto sexual. Las historias se multiplicaban en los medios, alentadas por las muertes de personajes famosos como Rock Hudson o Freddie Mercury. Por si fuera poco, la epidemia comenzó a desarrollarse entre la comunidad homosexual, lo que animó los ataques de homofóbicos.<br />
<br />
Adquirir el VIH, un peculiar retrovirus, conducía entonces inevitablemente al SIDA y éste era mortal en poco tiempo, meses, incluso, matando a través de “infecciones oportunistas” que se aprovechan de la debilidad del sistema inmune de los pacientes.<br />
<br />
Las costumbres cambiaron y los controles se multiplicaron: en bancos de sangre, hospitales y consultorios. El condón se generalizó como principal barrera al contagio del VIH, aparecieron guantes de goma en las manos de todos quienes pudieran tratar con sangre de otras personas. Y el debate se incendió en lugares como algunos países africanos, donde las creencias religiosas opuestas al uso del condón ayudaron a que la epidemia se difundiera. No fue sino hasta 1999 cuando aparecieron tratamientos que, sin curar el VIH, consiguen mantener al virus bajo control dando a las víctimas una esperanza de vida similar a la media.<br />
<br />
En este panorama, el descubrimiento de que hay una proporción de seres humanos que son inmunes al VIH fue no sólo una sorpresa sino también una esperanza en su tratamiento.<br />
<br />
<b>El secreto de la resistencia</b><br />
<br />
Un virus como los del VIH (hay dos tipos distintos), al entrar en el torrente sanguíneo, se fija a la superficie de la célula que infecta, en este caso los linfocitos T colaboradores, y puede introducir su ADN en la célula secuestrando su dotación genética para que haga copias del virus, que a su vez atacan a otras células. El VIH, en concreto, se fija en proteínas de la superficie de las células, como las llamadas CD4 y CCR5. Esta última se ha comparado con una cerradura que puede abrir el virus para entrar en la célula. Pero resulta que, en algunos casos, el gen que produce la proteína CCR5 ha experimentado una mutación, llamada CCR5-delta32 que ha borrado algunas instrucciones para formar la proteína.<br />
<br />
La CCR5 que producen esas células mutadas no es funcional, de modo que el virus no puede instalarse en la célula ni introducir su carga genética en ella. La célula (es decir, el linfocito T que juega un papel esencial en las defensas del cuerpo) es inmune al VIH. Como tenemos dos copias de cada cromosoma y de cada gen, es necesario que el individuo tenga la mutación en ambos genes CCR5. De otro modo, la proteína sería producida correctamente por uno de los cromosomas en que está alojado el gen (el 21) y el virus podría infectar a la célula. Quienes sólo tienen la mutación en uno del par de cromosomas, son sin embargo más resistentes a las infecciones.<br />
<br />
¿Cuándo surgió esa mutación y por qué se ha mantenido? Las hipótesis han cambiado con el tiempo. Su origen parece encontrarse entre los vikingos, pues al hacer estudios sobre la proporción de personas con la mutación, los países nórdicos tienen los mayores números, lo que sugiere que apareció allí y se fue extendiendo como una onda lentamente hacia las poblaciones que iban teniendo contacto con ellos.<br />
<br />
Originalmente, se pensó que la mutación había sido favorecida como protección contra la peste negra que asoló Europa en la Edad Media, pero hoy los científicos hallan más viable es que haya sido una mutación que protegía contra la viruela. Es decir, una mutación que resultó beneficiosa por un motivo en el pasado lo es hoy nuevamente por otro motivo.<br />
<br />
El descubrimiento de esta forma de inmunidad abrió por primera vez la puerta a una posible curación del SIDA, que se intentó con el llamado “Paciente de Berlín”, Timothy Ray Brown, diagnosticado con VIH en 1995 y que había estado tomando la terapia antirretroviral hasta que en 2006 desarrolló un tipo de leucemia. Se le sometió entonces a un procedimiento experimental, transplantándole células madre hematopoyéticas, es decir, que dan origen a todos los tipos de células sanguíneas que tenemos, en la médula ósea. Esas células madre produjeron, entre otras, linfocitos T colaboradores con CCR5 mutada no funcional en su superficie, atacando los dos problemas de salud graves de Brown: la leucemia y el VIH.<br />
<br />
Cien días después del primer trasplante, el VIH había prácticamente desaparecido de su cuerpo, y así se ha mantenido hasta la fecha, considerándolo el primer ser humano curado de HIV.<br />
<br />
¿Por qué no se usan estos trasplantes para todos los pacientes de VIH? Primero, porque aún no hay certezas, siempre es posible que el paciente recaiga. Y el trasplante es en sí un procedimiento peligroso que puede tener complicaciones a corto y largo plazo, tales como infecciones, rechazo, procesos inflamatorios e incluso provocar otro cáncer.<br />
<br />
La curación del “paciente de Berlín” sigue siendo un experimento, pero tanto Brown como muchos científicos han emprendido acciones para buscar la curación definitiva del SIDA (que sería además un gran paso adelante en el combate de las enfermedades virales) a partir de esa mutación, ese cambio al azar que para muchos ha sido la diferencia entre la vida y la muerte.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
La evolución en acción</h4>
La mutación CCR-delta32 es un excelente ejemplo de la selección natural en acción dentro de nuestra propia especie, en el incesante –pero extremadamente lento- proceso evolutivo. En el pasado, la ventaja de inmunidad a alguna enfermedad claramente favoreció a quienes ya tenían la mutación de modo que pudieron reproducirse un poco más que quienes no la tenían, difundiéndola y ampliando su presencia en nuestra especie. Si no tuviéramos las herramientas de la ciencia y la medicina preventiva, no es difícil pensar que el SIDA podría diezmar a la población mundial como lo ha hecho en algunas zonas de África, donde resultarían mucho más favorecidos los que poseen la mutación, de modo que en un futuro la mayoría de los seres humanos serían descendientes de estos inmunes y tendrían por tanto la mutación.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-16068278672341136802015-08-29T00:02:00.000+02:002016-02-02T00:04:15.736+01:00Usted no tiene cinco sentidos<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgCVAqcH3vBVD3r2jDqwd02XWsA4yWgUQWsURy0tPonl9nOwviQ-hJedgy-oLJT6f-TUuKyP1riaRXbHfUdZBd-e6qQq3tssrJasf30TxS1XPm_eGc-U39F-5yJxvIHVI_MLrByBw/s1600/Jan_Lievens_005.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgCVAqcH3vBVD3r2jDqwd02XWsA4yWgUQWsURy0tPonl9nOwviQ-hJedgy-oLJT6f-TUuKyP1riaRXbHfUdZBd-e6qQq3tssrJasf30TxS1XPm_eGc-U39F-5yJxvIHVI_MLrByBw/s1600/Jan_Lievens_005.jpg" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">"Alegoría de los cinco sentidos", de Jan Lievens (1607-1674), pintor holandés.<br />(Imagen D.P. vía Wikimedia Commons)</td></tr>
</tbody></table>
Pocas observaciones sobre nosotros mismos está tan arraigada como la de que tenemos cinco sentidos que conectan nuestro mundo subjetivo, nuestra cognición, nuestra memoria y nuestra personalidad con el mundo exterior. Esta idea procede del libro De anima (Del alma) de Aristóteles, en donde especulaba sobre el origen del alma, las sensaciones, las emociones y los sentidos, que idzezntifica como el tactoz, la vista, el oído, el olfato y el gusto, y dedicaba uno de los capítulos a argumentar por qué no podía haber más que cinco sentidos.<br />
<br />
Aristóteles se equivocaba, nada extraño cuando sus especulaciones carecían del método autocorregible de la ciencia. La realidad resulta mucho más complicada.<br />
<br />
Fue apenas en el siglo XIX cuando se empezó a estudiar el sentido del equilibrio, es decir, el que nos permite darnos cuenta de nuestra posición respecto de la atracción gravitacional del planeta o respecto de cualquier aceleración (como ocurre cuando un tren en el que viajamos toma una curva). Basta este sentido del equilibrio, del que son responsables los llamados “canales semicirculares” de nuestro oído interno, para ambas tareas. Así que al arsenal comentado por el griego se suma un “sexto sentido”. No uno sobrenatural, místico o paranormal como han pretendido algunos, sino uno perfectamente natural y sin el cual no podríamos siquiera ponernos de pie para caminar. Su nombre: “equilibriocepción”.<br />
<br />
Pero hay más.<br />
<br />
Para conocer al séptimo (en un orden totalmente arbitrario, por supuesto) mantenga cerrados los ojos y deje caer los brazos a sus costados para después levantar las manos y unirlas ante usted. Siga con los ojos cerrados y ahora una las manos a sus espaldas.<br />
<br />
Asombrosamente, usted sabe en todo momento dónde están sus manos y puede controlarlas para unirlas sin verlas. Una red de receptores nerviosos por todo nuestro cuerpo nos informa constantemente dónde está cada parte de él en las tres coordenadas espaciales, sin tener que ver, como los giroscopios de un avión o una nave espacial. Usted puede, con los ojos cerrados, tocarse una oreja, la rodilla o incluso encontrar con un dedo otro de la otra mano. El sentido se llama “propiocepción” y el bueno de Aristóteles no alcanzó a imaginarlo pese a que lo utilizó obviamente con éxito toda su vida. <br />
<br />
El truco, si lo pensamos un poco, es asombroso, casi mágico: saber dónde estamos no sólo sin ver, sino empleando sensores remotos. Esos sensores están acompañados de otros, los “tensoceptores” que nos dicen cuando un músculo está en tensión, incluso si no cambia de posición. De nuevo, cierre los ojos y tense un músculo, como el bíceps, y percibirá el hecho con ese sentido adicional.<br />
<br />
Sigamos añadiendo sentidos.<br />
<br />
Cuando el que fuera tutor de Alejandro Magno habló del “tacto”, en realidad estaba haciendo una tremenda sobresimplificación respecto a las capacidades sensoriales de nuestra piel, que en realidad es capaz de hacer varias formas diferenciadas de percepción con distintos receptores nerviosos. Podemos conocer, a través de ella, la textura de una superficie u objeto: rugosa, lisa, suave, áspera… pero también percibimos la presión que distintos objetos ejercen sobre nosotros, también nuestra piel nos informa de la temperatura de todo con lo que entra en contacto, el sentido llamado “termocepción”.<br />
<br />
De manera especialmente importante tenemos el sentido de la “nocicepción”, la percepción del dolor, el sistema de alarma de nuestro cuerpo del que puede depender nuestra vida, y uno al que solemos darle menos relevancia, la “pruricepción” o percepción del prurito, y que en palabras sencillas significa la percepción de la comezón.<br />
<br />
Así, rápidamente hemos desdoblado el tacto en cinco sentidos claramente diferenciados, uno de los cuales además está presente en prácticamente todo nuestro cuerpo: la percepción del dolor. Distintos tipos de dolor en distintos lugares del cuerpo nos envían señales que sabemos diferenciar para obtener información importante sobre lo que está pasando con nosotros.<br />
<br />
Por supuesto, el número de sentidos que contemos en nuestro complejo sistema nervioso depende de cómo definamos “sentido”, lo que es bastante más complejo de lo que parece a primera vista: ¿llamamos sentido a la percepción que hace un órgano o a lo que registran distintos tipos de receptores nerviosos? En este último caso, por ejemplo, el gusto se dividiría en varios sentidos más: la percepción de lo dulce, lo salado, lo amargo, lo ácido y lo umami o “sabroso”, identificado apenas en las últimas décadas. Pero si hacemos eso, nuestro olfato sería literalmente cientos, acaso miles de sentidos, pues cada aroma distinto activa diferentes receptores.<br />
<br />
Por otro lado, aún sin sensores u órganos específicos, tenemos otros sentidos que sin duda son importantísimos para la vida: el de la sed, el del hambre, el de la necesidad de orinar o de defecar, el de los ojos irritados cuando tenemos que dormir, el del sueño mismo…<br />
<br />
Es claro que lo que al estagirita (como se conocía a Aristóteles por su ciudad de nacimiento) le parecía asunto simple, sencillo y concluido en unas cuantas páginas resulta un universo de vasta complejidad donde los neurocientíficos apenas están incursionando para saber no sólo qué es lo que percibe nuestro encéfalo, las rutas mediante las cuales adquiere información del mundo exterior e incluso de sí mismo, sino cómo es que se activa cada receptor, qué vías siguen las fibras nerviosas que conducen sus impulsos y qué partes de nuestro encéfalo son las encargadas de tomar esas reacciones y cómo las convierten en eso que sentimos en nuestro mundo subjetivo. Incluso podría ser que, como las aves, tuviéramos la capacidad de detectar el campo magnético terrestre o, como otros animales, percibir así fuera de modo no consciente las feromonas u hormonas olfativas que transmiten información sexual.<br />
<br />
El error de Aristóteles, repetido por sus seguidores durante cientos y cientos de años, y su certeza inamovible se han convertido, algo siempre bueno en ciencia, en una vasta matriz de interrogantes e incertidumbres apasionantes.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Otros mitos del sistema nervioso</h4>
Es todavía común creer que utilizamos únicamente el 10% de nuestro cerebro, tanto así que una reciente producción de Hollywood se basa en esa idea. Sin embargo, en realidad usamos –y necesitamos- el 100% de todo nuestro encéfalo, y podemos verlo todo en acción gracias a los nuevos sistemas de imágenes que nos muestran bajo qué condiciones se activan sus diversas zonas. El daño a cualquier parte de nuestro encéfalo nos afecta demostrando que todas son indispensables. También se suele pensar que nuestra memoria es un registro preciso de la realidad, como una grabación de vídeo, cuando es en realidad una reconstrucción continua, poco fiable y fácil de modificar, de los acontecimientos del pasado.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-25954758346492088502015-08-01T00:05:00.000+02:002016-02-01T23:25:41.963+01:00La agitada vida de Primo Levi<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjyhyvzO-xHeRZ7665l8_ZSdV9h-syrK6x2IAORjS52XXtdgQSJOFfr6zbq2ngOtBzsDBqiSyrX87bcgYKp1kS8utfvtx7_gi0ZtddP7RtcCvT977mL9nin4PkvOMI0N_VPblxDrw/s1600/Primo_Levi.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjyhyvzO-xHeRZ7665l8_ZSdV9h-syrK6x2IAORjS52XXtdgQSJOFfr6zbq2ngOtBzsDBqiSyrX87bcgYKp1kS8utfvtx7_gi0ZtddP7RtcCvT977mL9nin4PkvOMI0N_VPblxDrw/s640/Primo_Levi.jpg" width="418" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Primo Levi en 1950, cinco años después de sobrevivir su<br />prisión en Auschwitz. (Imagen D.P. vía Wikimedia Commons)</td></tr>
</tbody></table>
“No hay nada más vivificante que una hipótesis” dice Primo Levi en “Níquel”, el cuento que relata su graduación como químico de la Universidad de Turín y sus memorias de la Segunda Guerra Mundial.<br />
<br />
En 2006, The Royal Institution de la Gran Bretaña determinó mediante votación pública que el mejor libro de ciencia jamás escrito, al menos hasta ese momento, era <i>La tabla periódica</i>, del químico italiano Primo Levi. Los finalistas, que habían sido seleccionados por diversas personalidades de distintas especialidades, habían sido además <i>El anillo del rey Salomón</i> del etólogo Premio Nobel Konrad Lorenz, <i>Arcadia</i> de Tom Stoppard y <i>El gen egoísta</i> del también etólogo británico Richard Dawkins.<br />
<br />
<i>La tabla periódica</i> no es un ensayo ni una obra de divulgación al uso. Es una colección de cuentos cortos. 21 relatos que tienen cada uno a un determinado elemento químico como su pretexto y que, además de narrar las características de dicho elemento, sus compuestos, sus propiedades y peculiaridades, cuenta historias apasionantes y humanas, algunas de fantasía heroica, otras de cotidianidad, amor, amistad, familia, método experimental... un libro que cuarenta años después de su publicación (1975) sigue siendo una joya de la literatura y de la aproximación a la ciencia.<br />
<br />
Probablemente en otro tiempo, en otro lugar, Primo Michele Levi habría sido solamente un químico industrial apasionado con su disciplina, se habría limitado a trabajar en una empresa y se habría jubilado satisfecho de una labor bien realizada durante tres o cuatro décadas. Ciertamente, no habría tenido las experiencias que lo llevaron a escribir <i>La tabla periódica</i>.<br />
<br />
Pero las circunstancias de su vida lo llevaron a ser, además de químico industrial, partisano, poeta... y uno de los más conocidos supervivientes del campo de exterminio de Auschwitz... sin todo lo cual su libro sobre los elementos químicos no habría sido escrito nunca.<br />
<br />
Primo Levi nació en Turín, Italia el 31 de julio de 1919, el primogénito de una familia no creyente, liberal e ilustrada, con ancestros judíos sefarditas. Entre su nacimiento y el de su hermana, en 1925, Italia había pasado a ser gobernada por el fascismo de Benito Mussolini, que había fundado su movimiento el mismo año del nacimiento de Primo y se había erigido en dictados absoluto cuando nació su hermana Anna Maria.<br />
<br />
En 1938, el gobierno fascista promulgó el decreto de la ley racial, que restringía los derechos civiles de los judíos y los excluía de los puestos públicos y de la educación superior. Pero como el joven Primo Levi se había matriculado en química en la Universidad de Turín en 1937, la interpretación de la ley racial determinó que no era retroactiva, y los alumnos inscritos antes de que se promulgara pudieron continuar con sus estudios... pero con el estigma de su origen familiar.<br />
<br />
Mussolini declaró la guerra a los aliados en 1940, consolidando su alianza con Hitler, y pronto empezaron los bombardeos aliados en territorio italiano, incluida, por supuesto, la ciudad de Turín. Primo Levi, entre los destrozos de la guerra, se licenció con honores en química en 1941. Pero el título le valía de poco para ganarse la vida porque en él venía inscrita la indicación de que era judío. Fue necesario que falsificara documentos para conseguir un empleo en una mina en el norte de Italia. Volvió a Turín en 1943 a la muerte de su padre, para huir de inmediato con su madre y su hermana hacia el norte de Italia.<br />
<br />
En 1943, la persecución contra los judíos alcanzaba su punto más alto mientras el liderazgo italiano se desmoronaba. Los aliados habían invadido Sicilia y se preveía un desembarco en la Italia continental. Los desastres militares en el Norte de África habían debilitado políticamente a Mussolini, que fue depuesto ese mismo año, después de lo cual rápidamente Italia firmó un armisticio con los aliados. La reacción del hasta poco antes aliado Hitler fue inmediata: invadir el norte de Italia.<br />
<br />
El mismo día del armisticio, el químico huyó a Torino, y poco después se unió al movimiento de resistencia armada “Justicia y libertad”. Su aventura como guerrillero antifascista duró apenas dos meses. En diciembre fue arrestado por la milicia fascista y, siendo judío, en lugar de ser fusilado como partisano de izquierdas fue entregado a los nazis y, en febrero de 1944, deportado a Auschwitz, donde sobrevivió echando mano de sus habilidades profesionales y personales hasta que el campo fue liberado por el Ejército Rojo soviético en enero de 1945. Después de un largo periplo europeo, en octubre de ese año consiguió volver a Turín, al mismo piso en el que había nacido.<br />
<br />
Comenzaba entonces otra odisea: conseguir empleo en un país en difícil reconstrucción. Mientras buscaba colocarse en alguna empresa como ingeniero químico, Levi empezó a contar historias de Auschwitz y en 1946, con apenas 27 años de edad, descubrió su segunda vocación, la literatura, primero en la forma de poemas relacionados con su experiencia en el más famoso campo de exterminio del delirio nazi. Para cuando se empleó como director técnico de una empresa química en Turín y se casó, descubrió que ya no podía dejar su segundo oficio y, a partir del libro <i>Si esto es un hombre</i> de 1947, publicaría un total de 14 libros de memorias, cuentos (incluidos dos de ciencia ficción originalmente escritos bajo seudónimo), poemas y novelas, siempre impulsado por la convicción de que tenía la obligación de dar testimonio de la bajeza humana y de la grandeza que la enfrenta. Todo, además, desde el punto de vista de un no creyente religioso, un ateo confeso. Siguió trabajando en empresas químicas, incluso llevando un tiempo la suya propia, hasta 1977, cuando se retiró, con 58 años, para dedicarse sólo a escribir.<br />
<br />
En 1987, reconocido como autor pero rechazado por algunos de sus protagonistas como los soviéticos, que se negaban a publicarlo en ruso, Levi trabajaba en un nuevo libro de relatos que enlazaba la química con historias humanas <i>El doble enlace</i>, referido al enlace químico de cuatro electrones. Nunca lo terminaría. El 11 de abril de 1987, después de recibir el correo en su piso de Turín, el mismo en el que había nacido, cayó por el hueco de la escalera desde la tercera planta y murió. Oficialmente, su muerte fue un suicidio, aunque muchos a su alrededor han puesto la determinación en duda y consideran más viable que su caída fuera un accidente.<br />
<br />
<div class="p1">
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody></tbody></table>
</div>
<div class="p1">
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Levi en rock</h4>
</td></tr>
</div>
En 1990, el grupo anarcopunk Chumbawamba, escribió y grabó la canción “El testamento de Rappoport - Nunca me di por vencido”, canción inspirada en el cuento “Capaneo” de Primo Levi, sobre un personaje que afirma que, pese a la humillación y al hambre, Hitler no lo había vencido. Levi está también presente en la música e imágenes de Manic Street Preachers y Peter Hamill (de Van de Graaf Generator).Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-9013947786037849072015-07-18T00:05:00.000+02:002016-02-01T23:50:07.729+01:00Los vencedores de la difteria<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhG-kUrN5Wx1QmuEIE_VL9BT1U1yZv0QEqUh6Hw6vj0NiEGEUIks_YoA-a2CvFwzhaCvtXyKL3FzqbiCs8nHhs5e2tKCpPXHDKVE9Mdv_-T1RAd5itAJUXGgPmco4lSqEc51J5B1g/s1600/533px-Emil_von_Behring_sitzend.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhG-kUrN5Wx1QmuEIE_VL9BT1U1yZv0QEqUh6Hw6vj0NiEGEUIks_YoA-a2CvFwzhaCvtXyKL3FzqbiCs8nHhs5e2tKCpPXHDKVE9Mdv_-T1RAd5itAJUXGgPmco4lSqEc51J5B1g/s640/533px-Emil_von_Behring_sitzend.jpg" width="443" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Emil von Behring, creador de la antitoxina de la difteria.<br />
(Imagen D.P. vía Wikimedia Commons)</td></tr>
</tbody></table>
<i>La reaparición de la difteria en países donde estaba aparentemente ya erradicada ha disparado una profunda reflexión sobre los movimientos antivacunas y sus efectos en la salud individual y colectiva.</i><br />
<br />
Hoy es necesario explicar qué es la difteria para poder hablar de esta enfermedad, que a fines del siglo XIX era temida pues se cobraba miles de vidas de niños todos los años, y en algunos casos provocaba epidemias como las muchas que azotaron a España, especialmente en 1613, “El año del garrotillo”.<br />
<br />
“Garrotillo” significa “sofocación” y se daba este nombre a la difteria porque bloqueaba la respiración de sus víctimas debido a la aparición de un recubrimiento o pseudomembrana de color grisáceo en las mucosas del tracto respiratorio como resultado de la infección por parte de una bacteria, la <i>Corynebacterium diphtheriae</i>.<br />
<br />
La pseudomembrana de la difteria está formada por subproductos causados por la propia bacteria por medio de una potente toxina que puede entrar al cuerpo y afectar gravemente a diversos órganos, incluidos los músculos, , el hígado, los riñones y el corazón.<br />
<br />
Hipócrates describió la enfermedad por primera vez, hasta donde sabemos, en el siglo V aEC. Desde entonces, se intentó sin éxito combatir la enfermedad. Sus pacientes, sobre todo niños, recorrían el curso de la enfermedad y aproximadamente un 20% de los menores de 5 años y el 10% de los demás, niños y adultos, morían, mientras que otros quedaban afectados de por vida ante la impotencia de todos a su alrededor.<br />
<br />
El primer paso para vencer a la difteria, que recibió su nombre definitivo apenas en 1826 a manos de Pierre Bretonneau, lo dio el suizo alemán Edwin Klebs en 1883, quien identificó a la bacteria causante de la enfermedad. Sólo un año después, el alemán Friedrich Loeffler aplicó los postulados que había desarrollado con Robert Koch para demostrar que efectivamente esa bacteria era la causante de la difteria.<br />
<br />
Mientras se hacían estos estudios, otros médicos buscaban aliviar los síntomas que provocaban la muerte de sus pacientes, principalmente la asfixia provocada por el bloqueo de las vías respiratorias debido a la pseudomembrana. Para combatirla, se hizo primero común la práctica de la traqueotomía (cortar la tráquea para que el aire pase directamente hacia ella y a los pulmones) y en 1885 se empezó a difundir la técnica de la intubación para mantener abiertas las vías respiratorias. Su creador, el estadonidense Joseph P. O’Dwyer moriría, por cierto, de lesiones cardiacas provocadas por la difteria de la que se contagió en el tratamiento de sus jóvenes pacientes.<br />
<br />
Los franceses Émile Roux, que durante mucho tiempo había sido la mano derecha de Louis Pasteur, y Alexandre Yersin trabajaron sobre esta base y demostraron que la bacteria no entraba al torrente sanguíneo, pero sí lo hacía la toxina que producía y que, aún sin la presencia de la bacteria, la sustancia bastaba para causar difteria en animales experimentales. Esto abrió el camino para que el japonés Shibasaburo Kitasato y el alemán Emil von Behring diseñaran un sistema para tratar la toxina de modo tal que provocara la inmunidad en animales. El suero sanguíneo de esos animales, que contenía la antitoxina de la difteria, podía entonces utilizarse para curar esa enfermedad en otro animal. Émile Roux, que confirmó los experimentos de los anteriores, fue el primero que aplicó la antitoxina a grandes cantidades de pacientes, tratando a 300 niños franceses en 1894.<br />
<br />
La difteria era curable. O al menos controlable. La antitoxina no revierte los daños ya causados, pero sí impide que la toxina siga haciendo estragos, de modo que un tratamiento temprano era mucho mejor que uno tardío. El procedimiento de creación de antitoxinas se utilizaría pronto para tratar otras enfermedades mortales provocadas por bacterias, como la fiebre tifoidea, el cólera y la septicemia.<br />
<br />
Liberar a la humanidad del dolor y desesperación causados por la difteria dio a sus vencedores el primer Premio Nobel de Medicina o Fisiología, otorgado en 1901, en la persona de Emil Adolf Von Behring aunque, para muchos, debió haberlo recibido de modo compartido al menos con Yersin y Roux.<br />
<br />
Una vacuna que impidiera que se contrajera la enfermedad era el siguiente paso. Pero las vacunas para las afecciones provocadas por bacterias no son iguales que las que se utilizan para las enfermedades virales, donde una proteína del virus, una parte de mismo o todo el virus debilitado o muerto se inoculan para que el sistema inmune “aprenda” a producir defensas que utilizaría en caso de verse sometido a una infección. En el caso de las bacterias, las vacunas se hacen con frecuencia utilizando “toxoides”, que son formas o versiones modificadas de la toxina causante del trastorno.<br />
<br />
La vacuna contra la difteria sólo se pudo hacer realidad tiempo después, gracias a que el británico Alexander Thomas Glenny descubrió que podía aumentar la eficacia del toxoide diftérico tratándolo con sales metálicas que aumentaban tanto su efectividad como la duración de la inmunidad que podía impartir. Estas sales se llaman coadyuvantes, y por desgracia hoy son satanizadas por la ignorancia de quienes se oponen a las vacunas afirmando, sin prueba alguna, que causan efectos graves, suficientes como para preferir el riesgo de que un niño muera de alguna enfermedad prevenible.<br />
<br />
Desde la introducción de la vacuna contra la difteria, los casos cayeron dramáticamente. Así, entre 2004 y 2008 no hubo casos de difteria en Estados Unidos, y los niños españoles estuvieron libres de ella durante casi 30 años, hasta que en 2015 se produjo un caso desgraciadamente mortal.<br />
<br />
La vacuna contra la difteria, se suele aplicar en una vacuna triple con el toxoide tetánico y la vacuna contra la tosferina, dos afecciones tan aterradoras como la difteria. La vacuna se conoce como Tdap o Dtap y se aplica en 4 o 5 dosis a los 2, 4, 6 y 15 meses de edad para garantizar una protección fiable.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Postulados de Koch</h4>
Un paso fundamental en el desarrollo de la teoría de los gérmenes patógenos que dio origen a la medicina científica fueron los cuatro pasos identificados por Robert Koch y Friedrich Loeffler para identificar al microbio responsable de una afección:<br />
<br />
<ol>
<li>El microorganismo debe estar presente en todos los casos de la enfermedad.</li>
<li>El microorganismo se puede aislar del anfitrión enfermo y cultivarse de modo puro.</li>
<li>El microorganismo del cultivo puro debe causar la enfermedad al inocularlo en un animal de laboratorio sano y susceptible.</li>
<li>El microorganismo se se debe poder aislar en el nuevo anfitrión infectado y se debe demostrar que es el mismo que el que se inoculó originalmente.</li>
</ol>
<br />
El paso 3 tiene como excepción la de los individuos que pueden estar infectados con un patógeno pero no enfermar, los llamados portadores asintomáticos.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-29222948531572525982015-07-11T12:40:00.000+02:002016-12-19T15:29:34.487+01:00Siempre a tu alcance: el móvil o celular<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img alt="File:2007Computex e21-MartinCooper.jpg" data-file-height="600" data-file-width="450" src="https://upload.wikimedia.org/wikipedia/commons/1/12/2007Computex_e21-MartinCooper.jpg" style="margin-left: auto; margin-right: auto;" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Martin Cooper posando en 2007 con su creación, el prototipo del primer teléfono móvil o celular. (Fotografía CC de Rico Shen, vía Wikimedia Commons)</td></tr>
</tbody></table>
<br />
El 3 de abril de 1973, Martin Cooper, tomó un estorboso teléfono en la 6ª Avenida de Manhattan, en Nueva York y llamó a Joel Engel, informándole que la carrera por crear el primer teléfono móvil había terminado y que Engel la había perdido. Martin Cooper era científico de Motorola y Joel Engel era su rival en Bell Labs, ambos buscando inventar un teléfono móvil viable.<br />
<br />
Menos de cien años antes, el 10 de marzo de 1876, en Boston, Massachusets, Alexander Graham Bell había logrado llamar a su asistente Thomas Watson para pedirle que fuera a donde estaba Bell, en otra habitación de la misma casa. Bell también tenía un rival, Elisha Gray, aunque el resultado de su carrera fue menos claro que en el caso de Cooper y Engel, tanto que aún hoy se debate quién debería ser considerado el verdadero inventor del teléfono. En aquella ocasión pasó apenas un año antes de que se instalara el primer servicio telefónico comercial.<br />
<br />
El telégrafo fue el primer intento por utilizar la electricidad para la comunicación con un sencillo principio: se provocaba una variación de corriente en un cable cerrando un circuito y se podía registrar en el otro extremo del mismo. El teléfono usaba la misma base pero más compleja. Si se podía lograr que un sonido hiciera variar una corriente eléctrica, esas variaciones podrían ser registradas al otro lado de un cable y descodificadas reconstruyendo el sonido.<br />
<br />
El receptor era un micrófono, y el de Bell fue rápidamente mejorado y desarrollado por otros inventores, incluido Thomas Alva Edison. Su principio sigue usándose hoy en todo tipo de micrófonos: hay dos placas metálicas delgadas, separadas entre sí por gránulos de carbón y a través de las cuales se aplica una corriente eléctrica. Cuando una placa, que actúa como un diafragma, es movida por un sonido, lo convierte en presión variable sobre los fragmentos de carbón, haciendo variar la resistencia eléctrica entre las placas. La corriente registra esa variación y la transmite al otro extremo de un cable, a un altavoz que realiza el mismo procedimiento a la inversa: la variación de corriente se utiliza para mover un diafragma que al vibrar reproduce los sonidos originales.<br />
<br />
Sobre ese principio se construyó toda la industria de la telefonía, comenzando en los Estados Unidos y la Gran Bretaña. El sistema exigía que un teléfono instalado en cualquier lugar estuviera conectado a una central telefónica mediante cables. La central era la responsable de conectar físicamente al teléfono que llamaba con aquél con el cual deseaba hablar. Al principio, esto se realizaba mediante tableros de conexiones operados por empleados, generalmente mujeres, que respondían al teléfono que hacía la llamada, el interlocutor les daba el número con el cual deseaba comunicarse. Tomaban una clavija conectada al número que llamaba Y la enchufaban en la toma correspondiente al teléfono al que se deseaba llamar. Como paréntesis, el trabajo de operadora telefónica fue uno de los espacios del nacimiento del movimiento feminista laboral, mediante la organización de los primeros grandes sindicatos de operadoras a mediados del siglo veinte.<br />
<br />
El trabajo de las operadoras pronto fue reemplazado, en gran medida, por sistemas automatizados que reconocían el número marcado Y, por medio de relés, conectaban los dos números. Sin embargo, todo el camino de un teléfono a otro, fuera en el mismo edificio o al otro lado del mundo, estaba formado por cables conductores físicos y apenas a principios del siglo XX empezaron los intentos por transmitir la telefonía a través de ondas de radio. Con ellas, en 1915 comenzaron las llamadas intercontinentales.<br />
<br />
Pero hacer estas llamadas razonablemente accesibles exigió tender cables sobre el lecho marino para interconectar los sistemas telefónicos a ambos lados del mismo. El primer cable entró en operación en 1921, cubriendo la corta distancia (130 kilómetros) entre Cayo Hueso, Florida, y Cuba. Pero el cable que uniera a Europa con América no sería una realidad sino hasta 1956. El siguiente gran salto sería en 1962, cuando el satélite de comunicaciones Telstar I empezó a dar servicio telefónico mediante microondas que enlazaban estaciones terrestres de modo fiable. El satélite, por cierto, fue construido y desarrollado por Bell Labs.<br />
<br />
Pero incluso antes de ese primer cable y antes de ese satélite, los Bell Labs habían desarrollado en 1947 una idea novedosa. Los enlaces de radio tenían un problema grave: la enorme potencia de transmisión que requerían los dispositivos, y que aumentaba conforme aumentaba la distancia entre ellos. Un teléfono móvil por radio, como los que empezaron a comercializarse en 1946, necesitaba una enorme fuente de potencia. La nueva propuesta era construir una serie de estaciones base, cada una de las cuales estaría en el centro de una celdilla hexagonal como la de un panal de abejas. Así, cada una necesitaría sólo la potencia necesaria para comunicarse con las seis que la rodean, mientras que los teléfonos en sí sólo tendrían que comunicarse con la estación base (o antena de telefonía móvil) más cercana. Conforme el móvil se aleja de una antena y entra en el radio de acción de otra, pasa a transmitirle a ésta segunda sin que el usuario note el salto.<br />
<br />
Con muy poca potencia, entonces, Martin Cooper y Motorola crearon la primera red de telefonía celular experimental con la que hizo su histórica llamada. Diez años después comenzarían a venderse teléfonos grandes, estorbosos, pesados, carísimos y con batería para sólo unas horas... pero que tenían la enorme ventaja de ser precisamente, móviles. A partir de entonces, ya no llamaríamos a un lugar donde se encontrara conectado un aparato telefónico, sino que empezaríamos a llamar a personas donde quiera que se encontraran.<br />
<br />
Lo siguiente fue, simplemente, la miniaturización, la mayor eficiencia en las baterías y el uso de sistemas electrónicos para convertir a nuestros móviles en auténticas navajas suizas informáticas y de comunicaciones... pero que siguen siendo sobre todo la herramienta para hacer lo que hizo Bell: llamar a otra persona.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Las ondas de la telefonía móvil</h4>
Durante mucho tiempo ha sobrevivido el mito de que las ondas de radio con las que se comunican los teléfonos móviles podrían tener efectos negativos sobre la salud. La realidad es que hasta hoy no se ha demostrado ninguno de esos efectos. Más aún, es poco plausible que esas ondas pudieran hacernos daño ya que son mucho menos potentes (de menor frecuencia y ancho de banda) que las de la luz visible. Si fueran dañinas, pues, la luz lo sería mucho más. En realidad, las radiaciones electromagnéticas peligrosas son las que están por encima de la luz visible, las que comienzan en el rango ultravioleta, el UV del que sabiamente nos protegemos con pantalla solar.</td></tr>
</tbody></table>
<br />Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-78274250765097754042015-06-27T12:42:00.000+02:002016-04-03T12:50:07.012+02:00Huesos: origen y legado<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><img height="640" src="https://upload.wikimedia.org/wikipedia/commons/2/2f/Affe_vor_Skelett.jpg" style="-webkit-user-select: none; margin-left: auto; margin-right: auto;" width="463" /></td></tr>
<tr><td class="tr-caption" style="text-align: center;">"Mono ante un esqueleto", óleo de Gabriel von Max de alrededor de 1900.<br />
(Imagen D.P., vía Wikimedia Commons)</td></tr>
</tbody></table>
Los huesos son el testimonio más perdurable que puede dejar un ser vivo. De hecho, sin ellos, mayormente fosilizados, no habríamos podido reconstuir la historia de la vida en nuestro planeta. Pero aún sin fosilizarse, es decir, sin que el calcio del hueso sea sustituido por otros minerales al paso de miles de años, los huesos pueden perdurar durante muchísimo tiempo a la muerte de una persona... se han encontrado huesos de ancestros nuestros de hace 90.000 años en África, donde las condiciones han sido propicias para su conservación.<br />
<br />
Curiosamente, tendemos a considerar nuestros propios huesos como estructuras más bien rígidas e inanimadas, como las vigas que sostienen un edificio de hormigón armado, o las columnas y nervaduras que sostienen una catedral gótica. Ciertamente lo son, pero son mucho más que eso: son órganos que cumplen funciones más allá de la simplemente pasiva.<br />
<br />
Podemos imaginarnos nuestros huesos como en una red tridimensional formada por colágeno. El colágeno es la proteína más abundante de nuestro cuerpo, ya que es el principal componente del tejido conectivo y está presente de modo importante en tendones, ligamentos, piel, cartílago vasos sanguíneos, el aparato digestivo, los discos intervertebrales, la dentina de los dientes y en nuestros músculos.<br />
<br />
En el hueso, el tejido de colágeno está impregnado de minerales de fosfato de calcio y carbonato de calcio, que le dan al hueso su fortaleza y flexibilidad. Si el hueso fuera rígido, sería mucho más fácil que se rompiera, poniendo en peligro la supervivencia del animal. Su flexibilidad le permite precisamente soportar hasta cierto punto distintos tipos de tensión, golpes y retorcimientos.<br />
<br />
Esa red de colágeno y minerales de calcio es similar a los modernos materiales compuestos, formados por dos o más materiales de características distintas que juntos ofrecen mayor fuerza, resistencia y adaptabilidad que si estuvieran unidos, es el caso de la fibra de vidrio contenida en una capa de resina o la fibra de carbono incrustada en un plástico. Gracias a esta estructura, el hueso es un tejido tremendamente fuerte pero a la vez muy ligero.<br />
<br />
En los huecos de esa matriz ósea encontramos células que producen hueso, que lo reparan y en ocasiones lo destruyen para permitir la reparación o crecimiento: los osteocitos, que son alimentados por una red de vasos sanguíneos dentro del hueso y que también están conectados a células nerviosas que transmiten información como la que se necesita para actuar produciendo hueso en caso de una fractura.<br />
<br />
Además, a lo largo del centro de los huesos largos como el fémur hay una cavidad que contiene la médula ósea, un tejido suave que produce las células de la sangre. Esto explica por qué algunos casos de cáncer sanguíneo se tratan mediante trasplantes de médula ósea sana que produce glóbulos sanos.<br />
<br />
Pero además de sus características individuales, es importante considerar a los huesos en su conjunto, el esqueleto, formado por 206 de ellos cuando somos adultos. Curiosamente, nacemos con muchos más huesos, unidos entre sí por estructuras resistentes de cartílago. El cráneo del recién nacido cuenta con 45 elementos óseos y la flexibilidad del cartílago permite que pase por el canal del parto. Algnos de estos elementos se fusionan para que, cuando adultos, tengamos sólo 22 huesos craneales. Otros huesos presentes al nacer se fusionan en el sacro, el cóxis o la pelvis.<br />
<br />
El proceso de desarrollo y crecimiento es el proceso de osificación de las estructuras que unen a los cartílagos del bebé, que se van alargando y adaptando gracias al trabajo de los osteocitos. No es un proceso rápido, de hecho no termina sino hasta que tenemos más o menos los 25 años de edad, y alcanzamos la estatura que tendremos toda la vida.<br />
<br />
<b>Historia de los huesos<br />
</b><br />
<br />
La aparición de los huesos fue uno de los disparadores de uno de los fenómenos más asombrosos de la evolución de la vida en la Tierra, la llamada “explosión cámbrica”. Hace 530 millones de años, en un brevísimo período de cinco millones de años (breve en términos geológicos y de la historia de la vida en el planeta) aparecieron súbitamente los animales pluricelulares y dieron origen rápidamente a la mayoría de las grandes variedades del reino animal.<br />
<br />
Las causas de esta rápida diversificación después de que durante 3.300 millones de años la vida se hubiera desarrollado lentamente y de modo unicelular están aún por determinarse con claridad, pero entre las más probables está el aumento de la cantidad de oxígeno en la atmósfera terrestre, la formación de la capa de ozono que protege a los seres vivos de la radiación ultravioleta del sol y una serie de erupciones volcánicas bajo los océanos que aumentó la disponibilidad de algunos minerales disueltos en el agua, principalmente el calcio. Los animales empezaron entonces a utilizar este mineral en tejidos de piel modificada en forma de escamas y espinas que los protegieran de los depredadores y, al mismo tiempo, desarrollando mejores armas para ser mejores depredadores, principalmente dientes.<br />
<br />
Estos tejidos duros, que en principio eran exteriores o “exoesqueletos” evolucionaron pasando a ser la estructura interna o “endoesqueleto” que nos convierte en una sola familia de animales: los vertebrados. Así, por ejemplo, la piel modificada que formó la protección o cresta neural se convirtió eventualmente en el cráneo y se recubrió de piel. A partir del llamado esqueleto axial (columna vertebral, costillas y cráneo a la aparición de extremidades situadas en cinturones óseos (la pelvis y la escápula) en los peces y que a su vez evolucionaron en las más distintas formas para adaptarse a diversas necesidades.<br />
<br />
La historia de los brazos y piernas humanos, así, se encuentra en las aletas y patas de los ancestros que tenemos en común con otros seres vivos actualmente. Y la historia del ser humano pasa necesariamente por los cambios de dos aspectos fundamentales de su esqueleto: el paso a ser un animal que se mueve sobre dos pies y el crecimiento y rediseño de nuestro cráneo para alojar un cerebro de mayor volumen y capaz de cuestionar el universo y entender, incluso, a los huesos que lo sostienen.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
El hueso enfermo</h4>
La más común afección de los huesos es la osteoporosis o pérdida de densidad ósea, un acontecimiento relativamente normal a una edad avanzada que hace a los huesos frágiles y propensos a romperse, y en ocasiones provoca deformidades e incluso la discapacidad. Hay otros trastornos genéticos o del desarrollo menos comunes. Pero la afección más temida es, por supuesto, el cáncer. Sin embargo, sólo ocurre en un 0,01% de los habitantes, una incidencia muy baja comparada con otras formas de cáncer como el de próstata, que los hombres tienen un 15% de probabilidades de sufrir, o el de mama, que puede afectar al 12,3% de las mujeres.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-12301378181869133842015-06-06T00:36:00.000+02:002016-02-01T23:06:52.931+01:00Cuando se inventaron las flores<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiji5NXM4cxeoeccnL_lCPdZCZBxKvsl6Ayc9Brl_fe8NgWBTkbvfbMtH36UpeHGScoQhLe2pjjBi331s4MTQFpooAPW9XJIVbDEUMJ0dOepWoMMFALXWwQ93094TSRKf_-vVTihQ/s1600/629px-Van_Gogh_Sunflowers_Neue_Pinakothek_8672.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiji5NXM4cxeoeccnL_lCPdZCZBxKvsl6Ayc9Brl_fe8NgWBTkbvfbMtH36UpeHGScoQhLe2pjjBi331s4MTQFpooAPW9XJIVbDEUMJ0dOepWoMMFALXWwQ93094TSRKf_-vVTihQ/s640/629px-Van_Gogh_Sunflowers_Neue_Pinakothek_8672.jpg" width="523" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">"Naturaleza muerta con 12 girasoles", óleo de Vincent Van Gogh<br />(Imagen D.P. de Bibi Saint-Pol, vía Wikimedia Commons)</td></tr>
</tbody></table>
<div style="text-align: left;">
Hace unos 125 millones de años, la vida dio un salto asombroso. Ya había plantas y animales, de hecho ya estaba establecido un orden ecológico bastante. Los dinosaurios dominaban la tierra y los mamíferos correteaban por allí esperando su oportunidad cuando apareció la primera flor.</div>
<br />
No se trataba, por supuesto, de una flor como las que conocemos hoy, pero era una flor, sus estructuras, su forma, su función eran lo bastante distintos de la planta que le dio origen como para decir que la anterior no tenía una flor pero la descendiente sí contaba con los rudimentos de esta peculiar -y hermosa- estructura.<br />
<br />
Esto es un poco como el viejo acertijo huevo y la gallina. Hoy sabemos que un animal que no era todavía una gallina puso un huevo del cual surgió un animal con un pequeño cambio que ya podríamos decir que era una gallina primitiva. Esto, resuelve el acertijo (el huevo fue primero), pero en realidad los rudimentos del cambio van apareciendo tan lentamente a lo largo de la evolución que no es sino una metáfora.<br />
<br />
Así, el mundo que dominaban los dinosaurios carecía de flores. Las plantas a su alrededor que se reproducían mediante semillas (y no mediante esporas) eran “gimnospermas”, palabra de raíces griegas que quiere decir “semilla desnuda”. Se llaman así porque sus semillas se desarrollan al aire libre, en la superficie de la planta, que en ocasiones asume formas como las piñas de los pinos, que son algunas de las gimnospermas que aún existen.<br />
<br />
Esa flor, o protoflor, es el ancestro común de todas las plantas con flores que conocemos en la actualidad: más de 400.000 especies con una asombrosa variedad en su aspecto y sus órganos: flores con simetría radial como la proverbial margarita, o con simetría bilateral como las orquídeas (que, por cierto, fascinaban a Darwin), o cuyos pétalos crecen siguiendo las exquisitas matemáticas de la secuencia de Fibonacci, como las rosas; con todos los colores que podemos ver y alguno que no podemos ver, como el ultravioleta, que sin embargo loa polinizadores como las abejas sí aprecian claramente, en diversos tamaños y con diversos grados de evolución que han ido separándose de ese misterioso diseño original de la primera planta con flores, que aún no conocemos.<br />
<br />
Las plantas con flores se llaman “angiospermas”, es decir, cuyas semillas están contenidas en un espacio cerrado, el ovario de la planta. Esos ovarios son los frutos de la planta, y también tienen gran cantidad de formas según la estrategia que utilizan para esparcirse.<br />
<br />
Cuando hablamos de “estrategia” es importante recordar que es una metáfora para resumir cómo el proceso evolutivo ha resuelto desafíos para continuar la vida. Así, el diente de león cuyos frutos desarrollan delicados paracaídas (llamados “vilanos”) tiene una “estrategia” para esparcir sus semillas mediante el viento. Si todas las semillas cayeran alrededor de la planta madre, competirían con ella y entre sí, y acabarían perjudicando sus posibilidades de sobrevivir. Las frutas usan la “estrategia” de ofrecer un alimento deseable a los animales, con semillas que no pueden digerir al comerlas y que se depositan en otro lugar, con las heces del animal, que además pueden ser útiles como abono.<br />
<br />
Independientemente de que nos parezcan hermosas, las flores son ante todo estructuras prácticas. La flor es el aparato reproductor de las plantas angiospermas y sus frutos son el ovario maduro de la planta, en ocasiones con otros tejidos. Hay frutos secos, como las nueces, los cacahuetes o el trigo, y frutos carnosos como la manzana, la naranja, o el tomate. El fruto es el destino final, pues, de las flores.<br />
<br />
Pero, en el principio, la flor tiene por objeto atraer a los polinizadores y para ello, de nuevo, emplean diversas estrategias. Las que son polinizadas por insectos generalmente tienen pétalos de colores brillantes y un aroma que atrae a abejas, mariposas, moscas y avispas, entre otros insectos. En cambio, las flores que son polinizadas por mamíferos como los murciélagos o algunas polillas tienen pétalos blancos y un olor muy fuerte, y las que son polinizadas por aves tienden a tener pétalos rojos y no suelen tener aromas.<br />
<br />
La estructura básica de las flores implica cuatro órganos: los sépalos, hojas verdes alrededor de la base de la flor, los pétalos, los estambres o androceo, que producen los granos de polen, que son las células masculinas de las flores, y el gineceo, que incluye el ovario y el camino que lleva a él, el “estilo”. Los polinizadores atraídos por cualquiera de las estrategias de las flores depositan en el gineceo el polen de otras flores que han visitado y, al mismo tiempo, recogen el polen de la flor en sus patas, plumas, picos y otras partes del cuerpo, que llevarán a otras flores.<br />
<br />
¿Por qué hacen esto los animales? A veces usan las flores como refugio o como lugar donde aparearse, pero en la mayoría de las ocasiones visitan las flores porque éstas producen el néctar del que se alimentan. Así, se crea una especie de complicidad a lo largo del tiempo, de cientos de miles y millones de años, entre algunos polinizadores y las flores que visitan.<br />
<br />
Fue precisamente una flor la que dio la primera prueba sólida y predictiva de la teoría de la evolución. Debido a su pasión por las orquídeas, Darwin recibió en 1862 el obsequio de unos curiosos ejemplares procedentes de Madagascar: <i>Angraecum sesquipedale</i>, o la orquídea navideña, cuyo nectario tiene un cuello de una longitud enorme, de hasta 35 centímetros. ¿Cómo podría alimentarse un animal de ese nectario para funcionar como su polinizador? Darwin sugirió que, como otros polinizadores que evolucionaban conjuntamente con las flores de las que se beneficiaban, seguramente existía en Madagascar alguna polilla con una trompa excepcionalmente larga.<br />
<br />
En 1907 se descubrió en Madagascar una polilla que se ajustaba a la predicción de Darwin, tanto así que en su nombre se incluyó la palabra “predicha” en latín: <i>Xanthopan morgani praedicta</i>. Aun ya teniéndola, no fue sino hasta 1992, 130 años después, que se observó que, efectivamente, esa enorme polilla se alimentaba de la orquídea navideña, confirmando la predicción de Darwin.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
El ADN de las plantas</h4>
El origen de las plantas no empezó a comprenderse con claridad sino hasta 2013, al concluir el proyecto para la secuenciación del genoma del arbusto <i>Amborella</i>, el más antiguo ancestro común de las plantas actuales. Al comparar su secuencia de ADN con otras 20 se pudo determinar que hace alrededor de 200 millones de años las plantas que producían semillas experimentaron una duplicación genética, empezaron a tener el doble de genes que sus ancestros, lo que permitió que algunas estructuras de la planta se desarrollaran hasta crear las flores, con alrededor de 1180 genes nuevos que no están en otras especies de plantas.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-60380044083353495042015-05-12T03:17:00.004+02:002015-05-12T03:17:49.602+02:00Hablar sin hablar<i>Comunicarse con otros seres humanos es algo que hacemos continuamente, de formas que la ciencia del comportamiento apenas empieza a comprender, y que van mucho más allá de la palabra.</i><br />
<br />
<table cellpadding="0" cellspacing="0" class="tr-caption-container" style="float: left; margin-right: 1em; text-align: left;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEicg3_CqPIyWboyIaiSo8CV8qBtDHQg5KNsXMf0UFttHM4NvAYG5t3-rkc8e4YdGoYeKX9vp8NKXaTvleJ73l95NGl-nxkNHIJ3PFLJJ3np_kvOv6SAjQWVLrfpmaPRT4FRFHsBbA/s1600/800px-Iss022e025534.jpg" imageanchor="1" style="clear: left; margin-bottom: 1em; margin-left: auto; margin-right: auto;"><img border="0" height="265" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEicg3_CqPIyWboyIaiSo8CV8qBtDHQg5KNsXMf0UFttHM4NvAYG5t3-rkc8e4YdGoYeKX9vp8NKXaTvleJ73l95NGl-nxkNHIJ3PFLJJ3np_kvOv6SAjQWVLrfpmaPRT4FRFHsBbA/s400/800px-Iss022e025534.jpg" width="400" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">La mano abierta y levantada, la sonrisa y las cejas levantadas<br />son gestos de saludo que compartimos todos los humanos, de<br />todas las culturas, la más básica comunicación no verbal.<br />(Imagen CC NASA vía Wikimedia Commons) </td></tr>
</tbody></table>
La comunicación humana por excelencia es el lenguaje. Hasta donde sabemos, ninguna otra especie animal cuenta con un lenguaje estructurado, capaz de expresar abstracciones y de formular cuestionamientos. Escrito, nuestro lenguaje es capaz de informarnos, educarnos y evocar en nosotros todas nuestras emociones, tanto positivas como negativas, en obras académicas, periodísticas o literarias. Hablado es nuestra forma esencial de interactuar con otros seres humanos.<br />
<br />
Hoy, cuando gran cantidad de interacciones se realizan mediante la palabra escrita a través de las redes sociales o la mensajería instantánea de textos, suele decirse que la comunicación es incompleta, hay malentendidos cuando una frase se interpreta con tal o cual entonación, falta una serie de elementos que modifican, incluso invierten, el sentido que se pretende dar a una oración. Nos quejamos de que la ironía en las redes sociales falla con frecuencia e incluso hemos desarrollado emoticonos para darle entonación a nuestras palabras.<br />
<br />
Estas quejas nos revelan claramente que, pese a su enorme valor, el lenguaje verbal es apenas una parte de la comunicación que establecemos entre nosotros. Una comunicación que es esencial sobre todo porque somos primero que nada un animal gregario, social, y el funcionamiento de nuestras comunidades depende en gran medida de que nos entendamos unos a otros claramente.<br />
<br />
A la comunicación que no depende de las palabras la llamamos “comunicación no verbal”. Fue Charles Darwin, en su libro “La expresión de las emociones en los animales y en el hombre”, quien por primera vez intentó estudiar científicamente aspectos de la comunicación no verbal como las expresiones faciales y la gestualidad. Para Darwin, al menos algunas expresiones eran universales y determinadas genéticamente.<br />
<br />
Las tendencias antropológicas de la primera mitad del siglo XX, por su parte, afirmaban que todo el lenguaje no verbal, incluidas las expresiones faciales, dependían de la cultura. Fue necesario que aparecieran científicos como los fundadores de la etología (la ciencia que estudia el comportamiento genéticamente determinado) para confirmar que, efectivamente, hay un repertorio fundamental de expresiones que son comunes a todos los seres humanos, a todas las culturas, y que por tanto es razonable suponer que son parte de nuestra dotación genética. A fines de la década de 1950, el psicólogo Paul Ekman identificó seis emociones básicas que se corresponden a expresiones faciales universales y que comunican, sin decirlo, cuándo estamos enfadados, alegres, tristes, temerosos, sorprendidos o asqueados.<br />
<br />
Sabemos que las diversas culturas establecen límites a la expresión de ciertas emociones bajo determinadas condiciones, pero sabemos también que todos los seres humanos entendemos claramente que una sonrisa es una expresión amistosa. En ninguna cultura significa otra cosa.<br />
<br />
Las expresiones faciales son parte de una de las cuatro grandes categorías de la comunicación no verbal: el lenguaje corporal. En esta categoría se incluye también la gestualidad que acompaña a nuestro lenguaje, la postura del cuerpo, o el contacto visual. Todos podemos reconocer una “actitud” amenazante o conciliadora, reveladas en la postura que asume una persona, e incluso tenemos expresiones verbales para ellas, como “bajar la cabeza”, “ser muy echado palante” o “mirar a la gente desde arriba”.<br />
<br />
Otra categoría, a la que hacíamo alusión en el primer párrafo, son todos los modificadores auditivos de nuestro lenguaje verbal, lo que los psicólogos sociales llaman “paralenguaje”: la entonación, la inflexión, el énfasis, la velocidad del habla, las pausas, el volumen, la risa y otros sonidos cambian, modulan o alteran las palabras a las que acompañan y son precisamente lo que más echamos en falta en la comunicación textual de las redes sociales.<br />
<br />
La tercera categoría del lenguaje no verbal es el espacio interpersonal, cuyo estudio se llama “proxémica” y se refiere a cómo nuestra proximidad física con otras personas expresa nuestra relación con ellos. Así, por ejemplo, cuando conversamos con un amigo lo hacemos a una distancia que encontraríamos incómoda si se tratara de un extraño. De hecho, cuando las circunstancias nos obligan a tener una cercanía excesiva con desconocidos, como ocurre en un autobús repleto o en un ascensor, establecemos una “distancia social” al evitar que nuestras miradas se encuentren, con frecuencia fijando la vista en puntos poco conflictivos como los números de piso que se van sucediendo o los anuncios en los medios de transporte, lo que le da material de trabajo abundante a comediantes y publicistas. Este manejo de la cercanía física como expresión de nuestras emociones o actitudes se da no sólo a nivel individual, sino de grupos. Cuando varios amigos se reúnen en un corro lo hacen a distancias mucho menores que cuando se trata de desconocidos.<br />
<br />
La cuarta y última categoría de la comunicación no verbal está conformada por nuestros efectos personales: ropa, accesorios, maquillaje, peinado, joyería y otros elementos que también utilizamos continuamente para decir quiénes somos, cómo nos percibimos a nosotros mismos, cómo queremos ser vistos y valorados. Quien utiliza el cabello corto y un traje oscuro está enviando un mensaje muy distinto de quien usa el pelo largo, vaqueros y una cazadora informal, y al menos en una primera instancia nos llevan a hacer juicios sobre ellos basados en la primera impresión.<br />
<br />
Por supuesto, los distintos elementos del lenguaje no verbal no funcionan de modo independiente, sino que están bombardeándonos de modo continuo y simultáneo (o, al revés, con ellos bombardeamos nosotros a los demás continuamente). Una entonación displicente, un gesto de asco, una gran distancia física y una ropa atildada dan un mensaje totalmente distinto de una entonación amable, una sonrisa, un intento de cercanía y ropa informal pero cuidada. Todo ello a veces puede ser mucho más poderoso que las palabras que se están diciendo y nos comunica con los demás mucho más ampliamente de lo que parece a primera vista.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Los excesos</h4>
Algunas personas suelen presentar el lenguaje no verbal como una ciencia exacta que se puede utilizar para lograr resultados asombrosos en quienes nos rodean, influir en ellos y controlarlos, o al menos de “saber lo que realmente piensan y sienten” descodificando sus gestos y posturas. Aunque cada vez sabemos más acerca de esta forma de comunicación fundamental, aún no estamos ni siquiera cerca de poder lograr esas fantásticas afirmaciones que solemos hallar en el mundo de la “autoayuda” y otras expresiones del <i>new age</i>.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-6765382449348261062015-05-10T20:44:00.000+02:002015-05-10T21:24:47.159+02:00La guerra y la paz de Alfred Nobel<i>Uno de los apellidos más conocidos del mundo, el de Alfred Nobel, resume una historia que va mucho más allá del “inventor de la dinamita” con el que se suele despachar al apasionado inventor sueco.</i><br />
<br />
<div class="separator" style="clear: both; text-align: center;">
<a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgp2EgfUUU_uzKm40Dp9kImagVoA2if5lbVueuFqaRzEGpVsgpTht2jF4kvR0__5UJnx8NMU7rL-8E6roiCDevmL_ZFGJohfjmuNIdYwkNkwDKkKP1Efn17cFmwBoHPrwkyQv72Bw/s1600/Nobel_will_intro.jpg" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgp2EgfUUU_uzKm40Dp9kImagVoA2if5lbVueuFqaRzEGpVsgpTht2jF4kvR0__5UJnx8NMU7rL-8E6roiCDevmL_ZFGJohfjmuNIdYwkNkwDKkKP1Efn17cFmwBoHPrwkyQv72Bw/s1600/Nobel_will_intro.jpg" /></a></div>
Cada año, los medios de comunicación repiten una y otra vez el apellido Nobel, primero, durante todo el año pero sobre todo en septiembre, haciéndose cábalas sobre quiénes podrían ser los ganadores de los premios que llevan ese nombre, una tensión informativa potenciada por el hecho de que los responsables de conceder los premios son herméticos respecto a los candidatos que están o no teniendo en consideración. Después, a lo largo de una semana o dos, se van sucediendo los anuncios de los nombres de los premiados del año en física, química, medidina o fisiología, paz y literatura. Finalmente, el 10 de diciembre es la ceremonia de entrega de los premios en Estocolmo, Suecia, salvo el de la Paz, que se entrega en Oslo, Noruega.<br />
<br />
Lo que con frecuencia se omite en la abundante información que celebra a los científicos, escritores y activistas por la paz, es el por qué de la fecha de entrega de los premios, aunque suele anotarse que la asignación en metálico que acompaña el diploma y la medalla proceden de un fideicomiso creado con la fortuna de Alfred Nobel. La asignación, por cierto, en 2014 fue de unos 840.000 euros.<br />
<br />
La ceremonia de entrega de los premios tiene por objeto recordar la fecha de la muerte de su creador, el 10 de diciembre de 1896, en San Remo, Italia, uno de sus muchos hogares.<br />
<br />
Su primer hogar, sin embargo, fue Estocolmo, donde nació el 21 de octubre de 1833, cuarto de los ocho hijos de un emprendedor ingeniero e inventor, Immanuel, y su esposa Karolina. Apenas tenía 9 años cuando su padre llevó a la familia a San Petersburgo, Rusia, donde había fundado una empresa dedicada a suministrar equipo a los ejércitos del desastroso zar Nicolás I y que sería además pionera en la instalación de calefacción doméstica en Rusia.<br />
<br />
La mudanza le significó además a Alfred abandonar la única escuela a la que asistiría en su vida, pues en lo sucesivo sería educado por tutores con una educación amplia que incluyó las artes, la literatura, varios idiomas, además de técnica y ciencia que animaron su amor por la ingeniería y los explosivos, estimulado por su propio padre. Habiendo encontrado su vocación, Immanuel mandó a Alfred en 1850 lo envió a estudiar ingeniería química visitando Suecia, Alemania, Francia y los Estados Unidos.<br />
<br />
La familia no volvería a Suecia sino hasta 1859, abandonando Rusia después de que la empresa había quebrado cuando el nuevo gobierno ruso se negó a respetar acuerdos previos con los Nobel. Para entonces, Alfred ya tenía a su nombre tres patentes menores: de un medidor de gas, de un medidor de líquidos y de un barómetro mejorado. Pero desde sus viajes, su mayor interés era la nitroglicerina, un potente explosivo descubierto por Ascanio Sobrero en 1847. Alfred siguió experimentando en San Petersburgo hasta que decidió reunirse con su familia en Suecia en 1863 y pronto instalaron una fábrica de nitroglicerina y de unos detonadores inventados por él mismo que servían para hacerla estallar.<br />
<br />
La principal característica de la nitroglicerina es su inestabilidad, su impredecibilidad para estallar o no. De hecho, un hermano de Nobel, Emil, murió junto con otros trabajadores de su fábrica en 1864 debido a una explosión de nitroglicerina en sus instalaciones de Estocolmo, lo cual además obligó a Nobel a llevar su laboratorio a zonas menos pobladas. El desafío que enfrentaban los químicos de la época era encontrar una forma de dominar la nitroglicerina y conseguir que se mantuviera estable, estallando sólo cuando se deseara.<br />
<br />
La solución que encontró Nobel fue mezclar la nitroglicerina con tierra de diatomeas llamada “kieselguhr”. El sílice, un material inerte (del que está hecha mayormente la arena) estabilizaba la nitroglicerina formando una pasta a la que se podía dar forma de tubos para introducirla en orificios en la roca y hacer más efectiva su explosión. Llamó a la combinación “dinamita” y, junto con unos casquillos detonadores mejorados que había producido, cambió el mundo de la ingeniería permitiendo por primera vez explosiones potentes, controladas y eficientes. La minería, la construcción de carreteras, la demolición y otras industrias lo convirtieron en millonario en poco tiempo.<br />
<br />
Desde 1865, su pasión por la invención y la industria lo llevarían a fundar más de 90 fábricas e industrias diversas en 20 países, muchas de las cuales hoy siguen existiendo sin que se conozca su relación originaria con Nobel. Y reuniría 355 patentes, la mayoría relacionadas con explosivos, pero también con sus avances en la creación de caucho y piel sintéticos, seda artificial, forja de piezas metálicas y otros descubrimientos.<br />
Pero su logro, que veía como una gran aportación al progreso y a la mejoría de la vida de toda la gente a su alrededor, llamó de inmediato la atención de la industria bélica. Nobel mismo, un pacifista declarado, vio el asunto con inquietud. No quería eso, pero no podía evitarlo.<br />
<br />
En 1888, cuando murió su hermano Ludvig, a su vez inventor del buque cisterna e innovador en la industria petrolera, algunos diarios interpretaron erróneamente que el fallecido había sido Alfred, y lo describieron como un hombre que se había enriquecido diseñando formas de matar a más gente más rápido, y como el “el mercader de la muerte”. Esto impactó profundamente al inventor. Se consideraba un pacifista, un hombre ilustrado que escribía poemas y obras teatrales, que disfrutaba del arte y buscaba logros que mejoraran la vida de su sociedad. No era, pensaba él, un mercader de la muerte, aunque sus inventos fueran usados incorrectamente por otros.<br />
Cuando murió, en 1896, se descubrió con sorpresa que había dispuesto que la mayor parte de su fortuna se destinara a invertirse en valores seguros y sus beneficios se entregaran cada año a las personas que, durante el año anterior, le hubieran dado el mayor beneficio a la humanidad en cinco áreas. Era su forma de afirmar su convicción de paz con la fortuna que había obtenido, en parte, por la guerra<br />
<br />
Alfred Nobel, siempre inmerso en su trabajo, por cierto, nunca se casó y nunca tuvo hijos.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
El debate del testamento</h4>
Los albaceas destinados a hacer realidad los premios dispuestos por Nobel, dos ingenieros de sus empresas, no se decidieron a llevar a cabo sus deseos, especialmente ante la oposición por parte de la familia de Alfred Nobel. Tendrían que pasar cinco años para que se entregaran por primera vez los premios en 1901. Y, desde entonces, nunca han estado desprovistos de debate tanto por las decisiones como por la forma de tomarlas y la fidelidad o falta de ella a las disposiciones testamentarias del inventor.</td></tr>
</tbody></table>
Unknownnoreply@blogger.comtag:blogger.com,1999:blog-25567073.post-57382292470940226542015-04-18T00:05:00.000+02:002016-02-01T22:13:52.619+01:00La marquesa que preguntaba<table align="center" cellpadding="0" cellspacing="0" class="tr-caption-container" style="margin-left: auto; margin-right: auto; text-align: center;"><tbody>
<tr><td style="text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjMUp4S-6OCTa3-M_sCk6Up89kJdY9pC2xAdOTV1YtkBycbjXA-oioTSyhn-tks4wYWSKauQECMm_cGIupwIobn81eu1wuz6dIKKhUY98467tsxcPLSfwfTAUf4M94ZLUvBcJQMtg/s1600/Inconnu%252C_portrait_de_madame_Du_Cha%25CC%2582telet_a%25CC%2580_sa_table_de_travail%252C_de%25CC%2581tail_%2528cha%25CC%2582teau_de_Breteuil%2529_-001.jpg" imageanchor="1" style="margin-left: auto; margin-right: auto;"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjMUp4S-6OCTa3-M_sCk6Up89kJdY9pC2xAdOTV1YtkBycbjXA-oioTSyhn-tks4wYWSKauQECMm_cGIupwIobn81eu1wuz6dIKKhUY98467tsxcPLSfwfTAUf4M94ZLUvBcJQMtg/s640/Inconnu%252C_portrait_de_madame_Du_Cha%25CC%2582telet_a%25CC%2580_sa_table_de_travail%252C_de%25CC%2581tail_%2528cha%25CC%2582teau_de_Breteuil%2529_-001.jpg" width="542" /></a></td></tr>
<tr><td class="tr-caption" style="text-align: center;">Gabrielle Émilie Le Tonnelier de Breteuil, marquesa de Châtelet<br />(Imagen D.P. de pintor anónimo vía Wikimedia Commons)</td></tr>
</tbody></table>
Libre, fuerte, independiente, apasionada, rebelde, extremadamente inteligente y llena de preguntas. Es un resumen, si bien insuficiente, al menos básico para conocer a Emilie du Châtelet, una de las figuras relevantes de la Ilustración francesa: matemática, física, filósofa, lingüista y feminista.<br />
<br />
Vista con una mirada simplemente frívola, lo más destacado de su vida fue una serie de aventuras amorosas que disfrutó con la complacencia o al menos la simulada ignorancia de su marido. Los años que fue amante de Voltaire bastarían para darle un lugar en la historia de esos años en los que el pensamiento se iba liberando de antiguas ataduras. Pero ella misma se rebeló contra esa fácil visión cuando le escribió a Federico el Grande de Prusia: “Juzgadme por mis propios méritos, o por la falta de ellos, pero no me veáis como un simple apéndice de este gran general o ese gran sabio, esta estrella que brilla en la corte de Francia o ese autor famoso. Soy, por mi propio derecho, una persona completa, responsable sólo ante mí por todo lo que soy, todo lo que digo, todo lo que hago”.<br />
<br />
El camino que llevó a esa postura comenzó con el nacimiento de la hija del Barón de Breteuil el 17 de diciembre de 1706, en medio de la turbulencia de la revolución científica y, con ella, del pensamiento ilustrado. Su nombre completo fue Émilie le Tonnelier de Breteuil. El barón, su padre, que ocupó un puesto en la corte de Luis XIV, observó que su hija era extremadamente inquieta, interesada en cuanto le rodeaba y una fuente incesante de preguntas. La educó en latín, italiano, griego, alemán e inglés, y ella aprovechó a los amigos de la familia para expresar y desarrollar de modo autodidacta su pasión por las matemáticas.<br />
<br />
La libertad que anhelaba pasaba por un buen matrimonio con un caballero que no le pusiera fronteras a sus intereses y gustos, y encontró al candidato ideal en el Marqués Florent-Claude de Châtelet-Lomont, con el que se casó en 1725 convirtiéndose así en marquesa. Ella tenía 19 años y él 34, y los diversos lugares donde vivieron, especialmente París, influyeron en los gustos estéticos y las pasiones intelectuales de la joven esposa. Tuvieron dos hijos en rápida sucesión y un tercero poco después que vivió apenas un año. Era 1734 y Emilie, además de cumplir con sus obligaciones como marquesa de Châtelet, había tenido una agitada vida sentimental por la que habían pasado al menos tres amantes, asunto por lo demás común en esa época para la gente de su posición social. Pero, además, había contratado a diversos sabios de la época para que le enseñaran matemáticas, y frecuentaba reuniones de intelectuales, matemáticos y físicos, como las llevadas a cabo en el café de Gradot que, sin embargo, tenía prohibida la entrada a mujeres. Emilie optó por vestirse como hombre y, aunque todos sabían quién era y no engañaba a nadie, le franquearon la entrada convirtiéndola en habitual de las reuniones, porque sus aportaciones siempre eran bienvenidas.<br />
<br />
En 1733 había conocido a uno de los personajes fundamentales del pensamiento de la Ilustración, con el que inició una relación amorosa y con quien reanimóa sus intereses intelectuales y científicos, Voltaire, que se refirió a ella como “la mujer que en toda Francia tiene la mayor disposición para todas las ciencias”. Emilie y Voltaire se instalaron en una casa en Cirey, propiedad del marido de Emilie, quien aceptó la situación de buen grado, y se ocuparon de estudios científicos, especialmente las propuestas de Newton sobre la gravedad, que no eran aceptadas en la Francia que prefería a Descartes, quien rechazaba la existencia del espacio vacío y explicaba la atracción gravitacional como vórtices en el éter que todo lo llena. Voltaire y Emilie consideraban que la evidencia se inclinaba hacia la explicación de Newton, y dedicaron largo tiempo a estudiar el asunto. Ambos participarían independientemente (ella sin hacérselo saber a su amante) en un premio de la Academia de Ciencias sobre el fuego y su propagación, que finalmente fue ganado por el matemático Euler.<br />
<br />
En 1738 se publicaban sus <i>Elementos de la filosofía de Newton</i>, una obra de divulgación de las ideas de Newton que pese a ser firmada sólo por Voltaire éste aclaraba en el prólogo que era una obra a cuatro manos con Emilie de Châtelet. Por entonces también se publicaba la traducción al francés de <i>La fábula de las abejas</i>, obra sobre moral de Mandeville donde la científica aprovechaba también el prólogo para establecer su reivindicación: “Siento todo el peso del prejuicio que nos excluye de manera tan universal de las ciencias; es una de las contradicciones de la vida que siempre me ha asombrado, viendo que la ley nos permite determinar el destino de grandes naciones, pero no hay un lugar donde se nos enseñe a pensar…”<br />
<br />
Dos años después, Emilie du Châtelet publicaba su obra personal principal, <i>Fundamentos de la física</i> donde hace la defensa de la posición newtoniana con apoyo en Descartes y Leibniz. En ese libro, sin embargo, no sólo se dedica a asuntos eminentemente científicos, sino que presenta su propia visión sobre Dios, la metafísica y el método científico, junto con las reflexiones producto de su trabajo en el laboratorio que había instalado en Cirey, y donde también se situaba como una innovadora en cuanto a la defensa de las hipótesis como bases para el trabajo científico.<br />
<br />
Por esos años se daría tiempo además para escribir su <i>Discurso sobre la felicidad</i>, una reflexión autobiográfica y moral sobre la naturaleza de la felicidad, especialmente de las mujeres.<br />
<br />
Hacia 1747, Emilie había dejado su romance con Voltaire, pero no su amistad con él. Se había enamorado del Marqués de Saint-Lambert e intensificó el trabajo en un proyecto que le había ocupado muchos años: una detallada traducción al francés de la obra magna de Newton, los <i>Principia mathematica</i>, acompañada de abundantes comentarios algebraicos clarificadores de la propia traductora.<br />
<br />
Nunca lo vería publicado. En 1749 quedó embarazada de su nuevo amante, aunque Voltaire la ayudó a convencer a su marido legítimo que él era el padre del futuro bebé. A los pocos días de nacer su cuarto hijo, Emilie du Châtelet murió inesperadamente el 10 de septiembre de 1749, con apenas 43 años de edad.<br />
<br />
Voltaire escribió a un amigo, relatando el acontecimiento: “No he perdido a una amante, sino a la mitad de mí mismo, un alma para la cual parece haber sido hecha la mía.”<br />
<br />
Diez años después se publicaba al fin la traducción de Emilie, que es hasta hoy la única traducción al francés de la obra cumbre de Newton. No ha hecho falta otra.<br />
<br />
<table align="center" border="0" cellpadding="10" cellspacing="0"><tbody>
<tr><td bgcolor="#ffeedd"><h4 style="text-align: center;">
Si fuera rey…</h4>
“Si fuera rey”, escribió Emilie du Châtelet, “repararía un abuso que recorta, por así decirlo, a la mitad de la humanidad. Haría que las mujeres participaran en todos los derechos humanos, especialmente los de la mente.”</td></tr>
</tbody></table>
Unknownnoreply@blogger.com