Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

agosto 28, 2010

El debate de la homeopatía en el Reino Unido

Ningún preparado homeopático ha podido
demostrar eficacia curativa bajo condiciones
científicas satisfactorias.
(foto D.P. Wikidudeman, via Wikimedia Commons)
¿Debe la sanidad pública financiar una supuesta terapia que en más de 200 años no ha conseguido dar una sola prueba de su eficacia y que además rechaza toda la ciencia?

El Comité de Ciencia y Tecnología de la Cámara de los Comunes británica realizaba audiencias sobre la homeopatía, práctica a la que el servicio nacional de salud británico destina alrededor de 4 millones de libras esterlinas y bajo fuertes críticas por parte de médicos, científicos y defensores de los derechos de los pacientes.

El 25 de noviembre de 2009 estalló la bomba informativa, el director de estándares profesionales de Boots, la mayor cadena farmacéutica de la Gran Bretaña, confesaba a los parlamentarios: “Ciertamente hay una demanda de los consumidores por estos productos. No tengo ninguna evidencia de que sean eficaces”.

Como en tantos otros escándalos farmacéuticos, se descubría que el negocio valía más que la ciencia. Bennet añadió: “Para nosotros es cuestión de elección del consumidor, y un gran número de nuestros clientes creen que son eficaces”.

La respuesta la dio el Dr. James Thallon, director médico del grupo de atención primaria de West Kent del NHS: "Si se le receta un medicamento a los pacientes que sabemos que no tiene eficacia, en una base que es esencialmente deshonesta con dicho paciente, personalmente considero que es poco ético”.

Es verdad que un gran número de personas creen que los amuletos, el agua bendita o las velas negras con encantamientos son medicamentos eficaces. ¿Acaso esto justificaría que estos productos se expendan en las farmacias sin dar ni una prueba de ser realmente eficaces? Más aún, si para comercializar un producto se demanda a las farmacéuticas cumplir con numerosas exigencias científicas sobre seguridad, eficacia, pruebas clínicas, estudios de laboratorio, etc., ¿por qué la homeopatía debe estar exenta de tales exigencias?

Las críticas

Una y otra vez se han expresado críticas inquietantes a la homeopatía: sus supuestos medicamentos no contienen ningún principio activo, dadas las tremendas diluciones utilizadas por sus procedimientos; que los mecanismos que postula contravienen cuanto conocemos del universo en lo referente a la física, la química y la biología; que las enfermedades no son causadas por “miasmas” sino por gérmenes patógenos o trastornos anatómicos, fisiológicos o genéticos, etc.; pero sobre todo y de manera fundamental, que nunca ha habido estudios que demuestren que la homeopatía funciona. Si hubiera pruebas sólidas de su eficacia, toda crítica sería irrelevante.

Quienes utilizan la homeopatía, suelen defenderla porque “les funciona”, sin admitir que podrían no estar interpretando los hechos correctamente. ¿Cómo saber si el preparado homeopático fue responsable de la curación o la enfermedad siguió su curso normal, o el tratamiento médico concurrente fue el responsable, o simplemente el cuerpo se curó solo como hace las más de las veces?

El método que utilizamos para conocer la respuesta a esta pregunta es una variante del método experimental llamada “de doble ciego”, en la que se mantienen estrictos controles sobre el entorno de los pacientes, algunos de los cuales reciben el medicamento bajo estudio, otros reciben un placebo con el mismo aspecto, sabor, etc. que el medicamento. Los pacientes no saben si están recibiendo el medicamento o el placebo. El concepto “doble ciego” se refiere a que el médico que administra el tratamiento tampoco sabe qué está administrando, de modo que sus expectativas, opiniones (favorables o desfavorables) y actitudes personales no afecten a los pacientes, como ha demostrado la psicología que pueden hacerlo.

Si el medicamento tiene una eficacia estadísticamente superior a la del placebo, tenemos una certeza razonable de que es, efectivamente, el responsable de los efectos. Si es igual al placebo, es razonable suponer que dicho medicamento es ineficaz.

La homeopatía ha luchado por no someterse a estudios con una serie de pretextos y coartadas incomprensibles a la luz de sus afirmaciones sobre su eficacia superior a la de la medicina basada en evidencias. Cuando tales estudios se han realizado, el resultado, una y otra vez, es que la homeopatía no es más eficaz que un placebo, al grado que la prestigiosa revista médica The Lancet editorializó en 2005 que había llegado el fin de la homeopatía.

Las conclusiones

El 22 de febrero de 2010, el comité del parlamento publicó su informe sobre la evidencia respecto de la homeopatía” y pidió al gobierno que retirara la financiación estatal de la homeopatía, y que la agencia reguladora de los medicamentos y productos de salud del Reino Unido no permitiera que las etiquetas de los productos homeopáticos hicieran afirmaciones médicas o aseguraran su capacidad terapéutica si no presentaban evidencia de su eficacia. El comité señaló además que recetar placebos sin que el paciente lo sepa es incompatible con los derechos de libre elección del consumidor.

Como resumió el presidente del comité, Phil Willis, buscaban determinar “si las políticas del gobierno sobre la homeopatía están basadas en la evidencia actual, y no lo están".

Los médicos jóvenes de la Asociación Médica Británica, declararon en mayo que la homeopatía no es distinta de la brujería y se unieron a la solicitud de quitarle el subsidio público en medio de la actual crisis económica que ha afectado profundamente al NHS.

Sin embargo, el 28 de julio 2010, el nuevo ministro de salud conservador, Andrew Lansley, decidió ignorar la evidencia y las recomendaciones de los parlamentarios y de los médicos, y declaró que el NHS seguiría financiando esta práctica. De hecho, abrió la puerta al incremento de los fondos dedicados a la homeopatía y se negó a restringir las afirmaciones no probadas que hace la publicidad homeopática.

Si bien esta decisión no cierra el debate, es un ejemplo muy claro de qué puede pasar cuando un gobierno, un grupo de políticos, deciden no normar sus criterios mediante la mejor evidencia científica disponible. La duda que queda, adicionalmente, es si en la misma lógica se deben financiar los cientos de autoproclamadas medicinas alternativas y prácticas religiosas que tampoco tienen evidencias de su eficacia pero cuentan con partidarios encendidos que creen en ellas. ¿Cuál debe ser el criterio para gestionar la salud de un país moderno?

La favorita del reino

En el mes de agosto, el NHS de Tayside, escocia, anunció que buscaba a un homeópata al que ofrecía un salario de entre 37 mil y 68 mil euros al año por sólo 8 horas a la semana para atender a un máximo de 16 pacientes. Numerosos científicos y médicos han solicitado el puesto como forma de protesta, entre ellos el columnista de The Guardian Simon Singh, uno de los principales divulgadores científicos ingleses. El NHS no ha comentado.

agosto 21, 2010

Cómo conservamos nuestros alimentos

Nicholas Appert, inventor de las conservas
(imagen D.P. via Wikimedia Commons)
El ser humano ha luchado durante toda su historia por mantener sus alimentos a salvo de bacterias, hongos y otros factores dañinos.

El problema de la conservación de los alimentos ha sido preocupación principal del ser humano durante toda su existencia, porque... ¿de qué sirve acumular comida, ser previsores y llenar nuestras despensas si la comida se echa a perder, se pudre, se enmohece, se arrancia, se endurece, pierde color y sabor y finalmente resulta imposible de comer? Una buena cosecha o una cuantiosa cacería, no son de abundancia a largo plazo si no se conservan.

La conservación de los alimentos tuvo una importancia capital para la supervivencia y el desarrollo de nuestra especie, facilitando el paso del nomadismo al sedentarismo, el comercio de alimentos a gran distancia, que más gente tuviera acceso a mejores alimentos, reduciendo las enfermedades transmitidas por los alimentos y, por supuesto, permitió la supervivencia al ofrecer suministros para enfrentar los inviernos y los tiempos de mala cacería o bajos rendimientos agrícolas.

La lucha por la conservación de los alimentos se da en dos frentes. El primero busca combatir, inhibir o dejar fuera a las bacterias que producen la descomposición. El segundo busca mantener o aumentar incluso las características que percibimos de los alimentos (su color, sabor, aspecto, aroma, etc., que es lo que los expertos conocen como sus “propiedades organolépticas”.

En las sociedades prehistóricas, el método más común para preservar los alimentos era cocinarlos de diversas formas. Este proceso mata a los microorganismos responsables de la descomposición y los mantiene a raya más tiempo. Además, nuestros ancestros crearon procedimientos para conservar la carne que seguimos usando, como el ahumado, que es antimicrobiano y antioxidante; el curado con sal, que impide la proliferación de bacterias al deshidratarlas cuando entran en contacto con la sal, y el secado mediante el sol, que al eliminar la humedad del alimento dificulta igualmente la proliferación bacteriana.

Otro procedimiento tradicional para conservar los alimentos es la fermentación, como la del vino, los quesos o la cerveza, en la que se somete al alimento a la acción de unos microorganismos concretos (levaduras y mohos) que ocupan el lugar que de otro modo tendrían organismos que descomponen los alimentos. Precisamente este medio ambiente tóxico es el que crean los hongos del genus o grupo de especies Penicillium, al producir la sustancia que llamamos penicilina, un potente antibiótico, y que son los responsables de la preservación de los quesos azules, el camembert, el brie y otros.

Las conservas en salmuera, vinagre, alcohol o aceites vegetales, que son líquidos comestibles, funcionan inhibiendo el crecimiento de las bacterias o matándolas, mientras que la conserva de productos cocinados en líquidos con alto contenido de azúcar (como las mermeladas) evita las bacterias porque tiene una presión osmótica tan elevada que no permite que vivan casi microbios en su interior.

Estos sistemas fueron los básicos de la conservación de alimentos hasta el siglo XVIII, cuando la tecnología empezó a desarrollar nuevas opciones. En 1810, el confitero francés Nicholas Appert dio a conocer su invención de la conservación hermética de los alimentos, que colocaba en frascos de vidrio que sellaba con corcho y lacre, y posteriormente colocaba en agua hirviendo. Cambiando los frascos de vidrio por latas metálicas se obtiene el moderno sistema de enlatado.

Enfriar o congelar los alimentos fue un método marginal usado en zonas donde se podía recoger hielo o nieve, pero no se pudo utilizar ampliamente sino hasta la creación de la refrigeración artificial en 1756, que llevó a la producción artificial de hielo y, finalmente, a las neveras mecánicas domésticas, que empezaron a llegar a los hogares en 1911.

A este arsenal de métodos de conservación se han añadido otros en los últimos años, que van desde sustancias con propiedades conservantes hasta sistemas como la irradiación de los alimentos con rayos X, gamma o electrones de gran energía; la aplicación de pulsos de un potentísimo campo eléctrico, o el empacado al vacío o con una atmósfera baja en oxígeno.

Al eliminar el oxígeno de los alimentos se presenta el riesgo del botulismo, es decir, el envenenamiento frecuentemente mortal con la toxina producida por la bacteria Clostridium botulinum, que es anaeróbica, lo que significa que vive y se reproduce sin necesidad de oxígeno. Para evitar también la proliferación de esta bacteria se utilizan otras sustancias, como las sales llamadas nitritos.

Entre las sustancias que inhiben la actividad de bacterias y hongos se encuentra el benzoato de sodio, una sal que se presenta de modo natural en algunos alimentos, y que se añade a otros, especialmente si tienen un pH ácido. La misma función la realizan sustancias como el sorbato de potasio. Los propionatos, por su parte, inhiben el crecimiento de moho en los alimentos horneados, destacadamente el pan y las galletas.

Algunas personas y grupos tienen la preocupación de que las sustancias conservantes que se utilizan en la actualidad tengan peligros desconocidos para la salud. Los estudios que se llevan a cabo con estas sustancias tienen por objeto determinar si existe este riesgo y en qué medida, teniendo presente que nada de lo que consumimos, nada de lo que hay en el universo, está totalmente exento de riesgo, y todo depende de cantidades, dosis, y la delicada relación entre el beneficio y los peligros.

Finalmente, los procesos tradicionales de conservación tampoco están exentos de peligros. Consumidos en exceso, los productos ahumados, curados o salados aumentan el riesgo de cáncer estomacal, además de que el exceso de sal es un riesgo para las enfermedades cardiacas, y ciertamente las personas con diabetes no pueden consumir productos conservados con azúcar, jarabes o miel.

Si bien debemos estar alerta a los posibles peligros, no podemos olvidar que los sistemas de conservación, tanto los actuales como los que podamos desarrollar, serán esenciales no sólo en la lucha contra el hambre, sino en una nutrición de calidad para todos los seres humanos. Nuestra especie no habría prosperado si no hubiera aprendido a preservar sus alimentos, lo cual también jugará un papel en su éxito futuro, su desarrollo o su extinción.

Una víctima del frío

En 1626, uno de los padres del método científico, Sir Francis Bacon, se propuso experimentar la posibilidad de conservar un ave rellenándola de nieve, mismo que, escribió Bacon “triunfó excelentemente bien”. Sin embargo, en el proceso, contrajo una pulmonía que unas semanas después lo llevaría a la muerte, como mártir de la ciencia... y de la conservación de los alimentos.

agosto 14, 2010

Las contradicciones del petróleo

Torres de petróleo en Orange County, 1928
(CC Orange County Archives
via Wikimedia Commons)
El petróleo es por igual oro negro, motor de la economía y la vida moderna, contaminante peligroso, motivo de guerras y salvador de vidas. Una muy humana colección de contradicciones.

El petróleo que hoy es preocupación cotidiana fue una curiosidad poco relevante durante la mayor parte de la historia humana. Manaba naturalmente de la tierra o se filtraba a lagos y ríos, un material con pocos usos.

Cierto, se podía quemar, con un olor bastante peor que el de otros aceites, como el de oliva. Pero el petróleo –el “aceite de piedra”– se empleaba principalmente como remedio, y la brea se usaba para calafatear o impermeabilizar embarcaciones. La Biblia cuenta que el alquitrán se usaba cemento en la antigua Babilonia, y ateniéndonos a lo que relata el libro del Génesis en su capítulo 11, el alquitrán fue el adhesivo o cemento usado en la supuesta construcción de la Torre de Babel.

Heródoto menciona en el 450 antes de la era común un pozo en Babilonia que producía sal, betún y petróleo, mientras que Alejandro Magno usó antorchas empapadas en alquitrán petróleo para asustar a sus enemigos. Alrededor del año 100 de nuestra era, Plutarco habla de petróleo que sale burbujeando de la tierra cerca de Kirkurk, en lo que hoy es Irak, país desolado por una guerra en la que el petróleo juega un papel relevante. Y en China, en el siglo IV de nuestra era, se utilizó para quemarlo y evaporar agua salada para obtener sal. Allí se perforaron los primeros pozos, de hasta 250 metros, para obtenerlo.

El petróleo ni siquiera protagonizó la revolución industrial de los siglos XVIII y XIX, sino que lo hizo el carbón, otro combustible fósil que sustituyó a la madera para obtener el vapor que movió la naciente industria. El carbón se procesó también para gasificarlo y purificarlo, permitiendo que se usara en la iluminación con gas que a principios del siglo XX permitía la vida nocturna en las grandes ciudades de Europa y EE.UU.

El petróleo por su parte empezaba a desarrollarse a partir de 1853, cuando el científico polaco Ignacy Lukasiewicz creó la destilación del petróleo para obtener queroseno, que antes se obtenía del carbón. Lukasiewicz inventó además la lámpara de queroseno, que era limpia, fácil de usar y de poco olor comparada con sus antecesores. Ambos avances impulsaron la aparición de explotaciones petroleras en todo el mundo, junto con las grandes fortunas y los grandes monopolios.

Desde mediados del siglo XIX hasta el siglo XX, los productos obtenidos del petróleo mediante la destilación fraccionada se multiplicaron: combustibles gaseosos como el propano, combustibles líquidos (desde el gasavión y la gasolina hasta el diesel, los lubricantes, el ácido sulfúrico, el alquitrán, el asfalto y el coque de petróleo, hasta los productos petroquímicos).

El salto del petróleo a la primera fila de la atención mundial fue el desarrollo del motor de combustión interna o motor a explosión. En 1886, Karl Benz patentó el motor de cuatro tiempos con el que empezaría a producir sus automóviles, seguido por numerosos ingenieros que perfeccionaron, ampliaron y desarrollaron la idea del automóvil y el motor.

Y de la mano del automóvil, el avión nacido en 1905 y las refinerías, el petróleo empezó a apoderarse, literalmente, del mundo. Los autos exigían carreteras en condiciones (asfaltadas... con petróleo), y gasolina y aceite (del petróleo), así como los aviones que demandaban igualmente combustibles procedentes del petróleo, nace la petroquímica.

Los productos no combustibles del petróleo, como el propileno, el etileno, el benceno y el tolueno dieron origen a la industria petroquímica y multiplicaron el valor comercial del petróleo y el hambre del mismo que fue desarrollando nuestro mundo. El petróleo se convirtió así en plásticos de gran utilidad, fibras artificiales como el nylon, el rayon o el poliéster que sustituyen al menos en parte al algodón, el lino y otras fibras naturales, empaques baratos y multitud de productos más.

Las desventajas, sin embargo, siempre estuvieron presentes. La contaminación ocasionada por la combustión de la gasolina, el diesel y otros combustibles del petróleo, así como por los desechos de los lubricantes, ha sido uno de los principales problemas de los últimos 100 años, exigiendo mejores fórmulas y diseños para paliar el daño que causan.

Los maravillosos plásticos, a su vez, tienen también su lado oscuro. Además de que su biodegradación puede tardar siglos, su combustión puede emitir emanaciones sumamente venenosas, y los procesos de producción conllevan también la emisión de contaminantes nocivos para el ambiente y la salud de personas y animales.

Sin embargo, el problema no durará mucho, porque el petróleo se agotará en algún momento determinado. Según distintos cálculos, esto podría pasar ya en 2057 o hasta 2094, dependiendo de nuestra capacidad de conservar este recurso y del descubrimiento o no de nuevas reservas. Hoy en día, las reservas mundiales de petróleo se calculan entre 1,4 y 2 billones de barriles (millones de millones), mientras el consumo diario de petróleo en el mundo es de alrededor de 84 millones de barriles.

Nosotros, o nuestros descendientes inmediatos, deberemos enfrentar el fin de la era del petróleo en nuestro planeta. Lo que pueda pasar entonces está totalmente abierto a especulaciones, desde las de los más pesimistas, que esperan un desastre apocalíptico al abatirse la producción y transporte de alimentos, hasta los optimistas que confían en que algo pasará que resuelva el problema, ya sea un aumento en la conciencia pública o un avance de la ciencia.

Sin embargo, sabemos que el petróleo se agotará, y en el momento en que la producción diaria sea menor que el consumo diario (lo que significaría que día a día se iría creando una escasez de petróleo) empezará un largo proceso de destete. En él, esperamos que el desarrollo de formas de energía más limpias, renovables y accesibles, jugará un papel fundamental.

Pero no lo sabemos. Y por ello todos los esfuerzos de conservación son útiles y recomendables. La humanidad ha vivido más de un siglo sin precedentes sumida en las contradicciones del petróleo. Y tendrá que hacerse a la idea de que esta fiesta, cuando menos, tiene horario de cierre.

El fósil que nos mueve

Solemos referirnos al petróleo y al carbón como “combustibles fósiles" debido a que eso son precisamente. El petróleo se ha formado a partir de los cuerpos y restos orgánicos de plantas y animales que vivieron hace millones de años y que se hundieron en el fondo del mar. Enterrados bajo kilómetros de arena y sedimentos, atrapados en roca no porosa y sometidos a enormes presiones y temperaturas, un pequeño porcentaje de estos restos orgánicos se desintegró en compuestos formados por átomos de hidrógeno y carbono, los hidrocarburos.

agosto 07, 2010

El padre de la neurocirugía moderna

Harvey Cushing
(foto D.P. de Doris Ulmann via
Wikimedia Commons)
Durante la mayor parte de la historia humana no hubo nada que pudiéramos llamar estrictamente "neurocirugía". Los avances que hoy salvan vidas comenzaron con un médico de Cleveland.

De entre todos los misterios del cuerpo humano, probablemente el más enigmático es el que se guarda dentro de nuestro cráneo, como un tesoro dentro de un cofre hermético, sólido, inexpugnable.

No es de extrañarse, somos una especie curiosa, que desde los albores de la historia el hombre abriera el cráneo de sus semejantes para ver lo que hay dentro... o para intentar curar alguna afección, como creen los arqueólogos que han encontrado numerosos casos de trepanación que se remontan hasta los 6.500 años antes de nuestra era.

Trepanar significa hacer un agujero. Numerosos cráneos prehistóricos muestran agujeros de distintos tamaños que se les practicaron con herramientas especializadas. Y que sobrevivieron, como lo revela la cicatrización ósea, es decir, el crecimiento de nuevo hueso en los bordes del agujero, y en algunos casos la oclusión total del mismo.

Algunas pinturas rupestres parecen indicar que la trepanación se practicaba con objeto de curar afecciones tales como los ataques epilépticos, las migrañas y los trastornos mentales, aunque también para realizar la limpieza de heridas como las causadas por piedras y porras. La operación fue común en la América precolombina, desde el centro de México hasta Los Andes. Y se siguió practicando en Europa durante la era clásica, la edad media y el renacimiento, como la única práctica quirúrgica relacionada con el cráneo y el cerebro junto con las reparaciones de lesiones óseas..

La aparición de la medicina científica a mediados del siglo XIX y el desarrollo de los métodos antisépticos y la anestesia, estimularon el interés por realizar intervenciones quirúrgicas eficaces en el cerebro.

En 1884, En el Hospital Epiléptico de Regent’s Park, Rickman John Godlee, cirujano británico y sobrino de Joseph Lister, llevó a cabo la que podría considerarse la primera cirugía cerebral moderna, practicada para extirpar un tumor cerebral de su paciente. Godlee trabajó bajo las indicaciones de Lister, quien a la luz de los descubrimientos de Louis Pasteur sobre los microorganismos patógenos y la consecuente teoría de que éstos eran los causantes de las infecciones, propuso procedimientos antisépticos y el establecimiento de un entorno estéril para la cirugía, bajo la hipótesis de que ello reduciría las infecciones postoperatorias que tantas vidas costaban y permitiría cirugías que antes nadie se atrevía a intentar.

El éxito de la intervención provocó que más y más médicos se atrevieran a realizar cirugías cerebrales, y el nuevo campo empezó a avanzar. El cirujano Victor Horsley se convirtió muy pronto en el primer cirujano que dedicaba buena parte de su práctica a la neurocirugía como disciplina quirúrgica. En 1887 extirpó por primera vez un tumor de la médula espinal.

Pero la disciplina necesitaba su Edison, su Pasteur, su Cristóbal Colón, el que definiera claramente la especialidad de la neurocirugía... Ese papel le estaba reservado al médico estadounidense Harvey Cushing.

Nacido en Cleveland, Ohio, en 1869, el espíritu innovador y adelantado de Cushing se hizo evidente ya desde sus años de formación. En 1894, un año antes de recibir su título de la Universidad de Harvard, Cushing vio morir a un paciente durante una operación debido a una sobredosis de éter, el anestésico de uso común por entonces. Con su colega Ernest Codman, Cushing creó la primera tabla de anestésicos diseñada para ayudar al médico y al anestesiólogo a vigilar el pulso, la respiración y la temperatura... todo eso que hoy sigue bajo supervisión a cargo de sensores automatizados.

Como resultado, se redujeron notablemente las muertes debidas al mal uso de la anestesia.

El mismo año en que Cushing obtuvo su título como médico, 1895, Ernst Roentgen descubrió los rayos X, y un año después ya Cushing y Codman estaban utilizando esta nueva tecnología para hacer diagnósticos radiográficos mientras continuaban su educación especializada en neurocirugía.

Cushing empezó a realizar intervenciones quirúrgicas en 1902. A lo largo de la carrera que seguiría durante los siguientes 37 años desarrolló sus propios avances y técnicas, como el electrocauterizador que ayudó a desarrollar para obturar los vasos sanguíneos durante las intervenciones, además de estudiar numerosas enfermedades y afecciones hasta entonces no descritas en la literatura médica.

En particular le interesó la glándula pituitaria, que estudió tan intensamente que durante su vida se le consideró el máximo experto en esta glándula. Uno de los trastornos que identificó, la "enfermedad de Cushing", causada por un tumor en el lóbulo anterior de la pituitaria y que se puede tratar principalmente con cirugía.

Además, Harvey Cushing fue promotor y defensor de técnicas y procedimientos nuevos, no creados por él, pero que consideraba esenciales para realizar mejor su trabajo.

Entre las técnicas de las que fue pionero se encuentran muchas que son práctica común en la actualidad, como el uso de la irrigación con solución salina para limpiar la zona de la cirugía y permitir al médico una mejor visión del campo quirúrgico.

De gran importancia fue su promoción de la monitorización continua de la tensión arterial durante las intervenciones quirúrgicas, primero con un esfigmomanómetro que sólo medía la presión sistólica (el momento de la contracción del corazón) y después con el tensiómetro de Korsakoff, que también medía la presión diastólica (el momento de la relajación del músculo).

Como el principal formador de neurocirujanos durante muchos años, muchos consideran a Cushing el padre de la neurocirugía como la entendemos, estudiamos y practicamos en la actualidad con el sueño de conseguir lo que Cushing: salvar vidas. Y el ejemplo de este médico es alentador: en sus más de 2.000 intervenciones quirúrgicas para extirpar tumores, consiguió el extraordinario logro de llevar a sus pacientes de un 90% de probabilidades de morir a sólo un 8%, multipicando la calidad y cantidad de vida de miles de personas directa e indirectamente.

Un nombre omnipresente

El nombre de Harvey Cushing está presente en diversas formas en el mundo de la medicina, pues lo llevan el clip de Cushing, un dispositivo de sujeción; tres distintos síndromes (Cushing I, II y III), la tríada de Cushing, la úlcera Rokitansky-Cushing, el sinfalangismo de Cushing (una afección en la que se fusonan las articulaciones de las falanges), el síndrome Bailey-Cushing, el síndrome Neurath-Cushing y, por supuesto, la ley de Cushing, que indica que el aumento de la presión intracraneal comprime los vasos sanguíneos y causa la isquemia, o falta de riego sanguíneo, cerebral.