Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

mayo 28, 2011

El universo oscuro

CL0024+17
Un halo producto del choque de dos galaxias es
una de las más fuertes evidencias en favor de la
existencia de la materia oscura.
(Foto D.P. de By NASA, ESA, M.J. Jee y H. Ford
vía Wikimedia Commons)
Todo lo que vemos a nuestro alrededor es apenas un atisbo del universo, la mayor parte del cual está aún por descubrir.

El universo, que se había considerado como una ordenada maquinaria de infinita precisión durante siglos, empezó a difuminarse con Einstein y, desde entonces, se ha ido complicando más allá de nuestra capacidad de imaginar, capacidad limitada por el entorno de escala media en el que hemos evolucionado, donde no entendemos el espacio curvo, los agujeros negros, un universo en expansión, un big bang, o el que la única constante del universo es la velocidad de la luz.

En 1933, un físico búlgaro-suizo de 35 años que trabajaba en los Estados Unidos, Fritz Zwicky, anunció que al universo que observamos le faltaba algo. O mucho: el 83% de la materia que debería contener.

Zwicky había hecho sus cálculos a partir de sus estudios del gran cúmulo de Coma, formado por más de 1.000 galaxias. La velocidad de las galaxias de un cúmulo depende de su masa total. Zwicky utilizó las velocidades de las galaxias para calcular la masa de las estrellas de Coma. Después, calculó la masa con otro sistema: la luz total de esas galaxias. Estos dos procedimientos debían dar resultados razonablemente similares… pero no lo hicieron.

La discrepancia era enorme. La masa calculada mediante la velocidad de las galaxias era diez veces mayor que la calculada a partir de la luz de las estrellas.

Zwicky se atrevió entonces a sugerir que tal vez el universo estaba formado principalmente por materia que no podemos ver. Una materia oscura que podíamos detectar por sus efectos gravitacionales y que, desde entonces, ha sido constatada por otros físicos y astrónomos.

El problema se vio complicado por la observación anunciada en 1998 de que nuestro universo no sólo está en expansión, como lo había descubierto Erwin Hubble en la década de 1930, sino que su ritmo de expansión se está aclerando. Esta observación la hizo, de modo muy adecuado, el telescopio Hubble. La gravedad del universo no estaba deteniendo la expansión, sino que “algo” lo estaba empujando para acelerar la expansión. Ese algo fue llamado por el cosmólogo Michael Turner “energía oscura”, en homenaje a Zwicky y desde entonces se han encontrado numerosas evidencias que la corroboran.

¿Cuánta energía oscura debe haber en el universo para explicar las observaciones que hemos hecho sobre la aceleración de la expansión del universo? Mucha. Es decir, que nos falta más universo del que creíamos. La materia que podemos percibir, la llamada “materia atómica”, es sólo el 4% del universo, la materia oscura de Zwicky sería el 23% del universo y el 73% adicional que tampoco podemos ver es la “energía oscura”.

Todo lo que podemos observar mediante el espectro electromagnético (desde las frecuencias extremadamente bajas hasta los rayos gamma, pasando por la sondas de radio, la radiación infrarroja, la luz visible, el ultravioleta y los rayos X), desde el terreno de lo minúsculo hasta las gigantescas nubes de gas donde nacen estrellas que nos ha mostrado el telescopio Hubble, gatos y flores, violines y supernovas, todo… es sólo el 4% de un universo que sigue desafiándonos con apasionantes misterios.

La búsqueda de lo invisible

Los astrofísicos están buscando intensamente la materia oscura y la energía oscura. O cualquier otra cosa no observada hasta hoy que ocupe el lugar de estos postulados pero que sirva para explicar lo que hemos visto del universo.

Entre los diversos observatorios (terrestres y orbitales) que participan en la búsqueda de la materia oscura, el más reciente es el espectrómetro magnético alfa (AMS-2), un detector de partículas con un coste de 2 mil millones de dólares que tiene las misiones de determinar cuánta antimateria hay en el espacio y qué es la materia oscura. Este aparato, pionero en su tipo, fue llevado a la Estación Espacial Internacional en el último viaje del transbordador Endeavour.

El AMS-2 tiene la misión de detectar partículas extrañas como los neutralinos, que se han propuesto hipotéticamente pero nunca se han hallado, y que podrían darnos algunas respuestas respecto de la materia oscura. Para ello, captura rayos cósmicos con potentes imanes para luego examinarlos con delicadísimos detectores de partículas, produciendo datos todo el día, todos los días, a un ritmo de aproximadamente un gigabyte por minuto. El aparato es resultado de un trabajo de 20 años en el que han participado 60 institutos científicos de 16 países, y cuenta entre sus investigadores principales a un español, el Dr. Manuel Aguilar Beníitez, del Centro de Investigaciones Energeticas Medioambientales y Tecnologicas (CIEMAT).

Para estudiar la materia oscura, por su parte, el año 2020, la NASA prepara uno de sus observatorios más ambiciosos, el llamado WFIRST (siglas en inglés de telescopio de exploración infrarroja de campo amplio), que tendrá por objeto responder a algunas preguntas esenciales sobre la naturaleza de la energía oscura. Para ello medirá cómo las galaxias curvan la luz que pasa cerca de ellas (el fenómeno de “lente gravitacional”), determinará las distancias a las que se encuentran diversas supernovas (estrellas que han estallado) y las oscilaciones acústicas de las partículas llamadas bariones (familia a la que pertenecen los neutrones y protones del núcleo de los átomos). Con ello determinará el efecto de la energía oscura en la evolución del universo.

Una misión similar podría lanzarse algunos años antes. Se trata de “Euclides”, una misión de alta precisión que tendrá una duración cinco años con detectores y un telescopio para, en palabras de sus creadores, “hacer el mapa del universo oscuro”, buscando al mismo tiempo datos sobre la materia oscura y la energía oscura, entre otras varias misiones.

Sin embargo, salvo algún descubrimiento inesperado y asombroso, y pese a todos los esfuerzos invertidos, la respuesta a las preguntas sobre el universo oscuro no parece cercana, y ello sin siquiera atrevernos a imaginar qué nuevas preguntas nos planteará el descubrimiento efectivo de esta materia y esta energía insospechadas durante la mayor parte de la historia humana. Se confirma así una vez más lo que dijo el astrónomo inglés Sir Arthur Eddington, que realizó las primeras observaciones que confirmaron la teoría de la relatividad de Einstein: “El universo no sólo es más extraño de lo que imaginamos, es más extraño de lo que podemos imaginar”.

Mientras tanto, bajo tierra

La búsqueda de los componentes oscuros del universo no se hace sólo a nivel cósmico. El gigantesco colisionador de partículas europeo, el LHC también intentará sus enormes niveles de energía para crear materia oscura en la forma de partículas llamadas WIMPS, así como poner a prueba algunas hipótesis sobre la materia y la energía oscura sin tener que ir al espacio.

mayo 21, 2011

Almacenar la electricidad

12-05-08 AS1
Planta termosolar de Andasol en Granada.
(Foto GDFL de BSMPS, vía Wikimedia Commons
La tecnología enfrenta el desafío de conseguir a gran escala lo que disfrutamos en nuestra electrónica personal: baterías potentes, duraderas y fiables.

La historia de las baterías que hoy accionan una multitud de dispositivos que van con nosotros a todas partes, desde la humilde linterna hasta el teléfono móvil inteligente o el portátil, hasta llegar a elementos esenciales como los marcapasos o los aparatos para la audición, comenzó en 1800, cuando el conde Alessandro Giuseppe Antonio Anastasio Volta, profesor de física de la Universidad de Pavia, le escribió a la Royal Society de Londres presentándoles la primera pila electroquímica.

Esta primitiva batería constaba de un apilamiento (de ahí el nombre de “pila”) de discos alternados de cinc y plata separados por discos de cartón empapados en salmuera que funcionaba como electrolito. Volta ya había demostrado en 1791 que se podía producir una corriente eléctrica formando un circuito con dos metales separados por una tela o papel secante empapados en salmuera. Lo que hizo en 1800 fue apilar muchos de estos circuitos para obtener una fuente constante y fiable de energía eléctrica por primera vez en toda la historia humana.

Aunque la pila voltaica daba electricidad durante un tiempo muy breve, sirvió para realizar por primera vez en la historia hazañas como la electrólisis del agua, es decir, su separación en sus dos gases componentes: el hidrógeno y el oxígeno. Pero se necesitaba una batería de mayor duración, y fue desarrollada sólo 36 años después, por el británico John F. Daniel, y su diseño accionó teléfonos, telégrafos y timbres de puertas durante más de 100 años.

Estas pilas generan la electricidad, no sólo la almacenan. Las reacciones químicas entre el electrolito (que sería la salmuera) y los dos metales, uno que actúa como electrodo positivo o cátodo y otro como electrodo negativo o álodo, generan un flujo de electrones… una corriente eléctrica. El siguiente salto hacia adelante lo dio en 1859 el inventor francés Gaston Plante, que desarrolló una batería de ácido y plomo que podía recargarse, es decir, se le alimenta electricidad y la guarda hasta que la necesitamos, lo que hoy se llama “batería secundaria”. Su diseño básico era tan eficaz que se sigue utilizando en todo el mundo: es el de las pesadas baterías que llevan todos los automóviles.

Los siguientes avances fueron, primero, conseguir una batería “seca”, es decir, que no necesitara un electrolito líquido, inventada en 1886 por el alemán Carl Gassner utilizando cinc y carbono. Ese diseño dominó la mitad del siglo XX, hasta la pila alcalina de níquel y cadmio del estadounidense Lewis Urrym que se empezó a comercializar en 1959. Vendrían después las baterías de níquel e hidruro metálico (NiMH) de 1989 y las baterías de iones de litio que hoy accionan la mayoría de los dispositivos electrónicos y que empezaron a venderse en 1991. Curiosamente, la batería de iones de litio utiliza nuevamente un electrolito líquido.

Las pilas de iones de litio tienen numerosas ventajas: conservan su carga más tiempo con muy poca pérdida espontánea, lo que nos permite guardarlas más tiempo sin que se agoten; no tienen el conocido “efecto memoria”, es decir, que no necesitan descargarse por completo antes de volverlas a cargar; y además pueden recargarse cientos de veces a diferencia de otras opciones. Gracias a las baterías de iones de litio, se ha vuelto viable el sueño de los automóviles eléctricos que recorren las calles en números cada vez mayores.

El problema a gran escala

La producción a partir de la energía solar (ya sea mediante placas fotovoltaicas o mediante hornos) y a partir del viento presenta un problema que con frecuencia se omite en el debate público, y es la falta de una forma eficiente de almacenar la electricidad.

El consumo eléctrico de una zona a lo largo del día es variable. Un día especialmente caluroso en verano, por ejemplo, puede disparar un pico en la demanda de electricidad al ponerse en marcha de pronto una gran cantidad de aparatos de aire acondicionado. Pero no hay una pila o batería donde se guarde esa electricidad y se pueda echar mano de ella cuando se necesita, sino que el sistema debe tener posibilidades de generar más electricidad, por ejemplo poniendo en marcha turbinas adicionales en una hidroeléctrica o encendiendo turbinas de gas que pueden responder rápidamente a un cambio inesperado en la demanda.

Como es evidente, la demanda eléctrica no se detiene de noche, cuando las plantas solares no pueden generar electricidad (con una excepción de la que hablaremos más adelante). Tampoco puede provocarse un apagón cuando el viento es demasiado débil para mover los aerogeneradores o turbinas eólicas, o cuando el viento es demasiado fuerte y deben detenerse las turbinas de modo que el exceso de velocidad de giro no las pueda dañar.

Es por ello que muchos consideran que, al menos de momento, no es viable la eliminación de las plantas térmicas, de ciclo combinado, hidroeléctricas y nucleares que siguen siendo las principales fuentes de la electricidad que se consume en el mundo.

Andasol

Una de las aproximaciones al problema es original por cuanto no almacena electricidad, sino que almacena directamente el calor que posteriormente se utilizará para producirla en turbinas.

El pionero complejo termosolar de Andasol, en la comarca de Guádix, Granada, utiliza espejos parabólicos para concentrar el calor del sol. Los colectores solares de las tres plantas que componen el complejo generan más calor que el que se utiliza para el vapor que mueve las turbinas eléctricas para que produzcan, en conjunto, 150 megavatios. El calor excedente va a un sistema de almacenamiento térmico a base de sales fundidas, que permiten que las turbinas operen a plena capacidad durante 7,5 horas de noche o en condiciones de nublado.

Ingenioso y original, el sistema sin embargo no es trasladable a sistemas que utilizan no el calor, sino el movimiento para generar electricidad, como las granjas eólicas. Para ellas, el almacenamiento de electricidad sigue siendo el gran desafío. Y un desafío aún mayor si vemos realmente lo poco que han cambiado las baterías en su diseño básico desde que Volta utilizó la suya para producir su primer voltio.

La historia, la fama y la fortuna esperan a ese hombre o mujer que finalmente nos muestre cómo guardar la electricidad eficazmente.

Microminibatería

Jianyu Huang, de los Sandia National Laboratories de los EE.UU., construyó a fines de 2010 la batería más pequeña del mundo: un cátodo de litio cobalto de tres milímetros de largo, un electrolito de líquido iónico y un ánodo formado por un nanonalambre de óxido de estaño de 10 nanometros de largo y 100 de ancho del que se necesitarían 7.000 para igualar el espesor de un cabello humano.

mayo 14, 2011

Cadherinas: el pegamiento de la vida

Diagrama de unión celular mediante cadherina
(imagen D.P. By LadyofHats Mariana Ruiz,
traducción Pilar Saenz, vía Wikimedia Commons
Unas proteínas poco conocidas son responsables de la solidez estructural de la vida y podrían tener la clave de uno de los secretos de la evolución.

Todos recordamos los esquemas de diversos tejidos que vimos en la escuela, niños o ya adolescentes, en láminas, proyecciones o en nuestros libros de texto. Haces de elásticas y alargadas células musculares, como cables de acero capaces de contraerse. El mosaico casi mudéjar en que se disponen las células de la piel de los animales. Las rectas y erguidas lanzas del colénquima que da su rigidez a los tallos vegetSales en haces. Las estrelladas neuronas con sus dendritas fractales y sus largos, largos axones.

Una célula unida a otra célula es toda una revolución en la vida. Después de todo, la vida, que comenzó en nuestro planeta hace unos 4.500 millones de años, se las arregló bastante bien con sólo organismos unicelulares durante unos 3.500 millones, de años. Hace apenas (“apenas” en términos geológicos o evolutivos, claro, aunque sea una cifra prácticamente inimaginable para nosotros) mil millones de años aparecieron los organismos pluricelulares con la consecuente división del trabajo en distintos tejidos y órganos especializados.

A partir de allí, el relativamente sencillo y bucólico panorama unicelular sufrió profundas y continuas alteraciones. Vinieron las plantas y los animales, artrópodos y helechos, peces y algas, flores y velociraptores, abejas y lobos, gusanos y primates. Todos resultado de que en algún momento dado, de un modo que la biología evolutiva lucha por comprender, algunos animales unicelulares descubrieron la forma de trabajar juntos y, efectivamente, unirse, pegarse unos a otros para formar organismos de tremenda complejidad.

Claro que las células de nuestro cuerpo, y las de todos los seres pluricelulares, están unidas entre sí. Y tan bien unidas que resulta sumamente difícil separarlas. De hecho, el intento suele resultar en el desgarre de las paredes y la muerte de las células.

Diría uno que están unidas por un pegamento potentísimo.

Y así es. Los tejidos se mantienen unidos gracias a diversas proteínas que funcionan como “pegamento”. Estas proteínas basadas en azúcares, o glicoproteínas, son las cadherinas, integrinas, selectinas, las adresinas y las del tipo inmunoglobulina. Gracias a ellas, suelen decir los biólogos, no somos simplemente una masa gelatinosa. O menos.

Cada una de estas familias de proteínas incluye numerosas formas distintas que actúan en distintos tejidos de distintos seres vivos. Así, por ejemplo, las cadherinas son proteínas que no se encuentran en las plantas u hongos, sino sólo en los animales (con una excepción que mecionaremos más adelante). Las células de nuestra piel utilizan como adhesivo la E-cadherina, que es la más estudiada de esta familia, mientras que la N-cadherina está presente en células nerviosas y musculares.

Llamar “pegamento” a las moléculas de adhesión celular es una simplificación útil. La realidad es bastante más compleja. Las cadherinas, por ejemplo, que son largas proteínas que pueden estar formadas hasta por 748 aminoácidos, en realidad se extienden desde el interior del protoplasma celular, cruzando la membrana de la célula para extenderse más allá de ella. El extremo que queda fuera de la célula se une al extremo de otra molécula de cadherina de la célula adyacente, como los dos lados de una cremallera.

Las moléculas de adhesión celular se pueden dividir entre las que actúan como cremalleras, uniéndose a otras iguales a ellas (uniones homofílicas) y las que se unen a otras diferentes, como los dos lados del velcro, llamadas por lo mismo uniones heterofílicas. Hay un tercer grupo que se une a una molécula de enlace que actúa como eslabón de unión entre las dos moléculas adhesivas.

Las moléculas de adhesión celular no tienen la única función de servir de unión, sino que intervienen activamente en la comunicación entre las células. Para que un tejido funcione como tal, sus células no sólo deben estar unidas, deben trabajar al unísono, y estas moléculas, tan poco conocidas fuera del laboratorio de biología molecular, permiten que lo hagan al disparar cambios bioquímicos, alterando el metabolismo de la célula, señalizando la actividad de los genes y la fisiología de la célula según las otras células a las que estén unidas.

La relevancia de estas proteínas se puede ver a través de un experimento en el cual se disasoció un embrión de pollo separando las células individuales que lo formaban. Estas células se mezclaron y se colocaron en un medio de cultivo. Lo que se observó fue que las células tendían a reagruparse de acuerdo con el tejido del que habían sido parte. Esta reagregación que da la impresión de que el embrión se tratara de recrear como un experimento de película de ciencia ficción se debe a que las células se unían de acuerdo a las moléculas adhesivas específicas de los tejidos originarios.

Las excepcionales características de estas proteínas permiten suponer que deben tener funciones relevantes en procesos tales como la defensa inmune y la reparación de los tejidos lesionados e, incluso, que puedan darnos inforrmación sobre la proliferación y metástasis de las células cancerosas, pues la migración de las células cancerosas depende de su capacidad de separarse del tejido al que están unidas, lo que implica reducir o anular la expresión de las cadherinas.

Se ha observado que las cadherinas se suprimen en un 45% de cánceres de diversos órganos, y el avance de tumores como los de mama o vejiga está asociado a la pérdida de adhesión celular por medio de la E-cadherina. La medición de la E-cadherina podría ser además una ayuda diagnóstica para identificar tempranamente algunos tumores, cuando aún pueden tratarse con relativa facilidad.

La función de las cadherinas en la evolución ha sido confirmada por un estudio de 2007 de investigadores de la Universidad de California en Berkley, que informaron del hallazgo de genes de cadherinas en coanoflagelados, considerados los más cercanos parientes unicelulares de los animales. Según los investigadores, “el descubrimiento de diversas cadherinas en los coanoflagelados sugiere que las cadherinas pueden haber contribuido a los orígenes metazoarios”. Esto sugiere que parte del secreto de nuestra evolución está en el humilde, aunque complejo, sistema de adhesión que permitió a las células asociarse para, permitiéndonos la metáfora, aspirar a más.

Moléculas adhesivas y aprendizaje

Muchas moléculas de adhesión celular, como la N-cadherina, estáan implicadas en las uniones sinápticas, los puntos donde se transmite la información nerviosa entre las neuronas. La proteína llamada NCAM parece jugar además un importante papel en el aprendizaje y otros aspectos de la actividad cognitiva.

mayo 07, 2011

Baja estatura, genética y sociedad

Seneb and wife statue
El tejedor Seneb y su familia, escultura
de la 4ª dinastía de Egipto
(Foto © de Jon Bodsworth, usada con permiso,
vía Wikimedia Commons
La estatura desusadamente baja ha llamado la atención de todas las culturas. Entenderla, enfrentarla y aceptarla son fenómenos más recientes.

La estatura es una característica humana muy variable. La persona más pequeña conocida, el indostano Gul Mohammed, medía 57 centímetros, casi la quinta parte del hombre más alto, el estadounidense Robert Pershing Wadlow con sus 2,72 metros. Ambos casos extremos sufrían de trastornos patológicos. Pero aún sin éstos, la estatura humana “normal” puede ir de menos de 1,50 metros en el caso de los pueblos pigmeos de todo el mundo hasta los más de 2,30 metros de las estrellas más altas del baloncesto. Esta variabilidad se ve acompañada de una actitud social y psicológica ante la estatura que ha sido objeto de estudios que indican que ciertamente existe una “discriminación por estatura” que favorece a los más altos.

Pero las estaturas desusadamente bajas suelen deberse a causas patológicas. Es lo que conocemos como enanismo, palabra que, sin embargo, muchas personas rechazan por considerarloadenigrante, o por sus referentes literarios y de la cultura popular, que implican rasgos psicológicos poco atractivos o cierto infantilismo.

La baja estatura, sin embargo, no es en sí una enfermedad, sino sólo una expresión que puede resultar de más 200 patologías distintas que tienen diversas sintomatologías, causas y efectos. Por lo mismo, no tiene una “cura” en sí misma.

La excepción es la baja estatura provocada por la insuficiencia de la hormona del crecimiento humano, el “infantilismo hipofisiario”, donde el cuerpo conserva las proporciones infantiles durante toda la vida. Esta afección ha desaparecido en parte del mundo gracias a la hormona del crecimiento humano.

La acondroplasia es la forma más común del enanismo, con una media de aproximadamente 1,30 metros entre los hombres y 1,23 metros entre las mujeres. Se trata de un trastorno genético en el cual los huesos largos, los de las extremidades, están poco desarrollados, especialmente en los brazos y muslos, las partes cercanas al tronco que, por su parte, es de proporciones normales con una curvatura espinal pronunciada; la cabeza es grande en proporción al resto del cuerpo, frente prominente y la parte media del rostro poco desarrollada. Todo ello da un aspecto característico a los acondroplásicos que no significa, sin embargo, ningún menoscabo en sus capacidades intelectuales o afectivas, ni en la duración de su vida, que puede ser perfectamente normal y plena.

Este aspecto característico está presente ya en el vasto panteón del antiguo Egipto, que incluía varios dioses que se representaban como enanos. Es el caso de Ptah, creador del universo, o de Bes, dios del amor, la sexualidad y el parto. Las personas de talla baja eran comunes y parte activa de la sociedad, como lo demuestran las más de mil representaciones estudiadas por la arqueóloga Veronique Dasen, entre ellas la del jefe tejedor Seneb, su esposa, la princesa Sentyiotes y sus dos hijos. Tenemos también la recomendación plasmada en el manuscrito de la XIX dinastía, ‘Instrucciones de Amenemope’ a su hijo, a quien recomienda no burlarse de los enanos.

Pese a ser uno de los defectos congénitos más comunes y bien conocidos en todas las culturas, sus aspectos médicos y fisiológicos, no se empezaron a conocer sino hasta las décadas de 1960 y 1970. El estudio de la acondroplasia, que recibió su nombre a fines del siglo XIX, ayudó al estudio de las placas de crecimiento de los huesos, su morfología y su bioquímica en la década de 1980, pero su causa no se conoció sino hasta 1994, cuando la identificó un grupo de científicos bajo la dirección del Dr. John Wasmuth, quien también descubrió las causas genéticas de la enfermedad de Huntington y la atrofia muscular espinal.

La acondroplasia es el resultado de una mutación en el gen FGFR3, abreviatura de las siglas en inglés del receptor 3 del factor de crecimiento fibroblástico en el cromosoma 4. Esta mutación en concreto (este gen puede presentar otros tipos de mutaciones) provoca que el cartílago no se convierte en hueso de manera normal durante el desarrollo en los huesos largos, entre otros problemas.

La acondroplasia es un defecto dominante, es decir, que basta que el gen mutado se reciba de uno de los progenitores para que el descendiente padezca el trastorno. De hecho, si ambos cromosomas del par 4 exhiben la mutación, los niños suelen nacer sin vida o fallecer poco después del alumbramiento. Sin embargo, la gran mayoría de los casos de acondroplasia, alrededor de un 80%, no son heredados de los padres, sino que se trata de mutaciones espontáneas, por lo que una pareja con cromosomas normales puede tener un hijo acondroplásico debido a mutaciones en las células germinales, generalmente los espermatozoides.

La acondroplasia no es una afección privativa del ser humano, aunque en otros animales se presenta en formas distintas. Entre los perros, por ejemplo, los miembros cortos, la reducción del maxilar y la de la mandíbula aparecen de modo independiente. Así, los dachsund o teckel se caracterizan por la acondroplasia en los huesos largos, sus patas característicamente cortas, mientras que el pug muestra acondroplasia en maxilar y mandíbula, pero el boxer y el bulldog se caracterizan por tener una mandíbula acondroplásica. Esto ha determinado que no se puedan utilizar fácilmente modelos animales para estudiar la acondroplasia en humanos.

Aunque se pueden tratar algunas complicaciones de la acondroplasia y aumentar en cierta medida la estatura de los niños con esta afección utilizando hormona del crecimiento humano, la investigación se centra en tratamientos que puedan controlar sobreactivación del receptor 3 del factor de crecimiento fibroblástico o, en un futuro indeterminado, la posibilidad de tratar la causa subyacente mediante ingeniería genética.

Entretanto, la medicina se ocupa principalmente de que los acondroplásicos y quienes padecen otras formas de enanismo disfruten una vida de más calidad combatiendo las complicaciones que pueden tener. Finalmente, las personas de talla baja no se consideran enfermos ni discapacitados, simplemente parte de la enorme variedad humana, y al resto de la sociedad le corresponde, sobre todo, aceptarlo así.

Pequeños y famosos

Diego Velázquez retrató a numerosos enanos con gran respeto y dignidad, desde el Niño de Vallecas, Juan Lezcano, hasta Mari Bárbola y Nicolás Pertusato, que tienen papeles protagónicos en Las Meninas. Memorables son tambíen el poeta británico Alexander Pope, la editora de ciencia ficción Judy Lynn-del Rey, el matemático e ingeniero Charles Proteus Steinmetz, el pintor Henri de Toulouse-Lautrec, el pianista de jazz Michelle Petrucciani o el genetista y sociólogo de la OMS, Sir Thomas Shakespeare.