Artículos sobre ciencia y tecnología de Mauricio-José Schwarz publicados originalmente en El Correo y otros diarios del Grupo Vocento

Los videojuegos y los videojugadores

¿Y si en lugar de prepararse para la lucha, el joven que juega en el ordenador está mejorando sus habilidades, optimizando su agudeza visual y liberando su angustia?

A principios de febrero, un equipo de investigadores de la Universidad de Rochester anunció que un grupo de personas que jugaron un videojuego de acción durante algunas horas al día en el plazo de un mes mostraron una mejora de alrededor del 20% en su agudeza visual, mejorando su capacidad de identificar letras presentadas en amontonamientos, una prueba similar a algunas de las que se realizan en las clínicas oftalmológicas.

Este descubrimiento viene a sumarse a los muchos estudios que han demostrado una y otra vez que la práctica de los videojuegos tiene efectos positivos, como por ejemplo la mejora la coordinación visomotora, es decir, la concordancia entre el ojo y los movimientos de los músculos, una habilidad esencial para realizar correctamente numerosas actividades como la operación de maquinaria pesada, todos los trabajos manuales de operarios y artesanos y numerosos deportes, incluida la conducción de automóviles de Fórmula Uno, motivo por el cual hoy en día se usan videojuegos (más o menos enmascarados bajo el nombre de "simuladores") para ayudar en el entrenamiento de campeones como Fernando Alonso.

Apenas el 20 de febrero se informó de otro estudio en el que cirujanos especializados en laparoscopía del Centro Médico Beth Israel de Nueva York fueron estudiados por investigadores de la Universidad Estatal de Iowa. El resultado del estudio indica que los cirujanos que jugaban videojuegos al menos tres horas a la semana cometían 37% menos errores, trabajaban 27% más rápido y tenían notas 42% mejores que sus colegas en pruebas de habilidades quirúrgicas.

Así, ante las muchas afirmaciones, no siempre sin sustento, de que los videojuegos violentos pueden aumentar la violencia del "mundo real" de algunos de sus practicantes, algo que se ha vuelto parte de la cultura popular, hay también otros aspectos positivos que deben ser tenidos en cuenta ante esta forma de jugar, que aunque nueva en su forma no deja de ser sino la expresión de un aspecto esencial de nuestro comportamiento como especie.

Los estudiosos de la conducta animal y humana, como los psicólogos, los etólogos y los biólogos, han señalado con frecuencia que el juego parece ser una forma de preparación del animal para su vida adulta. Así, por ejemplo, los pequeños felinos juguetean con cosas empleando pautas conductuales muy similares a las que utilizarán para cazar, mientras que las crías de las presas, como los antílopes, juegan a correr y cambiar de dirección súbitamente, como lo harán el día de mañana para evitar ser víctimas de un depredador.

El caso del hombre no es distinto, aunque el proceso de neotenia nos ha dado características peculiares. La neotenia es la prolongación de la infancia (la humana es la más larga de todo el reino animal en proporción con la duración de su vida) y el mantenimiento de algunos rasgos infantiles en la vida adulta, como es la capacidad de jugar. Por ejemplo, el más cercano aliado del hombre, el perro, como parte de su domesticación ha sufrido también un proceso de neotenia que le permite seguir disfrutando el juego durante toda su vida, cuando el lobo abandona las conductas lúdicas al llegar a la edad adulta. Como ser capaz de jugar durante toda la vida, el hombre juguetón u homo ludens, busca continuamente formas distintas de divertirse, con juegos que ponen a prueba la memoria, la habilidad física (los deportes), la habilidad mental, la coordinación y muchas otras de nuestras características. Casi todo lo que hemos inventado lo hemos usado para jugar. Así, por ejemplo, las carreras de autos aparecieron muy poco después de la invención del automóvil, y, por supuesto, los juegos de ordenador surgieron casi al mismo tiempo en que los ordenadores se hicieron comunes, empezando en la década de 1970 con un ya casi olvidado tenis o ping-pong de vídeo en el que dos rayas hacían el papel de raquetas, un cuadrado actuaba como bola, y lo único que podía hacer el jugador era mover su raqueta hacia arriba y hacia abajo. Esa sencillísima disposición, sin embargo, bastó para crear el imperio de Atari, la primera empresa de videojuegos, que llenó el mundo de salas con juegos electrónicos.

Por supuesto, los videojuegos violentos tienen el defecto de ser, precisamente, violentos, pero ello no es forzosamente negativo. Noah j. Stupak, del Instituto de Tecnología de Rochester, señala que incluso algunos videojuegos de contenido violento "pueden actuar como una liberación de la agresión y frustración acumuladas". Por su parte, Daphne Bavelier, jefa del equipo investigador que hizo el estudio que ha demostrado mejoras en la agudeza visual entre quienes juegan videojuegos de acción dicen que "cuando las personas practican videojuegos están cambiando la ruta cerebral responsable del procesamiento visual". Sin embargo, es cauta: "Estos juegos llevan al sistema visual humano a sus límites, y el cerebro se adapta a ello. Ese aprendizaje se traslada a otras actividades y, posiblemente, a la vida cotidiana". Pero los efectos de este estudio pueden ir más allá, indicando la posibilidad, aún por explorarse científicamente, de que personas con déficits visuales como la ambliopía podrían mejorar su agudeza visual utilizando software de rehabilitación especial que reproduzca la necesidad que ofrecen los videojuegos de acción de identificar objetos con gran rapidez.

Lo que queda más claro es que aún hay mucho qué estudiar de los distintos aspectos de los videojuegos, desde sus historias, violentas o no, hasta sus características sociales, como si implican o no interacción de equipo, además de los aspectos que ponen a prueba en el jugador. Para ello, el equipo de Daphne Bevalier utilizará un laboratorio informatizado de realidad virtual de 360 grados, lo que Science Today llama "el sueño de un jugador de videojuegos", que está terminando de construirse actualmente en la Universidad de Rochester.

Aprender jugando, en la era del ordenador


No todos los videojuegos son violentos, como lo demuestra el éxito de muchos juegos benévolos y amables, pero existe también la visión de algunos de crear videojuegos de acción que sirvan para educar, sin que se note demasiado. La Federación de Científicos Estadounidenses acaba de lanzar el juego Immune Attack (Ataque inmune) cuyo objetivo es sumergir al jugador en los difíciles y complejos conceptos de la inmunología jugando en tejidos humanos contra infecciones virales y bacterianas, y atacándolas resolviendo problemas reales de la inmunología mientras disfrutan de acción útil e informativa. Podría ser el primero de muchos.

El principio de todo

En el principio hubo una gran explosión, después vinieron los físicos a tratar de entenderla, explicarla y preguntarse a dónde va.

Cronograma del universo y la sonda WMAP.
(Imagen D.P. de la Nasa, traducción de Luis Fernández
García, via Wikimedia Commons)
El origen de cuanto nos rodea es una de las preguntas esenciales de la humanidad. Todos los mitos comienzan con una visión de la creación del mundo o el universo. La filosofía y la ciencia también han enfrentado el problema que presenta la sola existencia de "algo". Hoy en día, la ciencia cuenta con una teoría desarrollada y fundamentada en las observaciones que hemos realizado, y que propone una explicación al origen del universo, la llamada "Teoría del Big Bang" o "Teoría de la Gran Explosión", que postula que hubo un momento preciso en el que se dio una gigantesca explosión en la cual se creó todo nuestro universo: la materia, el espacio y el tiempo. Esta idea se ha difundido desde los años 50, y la frase "big bang" es ya parte del habla común. Sin embargo, es oportuno señalar cómo se llegó a esta teoría y cómo se ha comprobado hasta permitirnos decir que es la mejor forma que tenemos para explicar el origen del universo.

Cuando no se sabía que las "nebulosas espirales" eran galaxias, se observó que dichas nebulosas se estaban alejando de la Tierra. Con base en esto y en los desarrollos de las ecuaciones de Einstein de la relatividad general de matemáticos como el ruso Alexander Friedmann en 1922, el sacerdote católico belga Georges Lemaître propuso en 1927 que el universo había comenzado como un "átomo primordial". Por entonces, el astrónomo estadounidense Edwin Hubble, que da su nombre al famoso telescopio orbital, había anunciado que las nebulosas eran galaxias muy lejanas, y en 1929 dio a conocer que el universo estaba en expansión, algo que era coherente con las ecuaciones de Einstein, pero también era una observación que confirmaba la teoría del "Big Bang". Si todo el universo estaba en expansión hacia todas partes a la vez, es lógico pensar que en un momento dado estuvo todo en el mismo sitio. Si pasáramos la película del desarrollo del universo hacia atrás, el universo se contraería hasta que, en un momento dado, que se ha calculado que ocurrió hace unos 13.700 millones de años, todo estaría concentrado en un mismo punto.

Había otras teorías de la física que pretendían explicar el universo, por supuesto, entendiendo "teoría" no como una suposición, especulación o conjetura, que se como utilizamos la palabra en el habla cotidiana, sino como la plantea la ciencia: un modelo de la forma de interacción de un conjunto de fenómenos naturales capaz de predecir acontecimientos y observaciones, y que está planteado de tal forma que pueda demostrarse que es falso en caso de que lo sea. De hecho, las ecuaciones de Friedmann eran compatibles con dos teorías, la del "estado estable" de Fred Hoyle y la del "átomo primordial". Para saber cuál describía mejor al universo, había que esperar nuevos datos.

La teoría del Big Bang implicaba que el universo, en sus primeras etapas, era un plasma muy caliente de fotones, electrones y bariones (familia de partículas subatómicas que incluye a los protones y neutrones). Al expandirse y enfriarse el universo, siempre según esta teoría, los fotones de aquel plasma se disociarían de la materia y se enfriarían, y por tanto debería existir una radiación cósmica de microondas de fondo en todo el universo observable, formada por dichos fotones, con características muy precisas. En 1965, los astrofísicos Arno Penzias y Robert Woodrow Wilson realizaron observaciones de radioastronomía que mostraban un exceso de temperatura en la radiación que, se demostró pronto, no era sino la observación directa de la radiación cósmica de fondo, una radiación que era exactamente como la había predicho la teoría del Big Bang. Este descubrimiento le valió el Nobel de Física a Penzias y Wilson en 1978. En los años 70, mediciones más finas de la radiación cósmica de fondo establecieron que era, efectivamente, el "eco" o los restos observables de la gran explosión, y sus características eran tales que ninguna otra de las teorías desarrolladas hasta el momento podían explicar. Desde entonces, los avances tecnológicos han permitido hacer observaciones adicionales que confirman la teoría del Big Bang y amplían lo que sabemos. Al mismo tiempo, como suele ocurrir en la ciencia, abren una enorme cantidad de nuevas interrogantes que antes ni siquiera sabíamos que existían, como la existencia de la "energía oscura".

La parte más extraña de la teoría del Big Bang es, sin duda, lo que había al momento de la gran explosión. Si el tiempo y el espacio se iniciaron precisamente al ocurrir la explosión, la pregunta "¿qué había antes allí?" carece de sentido, porque no había un "antes" al no existir el tiempo. Queda por saber qué hizo explosión para dar origen a nuestro universo. La teoría de la relatividad general dice que se trataría de lo que los físicos llaman uns "singularidad", un punto donde las cantidades que se usan para medir el campo gravitacional (la curvatura del tiempo o la densidad de la materia) se vuelven infinitas. Los agujeros negros son pequeñas singularidades, de modo que se puede decir que el universo comenzó con un enorme agujero negro en el que estaban compactados la materia, el tiempo y el espacio. Por qué hizo explosión tal singularidad es una pregunta que, sin embargo, aún estamos muy lejos de poder intentar responder con alguna certeza.

Lo mismo pasa con lo que le ocurrirá después al universo, aunque la solución es, en principio, más sencilla, pues depende de la cantidad de materia que contiene y de su velocidad de expansión, y hay dos especulaciones principales. Si tiene suficiente masa y una velocidad correspondientemente "lenta", la expansión del universo se detendrá en algún momento y empezará el "gran aplastamiento", con el universo contrayéndose hasta convertirse nuevamente en una singularidad. Pero si la velocidad es demasiado alta y la masa insuficiente, el universo se expandirá eternamente, desordenándose cada vez más de acuerdo con las leyes de la termodinámica y enfriándose cada vez más, acercándose al cero absoluto, posibilida que se llama, como corresponde el "gran congelamiento". O podría pasar otra cosa que hoy ni siquiera nos podemos imaginar.

El nombre era una broma


En 1949, Fred Hoyle se refirió burlonamente a la teoría del "átomo primordial" de Lemaitre como "this big bang idea" ("esta idea de una gran explosión"). A Hoyle le pareció que su chiste era bueno para denigrar la teoría opositora y lo repitió en 1950. Al poco tiempo, no sólo se demostraba que la teoría de Lemaitre era la más precisa, sino que el nombre "big bang" era adoptado por los físicos como una descripción sencilla, corta y clara de lo que ocurrió en ese primer instante.

Nuestros primos los neandertales

Poco antes de la publicación de El origen de las especies, un profesor y un anatomista alemanes anunciaban el hallazgo de unos restos que cambiarían la visión que tenemos de nuestra historia como especie.

Tenían rituales de enterramiento, lo que revela que estaban conscientes de la muerte; tenían capacidad para comunicarse mediante el habla, aunque su lenguaje es un enigma; cuidaban de sus enfermos y alimentaban a los ancianos, demostrando una clara solidaridad; eran capaces de algunas expresiones artísticas, como la creación de adornos corporales; poseían la tecnología del fuego, de la construcción de albergues y del trabajo de la piedra con la que fabricaban armas para la cacería, en especial lanzas; eran, en resumen, lo que llamaríamos humanos... pero no éramos nosotros, no eran nuestros antepasados, eran los miembros de la especie Homo neanderthalensis o neandertales, primos cercanos de nuestra estirpe que desaparecieron hace alrededor de 24 mil años y que demuestran que las características humanas esenciales no son privativas de nosotros, del Homo sapiens, pese al gusto que tenemos por sentirnos especiales dentro del mundo natural.

Por nuestra parte, cierta arrogancia antopocentrista nos ha llevado a identificar al neandertal no con un humano primitivo, sensible, comunicativo y que lloraba a sus muertos, sino con un bruto de caricatura, insensible, idiota, retorcido y sucio, quizá por temor a vernos en el espejo que nos ofrece como una criatura que compartió el planeta con nosotros y de cuya desaparición quizá tiene algo de responsabilidad esta humanidad.

Los malentendidos sobre el neandertal se empezaron a dar desde el descubrimiento de los primeros restos de esta especie que se estudiaron (aunque hoy sabemos que se habían encontrado antes otros a los que no se les dió importancia): un casquete craneal, dos fémures, tres huesos del brazo derecho, dos del izquierdo, parte del íleon, fragmentos de la clavícula y algunas costillas que encontraron unos trabajadores de una cantera en el valle Neander cerca de Düsseldorf en 1856. Entregaron el material al profesor y naturalista aficionado Johann Karl Fuhlrott, que los identificó primero como restos de un oso y los entregó al anatomista Hermann Schaffhausen para su estudio. Un año después, ambos hombres anunciaron el descubrimiento. Primero se les identificó como pertenecientes a un jinete cosaco, pero poco a poco surgió la idea de que eran europeos antiguos, aunque no fue sino hasta principios del siglo XX cuando se propuso que no eran ancestros de los humanos actuales, sino una especie separada.

Quienes ofrecieron esta idea se basaron en el especimen de La Chapelle-aux-Saints, el cual, lo sabemos hoy, al momento de morir era un anciano con artritis crónica en todo el cuerpo, afección que deformó sus huesos. Los científicos se basaron en esos huesos y en los prejuicios antropocentristas antes mencionados para asegurar no sólo que tenía una inteligencia similar a la de los simios, sino que caminaba igual que éstos. Los simios no son bípedos, sino que se trasladan sobre sus cuatro extremidades, y al asumir una postura erguida lo hacen con dificultad, exactamente como en los medios se caricaturiza a cualquier hombre primitivo: encorvado, con las piernas combadas, los brazos colgando hacia adelante... todo ello rechazado por el conocimiento que tenemos de esta especie y del los homínidos en general. Nuestra estirpe camina erguida sobre sus dos piernas desde hace unos cuatro millones de años. Los australopitecos de entonces, los neandertales y todos nuestros antepasados durante estos millones de años caminaban y corrían de manera nada distinta a la de las supermodelos, sin curvaturas, retorcimientos ni piernas zambas.

Pero el neandertal venía a ocupar el lugar del mítico "hombre salvaje", del "humano degenerado", a ojos de algunos, que asumía una actitud animalesca y brutal, y tal caracterización se ha sostenido pese a los avances del conocimiento. Y pese a que hoy sabemos que un neandertal bien podría pasearse entre nosotros como un personaje bajo de estatura, de nariz tremendamente ancha, sin barbilla, con el cráneo más bien aplanado y un pronunciado arco supraorbital, pero nada que no asumiéramos como esencialmente humano, no simiesco.

Los neandertales están presentes en Europa al menos desde hace 150 mil años, lo que significa que vivieron las duras épocas glaciales (y sobrevivieron a ellas). La llegada de los cromañones (es decir, de nuestra especie) a sus territorios hace 45 mil años marcó el principio del declive neandertal, que llegó a su fin hace alrededor de 24 mil años al desaparecer las últimas poblaciones de regiones como Croacia, Crimea y la Península Ibérica. Esto, sin emabrgo, no demuestra que el cromañón haya sido la causa de la desaparición de los neandertales, pues ésta sigue siendo sujeto de profundos debates. Varias veces, la más reciente a cargo del doctor Erik Trinkaus de la universidad de Washington, a fines de 2006, se vuelve a sugerir que los neandertales fueron asimilados a los cromañones y que, en alguna pequeña medida, su composición genética es parte de la nuestra, aunque la secuenciación del genoma neandertal parece haber excluido definitivamente esa posibilidad.

Sin embargo, mientras se realizan nuevos descubrimientos (como los que se espera conseguir en uno de los yacimientos de Atapuerca) y nos acercamos más al conocimiento de las causas que hicieron que desaparecieran los neandertales, hay elementos para la reflexión. La existencia de un ser humano que sin embargo no pertenece a nuestra especie tiene un significado profundo en cuanto a la comprensión de lo que significa ser producto de la evolución, y es un golpe quizás muy necesario a nuestro orgullo como, según creen algunos, "cumbre de la evolución". Los neandertales y nosotros nos separamos de un ancestro común hace poco más de medio millón de años, y cuando nos volvimos a encontrar en las llanuras europeas teníamos más o menos el mismo nivel de avance tecnológico y más o menos la misma organización social. Y sin embargo, una de las dos especies desapareció mientras la otra sufrió nuevos cambios que la llevaron en unos miles de años a la creación de las primeras civilizaciones, cuando las cosas podrían haber ocurrido exactamente al revés. El neandertal no es sólo un primo y un espejo, es el ser que podría ser nosotros.

¿El neandertal se extinguió en Carihuela?


Un estudio publicado a fines de enero de este año por Santiago Fernández y sus colegas, basado en los estudios de la cueva de Carihuela, sugiere que allí vivieron neandertales hace entre 28.440 y 21.430 años. De ser así, éste sería casi con certeza uno de los últimos enclaves neandertales, el umbral de la extinción de nuestros primos más cercanos.

Los niños salvajes y el lenguaje

La tragedia de los niños criados en aislamiento social nos permite profundizar en algunos de los aspectos del origen del lenguaje entre los humanos.

La loba amamantando a Rómulo y Remo, míticos niños
ferales fundadores de Roma. Altar de mármol de fines del
reinado de Trajano.
(Foto D.P. Marie Lan-Nguyen vía Wikimedia Commons)
Una cuestión esencial para la ciencia respecto de nuestra vida como especie es en qué medida el lenguaje y las capacidades intelectivas asociadas a él dependen de la genética y en qué medida del entorno social. Los experimentos que se podrían plantear para solventar esta cuestión implicarían el aislamiento de niños de su entorno social para analizar su desarrollo, algo éticamente inadmisible, aunque las leyendas de varias culturas aseguran que distintos monarcas lo han intentado con algunos de sus infortunados súbditos.

Algo similar a tal experimento ocurre con los niños que se crían con un mínimo de contacto humano o sin él, ya sea por desarrollarse solos, ser criados por diversos animales o ser víctimas de atroces prácticas como las que sufrió la niña "Genie" en Estados Unidos en los años 70, que vivió sus primeros trece años ignorada y atada a una silla y a una cama. La literatura popular ha idealizado a los niños criados en aislamiento, los llamados "niños ferales", en particular los que han sido adoptados por animales. Desde el mito fundacional de Roma, con Rómulo y Remo, amamantados por una loba, pasando por Tarzán y el Mowgli de El libro de la selva, al niño feral se le ha identificado con un estado idílico de estrecha asociación con la naturaleza, fina sensiblidad y agudo intelecto. Nada de eso, sin embargo, ocurre con los más de cien niños ferales conocidos, incluida la camboyana Rochom P'ngieng, perdida aparentemente a los 8 años y recientemente encontrada después de 19.

El lenguaje es uno de los grandes misterios de nuestra evolución. Considerado como una característica esencialmente humana, fue necesario que los paleoantropólogos descubrieran un hueso hioides de un neandertal para que se aceptara que esos primos nuestros también podían hablar. El hueso hioides o lingual es un hueso del cuello humano no articulado con ningún otro hueso que soporta la lengua y que es fundamental para el lenguaje humano complejo. El aparato fonador que produce nuestro lenguaje es una peculiaridad de la naturaleza, pero más lo son las estructuras neurológicas que lo sustentan. Nuestra capacidad de producir un lenguaje se concentra en la llamada "área de Broca", por el médico francés Jean Pierre Broca que la identificó. Se encuentra en un solo lado del cerebro (comúnmente el izquierdo) en el pliegue del lóbulo frontal, aproximadamente encima y delante de nuestros oídos. En esa zona se procesa la producción del habla y parte de la comprensión, aunque la mayor parte de la capacidad de comprensión parece hallarse en el "área de Wernicke", una estructura ubicada donde se encuentral el lóbulo temporal y el parietal, en el mismo hemisferio cerebral donde se encuentra la de Broca. Siendo parte de la corteza cerebral, estas dos áreas son estructuras "modernas" en términos evolutivos.

Los niños totalmente aislados desde la más tierna infancia y recuperados después de la pubertad no consiguen desarrollar plenamente lo que llamamos lenguaje. Así lo parecen demostrar casos famosos, como el de Víctor de Aveyron, encontrado en el sur de Francia en 1800, a una edad de aproximadamente doce años, quien pese a vivir 28 años más, aprendió a obedecer algunas órdenes habladas pero nunca dio señales de comprender el lenguaje como una estructura gramatical y, ciertamente, nunca consiguió hablar, aunque producía algunos sonidos distintivos. Kamala, hallada a los ocho años en la India junto con su hermana Amala de 18 meses (que murió poco después), logró apenas reunir un vocabulario de unas 40 palabras antes de su muerte a los 16 años de edad.

Una de las peculiaridades de la evolución humana es la indefensión que tienen los recién nacidos, así como nuestra prolongada infancia, un proceso conocido como "neotenia" que, se ha teorizado, se produjo entre los humanos dándonos, como individuos, un precioso tiempo necesario para aprender y formarnos en la cultura y sutilezas sociales peculiares de nuestra especie. Pero lo que parecen habernos enseñado los niños ferales es que sin el entorno social, esa preparación genética es inútil. Esto explicaría el fracaso de Joseph Singh, quien encontró a Kamala y Amala y que pretendía "liberar" a las niñas de las cualidades lupinas que, según él, impedían que surgieran sus cualidades humanas. Existe, por el contrario, un llamado "período crítico" o "período sensible" para el desarrollo del lenguaje, limitado a los años anteriores a la pubertad, y después de esta los cambios en el cerebro hacen que resulte extremadamente difícil adquirir la capacidad de comunicarnos mediante un lenguaje.

Lo que sabemos a partir de los niños ferales es, sin embargo, poco concluyente y suele sustentarse en otro tipo de experimentos y estudios para validarse. Primero, porque sólo hay algo más de cien casos reportados en la historia, y cada uno tiene peculiaridades difíciles de generalizar. Segundo, porque en muchos casos existe la duda de si los problemas de desarrollo reportados en niños ferales del pasado fueron producto de su crianza en aislamiento o bien los niños fueron abandonados o aislados precisamente por dar señales tempranas de algún problema de comportamiento, como podría ser el autismo (que se ha argumentado en el caso de Víctor de Aveyron) o retrasos mentales graves que no diagnosticaban correctamente en el pasado. Y también, como se ha podido demostrar en algunos casos, porque algunos casos son bulos o fraudes, como el de la "Ninfa de Nullarbor", una supuesta "niña canguro" que no era sino una joven modelo contratada por un hotel para hacerse publicidad y embromar a los turistas.

El cerebro humano necesita de estímulos para desarrollarse, y las neurociencias actuales han demostrado de manera sumamente gráfica cómo las conexiones neuronales se multiplican en cerebros sometidos a estímulos interesantes, atractivos y cercanos, mientras que la falta de estímulos ocasiona que el cerebro sea más pequeño y con malformaciones. En el debate entre la genética y el entorno, entre lo innato y lo aprendido, finalmente parece estar claro que ambos elementos son esenciales para hacernos lo que somos.

La afasia de Broca

La afasia de Broca puede presentarse como consecuencia de una lesión en el área de Broca. Se caracteriza por la incapacidad del paciente de crear oraciones gramaticalmente complejas. Los que sufren de esta afección hablan de modo "telegráfico" y utilizan pocas conjunciones, preposiciones o adverbios. Los pacientes saben que no se están comunicando correctamente, pues su comprensión del lenguaje generalmente es normal salvo en el caso de algunos tipos de oraciones de sintaxis muy compleja.