En contra de lo que suponían los primeros modelos acerca del funcionamiento de la arquitectura mental, como la teoría modular de la mente de Jerry Fodor, el cerebro construye buena parte de nuestro conocimiento consciente de forma top-down, desde arriba hacia abajo, es decir, mediante el uso de la información precedente para contribuir a elaborar la nueva. Acaba de publicarse una evidencia más en ese sentido. El trabajo de Nima Mesgarani y Edward F. Chang, investigadores del Center for Integrative Neuroscience de la universidad de California (EEUU), aparecido en la revista Nature, avanza en las explicaciones de un fenómeno ya conocido de antemano: cómo hace el cerebro humano para oír —y entender—, en medio del barullo de una multitud de conversaciones (la condición que se denomina en términos técnicos cocktail party), lo que nos está diciendo nuestro interlocutor. Se sabía que la atención es el mecanismo cognitivo que interviene para que nos aislemos de las demás conversaciones convirtiéndolas en ruido que el cerebro casi elimina. Quienes, como yo, padecen de acúfenos —unos zumbidos que no provoca ninguna fuente exterior; están sólo en nuestro oído—, saben ya que en muchos casos sólo se oyen cuando se piensa en ellos. Pero, ¿cómo se las arregla el cerebro para hacer eso mismo cuando existe tanta semejanza entre la charla directa y el ruido ambiental?

Mesgarani y Chang utilizaron para su experimento pacientes a los que se había implantado una manta de electrodos sobre el córtex como parte del programa quirúrgico destinado a combatir la epilepsia. El registro directo permitió establecer qué zonas muy precisas del cerebro —poblaciones de neuronas— se activaban en las condiciones experimentales, o sea, al oír instrucciones que provenían de un solo locutor frente a las que suponían una mezcla de dos voces de personas de sexo distinto, con diferencias fácilmente identificables. Se instruyó a los participantes para que respondiesen a preguntas que implicaban atender a uno solo de los dos locutores, y se registró su actividad cerebral en el rango de las ondas de 75 a 150 herzios, la gama de frecuencias que se sabe relacionada con la percepción del habla.

Los resultados obtenidos por Mesgarani y Chang indican que el cerebro de los sujetos de su experimento discriminó por completo la voz objeto de la atención de aquella otra que debían ignorar. Y eso sucedía en el instante mismo en que comenzaba la tarea auditiva. Más que un mecanismo de recogida de los sonidos ambientales, el proceso parece una construcción activa, top-down, de lo que interesa oír. Los científicos consultados por la revista, tras aplaudir el trabajo, se plantearon la necesidad de repetir el experimento en condiciones más reales, como en un cocktail party de verdad. De momento, la necesidad de tener implantada una manta de electrodos bajo la pared del cráneo lo hace imposible. Pero más difícil se me antoja no oír mi acúfeno, cuando está ahí todo el tiempo.