Revista de Investigación Educativa 7
julio-diciembre, 2008
ISSN 1870-5308, Xalapa, Ver
Instituto de Investigaciones en Educación, Universidad Veracruzana


 
Mirada de un cognoscitivista sobre los aportes de las técnicas de imaginología cerebral funcional: Algunas advertencias[1]
 
   
 

Raymond Bruyer

 

Desde hace aproximadamente diez años se tiene una admiración exagerada por las técnicas de imaginología funcional cerebral en neuropsicología cognitiva, particularmente en la actividad de investigación en sujetos sanos. En efecto, estas técnicas permiten visualizar las estructuras cerebrales que se encuentran activas mientras alguien está ocupado en realizar una tarea de la que conocemos más o menos bien las operaciones cognitivas que exige, por lo que estaríamos cerca de realizar los viejos sueños de la neuropsicología: la identificación de las estructuras cerebrales “responsables” de las operaciones mentales.

La ventaja es precisamente que se pueden aplicar a sujetos sanos y (casi) sin intervención de naturaleza invasiva. Antes no se podía estudiar esto más que en sujetos con lesión cerebral, lo que suponía muchos riesgos de interpretación (cf. Shallice, 1988/1995). Por una parte, cuando una región cerebral es destruida, nada autoriza a pensar que el resto del cerebro funciona normalmente. Se producen reorganizaciones funcionales en las regiones afectadas para “compensar” los efectos de la lesión; se trata de una manifestación de la plasticidad cerebral. Por otra parte, generalmente las lesiones no “respetan” los territorios funcionales. Por ejemplo, la obstrucción de una arteria entraña forzosamente el disfuncionamiento de todo el territorio irrigado por ella y puede englobar estructuras con funciones muy diferentes –lo que ha dado lugar a tentativas vanas de interpretación teórica de diversos “síndromes” neuro-psicológicos resultantes, aunque lo más frecuente es que se deban a los azares de la anatomía.

Claro que técnicamente se podía intervenir selectivamente por vía quirúrgica para lesionar o estimular eléctricamente una estructura bien precisa (neuro- y psico-cirugía) o para registrar ahí la actividad de las células nerviosas que la componen (electrofisiología); se podía también visualizar el estado de la red vascular cerebral después de la inyección de un producto específico en el sistema arterial (arteriografía). De cualquier manera, por razones éticas evidentes, estaba excluido poder realizar ese tipo de observaciones en sujetos sanos. Quedaba reservado para los pacientes –con fines de diagnóstico–, es decir, en sujetos cuyo cerebro no funcionaba normalmente y se estaba reorganizado, lo que nos remite a las dificultades de interpretación ya evocadas.

Hay que recordar que desde los años cincuenta y sesenta se dispone de la técnica de las “diferencias laterales” en sujetos con el cerebro desdoblado o cerebro-comisurotomizados (split-brain). Su principio reposa en la organización contra-lateral del SNC (Sistema Nervioso Central). Las informaciones sensoriales aferentes llegan al cerebro a nivel de áreas primarias situadas en el hemisferio del lado opuesto respecto del origen de esas informaciones (por ejemplo, el estímulo visual obtenido del hemicampo izquierdo activa las áreas visuales primarias en la región occipital del hemisferio derecho); lo mismo para la motricidad fina y precisa. Apoyándose en este principio, se pueden poner en evidencia asimetrías de desempeño en una tarea dada, según se presenten los estímulos en el hemicampo (visual o auditivo) derecho o izquierdo: por inferencia, una superioridad sistemática de desempeño de un lado, señala una superioridad del hemisferio contrario.

De cualquier forma, esta técnica es relativamente tosca en el plano cerebral porque sólo puede comparar un hemisferio con el otro. Por otro lado, si bien numerosas teorías han sido elaboradas para dar cuenta de las diferencias hemisféricas a partir de los resultados de este tipo de estudios, muchas críticas les han sido formuladas (para revisiones, ver Efron, 1990; Sergent, 1989). En efecto. Por una parte, esta lógica tiende a dar cuenta del funcionamiento de estructuras biológicas (los hemisferios) por medio de conceptos psicológicos (verbal/no-verbal, analítico/holístico, etc.) lo que constituye una deplorable confusión de planos. Por otra parte, se transforma generalmente en un razonamiento circular (“si tal tarea es mejor realizada cuando los estímulos son presentados en el campo derecho, es que es de naturaleza analítica”, mientras que no se dispone de un criterio independiente de la naturaleza analítica vs. holística de una tarea). Por esas razones, este método de diferencias laterales es menos utilizado actualmente, y ya no lo es como medio para poner en evidencia dobles disociaciones entre los procesos cognitivos.

El objetivo de este artículo es temperar un poco el entusiasmo bien natural de los neuropsicólogos por las nuevas técnicas de imaginología cerebral funcional, subrayando los límites –en particular metodológicos– que estas técnicas encuentran. Anotemos aquí que estas reservas ya han sido explicitadas, desde diversos puntos de vista, en otros textos de los que el presente artículo es sólo una breve síntesis (Chertkow & Bud, 1994; Dehaene, 1997; Frackowiak, Friston, Frith, Dolan & Mazziota, 1997; Jennings, McIntosh, Kapur, Tuviling & Houle, 1997; Papanicolau, 1998.; Posner & Raichle, 1994, 1997/1998; Price & Friston, 1997; Sergent, 1994). Remarquemos que existen debates de carácter epistemológico en cuanto a la cuestión de saber si el estudio de los correlatos cerebrales de las actividades mentales constituye una contribución interesante a nuestro conocimiento del funcionamiento “de la mente”: esas discusiones no son objeto de este artículo.

Las técnicas mismas van a ser brevemente descritas, sin entrar en las complejidades tecnológicas que les subyacen. Tres técnicas serán abordadas, las más frecuentemente encontradas en la literatura: la tomografía por emisión de positrones, la resonancia magnética funcional y los potenciales evocados. Los lectores informados habrán notado que, contrariamente a los usos comunes, los potenciales evocados son aquí considerados como una técnicas de imaginología cerebral funcional.

Mencionemos también que la perspectiva adoptada aquí es de orden pedagógico. En efecto, los profesionales en la materia están al tanto de las consideraciones que siguen porque se trata principalmente de explicar a un público amplio los límites de la interpretación de los datos de la imaginología funcional cerebral.

Las técnicas de imaginología cerebral funcional

La aparición de estas técnicas está estrechamente ligada a los desarrollos de la informática. Se debía disponer de potentes computadoras para realizar en poco tiempo los análisis complejos que estas técnicas requieren. Su primera etapa se puede ubicar en los setenta con el desarrollo del “escaner a base de rayos X” o “CT-scan” (para una presentación véase Posner y Raichle, 1994). En la radiografía, los rayos X son enviados sobre una región del cuerpo por un emisor único y desde un ángulo dado. Esos rayos son captados por el tejido que atraviesan de una manera proporcional a su densidad. En consecuencia, sólo los tejidos más densos –los huesos– serán visibles en la placa. El cerebro en particular no es visible en radiografía tradicional porque los rayos son absorbidos por el cráneo. La idea subyacente al CT-scan fue bombardear con rayos X el cerebro por muchos emisores simultáneamente y situados en ángulos diferentes respecto del órgano-objetivo: se “contorneaban” así las estructuras óseas y un registrador –un tomógrafo– podía registrar la zona que recibía el impacto máximo de los rayos X. Si los diferentes emisores estaban situados en el mismo plano, la zona de interés era así la equivalente de un corte o rebanada del órgano estudiado. Se podía enseguida desplazar el conjunto de los emisores a cierta distancia y registrar una nueva capa, paralela a la precedente. Poco a poco, podía uno visualizar la totalidad del órgano, por rebanadas sucesivas. Finalmente, a partir del conjunto de datos, la computadora podía entonces ofrecer imágenes del órgano en tres dimensiones, por reconstrucción informatizada.

Si el CT-scan fue el precursor de las técnicas contemporáneas de imaginología cerebral funcional –retomando los principios matemáticos e informáticos de base– se subrayarán algunas limitaciones. Para comenzar está el inconveniente conocido de la exposición a los rayos X (las técnicas contemporáneas ya no usan rayos X). Después, está el problema de que la resolución (precisión) espacial era modesta. Las técnicas actuales incrementan esta precisión, permitiendo visualizar estructuras de algunos milímetros cúbicos. Finalmente, pero sobre todo, el CT-scan es una técnica anatómica y no funcional, porque permite describir el órgano pero no visualizar su actividad, su funcionamiento. Es precisamente ese el interés de las tres técnicas que se presentarán.

La Resonancia Magnética Nuclear (RMN, también llamada IRM por “Imaginología por Resonancia Magnética”) aunque sigue siendo anatómica en un primer momento, va a acrecentar la precisión espacial de las imágenes (para una presentación véase Frackowiak, et al. 1997; Le Bihand, 1997; Posner & Raichle, 1994). Se trata nuevamente de un análisis por capas del órgano estudiado –una tomografía– y después de una reconstrucción del órgano en tres dimensiones por análisis informatizado de las imágenes adquiridas en dos dimensiones (una vez más los sensores son dispuestos en un mismo plano alrededor del órgano-objetivo). De cualquier forma, lo que registra actualmente ya no son haces de rayos X. En efecto, el principio aquí es colocar el órgano analizado, por ejemplo el cerebro, en un potente campo magnético, lo que tiene por efecto orientar todos los átomos (de hidrógeno) de los tejidos en una misma dirección. Después se aplican, sobre una rebanada dada del cerebro, impulsos de ondas de radio, lo que provoca de parte de los protones del órgano una emisión de señales de radio registrables, cuyas propiedades dependen del número de átomos presentes, y por tanto, del carácter “funcional” de las estructuras analizadas. Con esta técnica no sólo una buena precisión es alcanzada –del orden del milímetro– sino que no había más que dar un paso para llegar a la resonancia magnética funcional, o IRMf. En efecto, la técnica permite hacer registros a intervalos de uno o dos segundos y, por lo tanto, seguir la evolución de las modificaciones del cerebro en función de las operaciones que efectúa. Se notará que la IRMf es una técnica que registra índices indirectos del metabolismo local del cerebro: la cantidad de señales registradas es función de la cantidad de oxígeno presente en la sangre venosa a la salida de la región cerebral analizada.

Históricamente, la tomografía por emisión de positrones (TEP) precedió a la IRMf como medida indirecta de los índices del metabolismo cerebral local, en particular del flujo sanguíneo regional (para una presentación véase Frackowiak, et al., 1997; Posner & Raichle, 1994; Syrota, 1997). Esta técnica presenta una excelente resolución espacial, pero su resolución temporal es mediocre porque es del orden del minuto. Reposa de nuevo en el principio de la tomografía (rebanadas) y en la posterior reconstrucción de imágenes tridimensionales, pero lo que registra es diferente. En efecto, se trata aquí de captar los positrones (o electrones positivos) o, de manera más precisa, los rayos gama emitidos por los positrones. Estos positrones están presentes en moléculas débilmente radioactivas inyectadas previamente en la circulación sanguínea del sujeto: en la actualidad, se utiliza generalmente agua (H2O) de la que el átomo de oxígeno (16O) es remplazado por un ión (15O). Se trata una vez más de una medida indirecta del metabolismo cerebral local. La cantidad de agua marcada registrada localmente es un reflejo del flujo sanguíneo en el seno de la región analizada. Teniendo en cuenta las diferencias interindividuales en la anatomía cerebral local, los estudios recurren generalmente a un acoplamiento entre TEP y IRM: se superponen las cartas funcionales generadas por la TEP y una imagen anatómica del cerebro del sujeto registrada por medio de la IRMf.

Mientras que la IRMf y la TEP registran una actividad que refleja el metabolismo cerebral local, los potenciales evocados (PE) constituyen una medida de la actividad eléctrica de las células nerviosas mismas (para una presentación véase Guérit, 1998; Pernier, & Bertrand, 1997). En esta técnica derivada de la electroencefalografía (EEG), son colocados numerosos electrodos de registro sobre el cráneo del sujeto, los que van a captar las señales eléctricas de las células subyacentes (con una sensibilidad que decrece con la profundidad intracerebral de las células que son la fuente). El principio de los PE es captar las activaciones neuronales generadas por la participación de un estímulo dado –y, eventualmente, por la respuesta que el sujeto debe aportar a él. Sin embargo, se trata de actividades eléctricas extremadamente débiles y anudadas en el EEG (el “ruido de fondo” de la actividad general del cerebro, que jamás es nulo). Para poner en evidencia esas activaciones específicas se va a requerir presentar un gran número de veces los estímulos y sumar las diferencias registradas de manera que aumente la “relación señal/ruido”. En efecto, se supone que el ruido de fondo es aleatorio mientras que la reacción al estímulo no lo es. Progresivamente, la acumulación va a hacer emerger la señal –la reacción al estímulo– del ruido de fondo que se anula. El método de los PE permite así seguir finamente la evolución temporal de la señal eléctrica captada por cada uno de los electrodos; además, la localización precisa del origen cerebral de esa señal presenta importantes dificultades. En consecuencia, esta técnica dispone de muy buena precisión temporal (del orden del milisegundo) pero de una precisión espacial mediocre. Por eso es complementaria de las técnicas IRMf y, sobre todo, TEP.

Esas diferentes técnicas de imaginología cerebral funcional evidentemente han sido puestas a punto para fines médicos: ayudar al diagnóstico, al tratamiento o a pronósticos de diversas patologías del sistema nervioso. De todos modos, por su carácter relativamente inofensivo y no invasivo, son igualmente aplicables en sujetos sanos. Permiten estudiar los mecanismos neurofisiológicos que sostienen las funciones elementales sensoriales y motrices, pero igualmente las funciones cognitivas elaboradas, más abstractas y no directamente observables (ver por ejemplo Bruyer, en prensa, para el reconocimiento visual de objetos). Es de este último campo de investigación –el estudio de las funciones cognitivas– de lo que se hablará aquí, y las advertencias son organizadas en tres secciones: las limitaciones técnicas, prácticas y financieras; las restricciones metodológicas y un cuestionamiento sobre la lógica interpretativa subyacente. Los tres rubros son distinguidos sólo con fines de exposición, pues no son independientes unos de otros.

Limitaciones técnicas, prácticas y financieras

Es necesario saber en primer lugar que estas técnicas son pesadas en el plano tecnológico, en particular la TEP y la IRMf: apelan a equipos multidisciplinarios y a una tecnología elaborada que conjuga los esfuerzos de especialistas de diversas disciplinas. Lo anterior significa que los centros de investigación equipados con estos métodos son relativamente raros y de acceso difícil. En efecto, los tiempos de utilización de las máquinas son cuidadosamente distribuidos entre las aplicaciones clínicas y la investigación y, en el seno de las actividades de investigación, entre diversos dominios en los que la neurología no es más que un componente. Esto significa también que recurrir estas técnicas es socialmente costoso. En consecuencia, a diferencia de los estudios comportamentales, la ética nos prohíbe hacer experiencias mal planificadas en el plano metodológico y de las que los resultados no podrían ser explotados en publicaciones científicas. Un corolario de este costo es que los estudios de IRMf se limitan generalmente a un pequeño número de sujetos y esto no deja de incidir en la obtención de las conclusiones que se pueden obtener –siendo el poder de las pruebas estadísticas (y por tanto de la posibilidad de generalización de los resultados) estrechamente dependiente (entre otras cosas) del número de sujetos de la muestra (sobre todo si se tienen en cuenta las diferencias individuales tanto en el plano de los desempeños comportamentales como sobre el de la anatomía cerebral).

A esta primera clase de restricciones hay que añadir otras que tienen que ver, en cierta medida, con el “confort del sujeto” y con las limitaciones que esto puede entrañar sobre las tareas cognitivas a las que se les puede someter. Así, el ambiente de la IRMf es muy ruidoso, lo que conduce a excluir todo un conjunto de tareas posibles; por otro lado, puede generar reacciones de claustrofobia. Igualmente, la adquisición de imágenes en TEP que se pueden realizar en un mismo sujeto, está limitada por la dosis total de radioactividad que es permitido inyectarle. En cuanto a la técnica de PE, requiere la exposición fastidiosa a numerosos estímulos, frecuentemente sin la menor tarea por efectuar. De nuevo, esto no puede más que afectar al funcionamiento cerebral, el que uno está precisamente ocupado en registrar.

Finalmente, no se pueden dejar de analizar las dificultades de los análisis. Están por una parte los análisis de las imágenes: indudables problemas afloran cuando se trata de identificar las estructuras cerebrales, sobre todo si se tiene en cuenta la importante variación interindividual de la anatomía cerebral (cf. Damasio, 1997) y del hecho de que la mayor parte de los estudios se apoyan en un atlas (el de Talairach y Tournoux, 1988) que se puso a punto a partir del cerebro de un solo paciente. Por otro lado, está la dificultad de establecer estadísticamente la activación de las estructuras cerebrales consecutiva a la tarea realizada por el sujeto. A este respecto, sería lamentable que los análisis continúen dependiendo de un programa que detenta una especie de monopolio en la materia, con los riesgos de distorsión sistemática que implica (SPM: Friston, Holmes, Worsley, Poline, Frith, & Frackowiak, 1995).

La dificultad de los análisis está ligada también a la naturaleza de lo que se registra: un incremento del flujo sanguíneo local, reflejo de la actividad sináptica de la región cerebral en cuestión (notemos que no es el caso de la técnica de PE). Esto hace aflorar muchos problemas (Sergent, 1994). Para comenzar, el SNC incluye sinapsis exitatorias e inhibitorias. En consecuencia, el aumento de la actividad sináptica no señala necesariamente un incremento de la contribución de la región examinada a la función estudiada. Enseguida y en la misma línea, una región puede incrementar su actividad simplemente porque la dificultad de la tarea lo exige, en la reiteración de ciertas operaciones y no porque ella indique el reclutamiento de una operación suplementaria particular; se puede además pensar que mientras más especializada sea una región para una operación, menos debe ser activada; finalmente, es plausible considerar que mientras más entrenado esté un sujeto o más habituado a efectuar una operación dada, menos debe ser activada la región cerebral que la sostiene. Todos esos argumentos indican que el flujo de actividad de una estructura cerebral no es forzosamente el reflejo directo de su contribución al proceso estudiado. En tercer lugar, los mismos análisis estadísticos son aplicados a todas las regiones cerebrales estudiadas, mientras que se puede concebir que no todas ellas tienen necesariamente el mismo flujo de actividad para contribuir de manera óptima a los procesos para los cuales ellas están especializadas. Finalmente, la escala temporal de las técnicas de imaginología cerebral (cf. infra) para nada autorizan a pensar que una región en la cual no se detecta ningún cambio sea una región inactiva: pueden producirse ahí incrementos y decrementos de actividades de las que la neutralización es una resultante que no es forzosamente captada.

Restricciones metodológicas

Una primera restricción metodológica importante de las técnicas de imaginología cerebral funcional se relaciona con la escala temporal de los eventos. Esta escala temporal es fundamental en (neuro)psicología cognitiva, porque la medida de la latencia de las respuestas –la cronometría mental– constituye la principal variable dependiente de los trabajos en los estudios comportamentales.

En una tarea cognitiva típica, se ocupa un poco menos de un segundo entre el comienzo de la presentación del estímulo y el desencadenamiento de la respuesta. Esta latencia incluye una proporción relativamente constante para el tiempo de reacción simple, que corresponde a la detección del estímulo y al envío de la señal motora hacia el órgano que produce la respuesta (la mano o el órgano fonador) así como el proceso de decisión y la elección de la respuesta por emitir, que explicita abiertamente la decisión tomada por el sujeto y que es el tiempo de reacción a elegir. En efecto, en una tarea cognitiva, el sujeto ha de tomar una decisión específica; por ejemplo, en una tarea de decisión léxica, debe decidir si la secuencia de letras presentadas forman o no una palabra; en una tarea de familiaridad, el sujeto debe decidir si el rostro que acaba de ver es conocido o no, etc. El conjunto de estos componentes constituye alrededor de la mitad de la latencia registrada (400 a 500 ms). El resto de esta latencia corresponde al tiempo que el sistema de procesamiento (el “sujeto”) necesita para completar el procesamiento cognitivo del estímulo. Entonces, en la mayoría de las tareas reportadas en la literatura, ese procesamiento está constituido de muchas operaciones cognitivas. Así, mínimamente, la detección del estímulo debe estar seguida de un análisis perceptivo de este último, y se sabe que este análisis está en sí mismo compuesto de muchas operaciones; además, generalmente, una operación de reconocimiento debe continuar con una comparación entre la representación obtenida del análisis perceptivo y una representación perteneciente a un registro en la memoria. En consecuencia, si uno se interesa en una operación cognitiva particular, que es generalmente el caso, se trata de un proceso cuya duración es del orden de algunas decenas de milisegundos.

Entonces, para hacerlo bien, el instrumento de medida debe tener una sensibilidad adaptada a la naturaleza del fenómeno que mide, lo que no es para nada el caso de las técnicas de imaginología cerebral funcional actuales. Así, por razones técnicas, las imágenes registradas luego de un estudio TEP resultan de la adquisición de una señal que debe durar aproximadamente un minuto, tiempo durante el cual el sujeto ha sido expuesto y ha reaccionado a 20 o 30 estímulos; teniendo en cuenta las consideraciones anteriores, es obvio que se trata de un tiempo mucho muy largo, porque en un minuto el sujeto ha realizado algunos centenares de operaciones cognitivas –o sea 20 o 30 veces más de aquellas que son objeto de estudio– incluyendo eventuales operaciones que nada tienen que ver con la tarea en curso. Por supuesto, como se verá más adelante, el método reposa fundamentalmente en la comparación entre muchas condiciones. En un diseño experimental bien construido, se van a comparar dos condiciones de las que se piensa que no difieren más que por una sola operación cognitiva, lo que es el objeto del estudio. Calculando la diferencia entre las imágenes adquiridas en estas dos condiciones, no deberían subsistir más que las activaciones cerebrales debidas a la operación estudiada. El problema es que el conjunto de las operaciones que no son parte del objeto de estudio constituyen la mayor parte de la señal, y que aquella que resulta de la operación que está bajo análisis no es más que una ínfima parte de aquél, mezclada en la actividad total de la que es bien difícil extraerla.

La técnica IRMf dispone de una unidad temporal de medida más interesante, porque es del orden de algunos segundos. Se notará de cualquier manera que se trata aún de una sensibilidad insuficiente, porque la operación bajo análisis no es más que una de las operaciones realizadas en ese lapso de tiempo; sin embargo, el método de sustracción de condiciones evocado más arriba se ha vuelto más pertinente en la actualidad. Falta decir que la variación inter-ensayos de un mismo sujeto colocado en la misma condición es importante. Es la razón por la cual los estudios comportamentales basados en latencias requieren el promedio de un gran número de ensayos para sustentar sus conclusiones en datos confiables. En consecuencia, idealmente, las imágenes de IRMf deberían ser el promedio o la suma de muchas imágenes del mismo sujeto colocado muchas veces en presencia del mismo estímulo, asumiendo que no se puede tratar de ensayos estrictamente sucesivos (porque esto induce sesgos evidentes de respuesta). De cualquier manera, en algunos segundos, el sujeto ha sido necesariamente confrontado a muchos “ensayos”. Para favorecer la emergencia de una señal analizable, se trabaja frecuentemente con muchos ensayos del mismo tipo, lo que puede entrañar diversos tipos de sesgo en la operaciones cognitivas efectuadas por el sujeto (sus ensayos son influidos al igual que las operaciones mentales que realiza entre los ensayos).

El método de IRMf relacionado a eventos (event-related fMRI) permite resolver una parte de esas dificultades (cf. D’Esposito, Zarahn, & Aguirre, 1999). En este paradigma el ritmo de los ensayos se hace bastante más lento, lo que permite observar las actividades cerebrales asociadas a cada ensayo. En consecuencia, este procedimiento permite presentar los ensayos sucesivos de una manera aleatoria. El método inicial necesitaba, en efecto, la presentación en bloque de muchos ensayos del mismo tipo entre cada adquisición de una imagen; tal procedimiento entraña sesgos en las operaciones mentales efectuadas por el sujeto. Además, el método inicial registraba forzosamente las operaciones (no controladas) efectuadas entre los ensayos, lo que no sucede en el caso del método relacionado a eventos.

En cuanto a la técnica de los PE, de alguna manera es demasiado sensible, porque su grado de precisión es del orden de los milisegundos. Evidentemente, se puede considerar que es mejor una técnica demasiado sensible que una muy poco sensible. De cualquier manera, puede esto conducir al fenómeno de la sobre-interpretación. En efecto, si se llega a encontrar una diferencia robusta y significativa del orden de 10 ms en la latencia de una onda registrada a nivel de un electrodo particular entre dos condiciones experimentales, los autores estarán tentados a interpretar este efecto pero, ¿qué significa un efecto de 10 ms desde el momento que uno se sitúa en el campo de los fenómenos cognitivos?

Otra restricción metodológica de las técnicas de imaginología cerebral funcional se relaciona con los diseños experimentales. Por razones evidentes ligadas a las especificidades individuales de la anatomía y de la fisiología cerebrales, son los mismos sujetos (además poco numerosos, como lo hemos visto más arriba) quienes deben ser sometidos a diferentes tareas cognitivas que componen un estudio. Pero se sabe que los diseños experimentales “intra-sujetos” y “repetidos” platean importantes problemas estadísticos durante el análisis y durante la interpretación de los resultados y, en consecuencia, la violación de la regla de independencia de las condiciones que se ha decidido comparar. Esto entraña igualmente dificultades en la planificación concreta del estudio porque se trata de controlar eventuales contaminaciones entre las condiciones. El orden de las condiciones experimentales debe entonces ser cuidadosamente estudiado y variado entre los sujetos, cosa que no es obvio cómo hacer, desde que son pocos.

Es necesario saber que en la mayor parte de los estudios de PE y en buen número de estudios de IRMf el sujeto es expuesto a estímulos pero que no tiene ninguna tarea que realizar. Debe simplemente “mirar bien” (o escuchar), ya que se quiere captar el efecto sobre el cerebro de la exposición a diferentes tipos de estímulos (en los estudios más recientes se observa que el sujeto tiene ahora una tarea por realizar); de la misma manera en TEP y en IRMf, la condición experimental es frecuentemente comparada con una condición de base llamada “de reposo”, en la cual el sujeto no debe hacer nada. Esto plantea un problema en la medida en que el sistema cognitivo no permanece inactivo en presencia de los estímulos, incluso si no hay una tarea requerida. El problema es que se ignora lo que hace el sujeto y, además, que los diferentes sujetos sin duda no efectúan las mismas operaciones. Un ruido importante y, por definición, no controlado, se introduce en la señal que será después analizada e interpretada. Vale más forzar el sistema, imponiéndole una tarea a efectuar incluso si la elección de la tarea en cuestión es delicada. Felizmente, se constata después de algunos años que en la mayor parte de los estudios, los sujetos son actualmente sometidos a tareas que requieren la producción de una respuesta comportamental.

Mencionemos finalmente dos restricciones metodológicas inherentes a estos estudios y subrayadas por Sergent (1994). Por una parte, como en todo estudio cognitivo, el sujeto debe almacenar las instrucciones en memoria durante toda la experiencia. Esto tiene forzosamente un correlato cerebral susceptible de ser captado por la técnica de imaginología funcional, y la dificultad metodológica se orienta al hecho de que esta carga en memoria tiene el riesgo de no ser idéntica en las diferentes condiciones que serán luego comparadas. Por otra parte, está el carácter inevitablemente artificial de las tareas. Esto entraña dos consecuencias que pueden, ambas, marcarse como activaciones cerebrales que van a ser registradas. Para comenzar, se demanda al sujeto producir una respuesta que está lejos de ser la respuesta natural; por ejemplo, en estudios sobre el dolor, debe decir si hay dolor o no, pero no debe moverse, de suerte que las activaciones cerebrales registradas podrían no ser más que el reflejo del proceso de inhibición de la respuesta espontánea. Después, se sabe que ciertos procesos cognitivos son obligatorios incluso si la tarea no los invoca (no se puede impedir reconocer una palabra familiar aunque la tarea consista sólo en contar las vocales que contiene); en consecuencia, las activaciones cerebrales registradas podrían ser el reflejo de esos procesos que se piensan inoperantes en la tarea.

Límites de la lógica interpretativa subyacente

Mencionemos para comenzar, brevemente, una cierta controversia entre los psicólogos y los neurocientíficos. Generalmente, antes de pasar a las adquisiciones de la imaginología cerebral funcional propiamente dichas, se realiza la experiencia simplemente de manera comportamental, para asegurarse de que los efectos generalmente reportados en la literatura fueron bien observados. Por ejemplo, se verifica de manera comportamental que las palabras frecuentes son más rápida y eficazmente reconocidas que las palabras raras o que los rostros son mejor reconocidos cuando son presentados en el campo visual izquierdo que cuando son presentados en el campo derecho. Esta precaución tiene como objetivo evitar emprender una experiencia costosa sin estar seguros de los efectos que va a revelar. Enseguida, si las anteriores condiciones se cumplen, se procede a la misma experiencia (adaptada a la situación particular que supone la técnica de imaginología) pero registrando las activaciones cerebrales generadas por las diversas condiciones de la tarea. Es aquí donde nace la controversia, que no tiene actualmente solución. Para los psicólogos es importante reproducir los efectos comportamentales de los desempeños durante la adquisición [de imágenes] (una ventaja de las palabras frecuentes sobre las raras, una superioridad del campo izquierdo en el reconocimiento de rostros) a fin de asegurar las interpretaciones. Para los neurocientíficos, en cambio, una diferencia de desempeño comportamental entre las condiciones manifiesta una diferencia en el grado de atención del sujeto, lo que sesga las activaciones cerebrales registradas e impide una interpretación fiable: para estos investigadores, habría que observar diferencias de activación cerebral en función de las condiciones, siendo idéntico el desempeño comportamental a través de esas condiciones. El argumento utilizado aquí es entonces que una tarea que da lugar a más errores que otra es difícil, e invoca más la atención del sujeto que la otra tarea. Cada posición dispone de argumentos interesantes, y no se ve bien cómo tomar partido en el estado actual de nuestros conocimientos.

Además, los diseños experimentales usados en las técnicas de imaginología cerebral funcional están sustentados por la lógica de la cronometría mental y que no está desprovista de dificultades. En estos estudios, el diseño experimental mínimo incluye dos condiciones que no difieren idealmente más que por una sola operación cognitiva, de modo que la sustracción de las activaciones recogidas en la condición más simple, de aquellas recogidas en la condición que incluye la operación suplementaria, debe poner en evidencia las estructuras selectivamente reclutadas por esta operación. Así, se escogerá al comienzo la condición experimental –la que incluye la operación analizada– y después la condición control que debe ser punto por punto idéntica a la primera (incluyendo las etapas de detección de estímulos, la toma de decisión y la producción de la respuesta), salvo que está desprovista de la operación en cuestión. Por ejemplo, la condición experimental incluye las operaciones A+B+C+D+E, y si es la operación D la que es objeto de estudio, la condición control incluirá las operaciones A+B+C+E. La sustracción de las activaciones registradas en la condición control de las registradas en la condición experimental debería aislar lo que es específicamente producido por la operación D, porque (A+B+C+D+E) – (A+B+C+E) = D. En diseños más complejos, son introducidas la sustracción acumulada entre muchas condiciones experimentales, pero la lógica interpretativa permanece idéntica a la que se acaba de resumir.

Esta manera de razonar sostenía en realidad los primeros estudios de cronometría mental. Fue típicamente el procedimiento sustractivo propuesto por Donders (1868-1969). Según este autor, aplicando exactamente el procedimiento descrito más arriba se debía poder medir el tiempo que toma cada una de las operaciones mentales que intervienen en todo proceso complejo que incluye muchas operaciones. La evaluación de los trabajos puso, sin embargo, en evidencia la fragilidad de esta lógica, que tiene cuatro dificultades importantes. Para comenzar, este razonamiento se apoya en el postulado según el cual los procesos mentales son estrictamente secuenciales. Las operaciones mentales “se siguen”, y cada operación no comienza hasta que la precedente está completamente terminada y ha transmitido su producto (su output) a la operación siguiente, de la que constituye el input. No obstante, se ha mostrado abundantemente que las operaciones mentales podían perfectamente ser puestas en juego sin esperar el final de la operación precedente. Cuando una operación mental ha generado suficiente output, aún cuando no haya terminado, desencadena el inicio de la siguiente (lo que da lugar a procesos en cascada: McClelland, 1979). De manera más general, se ha mostrado ampliamente que muchas operaciones mentales pueden perfectamente ser completadas simultáneamente, en paralelo (cf. McClelland, Rumelhart, & Hinton, 1986). Una segunda dificultad del procedimiento sustractivo es que supone que tenemos un buen conocimiento y una buena definición operacional de las operaciones que entran en juego en un proceso mental complejo. Pero esto está lejos de ser el caso y las operaciones en cuestión, muy frecuentemente, son sub-especificadas, en el estado actual de nuestros conocimientos. En tercer lugar, la lógica sustractiva reposa en lo que se ha convenido en llamar postulado de inserción pura. En virtud de este postulado, toda operación mental se efectúa siempre de la misma manera, independientemente del proceso complejo del que sea parte. Así, la operación C en el proceso A, B, C, D, E sería estrictamente idéntica a la operación C en el proceso A, B, C, E. Sin embargo, actualmente se tienen razones para pensar que este postulado es erróneo: una operación dada es realizada en función del objetivo general del proceso y en particular puede ser afectada por la naturaleza de las operaciones posteriores (un fenómeno de influencia “de regreso” o descendente –arriba-abajo–); más generalmente, las operaciones mentales que componen un proceso complejo interactúan entre ellas y no se combinan de una manera simplemente aditiva. Finalmente, no es siempre evidente que una operación no sea efectuada en una tarea dada. Puede en efecto ser completada de manera automática o implícita, incluso si ella no es requerida en la tarea, como ya se ha indicado (para un ejemplo en imaginología cerebral véase Price, Wise & Frackowiak, 1996). Observemos que el conjunto de esas dificultades es transportable a la interpretación del funcionamiento cerebral si se admite, como lo hace la mayor parte de los autores contemporáneos, que este funcionamiento es sostenido por la actividad sincronizada de redes de conjuntos celulares conectados no por centros cerebrales espacialmente localizados, sino que cada conjunto puede participar en muchas redes diferentes.

En el dominio de la cronometría mental, Sternberg (1969 a y b) ha intentado remediar en parte estas limitaciones del método sustractivo de Donders (1868/1969), proponiendo el método aditivo. Es necesario entender bien que sólo un aparte de esas dificultades es tomada en consideración por la propuesta de Sternberg. También hay que saber que “aditivo” no debe ser tomado como el inverso de “sustractivo”. Sternberg ya no considera la cronometría mental como un método de medida de la duración de las operaciones mentales sino como un procedimiento que permite probar las disociaciones postuladas entre las diferentes operaciones, en el seno de un proceso cognitivo complejo. Así “aditivo” debe tomarse en el sentido estadístico del término, como el inverso de “interactivo”. En un análisis de varianza, dos factores (o variables independientes) tienen efectos aditivos sobre una variable dependiente (el desempeño) cuando no hay interacción entre ellos y sus efectos se suman. En este contexto, Sternberg propuso la lógica siguiente: si el efecto acumulado de dos factores manipulados por el experimentador es la suma de los efectos separados sobre el desempeño, es porque afectan a dos operaciones mentales distintas; además, si el efecto acumulado de los dos es menor que los efectos separados, es porque los dos factores han influenciado una sola y misma operación mental; en consecuencia, la aditividad de los efectos es un argumento que sostiene la disociación entre las operaciones. Tomemos un ejemplo ficticio: en una tarea de reconocimiento de palabras, puede hacerse variar la frecuencia de las palabras y la duración de la presentación de esas palabras. Supongamos que la frecuencia tiene un efecto de 50 ms sobre la latencia de las respuestas y que la duración de la presentación tiene un efecto de 70 ms. Si se hacen variar los dos factores simultáneamente y se observa un efecto acumulado de 120 ms, sin interacción significativa, entonces se tienen razones para pensar que la duración de la exposición y la frecuencia han afectado a dos operaciones mentales distintas: en el modelo cognitivo, se trataría del análisis visual para la duración y de la activación del léxico ortográfico de entrada para la frecuencia. Además, si el efecto acumulado hubiese sido de 80 ms, tal conclusión no podría ser establecida, ya que la frecuencia y la duración habrían afectado a una sola y misma operación. Notemos de nuevo que tales desarrollos podrían ser aplicados al funcionamiento cerebral. En particular, podrían contribuir a la interpretación de las actividades observadas en una región cerebral dada que sería afectada por dos operaciones diferentes, implicadas simultáneamente o no, en una misma tarea cognitiva.

Estas críticas de la lógica sustractiva se aplican igualmente a la imaginología cerebral funcional (ver, por ejemplo, Bookheimer, Zeffiro, Blaxton, Gaillard, & Theodore, 1995; Friston, Price, Buechel, & Frackowiak, 1997; Jennings et al., 1997; Price & Friston, 1997), donde han entrañado manipulaciones en la construcción de los diseños experimentales. En particular la no aditividad a nivel cognitivo tiene probablemente una contraparte cerebral, dada la abundancia de las conexiones recíprocas (en feedback) en el seno del sistema nervioso central. Así, Price y Friston (1997) han sugerido una nueva manera de concebir las experiencias, el método “conjuntivo”. En lugar de sustraer una condición control de una condición experimental de la que no difiere más que en una sola operación (lo que encuentra las diversas restricciones mencionadas más arriba), el método conjuntivo supone efectuar al menos dos sustracciones (y por tanto cuatro tareas diferentes), pero ejerce muchas menos restricciones que el método sustractivo en la elección de las tareas y en el plan de análisis estadístico. En efecto, basta que en cada sustracción se encuentre al menos la operación que es objeto del estudio: las activaciones cerebrales comunes a las diversas sustracciones –su conjunción– serán forzosamente aquellas que resulten de la operación estudiada, cualesquiera sean las eventuales interacciones entre operaciones en el seno de la tarea. Supongamos, por ejemplo, que interesa la operación D: las tareas 11 y 12 van a contribuir a la primera sustracción, las tareas 21 y 22 a la segunda; la tarea 11 incluye las operaciones A, B, D y E, la tarea 12 las operaciones A y E, la tarea 21 las operaciones B, C y D, y la tarea 22 la operación B; la primera sustracción pondrá en evidencia los efectos de las operaciones B y D, y la segunda aquellos de la operaciones C y D: las estructuras activadas durante cada una de las dos sustracciones no podrían ser más que el resultados de la operación D.

Finalmente, es necesario subrayar dos dificultades interpretativas suplementarias, ligadas a la naturaleza del fenómeno registrado (Sergent, 1994). La primera no se aplica a los PE. Incluso si el flujo sanguíneo que irriga un hemisferio puede incrementarse en función de la tarea en curso, la cantidad total de sangre que llega al cerebro es relativamente constante; entonces, si se constata un incremento del flujo en ciertas regiones, debe acompañarse de una disminución del mismo en otras. En consecuencia, en la sustracción clásica entre una condición experimental y una condición control, es posible observar un aumento aparente de actividad en una región durante la condición experimental simplemente porque ella era el punto de una desactivación durante la situación control. La segunda dificultad se relaciona con el hecho de que las técnicas de imaginología cerebral funcional no son capaces de distinguir las estructuras cerebrales cuyo aumento de actividad significa que son absolutamente necesarias para la operación mental estudiada, de aquellas cuyo aumento de actividad significa simplemente que participan en esta operación. Por ejemplo, diversos estudios de imaginología utilizan los rostros como estímulo, mostrando una implicación del gyrus fusiforme izquierdo. Sin embargo, los estudios de pacientes cerebrolesionados indican que esta región puede ser dañada sin que entrañe un déficit en el procesamiento de los rostros.

Epílogo

No se trata aquí de concluir, en el sentido propio del término. En efecto, las técnicas que han sido evocadas están en pleno desarrollo y nadie conoce el futuro que nos deparan. El objeto de esta nota crítica era invitar a la prudencia, en el estado actual de estos métodos, en cuanto a sus potencialidades relativas a la identificación de las estructuras cerebrales subyacentes a los procesos cognitivos. Su mayor interés es evidentemente que son aplicables en sujetos sanos, pero el artículo ha subrayado las diferentes precauciones que se deben formular a su respecto, teniendo en cuenta la situación actual.

Dicho lo anterior, hay sin duda tres lecciones principales a extraer de esta evaluación. La primera es la complementariedad, al menos actualmente, de estas técnicas. En efecto, por una parte la TEP y la IRMf son medidas indirectas de la actividad cerebral porque captan las variaciones del flujo sanguíneo local, mientras que los PE son un registro directo de la actividad de las neuronas. Igualmente, la resolución espacial de la TEP es alta, pero débil su resolución temporal; la inversa se aplica a los PE. La IRMf se sitúa entre las otras dos técnicas en el plano temporal y a una resolución espacial análoga a la de la TEP. La segunda lección por extraer es que los progresos en este dominio serán funcionalmente dependientes de un refinamiento de la aproximación computacional en psicología cognitiva: la fecundidad de la corriente llamada “neuro-ciencias cognitivas” reposa ampliamente en un incremento en la precisión de los modelos cognitivos que construimos y, en particular, de una mejor operacionalización de los procesos, así como de sus inputs y outputs. En tercer lugar, es verosímil que las técnicas de imaginología funcional cerebral seguirán siendo complementarias del estudio de los desempeños cognitivos de pacientes cerebrolesionados: los futuros modelos deberán poder dar cuenta de las observaciones efectuadas según esas dos corrientes metodológicas.

Lista de referencias

Bookheimer, S. Y., Zeffiro, T. A., Blaxton, T., Gaillard, W. & Theodore, W. (1995). Regional cerebral blood flow during object naming and word reading. Human Brain Mapping, 3, 93-106.

Bruyer, R. (en prensa) Voyons voir ce cerveau. París: Odile Jacob.

Chertkow, H. & Bub, D. (1994). Functional activation and cognition: The 15O PET substraction method. En A. Kertesz (Ed.), Localization and neuroimaging in neuropsychology, 151-184. Estados Unidos: Academic Press.

Damasio, H. (1995). Human brain anatomy in computerized images. Nueva York: Oxford University Press.

Dehaene, S. (1997). La méthode de soustraction. En S. Dehaene (Ed.), Le cerveau en action, 97-123. París: Presses Universitaires de France.

D’Esposito, M., Zarahn, E., & Aguirre, G. K. (1999). Event-related functional MRI: Implications for cognitive psychology. Psychologycal Bulletin, 125, 155-164.

Donders, F. C. (1868). Over de snelheid van psychische processen. Physiologisch Laboratorium der Utrechtsche Hoogeschool, 11, 92-130. (Traduction al inglés: On the speed of mental processes, Acta Psychologica, 1969, 30, 412-431.)

Efron, R. (1990). The decline and fall of hemispheric specialization. Estados Unidos: Lawrence Erlbaum.

Frackowiak, R. S. J., Friston, K. J., Frith, C. D., Dolan, R. J. & Mazziota, J. C. (Eds.). (1997). Human brain function. Estados Unidos: Academic Press.

Friston, K. J., Holmes, A., Worsley, K. J., Poline, J. B., Frith, C. D. & Frackowiak, R. S. J. (1995). Statistical parametric maps in fuctional imaging: A general linear approach. Human Brain Mapping, 2, 189-210.

Friston, K. J., Price, C. B., Buechel, C., & Frackowiak, R. S. J. (1997). A taxonomy of study design. En R. S. J. Frackowiak, K. J. Friston, C. D. Frith, R. J. Dolan, & J. C. Mazziota (Eds.), Human Brain Function, 141-159. Estados Unidos: Academic Press.

Guérit, J. M. (1998). Les potentiels évoqués [3ème éd.]. París: Masson.

Jennings, J. M., Mcintosh, A. R., Kapur, S., Tuviling, E. & Houle, S. (1997). Cognitive substractions may not add up: The interaction between semantic processing and response mode. Neuroimage, 5, 229-239.

Le Bihand, D. (1997). L’imagerie fonctionnelle par résonance magnétique. En S. Dehaene (Ed.), Le cerveau en action, 57-70. París: Presses Universitaires de France.

McClelland, J. L. (1979). On the time-relations of mental processes: An examination of systems of processes in cascade. Psychological Review, 86, 287-330.

McClelland, J. L., Rumelhart, D. E. & Hinton, G. E. (1986). The appeal of parallel distributed processing. En D. E. Rumelhart, J. L., McClelland & The PDP Research Group (Eds.), Parallel Distributed Processing, vol. 1, 3-44. Cambridge: MIT Press.

Papanicolau, A. C. (1998). Fundamentals of functional brain imaging: A guide to the methods and their applications to psychology and behavioral neuroscience. Lisse: Sweets & Zeitlinger.

Pernier, J. & Bertrand, O. (1997). L’électro- et la magnéto-encélophalographie. En S. Dehaene (Ed.), Le cerveau en action, 71-95. París: Presses Universitaires de France.

Posner, M.I. & Raichle, M. E. (1994). Images of mind. New York: Scientific American Library.

Price, C. J. & Friston, K. J. (1997). Cognitive conjunction: A new approach to brain activation experiments. Neuroimage, 5, 261-270.

Price, C. J., Wise, R. S. J. & Frackowiak, R. S. J. (1996). Demostrating the implicit processing of visually presented words and pseudowords. Cerebral Cortex, 6, 62-70.

Sergent, J. (1994) Brain imaging studies of cognitive functions. Trends in Neurosciences (TINS), 17, 221-227.

Shallice, T. (1988). From neuropsychology to mental structure. Cambridge: Cambridge University Press.

Sterberg, S. (1969a). The discovery of processing stages: Extensions of Donder’s method. Acta Psychologica, 30, 276-315.

Sterberg, S. (1969b). Memory scanning: Mental processes revealed by reaction-time experiments. The American Scientist, 57, 421-457.

Syrota, A. (1997). La tomographie par émission de positons. In S. Dehaene (Ed.), Le cerveau en action (pp. 9-56). Paris: Presses Universitaires de France.

Talairach, J. & Tournoux, P. (1988). Co-planar stereotaxic atlas of the human brain. Nueva York: Thieme.

[1]. Artículo aparecido en: Archives de psychologie, 1999, 67, 179-195.

Esta traducción fue hecha por Jorge Vaca con la colaboración de Margarita Callejas R. como material complementario al curso electivo Adquisición de la lengua escrita en niños de 4 a 12 años.