Introducción

El cerebro humano es el “objeto más complejo de nuestro universo observable”, como dijo Christoff Koch, conocido por sus estudios sobre las bases neuronales de la conciencia. Este órgano está formado por miles de millones de neuronas, sinapsis y circuitos que gobiernan nuestros pensamientos, emociones y comportamiento. Los neurocientíficos llevan siglos estudiando el cerebro, intentando desentrañar sus misterios y comprender su funcionamiento. Estas investigaciones condujeron al desarrollo de la inteligencia artificial y a la idea de crear modelos que pudieran ayudarnos en nuestras tareas. A día de hoy, la inteligencia artificial está en boca de todo el mundo: noticias, conversaciones de familia, trabajo y, por supuesto en la investigación. Sin embargo, con la llegada del Deep Learning, un subcampo de la inteligencia artificial, los investigadores son ahora capaces de ir más allá y obtener nuevas respuestas sobre el funcionamiento y el comportamiento de nuestro cerebro. En estas páginas, exploraremos cómo el Deep Learning está revolucionando la neurociencia y transformando nuestra comprensión de este objeto tan complejo.

 Sección 1: Qué es el “Deep Learning”?

El Deep Learning (DL) es un área especializada dentro del aprendizaje automático (o, continuando con los términos, machine learning), que al mismo tiempo forma parte del vasto campo de la inteligencia artificial. Se inspira en el funcionamiento de nuestro propio cerebro y pretende replicar esa funcionalidad en sistemas artificiales. La idea central del DL es entrenar a lo que se denominan redes neuronales artificiales para que “aprendan” de grandes cantidades de datos y hagan predicciones o clasificaciones basadas en ellos. Estas redes, diseñadas para imitar la estructura y el funcionamiento del cerebro humano, están formadas por unos nodos conectados entre sí (llamados neuronas) que se comunican y procesan la información.

Durante el proceso de entrenamiento de un modelo de DL, los datos disponibles se dividen en dos subconjuntos: el set de entrenamiento y el set de validación. Como bien dice su nombre, el set de entrenamiento entrena al modelo, presentándole los datos etiquetados, lo que permite a la red neuronal ajustar sus parámetros y aprender los patrones. El conjunto de validación, por su parte, se utiliza para evaluar el rendimiento del modelo durante el proceso de entrenamiento; es decir, su capacidad de generalización.

 Lo que diferencia al DL de los enfoques tradicionales de machine learning es su capacidad para extraer automáticamente características y patrones relevantes a partir de datos sin procesar. En el machine learning tradicional, un persona se encarga de  seleccionar manualmente las características. En cambio, los algoritmos de DL pueden descubrir y extraer de forma autónoma características útiles como parte del proceso de aprendizaje. Esta capacidad hace que el DL sea especialmente eficaz para analizar conjuntos de datos complejos y no estructurados, como imágenes, audio y texto. Se ha aplicado con éxito a diversas tareas, como el reconocimiento de imágenes y del habla, el procesamiento del lenguaje natural, el análisis de señales biológicas e incluso la conducción autónoma.

Sección 2: ¿Dónde podemos aplicar el Deep Learning en Neurociencia?

Hoy en día, los modelos de DL se utilizan (y se pueden utilizar) en muchos campos de la neurociencia: desde la neuroimagen o la neurociencia de sistemas hasta el análisis de la marcha. Las aplicaciones, como tipos de modelos de DL, son infinitas. En esta parte, veremos algunos ejemplos típicos que puedes aplicar en tu investigación diaria y algunos nuevos enfoques prometedores que tendrán un impacto en la forma en que entendemos el cerebro.

En el campo de la neuroimagen, donde las técnicas existentes producen una cantidad considerable de datos, la inteligencia artificial ha demostrado su papel en el manejo y la interpretación de imágenes y señales cerebrales. Una imagen es un sistema de orden elevado que resulta de la combinación de características progresivamente más complejas, creando finalmente una representación de algo. De esta misma manera funcionan las redes neuronales, reconociendo estos elementos jerárquicos: primero un píxel, luego líneas, formas geométricas… y guardando esos elementos en su “memoria” para su aprendizaje. Uno de los casos de uso más comunes del DL es la predicción diagnóstica; discriminar entre controles sanos e individuos enfermos. Utilizando diferentes datos de imágenes de resonancia magnética, muchos estudios han intentado diagnosticar esquizofrenia (Hu et al. 2022) trastornos del espectro autista (Zhang et al. 2022) e incluso diagnosticar la enfermedad de Alzheimer y/o deterioro cognitivo leve (Wang et al. 2017), enfermedad de Parkinson (Vyas et al. 2022), o trastornos cerebrovasculares (Liu et al. 2019).

Sin embargo, la vida de un investigador es una en la que lo deseable y la realidad no suelen coincidir; los problemas habituales incluyen no disponer de un tamaño de la muestra lo suficientemente grande para realizar estadísticas potentes o una mala calidad de los datos que afecte a la extracción de características relevantes. Pero, como investigadores, intentamos improvisar, y si combinamos esta habilidad con el rendimiento de los modelos de DL, surgen soluciones para sacar el máximo partido a los datos limitados.

 Para el caso de sets de datos pequeños, vamos a explicar dos métodos que se utilizan a menudo. El primero, es el aumento de datos a través de modelos generativos (lo que sería la base de los “ChatGPTs” que vemos ahora). Esta técnica consiste en crear, de forma artificial, nuevos datos mediante rotación, desplazamiento, zoom o cambiando el estilo general de las imágenes. Lo que se busca con esta técnica es aumentar el tamaño de la muestra haciendo nuevas copias del conjunto de datos original. El añadido que proporcionan los modelos de DL frente a las técnicas tradicionales de aumento de datos, las cuales iteran sobre un espectro muy reducido, es la de crear imágenes sintéticas diferentes de las originales, manteniendo las características esenciales de las imágenes reales (Perez and Wang 2017). El segundo método se denomina “dropout”. La idea en la que se basa es la de introducir ruido aleatorio en capas específicas de una red neuronal, de tal forma que las neuronas de esas capas se “enmascaran” o eliminan. Utilizando este método, el modelo puede obtener un resultado de forma más rápida, al obtener las características más robustas o generalizables (Audhkhasi, Osoba, and Kosko 2016; Srivastava et al. 2014) que pueden ser compartidas por las neuronas restantes, una característica especialmente importante si hablamos de conjuntos de datos pequeños.

 La calidad de los datos en la neuroimagen es uno de los aspectos más importantes para una interpretación crítica de las imágenes. Algunas técnicas, como la resonancia magnética ponderada por difusión (DW-MR), se basan en complicados métodos de estimación que han permanecido inalterados durante muchos años. Los nuevos enfoques sugieren que los modelos de DL más avanzados podrían rendir mejor en la estimación de imágenes clínicas, reduciendo los errores de los métodos estándar anteriores (Karimi and Gholipour 2022).

 Por último, veamos algunos ejemplos en el campo de la neurociencia de sistemas. Este término engloba una serie de áreas de estudio relacionadas con la función de los circuitos y sistemas neuronales, como la memoria o el lenguaje. Estas redes neuronales (no artificiales) son sistemas complejos en los que existen interacciones entre capas y con otras estructuras, y algunos mecanismos siguen siendo desconocidos. Durante estos últimos años de impresionante desarrollo de las redes neuronales artificiales, los científicos han intentado replicar estructuras del cerebro, construyendo modelos que explican los registros neuronales y proporcionan representaciones espaciales de gran precisión.

 Si pensamos en el lenguaje en el cerebro, existe desde hace tiempo una hipótesis llamada codificación predictiva, según la cual el sistema lingüístico del cerebro está optimizado para el procesamiento a futuro. De este modo, el cerebro estaría generando y actualizando constantemente un “modelo mental” del entorno y estas predicciones creadas por el modelo se compararían con las señales de entrada reales de los sentidos, ajustándolas. En consonancia con esta hipótesis, los investigadores desarrollaron un modelo que podía predecir las respuestas neuronales del procesamiento del lenguaje humano ¡casi al 100%!, imitando cómo se implementa el procesamiento predictivo del lenguaje en el tejido neuronal (Schrimpf et al. 2021).

 Estrechamente relacionada con el lenguaje, la memoria también ha sido un campo de estudio de la inteligencia artificial. Algunos investigadores, viendo que muchas redes neuronales de DL se basan en redes cerebrales, decidieron examinar más de cerca la formación de la memoria. Es bien sabido que el hipocampo desempeña un papel vital en nuestros procesos de memoria. A menudo se describe como una pieza clave en la formación de nuevos recuerdos y en su consolidación para almacenarlos a largo plazo, pero no indefinidamente. Cuando experimentamos algo nuevo, el hipocampo ayuda a codificar y procesar estos recuerdos.

Wittington y sus colegas realizaron un curioso experimento sobre la memoria. Primero, entrenaron un modelo de DL para aprender representaciones espaciales, demostrando que el modelo replicaba lo que hacían las células del hipocampo. Esto les permitió seguir adelante y decidieron reescribir los fundamentos matemáticos de un conocido modelo de neurociencia: “La máquina de Tolman-Eichenbaum” (TEM), que replicaba el fenómeno del hipocampo. El TEM se trata de un modelo hipotético que combina los trabajos de Edward Tolman y Gary Eichenbaum. El primero propuso la teoría del mapa cognitivo, sugiriendo que los animales, incluidos los humanos, forman representaciones mentales de su entorno. Eichenbaum, por su parte, estudió ampliamente el hipocampo y su implicación en los procesos de memoria. Según el TEM, el hipocampo funciona como una “máquina” que integra y procesa la información sensorial entrante, asociándola con claves espaciales y contextuales. También sugiere que el hipocampo utiliza un mecanismo de codificación, en el que células individuales o grupos de células representan distintos aspectos del entorno y los recuerdos asociados. Algo así como que el hipocampo crea un mapa del entorno en sus células. Wittington y su equipo combinaron entonces los mundos de la IA y la neurociencia y crearon el TEM-t (que por el nombre parece la versión avanzada de un Terminator), un modelo mucho más eficiente y capaz (Whittington, Warren, and Behrens 2021).

 Entonces, ¿cuáles son las implicaciones neurocientíficas? Es una hipótesis bastante aceptada que el TEM reproduce el fenómeno del hipocampo. Si el TEM-t puede hacerlo incluso mejor, esto significa que el modelo de DL podría esconder algunas explicaciones sobre cómo funcionan las neuronas a nivel del hipocampo.

 Así, observar las neuronas artificiales podría ayudarnos a entender las reales.

¿Nos ayudas a ser más? Hazte miembro y participa. Danos difusión en las redes. Contáctanos y cuéntanos sobre ti y tu proyecto.

Alfonso de Gorostegui

Alfonso de Gorostegui

PhD in Neuroscience at the Autónoma University of Madrid

Hola! Mi nombre es Alfonso de Gorostegui y estoy en camino de terminar mi doctorado en Neurociencia con la Universidad Autónoma de Madrid, en concreto en el estudio de marcha de pacientes con enfermedades neurológicas.