Ayuda
Ir al contenido

Dialnet


Resumen de Procesado avanzado de señales de electroencefalografía y resonancia magnética en Neurociencia Cognitiva

David López García

  • La Inteligencia Artificial y el aprendizaje máquina conforman el motor de incontables aplicaciones que, en los últimos años, se han hecho un hueco en nuestro día a día. Una simple búsqueda en Internet puede servirnos para darnos cuenta de la ingente cantidad de servicios de los que, aun usándolos diariamente, no somos conscientes que su funcionamiento se basa en inteligencia artificial. Por dar un ejemplo muy sencillo, tanto las compañías de comercio electrónico como las distribuidoras de contenidos multimedia a la carta invierten una gran cantidad de recursos, tanto económicos como humanos, en el desarrollo de algoritmos eficientes de recomendación. Estos algoritmos aprenden de nuestros hábitos y preferencias para ofrecernos una selección de contenido que puede ser de nuestro interés o, en caso de las webs de comercio electrónico, el último utensilio que puede hacernos la vida más fácil en la cocina. Lo cierto es que utilizamos la inteligencia artificial casi todo el tiempo. Cuando desbloqueamos nuestro teléfono móvil, este escanea nuestra cara o algún otro rasgo biométrico para comprobar que efectivamente somos los propietarios. Cuando enviamos un mensaje a nuestros familiares por una aplicación de mensajería un algoritmo basado en inteligencia artificial nos propone la siguiente palabra a escribir, además de corregirnos faltas de ortografía y gramática. Cuando le hacemos una foto a nuestra mascota, los algoritmos de detección de escena analizan, entre otros, los objetos presentes en la fotografía, así como la profundidad de la escena. Gracias a estos algoritmos nuestro teléfono mejora aspectos de las fotografías que hacemos, como el contraste, los efectos de luz, la nitidez, el enfoque, los colores, etc.

    Todas estas tecnologías basadas en inteligencia artificial también se implementan en otros ámbitos mucho menos mundanos, como la detección de fraude, la predicción del tráfico, el reconocimiento del habla, la predicción de mercados financieros o la visión por ordenador, una de las tecnologías principales en el desarrollo de coches autónomos. El potencial de la inteligencia artificial parece no tener límites. Sin embargo, a pesar de todas sus virtudes, estas tecnologías no se encuentran exentas de polémica, ya que en los últimos años han aparecido aplicaciones que las usan con fines poco éticos, como la creación de contenido multimedia falso (deepfakes). Este y otros usos malintencionados de la inteligencia artificial han traído consigo un debate sobre qué consideraciones éticas deberían tenerse en cuenta en el desarrollo de estas tecnologías. A pesar de que muchos de los citados escenarios puedan resultar abrumadores o incluso preocupantes para muchas personas, lo cierto es que cuando la inteligencia artificial se aplica de forma responsable, los beneficios directos en nuestra vida diaria son innegables. En el campo de la medicina, por ejemplo, la inteligencia artificial se usa para detectar patrones en el genoma humano y así desarrollar tratamientos personalizados. Además, el diagnóstico por ordenador permite la detección e intervención temprana de muchas enfermedades, mejorando el pronóstico del paciente. Esto son solo dos ejemplos, ente otros muchos, de cómo la inteligencia artificial aplicada a la medicina tiene un beneficio directo sobre nuestras vidas. Sea como sea, no podemos negar que estas tecnologías han cambiado la forma que tenemos los humanos de interactuar con el mundo.

    Naturalmente, estos avances tecnológicos se encuentran presentes en todas las disciplinas científicas, no solo en medicina. Esta tesis está enmarcada en el ámbito de la inteligencia artificial y el aprendizaje máquina aplicados a la Neurociencia Cognitiva. Junto con el desarrollo de potentes técnicas de neuroimágen, la inteligencia artificial ha revolucionado el campo de la Neurociencia en los últimos años, ya que nos ha permitido estudiar y entender mucho más en detalle el funcionamiento de algo tan complejo como el cerebro. Gracias a la inteligencia artificial hemos sido capaces de desarrollar estrategias de análisis que nos permiten detectar cambios muy sutiles en patrones cerebrales, cambios que hasta ahora nos eran indetectables cuando empleábamos métodos de análisis clásicos. Lo cierto es que estos algoritmos de inteligencia artificial se han venido empleando en numerosos ámbitos y disciplinas científicas desde hace años, como las Ciencias de la Computación, por lo que su adaptación al campo de la Neurociencia no parece sorprendente.

    Aunque los principios básicos de funcionamiento sean similares, existen algunas consideraciones que merecen la pena resaltar cuando analizamos datos de neuroimagen mediante técnicas de aprendizaje máquina. En primer lugar, cuando estos algoritmos se entrenan para, por ejemplo, detectar correos basura, suelen trabajar con millones de observaciones, teniendo siempre como objetivo lograr el mejor desempeño posible en la tarea para la que fueron entrenados. Este objetivo de intentar lograr siempre el mejor desempeño posible es común a muchas aplicaciones. En Neurociencia Cognitiva, en cambio, esto no siempre ocurre así. La cantidad de datos de los que disponemos en este campo es normalmente muy reducida. Disponer de unos cientos de observaciones es un escenario bastante favorable cuando se trata de datos de neuroimagen, ya que normalmente se suele trabajar con unas decenas de observaciones por clase, lo que hace que dispongamos de más características que observaciones en muchas ocasiones. Esto es debido a que recoger datos cerebrales de participantes humanos (o no humanos) es una tarea que requiere mucho tiempo y dinero. Por otro lado, uno de los objetivos principales de muchos estudios de Neurociencia es detectar cambios minúsculos en patrones cerebrales que difieren de forma significativa entre condiciones y que estos sean generalizables al resto de la población. Además, la Neurociencia Cognitiva se encarga de estudiar cómo estos cambios se relacionan o explican distintas funciones cerebrales. Por lo tanto, obtener el mejor rendimiento posible no siempre es necesario (o incluso deseable). Por este motivo, muchas técnicas para la optimización de los modelos que son ampliamente aplicadas en otros campos (como la optimización de los hiperparámetros) juegan un papel irrelevante en el ámbito de la Neurociencia. Esto, junto al empleo de algoritmos simples, como los clasificadores lineales, suelen proporcionar resultados subóptimos de acuerdo con los estándares de otros campos de la ciencia. Sin embargo, debido al tamaño reducido de los sets de datos, así como a la carga computacional ahorrada, estas configuraciones son preferibles cuando trabajamos con datos de neuroimágen. Además, así garantizamos la fiabilidad, generalización e interpretación de los resultados.

    Debido a la reciente explosión de las metodologías de análisis basadas en aprendizaje máquina, a las capacidades y experiencia necesaria para su correcto desarrollo, así como a las anteriormente mencionadas consideraciones cuando se pretende trabajar con datos de neuroimagen, decidimos desarrollar una herramienta a la que hemos llamado The MVPAlab Toolbox (López-García et al., 2022). Este software desarrollado en MATLAB es una herramienta flexible y fácil de utilizar que encapsula las más recientes y ampliamente extendidas metodologías de análisis en el ámbito de la Neurociencia Cognitiva.

    En las primeras fases de desarrollo decidimos mostrar la idoneidad de varios métodos multivariados de aprendizaje máquina en el análisis de datos de neuroimagen, más concretamente, en datos de electroencefalografía. Para entender realmente la naturaleza de un experimento de Neurociencia y todas las fases de su desarrollo, en lugar de apoyarnos en una base de datos pública recopilada por terceros, decidimos comenzar desde el principio. Planificamos, diseñamos y desarrollamos un experimento de control cognitivo. El experimento consistió en la presentación de distintos estímulos visuales a los participantes (flechas con orientaciones congruentes o incongruentes), a los que debían responder lo más rápido posible evitando errores. Estos estímulos, de acuerdo con su dificultad, demandaban distinta carga cognitiva por parte del participante. Tras el reclutamiento de los participantes, recogimos, limpiamos y preprocesamos todos los datos de electroencefalografía para ser analizados (López-García et al., 2020). Todo este proceso se encuentra descrito en detalle en el Capítulo 4 de esta tesis. A continuación, procedimos al desarrollo y programación de las técnicas multivariadas de análisis (Grootswagers et al., 2017; Haxby, 2012; Norman et al., 2006). En un primer acercamiento desarrollamos una serie de rutinas para, entre otras, la extracción y selección de características, la normalización y el suavizado de los registros de electroencefalografía. Posteriormente, desarrollamos e implementamos metodologías para el análisis y reconocimiento de patrones temporales en la señal de electroencefalografía, basados en aprendizaje máquina, más específicamente en máquinas de vectores de soporte lineales. Estos análisis incluían: (1) La clasificación resuelta en el tiempo de los datos de distintas condiciones experimentales, lo que nos permitió estudiar las diferencias en los patrones de actividad cerebral inducidos por los estímulos presentados durante el experimento; (2) la clasificación cruzada resulta en el tiempo nos permitió estudiar los distintos patrones de actividad cerebral inducidos por los estímulos presentados en distintos contextos cognitivos; (3) las matrices de generalización temporal, que nos permitieron estudiar la estabilidad de esos patrones a lo largo del tiempo; y (4) los análisis de contribución de frecuencia, que nos permitieron determinar qué frecuencias de la señal de electroencefalografía contribuían de mayor manera a la correcta clasificación, lo que nos indica que en esas bandas de frecuencia están codificados los mecanismos de procesamiento asociados al estímulo presentado. Además, estudiamos el efecto en la clasificación de distintos parámetros del modelo, como la optimización de los hiperparámetros o el número de ensayos promediados para incrementar la relación señal-ruido. Para ello empleamos distintas medidas de rendimiento como la precisión, la precisión balanceada, o el área bajo la curva. Finalmente, para dar validez estadística a los resultados obtenidos, desarrollamos un análisis de permutaciones no paramétrico, especialmente adaptado a datos de electroencefalografía. Estos análisis revelaron diferencias significativas (p<.001) en los patrones de actividad asociados a estímulos congruentes e incongruentes, lo que nos permitió predecir con una tasa de acierto superior al 80% si los participantes estaban respondiendo a un estímulo congruente o incongruente. Además, estudiamos estos efectos a lo largo del tiempo y las frecuencias, replicando los resultados existentes en la literatura mediante análisis clásicos y proporcionando más información sobre la dinámica de los mecanismos subyacentes.

    Una vez demostrada la idoneidad y utilidad de estas metodologías en el ámbito de la electroencefalografía, decidimos ampliar los análisis previamente implementados, dando lugar a la primera versión pública de nuestra herramienta de análisis: The MVPAlab Toolbox. El Capítulo 5 de esta tesis doctoral describe en detalle todas las mejoras y novedades, así como una detallada explicación de todos los análisis implementados. Como resumen, implementamos la computación en paralelo, lo que permitió una reducción drástica de los tiempos de cómputo, un aspecto realmente importante cuando trabajamos con cantidades considerables de información. Implementamos, además, un análisis que nos permitió estudiar la contribución de los distintos electrodos a los resultados de la clasificación. Incluimos también más algoritmos de análisis, como los clasificadores no lineales, o el Análisis Discriminante Lineal, implementando nuevas medidas de rendimiento, como la precisión, la sensibilidad, el f1-score o la matriz de confusión. Con el objetivo de diferenciar este software de las demás alternativas existentes no solo desarrollamos las distintas funcionalidades, sino que las acompañamos de una interfaz gráfica de usuario intuitiva y fácil de usar, lo que permite a usuarios con poca o nula experiencia de programación diseñar y ejecutar una gran variedad de análisis multivariados para datos de electroencefalografía. Además de todas estas características, en esta primera versión publica de The MVPAlab Toolbox desarrollamos una herramienta de visualización de resultados que permite crear gráficas y animaciones, de una forma muy sencilla y listas para su publicación. Todo esto sin la necesidad de escribir una sola línea de código. Esta primera versión completa se encuentra disponible para su descarga en un repositorio público de GitHub (https://github.com/dlopezg/mvpalab) así como una extensa documentación donde explicamos desde su instalación y requisitos previos, al funcionamiento y significado de cada uno de los parámetros de configuración y de las rutinas de análisis implementadas. Así mismo ofrecemos una pequeña base de datos de prueba con la que se hicieron los análisis presentados en el Capítulo 5 de esta tesis (https://osf.io/du6fa).

    Todo lo descrito anteriormente hace de esta herramienta una opción sólida y con mucho potencial para analizar señales cerebrales en términos temporales. Sin embargo, la dimensión espacial de la señal aún no la hemos considerado. Para intentar comprender mejor el funcionamiento cerebral, idealmente deberíamos estudiar los procesos cognitivos simultáneamente en el tiempo y en el espacio. Sin embargo, la gran mayoría de técnicas de neuroimagen no invasivas disponibles hoy en día no permiten localizar estos procesos de manera precisa y simultánea. Existen soluciones, como el registro concurrente de señales de resonancia magnética funcional y electroencefalografía, pero estas prácticas, sin entrar en mucho detalle, conllevan graves inconvenientes en lo que a ruido de la señal se refiere, así como importantes restricciones en el diseño del paradigma experimental.

    En el Capítulo 6 de esta tesis doctoral abordamos un reto importante en el campo de la Neurociencia Cognitiva, la caracterización de los procesos cognitivos simultáneamente en tiempo y espacio (Cichy & Oliva, 2020; Zhang et al., 2020). Para lograr esto, expandimos las capacidades de nuestra herramienta, haciéndola compatible con datos de resonancia magnética funcional. En este caso no se pretendió desarrollar los anteriormente mencionados análisis multivariados y aplicarlos a la señal de fMRI, ya que para ello existen numerosas y potentes herramientas como SPM. En este caso pretendimos integrar en nuestra herramienta una metodología de análisis que nos permitiese fusionar información proveniente de distintas técnicas de neuroimagen, conservando sus fortalezas y mitigando sus debilidades. Concretamente, nuestro objetivo fue fusionar datos de electroencefalografía y resonancia magnética funcional. Para ello, como en el caso anterior, decidimos comenzar desde la base y definir y desarrollar nuestro propio paradigma, así como encargarnos del reclutamiento de participantes, recogida, limpieza y preprocesamiento de los datos. De esta forma, diseñamos dos experimentos equivalentes para el estudio de distintos mecanismos de preparación donde pretendíamos analizar las diferencias entre atención selectiva y expectativa perceptual. Para el diseño de ambos experimentos utilizamos el mismo set de estímulos, pero adaptamos la tarea a los estándares y requerimientos de cada técnica de neuroimagen. Esto fue posible debido a que la recogida de datos mediante ambas técnicas no se realizó de forma simultánea, sino en sesiones distintas y con participantes distintos. La metodología que empleamos para desarrollar los análisis de fusión es conocida como Análisis de Similitud Representacional (Kriegeskorte et al., 2008; Popal et al., 2019). Esta permite abstraer los datos del espacio de señal, donde electroencefalografía y resonancia no son directamente comparables debido a su distinta naturaleza, a un espacio de representación en el que sí lo son. Este análisis se fundamenta en el hecho de que los distintos patrones de actividad en cierta región cerebral deben ser similares cuando el estímulo que los genera es similar. De esta forma pudimos generar, tanto para cada punto temporal en los datos de electroencefalografía como para distintas regiones cerebrales en los datos de resonancia magnética, Matrices de Disimilitud Representacional. Estas matrices codifican cuantitativamente las diferencias entre los patrones de actividad cerebral para todo el set de estímulos y, puesto que empleamos el mismo set en ambas modalidades, pudimos correlacionarlas entre sí. Así, extrajimos la matriz de una región cerebral específica y la usamos como semilla para correlacionarla con todas las matrices extraídas para cada punto temporal de la señal de electroencefalografía. Como resultado tras computar varios análisis preliminares, obtuvimos curvas temporales de correlación positivas (p<.001) que nos indicaron cómo de parecidas son las representaciones en distintas regiones específicas (visuales y motoras) a lo largo de todo el intervalo temporal. Dicho de otra forma, gracias a este paradigma pudimos obtener información sobre el comportamiento del cerebro con una alta resolución espacial y temporal. Aunque todos los avances pueden consultarse en el repositorio de MVPAlab, actualmente seguimos desarrollando, mejorando e integrando de forma completa toda esta metodología de análisis en nuestra herramienta. Todas estas mejoras estarán oficialmente disponibles en próximas versiones de The MVPAlab Toolbox.

    En resumen, con esta tesis hemos demostrado la viabilidad del empleo de técnicas de análisis multivariadas basadas en reconocimiento de patrones y aprendizaje máquina en el estudio de la función cerebral, especialmente mediante señales de electroencefalografía y resonancia magnética. Como resultado, hemos desarrollado una herramienta completa para el análisis de datos de neuroimagen, The MVPAlab Toolbox, la cual integra las más novedosas metodologías de análisis empleadas en el ámbito de la Neurociencia Cognitiva. Esta herramienta ayudará a investigadores de cualquier nivel de experiencia o conocimientos de programación a impulsar sus estudios mediante el empleo de la inteligencia artificial, perimiéndoles extraer información más detallada de sus datos.


Fundación Dialnet

Dialnet Plus

  • Más información sobre Dialnet Plus