general-info
Uso de modelos de Procesamiento de Lenguaje Natural para el estudio del lenguaje en el cerebro
Bruno Bianchi
(Universidad de Buenos Aires)
El curso se va a dictar en español En los últimos años hemos visto cómo el área del Procesamiento del Lenguaje Natural ha avanzado rápidamente hacia modelos computacionales capaces de comprender y generar texto de manera muy similar a lo que haría un humano. El ejemplo más popular es el sistema chatGPT, de la empresa OpenAI. Estos avances no han sido ajenos a la comunidad de la Neurociencia Cognitiva Computacional, y en particular a la Neurolingüística, que ve en estos modelos avanzados una herramienta que puede resultar muy útil para comprender los mecanismos que operan en el cerebro durante tareas asociadas al lenguaje. En este curso veremos algunas de las técnicas utilizadas en los últimos años en este camino. En la primera mitad del curso (primeras 2 clases, de un total de 4), se verá una introducción a los modelos computacionales, mediante un recorrido histórico de las diferentes técnicas de generación de abstracciones (embeddings), para llegar a los modelos actuales y sus arquitecturas. En la segunda mitad del curso avanzaremos sobre la discusión de diferentes trabajos del área de la neurociencia en los que se utilizan las abstracciones generadas por los modelos computacionales como herramienta de análisis de neuroimágenes (principalmente Resonancia Magnética Funcional).
Resumen
Materiales