Neurociencias / Informática

Las ondas cerebrales pueden revelar qué música está escuchando una persona

La demostración de que podemos decodificar música sugiere que, algún día, seremos capaces de decodificar el lenguaje del cerebro a la perfección

Un nuevo modelo logra decodificar con precisión las ondas cerebrales generadas por una persona mientras escucha música, identificando la pieza que disfruta en ese momento.

Un nuevo modelo logra decodificar con precisión las ondas cerebrales generadas por una persona mientras escucha música, identificando la pieza que disfruta en ese momento. / Crédito: Vinzent Weinbeer en Pixabay.

Pablo Javier Piacente

Investigadores británicos combinaron imágenes de resonancia magnética funcional (fMRI) con imágenes de electroencefalografía (EEG) para medir la actividad cerebral de una persona mientras escucha música. Utilizaron un modelo de red neuronal de aprendizaje profundo para traducir estos datos, con el fin de reconstruir e identificar la pieza musical escuchada, obteniendo un 71,8 % de precisión. Este resultado abre el camino a decodificar el lenguaje del cerebro en toda su complejidad.

Científicos de la Universidad de Essex, en Reino Unido, han demostrado que es posible “leer” las ondas cerebrales que emite una persona mientras escucha una pieza musical y decodificar inmediatamente qué música está disfrutando. El sistema alcanza una precisión que supera el 70 % y muestra que estamos cada vez más cerca de “escanear” y entender el lenguaje del cerebro en todas sus expresiones

Aunque diferentes estudios previos habían tenido éxito al monitorear y reconstruir la información acústica de las ondas cerebrales, muchos habían utilizado métodos más invasivos como la electrocorticografía (ECoG), que consiste en colocar electrodos dentro del cráneo para monitorear la superficie real del cerebro. 

Ahora, el Dr. Ian Daly y su equipo, de la Escuela de Ciencias de la Computación e Ingeniería Electrónica de la Universidad de Essex, se propusieron encontrar una forma menos invasiva de decodificar la información acústica de las señales en el cerebro, buscando el mismo éxito en cuanto a identificar y reconstruir la pieza musical que alguien estaba escuchando.

Elevada precisión

Según una nota de prensa, la investigación, publicada recientemente en la revista Scientific Reports, empleó una combinación de dos métodos no invasivos: resonancia magnética funcional (fMRI), que mide el flujo sanguíneo a través de todo el cerebro, y electroencefalografía (EEG), que mide lo que sucede en el cerebro en tiempo real. Esto les permitió controlar la actividad cerebral de una persona mientras escucha una pieza musical. 

Posteriormente, los científicos aplicaron un modelo de red neuronal de aprendizaje profundo, para traducir los datos y reconstruir e identificar la pieza musical. En el estudio se reutilizaron datos de fMRI y EEG obtenidos originalmente en un proyecto anterior, en el cual un conjunto de participantes escucharon una serie de piezas de música, con sonidos de piano y una duración de 40 segundos.

Las 36 piezas empleadas diferían notablemente en cuanto a tempo (velocidad de la ejecución), armonía tonal (distintos tonos o sonidos capaces de expresar sensaciones) y ritmo (cadencia de la pieza). Con estos conjuntos de datos combinados, el modelo logró identificar con precisión la pieza musical escuchada por cada participante con una tasa de éxito del 71,8 %.

Una esperanza a futuro

Teniendo en cuenta que la música es una señal acústica compleja, que comparte una gran cantidad de similitudes con el lenguaje natural, el nuevo modelo podría adaptarse potencialmente para traducir el habla. Sin embargo, el ambicioso objetivo final de esta línea de investigación es traducir el pensamiento, lo que podría ofrecer en el futuro una colaboración fundamental para las personas que sufren patologías relacionadas con la comunicación. 

Un ejemplo concreto es el caso del síndrome de enclaustramiento, que lleva a un estado de vigilia y conciencia con cuadriplejia y parálisis de los nervios craneales inferiores, provocando discapacidad para adoptar una expresión facial, moverse, hablar o comunicarse. Las personas afectadas por este cuadro solo pueden comunicarse mediante un código creado a partir de movimientos oculares.

En ese sentido, los expertos creen que una posible aplicación del modelo es la interfaz cerebro-ordenador (BCI, según las siglas en inglés), que proporciona un canal de comunicación directo entre el cerebro humano y un ordenador. Aunque aún esto está muy lejos de ser aplicado en la práctica, Daly y su equipo creen que eventualmente será posible decodificar el lenguaje con éxito y producir sistemas de comunicación más eficientes para personas con discapacidades graves.

Referencia

Neural decoding of music from the EEG. Ian Daly. Scientific Reports (2023). DOI:https://doi.org/10.1038/s41598-022-27361-x