[ad_1]
Una interfaz cerebro-ordenador no invasiva ha sido capaz de convertir en palabras los pensamientos de una persona. Y, algún día, esto podría ayudar a quienes han perdido la capacidad de hablar como consecuencia de diferentes lesiones como accidentes cerebrovasculares, o enfermedades como la ELA.
Un nuevo estudio publicado en Nature Neuroscience presenta un modelo que ha sido entrenado a partir de resonancias magnéticas y fue capaz de predecir con sorprendente precisión frases enteras que tres voluntarios estaban escuchando, con solo observar su actividad cerebral. El equipo afirma que los resultados demuestran la necesidad de futuras políticas de protección de nuestros datos cerebrales.
Ya se ha decodificado el habla a partir de la actividad cerebral, pero el proceso suele requerir la inserción de dispositivos de electrodos muy invasivos en el cerebro de una persona. Otros sistemas no invasivos se han limitado a decodificar palabras sueltas o frases cortas.
Según los creadores de la interfaz, un equipo de investigadores de la Universidad de Texas en Austin, es la primera vez que se producen frases completas a partir de registros cerebrales no invasivos y recogidos mediante una imagen por resonancia magnética funcional (IRMf, por sus siglas). Mientras la resonancia magnética normal toma imágenes de la estructura del cerebro, la resonancia funcional evalúa el flujo sanguíneo cerebral y muestra qué partes se activan con determinadas actividades.
Primero, el equipo entrenó GPT-1, un modelo de lenguaje desarrollado por OpenAI, en un conjunto de frases en inglés extraídas de Reddit, 240 historias de The Moth Radio Hour y transcripciones del podcast Modern Love de The New York Times.
Los investigadores querían que las narraciones fueran interesantes y divertidas de escuchar, así era más probable que se obtuvieran mejores resultados de IRMf que con algo aburrido para los participantes.
“A todos nos gusta escuchar podcasts, así que ¿por qué no tumbarnos en un escáner de resonancia magnética escuchándolos?”, bromea Alexander Huth, profesor adjunto de Neurociencia e Informática de la Universidad de Texas (Austin), y director del proyecto.
Durante el estudio, tres participantes escucharon 16 horas cada uno de diferentes episodios de los mismos podcasts mientras estaban en un escáner de resonancia magnética, además de un par de charlas TED. La premisa era recopilar una gran cantidad de datos que, según el equipo, fuera cinco veces mayor que los conjuntos de datos lingüísticos que suelen utilizarse en los experimentos de RMf relacionados con el lenguaje.
El modelo aprendió a predecir la actividad cerebral que desencadenaría la lectura de determinadas palabras. Para decodificarla, adivinaba secuencias de palabras y comprobaba en qué medida se parecían a las palabras reales. Así, predijo cómo respondería el cerebro a las palabras adivinadas y lo comparó con las respuestas cerebrales reales que también habían sido monitoreadas.
Cuando probaron el modelo con nuevos episodios de podcasts, fue capaz de recuperar lo esencial de lo que escuchaban los usuarios únicamente a partir de su actividad cerebral, identificando a menudo palabras y frases exactas. Por ejemplo, una persona escuchó las palabras “todavía no tengo carné de conducir”; y el decodificador devolvió la frase “ella aún no ha empezado a aprender a conducir”.
Los investigadores también mostraron a los participantes varios cortometrajes de Pixar que no tenían diálogos, y grabaron sus respuestas cerebrales. Este experimento independiente fue diseñado para comprobar si el decodificador podía recuperar el contenido general de lo que el usuario estaba viendo, y resultó que sí.
Romain Brette, neurocientífico teórico del Instituto de la Visión de París y que no participó en el experimento, no está muy convencido de la eficacia de la tecnología en esta fase. “El algoritmo funciona de la siguiente manera: un modelo de inteligencia artificial inventa frases a partir de información vaga sobre el campo semántico de las frases inferidas de un escáner cerebral. Podría haber casos de uso interesantes, como inferir lo que has soñado, a nivel general. Pero soy un poco escéptico respecto a que nos estemos acercando al nivel de lectura del pensamiento“, concluye Brette.
Puede que aún no funcione tan bien, pero el experimento plantea cuestiones éticas en torno al posible uso de descodificadores cerebrales en el futuro para la vigilancia y los interrogatorios. Teniendo esto en cuenta, el equipo se propuso probar si podía entrenarse y que un decodificador funcionara sin la cooperación de una persona. Para ello, intentaron decodificar el habla percibida de cada participante, utilizando modelos entrenados con datos de otra persona. Y descubrieron que su rendimiento era “apenas superior al azar”.
Esto sugiere que un decodificador no podría aplicarse a la actividad cerebral de una persona a menos que estuviera dispuesta y hubiera ayudado a entrenar el decodificador previamente, según los expertos
“Creemos que la privacidad mental es importante y no se debería decodificar el cerebro de nadie sin su cooperación”, afirma Jerry Tang, estudiante de doctorado de la universidad que trabajó en el proyecto. “Es importante seguir investigando las implicaciones de la decodificación cerebral para la privacidad y promulgar políticas que protejan la privacidad mental de cada persona“.
[ad_2]
Source link