Un equipo de investigadores estadounidenses ha creado un descodificador semántico que puede percibir y traducir, en un flujo de texto continuo, el significado aproximado de una historia que una persona escucha, observa o imagina en silencio a partir de imágenes, obtuvo gracias a un escáner que graficaba la actividad cerebral de los sujetos de prueba mientras escuchaban 16 horas de un podcast de Los New York Timesmonólogos de un popular programa de televisión e incluso escenas del cine mudo.
El decodificador no solo consiguió convertir las imágenes cerebrales en frases completas, sino que pudo construir textos que reproducían con gran fidelidad lo que los pacientes habían oído, según la investigación publicada en la revista científica neurociencia de la naturaleza, liderada por la Universidad de Texas en Austin, que mostró esta interfaz cerebro-máquina (ICB), que se apoya en la técnica de imagen por resonancia magnética funcional (fMRI), en la que el ingenio usa un gorro con electrodos no registra la actividad neuronal directa, sino los cambios en el nivel de oxígeno en sangre que esta provoca.
Para resolver algunas imprecisiones de esta técnica, los científicos utilizaron el sistema de inteligencia artificial generativa de GPT, el mismo modelo de lenguaje desarrollado por OpenAI y en el que se basa el famoso bot conversacional ChatGPT, aunque la investigación utiliza la versión original del sistema, no la cuarta. El programa de IA usa el aprendizaje profundo para crear texto, por lo que su uso en el decodificador obedece a hacer grabaciones de la actividad cerebral del usuario, y con ellas predecir las palabras que estaba pensando, ha explicado en una rueda de prensa virtual el Coordinador del estudio, Alexander Huth.
El nuevo dispositivo “no recupera las palabras exactas, eso es muy difícil usando este enfoque, pero se puede recuperar la idea general”, afirma el coautor Jerry Tang, de la Universidad de Texas. “Esperamos que la decodificación del lenguaje pueda ayudar a restaurar la comunicación a las personas que han perdido la capacidad de hablar debido a una lesión o enfermedad”, ha añadido el investigador.
El decodificador ha sido perturbado para monitorizar la actividad cerebral de un usuario la máquina produce un texto, a partir de predicciones que, aunque no es la transcripción literal de lo que se pensó, se acerca mucho al significado de las palabras originales. “Para cada una de esas palabras que pensamos que podrían venir a continuación, podemos medir lo bien que suena esa nueva secuencia y, al final, vemos si coincidimos con la actividad cerebral que observamos”, detalló el neurocientífico Huth.
La privacidad de la mente
Otros dispositivos similares que han usado técnicas no invasivas (donde no se necesita atravesar el cráneo), se limitan a decodificar palabras sueltas o frases cortas, pero este proyecto sí puede traducir el sentido del lenguaje continuo y natural. Para ello requiere horas de entrenamiento previo con el usuario. El “semántico” de la Universidad de Texas puede usar las representaciones de las palabras en el cerebro, registradas a través de IRMf y genera secuencias de palabras acerca de la historia que estaba pensando en el sujeto de prueba, con una gran aproximación a lo que pasaba por la mente de los usuarios.
Para confirmar que el dispositivo se guiaba más por el nivel semántico más que por el motor, los científicos repitieron los experimentos, pero les pidieron a los voluntarios que imaginaran una historia y después la escribieran. Los investigadores detectaron una gran concordancia entre lo descodificado por la máquina y lo que escribieron los pacientes. En una tercera ronda, los sujetos de prueba vieron películas de cine mudo, y aunque el decodificador falló mucho más en las palabras concretas, siguieron captando el sentido de las escenas.
Sin embargo, mucho se habla acerca de estas tecnologías basadas en inteligencia artificial podrían “leer la mente”, y ante las preocupaciones de otros neurocientíficos, los investigadores han tratado de ponerlo a prueba. Afortunadamente, se comprobó que el modelo padecía para analizar los pensamientos de una persona, no conseguían descifrar lo que veía o pensaba otro usuario.
En la última serie de ensayos, los investigadores les pidieron a los voluntarios que contaran de siete en siete, pensaran y nombraran animales o que inventaran una historia en su cabeza mientras leían otros relatos. No obstante, la interfaz falló al predecir los pensamientos de los nuevos usuarios, por lo que los autores concluyeron que, para leer la mente, el decodificador necesita de la cooperación de los participantes horas, es decir, sus completos de entrenamiento. @mundiario
Nuestro documento de decodificación de lenguaje (@AmandaLeBel3 @shaileeejain @Alejandro) ¡Está fuera! Descubrimos que es posible usar exploraciones de resonancia magnética funcional para predecir las palabras que un usuario estaba escuchando o imaginando cuando se recopilaron las exploraciones https://t.co/hpYSGAHNQi
— Jerry Tang (@jerryptang) 1 de mayo de 2023