La IA ahora puede decodificar palabras directamente de las ondas cerebrales

Los neurocientíficos están enseñando a las computadoras a leer palabras directamente del cerebro de las personas.

Kelly Servick, que escribe para Science, informó esta semana sobre tres artículos publicados en el servidor de preimpresión bioRxiv en los que tres equipos diferentes de investigadores demostraron que podían decodificar el habla a partir de grabaciones de disparos de neuronas. En cada estudio, los electrodos colocados directamente en el cerebro registraron la actividad neuronal mientras que los pacientes de cirugía cerebral escuchaban el habla o leían las palabras en voz alta. Luego, los investigadores trataron de averiguar lo que los pacientes estaban escuchando o diciendo. En cada caso, los investigadores fueron capaces de convertir la actividad eléctrica del cerebro en al menos archivos de sonido algo ininteligibles.

El primer documento, publicado en bioRxiv el 10 de octubre de 2018, describe un experimento en el que los investigadores reprodujeron grabaciones del habla a pacientes con epilepsia que se encontraban en medio de una cirugía cerebral. (Las grabaciones neurales tomadas en el experimento tuvieron que ser muy detalladas para ser interpretadas. Y ese nivel de detalle sólo está disponible durante las raras circunstancias en las que un cerebro está expuesto al aire y se le colocan electrodos directamente, como en la cirugía cerebral.) Imágenes en 3D: Explorando el cerebro humano]

Mientras los pacientes escuchaban los archivos de sonido, los investigadores grabaron neuronas disparando en las partes del cerebro de los pacientes que procesan el sonido. Los científicos probaron una serie de métodos diferentes para convertir esos datos neuronales de disparo en habla y encontraron que el «aprendizaje profundo» -en el que una computadora intenta resolver un problema más o menos sin supervisión- funcionaba mejor. Cuando tocaron los resultados a través de un vocoder, que sintetiza las voces humanas, para un grupo de 11 oyentes, esos individuos fueron capaces de interpretar correctamente las palabras el 75 por ciento de las veces.

Puedes escuchar el audio de este experimento aquí.

El segundo documento, publicado el 27 de noviembre de 2018, se basaba en registros neuronales de personas que se sometían a cirugía para extirpar tumores cerebrales. A medida que los pacientes leían en voz alta palabras de una sola sílaba, los investigadores registraban tanto los sonidos que salían de las bocas de los participantes como los que disparaban las neuronas en las regiones productoras de habla de sus cerebros. En lugar de entrenar profundamente a las computadoras de cada paciente, estos investigadores enseñaron una red neural artificial para convertir las grabaciones neurales en audio, mostrando que los resultados eran al menos razonablemente inteligibles y similares a las grabaciones hechas por los micrófonos. (El audio de este experimento está aquí, pero tiene que ser descargado como un archivo zip.)

El tercer artículo, publicado el 9 de agosto de 2018, se basaba en el registro de la parte del cerebro que convierte palabras específicas que una persona decide hablar en movimientos musculares. Aunque no hay registros de este experimento disponibles en línea, los investigadores informaron que pudieron reconstruir oraciones completas (también registradas durante la cirugía cerebral en pacientes con epilepsia) y que las personas que escucharon las oraciones pudieron interpretarlas correctamente en una prueba de opción múltiple (de 10 opciones) 83 por ciento de las veces. El método de ese experimento se basaba en la identificación de los patrones involucrados en la producción de sílabas individuales, en lugar de palabras enteras.

El objetivo de todos estos experimentos es que algún día las personas que han perdido la capacidad de hablar (debido a la esclerosis lateral amiotrófica o a condiciones similares) puedan hablar a través de una interfaz entre la computadora y el cerebro. Sin embargo, la ciencia para esa aplicación aún no ha llegado.

Interpretar los patrones neuronales de una persona que sólo imagina el habla es más complicado que interpretar los patrones de alguien que escucha o produce el habla, reportó Science. (Sin embargo, los autores del segundo artículo dijeron que podría ser posible interpretar la actividad cerebral de alguien que imagina el habla).

También es importante tener en cuenta que se trata de estudios pequeños. El primer trabajo se basó en datos tomados de sólo cinco pacientes, mientras que el segundo examinó seis pacientes y el tercero sólo tres. Y ninguna de las grabaciones neurales duró más de una hora.

Aún así, la ciencia está avanzando, y los dispositivos de habla artificial conectados directamente al cerebro parecen ser una posibilidad real en algún momento del camino.

  • 10 cosas que aprendimos sobre el cerebro en 2018
  • 10 Cosas que no sabía sobre usted
  • Galería de imágenes: Cortando a través del cerebro

Publicado originalmente en Misterius.net .

También te puede interesar

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *