Ahora existe una manera de convertir actividad cerebral en habla

El pasado mes de Abril, el equipo de neurociencia de la Universidad Californa San Francisco que conforman los miebros Gopala K. Anumanchipalli, Josh Chartier y Edward F. Chang,  público en Nature que su estudio usando inteligencia artificial podrían reproducir voz sintética de actividad cerebral de una persona.

En otras palabras, su objetivo principal era descodificar el habla mediante un proceso de dos pasos: traducir las señales eléctricas del cerebro a movimientos vocales y luego traducir esos movimientos en sonidos del habla.

Para este estudio se usaron cinco personas voluntarias que padecen de episodios de epilepsia, estos pacientes también fueron sometidos a ciruja para quitar los tumores causantes de sus ataques epilépticos. Se les dio la tarea de leer cuentos como La Bella durmiente o Alicia en el país de las Maravillas a una base de datos fonética llamada MOCHA-TIMIT.

Durante la primera fase de este estudio, se utilizó un decodificador de habla conocido como bLSTM (memoria bidireccional a largo plazo) para descifrar actividad cerebral a movimientos virtuales de tracto vocal.

En la segunda fase, otro tipo de bLSTM fue usado para descifrar señales como voces o acústicas, las cuales convierten a una voz sintética para el voluntario.

«Las representaciones articuladoras decodificadas se conservaron altamente entre los oradores, lo que permitió que un componente del decodificador fuera transferible entre los participantes. Además, el decodificador podría sintetizar el habla cuando un participante imitaba las oraciones en silencio.

La tecnología que traduce la actividad neuronal al habla sería transformadora para las personas que no pueden comunicarse como resultado de discapacidades neurológicas.»

Así lo menciona un extracto del articulo publicado en Nature.

Gopala Anumanchipalli