Escucha las ondas cerebrales para amplificar una voz
entre muchas
Ingenieros
norteamericanos han desarrollado un audífono que controla las ondas cerebrales
del usuario para detectar y amplificar una voz entre muchas. Potentes algoritmos
de IA y redes neuronales consiguen la proeza.
Nuestros cerebros tienen una notable
habilidad para distinguir voces individuales en un ambiente ruidoso, como una
cafetería abarrotada o una concurrida calle de ciudad. Esto es algo que incluso
los audífonos más avanzados luchan por conseguir.
Ahora, ingenieros de la Universidad de Columbia han desarrollado una tecnología experimental que imita la aptitud natural del cerebro para detectar y amplificar una voz entre muchas.
Alimentado por la inteligencia artificial, se trata de un audífono controlado por el cerebro que actúa como un filtro automático, discrimina las ondas cerebrales del usuario y aumenta la voz de la persona que quiere escuchar.
Aunque aún se encuentra en las primeras etapas de desarrollo, esta tecnología constituye un paso importante hacia mejores audífonos que permitan a los usuarios conversar con las personas que los rodean de manera transparente y eficiente. Los resultados se publican en Science Advances
“El área del cerebro
que procesa el sonido es extraordinariamente sensible y poderosa; puede
amplificar una voz sobre otras, aparentemente sin esfuerzo", explica Nima Mesgarani, investigador del
Mortimer B. Zuckerman Mind Brain Behavior Institute de Columbia, y autor
principal del artículo, en un comunicado. "Al
crear un dispositivo que aprovecha el poder del cerebro, esperamos que nuestro
trabajo conduzca a mejoras tecnológicas que permitan a los cientos de millones
de personas con discapacidad auditiva en todo el mundo comunicarse tan
fácilmente como lo hacen sus amigos y familiares".
Algoritmo de separación de voz
La tecnología básica de este trabajo es un
algoritmo de separación de voz que puede reconocer y decodificar una voz,
cualquier voz, desde el principio.
Los audífonos modernos son excelentes para amplificar el habla y suprimir ciertos tipos de ruido de fondo, como el tráfico. Sin embargo, tienen problemas para aumentar el volumen de una voz individual sobre otras.
El audífono controlado por el cerebro del equipo de Columbia es diferente. En lugar de depender únicamente de amplificadores de sonido externos, como los micrófonos, también controla las ondas cerebrales del oyente.
"Anteriormente, habíamos descubierto que cuando dos personas hablan entre sí, las ondas cerebrales del hablante comienzan a parecerse a las ondas cerebrales del oyente", añade Mesgarani.
Los audífonos modernos son excelentes para amplificar el habla y suprimir ciertos tipos de ruido de fondo, como el tráfico. Sin embargo, tienen problemas para aumentar el volumen de una voz individual sobre otras.
El audífono controlado por el cerebro del equipo de Columbia es diferente. En lugar de depender únicamente de amplificadores de sonido externos, como los micrófonos, también controla las ondas cerebrales del oyente.
"Anteriormente, habíamos descubierto que cuando dos personas hablan entre sí, las ondas cerebrales del hablante comienzan a parecerse a las ondas cerebrales del oyente", añade Mesgarani.
Usando este conocimiento, el equipo combinó potentes algoritmos de separación del habla con redes neuronales, modelos matemáticos complejos que imitan las capacidades computacionales del cerebro.
Así crearon un sistema que primero separa las voces de los oradores individuales de un grupo, y luego compara las voces de cada orador con las ondas cerebrales de la persona que escucha. La voz cuyo patrón de voz coincide más estrechamente con las ondas cerebrales del oyente se amplifica sobre el resto.
Probado con éxito
El prototipo ha sido probado con éxito con
pacientes de epilepsia, cuyas ondas cerebrales fueron observadas en tiempo real
mediante electrodos implantados en el cerebro, mientras escuchaban a diferentes
personas a la vez.
El algoritmo rastreó la atención de los pacientes mientras escuchaban a diferentes personas con las que no habían hablado con anterioridad. Cuando un paciente se concentró en un orador, el sistema amplificó automáticamente esa voz. Y cuando su atención cambió a otro conversador diferente, los niveles de volumen cambiaron para reflejar ese cambio.
Los investigadores ahora están investigando
ahora cómo transformar este prototipo en un dispositivo no invasivo que se
pueda colocar externamente en el cuero cabelludo o alrededor de la oreja.
También esperan mejorar y refinar aún más el algoritmo para que pueda funcionar
en una gama más amplia de entornos.
"Hasta ahora, solo lo hemos probado en un ambiente interior", señala Mesgarani. "Pero queremos asegurarnos de que pueda funcionar igual de bien en una calle concurrida de la ciudad o en un restaurante ruidoso, para que donde sea que vayan los usuarios, puedan experimentar plenamente el mundo y las personas que los rodean", concluye.
El trabajo desarrollado, por los ingenieros:
Cong Han, James O’Sullivan, Yi Luo, Jose Herrero, Ahesh D. Meha y Nima
Mesgarani, titulado “Speaker-Independ
auditory attention decoding without Access to clean speech sources” se
encuentra en Science Advances 15 de mayo de
2019, Vol. 5, no 5, eaav6134 col 5
Fuente: TENDENCIAS – Tendencias Tecnológicas – 31.mayo.2019
No hay comentarios:
Publicar un comentario