¿Puede el cerebro ‘subir el volumen’ para diferenciar voces?

Cómo el cerebro sube el volumen para escuchar a alguien entre una multitud – Columbia University’s Zuckerman Institute – conRderuido.com

  • Este nuevo descubrimiento puede estimular el desarrollo de tecnologías de audífonos que se parezcan más al cerebro.

  • “El estudio ofrece la comprensión necesaria y fundamental para los científicos e innovadores que trabajan para mejorar las tecnologías del habla y la audición”.

  • “Nuestro objetivo es comprender mejor cómo el cerebro nos permite escuchar tan bien, así como crear tecnologías que ayuden a las personas, que los sobrevivientes de un derrame cerebral puedan hablar con sus seres queridos, o para que las personas con discapacidad auditiva puedan conversar más fácilmente en una fiesta llena de gente”.


El descubrimiento ayuda a resolver la pregunta sobre cómo la corteza auditiva, centro de audición del cerebro, puede decodificar y amplificar una voz sobre otras velocidad ultrarrápida

Sabíamos que nuestro cerebro tiene una capacidad notable para elegir una voz entre muchas. Sin embargo, ahora, un equipo de neuroingenieros de la Universidad de Columbia ha descubierto los pasos que tienen lugar en el cerebro para hacer posible esta ‘hazaña’.

El descubrimiento ayuda a resolver una pregunta que la ciencia se hacia desde hace tiempo sobre cómo la corteza auditiva, el centro de audición del cerebro, puede decodificar y amplificar una voz sobre otras, a velocidades ultrarrápidas.

Este nuevo descubrimiento también puede estimular el desarrollo de tecnologías de audífonos e interfaces cerebro-ordenador que se parezcan más al  cerebro.

Nima Mesgarani: “Este estudio ofrece la comprensión fundamental para los científicos e innovadores que trabajan para mejorar las tecnologías del habla y la audición” – Foto: John Abbott

“Nuestra capacidad para concentrarnos en la persona que está a nuestro lado en un cóctel mientras evitamos el ruido circundante es extraordinaria, pero entendemos muy poco acerca de cómo funciona todo”, dijo Nima Mesgarani, PhD, autor del artículo e investigador en el Zuckerman Institute de Columbia.

“Este estudio ofrece la comprensión necesaria y fundamental para los científicos e innovadores que trabajan para mejorar las tecnologías del habla y la audición”

Tecnologías del habla y la audición

“Este estudio ofrece la comprensión necesaria y fundamental para los científicos e innovadores que trabajan para mejorar las tecnologías del habla y la audición”.

La corteza auditiva es el centro de escucha del cerebro.

El oído interno envía a esta región del cerebro señales eléctricas que representan un revoltijo de ondas de sonido del mundo externo.

La corteza auditiva debe entonces distinguir sonidos significativos de ese revoltijo.

“Estudiar cómo la corteza auditiva clasifica los diferentes sonidos es como tratar de descubrir qué está sucediendo en un gran lago, en el que se mueve cada barca, nadador y pez, y cómo de rápido, al tener solo los patrones de ondas en el agua como una guía”, ha explicado el Doctor Mesgarani, que también es profesor asociado de ingeniería eléctrica en Columbia Engineering.

El artículo se basa en un estudio de 2012 que muestra que el cerebro humano es selectivo sobre los sonidos que escucha.

Ese estudio reveló que cuando una persona escucha a alguien hablar, sus ondas cerebrales cambian para seleccionar características de la voz del hablante y desconectar otras voces. Los investigadores querían entender cómo sucede eso dentro de la anatomía de la corteza auditiva.

La corteza auditiva es el centro de escucha del cerebro. El oído interno envía señales eléctricas que representan un revoltijo de ondas de sonido del mundo externo. La corteza auditiva debe distinguir sonidos significativos de ese revoltijo.

“Hace tiempo que sabemos que las áreas de la corteza auditiva están dispuestas en una jerarquía, con decodificación cada vez más compleja en cada etapa, pero no hemos observado cómo se procesa la voz de un hablante en particular a lo largo de este camino”

Actividad neuronal del cerebro

“Hace tiempo que sabemos que las áreas de la corteza auditiva están dispuestas en una jerarquía, con decodificación cada vez más compleja en cada etapa, pero no hemos observado cómo se procesa la voz de un hablante en particular a lo largo de este camino”, según James O’Sullivan, primer autor del artículo que completó este trabajo mientras era investigador postdoctoral en el laboratorio de Mesgarani.

“Para comprender este proceso, necesitábamos registrar la actividad neuronal del cerebro directamente”.

Los investigadores estaban particularmente interesados ​​en dos partes de la jerarquía de la corteza auditiva: la circunvolución de Heschl (HG) y la circunvolución temporal superior (STG). La información del oído llega primero a HG, la atraviesa y llega a STG más tarde.

Para comprender estas regiones del cerebro, los investigadores se unieron con los neurocirujanos Ashesh Mehta, Guy McKhann, MD y Sameer Sheth; y la neuróloga Catherine Schevon, así como con otros coautores José Herrero y Elliot Smith.

Pacientes con epilepsia

Con base en el Centro Médico Irving de la Universidad de Columbia y Northwell Health, estos médicos tratan a pacientes con epilepsia, algunos de los cuales deben someterse a cirugías cerebrales regulares.

Los electrodos permitieron al equipo identificar una distinción clara entre los roles de las dos áreas del cerebro en la interpretación de los sonidos

En este estudio, los pacientes se ofrecieron como voluntarios para escuchar grabaciones de personas que hablaban mientras los Doctores Mesgarani y O’Sullivan monitorearon sus ondas cerebrales a través de electrodos implantados en las regiones HG o STG de los pacientes.

Los electrodos permitieron al equipo identificar una distinción clara entre los roles de las dos áreas del cerebro en la interpretación de los sonidos.

Los datos mostraron que HG crea una representación rica y multidimensional de la mezcla de sonido, por lo que cada altavoz está separado por diferencias de frecuencia. Esta región no mostró preferencia por una voz u otra. Sin embargo, los datos recopilados de STG cuentan una historia claramente diferente.

Cuando una voz está oscurecida por otro hablante, como cuando dos personas hablan entre sí, STG puede representar al orador deseado como un todo unificado que no se ve afectado por el volumen de la voz competidora.

Estos hallazgos revelan una clara división de deberes entre estas dos áreas de la corteza auditiva: HG representa, mientras que STG selecciona. Todo sucede en alrededor de 150 milisegundos, instantáneo para el oyente

150 milisegundos, instantáneo para el oyente

“Descubrimos que es posible amplificar la voz de un hablante u otro ponderando correctamente la señal de salida que proviene de HG. Según nuestras grabaciones, es posible que la región STG realice esa ponderación “, explica el Dr. O’Sullivan.

Tomados en conjunto, estos hallazgos revelan una clara división de deberes entre estas dos áreas de la corteza auditiva:

  • HG representa

  • STG selecciona

Todo sucede en alrededor de 150 milisegundos, lo que parece instantáneo para un oyente.



Representación del sonido

Los investigadores también encontraron un papel adicional para STG. Después de la selección, STG formó un objeto auditivo, una representación del sonido que es análoga a nuestras representaciones mentales de los objetos que vemos con nuestros ojos.

Esto demuestra que incluso cuando una voz está oscurecida por otro hablante, como cuando dos personas hablan entre sí, STG puede representar al orador deseado como un todo unificado que no se ve afectado por el volumen de la voz competidora.

La información obtenida podría usarse como base para algoritmos que reproducen artificialmente este proceso biológico, como los audífonos

La información obtenida podría usarse como base para algoritmos que reproducen artificialmente este proceso biológico, como los audífonos.

A principios de este año, el Dr. Mesgarani y su equipo anunciaron el desarrollo de un audífono controlado por el cerebro, que utiliza uno de estos algoritmos para amplificar los sonidos de un altavoz sobre otro.

Los investigadores planean estudiar la actividad de HG y STG en escenarios cada vez más complejos que tienen más oradores o incluyen señales visuales. Estos esfuerzos ayudarán a crear una imagen detallada y precisa de cómo funciona cada área de la corteza auditiva.

“Nuestro objetivo final es comprender mejor cómo el cerebro nos permite escuchar tan bien, así como crear tecnologías que ayuden a las personas, ya sea para que los sobrevivientes de un derrame cerebral puedan hablar con sus seres queridos, o para que las personas con discapacidad auditiva puedan conversar más fácilmente en una fiesta llena de gente”, asegura Mesgarani.



PERFIL DEL AUTOR

Con R de Ruido

Con R de Ruido es un espacio digital para prevenir y buscar soluciones al ruido. Desde los aspectos jurídicos, hasta los relativos a la salud, pasando por la investigación, este exclusivo portal ofrece información profesional que permite a los ciudadanos acortar los tiempos de conocimiento de la problemática sobre el Ruido y tomar las decisiones más efectivas. Con R de Ruido es un punto de encuentro de personas, instituciones, administraciones y empresas, que proponen una nueva forma de afrontar los problemas de la sociedad actual.


Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Recibe nuestro NEWSLETTER con nuevos contenidos

Al enviar mi alta acepto las Políticas de Privacidad