How the brain dials up the volume to hear someone in a crowd

Duas regiões cerebrais permitem-nos filtrar a voz de alguém num ambiente barulhento

Imagine que você esteja num restaurante cheio. É época de férias, todo mundo resolve comer fora. Talvez você esteja esperando uma mesa para se acomodar com a família. Enquanto isso, ouve uma plétora de sons: a conversa do pessoal que está à frente na fila, os passos dos garços, a algazarra de alguma criança lá no fundo, o bater de talheres com a louça, um pedido de cerveja. Você não conhece aquela voz, mas reconheceu prontamente o que ela disse no meio dessa bagunça auditiva: cer-ve-ja. Como você conseguiu fazer isso?

Essa questão de como o cérebro identifica e amplifica determinada voz pode parecer simples mas até recentemente não havia resposta. Para a pesquisadora Nima Mesgarani, “estudar como o córtex auditivo diferencia os sons é como tentar entender o que está acontecendo num grande lago — com barcos, nadadores e peixes se movendo — usando apenas os padrões de ondas na água como guia”. Professora-associada de engenharia elétrica na Universidade Columbia (EUA) e investigadora do Instituto Mortimer B. Zuckerman de Comportamento do Cérebro e da Mente, a Dra. Mesgarani sabe do que fala.

Em 2012, Mesgarani chefiou uma equipe responsável por demonstrar que o cérebro humano é seletivo sobre o que escuta. Naquela pesquisa, os cientistas observaram que as ondas cerebrais do sistema auditivo mudam para amplificar a voz de um falante e abafar a de outros. Mas como, exatamente, isso acontece? Quais áreas do nosso centro auditivo contribuem para essa seleção vocal?

Para fazer isso, seria necessário gravar a atividade neural em áreas cerebrais específicas. Ao longo dos anos, Mesgarani e uma equipe formada por neurologistas, neurocirurgiões e outros especialistas — do Instituto Neurológico de Nova York, do Instituto Feinstein de Pesquisa Médica (NY), da Universidade de Utah e da Faculdade Baylor de Medicina (ambas dos EUA) — ficaram interessados em duas zonas do córtex auditivo: o Giro de Heschl (GH) e o Giro Temporal Superior (GTS). A informação que vem dos ouvidos chega pelo GH, onde é processado e enviado para o GTS.

Nesta pesquisa, Mesgarani et. al. monitoraram ondas cerebrais de pacientes voluntários enquanto estes ouviam gravações de pessoas falando. O monitoramento foi feito com o uso de eletrodos implantados ou no GH ou GTS de cada paciente. Esses eletrodos permitiram traçar uma distinção clara do papel de cada área na interpretação dos sons. A partir da mixórdia sonora, o GH cria uma representação rica e multidimensional, separando cada voz por diferenças de frequência. Nessa etapa, as vozes tornam-se distintas porém são tratadas com igualdade. No nosso cenário, você estaria distinguindo a conversa dos vizinhos e o pedido de cerveja, mas ainda não destacaria uma voz em particular.

A coisa, ou melhor, a voz, muda de figura quando passa ao GTS. De acordo com o estudo publicado em 21/10 na revista Neuron, quando o sinal auditivo chega a essa região, torna-se possível amplificar uma voz específica a partir das selecionadas pelo GH. Quem faz isso é o GTS, reforçando determinado sinal que lhe chama a atenção. É nesse momento que, apesar de toda a barulheira, você percebe que alguém está pedindo cerveja tão claramente como se não houvesse mais ninguém no restaurante lotado.

Muitas coisas podem acontecer a partir do momento em que você ouve uma voz em especial. Do ponto de vista neurológico, o GTS não só amplifica essa voz como cria uma imagem auditória, algo análogo às representações mentais que criamos com base nos objetos que vemos. Assim, mesmo que aquela voz amplificada perca-se no meio de outras por falta de volume ou clareza, conseguimos identificá-la com base no que ela nos evoca. Se reconhecermos a voz naquele restaurante lotado, podemos lembrar de um amigo ou parente que já está lá e pediu uma cerveja. Ou então podemos não reconhecer a pessoa, mas temos noção do que está sendo falado e lembramos o que é uma cerveja (e talvez fiquemos com vontade).

Por enquanto, essas etapas posteriores da edição de áudio feita pelo cérebro ainda não estão muito claras. Mesgarani e seus colaboradores pretendem se aprofundar nisso, levando em conta como esse sistema funciona em cenários mais complexos, que incluem diversas vozes e pistas visuais — como o que acontece num restaurante lotado. Entretanto, as etapas já descobertas podem ter aplicações bem práticas.

No começo do ano, a Dra. Mesgarani já havia anunciado o objetivo de desenvolver um aparelho que possa ser controlado pelo cérebro. Sabendo como o cérebro processa os sinais auditivos até selecionar e identificar uma voz seria possível replicar esse sistema nos algoritmos usados por aparelhos auditivos — o que levaria a uma solução para a surdez profunda, causada por lesões neurológicas. Só por isso, os cientistas desta pesquisa já merecem uma rodada de cervejas!

Referência

rb2_large_gray25Mesgarani et. al. Hierarchical encoding of attended auditory objects in multi-talker speech perception [Codificação hierárquica de objetos auditivos escutados na percepção de discurso com múltiplos falantes]. Neuron (2019). https://doi.org/10.1016/j.neuron.2019.09.007

Related Posts Plugin for WordPress, Blogger...