Já se pegou fechando os
olhos para prestar atenção em uma música? Ouviu toda aquela conversa do seu pai
ou mãe enquanto estava no computador, mas não absorveu nada até olhar para os
seus progenitores? De acordo com um estudo de bioengenheiros da Universidade de
Utah, EUA, o que você vê pode ser mais relevante do que você ouve, em certas condições.
Elliot Smith, primeiro
autor do estudo, escreveu o seguinte:
“Pela primeira vez,
conseguimos ligar o sinal auditivo no cérebro ao que uma pessoa disse que
ouviu, quando na verdade, o que ela ouviu era algo diferente. Descobrimos que a
visão está influenciando a parte auditiva do cérebro para distorcer a percepção
de realidade – e você não pode desligar a ilusão. As pessoas acham que existe
essa forte ligação entre fenômenos físicos no mundo à nossa volta e o que
experimentamos subjetivamente, e este não é o caso.”
O estudo parte do
princípio chamado Efeito McGurk (nomeado pelo psicólogo cognitivo escocês Harry
McGurk, que divulgou seus estudos nos anos 70), que afirma que o cérebro
considera tanto a visão quanto o som ao processar a fala. No entanto, caso os
dois sejam levemente diferentes, a visão domina o som. Graças ao novo estudo, é
possível determinar por que isso acontece — o grande mistério do Efeito McGurk
até então.
A pesquisa envolveu a
busca pela fonte do efeito, e foi executada com a gravação e análise dos sinais
cerebrais no córtex temporal, a região que normalmente processa o som. Com
quatro adultos severamente epiléticos (dois homens, duas mulheres), três
eletrodos do tamanho de botões foram posicionados em diferentes posições nos
cérebros das cobaias: no hemisfério esquerdo, direito, ou em ambos, dependendo
de onde as convulsões aparentemente surgem.
O estudo seguia com as
quatro cobaias assistindo e prestando atenção em vídeos focados na boca de uma
pessoa, enquanto pronunciavam as sílabas “ba”, “va”, “ga” e “tha”. Dependendo
de qual dos três vídeos era assistido, cada um dos pacientes tinha uma das três
possíveis experiências:
1. O movimento da boca
combinava com o som. Ao ouvir um “ba” e ver que este era o som, os pacientes
ouviram e viram “ba”.
2. O movimento da boca
obviamente não combinava com o som (como num filme mal dublado). Ao ver um
filme mostrar um “ga”, os pacientes ouviam “tha”. Devido à óbvia diferença,
eles perceberam a desconexão e ouviram corretamente o “tha”.
3. O movimento da boca era
feito erroneamente, mas muito de leve. Ao ver um “ba”, mas ouvir um “va”, os
pacientes interpretaram o som correto como “ba”.
Medindo os estímulos
elétricos durante a exibição de cada vídeo, foi possível definir se os sinais
cerebrais auditivos ou visuais é que estavam sendo usados para identificar a
sílaba em cada vídeo. Quando o erro era claro, a atividade cerebral aumentava
em correlação com o som observado. Mas ao assistir o terceiro vídeo, o padrão
mudou para se aproximar mais do que foi visto do que ouvido. As análises
estatísticas confirmaram o efeito em todos os pacientes.
Toda essa pesquisa pode
ajudar outros pesquisadores a compreender o que de fato ajuda no processo de
linguagem de humanos, especialmente em pequenas crianças tentando anexar sons e
o movimento labial para aprender sua própria língua. Ainda por cima, pode
ajudar quando o processo visual e o auditivo não são integrados corretamente,
como no caso da dislexia.
Por fim, este estudo pode
ajudar na criação de melhores softwares de reconhecimento de fala, além de
aparelhos auditivos, bastando a inclusão de uma câmera que identifique os
movimentos labiais.
Fonte:
Discovery noticias
0 comentários:
Postar um comentário