sexta-feira, 7 de março de 2025

ECOLOCALIZAÇÃO EM PESSOAS[1]

 


Dr. Lore Thaler[2]

Professor Associado, Departamento de Psicologia, Universidade de Durham, Reino Unido

 

Os humanos podem aprender a usar a ecolocalização, auxiliando na mobilidade, independência e bem-estar de pessoas com deficiência visual ou cegas.

 

Características

Um dia em 2009 (quando eu era um pós-doutorado na Western University no Canadá), me deparei com relatos de pessoas que eram totalmente cegas e podiam fazer coisas como andar de bicicleta, jogar basquete e fazer trilhas usando ecolocalização. Junto com meu orientador de pós-doutorado Mel Goodale, assisti a videoclipes sobre pessoas notáveis ​​como Daniel Kish e Juan Ruiz, apelidados de Morcegos Humanos. Juan Ruiz e Daniel Kish são cegos e excepcionalmente habilidosos em ecolocalização a ponto de andarem de mountain bike ou conseguirem dizer o que são objetos sem tocá-los. Eles também ensinam outros. Foi quando comecei a trabalhar na ecolocalização humana. Hoje, no meu laboratório, investigamos a ecolocalização humana como um tópico por si só e a usamos para entender como o cérebro humano se adapta ao aprendizado de novas habilidades.

Como os humanos usam a ecolocalização e como ela difere de outros animais?

Morcegos e golfinhos são bem conhecidos por sua capacidade de usar a ecolocalização. Eles emitem rajadas de sons e ouvem os ecos que ricocheteiam para perceber seu ambiente. A ecolocalização humana usa a mesma técnica. Ela depende de uma emissão audível inicial e da reflexão subsequente do som do ambiente. Quando as pessoas ecolocalizam, elas fazem emissões audíveis como estalos de boca, estalos de dedos, assobios, batidas de bengala ou passos. Tudo isso está no espectro audível, ao contrário das emissões de ultrassom que morcegos ou golfinhos usam. Embora todas as pessoas, cegas ou videntes, possam aprender a ecolocalizar, até o momento os ecolocalizadores humanos mais habilidosos são cegos[3].

As emissões que os ecolocalizadores proficientes preferem usar são cliques na boca. Em nosso trabalho, medimos milhares desses cliques e descobrimos que eles são muito breves (~5 ms) e que o feixe de som se espalha de uma forma que gosto de chamar de "feixe de uma lanterna acústica[4]". Também descobrimos que as pessoas ajustam os cliques dinamicamente. Por exemplo, as pessoas farão mais cliques ou cliques mais altos quando o eco for comparativamente mais fraco ou para compensar ruídos interferentes[5]. Essa natureza dinâmica provavelmente será importante ao usar a ecolocalização em ambientes externos.

Também usamos captura de movimento para investigar como a ecolocalização está relacionada ao movimento do corpo, por exemplo, durante a caminhada. A tecnologia de captura de movimento que usamos é a mesma usada para criar filmes CGI, como Avatar ou The Polar Express. Marcadores reflexivos são colocados no corpo de uma pessoa, e os movimentos desses marcadores são capturados com câmeras especiais. Usando essa tecnologia, descobrimos que a ecolocalização pode dar suporte à caminhada de forma semelhante à visão[6]. Descobrimos que pessoas cegas e que têm experiência com o uso da ecolocalização andam tão rápido quanto as pessoas que usam a visão. Elas também têm caminhos de caminhada muito semelhantes aos de pessoas videntes que usam a visão, por exemplo, ao contornar obstáculos.

 

Compreendendo a atividade cerebral relacionada aos ecos

Também estamos interessados ​​na base cerebral para ecolocalização em pessoas. Métodos de neuroimagem, como ressonância magnética funcional (fMRI), são adequados para investigar isso. Um dos problemas que enfrentamos ao usar fMRI para investigar ecolocalização é que o scanner é um espaço muito confinado, sem espaço suficiente para realmente ecolocalizar. Na verdade, durante a varredura, o participante fica dentro de um tubo estreito com apenas 60 cm de diâmetro, e o interior desse tubo fica a cerca de 10 cm dos seus olhos ou boca, então realmente muito perto. Isso pode ser superado usando espaços acústicos de eco "virtuais".

No meu laboratório, usamos cenários de escuta passiva. Para fazer isso, primeiro fazemos gravações dentro dos ouvidos de um participante enquanto ele está ecolocalizando cenários fora do scanner. Posteriormente, dentro do scanner, esses cenários são recriados reproduzindo as gravações usando fones de ouvido especiais. Outros laboratórios superaram esse problema gravando os cliques que as pessoas fazem dentro do scanner e, em seguida, processando-os para criar uma cena virtual, que é reproduzida para o participante por meio de fones de ouvido. A vantagem dessa técnica é que o participante pode fazer suas próprias emissões durante a varredura. Além disso, também usamos sequências de varredura especiais, para que o scanner de ressonância magnética fique em silêncio enquanto o participante ouve os sons de ecolocalização. Se usássemos sequências de varredura regulares, seria muito barulhento para o participante ouvir qualquer coisa.

 

Quais partes do cérebro são ativadas?

Estudos usando essas técnicas mostraram que pessoas cegas e habilidosas em ecolocalização usam não apenas a parte auditiva do cérebro para processar ecos, mas também usam as partes do cérebro que processam a visão em pessoas com visão normal[7]. Em pessoas com visão normal, as áreas corticais visuais iniciais, como o córtex visual primário, são ativadas pela estimulação visual em um padrão específico que é chamado de retinotopia. Descobrimos que em ecolocalizadores cegos, o córtex visual primário é ativado pela estimulação acústica em um padrão específico que se assemelha à retinotopia[8]. Nossos resultados sugerem que a atividade "retinotópica" também pode ser conduzida pelo som, e que isso é facilitado pela experiência com ecolocalização. Esse resultado desafia nossa compreensão clássica da organização da função cerebral pela modalidade sensorial e abre outras maneiras de entender os sentidos humanos.

 

Compreendendo a capacidade do cérebro de se adaptar e aprender novas habilidades

A pesquisa atual em meu laboratório está investigando como essas mudanças surgem no cérebro humano. As descobertas serão úteis para aprender sobre a capacidade inerente (ou limitações) do cérebro humano de se adaptar ao aprendizado de novas habilidades. A ecolocalização é um paradigma perfeito para medir essas mudanças porque as pessoas começam do zero (a menos que já tenham experiência em ecolocalização), de modo que há uma boa linha de base a partir da qual a mudança pode ser medida. Ela também fornece um amplo escopo para melhorias. Isso também será útil para determinar os efeitos de reabilitação do treinamento para pessoas cegas. Especificamente, podemos rastrear as mudanças ao longo do tempo e comparar os efeitos antes e depois do treinamento, tanto no nível comportamental quanto no cerebral.

 

Os benefícios da ecolocalização baseada em cliques para pessoas com deficiência visual ou cegas

A ecolocalização é uma habilidade aprendível que pode ser adquirida por pessoas cegas e também por pessoas com visão. Em um estudo recente, investigamos se o treinamento em ecolocalização baseada em cliques leva a benefícios significativos para pessoas cegas[9]. Em nosso estudo, treinamos pessoas com visão e pessoas cegas (de 21 a 79 anos) ao longo de 10 semanas. As pessoas foram treinadas para usar seus próprios cliques na boca para determinar o tamanho, a localização e a orientação de objetos colocados na frente delas a várias distâncias. Elas também foram treinadas em uma tarefa de ecolocalização baseada em computador, onde usaram botões em um teclado de computador para navegar por um conjunto de corredores usando sons de ecolocalização que ouviram em fones de ouvido. Todos melhoraram suas habilidades de ecolocalização, ou seja, a precisão ou a velocidade das respostas nessas várias tarefas melhoraram.

É importante ressaltar que nem a idade nem a cegueira foram fatores limitantes na taxa de aprendizado dos participantes (ou seja, sua mudança no desempenho da primeira para a última sessão) ou em sua capacidade de aplicar suas habilidades de ecolocalização a tarefas novas e não treinadas. Três meses após a conclusão do treinamento, descobrimos que todos os participantes cegos relataram mobilidade melhorada, e 83% dos participantes cegos também relataram bem-estar e independência melhoradas em suas vidas diárias.

Todos os participantes cegos neste estudo eram viajantes independentes e tinham habilidades de mobilidade antes de participar do estudo (por exemplo, usuários de bengala longa ou cão-guia). Portanto, quaisquer benefícios da ecolocalização baseada em cliques que observamos foram adicionais às habilidades preexistentes. Os resultados deste trabalho sugerem que a ecolocalização pode ser uma habilidade útil para pessoas cegas, e que mesmo 10 semanas de treinamento podem levar a benefícios mensuráveis ​​em termos de mobilidade, independência e bem-estar. O fato de que a capacidade de aprender a ecolocalização baseada em cliques não foi fortemente limitada pela idade ou nível de visão tem implicações positivas para a reabilitação de pessoas com perda de visão ou nos estágios iniciais de perda progressiva da visão.

O trabalho em andamento e futuro no meu laboratório continuará investigando questões relacionadas à ecolocalização humana e usando a ecolocalização como um paradigma para entender melhor o cérebro humano e a cognição. Por exemplo, gostaríamos de usar a ecolocalização para aprender mais sobre a capacidade do cérebro de se adaptar a mudanças em função da idade. Por exemplo, como as crianças adquirem habilidades de ecolocalização, e como isso se compara aos adultos e como isso está relacionado à perda sensorial? Uma melhor compreensão dessas questões também pode ter aplicações potenciais para o momento de intervenções de reabilitação para crianças e jovens.

 

Referências

§  Castillo-Serrano JG et al. (2021). Increased emission intensity can compensate for the presence of noise in human click-based echolocation. Scientific Reports 11(1), 1-11. http://doi.org/10.1038/s41598-021-81220-9.

§  Kolarik AJ et al. (2014). A summary of research investigating echolocation abilities of blind and sighted humans. Hearing Research 310, 60-68.

https://doi.org/10.1016/j.heares.2014.01.010.

§  Kolarik AJ et al. (2021). A framework to account for the effects of visual loss on human auditory abilities. Psychological Review, 128(5), 913. https://doi.org/10.1037/rev0000279.

§  Norman L, Thaler L (2019). Retinotopic-like maps of spatial sound in primary ‘visual’ cortex of blind human echolocators. Proceedings of the Royal Society: Series B Biological Sciences 286(1912), 20191910. https://doi.org/10.1098/rspb.2019.1910.

§  Norman L et al. (2021). Human click-based echolocation: Effects of blindness and age, and real-life implications in a 10-week training program. PLoS ONE 16(6), e0252330. https://doi.org/10.1371/journal.pone.0252330.

§  Thaler L et al. (2011). Neural correlates of natural human echolocation in early and late blind echolocation experts. PLoS ONE 6(5): e20162.

 https://doi.org/10.1371/journal.pone.0020162.

§  Thaler L et al. (2017). Mouth-clicks used by blind human echolocators – Signal description and model based signal synthesis. PLoS Computational Biology 13(8): e1005670. https://doi.org/10.1371/journal.pcbi.1005670.

§  Thaler L et al. (2018). Human echolocators adjust loudness and number of clicks for detection of reflectors at various azimuth angles. Proceedings of the Royal Society: Series B Biological Sciences. 285(1873),20172735. https://doi.org/10.1098/rspb.2017.2735.

§  Thaler L et al. (2020). The flexible Action System: Click-based echolocation may replace certain visual Functionality for adaptive Walking. Journal of Experimental Psychology: Human Perception and Performance 46(1), 21-35.

 https://doi.org/10.1037/xhp0000697.

§  Wallmeier L et al. (2015). Aural localization of silent objects by active human biosonar: Neural representations of virtual echo-acoustic space. European Journal of Neuroscience, 41(5), 533-545. https://doi.org/10.1111/ejn.12843.

 

Traduzido com Google Tradutor

 

 

Ver: https://www.youtube.com/watch?v=Wd_LdaCVlkE&list=PLBh7JJVBI7JOhaFzFP7QDVf3C0I5qvqm_

 



[2] (C)mail@JanDrewes.de 2010 − https://doi.org/10.36866/pn.126.20

[3] Kolarik et al., 2014; 2021

[4] Thaler et al., 2017

[5] Castillo-Serrano et al., 2020

[6] Thaler et al., 2020

[7] Thaler et al., 2011; Wallmeier et al., 2015

[8] Norman e Thaler, 2019

[9] Norman et al., 2021

Nenhum comentário:

Postar um comentário