Dr. Lore Thaler[2]
Professor Associado, Departamento de Psicologia,
Universidade de Durham, Reino Unido
Os humanos podem aprender a usar a ecolocalização,
auxiliando na mobilidade, independência e bem-estar de pessoas com deficiência
visual ou cegas.
Características
Um dia em 2009 (quando eu era um
pós-doutorado na Western University no Canadá), me deparei com relatos de
pessoas que eram totalmente cegas e podiam fazer coisas como andar de
bicicleta, jogar basquete e fazer trilhas usando ecolocalização. Junto com meu
orientador de pós-doutorado Mel Goodale, assisti a videoclipes sobre pessoas
notáveis como Daniel Kish e Juan Ruiz, apelidados de Morcegos Humanos. Juan
Ruiz e Daniel Kish são cegos e excepcionalmente habilidosos em ecolocalização a
ponto de andarem de mountain bike ou conseguirem dizer o que são objetos sem
tocá-los. Eles também ensinam outros. Foi quando comecei a trabalhar na
ecolocalização humana. Hoje, no meu laboratório, investigamos a ecolocalização
humana como um tópico por si só e a usamos para entender como o cérebro humano
se adapta ao aprendizado de novas habilidades.
Como os humanos usam a ecolocalização e como ela difere
de outros animais?
Morcegos e golfinhos são bem conhecidos
por sua capacidade de usar a ecolocalização. Eles emitem rajadas de sons e
ouvem os ecos que ricocheteiam para perceber seu ambiente. A ecolocalização
humana usa a mesma técnica. Ela depende de uma emissão audível inicial e da
reflexão subsequente do som do ambiente. Quando as pessoas ecolocalizam, elas
fazem emissões audíveis como estalos de boca, estalos de dedos, assobios,
batidas de bengala ou passos. Tudo isso está no espectro audível, ao contrário
das emissões de ultrassom que morcegos ou golfinhos usam. Embora todas as
pessoas, cegas ou videntes, possam aprender a ecolocalizar, até o momento os
ecolocalizadores humanos mais habilidosos são cegos[3].
As emissões que os
ecolocalizadores proficientes preferem usar são cliques na boca. Em nosso
trabalho, medimos milhares desses cliques e descobrimos que eles são muito
breves (~5 ms) e que o feixe de som se espalha de uma forma que gosto de chamar
de "feixe de uma lanterna acústica[4]".
Também descobrimos que as pessoas ajustam os cliques dinamicamente. Por
exemplo, as pessoas farão mais cliques ou cliques mais altos quando o eco for
comparativamente mais fraco ou para compensar ruídos interferentes[5].
Essa natureza dinâmica provavelmente será importante ao usar a ecolocalização
em ambientes externos.
Também usamos captura de
movimento para investigar como a ecolocalização está relacionada ao movimento
do corpo, por exemplo, durante a caminhada. A tecnologia de captura de
movimento que usamos é a mesma usada para criar filmes CGI, como Avatar
ou The Polar Express. Marcadores reflexivos são colocados no corpo de
uma pessoa, e os movimentos desses marcadores são capturados com câmeras
especiais. Usando essa tecnologia, descobrimos que a ecolocalização pode dar
suporte à caminhada de forma semelhante à visão[6].
Descobrimos que pessoas cegas e que têm experiência com o uso da ecolocalização
andam tão rápido quanto as pessoas que usam a visão. Elas também têm caminhos
de caminhada muito semelhantes aos de pessoas videntes que usam a visão, por
exemplo, ao contornar obstáculos.
Compreendendo a atividade cerebral relacionada aos ecos
Também estamos interessados na
base cerebral para ecolocalização em pessoas. Métodos de neuroimagem, como
ressonância magnética funcional (fMRI), são adequados para investigar isso. Um
dos problemas que enfrentamos ao usar fMRI para investigar ecolocalização é que
o scanner é um espaço muito confinado, sem espaço suficiente para realmente
ecolocalizar. Na verdade, durante a varredura, o participante fica dentro de um
tubo estreito com apenas 60 cm de diâmetro, e o interior desse tubo fica a
cerca de 10 cm dos seus olhos ou boca, então realmente muito perto. Isso pode
ser superado usando espaços acústicos de eco "virtuais".
No meu laboratório, usamos
cenários de escuta passiva. Para fazer isso, primeiro fazemos gravações dentro
dos ouvidos de um participante enquanto ele está ecolocalizando cenários fora
do scanner. Posteriormente, dentro do scanner, esses cenários são recriados
reproduzindo as gravações usando fones de ouvido especiais. Outros laboratórios
superaram esse problema gravando os cliques que as pessoas fazem dentro do
scanner e, em seguida, processando-os para criar uma cena virtual, que é
reproduzida para o participante por meio de fones de ouvido. A vantagem dessa
técnica é que o participante pode fazer suas próprias emissões durante a
varredura. Além disso, também usamos sequências de varredura especiais, para
que o scanner de ressonância magnética fique em silêncio enquanto o
participante ouve os sons de ecolocalização. Se usássemos sequências de
varredura regulares, seria muito barulhento para o participante ouvir qualquer
coisa.
Quais partes do cérebro são ativadas?
Estudos usando essas técnicas
mostraram que pessoas cegas e habilidosas em ecolocalização usam não apenas a
parte auditiva do cérebro para processar ecos, mas também usam as partes do
cérebro que processam a visão em pessoas com visão normal[7].
Em pessoas com visão normal, as áreas corticais visuais iniciais, como o córtex
visual primário, são ativadas pela estimulação visual em um padrão específico
que é chamado de retinotopia. Descobrimos que em ecolocalizadores cegos,
o córtex visual primário é ativado pela estimulação acústica em um padrão
específico que se assemelha à retinotopia[8].
Nossos resultados sugerem que a atividade "retinotópica" também pode
ser conduzida pelo som, e que isso é facilitado pela experiência com
ecolocalização. Esse resultado desafia nossa compreensão clássica da
organização da função cerebral pela modalidade sensorial e abre outras maneiras
de entender os sentidos humanos.
Compreendendo a capacidade do cérebro de se adaptar e
aprender novas habilidades
A pesquisa atual em meu
laboratório está investigando como essas mudanças surgem no cérebro humano. As
descobertas serão úteis para aprender sobre a capacidade inerente (ou
limitações) do cérebro humano de se adaptar ao aprendizado de novas
habilidades. A ecolocalização é um paradigma perfeito para medir essas mudanças
porque as pessoas começam do zero (a menos que já tenham experiência em
ecolocalização), de modo que há uma boa linha de base a partir da qual a
mudança pode ser medida. Ela também fornece um amplo escopo para melhorias.
Isso também será útil para determinar os efeitos de reabilitação do treinamento
para pessoas cegas. Especificamente, podemos rastrear as mudanças ao longo do
tempo e comparar os efeitos antes e depois do treinamento, tanto no nível
comportamental quanto no cerebral.
Os benefícios da ecolocalização baseada em cliques para
pessoas com deficiência visual ou cegas
A ecolocalização é uma
habilidade aprendível que pode ser adquirida por pessoas cegas e também por
pessoas com visão. Em um estudo recente, investigamos se o treinamento em
ecolocalização baseada em cliques leva a benefícios significativos para pessoas
cegas[9].
Em nosso estudo, treinamos pessoas com visão e pessoas cegas (de 21 a 79 anos)
ao longo de 10 semanas. As pessoas foram treinadas para usar seus próprios
cliques na boca para determinar o tamanho, a localização e a orientação de
objetos colocados na frente delas a várias distâncias. Elas também foram
treinadas em uma tarefa de ecolocalização baseada em computador, onde usaram
botões em um teclado de computador para navegar por um conjunto de corredores
usando sons de ecolocalização que ouviram em fones de ouvido. Todos melhoraram
suas habilidades de ecolocalização, ou seja, a precisão ou a velocidade das
respostas nessas várias tarefas melhoraram.
É importante ressaltar que nem a
idade nem a cegueira foram fatores limitantes na taxa de aprendizado dos
participantes (ou seja, sua mudança no desempenho da primeira para a última
sessão) ou em sua capacidade de aplicar suas habilidades de ecolocalização a
tarefas novas e não treinadas. Três meses após a conclusão do treinamento,
descobrimos que todos os participantes cegos relataram mobilidade melhorada, e
83% dos participantes cegos também relataram bem-estar e independência melhoradas
em suas vidas diárias.
Todos os participantes cegos
neste estudo eram viajantes independentes e tinham habilidades de mobilidade
antes de participar do estudo (por exemplo, usuários de bengala longa ou
cão-guia). Portanto, quaisquer benefícios da ecolocalização baseada em cliques
que observamos foram adicionais às habilidades preexistentes. Os resultados
deste trabalho sugerem que a ecolocalização pode ser uma habilidade útil para
pessoas cegas, e que mesmo 10 semanas de treinamento podem levar a benefícios
mensuráveis em termos de mobilidade, independência e bem-estar. O fato de que
a capacidade de aprender a ecolocalização baseada em cliques não foi fortemente
limitada pela idade ou nível de visão tem implicações positivas para a
reabilitação de pessoas com perda de visão ou nos estágios iniciais de perda
progressiva da visão.
O trabalho em andamento e futuro
no meu laboratório continuará investigando questões relacionadas à
ecolocalização humana e usando a ecolocalização como um paradigma para entender
melhor o cérebro humano e a cognição. Por exemplo, gostaríamos de usar a ecolocalização
para aprender mais sobre a capacidade do cérebro de se adaptar a mudanças em
função da idade. Por exemplo, como as crianças adquirem habilidades de
ecolocalização, e como isso se compara aos adultos e como isso está relacionado
à perda sensorial? Uma melhor compreensão dessas questões também pode ter
aplicações potenciais para o momento de intervenções de reabilitação para
crianças e jovens.
Referências
§ Castillo-Serrano JG et al. (2021). Increased emission
intensity can compensate for the presence of noise in human click-based
echolocation. Scientific Reports 11(1), 1-11. http://doi.org/10.1038/s41598-021-81220-9.
§ Kolarik AJ et al. (2014).
A summary of research investigating echolocation abilities of blind and sighted
humans. Hearing Research 310, 60-68.
https://doi.org/10.1016/j.heares.2014.01.010.
§ Kolarik AJ et al. (2021).
A framework to account for the effects of visual loss on human auditory
abilities. Psychological Review, 128(5), 913. https://doi.org/10.1037/rev0000279.
§ Norman L, Thaler L
(2019). Retinotopic-like maps of spatial sound in primary ‘visual’ cortex of
blind human echolocators. Proceedings of the Royal Society: Series B
Biological Sciences 286(1912), 20191910. https://doi.org/10.1098/rspb.2019.1910.
§ Norman L et al. (2021).
Human click-based echolocation: Effects of blindness and age, and real-life
implications in a 10-week training program. PLoS ONE 16(6), e0252330. https://doi.org/10.1371/journal.pone.0252330.
§ Thaler L et al. (2011).
Neural correlates of natural human echolocation in early and late blind
echolocation experts. PLoS ONE 6(5): e20162.
https://doi.org/10.1371/journal.pone.0020162.
§ Thaler L et al. (2017).
Mouth-clicks used by blind human echolocators – Signal description and model
based signal synthesis. PLoS Computational Biology 13(8): e1005670. https://doi.org/10.1371/journal.pcbi.1005670.
§ Thaler L et al. (2018). Human echolocators adjust
loudness and number of clicks for detection of reflectors at various azimuth
angles. Proceedings of the Royal Society: Series B Biological Sciences.
285(1873),20172735. https://doi.org/10.1098/rspb.2017.2735.
§ Thaler L et al. (2020). The flexible Action System:
Click-based echolocation may replace certain visual Functionality for adaptive
Walking. Journal of Experimental Psychology: Human Perception and
Performance 46(1), 21-35.
https://doi.org/10.1037/xhp0000697.
§ Wallmeier L et al. (2015). Aural localization of
silent objects by active human biosonar: Neural representations of virtual
echo-acoustic space. European Journal of Neuroscience, 41(5), 533-545. https://doi.org/10.1111/ejn.12843.
Traduzido
com Google Tradutor
Ver: https://www.youtube.com/watch?v=Wd_LdaCVlkE&list=PLBh7JJVBI7JOhaFzFP7QDVf3C0I5qvqm_
[1] The
Physiological Society − https://www.physoc.org/magazine-articles/echolocation-in-people/
[2] (C)mail@JanDrewes.de 2010
− https://doi.org/10.36866/pn.126.20
[3] Kolarik et al., 2014;
2021
[4] Thaler et al., 2017
[5] Castillo-Serrano et al.,
2020
[6] Thaler et al., 2020
[7] Thaler et al., 2011;
Wallmeier et al., 2015
[8] Norman e Thaler, 2019
[9] Norman et al., 2021
Nenhum comentário:
Postar um comentário