Pesquisas sobre
inteligência artificial avançaram a partir dos anos 1990 com nova abordagem
Especialistas acreditam que a
inteligência das máquinas se equiparará à de humanos até 2050, graças a uma
nova era na sua capacidade de aprendizado.
Computadores já estão começando
a assimilar informações a partir de dados coletados, da mesma forma que
crianças aprendem com o mundo ao seu redor.
Isso significa que estamos
criando máquinas que podem ensinar a si mesmas a participar de jogos de
computador – e ser muito boas neles – e também a se comunicar simulando a fala
humana, como acontece com os smartphones e seus sistemas de assistentes
virtuais.
Fei-Fei Li, professora da
Universidade de Stanford e diretora do laboratório de visão computacional da
instituição, passou os últimos 15 anos ensinando computadores a enxergar.
Seu objetivo é criar olhos
eletrônicos para robôs e máquinas e torná-los capazes de entender o ambiente em
que estão.
Metade da capacidade cerebral de
um humano é usada no processamento visual, algo que fazemos sem um grande
esforço aparente.
"Ninguém diz para uma
criança como enxergar. Ela aprende isso por meio de experiências e exemplos do
mundo real", disse Li em sua palestra na conferência TED neste ano.
"Se você pensar, os olhos
de uma criança são como um par de câmeras biológicas que tiram fotografias a
cada 200 milissegundos, o tempo médio dos movimentos oculares. Então, aos 3
anos de idade, uma criança teria centenas de milhões de fotos. Isso é um grande
treinamento."
Ela decidiu ensinar computadores
da mesma forma. "Em vez de só me concentrar em criar em algoritmos cada
vez melhores, minha ideia é dar aos algoritmos o treinamento que crianças
recebem por meio de experiências, quantitativamente e qualitativamente."
Em 2007, Li e um colega de
profissão deram início a uma tarefa desafiadora: filtrar e identificar 1 bilhão
de imagens obtidas na internet para que sirvam de exemplos do que é o mundo
real para um computador.
Eles pensavam que, se uma
máquina visse imagens suficientes de uma determinada coisa, como um gato, por
exemplo, seria capaz de reconhecer isso na vida real.
Eles pediram ajuda em
plataformas de colaboração online e contaram com o apoio de 50 mil pessoas de
167 países. No fim, tinham a ImageNet, uma base dados de 15 milhões de imagens
relativas a 22 mil tipos de objetos, organizada de acordo com seus nomes em
inglês.
Isso se tornou um recurso
valioso usado por cientistas ao redor do mundo que buscam conferir aos
computadores uma forma de visão.
Todos os anos, a Universidade de
Stanford realiza uma competição, convidando empresas como Google, Microsoft e a
chinesa Baidu, para testar a performance de seus sistemas com base na ImageNet.
Nos últimos anos, estes sistemas
tornaram-se especialmente bons em reconhecer imagens, com uma margem de erro
média de 5%.
Para ensinar computadores a
reconhecer imagens, Li e sua equipe usaram redes neurais, nome dado a programas
de computadores feitos a partir de células artificiais que funcionam de forma
muito semelhante à de um cérebro humano.
Uma rede neural dedicada a
interpretar imagens pode ter desde algumas centenas a até milhões destes
neurônios artificiais, dispostos em camadas.
Cada camada reconhece diferentes
elementos de uma imagem. Uma aprende que uma imagem é feita de pixels. Outra
reconhece cores. Uma terceira determina seu formato e assim por diante.
Ao chegar à camada superior – e
as redes neurais hoje têm até 30 camadas –, esta rede é capaz de ter uma boa
noção do que se trata a imagem.
Em Stanford, uma máquina assim
agora escreve legendas precisas para vários tipos de imagens, apesar de ainda
cometer erros, como, por exemplo, dizer que uma foto de um bebê segurando uma
escova de dente foi identificada como "um menino segurando um taco de
beisebol".
Apesar de uma década de trabalho
duro, disse Li, esta máquina ainda tem a inteligência de uma criança de 3 anos.
E, ao contrário desta criança, ela não é capaz de compreender contextos.
"Até agora, ensinamos um
computador a ver objetivamente ou a nos contar uma história simples quando vê
uma imagem", afirmou Li.
Mas, quando pede para que a
máquina avalie uma imagem de seu filho em uma festa de família, o computador
simplesmente diz se tratar de um "menino de pé ao lado de um bolo".
"O computador não vê que é
um bolo especial que é servido apenas na época da Páscoa", explicou Li.
Este é o próximo passo de sua
pesquisa no laboratório: fazer com que máquinas entendam uma cena por completo,
além de comportamentos humanos e as relações entre diferentes objetos.
A meta final é criar robôs que
"enxergam" para que auxiliem em cirurgias, buscas e resgates e que,
no fim das contas, promovam melhorias em nossas vidas, segundo Li.
O complexo trabalho realizado em
Stanford tem como base o lento progresso obtido nesta área nos últimos 60 anos.
Em 1950, o cientista da
computação britânico Alan Turing já especulava sobre o surgimento de uma
máquina pensante, e o termo "inteligência artificial" foi cunhado em
1956 pelo cientista John McCarthy.
Após alguns avanços
significativos nos anos 1950 e 1960, quando foram criados laboratórios de
inteligência artificial em Stanford e no Instituto de Tecnologia de
Massachussets (MIT, na sigla em inglês), ficou claro que a tarefa de criar uma
máquina assim seria mais difícil do que se pensava.
Veio então o chamado
"inverno da inteligência artificial", um período sem grandes
descobertas nesta área e com uma forte redução no financiamento de suas
pesquisas.
Mas, nos anos 1990, a comunidade
dedicada à inteligência artificial deixou de lado uma abordagem baseada na
lógica, que envolvia criar regras para orientar um computador como agir, para
uma abordagem estatística, usando bases de dados e pedindo para a máquina
analisá-los e resolver problemas por conta própria.
Nos anos 2000, um processamento
de dados mais veloz e a grande oferta de dados criaram um ponto de inflexão
para a inteligência artificial, fazendo com que esta tecnologia esteja presenta
em muitos dos serviços que usamos hoje.
Ela permite que a Amazon
recomende livros, o Netflix indique filmes e o Google ofereça resultados de
buscas mais relevantes. Algoritmos passaram a estarem presentes nas negociações
feitas em Wall Street, indo às vezes longe demais, como em 2010, quando um
algoritmo foi apontado como culpado por uma perda de bilhões de dólares na
Bolsa Nova York.
Também serviu de base para os
assistentes virtuais de smartphones, como a Siri, da Apple, o Now, do Google, e
a Cortana, da Microsoft.
Neste momento, máquinas assim
estão aprendendo em vez de pensar. É alvo de controvérsia se é possível
programar uma máquina para pensar, já que a complexa natureza do pensamento
humano tem intrigado cientistas e filósofos há séculos.
E ainda assim restarão elementos
da mente humana, como sonhar acordado, por exemplo, que máquinas nunca serão
capazes de replicar.
Ainda assim, a habilidade destes
computadores vem melhorando, e a maioria das pessoas concorda que a
inteligência artificial está entrando em sua era de ouro e só se tornará mais
eficiente aqui daqui em diante.
Nenhum comentário:
Postar um comentário