Weby shortcut 1a5a9004da81162f034eff2fc7a06c396dfddb022021fd13958735cc25a4882f
Youtubeplay db0358e6953f0d0ec2cd240bca6403729d73b33e9afefb17dfb2ce9b7646370a
olhos icon

Mais autonomia no cotidiano de pessoas com deficiência visual

Aplicativo desenvolvido por pesquisadores da UFG funciona como “olho eletrônico” e descreve situações em tempo real

olhos

Vinicius Paiva e Angélica Queiroz – Fotos: Divulgação e Tv UFG

Em todo o mundo, mais de 200 milhões de pessoas possuem alguma deficiência visual, e, destas, 39 milhões são cegas. No Brasil, 3,5% da população declara ter algum tipo de deficiência visual, sendo esta alegadamente a deficiência mais comum entre os brasileiros. Com a finalidade de facilitar o cotidiano e gerar autonomia de locomoção e localização para essas pessoas, pesquisadores da UFG desenvolveram um aplicativo que descreve ambientes para pessoas cegas utilizando a câmera de smartphones: o Deep Vision – Olho Eletrônico.

A solução foi inspirada no projeto be my eyes, da Noruega, em que a pessoa com limitação visual registra um vídeo ou uma foto com o celular e envia para um colaborador com visão para descrever a cena. Nesse contexto, o aluno de doutorado e também professor da UFG, Otávio Calaça Xavier, pensou na ideia de substituir o colaborador por uma inteligência artificial para auxiliar as pessoas que possuem esse tipo de necessidade. Posteriormente, uniram-se ao projeto o professor da Faculdade Senai, Francisco Calaça Xavier, o aluno de doutorado da UFG, Bruno Moraes Rocha, e o professor da Faculdade Sul Americana (Fasam), Leonardo Antônio Alves.

 

teste deep vision Veja como funciona o aplicativo no vídeo

O olho eletrônico funciona a partir dos comandos de voz “veja” ou “o que tem aqui?”, que acionam a câmera do dispositivo que fotografa a situação e, em seguida, detalha especificamente, por meio de áudio, o ambiente em que o usuário se encontra. O aplicativo tem três funcionalidades específicas: a descrição de ambientes, o direcionamento sensorial do trânsito no qual a câmera capta objetos em movimento e obstáculos gerando um efeito sonoro no fone de ouvido e a leitura de textos com voz sintética a partir da câmera do celular. O projeto tem um site, no qual qualquer pessoa pode realizar um teste e entender como o software funciona.

O pesquisador e professor do Instituto de Informática da UFG, Anderson Soares, um dos idealizadores do projeto, explica que “a ideia é que o aplicativo colabore com os mecanismos de acessibilidade já existentes, permitindo que o usuário se localize com total autonomia, sem precisar de outro indivíduo”. Atualmente, o projeto está em fase experimental inicial e de demonstração de viabilidade.

A expectativa, segundo o pesquisador, é que o aplicativo esteja disponível para download até o final deste ano, mas seu funcionamento dependerá de conexão com a internet. Já para 2019, o objetivo é a criação de um equipamento totalmente autônomo: um óculos eletrônico com as mesmas funcionalidades, mas que não faça uso de banda larga, para regiões onde o acesso móvel de internet ainda não é uma realidade – 90% das pessoas com deficiência virtual vivem em países pobres.

 olho eletrônico

Redes Neurais

O Deep Vision faz parte de uma vertente da inteligência artificial conhecida como “aprendizagem profunda”, do inglês Deep Learning, que promove o entendimento de grandes bases de dados, como por exemplo, as imagens. O aplicativo utiliza quatro redes neurais com aproximadamente 400 milhões de parâmetros que fazem o reconhecimento das imagens. A primeira rede é responsável por fazer o reconhecimento da voz do usuário, acionando a câmera para a captura da foto eletrônica.

Em seguida, a segunda rede detecta os objetos presentes na imagem que foi tirada pela câmera, acionando a terceira rede que relaciona os objetos detectados construindo uma semântica de entendimento da cena e produzindo um texto descritivo. O pesquisador aponta que, por fim, a última rede neural é acionada para a geração de voz sintética, tanto em inglês quanto em português, para descrever a situação em que o usuário se encontra.

Anderson Soares explica que o treinamento das redes neurais é longo, desafiador e demanda infraestrutura de alto custo, mas que, uma vez que elas estejam treinadas, o uso das redes neurais artificiais profundas é simples e barato. O projeto utilizou, até o momento, equipamentos adquiridos com recursos da Fundação de Amparo à Pesquisa do Estado de Goiás (Fapeg). No entanto, uma vez demonstrada a viabilidade do uso da tecnologia, novos investimento serão necessários para acelerar a disponibilização da solução de modo universal.

Se você deseja ser um dos patrocinadores do projeto, entre em contato com o professor Anderson pelo e-mail <anderson@inf.ufg.br>. As doações e financiamentos são intermediadas e gerenciadas por fundações de amparo à pesquisa das universidades participantes. Atualmente o projeto está sediado na UFG, com apoio do Instituto Federal de Goiás (IFG), Fasam, Senai e do Instituto de Inteligência Artificial Aplicada.

 

Fonte : Ascom UFG

Categorias : Pesquisa inf Edição 85 olho eletrônico deep vision

Listar Todas Voltar