Economia e mercado 06 Jan
Cientistas da Universidade de Cornell inventaram um par de óculos que podem “ouvir” comandos do usuário sem que ele diga uma palavra em voz alta. Embora isso pareça a definição de “telepatia”, os acessórios possuem um sistema que permite rastrear movimentos do rosto enquanto uma pessoa articula comandos com a boca sem emitir som.
Chamado de “EchoSpeech”, o objeto pode ser conectado ao celular ou tablet do usuário para que seus comandos silenciosos sejam reconhecidos de forma incrivelmente rápida. Os pesquisadores demonstraram os óculos funcionando em vídeo. Confira:
O EchoSpeech possui três componentes fundamentais:
- Um conjunto de dois alto-falantes para emitir som;
- Um conjunto de dois microfones para detectar eco;
- Um microcontrolador para processamento e conexão com o smartphone.
Os óculos funcionam como um sonar, um equipamento que emite ondas sonoras para detectar de objetos no fundo do oceano. Os pulsos de som emitidos se chocam com obstáculos e retornam à sua fonte, permitindo estimar a localização do objeto procurado com base na velocidade e direção das ondas refletidas.
De forma similar, o EchoSpeech utiliza seus alto-falantes para emitir ondas sonoras que ecoam pelo rosto do usuário — especialmente pelos lábios, onde há mais movimentação — durante a fala. Então, os microfones se encarregam de capturar as ondas sonoras refletidas pela superfície do rosto para que os algoritmos dos óculos decifrem a palavra dita.
A agilidade de processamento dos óculos se deve ao treinamento prévio de sua inteligência artificial, que aprende os padrões de fala do usuário. Os pesquisadores afirmam que o sistema precisa de somente alguns minutos de treinamento simples que, no geral, envolve apenas a leitura de uma sequência de números pelo usuário.
A maioria dos dispositivos de reconhecimento labial disponíveis no mercado exigem uma câmera, e é este o ponto em que os “óculos sonares” se destacam: todo o processo é feito com bases acústicas, dispensando a inconveniência e as questões de privacidade envolvidas em carregar um aparelho equipado com um sensor de imagem.
O EchoSpeech é capaz de reconhecer até 31 comandos articulados com 95% de precisão. Sua bateria integrada possui 10 horas de autonomia para a detecção de ondas sonoras. Alguns dos exemplos de uso citados pela equipe incluem controlar a reprodução de música, alternar comandos em um aplicativo e até mesmo desbloquear o celular.
Liderada pelo estudante Ruidong Zhang, a equipe do Smart Computer Interfaces for Future Interactions (SciFi) Lab espera que os óculos possam ser comercializados no futuro.
“Para as pessoas que não podem vocalizar com som, essa tecnologia de fala silenciosa pode ser uma ótima entrada para um sintetizador de voz”, acrescenta Zhang. “Isso poderia dar aos pacientes suas vozes de volta.”
Comentários