A tecnologia EarCommand permitirá que você dê comandos silenciosamente aos gadgets, pronunciando-os para si mesmo

Embora seja bastante conveniente controlar dispositivos usando comandos de voz, frases altas e claras podem incomodar os outros. O sistema EarCommand, desenvolvido por cientistas da Universidade Estadual de Nova York, permite “ler” os comandos falados pelo usuário para si mesmo, e isso não requer leitura da atividade cerebral.

Fonte da imagem: Caley Vanular/unsplash.com

Normalmente, os comandos de voz podem ser ouvidos por outras pessoas, seu reconhecimento por gadgets pode sofrer interferência do ruído ambiente, além disso, pode ser difícil para os dispositivos distinguir uma voz da outra, o que levará a erros na operação.

A tecnologia EarCommand, desenvolvida por uma equipe de pesquisadores da Universidade Estadual de Nova York em Buffalo, baseia-se no fato de que mesmo falar qualquer palavra para si mesmo é acompanhado por atividade muscular e algum deslocamento dos ossos, como resultado do qual o ouvido canal é deformado de diferentes maneiras. Em outras palavras, diferentes “padrões” de deformações são característicos de certas palavras.

O componente de hardware do EarCommand inclui um dispositivo semelhante a um fone de ouvido que transmite sinais próximos ao ultrassom no canal auditivo. Os sinais refletidos da superfície interna do canal são recebidos pelo microfone interno do fone de ouvido, e um computador associado ao dispositivo analisa esses ecos usando um algoritmo especial para avaliar a deformação do canal e determinar qual palavra é falada.

Nos experimentos, os usuários falaram 32 comandos de uma palavra e 25 comandos compostos por frases inteiras. No nível da palavra, a proporção de erros foi de 10,2% e no nível da frase – 12,3%. Espera-se que, à medida que a tecnologia avança, a taxa de erro diminua. Além disso, o equipamento funciona mesmo quando o usuário está usando máscara ou está em um ambiente ruidoso e, diferentemente de alguns sistemas que leem palavras faladas, não é necessária nenhuma câmera para usar a tecnologia.

Vale ressaltar que uma tecnologia EarHealth semelhante está sendo testada por colegas da mesma universidade para fins médicos – sinais semelhantes e leituras de eco deles são usados ​​para detectar problemas de audição, por exemplo, diagnosticar tímpanos danificados ou otite média, que é muito comum doença.

avalanche

Postagens recentes

Fabricante de carros elétricos Rivian perde vários executivos seniores

No início de janeiro, soube-se que a jovem montadora americana Rivian produziu 24.337 veículos elétricos…

21 minutos atrás

Após um longo hiato, Tesla revelou estatísticas de acidentes de piloto automático – melhorou

No ano passado, como lembra a Electrek, a Tesla, sem explicação, parou de publicar estatísticas…

59 minutos atrás