Com a ajuda da IA ​​e do EEG, os cientistas aprenderam a ler os pensamentos das pessoas sem entrar em suas cabeças com um bisturi

Quanto mais fundo os sensores ultrassensíveis dos cientistas penetram no cérebro, mais precisos são os sinais e melhor é a decodificação dos pensamentos. No entanto, gostaria de aprender como reconhecer a fala mental sem cirurgia. Seria mais fácil e seguro. Cientistas da Austrália deram um passo nessa direção, mostrando a possibilidade de reconhecer com bastante precisão os pensamentos dos pacientes sem instalar sensores dentro do cérebro.

Fonte da imagem: UTS

Uma tampa simples com eletrodos foi usada para ler a atividade cerebral. Ela fez um eletroencefalograma (EEG) – procedimento de rotina, em geral, para estabelecer muitos diagnósticos relacionados ao funcionamento do cérebro. Este procedimento é permitido até mesmo para crianças e não representa nenhum perigo para o paciente. Claro, você não pode ler pensamentos com isso. Portanto, na fase seguinte, os cientistas adicionaram um modelo de linguagem grande (LLM) e um conjunto de dados ZuCo aberto ao EEG, o que imediatamente tornou o desenvolvimento promissor.

O pacote ZuCo contém dados sobre a trajetória dos movimentos oculares do paciente durante o processo de leitura em combinação com leituras de EEG. Quanto tempo o olhar permanece numa palavra, onde e com que ritmo ele salta, e assim por diante. Quando combinados com IA (com um grande modelo de linguagem) e dados de EEG, surgem comparações que são traduzidas em texto.

Pesquisadores da Universidade de Tecnologia de Sydney (UTS) criaram a plataforma DeWave LLM, que testaram em 29 voluntários. Descobriu-se que a precisão do reconhecimento de frases faladas mentalmente é em média de 42,8% no âmbito do método de avaliação bilíngue de tradução automática BLEU-1. Muito bom para tecnologia não invasiva de leitura de mentes.

Ao mesmo tempo, o sistema frequentemente utilizava sinônimos em vez das palavras realmente faladas pelo paciente e verbos melhor compreendidos, o que pode ser explicado por um conjunto limitado de dados. No entanto, há espaço para melhorar a metodologia e a experiência tem demonstrado isso bem. Em qualquer caso, é melhor do que nada e, para quem sofre de problemas de fala, esta é uma oportunidade de regressar à comunicação ao vivo.

avalanche

Postagens recentes

As autoridades chinesas acusaram os Países Baixos de inação em relação à situação dos Nexperia apreendidos.

Um dos escândalos mais memoráveis ​​do ano passado na indústria de semicondutores foi a tomada…

40 minutos atrás

Elon Musk adquiriu um terceiro edifício para o projeto Colossus de sua startup de IA, a xAI.

Elon Musk, conhecido por suas ambições nada modestas, está demonstrando-as no setor de IA, desenvolvendo…

1 hora atrás

A ByteDance planeja investir US$ 14 bilhões em chips da Nvidia em 2026.

O último trimestre foi marcado por uma mudança significativa na política de controle de exportações…

2 horas atrás

O SoftBank conseguiu investir todos os US$ 41 bilhões prometidos na OpenAI.

Conforme noticiado anteriormente, a corporação japonesa SoftBank começou a buscar freneticamente fundos no final do…

3 horas atrás

As empresas chinesas ByteDance e Tencent aumentaram drasticamente os salários e bônus de seus especialistas em IA em 150%.

Em meio à corrida global pela liderança em inteligência artificial, gigantes chinesas da tecnologia têm…

3 horas atrás

Os primeiros laptops com Windows equipados com Snapdragon X2 Elite e X2 Plus serão lançados na próxima semana.

Anunciados há alguns meses, os processadores Snapdragon X2 Elite de última geração da Qualcomm para…

8 horas atrás