IA ensinou a ler mentes sem implantes, mas apenas se você quiser

Novas tecnologias de computador prometem perspectivas vertiginosas para ajudar pessoas com danos no cérebro ou no sistema nervoso. Até agora, tais soluções não são muito sensíveis e muito incômodas, e é apenas uma questão de tempo até que se tornem disponíveis para uma ampla gama de pacientes. Esse momento pode ser aproximado por sistemas de inteligência artificial, que, a partir do princípio da autoaprendizagem, são capazes de multiplicar a sensibilidade das interfaces cerebrais.

O cérebro envia telegramas. Fonte da imagem: Jerry Tang/Martha Morales/Universidade do Texas em Austin

O próximo passo na direção de métodos não invasivos de registro de pensamentos foi dado por cientistas da Universidade do Texas em Austin. Eles usaram ressonância magnética funcional (fMRI) para registrar a atividade cerebral dos pacientes, que foi traduzida em imagens usando mensagens de texto usando IA – aprendizado de máquina em grandes modelos de linguagem como o GPT da Open AI. Simplificando, a modelo relatou diretamente no chat tudo o que a pessoa estava pensando no momento. Mas, ao mesmo tempo, nem tudo é tão simples.

Primeiro, a descrição era mais precisa quanto mais disposto o paciente colaborava com os cientistas. A propósito, isso evita a leitura forçada da mente. Se você não quer dar “pensamentos” – pense em outra coisa. Em segundo lugar, os dados foram interpretados corretamente e com mais precisão apenas se a IA fosse treinada em um paciente específico. Em particular, cada um dos sujeitos ouviu fala oral por 16 horas, durante as quais o modelo estudou a atividade de seu cérebro.

«Levamos muito a sério as preocupações de que isso possa ser mal utilizado e tentamos evitá-lo”, disse Jerry Tang, principal autor do estudo. “Queremos garantir que as pessoas usem essas tecnologias apenas quando quiserem e que isso as ajude.”

A solução proposta baseia-se no fato de que, no processo de criação de imagens na cabeça e, em particular, de construções verbais, o nível de oxigênio aumenta ali mesmo quando o cérebro reage a algo específico. Isso pode ser uma visualização (abaixo está um exemplo de decodificação de atividade cerebral por IA ao assistir a um vídeo sem som), bem como os próprios pensamentos do paciente. O dispositivo fMRI registra essas áreas e o aprendizado de máquina as associa a imagens e as traduz em texto que todos podem entender.

A velocidade desse registro é baixa – o nível de oxigênio sobe e desce em 10 segundos. Durante esse tempo, uma pessoa consegue ouvir cerca de 20 palavras. Na verdade, este é o nível atual de decodificação de imagem. Para cada imagem que pode ser decodificada da atividade cerebral humana registrada dessa maneira, é necessário um intervalo de cerca de 20 palavras.

A plataforma fMRI requer trabalho de laboratório, o que não é adequado para sua aplicação em massa. Os pesquisadores consideram outra abordagem promissora, que dá o mesmo resultado, a espectroscopia funcional no infravermelho próximo (fNIRS). Os sensores fNIRS são compactos e convenientes a esse respeito. Eles capturam a atividade do fluxo sanguíneo no cérebro e, portanto, podem se basear no mesmo princípio e no mesmo modelo de aprendizado do caso da fMRI. Talvez este seja o próximo passo nas pesquisas do grupo científico.

avalanche

Postagens recentes

Suporte até 2026, surpresa de aniversário e conteúdo gratuito: estúdios de 11 bits revelaram o plano de desenvolvimento para Frostpunk 2

A editora e desenvolvedora polonesa 11 bit studios compartilhou em uma publicação no site Steam…

31 minutos atrás

El Salvador vai alugar vulcões para mineração de bitcoin

As autoridades de El Salvador, país centro-americano rico em energia geotérmica, pretendem alugar vulcões a…

41 minutos atrás

Após a atualização para o Windows 11 24H2, os computadores pararam de “ver” muitos scanners e MFPs

Os usuários encontraram mais problemas após atualizar o Windows 11 para 24H2. Desta vez, eles…

1 hora atrás