IA ensinou a ler mentes sem implantes, mas apenas se você quiser

Novas tecnologias de computador prometem perspectivas vertiginosas para ajudar pessoas com danos no cérebro ou no sistema nervoso. Até agora, tais soluções não são muito sensíveis e muito incômodas, e é apenas uma questão de tempo até que se tornem disponíveis para uma ampla gama de pacientes. Esse momento pode ser aproximado por sistemas de inteligência artificial, que, a partir do princípio da autoaprendizagem, são capazes de multiplicar a sensibilidade das interfaces cerebrais.

O cérebro envia telegramas. Fonte da imagem: Jerry Tang/Martha Morales/Universidade do Texas em Austin

O próximo passo na direção de métodos não invasivos de registro de pensamentos foi dado por cientistas da Universidade do Texas em Austin. Eles usaram ressonância magnética funcional (fMRI) para registrar a atividade cerebral dos pacientes, que foi traduzida em imagens usando mensagens de texto usando IA – aprendizado de máquina em grandes modelos de linguagem como o GPT da Open AI. Simplificando, a modelo relatou diretamente no chat tudo o que a pessoa estava pensando no momento. Mas, ao mesmo tempo, nem tudo é tão simples.

Primeiro, a descrição era mais precisa quanto mais disposto o paciente colaborava com os cientistas. A propósito, isso evita a leitura forçada da mente. Se você não quer dar “pensamentos” – pense em outra coisa. Em segundo lugar, os dados foram interpretados corretamente e com mais precisão apenas se a IA fosse treinada em um paciente específico. Em particular, cada um dos sujeitos ouviu fala oral por 16 horas, durante as quais o modelo estudou a atividade de seu cérebro.

«Levamos muito a sério as preocupações de que isso possa ser mal utilizado e tentamos evitá-lo”, disse Jerry Tang, principal autor do estudo. “Queremos garantir que as pessoas usem essas tecnologias apenas quando quiserem e que isso as ajude.”

A solução proposta baseia-se no fato de que, no processo de criação de imagens na cabeça e, em particular, de construções verbais, o nível de oxigênio aumenta ali mesmo quando o cérebro reage a algo específico. Isso pode ser uma visualização (abaixo está um exemplo de decodificação de atividade cerebral por IA ao assistir a um vídeo sem som), bem como os próprios pensamentos do paciente. O dispositivo fMRI registra essas áreas e o aprendizado de máquina as associa a imagens e as traduz em texto que todos podem entender.

A velocidade desse registro é baixa – o nível de oxigênio sobe e desce em 10 segundos. Durante esse tempo, uma pessoa consegue ouvir cerca de 20 palavras. Na verdade, este é o nível atual de decodificação de imagem. Para cada imagem que pode ser decodificada da atividade cerebral humana registrada dessa maneira, é necessário um intervalo de cerca de 20 palavras.

A plataforma fMRI requer trabalho de laboratório, o que não é adequado para sua aplicação em massa. Os pesquisadores consideram outra abordagem promissora, que dá o mesmo resultado, a espectroscopia funcional no infravermelho próximo (fNIRS). Os sensores fNIRS são compactos e convenientes a esse respeito. Eles capturam a atividade do fluxo sanguíneo no cérebro e, portanto, podem se basear no mesmo princípio e no mesmo modelo de aprendizado do caso da fMRI. Talvez este seja o próximo passo nas pesquisas do grupo científico.

avalanche

Postagens recentes

O jogo de tiro e fuga dieselpunk Marauders está se preparando para um renascimento após dois anos em Acesso Antecipado no Steam.

Lançado no outono de 2022, o jogo de tiro com temática dieselpunk e temática de…

43 minutos atrás

O Google Chrome começará a exibir imagens geradas por IA em diversos sites, mas o motivo ainda não está claro.

O Google Chrome em breve apresentará um novo recurso, cujo propósito é um tanto confuso:…

43 minutos atrás

A CATL apresentou suas baterias Freevoy 2, que proporcionarão aos veículos híbridos até 600 km de autonomia em modo totalmente elétrico.

O valor dos sistemas de propulsão híbridos em veículos de passageiros está sendo comprovado por…

1 hora atrás