Novas tecnologias de computador prometem perspectivas vertiginosas para ajudar pessoas com danos no cérebro ou no sistema nervoso. Até agora, tais soluções não são muito sensíveis e muito incômodas, e é apenas uma questão de tempo até que se tornem disponíveis para uma ampla gama de pacientes. Esse momento pode ser aproximado por sistemas de inteligência artificial, que, a partir do princípio da autoaprendizagem, são capazes de multiplicar a sensibilidade das interfaces cerebrais.

O cérebro envia telegramas. Fonte da imagem: Jerry Tang/Martha Morales/Universidade do Texas em Austin

O próximo passo na direção de métodos não invasivos de registro de pensamentos foi dado por cientistas da Universidade do Texas em Austin. Eles usaram ressonância magnética funcional (fMRI) para registrar a atividade cerebral dos pacientes, que foi traduzida em imagens usando mensagens de texto usando IA – aprendizado de máquina em grandes modelos de linguagem como o GPT da Open AI. Simplificando, a modelo relatou diretamente no chat tudo o que a pessoa estava pensando no momento. Mas, ao mesmo tempo, nem tudo é tão simples.

Primeiro, a descrição era mais precisa quanto mais disposto o paciente colaborava com os cientistas. A propósito, isso evita a leitura forçada da mente. Se você não quer dar “pensamentos” – pense em outra coisa. Em segundo lugar, os dados foram interpretados corretamente e com mais precisão apenas se a IA fosse treinada em um paciente específico. Em particular, cada um dos sujeitos ouviu fala oral por 16 horas, durante as quais o modelo estudou a atividade de seu cérebro.

«Levamos muito a sério as preocupações de que isso possa ser mal utilizado e tentamos evitá-lo”, disse Jerry Tang, principal autor do estudo. “Queremos garantir que as pessoas usem essas tecnologias apenas quando quiserem e que isso as ajude.”

A solução proposta baseia-se no fato de que, no processo de criação de imagens na cabeça e, em particular, de construções verbais, o nível de oxigênio aumenta ali mesmo quando o cérebro reage a algo específico. Isso pode ser uma visualização (abaixo está um exemplo de decodificação de atividade cerebral por IA ao assistir a um vídeo sem som), bem como os próprios pensamentos do paciente. O dispositivo fMRI registra essas áreas e o aprendizado de máquina as associa a imagens e as traduz em texto que todos podem entender.

A velocidade desse registro é baixa – o nível de oxigênio sobe e desce em 10 segundos. Durante esse tempo, uma pessoa consegue ouvir cerca de 20 palavras. Na verdade, este é o nível atual de decodificação de imagem. Para cada imagem que pode ser decodificada da atividade cerebral humana registrada dessa maneira, é necessário um intervalo de cerca de 20 palavras.

A plataforma fMRI requer trabalho de laboratório, o que não é adequado para sua aplicação em massa. Os pesquisadores consideram outra abordagem promissora, que dá o mesmo resultado, a espectroscopia funcional no infravermelho próximo (fNIRS). Os sensores fNIRS são compactos e convenientes a esse respeito. Eles capturam a atividade do fluxo sanguíneo no cérebro e, portanto, podem se basear no mesmo princípio e no mesmo modelo de aprendizado do caso da fMRI. Talvez este seja o próximo passo nas pesquisas do grupo científico.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *