Novas tecnologias de computador prometem perspectivas vertiginosas para ajudar pessoas com danos no cérebro ou no sistema nervoso. Até agora, tais soluções não são muito sensíveis e muito incômodas, e é apenas uma questão de tempo até que se tornem disponíveis para uma ampla gama de pacientes. Esse momento pode ser aproximado por sistemas de inteligência artificial, que, a partir do princípio da autoaprendizagem, são capazes de multiplicar a sensibilidade das interfaces cerebrais.
O cérebro envia telegramas. Fonte da imagem: Jerry Tang/Martha Morales/Universidade do Texas em Austin
O próximo passo na direção de métodos não invasivos de registro de pensamentos foi dado por cientistas da Universidade do Texas em Austin. Eles usaram ressonância magnética funcional (fMRI) para registrar a atividade cerebral dos pacientes, que foi traduzida em imagens usando mensagens de texto usando IA – aprendizado de máquina em grandes modelos de linguagem como o GPT da Open AI. Simplificando, a modelo relatou diretamente no chat tudo o que a pessoa estava pensando no momento. Mas, ao mesmo tempo, nem tudo é tão simples.
Primeiro, a descrição era mais precisa quanto mais disposto o paciente colaborava com os cientistas. A propósito, isso evita a leitura forçada da mente. Se você não quer dar “pensamentos” – pense em outra coisa. Em segundo lugar, os dados foram interpretados corretamente e com mais precisão apenas se a IA fosse treinada em um paciente específico. Em particular, cada um dos sujeitos ouviu fala oral por 16 horas, durante as quais o modelo estudou a atividade de seu cérebro.
«Levamos muito a sério as preocupações de que isso possa ser mal utilizado e tentamos evitá-lo”, disse Jerry Tang, principal autor do estudo. “Queremos garantir que as pessoas usem essas tecnologias apenas quando quiserem e que isso as ajude.”
A solução proposta baseia-se no fato de que, no processo de criação de imagens na cabeça e, em particular, de construções verbais, o nível de oxigênio aumenta ali mesmo quando o cérebro reage a algo específico. Isso pode ser uma visualização (abaixo está um exemplo de decodificação de atividade cerebral por IA ao assistir a um vídeo sem som), bem como os próprios pensamentos do paciente. O dispositivo fMRI registra essas áreas e o aprendizado de máquina as associa a imagens e as traduz em texto que todos podem entender.
A velocidade desse registro é baixa – o nível de oxigênio sobe e desce em 10 segundos. Durante esse tempo, uma pessoa consegue ouvir cerca de 20 palavras. Na verdade, este é o nível atual de decodificação de imagem. Para cada imagem que pode ser decodificada da atividade cerebral humana registrada dessa maneira, é necessário um intervalo de cerca de 20 palavras.
A plataforma fMRI requer trabalho de laboratório, o que não é adequado para sua aplicação em massa. Os pesquisadores consideram outra abordagem promissora, que dá o mesmo resultado, a espectroscopia funcional no infravermelho próximo (fNIRS). Os sensores fNIRS são compactos e convenientes a esse respeito. Eles capturam a atividade do fluxo sanguíneo no cérebro e, portanto, podem se basear no mesmo princípio e no mesmo modelo de aprendizado do caso da fMRI. Talvez este seja o próximo passo nas pesquisas do grupo científico.
Anunciados há alguns meses, os processadores Snapdragon X2 Elite de última geração da Qualcomm para…
Anunciados há alguns meses, os processadores Snapdragon X2 Elite de última geração da Qualcomm para…
A Rockchip, segundo a CNX Software, anunciou o kit de desenvolvimento RK182X 3D RAM Stacking,…
Após a renegociação da parceria com a OpenAI, que fará com que a Microsoft perca…
A Billet Labs, uma pequena empresa britânica com um histórico de criação de sistemas de…
Nos últimos anos, a China tornou a robótica um foco central de sua estratégia tecnológica,…