Novas tecnologias de computador prometem perspectivas vertiginosas para ajudar pessoas com danos no cérebro ou no sistema nervoso. Até agora, tais soluções não são muito sensíveis e muito incômodas, e é apenas uma questão de tempo até que se tornem disponíveis para uma ampla gama de pacientes. Esse momento pode ser aproximado por sistemas de inteligência artificial, que, a partir do princípio da autoaprendizagem, são capazes de multiplicar a sensibilidade das interfaces cerebrais.
O próximo passo na direção de métodos não invasivos de registro de pensamentos foi dado por cientistas da Universidade do Texas em Austin. Eles usaram ressonância magnética funcional (fMRI) para registrar a atividade cerebral dos pacientes, que foi traduzida em imagens usando mensagens de texto usando IA – aprendizado de máquina em grandes modelos de linguagem como o GPT da Open AI. Simplificando, a modelo relatou diretamente no chat tudo o que a pessoa estava pensando no momento. Mas, ao mesmo tempo, nem tudo é tão simples.
Primeiro, a descrição era mais precisa quanto mais disposto o paciente colaborava com os cientistas. A propósito, isso evita a leitura forçada da mente. Se você não quer dar “pensamentos” – pense em outra coisa. Em segundo lugar, os dados foram interpretados corretamente e com mais precisão apenas se a IA fosse treinada em um paciente específico. Em particular, cada um dos sujeitos ouviu fala oral por 16 horas, durante as quais o modelo estudou a atividade de seu cérebro.
«Levamos muito a sério as preocupações de que isso possa ser mal utilizado e tentamos evitá-lo”, disse Jerry Tang, principal autor do estudo. “Queremos garantir que as pessoas usem essas tecnologias apenas quando quiserem e que isso as ajude.”
A solução proposta baseia-se no fato de que, no processo de criação de imagens na cabeça e, em particular, de construções verbais, o nível de oxigênio aumenta ali mesmo quando o cérebro reage a algo específico. Isso pode ser uma visualização (abaixo está um exemplo de decodificação de atividade cerebral por IA ao assistir a um vídeo sem som), bem como os próprios pensamentos do paciente. O dispositivo fMRI registra essas áreas e o aprendizado de máquina as associa a imagens e as traduz em texto que todos podem entender.
A velocidade desse registro é baixa – o nível de oxigênio sobe e desce em 10 segundos. Durante esse tempo, uma pessoa consegue ouvir cerca de 20 palavras. Na verdade, este é o nível atual de decodificação de imagem. Para cada imagem que pode ser decodificada da atividade cerebral humana registrada dessa maneira, é necessário um intervalo de cerca de 20 palavras.
A plataforma fMRI requer trabalho de laboratório, o que não é adequado para sua aplicação em massa. Os pesquisadores consideram outra abordagem promissora, que dá o mesmo resultado, a espectroscopia funcional no infravermelho próximo (fNIRS). Os sensores fNIRS são compactos e convenientes a esse respeito. Eles capturam a atividade do fluxo sanguíneo no cérebro e, portanto, podem se basear no mesmo princípio e no mesmo modelo de aprendizado do caso da fMRI. Talvez este seja o próximo passo nas pesquisas do grupo científico.
A LG lançou um monitor UltraGear 32GS75QN-B de 32 polegadas. O novo produto utiliza uma…
Além do smartphone dobrável Mate X6, dos carros-chefe Mate 70, do tablet MatePad Pro 13.2…
A editora e desenvolvedora polonesa 11 bit studios compartilhou em uma publicação no site Steam…
As autoridades de El Salvador, país centro-americano rico em energia geotérmica, pretendem alugar vulcões a…
Os usuários encontraram mais problemas após atualizar o Windows 11 para 24H2. Desta vez, eles…
A Huawei apresentou o principal tablet MatePad Pro 13.2 em um evento na China junto…