O ChatGPT passou no exame para um médico e em questão de segundos deu o diagnóstico correto ao paciente

O Dr. Isaac Kohane, especialista em tecnologia da informação e medicina de Harvard, e dois colegas testaram o GPT-4 quanto à possibilidade de usar inteligência artificial na área médica. Segundo o pesquisador, o sistema se mostrou melhor do que muitos médicos.

Fonte da imagem: Tumisu / pixabay.com

Os resultados do experimento, o Dr. Cohane descreveu no livro “The AI ​​​​Revolution in Medicine”, escrito em conjunto com o jornalista independente Carey Goldberg (Carey Goldberg) e o vice-presidente de pesquisa da Microsoft, Peter Lee (Peter Lee). Lançado em março, o modelo GPT-4 AI foi 90% correto no Exame de Licenciamento Médico, superando o ChatGPT baseado em GPT-3 e GPT-3.5 e até mesmo alguns médicos que já possuem licenças.

O GPT-4 provou ser excelente não apenas como examinador e especialista em fatos, mas também como tradutor. Ele examinou o prontuário do paciente em português e parafraseou o texto cheio de jargões em um material que um aluno da sexta série poderia manusear. A IA ofereceu conselhos úteis aos médicos sobre como se comportar à beira do leito e como conversar com o paciente sobre sua condição em linguagem clara, mas compassiva. A máquina foi capaz de processar volumosos relatórios de exame, resumindo seu conteúdo em um instante.

O sistema apresentou suas respostas em um formato que parecia indicar inteligência semelhante à humana, mas os pesquisadores ainda concluem que a IA é limitada em seus pensamentos por modelos – o GPT-4 ainda não sabe como embarcar em um raciocínio completo com relações causais . No entanto, quando o sistema recebeu dados de um caso real, ele diagnosticou corretamente uma doença rara em nível de especialista com anos de estudo e prática.

O Dr. Cohane, por um lado, está feliz que em um futuro próximo essa ferramenta esteja disponível para milhões de pessoas, mas, por outro lado, ele ainda não sabe como tornar a plataforma segura para o usuário. GPT-4 nem sempre é confiável em suas respostas, e o livro dá muitos exemplos de seus erros de vários tipos. Além disso, a IA tende a insistir em estar certa quando esses erros lhe são apontados – esse fenômeno já foi chamado de “alucinações” no meio técnico. Em sua defesa, o GPT-4 afirmou certa vez: “Não é minha intenção enganar ou enganar ninguém, mas às vezes cometo erros e faço suposições com base em dados incompletos ou imprecisos. Não faço julgamentos clínicos e não tenho responsabilidade ética como médico ou enfermeiro”.

Como uma das medidas de proteção, os autores do livro propõem realizar várias sessões com o GPT-4, para que a própria IA “releia” ou “verifique” seu próprio trabalho com um “visual novo”. Isso às vezes ajuda a detectar bugs: o GPT-4 admitiu estar errado em várias ocasiões de maneira discreta. Ou você pode confiar a verificação de seu trabalho a um especialista.

avalanche

Postagens recentes

“Mal posso esperar para jogar Returnal 2”: Jornalistas mostraram os primeiros 8 minutos de gameplay de Saros

Como parte da série IGN First, a IGN revelou os primeiros oito minutos do ambicioso…

1 hora atrás

A Noctua lançou modelos 3D de suas ventoinhas, mas não permite que você as imprima por conta própria.

A Noctua disponibilizou modelos 3D oficiais para muitos de seus produtos, permitindo que usuários de…

1 hora atrás

Calendário de lançamentos de 27 de abril a 3 de maio: Saros, Diablo IV: Lord of Hatred e HoM&M: Olden Era.

A semana entre abril e maio foi incrivelmente agitada. A nova expansão de Diablo IV,…

2 horas atrás

Os óculos inteligentes Galaxy Glasses foram revelados em imagens de alta qualidade, juntamente com suas especificações.

O site OnLeaks, em conjunto com o AndroidHeadlines, publicou imagens renderizadas dos óculos inteligentes da…

2 horas atrás