O ChatGPT passou no exame para um médico e em questão de segundos deu o diagnóstico correto ao paciente

O Dr. Isaac Kohane, especialista em tecnologia da informação e medicina de Harvard, e dois colegas testaram o GPT-4 quanto à possibilidade de usar inteligência artificial na área médica. Segundo o pesquisador, o sistema se mostrou melhor do que muitos médicos.

Fonte da imagem: Tumisu / pixabay.com

Os resultados do experimento, o Dr. Cohane descreveu no livro “The AI ​​​​Revolution in Medicine”, escrito em conjunto com o jornalista independente Carey Goldberg (Carey Goldberg) e o vice-presidente de pesquisa da Microsoft, Peter Lee (Peter Lee). Lançado em março, o modelo GPT-4 AI foi 90% correto no Exame de Licenciamento Médico, superando o ChatGPT baseado em GPT-3 e GPT-3.5 e até mesmo alguns médicos que já possuem licenças.

O GPT-4 provou ser excelente não apenas como examinador e especialista em fatos, mas também como tradutor. Ele examinou o prontuário do paciente em português e parafraseou o texto cheio de jargões em um material que um aluno da sexta série poderia manusear. A IA ofereceu conselhos úteis aos médicos sobre como se comportar à beira do leito e como conversar com o paciente sobre sua condição em linguagem clara, mas compassiva. A máquina foi capaz de processar volumosos relatórios de exame, resumindo seu conteúdo em um instante.

O sistema apresentou suas respostas em um formato que parecia indicar inteligência semelhante à humana, mas os pesquisadores ainda concluem que a IA é limitada em seus pensamentos por modelos – o GPT-4 ainda não sabe como embarcar em um raciocínio completo com relações causais . No entanto, quando o sistema recebeu dados de um caso real, ele diagnosticou corretamente uma doença rara em nível de especialista com anos de estudo e prática.

O Dr. Cohane, por um lado, está feliz que em um futuro próximo essa ferramenta esteja disponível para milhões de pessoas, mas, por outro lado, ele ainda não sabe como tornar a plataforma segura para o usuário. GPT-4 nem sempre é confiável em suas respostas, e o livro dá muitos exemplos de seus erros de vários tipos. Além disso, a IA tende a insistir em estar certa quando esses erros lhe são apontados – esse fenômeno já foi chamado de “alucinações” no meio técnico. Em sua defesa, o GPT-4 afirmou certa vez: “Não é minha intenção enganar ou enganar ninguém, mas às vezes cometo erros e faço suposições com base em dados incompletos ou imprecisos. Não faço julgamentos clínicos e não tenho responsabilidade ética como médico ou enfermeiro”.

Como uma das medidas de proteção, os autores do livro propõem realizar várias sessões com o GPT-4, para que a própria IA “releia” ou “verifique” seu próprio trabalho com um “visual novo”. Isso às vezes ajuda a detectar bugs: o GPT-4 admitiu estar errado em várias ocasiões de maneira discreta. Ou você pode confiar a verificação de seu trabalho a um especialista.

avalanche

Postagens recentes

Toyota vê por bem usar células de combustível de hidrogênio em caminhões

No ano passado, o chefe da Honda Motor manifestou ceticismo sobre a ideia do uso…

4 horas atrás

Bilionários cripto perderam US$ 110 bilhões em 2022

O ano passado foi desafiador para os bilionários das criptomoedas e para a indústria como…

12 horas atrás

Steam Deck vendeu mais de 3 milhões este ano

As vendas totais de consoles portáteis Steam Deck da Valve em 2023 ultrapassarão a marca…

12 horas atrás

Have Nice Death é um bagel de gama média. Análise

Jogou no RS O parque de roguelikes (e até roguelites) está se expandindo - projetos…

13 horas atrás