Foi desenvolvida uma IA que reconhece as emoções humanas pela voz – ajudará no trabalho das linhas de crise

O modelo de inteligência artificial provou ser uma ferramenta eficaz para identificar emoções como medo e ansiedade nas vozes das pessoas que ligam para linhas de apoio psicológico. O autor do projeto espera que seja útil para as operadoras de telefonia nas linhas de prevenção ao suicídio.

Fonte da imagem: The_BiG_LeBowsKi/pixabay.com

Avaliar o estado emocional das pessoas que ligam para linhas de crise quanto ao seu nível atual de risco de suicídio é fundamental para identificar e prevenir o suicídio. A fala humana pode, através de meios não-verbais, transmitir informações úteis sobre o estado mental e emocional de uma pessoa, contendo pistas sobre se ela está se sentindo triste, irritada ou com medo. A pesquisa sobre a fala suicida começou há mais de 30 anos e já foi possível identificar nela características sonoras objetivas que podem ser usadas para identificar diversas condições e transtornos mentais, incluindo a depressão.

Mas para alguém que ouve ao telefone, avaliar o risco de suicídio pode ser um desafio porque as linhas de crise são chamadas por pessoas extremamente instáveis ​​emocionalmente e as características do seu discurso podem mudar rapidamente. Uma solução para este problema foi proposta por Alaa Nfissi, estudante de pós-graduação da Concordia University (Canadá, Montreal). Ele treinou um modelo de IA para reconhecer emoções de fala. Normalmente, essas avaliações eram realizadas por psicólogos, o que exigia tempo e experiência significativos, mas o modelo de aprendizagem profunda foi capaz de reconhecer emoções de forma eficaz.

Para treinar o modelo, o autor do projeto utilizou um banco de dados de gravações reais de ligações para linhas de crise para prevenção de suicídio, além de gravações de atores que foram instruídos a retratar determinadas emoções. As gravações foram divididas em segmentos e fornecidas com anotações que refletiam o estado mental correspondente: raiva, tristeza, neutro, medo ou ansiedade. Como resultado, o modelo aprendeu a reconhecer com precisão quatro emoções: medo/ansiedade (resposta correta em 82% dos casos), tristeza (77%), raiva (72%) e estado neutro (78%). O modelo foi especialmente bom na avaliação de fragmentos de gravações de ligações reais: tristeza (78%) e raiva (100%).

Alaa Nfissi acredita que o modelo de IA que desenvolveu pode ser utilizado como ferramenta auxiliar para trabalhar nas linhas de crise, ajudando os operadores a avaliar o estado dos seus interlocutores em tempo real e a escolher estratégias de conversação adequadas. Talvez isso ajude a prevenir o suicídio.

avalanche

Postagens recentes

O Grupo Astra lançou a loja de aplicativos Astra Store para o mercado corporativo.

A Astra Group anunciou o lançamento comercial da Astra Store, uma loja de aplicativos corporativos…

42 minutos atrás

A xAI de Musk lançou o agente de IA Grok Build, um concorrente do Claude Code para geração de código de programação.

A xAI de Elon Musk lançou seu primeiro agente de IA focado em geração de…

42 minutos atrás

O Google explicou por que reduziu em um terço o armazenamento gratuito na nuvem para novos usuários do Gmail.

O Google pode em breve remover os 15 GB de armazenamento em nuvem gratuito para…

42 minutos atrás

O Google começará a penalizar sites que manipulam seus resultados de busca por IA.

O Google atualizou suas políticas de spam em buscas. Agora, tentativas de editores de sites…

42 minutos atrás

Os japoneses criaram uma memória magnética usando efeitos quânticos – ela é 25 vezes mais rápida que a DRAM, quase não esquenta e não se desgasta.

Cientistas da Universidade de Tóquio, em conjunto com colegas do Centro RIKEN CEMS, apresentaram um…

1 hora atrás