Modelos de inteligência artificial sofrem “alucinações”, nas quais fornecem respostas obviamente incorretas ou sem sentido com muita convicção. A incidência desses incidentes está diminuindo, mas ainda não pode ser completamente eliminada, admitiu Dmitry Masyuk, chefe do grupo de serviços de busca e inteligência artificial da Yandex, à RBC.

O executivo fez essa declaração em resposta a um exemplo em que a assistente virtual “Alice” não negou a existência de “asas de porco” e até forneceu uma receita. “Eu pesquisei a parte ‘asas de porco’. Alice cita uma fonte existente. De fato, existem artigos online descrevendo essas receitas. Isso não a desculpa, no sentido de que ela poderia dizer que é absurda, mas, mesmo assim, ela cita fontes existentes e não está inventando”, explicou Masyuk.

O treinamento da IA ​​ocorre em três etapas, explicou ele. Na primeira, o modelo processa o volume principal de dados — várias dezenas de terabytes — praticamente toda a internet, com os dados obviamente sem sentido removidos. Na segunda etapa, o sistema recebe centenas de milhares de perguntas e respostas preparadas pelos especialistas da empresa — isso ajuda a IA a entender quais perguntas devem e quais não devem ser respondidas. Na terceira etapa, uma rede neural adicional é ativada para avaliar o desempenho da rede principal.

Apesar de algumas deficiências nos serviços de IA, seus erros não têm um impacto crítico sobre os usuários. O especialista concluiu que o público precisa da IA ​​não apenas para fornecer informações claras, mas também para ser um interlocutor agradável — animado e criativo.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *