Em um podcast na semana passada, o cofundador da OpenAI, Andrej Karpathy, admitiu que agentes de IA funcionais estarão operacionais em cerca de dez anos. O desenvolvimento rápido da IA ​​por si só não garante resultados rápidos, e tanto os participantes do mercado quanto os usuários precisam ser pacientes.

Fonte da imagem: Gerd Altmann / pixabay.com

De acordo com Karpathy, os agentes de IA em seu estado atual estão longe de ser perfeitos: “Eles simplesmente não funcionam. Não são inteligentes o suficiente, não são multimodais o suficiente, não conseguem usar um computador ou fazer outras coisas. Não conseguem aprender continuamente. Você não pode simplesmente dizer algo a eles e eles se lembrarão. Eles estão ficando para trás em habilidades cognitivas, e simplesmente não funciona.” De acordo com o cofundador da OpenAI, levará pelo menos dez anos para que todas essas deficiências sejam abordadas.

Os agentes são um dos tópicos mais discutidos em inteligência artificial, enfatiza o Business Insider. Muitos investidores estão chamando este ano de “ano do agente”. Geralmente, um agente se refere a um assistente virtual capaz de executar tarefas de forma independente: analisar problemas complexos, fazer planos e tomar ações sem interação adicional do usuário.

Karpaty acrescentou na página da rede social X que suas críticas ao setor decorrem de um desejo de exagerar as capacidades das ferramentas existentes em relação à realidade. “A indústria vive em um futuro em que entidades totalmente autônomas interagem entre si em paralelo para escrever código, e os humanos são inúteis”, afirmou um dos fundadores da OpenAI. Ele, como ele mesmo admite, não está preparado para viver em tal realidade, pois acredita que humanos e IA devem colaborar na escrita de código e na execução de tarefas.

Para resumir os comentários de Karpaty, ele gostaria de poder verificar se a IA está criando o código correto, sem ser muito enigmático.Karpatyi observou que a IA é propensa a fazer suposições e consultar humanos em todos os casos complexos. Os humanos devem crescer profissionalmente e se aprimorar junto com a IA, em vez de se contentar em manter uma “montanha de código”.

Ele também afirmou que o problema de criar agentes que não exigem intervenção humana é que o conteúdo de baixa qualidade gerado pela IA se torna onipresente, tornando os humanos inúteis. Outros representantes da indústria também expressaram preocupação com a tendência de alguns usuários de depender demais da IA. De acordo com Quintin Au, Diretor de Desenvolvimento da ScaleAI, grandes modelos de linguagem atualmente apresentam uma taxa de erro de 20% ao executar uma única ação. Se um agente precisa executar cinco ações em uma única tarefa, as chances de concluir cada ação corretamente não passam de 32%.

Karpatyi, no entanto, pede que as pessoas não o considerem um cético em relação à IA. Ele afirma que seus gráficos internos são de cinco a dez vezes mais pessimistas do que os comentários mais ambiciosos de especialistas do setor, mas ainda são mais otimistas do que os de especialistas que descartam completamente a IA.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *