Hoje, em sua primeira conferência de desenvolvedores, a OpenAI revelou o GPT-4 Turbo, uma versão melhorada de seu principal modelo de linguagem grande. Os desenvolvedores da OpenAI observam que o novo GPT-4 Turbo se tornou mais poderoso e ao mesmo tempo mais barato que o GPT-4.

Fonte da imagem: CNet

O modelo de linguagem GPT-4 Turbo será oferecido em duas versões: uma projetada exclusivamente para análise de texto, a segunda entende o contexto não só de texto, mas também de imagens. O modelo de análise de texto está disponível em versão prévia por meio da API a partir de hoje. A empresa prometeu disponibilizar publicamente ambas as versões da rede neural “nas próximas semanas”.

O custo para usar o GPT-4 Turbo é de US$ 0,01 por 1.000 tokens de entrada (cerca de 750 palavras) e US$ 0,03 por 1.000 tokens de saída. Os tokens de entrada são pedaços de texto bruto. Por exemplo, a palavra “fantástico” é dividida nos tokens “fan”, “tas” e “tic”. Os tokens de saída, por sua vez, são os tokens que o modelo gera com base nos tokens de entrada. O preço do GPT-4 Turbo para processamento de imagens dependerá do tamanho da imagem. Por exemplo, processar uma imagem de 1080×1080 pixels no GPT-4 Turbo custaria US$ 0,00765.

«Otimizamos o desempenho para que possamos oferecer o GPT-4 Turbo por três vezes o preço dos tokens de entrada e metade do preço dos tokens de saída em comparação com o GPT-4”, disse a OpenAI em uma postagem no blog.

Para o GPT-4 Turbo, atualizamos a base de conhecimento, que é usada para responder dúvidas. O modelo de linguagem GPT-4 foi treinado em dados da web até setembro de 2021. O limite de conhecimento do GPT-4 Turbo é abril de 2023. Em outras palavras, a rede neural fornecerá respostas mais precisas a consultas relacionadas a eventos recentes (até abril de 2023). Com base em muitos exemplos da Internet, o GPT-4 Turbo aprendeu a prever a probabilidade de ocorrência de certas palavras com base em padrões, incluindo o contexto semântico do texto circundante. Por exemplo, se um e-mail típico termina com “Aguardando…”, o GPT-4 Turbo pode finalizá-lo com “…sua resposta”.

Ao mesmo tempo, o modelo GPT-4 Turbo recebeu uma janela de contexto ampliada (a quantidade de texto considerada durante o processo de geração). Ampliar a janela de contexto permite que o modelo compreenda melhor o significado das consultas e forneça respostas mais adequadas sem se desviar do tópico. O modelo GPT-4 Turbo possui uma janela de contexto de 128 mil tokens, quatro vezes maior que o GPT-4. Esta é a maior janela de contexto de qualquer modelo de IA disponível comercialmente. É superior à janela de contexto Claude 2 da Anthropic, que suporta até 100 mil tokens. A Anthropic diz que está experimentando uma janela de contexto de token de 200 mil, mas ainda não tornou essas mudanças públicas. Uma janela de contexto de 128 mil tokens corresponde a aproximadamente 100 mil palavras ou 300 páginas de texto, o que equivale ao tamanho de O Morro dos Ventos Uivantes de Emily Brontë, As Viagens de Gulliver de Jonathan Swift ou Harry Potter e o Prisioneiro de Azkaban de JK Rowling.

O modelo GPT-4 Turbo é capaz de gerar formato JSON válido. Isso é útil para aplicações web de transferência de dados, como aquelas que enviam dados de um servidor para um cliente para que possam ser exibidos em uma página web, diz OpenAI. Em geral, o GPT-4 Turbo possui configurações mais flexíveis que serão úteis para os desenvolvedores. Você pode ler mais sobre isso no blog OpenAI.

«O GPT-4 Turbo tem um desempenho melhor do que nossos modelos anteriores ao executar tarefas que exigem adesão cuidadosa às instruções, como gerar determinados formatos (por exemplo, “sempre responder em XML”). Além disso, é mais provável que o GPT-4 Turbo retorne os parâmetros de função corretos”, afirma a empresa.

O GPT-4 Turbo também pode ser integrado ao DALL-E 3, conversão de texto em fala e recursos visuais, expandindo o uso de IA.

A OpenAI também anunciou que fornecerá garantias de proteção de direitos autorais para usuários corporativos por meio do programa Copyright Shield. “Agora defenderemos nossos clientes e pagaremos seus custos caso eles enfrentem ações legais por violação de direitos autorais”, disse a empresa em um blog. Anteriormente, a Microsoft e o Google faziam o mesmo com os usuários de seus modelos de IA. O Copyright Shield cobrirá recursos publicamente disponíveis do ChatGPT Enterprise e da plataforma de desenvolvedor OpenAI.

Para o GPT-4, a empresa lançou um programa de ajuste fino, fornecendo aos desenvolvedores ainda mais ferramentas para personalizar a IA para tarefas específicas. Ao contrário do programa de ajuste fino GPT-3.5, antecessor do GPT-4, o programa de ajuste fino GPT-4 exigirá mais supervisão e orientação da OpenAI, em grande parte devido a obstáculos técnicos, disse a empresa.

A empresa também dobrou o limite de taxa de depósito e retirada de tokens por minuto para todos os usuários pagos do GPT-4. No entanto, o preço permaneceu o mesmo: US$ 0,03 por token de entrada e US$ 0,06 por token de saída (para o modelo GPT-4 com uma janela de contexto para 8.000 tokens) ou US$ 0,06 por token de entrada e US$ 0,012 por token de saída (para o modelo GPT-4 com um token de saída). janela de contexto para 32.000 tokens).

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *