As respostas contraditórias e totalmente enganosas dos modelos de IA às solicitações dos usuários não surpreendem mais ninguém. Mas muitas vezes é muito difícil distinguir entre um erro trivial e um design verdadeiramente deficiente do modelo de IA subjacente que analisa os dados recebidos e prevê qual será uma resposta aceitável. A OpenAI publicou um rascunho da estrutura de especificações do modelo que definirá como as ferramentas de IA, como o modelo GPT-4, responderão às consultas no futuro.

Fonte da imagem: Andrew Neel/unsplash.com

O documento inclui um conjunto de metas básicas, bem como recomendações sobre o que fazer se o usuário especificar metas ou instruções conflitantes.

«Estamos publicando as especificações do modelo para fornecer maior transparência em nossa abordagem para moldar o comportamento do modelo e para iniciar uma discussão pública sobre como ele pode ser alterado e melhorado”, observou a empresa, acrescentando que o documento será constantemente ajustado para levar em conta novos circunstâncias.

A abordagem OpenAI propõe três princípios gerais: os modelos de IA devem ajudar o desenvolvedor e o usuário final com respostas úteis de acordo com as instruções, beneficiar a humanidade com base em benefícios e danos potenciais e cumprir as normas e leis sociais.

O projeto de documento também inclui diversas regras:

  • Siga a cadeia de comando.
  • Cumprir as leis aplicáveis.
  • Não represente um perigo para a informação.
  • Respeite os autores e seus direitos.
  • Proteja a privacidade das pessoas.
  • Não responda utilizando conteúdo NSFW (Not Safe For Life), ou seja, contendo palavrões, nudez, etc.

Joanne Jang, gerente de produto da OpenAI, explicou que a ideia é obter informações do público que ajudem a determinar como os modelos de IA devem se comportar. Ele disse que a orientação ajudaria a traçar uma linha mais clara entre o que foi intencional e o que foi errado. Os comportamentos do modelo padrão sugeridos pela OpenAI incluem assumir as melhores intenções do usuário ou desenvolvedor, fazer perguntas esclarecedoras, não ultrapassar limites, adotar um ponto de vista objetivo, desencorajar o discurso de ódio, não tentar mudar a opinião de alguém ou expressar incerteza.

A OpenAI esclareceu que a publicação das especificações do modelo não afetará os modelos existentes, como GPT-4 ou DALL-E 3, que continuarão a operar sob as políticas de uso existentes.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *