OpenAI atualiza o código de conduta da IA: sem bajulação, sem evitar tópicos delicados

A OpenAI lançou uma versão expandida de seu Model Spec, um documento que define o comportamento de modelos de inteligência artificial. A empresa tornou o uso e a modificação gratuitos para qualquer pessoa.

Fonte da imagem: Dima Solomin / unsplash.com

O documento de 63 páginas (a versão anterior tinha apenas 10 páginas) fornece recomendações sobre como os modelos de IA devem processar consultas e responder às configurações definidas pelo usuário. Ele enfatiza três princípios fundamentais: personalização, transparência e “liberdade intelectual” — esta última significando a capacidade do usuário de explorar e discutir vários assuntos sem restrições arbitrárias. O documento destaca os incidentes mais divulgados relacionados à ética da IA ​​que ocorreram no ano passado.

A postagem do blog OpenAI fornece vários exemplos de solicitações e respostas adequadas, bem como opções que violam os requisitos do documento. Por exemplo, modelos de IA não devem reproduzir material protegido por direitos autorais ou ser usados ​​para contornar paywalls. O modelo não pode incentivar a automutilação — já houve incidentes desse tipo na indústria de IA. As mudanças também afetaram a forma como a IA deve se envolver em discussões de tópicos controversos: em vez de serem excessivamente cautelosos, os modelos devem “buscar a verdade junto” com os usuários, ao mesmo tempo em que mantêm fortes posições morais sobre questões como desinformação ou danos. Ou seja, a IA deve oferecer análises informadas, não evitar discussões. A OpenAI também reconsiderou sua postura em relação a conteúdo adulto, explorando a possibilidade de permitir alguns tipos de conteúdo, mas mantendo uma proibição rigorosa de conteúdo explicitamente ilegal.

Fonte da imagem: Growtika/unsplash.com

Os novos princípios permitem que a IA transforme materiais sensíveis, mas proíbem que eles sejam criados. Por exemplo, é possível traduzir textos relacionados a substâncias controladas de um idioma para outro; Você pode demonstrar empatia, mas sem emoções obviamente falsas. Os limites devem ser respeitados e, ao mesmo tempo, maximizar a utilidade da IA. Outros desenvolvedores de IA estão se esforçando para isso em um grau ou outro, mas nem todos estão prontos para formulá-lo abertamente.

É dada especial atenção ao problema da “bajulação da IA” – os modelos tendem a demonstrar conformidade mesmo quando deveriam objetar ou criticar. O ChatGPT deve fornecer as mesmas respostas factuais, independentemente da formulação da pergunta, feedback honesto em vez de elogios vazios – agindo como um colega atencioso em vez de tentar agradar. Se um usuário estiver interessado em críticas sobre um trabalho, a IA deve fornecer feedback construtivo em vez de insistir que tudo está perfeito. Se um usuário fizer uma declaração incorreta, ele deve ser educadamente corrigido em vez de ser enganado.

A especificação fornece uma “cadeia de comando” clara que prioriza as instruções: as diretrizes do OpenAI vêm primeiro, seguidas pelas recomendações do desenvolvedor e, por fim, as preferências do usuário. Essa hierarquia deixa claro quais aspectos da IA ​​podem ser alterados e quais limitações permanecem inalteradas. O documento é distribuído sob uma licença Creative Commons Zero (CC0), o que efetivamente o coloca em domínio público: empresas e pesquisadores de IA são livres para implementar, modificar ou expandir essas diretrizes. A OpenAI não promete mudanças imediatas no comportamento do ChatGPT ou de seus outros produtos, mas novos modelos serão gradualmente colocados em conformidade com as novas normas. A empresa também publica uma lista de pontos de verificação usados ​​para verificar se os modelos estão em conformidade com as diretrizes.

avalanche

Postagens recentes

Itália inicia investigação sobre monetização agressiva de jogos para dispositivos móveis da Activision Blizzard

A Autoridade Italiana da Concorrência e do Mercado (AGCM) iniciou duas investigações contra a Activision…

2 horas atrás

O antigo chefe da divisão Optimus da Tesla agora irá construir robôs na Boston Dynamics.

Em junho de 2025, Milan Kovac, vice-presidente sênior da Tesla e chefe de desenvolvimento do…

2 horas atrás

A China será o primeiro país a acender o Sol artificial na Terra – o mais tardar em 2030, prometeram os cientistas.

Na Conferência de Tecnologia e Indústria de Energia de Fusão de 2026, em Hefei, cientistas…

4 horas atrás

A Rusnano iniciou a montagem de microchips em Zelenograd utilizando tecnologia russa.

Este mês, a empresa estatal Rusnano inaugurará um novo complexo de montagem e testes para…

5 horas atrás

O Threads ultrapassou o antigo Twitter em termos de audiência, atingindo 320 milhões de usuários.

Em janeiro de 2026, a plataforma Threads da Meta✴ atingiu 320 milhões de usuários ativos,…

5 horas atrás