OpenAI atualiza o código de conduta da IA: sem bajulação, sem evitar tópicos delicados

A OpenAI lançou uma versão expandida de seu Model Spec, um documento que define o comportamento de modelos de inteligência artificial. A empresa tornou o uso e a modificação gratuitos para qualquer pessoa.

Fonte da imagem: Dima Solomin / unsplash.com

O documento de 63 páginas (a versão anterior tinha apenas 10 páginas) fornece recomendações sobre como os modelos de IA devem processar consultas e responder às configurações definidas pelo usuário. Ele enfatiza três princípios fundamentais: personalização, transparência e “liberdade intelectual” — esta última significando a capacidade do usuário de explorar e discutir vários assuntos sem restrições arbitrárias. O documento destaca os incidentes mais divulgados relacionados à ética da IA ​​que ocorreram no ano passado.

A postagem do blog OpenAI fornece vários exemplos de solicitações e respostas adequadas, bem como opções que violam os requisitos do documento. Por exemplo, modelos de IA não devem reproduzir material protegido por direitos autorais ou ser usados ​​para contornar paywalls. O modelo não pode incentivar a automutilação — já houve incidentes desse tipo na indústria de IA. As mudanças também afetaram a forma como a IA deve se envolver em discussões de tópicos controversos: em vez de serem excessivamente cautelosos, os modelos devem “buscar a verdade junto” com os usuários, ao mesmo tempo em que mantêm fortes posições morais sobre questões como desinformação ou danos. Ou seja, a IA deve oferecer análises informadas, não evitar discussões. A OpenAI também reconsiderou sua postura em relação a conteúdo adulto, explorando a possibilidade de permitir alguns tipos de conteúdo, mas mantendo uma proibição rigorosa de conteúdo explicitamente ilegal.

Fonte da imagem: Growtika/unsplash.com

Os novos princípios permitem que a IA transforme materiais sensíveis, mas proíbem que eles sejam criados. Por exemplo, é possível traduzir textos relacionados a substâncias controladas de um idioma para outro; Você pode demonstrar empatia, mas sem emoções obviamente falsas. Os limites devem ser respeitados e, ao mesmo tempo, maximizar a utilidade da IA. Outros desenvolvedores de IA estão se esforçando para isso em um grau ou outro, mas nem todos estão prontos para formulá-lo abertamente.

É dada especial atenção ao problema da “bajulação da IA” – os modelos tendem a demonstrar conformidade mesmo quando deveriam objetar ou criticar. O ChatGPT deve fornecer as mesmas respostas factuais, independentemente da formulação da pergunta, feedback honesto em vez de elogios vazios – agindo como um colega atencioso em vez de tentar agradar. Se um usuário estiver interessado em críticas sobre um trabalho, a IA deve fornecer feedback construtivo em vez de insistir que tudo está perfeito. Se um usuário fizer uma declaração incorreta, ele deve ser educadamente corrigido em vez de ser enganado.

A especificação fornece uma “cadeia de comando” clara que prioriza as instruções: as diretrizes do OpenAI vêm primeiro, seguidas pelas recomendações do desenvolvedor e, por fim, as preferências do usuário. Essa hierarquia deixa claro quais aspectos da IA ​​podem ser alterados e quais limitações permanecem inalteradas. O documento é distribuído sob uma licença Creative Commons Zero (CC0), o que efetivamente o coloca em domínio público: empresas e pesquisadores de IA são livres para implementar, modificar ou expandir essas diretrizes. A OpenAI não promete mudanças imediatas no comportamento do ChatGPT ou de seus outros produtos, mas novos modelos serão gradualmente colocados em conformidade com as novas normas. A empresa também publica uma lista de pontos de verificação usados ​​para verificar se os modelos estão em conformidade com as diretrizes.

avalanche

Postagens recentes

Anthropic concorda em pagar US$ 1,5 bilhão em processo de direitos autorais

Desde a disseminação dos sistemas de inteligência artificial, diversas obras de arte serviram como material…

2 horas atrás

OpenAI gastará US$ 115 bilhões em sua infraestrutura nos próximos anos

Como a OpenAI ainda é considerada uma startup, a empresa compartilha informações sobre despesas e…

3 horas atrás

A Qualcomm acredita que as tecnologias de processo da Intel ainda não são boas o suficiente para usá-las

Muitos especialistas concordam que a salvação dos negócios de fabricação da Intel depende em grande…

4 horas atrás

Europa multa Google em quase 3 mil milhões de euros por abusos publicitários

A Comissão Europeia multou o Google em € 2,95 bilhões por práticas anticompetitivas no setor…

10 horas atrás