A OpenAI sofreu sérias perdas de pessoal. Dave Willner, um veterano da indústria que liderou a equipe AI Trust and Security no último ano e meio, anunciou que está saindo e se mudando para um cargo de consultor. Ele planeja passar mais tempo com sua família. Sua partida ocorre em um momento crítico para a IA, com dúvidas em todo o mundo sobre a regulamentação da IA ​​e a minimização de seus possíveis efeitos nocivos.

Fonte da imagem: OpenAI

O presidente da OpenAI, Greg Brockman, está programado para comparecer à Casa Branca hoje, juntamente com executivos da Anthropic, Google, Inflection, Microsoft, Meta* e Amazon, para reiterar compromissos voluntários para atingir metas compartilhadas de segurança e transparência no uso de IA antes de uma lei em elaboração.

Wilner escreve em sua carta de demissão que os requisitos para seu trabalho na OpenAI entraram em uma “fase de alta intensidade” após o lançamento do ChatGPT. Ele e sua esposa assumiram o compromisso de sempre colocar a família em primeiro lugar, mas “nos meses que se seguiram ao lançamento do ChatGPT, tornou-se cada vez mais difícil para mim cumprir minha parte do acordo”.

Wilner está em seu cargo na OpenAI há um ano e meio, tendo anteriormente liderado as equipes de confiança e segurança do Facebook* e do Airbnb. No Facebook*, ele foi um dos primeiros funcionários que ajudou a moldar a abordagem básica da empresa aos padrões da comunidade, que mais tarde se tornou a base da cidadania da empresa.

Dada a influência do Facebook* no desenvolvimento global das redes sociais, o desenvolvimento de conceitos para moderação de conteúdo pela empresa tem se mostrado uma espinha dorsal para toda a Internet e para a sociedade como um todo. Os primeiros dias da rede social foram caracterizados por uma postura muito franca sobre a liberdade de expressão e pela recusa do Facebook* em bloquear grupos controversos e remover postagens controversas. Naquela época, a sociedade se dividiu – alguns defendiam a moderação estrita, outros a consideravam censura e um ataque à liberdade de expressão.

Wilner estava no último campo, acreditando que “discurso de ódio” não é o mesmo que “dano total” e, portanto, não pode ser moderado da mesma maneira. Agora, muitos acreditam que essa foi uma posição bastante míope e até ingênua. Mas Wilner não desistiu – em 2019, sem trabalhar mais na rede social, ele se opôs a exceções para políticos e figuras públicas em questões de moderação de conteúdo.

A necessidade de controle e regulamentação no campo da IA ​​é ainda mais relevante para a nova onda de tecnologias de IA do que a moderação da mídia social. Na OpenAI, por exemplo, Wilner se concentrou na segurança e em possíveis abusos ao usar o gerador de imagens Dall-E para coisas como gerar pornografia infantil generativa baseada em IA.

A OpenAI e toda a próspera indústria de IA generativa exigem uma política de uso bem pensada e, como dizem, foi exigida ontem. Os especialistas prevêem que dentro de um ano a indústria atingirá um estado muito problemático. O uso da IA ​​já está levando a demissões em massa, questões de direitos autorais, erros de litígio e outros grandes aborrecimentos. E deixar a indústria para pessoas como Wilner só piora as coisas.

* Está incluído na lista de associações públicas e organizações religiosas em relação às quais o tribunal tomou uma decisão final para liquidar ou proibir atividades com base na Lei Federal nº 114-FZ de 25 de julho de 2002 “Sobre o combate ao extremismo atividade”.

avalanche

Postagens recentes

Supermicro anuncia servidores MegaDC com processadores AmpereOne de 192 núcleos

A Supermicro apresentou a família MegaDC de servidores para computação em nuvem, plataformas AI, armazenamento,…

4 minutos atrás

MTS e MegaFon não conseguiram apelar das multas da FAS por aumentos tarifários em 2020

O Tribunal de Arbitragem de Moscou recusou as operadoras móveis MTS e Megafon a apelar…

13 minutos atrás

PCs com Windows 8.1 ainda podem ser atualizados para o Windows 11

O suporte estendido para o Windows 8.1 terminou no início deste ano. A Microsoft recomendou…

43 minutos atrás