O último mês foi caracterizado pela saída de vários executivos de alto escalão da startup OpenAI, que se manifestaram a favor do fortalecimento do controle sobre a disseminação de tecnologias de inteligência artificial. Ao longo do caminho, uma unidade especial foi dissolvida, mas as suas funções serão em grande parte transferidas para o recém-criado comité de supervisão no conselho de administração.
Este comitê, conforme relata a Bloomberg, incluirá membros do conselho de administração e executivos da empresa. As funções do comitê se limitarão a avaliar a segurança dos grandes modelos de linguagem desenvolvidos pela empresa. O comitê terá 90 dias para realizar uma avaliação inicial dos regulamentos de segurança existentes. O comité terá então de publicar as suas recomendações nesta área e torná-las públicas. A empresa também observou que começou a treinar seu mais recente modelo de linguagem grande. Muito provavelmente, estamos falando do GPT-5.
Lembremos que dentro da OpenAI, a divisão especializada foi forçada a lutar por recursos, e o principal especialista científico Ilya Sutskever, que deixou a equipe da OpenAI em maio, teve conflitos relacionados aos métodos de avaliação de risco com a atual gestão no outono passado, o que resultou em uma tentativa para renunciar ao fundador da empresa, Sam Altman. Parte da função de monitorar o impacto da inteligência artificial na sociedade foi atribuída à divisão de pesquisa OpenAI, que, após a saída de Sutzkever, passou a ser chefiada por John Schulman, que também esteve na origem da startup.
O comitê de supervisão será composto por três membros do conselho: o presidente Bret Taylor, o CEO Adam D’Angelo e a ex-executiva da Sony Entertainment Nicole Seligman. Mais seis membros do comitê serão escolhidos entre executivos, incluindo Altman e Shulman. Consultores terceirizados não relacionados à empresa também estarão envolvidos. Dois deles eram anteriormente funcionários de alto escalão nos Estados Unidos.