Após o recente escândalo com a renúncia do CEO da OpenAI, Sam Altman, e seu retorno, a OpenAI está pensando seriamente não apenas em reformar a estrutura de gestão empresarial, mas também em aumentar a responsabilidade dos desenvolvedores pelo lançamento de grandes modelos de linguagem. Agora o conselho de administração pode atrasar o lançamento de novos modelos se considerar que não são suficientemente seguros.

Fonte da imagem: OpenAI

Um papel fundamental neste mecanismo de controlo e coordenação será atribuído, segundo a Bloomberg, a um “grupo de preparação” especial liderado por Aleksander Madry, que combina esta posição com atividades científicas no Instituto de Tecnologia de Massachusetts. As tarefas do grupo de especialistas incluirão a análise de cada novo modelo de linguagem grande preparado para lançamento para identificar “riscos catastróficos”. Estas incluem as prováveis ​​consequências da utilização deste modelo linguístico, que implicará centenas de milhares de milhões de dólares em danos materiais ou mesmo perda de vidas.

O grupo de Madri compartilhará relatórios mensais sobre as atividades dos desenvolvedores OpenAI com um conselho especial de segurança, que então compartilhará suas descobertas com o CEO e o conselho de administração da empresa. Sam Altman poderá decidir se lançará um novo modelo de linguagem no mercado ou adiá-lo para desenvolvimento adicional, e o conselho de administração terá o direito de vetar uma decisão positiva do chefe da OpenAI de lançar o modelo ao público .

O grupo de análise de prontidão do modelo de linguagem foi formado dentro da OpenAI em outubro, antes dos conhecidos eventos com mudanças na gestão. Em geral, existem mais dois grupos dentro da empresa que analisam os desenvolvimentos. Em primeiro lugar, este é o grupo de segurança como tal, bem como o grupo de “superalinhamento”, que tem em conta ameaças hipotéticas da introdução de sistemas de inteligência artificial superpoderosos no futuro.

Os modelos de linguagem desenvolvidos pela OpenAI serão avaliados pela equipe de Madri em uma escala que inclui quatro níveis de risco: baixo, médio, alto ou crítico. De acordo com o plano, a empresa poderá colocar em circulação apenas os sistemas de inteligência artificial que, como resultado de todos os procedimentos de análise e modificação, tenham recebido uma classificação de risco não superior a baixa ou média. Como o próprio Madri admitiu, “OpenAI não é algo que acontece por si só e pode ser benéfico ou prejudicial para nós, é algo que é moldado por nós”. Um representante da empresa expressou a esperança de que outros desenvolvedores utilizem uma abordagem semelhante para gerenciamento de riscos no campo da inteligência artificial. Dentro dos muros da OpenAI, tal prática foi formada de forma consistente e nos últimos dois meses foi simplesmente consolidada por decisões da alta administração.

avalanche

Postagens recentes

Uma grande caixa sobre rodas: a Humble Robotics apresentou um caminhão autônomo sem cabine com autonomia de 320 km.

A startup californiana Humble Robotics saiu do modo de desenvolvimento fechado e apresentou um caminhão…

45 minutos atrás

A megafábrica Terafab de Elon Musk produzirá chips usando a tecnologia de processo angstrom 14A da Intel.

Este mês, foi anunciado que a Intel ajudará a SpaceX e a Tesla a iniciar…

1 hora atrás

A Asus definiu o preço do seu laptop topo de linha, o ROG Zephyrus Duo, em impressionantes US$ 8.570.

A Asus abriu a pré-venda de sua nova linha de notebooks gamers ROG Zephyrus em…

1 hora atrás

A Apple ficou sem estoque até mesmo do Mac mini básico com o chip M4 e 16 GB de RAM.

Aparentemente, a Apple esgotou seu estoque do Mac mini básico. O produto está atualmente listado…

1 hora atrás