A OpenAI anunciou a reorganização do seu comitê de segurança e proteção em um órgão de supervisão independente do conselho de administração. A nova estrutura recebeu poderes sem precedentes, incluindo o direito de suspender o lançamento de modelos de IA por razões de segurança. A decisão foi tomada após uma revisão de 90 dias dos procedimentos e medidas de segurança da empresa, refletindo a crescente atenção aos aspectos éticos do desenvolvimento da IA.
A nova estrutura receberá informações da administração da empresa sobre a avaliação de segurança dos principais lançamentos de modelos de IA e, juntamente com todo o conselho de administração, supervisionará o seu lançamento, incluindo o direito de adiar o lançamento até que os problemas de segurança sejam resolvidos. Todo o conselho de administração da OpenAI também receberá briefings periódicos sobre questões de segurança e proteção.
A estrutura do novo comité levanta questões sobre a sua independência, visto que todos os seus membros fazem parte do conselho de administração da OpenAI. Isso o distingue do conselho fiscal da Meta✴, cujos membros são totalmente independentes do conselho de administração da corporação. O Meta✴ Oversight Board tem o poder de revisar as decisões de política de conteúdo e tomar decisões vinculativas, enquanto o comitê OpenAI se concentra apenas em avaliar a segurança dos modelos de IA antes de serem lançados.
Uma revisão de 90 dias dos processos de segurança da OpenAI identificou oportunidades adicionais para colaboração na indústria de IA e compartilhamento de informações. A empresa disse que pretende expandir o compartilhamento de dados sobre seu trabalho de segurança e aumentar sua capacidade de testar sistemas de forma independente. No entanto, os mecanismos específicos para implementar estas intenções ainda não foram divulgados.