Especialistas criticaram o Google pela falta de transparência e informações mínimas no relatório técnico sobre o Gemini 2.5 Pro. Eles acreditam que o documento, sem dados completos, não fornece uma compreensão adequada dos possíveis riscos do novo modelo de IA.

Fonte da imagem: Google

O relatório surge poucas semanas após o lançamento do Gemini 2.5 Pro, o modelo mais poderoso do Google até hoje. Embora tais documentos sejam geralmente considerados uma parte importante da segurança da inteligência artificial (IA) e ajudem pesquisadores independentes a conduzir suas próprias avaliações de risco, neste caso o relatório foi “muito escasso”, escreve o TechCrunch.

«O artigo contém informações mínimas e foi divulgado depois que o modelo já estava disponível publicamente, disse Peter Wildeford, cofundador do Instituto de Política e Estratégia de IA. “Não há como verificar se o Google cumpre suas promessas públicas, o que significa que não há como avaliar a segurança e a confiabilidade dos modelos da empresa.”

Outra crítica foi a falta de menção ao sistema interno de avaliação de risco Frontier Safety Framework (FSF) do Google, que foi introduzido no ano passado para identificar capacidades de IA potencialmente perigosas. O novo relatório não inclui os resultados dos testes sobre as capacidades perigosas do modelo – o Google armazena esses dados separadamente e normalmente não os publica com o documento principal.

Especialistas acreditam que o Google, que antes defendia relatórios padronizados de IA, agora está se afastando de seus próprios princípios. Uma preocupação particular é que a empresa ainda não forneceu um relatório sobre o modelo Gemini 2.5 Flash anunciado recentemente. No entanto, um representante do Google disse ao TechCrunch que o documento seria lançado em breve.

Note-se que a situação com o Google é obviamente parte de uma tendência mais ampla. Por exemplo, a Meta✴ também foi recentemente criticada por uma análise de risco superficial de seu mais recente modelo de IA, o Llama 4, e a OpenAI não divulgou nenhum relatório sobre sua linha GPT-4.1.

«“Estamos claramente vendo uma corrida para o fundo do poço”, disse Kevin Bankston, consultor sênior de governança de IA no Centro para Democracia e Tecnologia. “E considerando os relatos de que outras empresas, incluindo a OpenAI, estão reduzindo o tempo de testes de meses para dias, esse nível de relatórios do Google é alarmante.”

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *