Especialistas criticaram o Google pela falta de transparência e informações mínimas no relatório técnico sobre o Gemini 2.5 Pro. Eles acreditam que o documento, sem dados completos, não fornece uma compreensão adequada dos possíveis riscos do novo modelo de IA.
Fonte da imagem: Google
O relatório surge poucas semanas após o lançamento do Gemini 2.5 Pro, o modelo mais poderoso do Google até hoje. Embora tais documentos sejam geralmente considerados uma parte importante da segurança da inteligência artificial (IA) e ajudem pesquisadores independentes a conduzir suas próprias avaliações de risco, neste caso o relatório foi “muito escasso”, escreve o TechCrunch.
«O artigo contém informações mínimas e foi divulgado depois que o modelo já estava disponível publicamente, disse Peter Wildeford, cofundador do Instituto de Política e Estratégia de IA. “Não há como verificar se o Google cumpre suas promessas públicas, o que significa que não há como avaliar a segurança e a confiabilidade dos modelos da empresa.”
Outra crítica foi a falta de menção ao sistema interno de avaliação de risco Frontier Safety Framework (FSF) do Google, que foi introduzido no ano passado para identificar capacidades de IA potencialmente perigosas. O novo relatório não inclui os resultados dos testes sobre as capacidades perigosas do modelo – o Google armazena esses dados separadamente e normalmente não os publica com o documento principal.
Especialistas acreditam que o Google, que antes defendia relatórios padronizados de IA, agora está se afastando de seus próprios princípios. Uma preocupação particular é que a empresa ainda não forneceu um relatório sobre o modelo Gemini 2.5 Flash anunciado recentemente. No entanto, um representante do Google disse ao TechCrunch que o documento seria lançado em breve.
Note-se que a situação com o Google é obviamente parte de uma tendência mais ampla. Por exemplo, a Meta✴ também foi recentemente criticada por uma análise de risco superficial de seu mais recente modelo de IA, o Llama 4, e a OpenAI não divulgou nenhum relatório sobre sua linha GPT-4.1.
«“Estamos claramente vendo uma corrida para o fundo do poço”, disse Kevin Bankston, consultor sênior de governança de IA no Centro para Democracia e Tecnologia. “E considerando os relatos de que outras empresas, incluindo a OpenAI, estão reduzindo o tempo de testes de meses para dias, esse nível de relatórios do Google é alarmante.”
As regras de operação dos poucos serviços de robotáxis nos EUA estipulam que os táxis…
A AMD reportou uma vulnerabilidade (CVE-2025-54518; AMD-SB-7052) identificada no nível CVSS 7.3 no cache de…
Chatbots de IA de uso geral e modelos de IA especializados para biologia facilitam o…
A AMD expandiu seu portfólio de processadores Ryzen Pro 9000 para PCs empresariais e estações…
Cedo ou tarde, as ambições dos bilionários se tornam limitadas na Terra, então eles se…
Boris Cherny, criador do Claude Code, disse que executa cerca de dois mil agentes de…