Relatório Gemini 2.5 Pro do Google é criticado por falta de transparência na segurança da IA

Especialistas criticaram o Google pela falta de transparência e informações mínimas no relatório técnico sobre o Gemini 2.5 Pro. Eles acreditam que o documento, sem dados completos, não fornece uma compreensão adequada dos possíveis riscos do novo modelo de IA.

Fonte da imagem: Google

O relatório surge poucas semanas após o lançamento do Gemini 2.5 Pro, o modelo mais poderoso do Google até hoje. Embora tais documentos sejam geralmente considerados uma parte importante da segurança da inteligência artificial (IA) e ajudem pesquisadores independentes a conduzir suas próprias avaliações de risco, neste caso o relatório foi “muito escasso”, escreve o TechCrunch.

«O artigo contém informações mínimas e foi divulgado depois que o modelo já estava disponível publicamente, disse Peter Wildeford, cofundador do Instituto de Política e Estratégia de IA. “Não há como verificar se o Google cumpre suas promessas públicas, o que significa que não há como avaliar a segurança e a confiabilidade dos modelos da empresa.”

Outra crítica foi a falta de menção ao sistema interno de avaliação de risco Frontier Safety Framework (FSF) do Google, que foi introduzido no ano passado para identificar capacidades de IA potencialmente perigosas. O novo relatório não inclui os resultados dos testes sobre as capacidades perigosas do modelo – o Google armazena esses dados separadamente e normalmente não os publica com o documento principal.

Especialistas acreditam que o Google, que antes defendia relatórios padronizados de IA, agora está se afastando de seus próprios princípios. Uma preocupação particular é que a empresa ainda não forneceu um relatório sobre o modelo Gemini 2.5 Flash anunciado recentemente. No entanto, um representante do Google disse ao TechCrunch que o documento seria lançado em breve.

Note-se que a situação com o Google é obviamente parte de uma tendência mais ampla. Por exemplo, a Meta✴ também foi recentemente criticada por uma análise de risco superficial de seu mais recente modelo de IA, o Llama 4, e a OpenAI não divulgou nenhum relatório sobre sua linha GPT-4.1.

«“Estamos claramente vendo uma corrida para o fundo do poço”, disse Kevin Bankston, consultor sênior de governança de IA no Centro para Democracia e Tecnologia. “E considerando os relatos de que outras empresas, incluindo a OpenAI, estão reduzindo o tempo de testes de meses para dias, esse nível de relatórios do Google é alarmante.”

avalanche

Postagens recentes

Após 28 anos, os fãs descobriram “um dos segredos mais antigos” de The Elder Scrolls: o que se esconde sob as saias das mulheres em Redguard.

Em antecipação ao ambicioso jogo de RPG de fantasia The Elder Scrolls VI, os fãs…

20 minutos atrás

A Vitality derrotou a Spirit na final do IEM Rio 2026 e levou para casa US$ 1 milhão em barras de ouro no Grand Slam.

A equipe francesa de Counter-Strike, Team Vitality, venceu o torneio IEM Rio 2026, derrotando a…

20 minutos atrás

Os reguladores consideram o modelo de IA do Mito Antrópico uma ameaça ao sistema bancário.

Na melhor tradição das histórias de ficção científica sobre a "ascensão das máquinas", a startup…

60 minutos atrás

O foguete da Blue Origin lançou um satélite em uma órbita errada, e a espaçonave BlueBird 7 será agora devolvida à Terra.

O lançamento de ontem do satélite BlueBird 7 da AST SpaceMobile, a bordo do foguete…

2 horas atrás

Huawei Vision Smart Screen S7 Pro revelada – uma TV Mini-LED com HarmonyOS 4.3 e recursos de IA.

A Huawei apresentou a Vision Smart Screen S7 Pro TV, ampliando sua linha de dispositivos…

3 horas atrás

A Intel está aumentando sua capacidade produtiva: as compras de equipamentos dispararam.

O boom da IA ​​teve um impacto bastante tradicional nos negócios da Intel: não há…

3 horas atrás