Relatório Gemini 2.5 Pro do Google é criticado por falta de transparência na segurança da IA

Especialistas criticaram o Google pela falta de transparência e informações mínimas no relatório técnico sobre o Gemini 2.5 Pro. Eles acreditam que o documento, sem dados completos, não fornece uma compreensão adequada dos possíveis riscos do novo modelo de IA.

Fonte da imagem: Google

O relatório surge poucas semanas após o lançamento do Gemini 2.5 Pro, o modelo mais poderoso do Google até hoje. Embora tais documentos sejam geralmente considerados uma parte importante da segurança da inteligência artificial (IA) e ajudem pesquisadores independentes a conduzir suas próprias avaliações de risco, neste caso o relatório foi “muito escasso”, escreve o TechCrunch.

«O artigo contém informações mínimas e foi divulgado depois que o modelo já estava disponível publicamente, disse Peter Wildeford, cofundador do Instituto de Política e Estratégia de IA. “Não há como verificar se o Google cumpre suas promessas públicas, o que significa que não há como avaliar a segurança e a confiabilidade dos modelos da empresa.”

Outra crítica foi a falta de menção ao sistema interno de avaliação de risco Frontier Safety Framework (FSF) do Google, que foi introduzido no ano passado para identificar capacidades de IA potencialmente perigosas. O novo relatório não inclui os resultados dos testes sobre as capacidades perigosas do modelo – o Google armazena esses dados separadamente e normalmente não os publica com o documento principal.

Especialistas acreditam que o Google, que antes defendia relatórios padronizados de IA, agora está se afastando de seus próprios princípios. Uma preocupação particular é que a empresa ainda não forneceu um relatório sobre o modelo Gemini 2.5 Flash anunciado recentemente. No entanto, um representante do Google disse ao TechCrunch que o documento seria lançado em breve.

Note-se que a situação com o Google é obviamente parte de uma tendência mais ampla. Por exemplo, a Meta✴ também foi recentemente criticada por uma análise de risco superficial de seu mais recente modelo de IA, o Llama 4, e a OpenAI não divulgou nenhum relatório sobre sua linha GPT-4.1.

«“Estamos claramente vendo uma corrida para o fundo do poço”, disse Kevin Bankston, consultor sênior de governança de IA no Centro para Democracia e Tecnologia. “E considerando os relatos de que outras empresas, incluindo a OpenAI, estão reduzindo o tempo de testes de meses para dias, esse nível de relatórios do Google é alarmante.”

avalanche

Postagens recentes

Uma fonte interna decepcionou os fãs que esperavam ver Ada Wong e Chris Redfield em Resident Evil Requiem.

O lançamento do ambicioso jogo de terror Resident Evil Requiem marcará o grande retorno do…

4 horas atrás

O Samsung Galaxy S26 Ultra com caneta stylus aparece em imagem de pré-anúncio.

No final de janeiro, foi noticiado que os smartphones da série Samsung Galaxy S26 provavelmente…

6 horas atrás

“Vivo e bem”: Um analista de dados revelou o que está acontecendo com Half-Life 3.

O minerador de dados Maxim Poletaev (também conhecido como Gabe Follower) comentou recentemente sobre rumores…

6 horas atrás

A Ford manteve conversas com a Xiaomi sobre a produção de veículos elétricos nos EUA.

A Ford Motor, uma das maiores montadoras americanas, inicialmente se comprometeu com uma estreita cooperação…

7 horas atrás

A CATL apresentou baterias para veículos elétricos com autonomia de até 1,8 milhão de km e carregamento rápido.

Os longos tempos de carregamento são considerados uma das desvantagens operacionais dos veículos elétricos, mas…

7 horas atrás