Em fevereiro, o Google suspendeu o gerador de imagens baseado em inteligência artificial Gemini, que apresentava imprecisões históricas que eram ofensivas ao público. Por exemplo, a diversidade racial dos soldados quando procuram por “legião romana” é um claro anacronismo, e o estereótipo dos homens negros quando procuram por “guerreiros Zulu”. Parece que nada mudou até agora.
O CEO do Google, Sundar Pichai, teve que se desculpar pela falha no gerador de imagens Gemini, e o chefe da divisão especializada do Google DeepMind responsável pelo projeto, Demis Hassabis, prometeu que o erro seria corrigido o mais rápido possível – dentro de algumas semanas. Já estamos em meados de maio e o erro ainda não foi corrigido.
Esta semana, o Google realizou sua conferência anual I/O, onde anunciou muitos novos recursos do Gemini: o modelo de IA pode ser usado para criar chatbots personalizados, planejamento de rotas e será integrado ao Google Calendar, Keep e YouTube Music . Mas a geração de imagens ainda está desativada no aplicativo Gemini e na interface da web, confirmou um porta-voz do Google ao TechCrunch.
Ele não explicou os motivos do atraso. Segundo uma versão, no treinamento da IA, são utilizados conjuntos de dados nos quais prevalecem imagens de pessoas brancas, enquanto representantes de outras raças e grupos étnicos são exceções, o que forma estereótipos. Na tentativa de corrigir esse desequilíbrio, o Google poderia recorrer a uma medida drástica – a codificação rígida, na qual os dados são incorporados diretamente no código-fonte. É muito difícil corrigir um algoritmo criado desta forma.