O Google reforçará a moderação de conteúdo de IA em aplicativos Android a partir de 2024

O Google definirá novos requisitos de moderação de conteúdo para aplicativos Android que usam IA. A partir do início do próximo ano, os desenvolvedores de tais aplicativos deverão implementar um recurso para denunciar material ofensivo ou controverso diretamente na interface do usuário. Essas mudanças afetarão não apenas os chatbots baseados em IA, mas também os aplicativos que criam conteúdo visual e de áudio. A iniciativa visa combater conteúdos impróprios, incluindo deepfakes e desinformação.

Fonte da imagem: dassel/Pixabay

O Google esclareceu que a nova política não se aplicará a todos os aplicativos de IA. Afetará chatbots, aplicativos de criação de imagens, conteúdo de voz e vídeo. Os aplicativos que armazenam apenas conteúdo gerado por IA ou usam IA para resumir material textual permanecerão fora do escopo das novas regras.

O Google se concentra em certas categorias de conteúdo que exigem moderação estrita. Esta lista inclui vídeos ou imagens falsas criadas sem o consentimento das pessoas neles retratadas, bem como gravações de pessoas reais utilizadas para fins fraudulentos.

Além disso, a empresa estará particularmente vigilante quanto à divulgação de informações falsas ou enganosas relacionadas com as eleições. Não foram estabelecidos controlos menos rigorosos para aplicações em que a IA generativa é utilizada principalmente para gratificação sexual, bem como para a criação de código malicioso.

No seu anúncio, a Google enfatizou que a IA generativa é uma categoria de aplicações em rápido crescimento, sugerindo que a empresa pode reconsiderar as suas políticas de IA à medida que a tecnologia se desenvolve. Além das novas regras relativas ao conteúdo gerado por IA, o Google também expandiu sua política de permissões de fotos e vídeos da Play Store, limitando o acesso dos aplicativos Android aos dados.

«Fotos e vídeos nos dispositivos dos usuários são suas informações pessoais e confidenciais, exigindo a máxima responsabilidade”, enfatizou a empresa em seu comunicado. “Tais dados criam vulnerabilidade potencial para os usuários em caso de vazamentos ou outras formas de exploração.” Restringir o acesso a eles não apenas aumenta o nível de segurança do usuário, mas também reduz a carga sobre os desenvolvedores em termos de processamento de informações confidenciais.”

avalanche

Postagens recentes

O Yandex Maps aprendeu a fornecer conselhos usando inteligência artificial.

A Yandex anunciou um novo recurso de IA para o Yandex Maps que ajudará você…

23 minutos atrás

Os discos ópticos terão um aumento de preço de 20% — a inteligência artificial está envolvida novamente, mas não é o principal motivo.

Em meio às tensões geopolíticas no Oriente Médio, à instabilidade na indústria petroquímica e ao…

23 minutos atrás

“A Odisseia Vampírica Continua”: Desenvolvedores da V Rising abandonam o desenvolvimento do jogo para se dedicarem ao “Projeto Mais Ambicioso” da História do Estúdio.

Em sua primeira mensagem aos jogadores desde o verão passado, a desenvolvedora sueca Stunlock Studios…

2 horas atrás

A GlobalFoundries solicitou a proibição das importações de semicondutores da Tower para os Estados Unidos devido a uma disputa de patentes.

As disputas de patentes normalmente se tornam uma arma de competição entre empresas ocidentais e…

2 horas atrás

O Telegram prevê uma grande quantidade de agentes de IA: o aplicativo de mensagens aderiu ao desenvolvimento do OpenClaw.

Peter Steinberger, criador do OpenClaw, e os desenvolvedores do Telegram concordaram em colaborar no desenvolvimento…

2 horas atrás