O YouTube começou a expandir o acesso à sua ferramenta de “Detecção de Similaridade”, lançada em outubro, que identifica deepfakes — vídeos artificiais criados por inteligência artificial usando os rostos de blogueiros populares. No entanto, a ferramenta exige que os criadores de conteúdo forneçam dados biométricos, o que gerou sérias preocupações entre especialistas.

Fonte da imagem: Rubaitul Azad / unsplash.com
A principal crítica centra-se nos termos de utilização da ferramenta. De acordo com a CNBC, especialistas citam a Política de Privacidade principal do Google, que afirma que informações publicamente disponíveis, incluindo dados biométricos, podem ser usadas para treinar os modelos de IA da empresa e desenvolver novos produtos. Isso, segundo especialistas, cria um risco potencial e incerteza para os criadores que compartilham seus dados biométricos exclusivos com o serviço de hospedagem de vídeos.
Em resposta à consulta da CNBC, o porta-voz do YouTube, Jack Malon, afirmou que as informações coletadas são usadas exclusivamente para identificar usuários e operar a ferramenta. Ele enfatizou que a empresa nunca usou dados biométricos de criadores para treinar seus algoritmos de IA. O YouTube também afirmou que está trabalhando para esclarecer a redação a fim de evitar mal-entendidos, mas a política de dados principal não será alterada.
Amjad Hanif, chefe de produtos de publicação do YouTube, explicou que a ferramenta foi desenvolvida para lidar com a escala massiva da plataforma, onde um enorme volume de conteúdo é publicado diariamente. A expectativa é que ela esteja disponível para mais de três milhões de parceiros até o final de janeiro. No entanto, especialistas do setor, como Dan Neely, da Vermillio, empresa especializada em proteção de direitos de imagem, aconselham os criadores a terem cautela. Ele observa que, na era da inteligência artificial, a imagem digital está se tornando um ativo fundamental e perder o controle sobre ela pode ser irreversível.O CEO da Loti, Luke Arrigoni, também afirmou que não recomenda que os clientes habilitem esse recurso em sua forma atual, citando os altos riscos potenciais.
O problema dos deepfakes está se tornando cada vez mais relevante com o desenvolvimento de tecnologias de geração de vídeo, como o próprio produto do Google, o Veo 3, que, segundo a CNBC, é treinado com vídeos do YouTube. Editores populares, como o médico e blogueiro Mikhail Varshavski, conhecido como Doctor Mike, já se deparam regularmente com vídeos falsos nos quais sua imagem é usada para promover produtos duvidosos ou desinformação.
Atualmente, os criadores de conteúdo não têm como monetizar o uso não autorizado de sua imagem, ao contrário das opções de compartilhamento de receita disponíveis por meio do sistema Content ID do YouTube. No entanto, Hanif afirmou que a empresa está explorando a possibilidade de usar um modelo semelhante para vídeos gerados por IA.
