Categorias: Notícias da rede

A ferramenta do YouTube para proteger blogueiros de deepfakes criou um risco de vazamento de seus dados biométricos.

O YouTube começou a expandir o acesso à sua ferramenta de “Detecção de Similaridade”, lançada em outubro, que identifica deepfakes — vídeos artificiais criados por inteligência artificial usando os rostos de blogueiros populares. No entanto, a ferramenta exige que os criadores de conteúdo forneçam dados biométricos, o que gerou sérias preocupações entre especialistas.

Fonte da imagem: Rubaitul Azad / unsplash.com

A principal crítica centra-se nos termos de utilização da ferramenta. De acordo com a CNBC, especialistas citam a Política de Privacidade principal do Google, que afirma que informações publicamente disponíveis, incluindo dados biométricos, podem ser usadas para treinar os modelos de IA da empresa e desenvolver novos produtos. Isso, segundo especialistas, cria um risco potencial e incerteza para os criadores que compartilham seus dados biométricos exclusivos com o serviço de hospedagem de vídeos.

Em resposta à consulta da CNBC, o porta-voz do YouTube, Jack Malon, afirmou que as informações coletadas são usadas exclusivamente para identificar usuários e operar a ferramenta. Ele enfatizou que a empresa nunca usou dados biométricos de criadores para treinar seus algoritmos de IA. O YouTube também afirmou que está trabalhando para esclarecer a redação a fim de evitar mal-entendidos, mas a política de dados principal não será alterada.

Amjad Hanif, chefe de produtos de publicação do YouTube, explicou que a ferramenta foi desenvolvida para lidar com a escala massiva da plataforma, onde um enorme volume de conteúdo é publicado diariamente. A expectativa é que ela esteja disponível para mais de três milhões de parceiros até o final de janeiro. No entanto, especialistas do setor, como Dan Neely, da Vermillio, empresa especializada em proteção de direitos de imagem, aconselham os criadores a terem cautela. Ele observa que, na era da inteligência artificial, a imagem digital está se tornando um ativo fundamental e perder o controle sobre ela pode ser irreversível.O CEO da Loti, Luke Arrigoni, também afirmou que não recomenda que os clientes habilitem esse recurso em sua forma atual, citando os altos riscos potenciais.

O problema dos deepfakes está se tornando cada vez mais relevante com o desenvolvimento de tecnologias de geração de vídeo, como o próprio produto do Google, o Veo 3, que, segundo a CNBC, é treinado com vídeos do YouTube. Editores populares, como o médico e blogueiro Mikhail Varshavski, conhecido como Doctor Mike, já se deparam regularmente com vídeos falsos nos quais sua imagem é usada para promover produtos duvidosos ou desinformação.

Atualmente, os criadores de conteúdo não têm como monetizar o uso não autorizado de sua imagem, ao contrário das opções de compartilhamento de receita disponíveis por meio do sistema Content ID do YouTube. No entanto, Hanif afirmou que a empresa está explorando a possibilidade de usar um modelo semelhante para vídeos gerados por IA.

admin

Postagens recentes

O criador de Painkiller está disposto a embebedar o diretor de Clair Obscur: Expedition 33 para extrair segredos de seu projeto.

Clair Obscur: Expedition 33, o RPG de fantasia por turnos da Sandfall Interactive com lançamento…

23 minutos atrás

A influência de Elon Musk na indústria de tecnologia diminuiu, à medida que Larry Ellison, CEO da Oracle, o ultrapassou.

A alta das ações da Oracle em setembro deste ano fez com que o cofundador…

45 minutos atrás

A Sapphire lançou as placas-mãe sem fio Radeon RX 9070 XT e PhantomLink para ela.

A Sapphire lançou na China a placa gráfica Nitro+ Radeon RX 9070 XT PhantomLink PE,…

1 hora atrás

Um navio de carga não tripulado com velas em forma de asas foi projetado nos EUA e será lançado dentro de um ano.

A Clippership, empresa americana especializada em robótica marítima, está concluindo o desenvolvimento de um navio…

3 horas atrás