Os óculos inteligentes Ray-Ban Meta✴ com inteligência artificial provaram ser um pesadelo para a privacidade: vídeos de nudez, cenas de sexo e outros conteúdos sensíveis são armazenados não apenas no dispositivo, mas também na nuvem Meta✴, onde são analisados ​​por algoritmos e seres humanos para treinar a IA.

Fonte da imagem: ray-ban.com

Essa é a conclusão a que chegaram jornalistas do jornal sueco Svenska Dagbladet após analisarem uma parceria entre a Meta✴ e a Ray-Ban. Descobriu-se que os vídeos criados pelo dispositivo são coletados e visualizados por um grande número de pessoas, incluindo contratados que preparam os dados para o treinamento da IA. Fontes anônimas de uma empresa queniana admitiram ter visualizado vídeos de pessoas em momentos íntimos e vulneráveis ​​— momentos em que os usuários dos óculos inteligentes Meta✴ prefeririam não ser observados.

A empresa queniana Sama é subcontratada da Meta✴; seus funcionários reconhecem objetos em fotos e vídeos, e esses dados são usados ​​para treinar a IA. Milhares de pessoas destacam objetos nos enquadramentos, os rotulam e transmitem os dados para o sistema Meta✴. Um funcionário admitiu ter visto pessoas indo ao banheiro ou se despindo, e não sabe se elas tinham consciência de que estavam sendo filmadas. Em um dos casos, um homem tirou os óculos, colocou-os na mesa de cabeceira e saiu do quarto, momento em que uma mulher entrou e trocou de roupa. Algumas filmagens foram removidas intencionalmente, enquanto em outros casos, os usuários ou pessoas presentes nas imagens não tinham conhecimento de que estavam sendo filmados.

Humanos frequentemente estão envolvidos na preparação de dados para treinamento de IA — grandes empresas empregam um grande número de trabalhadores em países com baixos salários. No entanto, a Meta✴ e outras empresas de tecnologia garantem que seus sistemas asseguram a confidencialidade. No mínimo, os funcionários que trabalham com filmagens devem assinar um acordo de confidencialidade para serem autorizados a realizar esse trabalho. Contudo, as cenas que esses funcionários veem às vezes são inadequadas para o treinamento de IA.

Existem sistemasExistem sistemas de anonimização que ocultam os rostos das pessoas na imagem, mas esses sistemas nem sempre são confiáveis ​​— às vezes, devido a condições de iluminação difíceis, os rostos ficam visíveis. Quando jornalistas questionaram a Meta✴ sobre a situação, a empresa demorou dois meses para responder. Finalmente, um representante da empresa explicou como os dados dos óculos são transmitidos para o aplicativo móvel e remeteu à política de privacidade da Meta✴ para sistemas de IA.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *