Categorias: Eletrônica vestível

A Meta treina a IA com vídeos de óculos de sol Ray-Ban, incluindo imagens íntimas — mas primeiro, pessoas no Quênia assistem a esses vídeos.

Os óculos inteligentes Ray-Ban Meta✴ com inteligência artificial provaram ser um pesadelo para a privacidade: vídeos de nudez, cenas de sexo e outros conteúdos sensíveis são armazenados não apenas no dispositivo, mas também na nuvem Meta✴, onde são analisados ​​por algoritmos e seres humanos para treinar a IA.

Fonte da imagem: ray-ban.com

Essa é a conclusão a que chegaram jornalistas do jornal sueco Svenska Dagbladet após analisarem uma parceria entre a Meta✴ e a Ray-Ban. Descobriu-se que os vídeos criados pelo dispositivo são coletados e visualizados por um grande número de pessoas, incluindo contratados que preparam os dados para o treinamento da IA. Fontes anônimas de uma empresa queniana admitiram ter visualizado vídeos de pessoas em momentos íntimos e vulneráveis ​​— momentos em que os usuários dos óculos inteligentes Meta✴ prefeririam não ser observados.

A empresa queniana Sama é subcontratada da Meta✴; seus funcionários reconhecem objetos em fotos e vídeos, e esses dados são usados ​​para treinar a IA. Milhares de pessoas destacam objetos nos enquadramentos, os rotulam e transmitem os dados para o sistema Meta✴. Um funcionário admitiu ter visto pessoas indo ao banheiro ou se despindo, e não sabe se elas tinham consciência de que estavam sendo filmadas. Em um dos casos, um homem tirou os óculos, colocou-os na mesa de cabeceira e saiu do quarto, momento em que uma mulher entrou e trocou de roupa. Algumas filmagens foram removidas intencionalmente, enquanto em outros casos, os usuários ou pessoas presentes nas imagens não tinham conhecimento de que estavam sendo filmados.

Humanos frequentemente estão envolvidos na preparação de dados para treinamento de IA — grandes empresas empregam um grande número de trabalhadores em países com baixos salários. No entanto, a Meta✴ e outras empresas de tecnologia garantem que seus sistemas asseguram a confidencialidade. No mínimo, os funcionários que trabalham com filmagens devem assinar um acordo de confidencialidade para serem autorizados a realizar esse trabalho. Contudo, as cenas que esses funcionários veem às vezes são inadequadas para o treinamento de IA.

Existem sistemasExistem sistemas de anonimização que ocultam os rostos das pessoas na imagem, mas esses sistemas nem sempre são confiáveis ​​— às vezes, devido a condições de iluminação difíceis, os rostos ficam visíveis. Quando jornalistas questionaram a Meta✴ sobre a situação, a empresa demorou dois meses para responder. Finalmente, um representante da empresa explicou como os dados dos óculos são transmitidos para o aplicativo móvel e remeteu à política de privacidade da Meta✴ para sistemas de IA.

admin

Compartilhar
Publicado por
admin

Postagens recentes

A Apple lançará um aplicativo Siri separado para iOS 27 e macOS 27.

Segundo Mark Gurman, da Bloomberg, a Apple planeja lançar o primeiro aplicativo Siri independente como…

3 horas atrás

A OpenAI encerrou abruptamente o Sora, o gerador viral de sátiras com IA.

A OpenAI decidiu inesperadamente encerrar seu aplicativo de criação de vídeos com inteligência artificial, o…

3 horas atrás

NVIDIA Groq 3: SRAM, desagregação, determinismo

As LPUs da Groq são fundamentalmente diferentes dos aceleradores de IA da NVIDIA, mas são…

4 horas atrás

A primeira cerveja do mundo feita com CO₂ extraído diretamente do ar ambiente foi lançada nos EUA.

Pela primeira vez no mundo, a cerveja foi carbonatada com dióxido de carbono (CO₂) capturado…

6 horas atrás