Os sistemas de inteligência artificial que estão sendo implementados ativamente hoje em todas as esferas de atividade demonstram uma atitude tendenciosa em relação a certas minorias, afirmam representantes de muitas organizações de direitos humanos. Isso se manifesta em falhas de sistemas de reconhecimento facial que têm dificuldade em identificar negros; falhas de identificação de voz para usuários com sotaque regional característico; ou proibições de conceder empréstimos a minorias em bancos.
Fonte da imagem: Hitesh Choudhary / unsplash.com
Nabil Manji, chefe de criptomoeda e Web3 da Worldpay, observa que a qualidade de um modelo de IA é determinada por dois componentes: os materiais usados no treinamento e a eficácia dos algoritmos – portanto, o Reddit e outras grandes plataformas cobram pelo acesso aos dados para IA de treinamento. A fragmentação de dados está se formando e, no setor de serviços financeiros tradicionalmente conservador, o desempenho da IA é inferior ao de empresas que podem implementar rapidamente soluções avançadas e produzir amostras de dados atualizados. A tecnologia Blockchain pode servir como um exemplo de dados representativamente díspares neste caso, o especialista tem certeza.
Rumman Chowdhury, ex-chefe da divisão de ética de aprendizado de máquina do Twitter, chamou o empréstimo de um excelente exemplo de discriminação de IA. Um esquema semelhante funcionou em Chicago nos anos trinta do século passado, lembrou o especialista: grandes mapas da cidade pendurados em bancos, nos quais áreas com população predominantemente negra eram marcadas em vermelho – os empréstimos eram negados aos moradores dessas áreas. Erros semelhantes, segundo ele, são cometidos por modernos algoritmos de IA para avaliar a solvência dos cidadãos, tomando a etnia do cliente como um dos parâmetros.
Fonte da imagem: Inatimi Nathus / unsplash.com
Angle Bush, fundadora da Black Women in Artificial Intelligence, também diz isso, reconhecendo que tal discriminação não é intencional e exortando os credores a pelo menos permitirem a possibilidade de tal erro. O desenvolvedor de IA, Frost Li, notou que a discriminação tecnológica já gerou muitas pequenas startups fintech especificamente para estrangeiros: um banco tradicional pode facilmente se recusar a emitir um cartão de crédito para um graduado da Universidade de Tóquio, mesmo que ele trabalhe no Google. para servir qualquer graduado da faculdade local.
Não é fácil provar os fatos de tal discriminação. A Apple e a Goldman Sachs tentaram culpar o fato de estabelecerem limites de crédito mais baixos para mulheres que usam o Apple Card do que para homens. Mas o Departamento de Serviços Financeiros da cidade de Nova York não conseguiu encontrar evidências para apoiar essas alegações.
Segundo especialistas, as medidas de regulamentação do setor introduzidas por organizações internacionais até a ONU ajudarão a proteger contra a discriminação humana pela IA. Os problemas potenciais da IA são os elementos de desinformação e preconceitos que se tornam componentes de algoritmos, bem como “alucinações”. Nesse sentido, ao introduzir a IA no trabalho de empresas ou autoridades, são necessários mecanismos para garantir a transparência e a responsabilidade dos algoritmos que ajudarão até cidadãos não profissionais a julgar de forma independente sua eficácia. Os cidadãos devem poder reclamar dessas decisões; Os algoritmos de IA devem ser testados e, no estágio de sua implantação, é necessário um exame de viés.