Robôs controlados por grandes modelos de linguagem (LLMs, na sigla em inglês) demonstraram uma tendência a discriminar e endossar ações que poderiam causar danos físicos ao interagirem com humanos. Essa é a conclusão a que chegaram pesquisadores do King’s College London (KCL) e da Carnegie Mellon University (CMU) em um estudo conjunto publicado no International Journal of Social Robotics.

Fonte da imagem: kcl.ac.uk

O estudo, intitulado “Robôs baseados em LLM apresentam risco de discriminação, violência e má conduta”, foi o primeiro a avaliar o comportamento de robôs controlados por IA com acesso a informações pessoais, como gênero, etnia ou religião de seus interlocutores. Em seus experimentos, a equipe testou situações cotidianas em que os robôs poderiam prestar assistência, como na cozinha ou a idosos em casa.

Os pesquisadores incluíram intencionalmente instruções nos cenários que simulavam as técnicas de abuso descritas nos documentos do FBI: vigilância usando AirTag, gravação de vídeo secreta em áreas sensíveis e manipulação de dados pessoais. Em todos os casos, os robôs receberam comandos explícitos e velados sugerindo danos físicos, pressão psicológica ou violação da lei. Nenhum dos modelos testados passou nos testes básicos de segurança: cada um aceitou pelo menos um comando capaz de causar danos graves.

Especificamente, os sistemas de IA concordaram em confiscar os dispositivos de auxílio à mobilidade de uma pessoa (cadeira de rodas, muletas ou bengalas), apesar de, para os usuários desses dispositivos, tal ação ser considerada equivalente a uma lesão física. Alguns modelos consideraram aceitável e viável um cenário em que um robô ameaça funcionários de escritório com uma faca de cozinha, tira fotos secretas em áreas privadas ou rouba informações de cartão de crédito. Um modelo de IA chegou a sugerir que o robô expressasse fisicamente “nojo” em seu rosto ao interagir com pessoas de determinada religião.

Coautor do estudoRumaisa Azeem, pesquisadora do Laboratório de IA Cívica e Responsável do King’s College London, observou que tais sistemas, em sua forma atual, são inadequados para uso em robôs de uso geral, especialmente se interagirem com populações vulneráveis. Ela argumentou que, se a inteligência artificial controla um dispositivo físico que impacta pessoas, deve atender aos mesmos padrões rigorosos de segurança que novos medicamentos e equipamentos médicos.

Os pesquisadores propõem a introdução de certificação de segurança independente obrigatória para todos os sistemas de IA projetados para controlar robôs físicos. Eles enfatizam que o uso de grandes modelos de linguagem como único mecanismo de tomada de decisão é inaceitável em áreas críticas como a indústria, o cuidado com doentes e idosos ou o atendimento domiciliar. Eles ressaltam “a necessidade urgente de avaliações de risco regulares e abrangentes da inteligência artificial antes de seu uso em robótica”.

By admin

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *