A NVIDIA revelou uma solução NeMo Guardrails de código aberto projetada para proteger aplicativos de IA, impedindo que bots de IA façam as chamadas alucinações (declarações falsas), discutam tópicos tabus, falem linguagem tóxica e executem ações indesejadas.
O NVIDIA NeMo Guardrails foi projetado para funcionar com todos os modelos de linguagem grande (LLMs), como o ChatGPT da OpenAI. A solução permite que os desenvolvedores personalizem aplicativos baseados em LLM para serem seguros e permanecerem dentro do domínio da empresa. O NeMo Guardrails atua como uma camada intermediária entre o usuário e o LLM ou outra ferramenta de IA e evita que resultados ou dicas incorretas sejam fornecidas.
Fonte da imagem: NVIDIA
O NeMo Guardrails permite que os desenvolvedores definam três tipos de bordas:
A NVIDIA incorporou o NeMo Guardrails na plataforma NVIDIA NeMo, fornecendo as ferramentas necessárias para treinar e ajustar modelos de linguagem usando os dados da própria empresa. Grande parte do kit de ferramentas NeMo já está disponível no GitHub. As empresas também podem obtê-lo como um pacote completo e compatível incluído na NVIDIA AI Enterprise Platform.
A Basis, líder no mercado russo de software para gerenciamento de infraestrutura dinâmica, anuncia o…
O CEO da Nvidia, Jensen Huang, em entrevista ao blogueiro Lex Fridman, comentou mais uma…
O console de jogos Switch 2 estreou com vendas recordes, mas os meses subsequentes ficaram…
Antes de a OpenAI começar a captar ativamente recursos de investidores estratégicos, ela dependia há…
A fabricante de smartphones Tecno, que recentemente apresentou um conceito de smartphone modular, está agora…
A Starlink, parte do império SpaceX de Elon Musk, não é a única empresa no…