A NVIDIA revelou uma solução NeMo Guardrails de código aberto projetada para proteger aplicativos de IA, impedindo que bots de IA façam as chamadas alucinações (declarações falsas), discutam tópicos tabus, falem linguagem tóxica e executem ações indesejadas.
O NVIDIA NeMo Guardrails foi projetado para funcionar com todos os modelos de linguagem grande (LLMs), como o ChatGPT da OpenAI. A solução permite que os desenvolvedores personalizem aplicativos baseados em LLM para serem seguros e permanecerem dentro do domínio da empresa. O NeMo Guardrails atua como uma camada intermediária entre o usuário e o LLM ou outra ferramenta de IA e evita que resultados ou dicas incorretas sejam fornecidas.
Fonte da imagem: NVIDIA
O NeMo Guardrails permite que os desenvolvedores definam três tipos de bordas:
A NVIDIA incorporou o NeMo Guardrails na plataforma NVIDIA NeMo, fornecendo as ferramentas necessárias para treinar e ajustar modelos de linguagem usando os dados da própria empresa. Grande parte do kit de ferramentas NeMo já está disponível no GitHub. As empresas também podem obtê-lo como um pacote completo e compatível incluído na NVIDIA AI Enterprise Platform.
O estúdio independente russo The Witches Circle, dirigido por "bruxas da tecnologia apaixonadas", anunciou Dopros,…
A empresa chinesa Xiaomi possui um negócio bastante diversificado, mas sua receita depende fortemente das…
Elon Musk e Jeff Bezos competem pela riqueza na Terra, mas a rivalidade entre eles…
A Sber Group, empresa responsável pela plataforma de inteligência artificial GigaChat, manterá o acesso gratuito…
A Amazon relatou uma interrupção em sua região de nuvem da Amazon Web Services no…
Para concluir a rodada de financiamento anterior da OpenAI, a corporação japonesa SoftBank vendeu às…