A NVIDIA revelou uma solução NeMo Guardrails de código aberto projetada para proteger aplicativos de IA, impedindo que bots de IA façam as chamadas alucinações (declarações falsas), discutam tópicos tabus, falem linguagem tóxica e executem ações indesejadas.
O NVIDIA NeMo Guardrails foi projetado para funcionar com todos os modelos de linguagem grande (LLMs), como o ChatGPT da OpenAI. A solução permite que os desenvolvedores personalizem aplicativos baseados em LLM para serem seguros e permanecerem dentro do domínio da empresa. O NeMo Guardrails atua como uma camada intermediária entre o usuário e o LLM ou outra ferramenta de IA e evita que resultados ou dicas incorretas sejam fornecidas.
O NeMo Guardrails permite que os desenvolvedores definam três tipos de bordas:
A NVIDIA incorporou o NeMo Guardrails na plataforma NVIDIA NeMo, fornecendo as ferramentas necessárias para treinar e ajustar modelos de linguagem usando os dados da própria empresa. Grande parte do kit de ferramentas NeMo já está disponível no GitHub. As empresas também podem obtê-lo como um pacote completo e compatível incluído na NVIDIA AI Enterprise Platform.
A principal dificuldade do FLUX.1 [dev] do ponto de vista do proprietário de um PC…
A empresa americana Neuralink Elon Musk, que desenvolve interfaces cérebro-computador, anunciou o início dos testes…
A mensagem criptografada nas fotos Polaroid acabou não sendo a única mensagem secreta dos desenvolvedores…
No próximo ano, a Apple lançará um smartphone ultrafino, o iPhone 17 Slim (segundo outras…
Graças à sua inclusão na assinatura do Game Pass, o atirador militar Call of Duty:…
Lançamos a última edição do Calendário de Lançamentos. No vídeo, falamos sobre o que jogar…