LLM Guard是一款专为大型语言模型(LLMs)设计的安全工具包,由Protect AI公司开发。它的主要目标是为LLM交互提供全面的安全保护,确保用户与AI系统之间的交互安全、可靠且符合道德标准。

输入净化: 对用户输入进行清理和过滤,移除潜在的有害内容。
有害语言检测: 识别并阻止包含不当、冒犯或危险内容的语言。
数据泄露防护: 防止敏感信息在LLM交互过程中被意外泄露。
提示注入攻击防御: 抵御试图操纵或绕过LLM安全措施的恶意提示。
输出安全检查: 确保LLM生成的内容符合安全和道德标准。
通过这些功能,LLM Guard为企业和开发者提供了一个强大的工具,以确保他们的AI应用程序在与用户交互时保持安全和可控。
LLM Guard的安装非常简单,可以通过pip包管理器进行安装:
pip install llm-guard
安装完成后,用户需要确保使用Python 3.9或更高版本。如果在安装过程中遇到问题,可以尝试升级pip:
python -m pip install --upgrade pip
LLM Guard提供了多种扫描器,可以单独使用或组合使用。以下是一些基本用法示例:
from llm_guard.input_scanners import BanTopics scanner = BanTopics(topics=["violence"], threshold=0.5) sanitized_prompt, is_valid, risk_score = scanner.scan(prompt)
from llm_guard import scan_prompt from llm_guard.input_scanners import Anonymize, PromptInjection, TokenLimit, Toxicity from llm_guard.vault import Vault vault = Vault() input_scanners = [Anonymize(vault), Toxicity(), TokenLimit(), PromptInjection()] sanitized_prompt, results_valid, results_score = scan_prompt(input_scanners, prompt)
LLM Guard提供了丰富的扫描器,分为输入扫描器和输出扫描器两大类。
输入扫描器用于检查和净化用户输入,包 括:
输出扫描器用于检查和净化LLM生成的内容,包括:
LLM Guard可以轻松集成到现有的AI应用程序中。例如,它可以与OpenAI的ChatGPT API一起使用:
import os from openai import OpenAI from llm_guard import scan_prompt, scan_output from llm_guard.input_scanners import Anonymize, PromptInjection, TokenLimit, Toxicity from llm_guard.output_scanners import Deanonymize, NoRefusal, Relevance, Sensitive from llm_guard.vault import Vault client = OpenAI(api_key=os.getenv("OPENAI_API_KEY")) vault = Vault() input_scanners = [Anonymize(vault), Toxicity(), TokenLimit(), PromptInjection()] output_scanners = [Deanonymize(vault), NoRefusal(), Relevance(), Sensitive()] prompt = "Your prompt here" sanitized_prompt, results_valid, results_score = scan_prompt(input_scanners, prompt) if all(results_valid.values()): response = client.chat.completions.create( model="gpt-3.5-turbo", messages=[ {"role": "system", "content": "You are a helpful assistant."}, {"role": "user", "content": sanitized_prompt}, ], temperature=0, max_tokens=512, ) response_text = response.choices[0].message.content sanitized_response_text, results_valid, results_score = scan_output( output_scanners, sanitized_prompt, response_text ) if all(results_valid.values()): print(f"Output: {sanitized_response_text}\n") else: print(f"Output {response_text} is not valid, scores: {results_score}") else: print(f"Prompt {prompt} is not valid, scores: {results_score}")
LLM Guard是一个开源项目,欢迎社区成员参与贡献。无论是修复bug、提出新功能、改进文档还是传播项目,都能为LLM Guard的发展做出贡献。
此外,LLM Guard还有一个活跃的Slack社区,欢迎加入讨论、提问和分享经验。

LLM Guard为大型语言模型的安全交互提供了全面的解决方案。通过其丰富的扫描器和灵活的集成方式,它能够有效地防范各种潜在的安全威胁,确保AI应用程序的安全性和可靠性。无论是企业还是个人开发者,都可以利用LLM Guard来增强他们的AI系统,为用户提供更安全、更可信的交互体验。
随着AI技术的不断发展,安全问题也变得越来越重要。LLM Guard作为一个开源项目,将继续evolve和改进,以应对新出现的安全挑战。通过社区的共同努力,LLM Guard有望成为AI安全领域的重要工具,为构建更安全、更可靠的AI生态系统做出贡献。


免费创建高清无水印Sora视频
Vora是一个免费创建高清无水印Sora视频的AI工具


最适合小白的AI自动化工作流平台
无需编码,轻松生成可复用、可变现的AI自动化工作流

大模型驱动的Excel数据处理工具
基于大模型交互的表格处理系统,允许用户通过对话方式完成数据整理和可视化分析。系统采用机器学习算法解析用户指令,自动执行排序、公式计算和数据透视等操作,支持多种文件格式导 入导出。数据处理响应速度保持在0.8秒以内,支持超过100万行数据的即时分析。


AI辅助编程,代码自动修复
Trae是一种自适应的集成开发环境(IDE),通过自动化和多元协作改 变开发流程。利用Trae,团队能够更快速、精确地编写和部署代码,从而提高编程效率和项目交付速度。Trae具备上下文感知和代码自动完成功能,是提升开发效率的理想工具。


AI论文写作指导平台
AIWritePaper论文写作是一站式AI论文写作辅助工具,简化了选题、文献检索至论文撰写的整个过程。通过简单设定,平台可快速生成高质量论文大纲和全文,配合图表、参考文献等一应俱全,同时提供开题报告和答辩PPT等增值服务,保障数据安全,有效提升写作效率和论文质量。


AI一键生成PPT,就用博思AIPPT!
博思AIPPT,新一代的AI生成PPT平台,支持智能生成PPT、AI美化PPT、文本&链接生成PPT、导入Word/PDF/Markdown文档生成PPT等,内置海量精美PPT模板,涵盖商务、教育、科技等不同风格,同时针对每个页面提供多种版式,一键自适应切换,完美适配各种办公场景。


AI赋能电商视觉革命,一站式智能商拍平台
潮际好麦深耕服装行业,是国内AI试衣效果最好的软件。使用先进AIGC能力为电商卖家批量提供优质的、低成本的商拍图。合作品牌有Shein、Lazada、安踏、百丽等65个国内外头部品牌,以及国内10万+淘宝、天猫、京东等主流平台的品牌商家,为卖家节省将近85%的出图成本,提升约3倍出图效率,让品牌能够快速上架。


企业专属的AI法律顾问
iTerms是法大大集团旗下法律子品牌,基于最先进的大语言模型(LLM)、专业的法律知识库和强大的智能体架构,帮助企业扫清合规障碍,筑牢风控防线,成为您企业专属的AI法律顾问。


稳定高效的流量提升解决方案,助力品牌曝光
稳定高效的流量提升解决方案,助力品牌曝光


最新版Sora2模型免费使用,一键生成无水印视频
最新版Sora2模型免费使用,一键生成无水印视频
最新AI工具、AI资讯
独家AI资源、AI项目落地

微信扫一扫关注公众号