随着ChatGPT等大语言模型(LLMs)的快速发展和广泛应用,确保这些模型与人类价值观保持一致变得越来越重要。然而,最近的研究表明,即便是经过安全对齐训练的LLMs仍然存在被"越狱"(jailbreak)的风险。所谓"越狱",就是通过精心设计的提示词,诱导模型绕过安全限制,产生有害或不当的输出。
近日,宾夕法尼亚大学的研究人员提出了一种名为PAIR(Prompt Automatic Iterative Refinement)的新型越狱算法。该算法只需要对目标模型进行黑盒访问,就能在20次查询内实现高效的语义越狱。这一发现引发了学术界和产业界的广泛关注。
PAIR算法的核心思想是利用一个"攻击者模型"来自动生成针对目标模型的越狱提示。具体步骤如下:
给攻击者模型一个详细的系统提示,指导其作为红队助手进行越狱尝试。
攻击者模型生成初始越狱提示,并发送给目标模型。
根据目标模型的响应,攻击者模型进行反思和改进,生成新的越狱提示。
重复步骤2-3,直到成功越狱或达到最大查询次数。
PAIR算法采用了上下文学习(in-context learning)的方法,通过在聊天历史中累积先前的尝试和响应来不断优化越狱提示。攻击者模型还会对之前的提示和目标模型的回应进行反思,生成一个"改进"说明,作为一种链式思考(chain-of-thought)推理。这使得攻击过程更具可解释性。
研究人员对PAIR算法进行了广泛的实验评估。结果表明:
PAIR通常只需不到20次查询就能成功越狱,效率比现有算法高 出数个数量级。
PAIR在开源和闭源LLMs(包括GPT-3.5/4、Vicuna和PaLM-2等)上都取得了极具竞争力的越狱成功率。
PAIR生成的越狱提示具有良好的迁移性,能在不同模型间成功复用。
上图展示了PAIR算法对不同模型的直接攻击结果。可以看到,PAIR在各种模型上都实现了高效的越狱。
这张图则展示了PAIR生成的越狱提示在不同模型间的迁移性。结果表明,PAIR生成的提示具有很强的通用性,特别是对于像GPT-4这样的复杂模型。
PAIR算法的出现,凸显了当前LLMs安全对齐方面的不足。即使是最先进的安全对齐LLMs,也可能在少量查询内被成功越狱。这对AI安全带来了严峻挑战。
为了应对PAIR等越狱攻击,研究人员提出了几种可能的防御策略:
限制输入长度:这是最简单的方法,但会影响模型的正常使用。
微调模型以拒绝可疑查询:这种方法可以延缓越狱,但不能完全阻止。
在模型接收输入前进行分类和修改:这种方法效果较好,在一项测试中将攻击成功率从61%降至2%。
然而,这些防御策略都存在各自的局限性。随着攻击方法的不断进化,我们需要开发更加强大和灵活的防御机制。
PAIR算法的提出,为我们揭示了LLMs安全对齐的脆弱性。它提醒我们,即使是看似积极的LLMs改进(如增加上下文窗口长度),也可能带来意想不到的安全风险。
在未来,随着LLMs变得越来越强大,防范此类越狱攻击将变得愈发重要。我们需要学术界和产业界的共同努力,持续改进LLMs的安全性,确保这些强大的AI系统能够安全、负责任地为人类服务。
如果您对PAIR算法感兴趣,欢迎访问上述链接,了解更多技术细节。同时,我们也呼吁研究人员在探索此类技术时,要充分考虑伦理影响,确保研究成果被负责任地使用。
全能AI智能 助手,随时解答生活与工作的多样问题
问小白,由元石科技研发的AI智能助手,快速准确地解答各种生活和工作问题,包括但不限于搜索、规划和社交互动,帮助用户在日常生活中提高效率,轻松管理个人事务。
实时语音翻译/同声传译工具
Transly是一个多场景的AI大语言模型驱动的同声传译 、专业翻译助手,它拥有超精准的音频识别翻译能力,几乎零延迟的使用体验和支持多国语言可以让你带它走遍全球,无论你是留学生、商务人士、韩剧美剧爱好者,还是出国游玩、多国会议、跨国追星等等,都可以满足你所有需要同传的场景需求,线上线下通用,扫除语言障碍,让全世界的语言交流不再有国界。
一键生成PPT和Word,让学习生活更轻松
讯飞智文是一个利用 AI 技术的项目,能够帮助用户生成 PPT 以及各类文档。无论是商业领域的市场分析报告、年度目标制定,还是学生群体的职业生涯规划、实习避坑指南,亦或是活动策划、旅游攻略等内容,它都能提供支持,帮助用户精准表达,轻松呈现各种信息。
深度推理能力全新升级,全面对标OpenAI o1