OPEN SESAME! UNIVERSAL BLACK BOX JAILBREAKING OF LARGE LANGUAGE MODELS
Last updated
Last updated
本研究聚焦于大型语言模型(LLMs)的安全性问题。LLMs通常被设计为提供有益且安全的回答,并通过一系列对齐技术来确保其输出与用户意图和社会指导原则一致。然而,这些对齐机制可能被恶意行为者利用,以操纵LLMs产生非预期的目的。研究者提出了一种新的方法,使用遗传算法(GA)在无法访问模型架构和参数的情况下操纵LLMs。
以往的研究主要集中在手工制作的提示(jailbreak prompts)上,这些提示被精心设计以利用模型偏见并引发模型的非预期响应。这些提示需要不断调整以适应模型行为的变化,并且需要持续的人工干预。此外,这些方法通常需要对模型有白盒访问,即需要访问模型的内部结构、参数等,这在现实世界中往往不可行。
本文提出了一种通用的黑盒jailbreak攻击方法,通过优化一个通用的对抗性提示(adversarial prompt),当这个提示与用户的查询结合时,会破坏被攻击模型的对齐,导致非预期甚至可能有害的输出。该方法使用遗传算法,不需要使用梯度或任何模型内部信息。具体步骤包括:
初始化一个由候选解决方案组成的种群。
计算每个个体的适应度值。
通过选择、交叉和变异操作生成新的个体。
通过精英策略保留最佳个体。
提出了第一个自动化的通用黑盒jailbreak攻击方法。
该方法不需要模型的内部信息,可以在完全黑盒的条件下工作。
通过系统地揭示模型的局限性和脆弱性,为评估和增强LLMs与人类意图的对齐提供了诊断工具。
实验使用了名为“Harmful Behavior”的数据集,该数据集包含了专门设计用来挑战LLMs能力的有害行为实例。实验在两个不同的LLMs上进行:LLaMA2-7b-chat和Vicuna-7b。使用了三种不同的文本嵌入器,并计算了余弦相似度作为适应度的度量。
实验结果表明,使用MPNet文本嵌入器在两个模型上均实现了最高的平均攻击成功率(ASR)。此外,实验还展示了攻击从一个模型到另一个模型的迁移性,表明在LLaMA系列模型中,攻击具有较好的兼容性。
本文介绍的通用黑盒jailbreak攻击方法突显了开发健壮可靠的LLMs所面临的复杂挑战。研究者呼吁社区共同努力,不仅创造强大的LLMs,还要确保它们符合伦理考量,并与人类价值观和社会福祉保持一致。
本文提出了一种新颖的针对大型语言模型的黑盒jailbreak攻击方法,该方法使用遗传算法来生成能够诱导模型产生非预期输出的对抗性提示。这种方法不需要对模型有任何内部了解,使其在实际应用中具有很高的可行性和普遍性。实验结果表明,该方法能够有效地揭示LLMs的脆弱性,并为未来提高LLMs安全性的研究提供了重要的启示。同时,本文也强调了在进行此类研究时需要考虑的伦理问题,以及未来研究的方向。