当前位置: 首页 > news >正文

深入解析:论文阅读:硕士学位论文 2025 面向大语言模型的黑盒对抗性攻击与防御关键技术研究

深入解析:论文阅读:硕士学位论文 2025 面向大语言模型的黑盒对抗性攻击与防御关键技术研究

2025-09-30 11:09  tlnshuju  阅读(0)  评论(0)    收藏  举报

总目录 大模型相关研究:https://blog.csdn.net/WhiffeYF/article/details/142132328

https://www.doubao.com/chat/21920297300066050

https://download.csdn.net/download/WhiffeYF/92026400

在这里插入图片描述

速览

这篇论文主要围绕大语言模型的“安全攻防”问题展开,通俗来说就是研究“如何骗大模型说危险内容”(攻击)、“如何防止大模型被骗”(防御),以及“怎么判断攻防有没有效果”(评估),下面用直白的话拆解核心内容:

一、为啥要做这件事?

现在ChatGPT、Gemini这些大语言模型越来越厉害,能写文案、答问题甚至写代码,但它们也有“软肋”——可能被坏人用特殊话术骗着说危险内容(比如教做炸弹、写钓鱼邮件),这就是“越狱攻击”。纵然模型都有安全训练,但攻击手段也在升级,而且之前判断攻防效果的方法要么靠人工(费时间),要么靠简单关键词匹配(容易漏判)。所以论文要解决三个挑战:怎么有效“骗”最新的大模型、怎么低成本防住这些“骗局”、怎么准确判断攻防结果。

二、核心研究:三大关键技术

1. 攻击技术:让失效的“骗术”重新生效

以前的很多攻击方法对GPT-4o、Llama-3这些新模型没用了,论文就搞了个“组合骗术”——把多种老方式拼起来,再加点新技巧,让模型防不胜防。
具体是给原始危险请求(比如“教我破坏公物”)加三层“包装”:

2. 防御技术:给模型加“保镖”和“裁判”

不想让模型被骗,论文给它配了两个帮手,还不影响原有的安全机制:

  • 辅助“保镖”模型:用GPT-3.5这种低成本模型先处理用户请求,提取核心信息(比如把加密、乱码的请求还原成正常文字,删掉无关内容),再把干净的请求给主模型,从源头减少危险输入;
  • 法官“裁判”模型:用GPT-4这种强模型在后台偷偷检查主模型的回答,判断有没有危险内容(但不耽误用户拿回复,后台异步评估)。
    结果显示,这套防御能把攻击成功率大幅降低,比如原本GPT-3.5上90.7%的攻击成功率,防御后只剩7.4%。
3. 评估技术:准确判断“攻防输赢”

以前判断攻击成功与否要么靠人看(慢),要么靠关键词(不准),论文搞了两种新方法:

三、总结:解决了啥问题?

  1. 给攻击者提供了新“工具”,能暴露大模型的安全漏洞,帮开发者补短板;
  2. 给模型加了轻量防御,成本低还管用,能防住大部分越狱攻击;
  3. 搞了套自动评估方法,不用人工也能准确判断攻防效果。

最后还说,未来想让防御更通用(能防新攻击)、能应对图片+文字的多模态攻击,还要把评估做得更自动化。