人工智能模型的安全对齐问题,一直像悬在头顶的达摩克利斯之剑。
自对抗样本被发现以来,这一安全对齐缺陷,广泛、长期地存在与不同的深度学习模型中。
对此,北京航空航天大学与中关村实验室团队提出了一项全新框架InSUR,基于指令不确定性约简的思想,实现独立于具体任务与模型的对抗样本生成。该工作已入选NeurIPS 2025。

研究聚焦于语义约束对抗样本(SemanticAE)的生成问题,只需要提供一个指令,InSUR即可生成同时误导已知模型A和未知模型B对抗样本。

不仅如此,研究团队还结合3D生成框架首次实现了3D SemanticAE生成:直接通过一条指令生成自然的3D对抗性物体,并验证了引入的采样技术有效性(ResAdv-DDIM)。

InSUR框架:三维度破解语义不确定性
有效的SemanticAE生成器需要基于指令精确反演得出人类期望的生成范围,并生成对抗性的样本。
由于人类指令中固有的不确定性,现有的SemanticAE生成方法难以解决语义引导和对抗攻击的矛盾。研究团队将其归结为三大痛点:
- 指称多样性(Referring Diversity)导致对抗优化不稳定,同一指令(如“鲨鱼图像”)可能对应多种语义理解,导致扩散模型等生成工具的优化方向混乱。
- 描述不完整性(Description Incompleteness)限制了攻击的场景适应性。人类指令往往省略场景细节(如“船”未说明是“水面上的独木舟”),使得语义约束方向不精确,攻击面难以被充分探索。
- 边界模糊性(Boundary Ambiguity)使得生成器评估困难。语义约束的边界难以定义(如“像老虎”的程度如何量化),导致生成器的评估标准混乱。
InSUR框架通过残差驱动攻击方向稳定、生成过程规则编码嵌入和语义层次抽象评估方法,为语义对抗样本的生成与建模提供有效的方法支撑,整体框架如图1所示。

△图1 InSUR框架示意图

采样方法:残差驱动稳定攻击方向(ResAdv-DDIM)
针对“指代多样性导致优化混乱”的问题,团队设计了残差引导的对抗DDIM采样器(ResAdv-DDIM),解决扩散模型的对抗采样问题。
扩散模型的初始去噪步骤确定了宏观的特征结构,而后续去噪步骤确定了微观的结构。如何构建有效的宏观对抗结构对于对抗样本的迁移性、鲁棒性具有重要作用。
然而,扩散模型的长流程多步采样使得初始去噪步骤对应的精确对抗特征难以稳定发现。解决该问题的核心思路是:通过“粗预测语言引导的采样过程”,提前锁定对抗优化的方向。具体来说:
- 在当前去噪步骤时,先预测最终生成目标(2D图像、3D物体的)的“粗略轮廓”;
- 基于这个轮廓优化对抗方向,避免不同采样步骤中对抗特征的优化方向反复跳跃;
- 同时加入L2范数约束,确保生成样本不偏离指令语义(如“老虎”的整体形态)。
这一设计让多步扩散模型有效发挥约束正则的作用,显著提升对抗迁移能力与鲁棒性。

△图2 残差驱动的攻击方向稳定


△图3 实验结果:少量的k步近似采样可以有效提升t较高时攻击优化的稳定性
任务建模:规则编码补全场景信息
在应用场景中,指令Text可能存在歧义或不完整,需要将学习到的引导与对抗攻击任务的目标相结合。
为实现有效的任务适应,引入任务目标嵌入策略,以实现更好的2D语义约束对抗样本生成,并首次实现3D语义约束对抗样本生成。
二维语义约束对抗样本生成的空间约束补全
有效的语义约束对抗样本生成器,应利用图像背景的优化空间,生成能增强攻击效果的背景模式。
然而,因为原始训练中未考虑攻击功能,扩散模型自动学习到的背景生成结果过于单一。

三维语义约束对抗样本生成的可微分渲染管线嵌入
研究团队首次实现了无参考3D语义约束对抗样本生成,进行三维语义约束对抗样本生成的可微分渲染管线整合,主要包含三个部分:

△图4 3D优化管线
- 基于Trellis框架的3D高斯泼溅渲染(3D Gaussian-splatting Renderer)技术,将扩散模型的隐变量z解码为3D高斯点云;
- 集成可微渲染器,将3D结构投影为2D图像用于对抗损失计算,并通过 “变换期望(EoT)” 策略应对未知相机视角,实现多视图鲁棒攻击;
- 将ResAdv-DDIM嵌入到Trellis生成过程中,实现高效鲁棒的攻击优化。
对抗评估:构建严格且易用的SemanticAE对抗样本检验方法

在这个任务中成功攻击,并不能真正体现模型在真实场景下的攻击能力。为了明确评估的边界,研究利用WordNet的分类体系,通过提升抽象层次来重新构建评估标签。如图所示,构建过程分为三步:

△图5 SemanticAE评估方法设计
1、构建下位词图(Hyponymic Graph):基于WordNet定义的下位关系(例如,“鱼”是“动物”的下位词,“金鱼”和“大白鲨”是“鱼”的下位词)来构建ImageNet标签的层级关系图。
2、选择抽象级别(Abstraction Level):从图中筛选出合适的抽象层级,移除过于粗糙(如“动物”)和过于精细的标签。
3、定义攻击目标:将攻击目标定义为规避更高层级的抽象标签。例如,生成一张“大白鲨”的图像,其语义是正确的,但不能被模型识别为更高层级的“鱼”。
第二,从语义约束评估的角度来看,仅仅使用另一个深度学习模型(如CLIP)来进行评估,会将基准的有效性局限于该评估模型的鲁棒性范围内。

实验结果
2D 语义约束对抗样本:迁移攻击性能突破边界
InSUR在2DSemanticAE上整体结果如图6和图7所示,其中InSUR方法的语义约束强度分别设置为ϵ={1.5,2,2.5,3}和ϵ={2,2.5,3,4}。

△图6 ImageNet标签结果
之所以采用多个ϵ值,是因为基线方法难以控制和对齐语义扰动强度。图中以柱状图形式绘制了目标模型的最小/最大ASR(攻击成功率)以及生成图像的LPIPS(感知损失)标准差。

△图7 高抽象层级标签结果
图8展示了InSUR在ϵ=2.5时的结果。

△图8 不同代理模型上的2D生成结
总体而言,在4种代理模型和2种任务设置中,InSUR在所有目标模型中至少实现了1.19倍的平均ASR提升和1.08倍的最小ASR提升,同时保持较低的LPIPS,显示出一致的优越性。图中展示的帕累托(Pareto)改进更为显著。
3D SemanticAE生成:验证InSUR的跨任务可扩展性
将目标物体的视频可视化结果以MPEG4编码导出,并通过读取视频来评估攻击性能。代理目标模型为ResNet50,结果见图9。此前尚无可用的3D语义自动编码器。

△图9 3D SemanticAE生成结果
结果表明,该方法展现出令人满意的攻击性能,验证了InSUR的跨任务可扩展性。
需要注意的是,由于Trellis生成的3D模型与ImageNet图像存在偏差,生成的3D样本的干净准确率(clean accuracy)不高,但显著的相对ASR差异仍可以验证攻击有效性。
可视化结果表明(图10),InSUR生成的对抗样本在迁移攻击性、真实性方面展现出显著优越性。代理模型为ResNet50,目标模型为ViT或ResNet。正确标签标记在下方,模型分类结果标记在图中,绿色为分类正确。

△图10 可视化结果
讨论与展望
InSUR的设计与具体模型和任务解耦,在多种任务中持续提升攻击性能,展现出良好的可扩展性,也为测试时的红队评估框架提供了新思路。
研究还测试了在VLM大模型场景下的攻击性能,表明有效的可扩展性。通过进一步地与现有3D场景生成管线(如 DiffScene、EmbodiedGen 等)集成,InSUR方法可为自动驾驶、具身智能体等安全关键系统生成高逼真度的对抗测试场景。
此外,近期研究表明,扩散模型生成的“困难样本”在对抗训练中具有更高的样本效率。这意味着InSUR不仅可用于“红队测试”(red-teaming),还可作为高质量对抗训练数据的生成器,反向提升模型鲁棒性。
同时,生成质量的进一步提升、在更大规模模型上的验证、以及真实场景的部署适应性,都是未来值得深入探索的方向。
Github链接:https://semanticae.github.io/
文章来自于微信公众号“量子位”。
