文章信息

  • 作者:Xiangjun Lu, Chi Zhang, Pei Cao, Dawu Gu, Haining Lu
  • 单位:Shanghai Jiao Tong University, Shanghai, China
  • 出处:IACR Transactions on Cryptographic Hardware and Embedded Systems
  • 标题:Pay Attention to Raw Traces: A Deep Learning Architecture for End-to-End Profiling Attacks
  • 日期:2021年7月9日

研究背景

深度神经网络与侧信道攻击相结合对加密设备造成了巨大的威胁,但大部分文章都是基于一个假设前提,即攻击者攻击的兴趣点区间是基于先验知识挑选出来的,为了完全基于黑盒对设备发起侧信道攻击,作者直接将原始能量迹作为输入来完成“端到端”的侧信道攻击。

文章内容

本文贡献

  1. 提供了针对不同数据集端到端建模攻击的模型框架
  2. 探索了注意力机制在侧信道攻击中的作用
  3. 公开了一个数据集

模型整体架构

在本文中作者将自编码器(Encoder层)、注意力机制、区分器(CNN、MLP)融合在一起,以此来发动对原始能量迹的攻击。

自编码器层(堆叠自编码器LC层组合)

图1 模型架构

研究思路

作者认为在worse case下,如果硬件设备上了掩码(N阶)会导致攻击者需要一段很长的时间样本序列来进行分析,目前已有许多工作利用CNN、MLP等深度学习方法来完成在指定数据集上的攻击,但是现实场景下能量迹的数量如DPAv4.2有超过1,600,000个样本点,ASCAD有250,000个样本点(原文的话),如果此时攻击者无法基于灰盒模式对能量迹进行兴趣点区间的提取,那么考虑对原始能量迹发起端到端攻击是有意义的。

此外,MLP在特征数量过高的时候会有过拟合风险,CNN在针对高维数据构建多层网络时设计较为棘手,为此作者提出四点设计原则:

  1. 避免在高维层之间使用全连接层
  2. 避免对高维数据扩大特征维度
  3. 前几层应做特征提取
  4. 分类器之前的层应能够提取出细粒度的特征

(局部连接)LC层与卷积层

如图2所示,由于在滑动滤波器时起始位置和设备的时钟周期不一定总是对齐的,从而导致预期位置与实际位置不同,由于偏差的影响,卷积层无法共享同一个权重,但是步长为1的情况下可以提取去同步的特征。

LC层进关注独立的区域,不会受到距离较远的噪声的影响,即仅关注小范围区间。

图2  多个时钟周期下滤波器起始位置与预期位置偏差

LSTM

用的seq2seq模式构建lstm的模型,没有实现过先不展开。

Attention

本人认为比较重要的就是注意力这块,在经过上层编码器Encode之后的"Embeddings"仍然对应有不同的权重,即存在噪声特征,在LSTM前我们必须对提取到的这些特征分配不同的权重,是模型关注重要泄漏点,本文使用了Bahdanau等人[1]提出的模型,此外,作者认为在编码器之后使用注意力机制是不合适的。

分类器架构

图3  针对不同Attention方案 两种分类器架构图

实验结果

表1 不同数据集实验结果

在同步数据集上结果

图4 DPAv4.1

DPAv4.2

ASCADv1

image-20240526164539363

AT128两种不同泄露距离的攻击效果(上近下远)

LC层不同滤波器大小对攻击效果的影响

ASCADv1与ASCADv2上不同随机延迟窗口对攻击效果的影响

AT128上不同随机延迟窗口对攻击效果的影响

AT128上信噪比、梯度、注意力概率分布

ASCADv1上信噪比、梯度、注意力概率分布

这里我并没有做过类似的实验,可能图标题有误,但是这个实验可以尝试集成到mlscat里,在写writing时充任务量。

LSTM中注意力概率与输入门活跃单元

总结

本文提供了一个端到端的侧信道攻击框架,攻击者仅需输入一条原始能量迹即可完成对某一字节的攻击。


  1. Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate[J]. arXiv preprint arXiv:1409.0473img, 2014. ↩︎