一种结合原型网络和极值理论的辐射源个体开集识别方法-华体会hth(中国)官方网站

文档序号:34131600发布日期:2023-11-29阅读:748来源:国知局


1.本公开实施例涉及信号处理技术领域,种结尤其涉及一种结合原型网络和极值理论的合原辐射源个体开集识别方法。


背景技术:

2.随着深度学习技术的型网快速发展,很多学者将其应用于辐射源个体识别或信号识别领域。络和理论例如,极值利用不同的射源识别卷积神经网络(convolutional neural network,cnn)对信号的hilbert谱图像、差分星座轨迹图(differential constellation trace figure,dctf)、个体双谱以及功率放大器的开集非线性特征和调制器失真特征进行识别,这些方法都较传统方法有了大的种结性能提升。但是合原,将信号转换成图像等二维形式的型网方法增加了模型复杂度,并且可能会丢失信号的络和理论部分原始信息。因此,极值很多学者利用神经网络直接对原始序列信号进行识别,射源识别如利用一维cnn直接对i/q序列数据进行特征提取和分类。个体
3.在相关技术中,以往研究的通信辐射源个体识别方法大都是基于闭集场景,即测试集的样本类别和用于训练的样本类别相同。但是,针对闭集场景的识别算法难以适用于具有开集特点的实际电磁环境,在开集场景下,需要测试的样本中可能包含了训练集中没有出现的新类别,利用闭集识别方法所训练的模型进行识别时会将来自未知类的测试样本识别为已知类别,从而严重影响识别率。
4.因此,有必要改善上述相关技术方案中存在的一个或者多个问题。
5.需要注意的是,本部分旨在为权利要求书中陈述的本公开的技术方案提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。


技术实现要素:

6.本公开实施例的目的在于提供一种结合原型网络和极值理论的辐射源个体开集识别方法,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
7.根据本公开实施例,提供一种结合原型网络和极值理论的辐射源个体开集识别方法,该方法包括:
8.对原始数据进行处理,并将处理后的数据按预设比例分为训练集数据和测试集数据;
9.利用所述训练集数据对构建的一维神经网络进行训练,得到所述训练集数据的特征,并计算得到所述训练集数据的特征到原型的距离;
10.根据所述训练集数据的特征到原型的距离计算联合损失函数,并利用所述联合损失函数迭代更新初始化的原型和网络参数;
11.根据所述训练集数据的特征到原型的距离对所述训练集数据进行分类,并为每一个类别拟合weibull模型;
12.利用所述测试集数据对训练后的所述一维神经网络进行测试,并得到所述测试集
数据的特征到原型的距离和网络输出值;
13.根据所述测试集数据的特征到原型的距离和每个所述weibull模型,得到所述测试集数据的weibull累计分布概率;
14.根据所述测试集数据的weibull累计分布概率和所述网络输出值,对所述测试集数据进行分类。
15.本公开的一实施例中,构建所述一维神经网络时,还包括:
16.对所述一维神经网络进行分组卷积和通道重组。
17.本公开的一实施例中,所述联合损失函数包括距离交叉熵损失函数和原型损失函数。
18.本公开的一实施例中,所述距离交叉熵损失函数的表达式为:
[0019][0020]
其中,x为神经网络的原始输入样本,y为样本类别;θ为网络参数;a={ ai|i=1,2,

,n}代表类原型集合;q(y)是样本标签的分布;p(y|x)表示样本x属于类别y的概率;k为一个批次的样本数量。
[0021]
本公开的一实施例中,所述原型损失函数的表达式为:
[0022][0023]
其中,ay为y类所属原型。
[0024]
本公开的一实施例中,所述联合损失函数的表达式为:
[0025]
l((x,y);θ,a)=l((x,y);θ,a)+λpl((x,y);θ,a)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0026]
其中,λ是控制原型损失权重的超参数。
[0027]
本公开的一实施例中,所述原型学习包括:
[0028]
所述训练集数据包括若干不同类别的样本;
[0029]
所述一维神经网络将各个所述样本划入到距离最近的所述原型的所属类别;
[0030]
所述一维神经网络的特征提取器和所述原型联合学习,并不断将所属类别的所述原型推向对应的所述样本的样本特征。
[0031]
本公开的一实施例中,所述一维神经网络将各个所述样本划入到距离最近的所述原型的所属类别中的分类过程表示公式为:
[0032][0033]
其中,x为神经网络的原始输入样本,i为类别,gi(x)是类别i的分类函数,n为类别数。
[0034]
本公开的一实施例中,所述gi(x)表示公式为:
[0035][0036]
其中,f(x;θ)为所述一维神经网络的特征提取器,θ为网络参数,ai为所述原型。
[0037]
本公开的一实施例中,所述weibull模型的分布的概率密度表示为:
[0038][0039]
所述weibull模型的分布的累积分布函数表示为:
[0040][0041]
其中,α为比例参数,β为形状参数。
[0042]
本公开的实施例提供的技术方案可以包括以下有益效果:
[0043]
本公开的实施例中,通过上述结合原型网络和极值理论的辐射源个体开集识别方法,一方面,一维卷积神经网络结合原型学习,能够完成在特征空间中类间信号的分离和类内信号的聚集;另一方面,结合极值理论,依据特征到特征均值的距离为每一个已知类别拟合weibull模型,并依据测试样本特征到已知类特征均值的距离和已知类的weibull模型完成开集识别任务。
附图说明
[0044]
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0045]
图1示出本公开示例性实施例中一种结合原型网络和极值理论的辐射源个体开集识别方法步骤图;
[0046]
图2示出本公开示例性实施例中weibull分布的概率密度函数图;
[0047]
图3示出本公开示例性实施例中weibull分布的累计分布函数图;
[0048]
图4示出本公开示例性实施例中结合原型网络和极值理论的辐射源个体开集识别模型图;
[0049]
图5示出本公开示例性实施例中开集识别网络结构图;
[0050]
图6示出本公开示例性实施例中分组卷积和通道重组结构示意图;
[0051]
图7示出本公开示例性实施例中一维se模型结构示意图;
[0052]
图8示出本公开示例性实施例中λ对识别率的影响对比图;
[0053]
图9示出本公开示例性实施例中λ=0时的训练特征分布图;
[0054]
图10示出本公开示例性实施例中λ=0时的测试特征分布图;
[0055]
图11示出本公开示例性实施例中λ=0.005时的训练特征分布图;
[0056]
图12示出本公开示例性实施例中λ=0.005时的测试特征分布图;
[0057]
图13示出本公开示例性实施例中拟合样本数对识别率的影响对比图;
[0058]
图14示出本公开示例性实施例中不同特征维度下的识别率对比图;
[0059]
图15示出本公开示例性实施例中不同模块下的识别率对比图;
[0060]
图16示出本公开示例性实施例中与其他模型的识别率对比图;
[0061]
图17示出本公开示例性实施例中-6db下的混淆矩阵图;
[0062]
图18示出本公开示例性实施例中-2db下的混淆矩阵图;
[0063]
图19示出本公开示例性实施例中2db下的混淆矩阵图;
[0064]
图20示出本公开示例性实施例中6db下的混淆矩阵图;
[0065]
图21示出本公开示例性实施例中本技术模型鲁棒性对比图;
[0066]
图22示出本公开示例性实施例中cpn模型鲁棒性对比图;
[0067]
图23示出本公开示例性实施例中openmax模型鲁棒性对比图。
具体实施方式
[0068]
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
[0069]
此外,附图仅为本公开实施例的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
[0070]
本示例实施方式中首先提供了一种结合原型网络和极值理论的辐射源个体开集识别方法。参考图1中所示,该结合原型网络和极值理论的辐射源个体开集识别方法可以包括:
[0071]
步骤s101:对原始数据进行处理,并将处理后的数据按预设比例分为训练集数据和测试集数据;
[0072]
步骤s102:利用所述训练集数据对构建的一维神经网络进行训练,得到所述训练集数据的特征,并计算得到所述训练集数据的特征到原型的距离;
[0073]
步骤s103:根据所述训练集数据的特征到原型的距离计算联合损失函数,并利用所述联合损失函数迭代更新初始化的原型和网络参数;
[0074]
步骤s104:根据所述训练集数据的特征到原型的距离对所述训练集数据进行分类,并为每一个类别拟合weibull模型;
[0075]
步骤s105:利用所述测试集数据对训练后的所述一维神经网络进行测试,并得到所述测试集数据的特征到原型的距离和网络输出值;
[0076]
步骤s106:根据所述测试集数据的特征到原型的距离和每个所述weibull模型,得到所述测试集数据的weibull累计分布概率;
[0077]
步骤s107:根据所述测试集数据的weibull累计分布概率和所述网络输出值,对所述测试集数据进行分类。
[0078]
通过上述结合原型网络和极值理论的辐射源个体开集识别方法,一方面,一维卷积神经网络结合原型学习,能够完成在特征空间中类间信号的分离和类内信号的聚集;另一方面,结合极值理论,依据特征到特征均值的距离为每一个已知类别拟合weibull模型,并依据测试样本特征到已知类特征均值的距离和已知类的weibull模型完成开集识别任务。
[0079]
下面,将参考图1至图23对本示例实施方式中的上述结合原型网络和极值理论的
辐射源个体开集识别方法的各个部分进行更详细的说明。
[0080]
原型网络将神经网络和原型学习相结合,利用类原型之间的距离来度量样本的归属度,在小样本学习等领域中有着广泛的应用。原型学习是模式识别中的经典算法,随着神经网络的发展,很多研究将原型学习方法整合到cnn框架中以获得更好的性能。以往的cnn模型在分类的时候使用softmax函数对全连接层的输出进行归一化,以最大概率值对输入样本x进行判定和分类。分类依据为:
[0081][0082]
式中:p(y|x)表示样本x属于类别y的概率;ξi表示第i类的网络输出值,其中i∈{ 1,2,

,n},n代表类别数。利用原型学习进行分类时,网络可为每个类学习一个原型ai,对于任意样本,可以将它划入到距离最近的原型所属的类别。该过程可以表示为
[0083][0084]
式中:gi(x)是类别i的分类函数,表示为
[0085][0086]
式中:f(x;θ)代表神经网络特征提取器,θ代表网络参数,f(x;θ)和原型ai可以联合学习。在学习过程中,不断将某一类原型推向该类的样本特征,而其他类的原型远离该类样本特征。
[0087]
原型学习将分类问题转化为在特征向量空间中的最近邻问题,结合神经网络的特征提取优势可以有效提高泛化性能,缓解过拟合,具有良好的识别性能。同时,原型网络的分类原理和基于距离度量的分类方式更有利于完成开集识别任务。
[0088]
极值理论(extreme value theory,evt)的中心思想是概率分布,该理论是处理概率分布中极大值和极小值的理论,主要用来预测小概率事件发生的可能性。早期的数学家通过高斯分布来计算极端事件发生的概率,但是难以达到很好的效果。相关技术中,表明小概率事件服从另一种概率分布。通过分析以往极端事件的发生情况,找到其分布规律,就可以计算极端事件将来可能的发生概率,包括新的、超过以往纪录的事件。比如,利用以往某地气温最低的数据,就可以预测将来该地区气温的最低温度,包括创纪录的低温发生概率。
[0089]
极值理论和weibull分布等很多广泛应用的分布相联系。相关技术中,在多个独立的分布中,单个极大值的集合必然收敛于一个极值分布。而weibull分布可以很好的拟合该极值分布,通常在一组数据中的极值可以用weibull分布来表示。weibull分布的概率密度表示为
[0090][0091]
式中:x是随机变量,α>0是比例参数,β>0是形状参数。如图2所示,为weibull分布的概率密度函数图,α和β决定了函数曲线的平坦和陡峭程度。用weibull概率密度函数拟合极值分布时,x和f1(x)分别代表极值以及该极值出现的概率。
[0092]
weibull分布的累积分布函数表示为
[0093][0094]
从式(7)可以看出,weibull分布的累积分布函数是扩展的指数分布函数。对于累计分布函数,f2(x)代表极大值出现在[-∞,x]中的概率。图3为weibull分布的累积分布函数图。
[0095]
根据weibull累计分布函数的性质,可以利用每个类别的数个极大值拟合weibull模型,当输入样本远离某个类别的分布时,通过weibull模型就可以将该样本以较高的概率被判定为某个类别的极大值或离群值,从而可以依据概率对测试样本的网络输出值进行加权,并得到样本属于未知类别的得分,有效增强开集识别的鲁棒性。
[0096]
结合原型网络和极值理论的辐射源个体开集识别模型是利用原型网络为基础结构,结合极值理论完成对i/q原始数据的开集识别任务。模型框架如图4所示,主要分为3个模块。第1个模块为数据处理模块,对数据进行预处理后,按预设比例划分训练集和测试集;第2个模块训练模块。在训练过程中通过特征到类原型的距离进行分类,利用联合损失函数为每一个类别学习一个紧密的特征空间。训练完成后,分别为每一个类别拟合weibull模型;第3个模块为测试模块,首先得到测试样本的网络输出值;然后,计算测试样本特征到所有已知类特征均值的距离,并根据该距离和已知类的weibull模型得到测试样本的weibull累计分布概率;最后,通过该概率矫正网络输出值,得到测试样本属于已知类和未知类的最终得分。
[0097]
开集识别网络结构如图5所示。本技术直接对序列数据进行处理,复杂度较低,故设计的网络结构以较为简单的一维卷积神经网络为基础。网络层数共有4层,每一层的卷积核数分别为32、64、128和256。在每一个卷积层后添加内核为2的最大池化层来降低模型的复杂度和过拟合程度,通过4层的网络使得最后的输出样本维度降到一个较低的值,以便充分提取数据的深层特征。
[0098]
每个卷积层的卷积核大小为1
×
9,使用较大的卷积核能够充分提取序列数据中的时序信息。在每一次池化操作后加入se模块,通过调整各通道的权重进一步提高识别率。在卷积操作中对每一个样本数据的边缘补0,保证充分提取该样本的特征,并确保卷积后得到的样本长度不变。
[0099]
在卷积层后,采用prelu激活函数。prelu激活函数在负值时的斜率是在0~1之间可学习的。在神经网络中,初始化权重和权重更新时,都有可能出现权重为负值的情况,使用prelu激活函数,保证了在激活函数输入特征为负值的时候其输出值不为全0,能够更全面地保留网络提取的特征,提升识别性能。在所有卷积操作完成后,通过全连接层对上一层的特征进行维度转换,输出固定维度的特征,同时也得到更新后的类原型。最后,通过基于weibull模型的分类算法输出分类结果。
[0100]
为了降低网络的参数量和复杂度,减少过拟合程度,进一步提高识别率,在该网络结构中,我们参考shufflenet网络结构引入了分组卷积(group convolution)和通道重组(channel shuffle)的思想,具体示意图如图6所示。鉴于i/q信号有两路通道,在第一层卷积网络中,将卷积分组设置为2,分别对i、q两路信号进行识别。卷积分组数设置为2,即将输
入通道和输出通道分别划分为2组,然后用两组卷积核分别对两个输入通道做卷积操作,之后作为下一个卷积层的输入。第一个卷积层的输出通道为32,所以分别有16个通道对i、q两路信号进行识别。但是如果下一层卷积继续采用分组卷积,就会导致i、q两路信号的特征信息分离,输出通道中只包含了部分输入通道的信息,就会造成特征提取不全面,继而影响识别率。
[0101]
因此,本技术引入了通道重组的方法,该方法将包含i、q两路信息的输出通道进行重新组合,即每次选取i、q两路的一个通道进行组合,使包含i、q的输出通道间隔排列;在第二个卷积层中,继续采用分组卷积,此时分组的通道要保证每一个组中包含i、q两路信息,所以该层的分组设置为16,由于输出通道为64,所以每个组中有4个包含i/q信息的输出通道。在卷积操作之后,同样用通道重组的方法将输出通道进行组合,形成4组新的组合通道,每一组新的组合通道包含了重组之前每一个组的信息;在第三个卷积层中,将卷积分组设置为4,分别对第二次通道重组后的4个组合进行卷积。
[0102]
在网络中加入的se模块采用了注意力机制,其核心思想是通过不断学习来自动获取在卷积过程中每个特征通道的重要程度,依据重要程度来调整各通道的权重,在权重的作用下可提高有效通道特征的影响,抑制作用较小的通道特征,进而提高网络的识别性能。一维se模型如图7所示,输入数据x=(u1,u2,

,uc′
),经过卷积操作后提取的特征为u=(u1,u2,

,uc),其中c和c

代表通道维度,l和l

代表每一个通道的特征维度。该模块总共分为3个步骤,首先进行squeeze操作f
sq
(),将每个通道的特征维度压缩为1;然后进行excitation操作f
ex
(
·
,w),可以得到一个0-1之间的归一化权重;最后通过f
scale
(
·
,
·
)操作将归一化的权重逐通道加权到每个通道的特征上。
[0103]
在原型网络结构中,用距离来衡量样本和原型之间的相似性。因此,样本(x,y)与原型ai之间的距离可以衡量其属于原型的概率,其中x为样本,y为样本对应的标签。根据分析,可以将距离交叉熵损失定义为
[0104][0105]
式中:a={ ai|i=1,2,

,n}代表类原型集合;q(y)是样本标签的分布;p(y|x)表示样本x属于类别y的概率;k为一个批次的样本数量。
[0106]
为了进一步提高网络的识别性能,更好完成开集识别任务,可以在训练期间通过原型损失缩小类内样本特征间的距离,继而以提高类内紧密度的方式扩大类间距离。同时,通过该损失函数的约束,在缩小已知类样本特征空间的基础上扩大了未知类的空间分布,更有利于对未知类目标的检测和拒绝。原型损失定义为
[0107][0108]
式中ay为y类所属原型。最小化pl((x,y);θ,a)可以缩小各类样本特征到所属原型的距离。
[0109]
根据以上分析,可以将距离交叉熵损失和原型损失相结合来训练模型。联合损失可以定义为
[0110]
l((x,y);θ,a)=l((x,y);θ,a)+λpl((x,y);θ,a)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(3)
[0111]
式中λ是控制原型损失权重的超参数。通过结合距离交叉熵损失和原型损失,可进一步提高网络的分类准确率和鲁棒性。另外,pl作为正则化项和对已知类样本空间的约束
函数,既有助于完成开集识别任务,也可以防止模型的过拟合,增加泛化性能。通过分析得到,λ太小,则类内分布空间不够紧密,难以达到更优的识别性能。λ太大,也会过度提高样本空间的紧密度,增加过拟合,降低开集识别的分类性能。
[0112]
在原型网络中,可以通过设定距离阈值判定测试样本是否属于未知类别。但是,使用单一的距离阈值进行判定的方法鲁棒性还不够高,且阈值难以设定,另外,神经网络的不确定性会使得每一次训练、测试结果有较大的波动。针对此问题,本技术将极值理论和原型网络相结合,通过weibull模型来判定测试样本属于已知类别和未知类别的概率,进一步加强分类的依据。本技术参考openmax算法,该算法利用网络倒数第二层激活矢量和均值矢量的距离拟合weibull模型。而本技术算法利用特征到特征均值的距离拟合weibull模型,在联合损失函数的作用下,使得每一个weibull模型都更加独立,对于类别以外的样本,它属于该类别的概率就会更小,这相较于openmax模型更加鲁棒。本技术算法主要分为两个阶段:第一个阶段:训练网络和拟合weibull模型;第二个阶段:分类识别。
[0113]
该过程如算法1所示。第1步,设定拟合weibull模型所需的最大距离值的个数r。第2步,通过联合损失函数对网络进行优化,并使用欧氏距离训练网络,首先根据特征维度和类别数目对每一类别构造原型,并对原型进行初始化。训练样本经过网络提取特征后,计算与各个类原型的距离,根据距离再计算出dcel和pl。最后,联合dcel和pl对网络进行训练和优化,同时更新网络参数和原型ai。第3步,训练完成后,使每一个类别都学习到一个类内紧密、类间可分的特征空间,同时得到每一个类别中分类正确样本的特征f(x
ij
;θ),其中j∈{ 1,2,

,j},j表示每个类别中正确分类的样本数;第4步,首先,计算每一个类别中正确分类样本的特征均值μi,并得到每一个类别中正确分类样本特征到均值的距离集合d
ij
=||f(x
ij
;θ)-μi||;然后,对每一类别中的距离集合从大到小进行排序,选取前r个距离值,并根据每一个类别的特征均值和选取的r个距离值拟合weibull模型,该模型即weibull累计分布函数;最后,得到每个类别的weibull模型,模型中包含尺度参数αi和形状参数βi。
[0114]
算法1中的g(||f(x
ij
;θ)-μi||,r)为拟合函数。在拟合过程中,r个距离所对应的样本就作为极大值样本,所拟合的模型就可以用来判定测试样本属于该类别的概率。r的设置对模型的识别性能会产生影响,当用来拟合的样本数r逐渐增大时,模型对未知类别样本的拒绝能力增强,但同时也会增加将已知类识别为未知类别的风险,需要根据数据的分布情况选取合适的r。
[0115][0116]
该过程如算法2所示。第1步,将测试样本输入到已训练好的网络中,得到测试样本的特征f(x;θ),然后计算测试样本经过原型网络的输出值vi(x),该输出值即样本特征通过与类原型的距离度量后,其属于已知类的概率,如公式(3.6)所示。第2步,设定需要加权和
矫正weibull模型输出概率的前κ个类别数。第3步,计算测试样本特征到每一个已知类特征均值的距离di。第4步,预先设定wi=1,在识别更多类目标时,对网络输出值从大到小进行排序,对于前κ个类别以外的类别,其远离测试样本,对测试样本的分类影响很小,则无需进行weibull概率的加权。然后,通过上一步计算的距离以及每一个类别的weibull模型得到该样本属于前κ个类别异常值的概率p
h(t)
,即
[0117]
p
h(t)
=ρ(d
h(t)
;α
h(t)
;β
h(t)
)
ꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(9)
[0118]
式中:p
h(t)
为测试样本不属于某一个已知类的概率值,此时,需要一个递减的权值对p
h(t)
进行矫正,矫正后的概率值为由此得出,测试样本属于某一个已知类的概率值为
[0119][0120]
第5步,用w(x)对测试样本的网络输出值进行加权,得到测试样本属于已知类的最终输出值,该输出值代表测试样本对于每一个已知类的归属度。
[0121]
在这一步骤中,用概率值加权网络输出值的方法进一步增强了识别的鲁棒性,当某一个测试样本距离该样本所属类原型的距离大于距离其它类原型的距离时,该样本就会被识别错误,而增加一个概率的加权就会改变测试样本的归属度,使测试样本更有可能被识别为正确的类。同时,利用一个递减的权值对weibull概率进行矫正,其目的就是降低离测试样本距离较远的类别的概率值,因为这些类别对分类结果的影响较小。
[0122]
第6步,用1-wi(x)对测试样本的网络输出值进行加权,1-wi(x)代表测试样本不属于某一个类别的概率,然后将加权后的输出值求和,得到测试样本属于未知类别的输出值。
[0123]
第7步,通过softmax函数得到测试样本属于已知类和未知类的最终概率得分。最后,将概率值最大的类别判定为测试样本所属的类别,在本技术中,将类别0设置为未知类别。
[0124][0125]
本技术实验基于pytorch深度学习框架,采用python语言编程实现,所使用的硬件
平台中cpu为amd ryzen 7 5800h,gpu为nvdia geforce rtx3070。实验所用数据集来自5种zigbee设备的实采信号,采样率为10m samples/s,信号采用的调制方式为oqpsk,遵循ieee 802.15.4标准,信号接收设备为ettus research n210 usrp。每一类设备共有5段信号,每段信号分为9个小的子段,每个子段约为40000个采样点。将所有采集到的信号经matlabr2019a进行处理,首先对信号进行功率归一化,消除在实际采集数据时因信号功率不同带来的影响,然后对信号进行切片、加高斯噪声等,最后处理成固定长度的序列样本。本技术所使用的样本维度为2
×
800。
[0126]
采用自适应梯度下降(adma)进行优化,优化目标为最小化联合损失l((x,y);θ,a)。每批训练样本数为64,学习率初始值为0.0005。迭代次数选择为40,每迭代10次后学习率降低50%。
[0127]
在实验中,选取其中的3类设备,每一类设备选取4段信号作为训练集,测试集选取5类设备的第5段信号。
[0128]
在本技术算法中,κ设定为3,对3个已知类的网络输出值都进行加权。初步试验确定在r=10和特征维度为3时识别性能最好。如图8所示,在以上参数设置下,对比信噪比在-6~6db之间变化时不同λ对应的识别准确率。可以看出,实验结果验证了pl损失的理论分析。λ决定了每一个类别的聚集程度,进而影响了类别之间的距离分布,使得不同λ下的识别性能也不同。通过实验得出,在λ为0.005左右时,识别性能最好。λ取值从0开始增大时,每一类特征的类内紧密度会逐渐增高,继而扩增了类间距离,既提高了对已知样本分类能力,也增强了对未知目标的检测和拒绝能力。随着λ的进一步增大,识别性能趋于稳定。当λ过大时,pl损失对样本空间的约束就越大,就会将训练集的每一类样本空间过度缩小到类原型的附近,加重了过拟合。当输入测试样本时,测试集的样本空间分布会大于训练收敛后的样本空间分布,在通过类原型之间的距离进行判别时就会影响识别性能。可以发现,在低信噪比下由于噪声的影响,识别率下降更明显,因此选择合适的λ对识别性能至关重要。
[0129]
如图9至图12所示,提取全连接层的输出特征,并绘制不同λ下的特征分布图。其中,图9为λ=0时的训练特征分布图;图10为λ=0时的测试特征分布图;图11为λ=0.005时的训练特征分布图;图12为λ=0.005时的测试特征分布图。通过分析可以发现,dcel可以完成分类和识别。当加入pl后,通过提高类内紧致度的方式扩大了类间距离和未知空间的分布,也使得已知类和未知类在特征空间中更加分离,进一步提高了分类性能。
[0130]
在拟合每一个类别的weibull模型之前,需要对训练过程中正确分类样本到对应类别特征均值的距离进行排序,利用排序后的前r个样本的距离值拟合weibull模型。设置λ为0.005,特征维度为3,测试r对识别性能的影响,图13所示为拟合样本数对识别性能的影响对比。通过实验结果得到,当拟合样本数在10-20时识别率能达到最优,当拟合样本数过大时,识别率逐渐降低。这也验证了之前对r的分析,选取过多的已知类样本作为极值样本会导致测试样本中已知类目标被识别为未知类的概率增大。
[0131]
在训练和测试过程中,我们利用样本特征之间的距离来度量归属度,特征维度的变化也会对识别性能产生影响。在其他参数设置为最优的条件下进行实验,图14所示为-6db、-4db、-2db和0db下特征维度分别在2,3,4,5时网络的识别性能变化,可以发现较低的特征维度就可以达到较好的识别性能,较高的特征维度并不能使网络的识别性能有明显的提升,反而会增加网络的计算复杂度。综合多次的实验结果,3维特征的识别率较2维特征有
略微的提升,最终模型选用了3维特征。
[0132]
为了验证本技术模型的识别性能,首先将本技术模型evt-shuffle-se与未加入se模块的evt-shuffle模型和未加入shuffle的evt-se进行对比。同时将本技术模型、openmax模型和cpn模型进行对比。对比结果如图15、图16所示,可以看出:在加入se模块后,通过引入注意力机制,改变通道权重,可以有效提高模型的识别率。其中,图15为不同模块下的识别率对比图,图16为与其他模型的识别率对比图。引入shuffle的evt-shuffle-se模型也比evt-se模型有轻微的性能提升,这也充分说明了分组卷积和通道重组的性能优势。同时,在较低信噪比下,本技术提出的模型相较于其他的模型有较大的性能优势。当信噪比大于0db时,本技术模型识别精度可达到95%以上。
[0133]
如图17至图20所示,在-6db,-2db,2db和6db下分别绘制开集识别的混淆矩阵。可以看出,第1类和第2类设备容易混淆,第3类较为独立。即使在较低信噪比下,第4类和第5类设备的信号作为未知类目标也能够很好的被检测和拒绝。
[0134]
在神经网络的训练过程中,网络初始化权值和参数的不同使得每一次的训练结果都会有误差,而固定初始网络参数和权值又难以保证网络达到最优的识别性能。在cpn模型中,用固定的距离阈值对未知类别进行判定,在每一次训练过程中,样本特征空间的分布都会有较大变化,因此每一次训练后的测试结果都会有较大的波动。本技术结合极值理论在分类规则上进行了改进。首先,利用原型网络和联合损失使每个类别的特征空间更加分离和独立,在此基础上,利用距离来度量归属度,最后利用evt方法为分类结果增加概率加权和矫正,有效增加了分类结果的鲁棒性,缓解了模型受网络初始参数、信噪比和网络不稳定性的影响。
[0135]
如图21至23所示为三种模型在-4db和0db时多次实验后的测试结果对比。通过对比发现,本技术模型的测试结果变化幅度较小,鲁棒性更强,而cpn和openmax模型的波动较大,且随着信噪比的降低,波动幅度越大。因此本技术模型识别性能更稳定,效果更好。
[0136]
本技术结合原型网络和极值理论实现了zigbee设备个体的开集识别。在一维卷积神经网络中加入se模块,通过调整通道权重加强了分类能力;采用分组卷积和通道重组方法加强了对i、q两路通道的识别,减少了网络复杂度和过拟合程度,有效提高了网络的识别性能;结合原型学习,通过联合损失对网络进行训练,完成了信号类内特征空间的聚集;结合极值理论,为每一个类别拟合weibull模型,更加保证了每个weibull模型的独立性;最后,通过weibull模型的输出概率和权值对测试样本网络输出值进行矫正,有效完成了开集识别任务,提高了模型的稳定性。
[0137]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本公开的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。此外,本领域的技术人员可以将本说明书中描述的不同实施例或示例进行结合和组合。
[0138]
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本技术旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识
或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
网友询问留言已有0条留言
  • 还没有人留言评论。精彩留言会获得点赞!
技术分类