«上一篇
文章快速检索     高级检索
下一篇»
  雷达学报  2017, Vol. 6 Issue (2): 149-156  DOI: 10.12000/JR16151
0

引用本文  

赵飞翔, 刘永祥, 霍凯. 基于栈式降噪稀疏自动编码器的雷达目标识别方法[J]. 雷达学报, 2017, 6(2): 149-156. DOI: 10.12000/JR16151.
Zhao Feixiang, Liu Yongxiang, Huo Kai. Radar target recognition based on stacked denoising sparse autoencoder[J]. Journal of Radars, 2017, 6(2): 149-156. DOI: 10.12000/JR16151.

基金项目

国家自然科学基金优秀青年基金(61422114),湖南省杰出青年科学基金(2015JJ1003)

通信作者

刘永祥   lyx_bible@sina.com

作者简介

赵飞翔(1989–),男,河南洛阳人,国防科学技术大学电子科学与工程学院在读博士生,研究方向为雷达目标识别。E-mail: zfxkj123@sina.cn;
刘永祥(1976–),男,河北唐山人,博士,国防科学技术大学电子科学与工程学院教授,博士生导师,主要研究方向为目标微动特性分析与识别。E-mail: lyx_bible@sina.com;
霍   凯(1983–),男,湖北黄冈人,博士,国防科学技术大学电子科学与工程学院讲师,主要研究方向为雷达信号处理与目标识别。E-mail: huokai2001@163.com

文章历史

收稿日期:2016-12-22
改回日期:2017-01-10
网络出版:2017-03-13
基于栈式降噪稀疏自动编码器的雷达目标识别方法
赵飞翔, 刘永祥, 霍凯    
(国防科学技术大学电子科学与工程学院   长沙   410073)
摘要:雷达目标识别中特征提取是关键步骤,所提取特征的好坏决定着识别效果的优劣,但传统特征提取方法很难发掘目标数据深层次本质特征。深度学习理论中的自动编码器模型能够用数据去学习特征,获得数据不同层次的特征表达。同时为消除噪声影响,该文提出一种基于栈式降噪稀疏自动编码器的雷达目标识别方法,通过设置不同隐藏层数和迭代次数,从雷达数据中直接高效地提取识别所需的各层次特征。暗室仿真数据实验结果验证了该方法较K近邻分类方法及传统栈式自编码器有更好的识别效果。
关键词目标识别    深度学习    栈式降噪稀疏自动编码器    
Radar Target Recognition Based on Stacked Denoising Sparse Autoencoder
Zhao Feixiang, Liu Yongxiang, Huo Kai    
(College of Electronic Science and Engineering, National University of Defense Technology, Changsha 410073, China)
Foundation Item: The National Natural Science Foundation of China (61422114), The Natural Science Fund for Distinguished Young Scholars of Hunan Province (2015JJ1003)
Abstract: Feature extraction is a key step in radar target recognition. The quality of the extracted features determines the performance of target recognition. However, obtaining the deep nature of the data is difficult using the traditional method. The autoencoder can learn features by making use of data and can obtain feature expressions at different levels of data. To eliminate the influence of noise, the method of radar target recognition based on stacked denoising sparse autoencoder is proposed in this paper. This method can extract features directly and efficiently by setting different hidden layers and numbers of iterations. Experimental results show that the proposed method is superior to the K-nearest neighbor method and the traditional stacked autoencoder.
Key words: Target recognition    Deep learning    Stacked denoising sparse autoencoder    
1 引言

雷达目标识别是导弹防御系统的关键技术。虽然很多研究学者对此问题都进行了大量的探索,但其依然是一项具有很高难度和挑战性的工作。目前得到广泛研究和应用的雷达目标识别方法主要基于以下几种:目标运动回波、极点分布、高分辨雷达成像以及极化特征[1]。这些方法都是先对目标进行特征提取,然后采用贝叶斯分类、决策树分类、D-S证据理论等方法对目标进行分类识别[2]。而作为关键步骤的特征提取过程则需要花费大量时间精力,且特征多为人工设计,从而造成很难获得目标数据深层本质特征。文献[3]将BP网络应用到目标识别中,虽取得了不错的效果,但BP网络是浅层网络,很难获得数据深层次特征信息。因此如何自动的从数据中提取有利于目标识别的深层特征成了一个重要的问题。

Hinton[4]等人于2006年提出的深度学习(Deep learning)理论可以有效解决这个问题。深度学习其本质是通过搭建含有多层隐藏层的神经网络,将数据进行特征映射,获取数据深层本质信息。在识别分类中它将特征提取与分类器结合到一个框架中,用数据去学习特征,在使用中减少了人工特征提取的巨大工作量,提高了特征提取的效率[5,6]。目前公开发表的将深度学习理论应用到雷达目标识别中的文献主要是对SAR图像的目标识别:文献[7]将相似性约束的深度置信网络应用在SAR图像目标识别中,文献[8]利用卷积神经网络进行SAR图像目标识别,而对于空间目标的识别分类研究相对较少。

自动编码器(AutoEncoder, AE)作为深度学习结构的重要组成部分,在无监督学习及非线性特征提取过程中扮演着重要角色,也被应用到多种领域[9]。堆叠多个自动编码器可形成栈式自动编码器(stacked AutoEncoder, sAE)。栈式自动编码器能够提取目标数据更深层次的特征,挖掘数据本质信息。文献[10]将改进的栈式自编码器应用于雷达HRRP识别中,取得了不错的效果,但其针对的是飞机目标,另外也未考虑到噪声的影响。文献[11]提出一种稀疏降噪自编码神经网络,但该网络未考虑权重衰减,在训练过程中易造成过拟合;文献[12]对稀疏降噪自编码网络进行了研究,并分析了稀疏限制和隐藏层节点数对数据重构和特征提取的影响,但其应用领域只是在手写体的分类上;文献[13]将其应用到静态手势识别中,文献[14]将降噪稀疏自编码器用于指纹的特征提取与识别,都证明了该方法的有效性。

为了解决雷达目标识别中特征提取面临的问题,获取目标深层本质特征信息,提高识别精度,本文提出基于栈式降噪稀疏自动编码器的雷达目标识别方法,通过设置不同的隐藏层数和迭代次数,获取数据各层次的特征表达,然后和K近邻方法相结合,对目标进行识别。同时不同于前文所述文献均采用平方差代价函数,本文采用交叉熵代价函数,能够取得更优的识别效果。

2 基于栈式降噪稀疏自动编码器的雷达目标识别方法 2.1 自动编码器

自动编码器是一种无监督的学习算法,它通过让目标值与输入值相等,即 ${y^{(i)}} = {x^{(i)}}$ ,可以获取数据中最重要信息[15]。一个自动编码器是一个2层的神经网络,用来学习能够恢复自身的非线性编码。图1为自动编码器的一个简单模型结构。

图 1 自动编码器结构 Fig.1 The structure of AE

假如给定一个无标签的数据集 $\{ {x^{(i)}}\} _{i = 1}^m$ ,其每一个训练数据 ${x^{(i)}}$ 经编码器操作,可得到隐藏层的特征表达 ${y^{\scriptstyle(i)}}$ , ${y^{(i)}} = {f_\theta }\left( {x^{(i)}} \right) = s\left( {{W}}{x^{(i)}} + {b} \right)$ ,其中 $\theta = ({{W}},{b})$ 为网络参数, ${{W}}$ 为权值矩阵, b 为偏置向量, $s(x)$ 为激活函数,此处选用sigmoid函数, $s(x) = 1/(1 + {{\rm{e}}^{ - x}})$ 。然后隐藏层的特征表达经过解码器操作,可得到重构向量 ${{{z}}^{(i)}}$ , ${{{z}}^{(i)}} = {g_{\theta '}}\left({y^{(i)}}\right) =$ $ s\left({{W}'}{y^{(i)}} + {b}'\right)$ ,其中 $\theta ' = ({{W}'},{b}')$ , ${{W}'}$ 为权值矩阵,通常取 ${{W}'} = {{{W}}^{\rm{T}}}$ 。则对模型参数优化调节实际上是最小化重构误差:

$\begin{array}{*{20}{c}} {{\theta ^*},{{\theta '}^*} = \mathop {\arg \min }\limits_{\;\;\;\;\;\;\theta ,\theta '} \sum\limits_{i = 1}^m {L\left( {{x^{(i)}},{z^{(i)}}} \right)} }\\ {\quad \quad \quad \quad = \mathop {\arg \min }\limits_{\;\;\;\;\;\;\theta ,\theta '} \sum\limits_{i = 1}^m L\left( {{x^{(i)}},{g_{\theta '}}\left( {{f_\theta }\left( {{x^{(i)}}} \right)} \right)} \right)} \end{array}$ (1)

其中,m为样本个数,L为代价函数。文献[16]证明了交叉熵代价函数要优于平方差代价函数,因此本文采用交叉熵代价函数,其表达式为:

$L\left({x^{(i)}},{z^{(i)}}\right) \\ \quad \quad \!\! \!=\! - \!\sum\limits_{j = 1}^n {\left(x_j^{(i)}\log z_j^{(i)} \!+\! \left(1 \!-\! x_j^{(i)}\right)\log \left(1 \!-\! z_j^{(i)}\right)\right)} $ (2)

其中,n为样本维数。

则在整个数据集条件下代价函数为:

${J_1} \!\!=\!\! -\! \frac{1}{m}\!\!\sum\limits_{i = 1}^m \!{\sum\limits_{j = 1}^n {\left(x_j^{(i)}\log z_j^{(i)} \!\!+\!\! \left(1 - x_j^{(i)}\right)\log\left (1 \!\!-\!\! z_j^{(i)}\right)\right)} } $

(3)

同时为了防止出现过拟合,需要添加一个正则化项,则改进后的代价函数为:

${J'\!_1} \!\!=\!-\!\! \frac{1}{m}\sum\limits_{i = 1}^m \!{\sum\limits_{j = 1}^n {\left(\!x_j^{(i)}\log z_j^{(i)} \!\!+\!\! \left(1 \!-\! x_j^{(i)}\right)\! \log\! \left(1 \!-\! z_j^{(i)}\right)\right)} }\\ \quad \quad + \frac{\lambda }{2}{\left\| {{W}} \right\|^2}$ (4)
2.2 稀疏自编码器

稀疏自编码器(Sparse AutoEncoder, SAE)是由Bengio于2007年提出,它是在自编码器基础上添加约束条件,要求大部分节点为0,少部分不为0,从而具有更优的学习数据特征的能力[17]。稀疏自动编码器代价函数为:

${J_{{\rm{sparse}}}} = {J'\!\!_1} + \beta \sum\limits_{j = 1}^{{s_2}} {{\rm{KL}}\left( {\rho \left\| {{{\mathop {\hat \rho }\limits^{} }_j}} \right.} \right)} $ (5)

其中,s2是隐藏层中神经元的数量, ${\rm{KL}}\left( {\rho \left\| {{{\hat \rho }_j}} \right.} \right) $ $ =\rho \log \frac{\rho }{{{{\hat \rho }_j}}} \!+ \! (1 \!-\! \rho )\log \frac{{1 \!-\! \rho }}{{1 \!-\! {{\hat \rho }_j}}}$ 。当 ${{\hat \rho }_j}\!=\! \rho $ 时, ${\rm{KL}}\left( {\rho \left\| {{{\hat \rho }_j}} \right.} \right)$ 达到最小为0,当 ${{\hat \rho }_j}$ 接近0或1时, ${\rm{KL}}\left( {\rho \left\| {{{\hat \rho }_j}} \right.} \right)$ 急剧增大。所以在代价函数中加入此项,并使其最小化,可以使得 ${{\hat \rho }_j}$ 更靠近于 $\rho $

2.3 降噪稀疏自编码器

降噪稀疏自编码器(Denoising Sparse Auto Encoder, DSAE)是在稀疏自编码器基础上,对输入数据进行加噪处理,使得稀疏自编码器学习去除这种噪声,从而提高稀疏自编码器对输入数据的泛化能力,提高模型鲁棒性[18]。降噪稀疏自编码器结构如图2所示。

图 2 降噪稀疏自动编码器结构 Fig.2 The structure of DSAE

图2中,x为原始输入数据, $\tilde x$ 为经过加噪处理的数据,通常加噪处理有两种方法:一种是添加高斯噪声;另一种是以二项分布随机处理数据,将输入数据以一定概率置0。降噪稀疏自编码器网络代价函数为:

$\begin{array}{c} J \!=\! -\!\frac{1}{m}\sum\limits_{i = 1}^m\! {\sum\limits_{j = 1}^n {\left(\!x_j^{(i)}\log z_j^{(i)} \!+\! \left(\!1 \!-\! x_j^{(i)}\right)\!\log\! \left(1\! \!-\! z_j^{(i)}\!\right)\!\right)} } \\ + \frac{\lambda }{2}{\left\| {{W}} \right\|^2} + \beta \sum\limits_{l = 1}^{{s_2}} {{\rm{KL}}\left( {\rho \left\| {\mathop {{{\hat \rho }_{_l}}}\limits^{} } \right.} \right)} \quad \quad \quad \quad \quad \quad \\ \ \!\!= \!- \frac{1}{m}\sum\limits_{i = 1}^m \!{\sum\limits_{j = 1}^n {\left(\! {x_j^{(i)}\log \!\left({g_{\theta '}}\left(\!{f_\theta }\left(\!\tilde x_j^{(i)}\!\right)\!\right)\!\right) \!\!+\!\! \left(1\! -\! x_j^{(i)}\!\right)} \right.} } \\\left.\cdot {\log\left (1 \!-\! {g_{\theta '}}\left({f_\theta }\left(\tilde x_j^{(i)}\right)\right)\right)} \right) \quad \quad \quad \quad \quad \quad \quad \\ \!+\! \frac{\lambda }{2}{\left\| {{W}} \right\|^2} \!+\! \beta \sum\limits_{l = 1}^{{s_2}} {{\rm{KL}}\left( {\rho \left\| {\mathop {{{\hat \rho }_{_l}}}\limits^{} } \right.} \right)} \quad \quad \quad \quad \quad \quad \end{array}$ (6)
2.4 栈式降噪稀疏自编码器

栈式降噪稀疏自编码器(stacked Denoising Sparse Auto Encoder, sDSAE)是由多个DSAE堆叠形成。它可以获得输入数据更深层次特征。在训练时,前一层网络的输出作为后一层网络的输入,逐层进行训练。首先用经过加噪处理的原始输入数据训练第1个降噪稀疏自编码器,得到输入数据的1阶特征表示 $h_k^{(1)}$ ,然后将该特征表示作为下一个降噪稀疏自编码器的输入,得到2阶特征表示 $h_k^{(2)}$ ,依次类推,将第 $(n - 1)$ 阶特征表示作为第n个降噪稀疏自编码器的输入,得到n阶特征表示 $h_k^{(n)}$ 。本文采用K近邻分类方法,栈式降噪稀疏自编码器网络含有4层隐含层,其算法步骤总结如下:

(1) 采用大量无标签数据作为网络输入,训练第1层降噪稀疏自编码器,得到第1层隐藏层的输出也即特征表示 $h_k^{(1)}$

(2) 把步骤1的输出作为第2层网络的输入,训练得到第2层隐藏层的特征表示 $h_k^{(2)}$

(3) 类比步骤2,可分别得到第3层和第4层隐藏层的特征表示 $h_k^{(3)}$ , $h_k^{(4)}$

(4) 将步骤1–步骤3的输出和原始数据标签作为分类模板数据;

(5) 将测试数据输入训练好的网络,得到测试数据的网络表示;

(6) 将用网络产生的分类模板和测试数据的网络表示输入给分类算法,完成识别分类。使用栈式降噪稀疏自编码器进行识别分类的完整过程如图3所示。

图 3 使用sDSAE进行识别分类的完整过程图 Fig.3 The process of using sDSAE to identify targets
3 实验结果与讨论

实验采用锥形目标、仿锥形目标、球形目标的仿真数据,其目标结构示意图如图4所示。测试波段为X波段,极化方式为水平极化,频率范围为8~12 GHz,频率步长为20 MHz,目标方位角为0°~180°、步长为0.2°,目标俯仰角为0°,其RCS 3维效果图如图5(a)图5(c)所示。将目标在每一个方位角下的RCS值作为输入数据,则每一个目标有901个样本,每一个样本为201维,从每一个目标样本中取奇数位的451个样本组成训练样本,其余的偶数位样本组成测试样本,采用传统识别方法,即先对目标进行特征提取,选用具有明确物理意义又兼有较好可分性的目标特征:RCS均值、RCS方差以及RCS梅林变换均值、RCS梅林变换方差4类特征进行仿真实验,识别结果如表1所示;然后采用本文方法,对数据做归一化处理,同时网络参数设置为:因为样本维数为201,故将可见层单元数设置为201,由于模型深度和迭代次数的选择并没有统一的规定,通常是由实验数据和任务要求所决定,本文根据多次实验结果,设置隐藏层数为4层,隐藏层单元数为150-100-50-10, $\rho $ 取0.66,训练迭代次数依次为10次、30次和50次。通常加噪处理有两种方法,一种是以二项分布随机处理数据,将输入数据以一定概率置0,另一种是添加高斯噪声。首先按第1种方法添加噪声,其识别结果如表2所示;然后按第2种方法添加噪声,其识别结果如表3所示。

图 4 目标结构示意图 Fig.4 Schematic diagram of target structure
图 5 3类目标RCS 3维效果图 Fig.5 Three dimensional effect chart of RCS of the three-class targets
表 1 选用不同特征K近邻分类方法结果 Tab.1 Recognition results based on K-nearest neighbor method
表 2 采用sDSAE识别结果 Tab.2 Recognition results based on sDSAE

表1可知,K近邻方法具有较好的识别效果,能较为准确地识别出目标,但从表中亦可看出,均值的效果最好,但增加了特征之后识别效果反而变差了,这是由于K近邻分类方法常用于单特征目标识别,文中多特征识别结果是在单特征识别结果基础上求和取平均,这对每一个特征识别结果都有很高的要求,如果其中一个特征识别结果不理想,就会造成多特征识别结果相比单特征反而变差了。说明该方法对特征选择依赖较高,所提取特征的好坏,以及不同的特征选择,将直接影响到最终的识别效果,因此该方法的运用需要丰富的经验和相关专业知识;而本文所提的栈式降噪稀疏自编码器则可以较好地解决此问题。由表2实验结果可以看出,利用栈式降噪稀疏自编码器进行识别,不需要事先定义特征,只需将数据输入网络,网络将自动地进行学习,获得输入数据各层次表示,也即特征表达,将此特征表达利用K近邻分类算法可取得不错的结果。此外随着网络深度的增加,将得到输入数据更本质的表示,最终分类识别结果更准确;同时随着迭代次数的增加,网络优化效果更好,也即达到更好的训练效果,分类识别结果也会更好。当然并不是网络深度越深越好、迭代次数越多越好,网络的深度及迭代次数取决于网络模型及输入数据的规模,若数据规模并不大,盲目地增加网络深度,最终效果并不会更好,只会徒增运算耗时;此外,不综合考虑算法及数据,增加迭代次数,反而会使网络训练过拟合,影响最终的识别效果。网络模型深度及迭代次数的研究将是下一步的工作重点,此处不加赘述。

为了进一步说明本文方法的有效性,进行了sAE与sDSAE的对比实验,其中隐藏层数为4层,迭代次数依次设置为10次、30次、50次,其分类识别效果如图6所示。

图 6 sAE与sDSAE识别结果对比图 Fig.6 Comparison of recognition results based on sAE and sDSAE

图6可知,两种网络模型对于雷达目标RCS数据的分类识别均有效,均不需要人工提取特征,网络均能自动学习,但本文所提方法,因考虑了噪声的影响,使得网络模型更具鲁棒性,并随着迭代次数的增加,识别效果优于传统的栈式自编码器。

图7考虑不同代价函数对最终识别效果的影响。由图7可知,对于本文所用雷达数据,采用两种代价函数的网络模型均能取得不错的识别效果,但随着隐藏层数的增加,采用交叉熵代价函数的模型识别效果要优于采用平方差代价函数的模型。

图 7 不同代价函数对识别效果的影响 Fig.7 The effect of cost function on recognition

通常加噪的方式有两种,现按照添加高斯噪声的方法对数据进行加噪处理,其信噪比分别为20 dB, 10 dB, 5 dB。

为了进一步说明本文方法的有效性,进行不同信噪比条件下sAE与sDSAE的对比实验,其中隐藏层数为4层,迭代次数依次设置为10次、30次、50次,其分类识别效果如图8所示。

图 8 不同信噪比下sAE与sDSAE识别结果对比图 Fig.8 Comparison of recognition results based on sAE and sDSAE under different SNR conditions

表3图8可以看出,经过添加高斯噪声后,本文所提的栈式降噪稀疏自编码器依然能取得较好的识别效果,虽然随着信噪比的降低,识别准确率有所下降,但当隐藏层数为4时,其准确率仍能达到80%以上,相比sAE有较大提升。

表 3 不同信噪比下采用sDSAE识别结果 Tab.3 Recognition results based on sDSAE under different SNR conditions
4 结束语

雷达目标识别在军事和民用领域中都有重要意义,传统目标识别算法都需要先进行特征提取,而该工作是耗时费力且需要相关专业知识的。本文提出将栈式降噪稀疏自编码器应用于雷达目标识别,可以解决传统目标识别中,将大量时间精力花费在特征提取上,导致不能实时处理数据的问题。本文方法不需事先定义特征,模型能够自动地学习数据,获得数据各层次特征表达。通过设置不同隐藏层和迭代次数进行仿真实验,结果表明本文方法具有较好的识别效果。虽然随着信噪比的降低,算法识别准确率有所下降,但相比sAE算法仍有较大提升。但由于算法性能受模型深度和迭代次数的影响,而模型深度和迭代次数的选择并没有统一的规定,通常是由实验数据和任务要求所决定,因此算法的抗噪性能尚不能定量描述,针对此问题尚需进一步的研究。

参考文献
[1] 吴剑旗, 田西兰. 一种基于半监督学习的窄带雷达目标识别系统[J]. 中国电子科学研究院学报, 2015, 10(1): 49-53.
Wu Jian-qi and Tian Xi-lan. A narrow-band radar target recognition system based on semi-supervised learning[J]. Journal of CAEIT, 2015, 10(1): 49-53. (0)
[2] 张平定, 孙佳佳, 童创明, 等. 弹道中段目标雷达综合识别研究[J]. 微波学报, 2015, 31(2): 20-23.
Zhang Ping-ding, Sun Jia-jia, Tong Chuang-ming, et al. Integrated target recognition of ballistic midcourse target[J]. Journal of Microwaves, 2015, 31(2): 20-23. (0)
[3] 曹伟, 周智敏, 周辉, 等. 基于多维特征及BP网络的高分辨雷达目标识别[J]. 计算机工程与应用, 2013, 49(8): 213-216.
Cao Wei, Zhou Zhi-min, Zhou Hui, et al. High resolution radar target recognition based on multi-dimensional feature vector and BP network[J]. Computer Engineering and Applications, 2013, 49(8): 213-216. (0)
[4] Hinton G.E. and Salakhutdinov R.R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507. DOI:10.1126/science.1127647 (0)
[5] Lecun Y, Bengio Y and Hinton G. Deep learning[J]. Nature, 2015, 521(7553): 436-444. DOI:10.1038/nature14539 (0)
[6] 尹宝才, 王文通, 王立春. 深度学习研究综述[J]. 北京工业大学学报, 2015, 41(1): 48-57.
Yin Bao-cai, Wang Wen-tong and Wang Li-chun. Review of deep learning[J]. Journal of Beijing University of Technology, 2015, 41(1): 48-57. (0)
[7] 丁军, 刘宏伟, 陈渤, 等. 相似性约束的深度置信网络在SAR图像目标识别的应用[J]. 电子与信息学报, 2016, 38(1): 97-103.
Ding Jun, Liu Hong-wei, Chen Bo, et al. Similarity constrained deep belief networks with application to SAR image target recognition[J]. Journal of Electronics &Information Technology , 2016, 38(1): 97-103. (0)
[8] 田壮壮, 占荣辉, 胡杰民, 等. 基于卷积神经网络的SAR图像目标识别研究[J]. 雷达学报, 2016, 5(3): 320-325.
Tian Zhuang-zhuang, Zhan Rong-hui, Hu Jie-min, et al. SAR ATR based on convolutional neural network[J]. Journal of Radars, 2016, 5(3): 320-325. (0)
[9] Jiang Xiao-juan, Zhang Ying-hua, Zhang Wen-sheng, et al. A novel sparse auto-encoder for deep unsupervised learning[C]. 2013 Sixth International Conference on Advanced Computational Intelligence, Hangzhou, 2013: 256–261. (0)
[10] Feng Bo, Chen Bo and Liu Hong-wei. Radar HRRP target recognition with deep networks[J]. PatternRecognition, 2017, 61: 379-393. (0)
[11] 张成刚, 姜静清. 一种稀疏降噪自编码神经网络研究[J]. 内蒙古民族大学学报(自然科学版), 2016, 31(1): 21-25.
Zhang Cheng-gang and Jiang Jing-qing. Study on sparse De-noising Auto-Encoder neural network[J]. Journal of Inner Mongolia University for Nationalities, 2016, 31(1): 21-25. (0)
[12] Meng Ling-heng, Ding Shi-fei and Xue Yu. Research on denoising sparse autoencoder[J]. International Journal of Machine Learning and Cybernetics, 2016. DOI:10.1007/s13042-016-0550-y (0)
[13] Kumar V, Nandi G C, and Kala R. Static hand gesture recognition using stacked denoising sparse autoencoders[C]. 2014 Seventh International Conference on Contemporary Computing, Noida, 2014: 99–104. (0)
[14] Sankaran A, Pandey P, Vatsa M, et al. On latent fingerprint minutiae extraction using stacked denoising sparse AutoEncoders[C]. IEEE International Joint Conference on Biometrics, Clearwater, FL, 2014: 1–7. (0)
[15] Jose Dolz, Nacim Betrouni, Mathilde Quidet, et al. Stacking denoising auto-encoders in a deep network to segment the brainstem on MRI in brain cancer patients: A clinical study[J]. Computerized Medical Imaging and Graphics, 2016, 52: 8-18. DOI:10.1016/j.compmedimag.2016.03.003 (0)
[16] Michael A Nielsen. Neural Networks and Deep Learning[M]. Determination Press, 2015. (0)
[17] Sun Wen-jun, Shao Si-yu, Zhao Rui, et al. A sparse auto-encoder-based deep neural network approach for induction motor faults classification[J]. Measurement, 2016, 89: 171-178. DOI:10.1016/j.measurement.2016.04.007 (0)
[18] Xing Chen, Ma Li and Yang Xiao-quan. Stacked denoise autoencoder based feature extraction and classification for hyperspectral images[J]. Journal of Sensors, 2016: 1-10. (0)