海装驻上海地区第十代表室,上海 徐汇 200030
摘要:为了能够及时发现齿轮表面缺陷以及缺陷类型,我们提出了一种自适应分类框架,该框架根据任务需求调整分类粒度,并基于混合神经网络(AHNN)。AHNN结合了一维卷积和注意机制,增强了特征和通道之间的关系,并抑制了不敏感信息的影响,引入了个体特征选择方法,生成适合不同个体的特征子集,减小个体差异。实验结果表明,齿面磨损的细粒度和粗粒度分类的准确率分别为91.27%和96.31%,缺齿的细粒度和粗粒度分类的准确率分别为92.67%和97.28%,正常齿的细粒度和粗粒度分类的准确率分别为92.33%和96.39%。AHNN能够适应不同的分类粒度,降低个体差异,提高框架的通用性。
关键词:齿轮表面缺陷,自适应分类,混合神经网络
1引言
齿轮作为机械装置中必不可少的部件,其表面缺陷对于其正常运转和寿命有着重要影响。通过对齿轮表面缺陷进行及时、准确的识别,可以避免因缺陷引起的不安全因素,优化装置的性能以及延长齿轮的使用寿命。
Fisher[[1]]分数是一种特征选择算法,旨在为给定任务识别最具信息量和区分性的特征。它通过过滤掉不相关或冗余的特征,仅选择对特定问题最有用的特征。Fisher分数的主要原则是最优特征具有较小的类间方差和较大的类内方差。SE[[2]]块的核心思想是通过根据损失学习,对输入特征进行全局平均池化并应用ReLU[[3]]激活函数,可以缓解梯度消失和爆炸问题,改善模型的训练过程和最终性能。
2方法原理
给定一个原始数据集S=(F,L)。特征集对应的矩阵为X∈Fm×n,标签集对应的矩阵为Y∈Lm×c。其中m表示样本数量,n表示特征数量,c表示分类结果的数量。该算法通常采用一种启发式策略,根据标准独立地计算每个特征的得分。类间方差定义如下:
(1)
类内方差定义如下:
(2)
数据集中的fisher得分计算为
(3)
AHNN[[4]-5]由三个不同的块组成,每个块提供一个特定的功能。块1结构通过三个主要部分提取并表示相关信息。其中,每个部分都包含特定类型的层(如一维卷积层、ReLU激活函数、SE块、批量归一化层和最大池化层)来处理齿轮数据,帮助我们获取时空信息、特征关系和通道关系等重要信息。
在块1操作后,将经过预处理的数据发送到SE块,并根据学习到的信息和损失对数据分配不同的权重。然后将这些处理后的数据发送到GRU[6[5]],以保存数据和关系中的变化,增强模型的迁移学习能力并提高其性能。块2的优化加权操作有助于有效特征选择,减少噪声和冗余,进而提升了精度和效率。
在块2操作完成后,得到的数据特征以二维特征图的形式呈现。这种类型的特征图并不适合直接用于多分类任务,我们使用平铺层将二维特征映射转换为一维向量。转换后的一维向量可能会变得过长,导致过拟合的问题。我们引入了一个完全连接的层来进行降采样,减少计算量的需求。在第3块中每次迭代中随机删除一些特征,有助于减少网络对于任何特定特征的依赖性,并提高其泛化能力。
最后利用softmax函数完成了多重分类,softmax函数也称为归一化指数函数,在多重分类过程中起着至关重要的作用,softmax功能的定义如下:
(4)
3实验结果
我们使用细粒度和粗粒度分类实验来验证在所提出的自适应框架的可行性。如图1所示,齿面磨损,缺齿,正常齿的细粒度分类的平均分类准确率分别为91.27%,92.67%,92.33%,齿面磨损,缺齿,正常齿的粗粒度分类的平均分类准确率分别为96.31%,97.28%,96.39%。结果表明,AHNN在不同的粒度方面取得了良好的分类性能。
图1不同表面缺陷在粗粒度和细粒度下的识别准确率
4结论
在本文中,我们提出了一种自适应分类框架,该框架包括具有个体特征子集的AHNN。通过大量的实验和数据验证,该框架能够有效地检测出齿轮表面的齿面磨损,缺齿缺陷,该框架对未来的自适应分类技术研究具有参考价值。
参考文献:
[[1]] Gu, Q.Q.; Li, Z.H.; Han, J.W. Generalized Fisher Score for Feature Selection. arXiv 2012, arXiv:1202.3725.
[[2]] Jie Hu, Li Shen and Gang Sun, "Squeeze-and-excitation networks",Proceedings of the IEEE conference on computer vision and pattern recognition., 2018.
[[3]] Nair, V., Hinton, G.E.: Rectified linear units improve restricted boltzmann machines. In: ICML’10: Proceedings of the 27th International Conference on International Conference on Machine Learning, pp. 807–814 (2010).
[[4]] Zhang, X., Huang, L., Qu, H. (2018). AHNN: An Attention-Based Hybrid Neural Network for Sentence Modeling. In: Huang, X., Jiang, J., Zhao, D., Feng, Y., Hong, Y. (eds) Natural Language Processing and Chinese Computing. NLPCC 2017. Lecture Notes in Computer Science, vol 10619. Springer, Cham.
[5]杨永灿,刘韬,柳小勤等.基于注意力机制的一维卷积神经网络行星齿轮箱故障诊断[J].机械与电子,2021,39(10):3-8.
[6] J. Chung, C. Gulcehre, K. Cho, and Y. Bengio, “Empirical evaluation of gated recurrent neural networks on sequence modeling,” 2014.