河北大学学报(自然科学版) ›› 2019, Vol. 39 ›› Issue (5): 536-546.DOI: 10.3969/j.issn.1000-1565.2019.05.015
鲁淑霞1,张罗幻1, 蔡莲香1,孙丽丽2
LU Shuxia1, ZHANG Luohuan1, CAI Lianxiang1, SUN Lili2
摘要: 随机梯度下降(stochastic gradient descent,SGD)算法是机器学习问题中的高效求解方法之一.但是,对于非平衡数据,传统的随机梯度下降算法,在训练时多数类点被抽到的概率远大于少数类点,易导致计算不平衡;对于目标函数不可导或不易求导的问题,计算代价太大或无法进行计算;在每次迭代中利用单个样本梯度近似代替全梯度,这必然会产生方差,严重影响算法的分类性能.针对上述问题,提出了带有方差减小的加权零阶随机梯度下降算法,考虑了数据的间隔分布情况,在目标函数中引入了间隔均值项,并对多数类样例赋予了较小的权值,对少数类样例赋予较大的权值.在对优化问题的求解中,采用零阶优化的方法对梯度进行估计,并且引入了方差减小策略.在一些非平衡数据集上的实验验证了所提算法的有效性,并有效解决了上述问题.
中图分类号: