收稿日期:20191206;修回日期:20200201 基金项目:国家自然科学基金青年基金资助项目(61806115,61603228)
作者简介:牛倩(1987),女,山西太原人,讲师,硕士,主要研究方向为统计自然语言处理;曹学飞(1981),男,山西太原人,讲师,博士,主要研
究方向为统计自然语言处理;王瑞波(1985),男,山西长治人,工程师,博士,主要研究方向为统计机器学习;李济洪(1964),男(通信作者),山西
长治人,教授,博导,博士,主要研究方向为统计机器学习、统计自然语言处理(li_ml@sxu.edu.cn).
基于稳健设计的 SGNS算法的超参数调优方法
牛 倩,曹学飞,王瑞波,李济洪
(山西大学 软件学院,太原 030006)
摘 要:通常给定超参数的若干取值选取性能最大的为最优组合(称为直接选优法),但是此方法的稳健性差。
为此,提出了一种基于稳健设计的超参数调优方法(称为稳健调优法)。具体地,以 SGNS算法中的超参数调优为
例,在词语推断任务上实验并得出:经方差分析得到
SGNS算法中的七个超参数中的五个对算法预测性能有显著
影响,确定为主控因子,其余两个确定为噪声因子,且主控因子中有三个对性能估计的方差有显著影响,因此,调优
中仅从期望最大来直接选优是不合理的;稳健调优法与直接选优法两者在预测性能上没有显著差异,但稳健调优
法对噪声因子具有较好的稳健性。稳健调优法对一般的深度神经网络的调参有实际的借鉴意义。
关键词:稳健设计;信噪比;SGNS算法;超参数调优;词向量表示学习
中图分类号:TP391 文献标志码:A 文章编号:10013695(2021)02036051007
doi:10.19734/j.issn.10013695.2019.12.0672
TuningmethodofhyperparametersforSGNSalgorithmbasedonrobustdesign
NiuQian,CaoXuefei,WangRuibo,LiJihong
(SchoolofSoftware,ShanxiUniversity,Taiyuan030006,China)
Abstract:Usually,thetuningmethodusedcommonlyistoselecttheoptimalcombinationofthevalueswiththelargestper
formancemeasure(calleddirecttuningmethod).However,thismethodhaspoorrobustness.Hence,thispaperproposedarobust
hyperparametertuningmethod.Specifically
,takingthetuningofSGNS(skipgramwithnegativesample)algorithmasanexam
pleinwordanalogytask,itdrewtheconclusionsasfollow.FiveofallsevenhyperparametersinSGNSthathadsignificantinflu
enceontheperformanceweredeterminedasthecontrolfactorsandremainedtwoasthenoisefactors,andthreeofthefivecontrol
factorshadsignificantinfluenceonthevarianceoftheperformancemeasureafterANOVAforexperimentaldata.Therefore
,direct
selectiontheoptimalcombinationonlybymaximumexpectationwasnotreasonable.Therewasnosignificantdifferenceinthepre
dictionaccuracybetweenrobusttuningmethodanddirecttuningmethod,butrobusttuningmethodremarkablyhadgoodrobust
ness.Therobusttuningmethodhadpracticalreferentialvaluefortuninghyperparametersofdeepneuralnetworks.
Keywords:robustdesign;signaltonoiseratio; algorithm ofskipgram withnegativesample; tuningmethodofhyper
parameters;wordembedding
0 引言
近年来,低维实值词向量表示(简称词向量)在自然语言
处理中得到广泛应用。许多研究表明,在许多评测任务中,一
种较好的预训练词向量表示可以提高系统的性能。较早的词
向量表示学习方法是由 Bengio等人
[1]
提出的基于神经网络的
概率语言模型的方法,后来很多学者提出了其他词向量表示学
习模型,较有影响的有
word2vec
[2]
、GloVe
[3]
、Elmo
[4]
、BERT
[5]
等,其中 word2vec模型是使用最广的一种表示学习模型,其性
能在文本分类
[6]
、词性标注
[7]
、情感分析
[8,9]
和关键词提取
[10]
等任务中得到实验验证。然而,word2vec模型学习到词向量的
性能显著依赖于模型中的超参数,比如,模型中词向量的维度、
上下文窗口的大小、训练时迭代的次数、高频词的采样方式、低
频词的截取方式、负例的采样方式等。对同一个语料采用不同
的设置得到的词向量性能差异可能很大。因此,分析哪些超参
数对性能指标有显著影响(简称为强超参数),哪些只有微弱
的影响(简称为弱超参数),并合理设置这些超参数是值得研
究的问题。传统超参数调优方法大多是根据经验采用贪心策
略来做的。比如,给定每个超参数的若干取值,选取性能最高
的作为超参数的最优组合(称为直接选优法)。其缺点主要
有:
a)缺少研究每个超参数对算法性能影响的统计显著性分
析,使得在超参数调优时带有很大的盲目性,不能着重调整起
关键作用的超参数;b)没有考虑算法的稳健性。事实上,许多
研究发现,按直接调优法调优后的算法甚至对一些只有微弱影
响的超参数也十分敏感,这些弱超参数的变动常会导致实验结
果较大的波动,即算法的稳健性差。
算法性能指标估计的稳定性直接影响着实验结果的可复
现性,应当综合性能估计的期望和方差两者来对超参数进行调
优。一种好的超参数设置,不仅能提高评价指标的值,而且要
使得评价指标估计较为稳定,至少对弱超参数不敏感。
如果把词向量学习看做一个产品系统,可以从产品参数设
计的角度来考虑设计一个稳健的系统。事实上,在传统的电子
产品(如电视机)设计中,产品评价指标的稳定性一直是一个
重要的关注指标,由此产生了产品的稳健设计方法。稳健设计
方法已经成为了工业质量管理中重要的技术,即实验设计的稳
健设计
[11]
。在此,一个算法能够称为稳健的,是指算法能够在
噪声因子的干扰下其性能只有小幅的波动,即对应的性能估计
的方差较小。为此,本文针对词向量表示学习算法中的超参数
调优,引入了统计学实验设计中的稳健设计思想,在超参数调
优的过程中研究了不同超参数对算法性能指标估计的期望和
第 38卷第 2期
2021年 2月
计 算 机 应 用 研 究
ApplicationResearchofComputers
Vol38No2
Feb.2021