您的当前位置:首页正文

twitter情感分析中停用词处理

2021-06-13 来源:意榕旅游网
2019年11月

计算机工程与设计

COMPUTER ENGINEERING AND DESIGN

Nov. 2019Vol. 40 No. 11第 40 卷 第 11 期

Twitter情感分析中停用词处理高巍,孙盼盼+,李大舟(沈阳化工大学计算机科学与技术学院,辽宁沈阳110142)摘要:在Twitter情感分析中首先要对数据预处理去除噪0 ,为了解文本预处理方法中去除停用词对Twitter情感分析分

类性能的影响,使用4种特征模型和5种分类器对3个数据集保留和去除停用词分别进行分析,为自然语言处理的研究者

提供在常用算法下对Twitter情感分类分析时是否去除停用词及特征数量选择的参考依据。实验结果表明,对Twitter情感

分类,去除停用词降低了文本噪声,但多数情况下不会提高分类器的性能,且提取特征时适当的特征数量有助于加快分 类过程。关键词:情感分析;预处理;停用词;特征数量;文本分类中图法分类号:TP391. 1 文献标识号:A 文章编号:1000-7024 (2019) 11-3180-06doi: 10. 16208/j. issnl000-7024. 2019. 11 020Processing stop words in Twitter sentiment analysisGAO Wei, SUN Pan-pan+ , LI Da-zhou(School of Computer Science and Technology, Shenyang University of Chemical Technology , Shenyang 110142, China)Abstract: The first step in the emotional analysis of Twitter is to remove noise from the data preprocessing. To understand the

efecVsofsVopwordsinVheVexVpreprocessingmeVhodonVheclassificaionperformanceofTwiVersenimenVanalysis'fourfea- VuremodelsandfiveclassifierswereusedVoanalyzeinVhreedaVaseVsandareferencewasprovidedforVheresearchersofnaVural

languageprocessingabouVsVopwordsandVhenumberoffeaVuresundercommonalgorihms.ExperimenValresulsshowVhaVVhe removalofsVopwordsreducesVheVexVnoise'buVinmosVcasesidoesnoVimproveVheperformanceofVheclassifier'andVheap-

propriaVenumberoffeaVuresishelpfulVospeedupVheclassificaionprocess.Key words: sentiment analysis; preprocessing; stop words; feature number; text classification2引言对Twitter情感分析,能够获取舆论话题倾向,把握舆 论走向,但Twitter的内容通常没有完整的句子结构、用词

理影响的相关实验;Haddi等口1*探讨了情感分析中文本预 处理的作用。然而现有的研究并没有关于预处理方法中停

用词处理对Twitter情感分类性能的影响。为了弥补这一缺陷,本文将研究重点放在分析文本预

网络化、表达不规则,造成数据噪声。关于Twitter情感极 性分类的研究多数通过预处理来减少噪声,并假设预处 理有助于提高分类器性能,加快分类过程,但这种假设并 没有得到证实。随着自然语言处理的发展,越来越多学者

处理中停用词的处理对Twitter情感分类影响。不同于传统

研究,本文在研究停用词处理的同时考虑特征数量的选取 对分类准确率的影响。为了充分验证停用词处理的影响, 本文选取3个Twitter数据集,并分别使用4种特征模 型)214*和5种分类算法,结合特征数量及词嵌入维度的

追求严谨,开始怀疑这种假设是否成立。如Bao等⑷探讨 了数据预处理是否会影响Twitter情感分类的准确率;Zhao 等)0*用4个分类器两种特征模型对Twitter数据进行预处

选取分析分类性能,旨在为自然语言处理的研究者提供在 常用算法下对Twitter情感分类分析时是否去除停用词及特

收稿日期:2018-09-20;修订日期:201811-05基金项目:辽宁省教育厅科学技术研究基金项目(L2O16O11);辽宁省教育厅科学研究基金项目(LQ2017008);辽宁省博士启动基金项目

(201601196)作者简介:高'(1965 -),女,辽宁沈阳人,博士,教授,CCF会员,研究方向为大数据分析及应用、智能信息处理;+通讯作者:孙盼盼

(1994-),女,辽宁沈阳人,硕士研究生,研究方向为大数据分析及应用、智能信息处理;李大舟(1982 -),男,辽宁沈阳人,博士,

讲师,研究方向为数据挖掘、车载网。E-mail: 1141182425@qq.com第40卷第11期征数量选择的参考依据。高巍,孙盼盼,李大舟:Twitter情感分析中停用词处理的最多便将样本预测为那类。・3181・1相关工作为了探讨停用词的去留是否会对Twitter的语义分类效 果造成影响'本文分别从特征模型、分类模型、数据集和

SVM分类算法有两种表示,当训练数据集线性可分

时,决策函数为:/=Y・x + P(Y为权重,P为偏置)/〉

0,数据为1类;/<0,数据为0类。当数据集非线性可分

时, 函 则为Min(2yty + C$+ )・(yx + b) & 1 一 +,2 i=1N特征数量4个角度进行对比'分析最优分类处理方式。具 体分析设置如下。11特征模型& & 0, i = 1,2,…,N

为了分析特征模型的不同是否对停用词的去留表现不 同,本文分别使用词袋、TF-IDF (term freqiiericy-mvese

其中,C为惩罚因子,+为非负松弛变量。kNN算法是通过测量不同特征值之间的距离实现分

document frequency)、Word2Vec 以及 GloVe ( global vec­

tors) 对数据进行向量表示。词袋模型把词出现的频率当作训练分类器的特征;

TF-IDF是TF* IDF, TF为词频,IDF为逆向文件频率。 TF为单词在文档d中出现频率;IDF为如果包含单词t的

文档越少,则DF越大,这表明单词t有很好的区 分能力。Word2Vec 中 包 CBOW (continuousbag-of-words)

和Skip-gram两种模型。这两种模型均属于浅层的双层神

经网络,包括输入层、隐藏层和输出层。其中,Skip-gram 模型的训练目标是找到对于预测句子或文档中的上下文词

语有用的词表示。它是基于单词的上下文训练词向量,每 个词向量反映了它上下文单词的加权值,因而通过训练学

习到的向量能很好表征一个词的语义信息;GloVe模型与

word2Vec模型的思路相似,但更加充分考虑了词共现的情

况,GloVe模型通过矩阵分解的方法利用词共现信息,直

接构造一个词共现矩阵的近似矩阵,尽可能保存词之间的 共现信息。1.2分类模型本文使用5种常见的分类模型:逻辑回归、随机森林、 决策树、SVM (suppott vector machine)以及 kNN (k-nea-

rest neighbor),分别对去除停用词数据和保留停用词数据

进行分类。逻辑回归是线性模型,通过sigmoid函数,利用最大

似然取反作误差函数,用梯度下降求误差函数的最小值。

对一个回归或分类问题,先建立代价函数,通过优化方法

迭代,求解最优模型参数,然后验证这个求解模型 的好坏。决策树模型是基于特征对实例进行分类的一种树形结

构。决策树依据特征将数据划分到若干子树,然后再对它 的子树划分,直到满足某条件时作为叶子节点,如果不满 足条件就继续对其划分。随机森林由多颗随机建立的决策树组成,在随机森林

中每一棵决策树之间是无关联的。训练好随机森林的模型 后,当输入新的样本时,随机森林中的每棵决策树均对输

入样本进行判断,预测此输入样本属于哪类,哪类被选择 类。kNN所选择的邻居均是已经正确分类的,待分样本所

属类的判定仅仅依据最邻近的一个或几个样本k 个 样本特征中 多 均属 类'则。如果样本 样本

也属于这类。1.3数据集在不同的数据集中停用词去留产生的影响可能不尽相 ' 本 取3 个 ' 本类模型同一特征模型下的分类结果进行分析。数据集一为Abdul Fair提供的Twitter情感分析数据 集。该数据集将Twitter情感分为正向和负向两类,其中负

向情感Twitter 6892条、正向情感Twitter 5699条。数据集二为CrowdFlower提供的名为“社交媒体中的 灾难”数据集,收集者们查看了超过10 000条具有类似

“着火”、“隔离”、“混乱”等搜索关键词的Twitter,然后

标记这个Twitter是否和灾难事件有关(与之相反的是一些 玩笑、电影点评或是一些非灾难性的事件)该数据集包括

4672条与灾难相关数据,6186条与灾难无关数据。数据集三来源于斯坦福大学提供的“Sentimen140”数

据集,该数据集三随机抽取了” Sentimentl40”数据集中的

15 000条正向情感Twitter及15 000条负向情感Twitter。1.4评价标准实验分别固定待分析4个因素中的两个,对比每一实

中 停用词和 停用词 类效 , 时 价指标acc的计算,其中,acc为分类准确性得分,即对给定 的测试数据集,分类器正确分类的样本数与总样本数之比。如下acc = TTP 1 TN) ' TTP 1 TN 1 FP 1FN)

其中,TP是被正确地划分为正例的个数;FP是被错误地 划分为正例的个数;FN是被错误地划分为负例的个数;

TN是被正确地划分为负例的个数。2实验与分析2.1数据处理在文本预处理过程中,分别对数据进行编码解析处理、 清除http:形式链接及@内容、清除www.形式链接、转

化为小写、处理否定词、清除数字及特殊符号,然后将数・3182・计算机工程与设计2019 年据的80%作为训练集,20%作为测试集,最后使用Python

Scikit-learn库中 停用词表 中的停用词作为去%<、富更

1-k * —H除停用词。 别 停用 和 停用词数据

进行对比实验分别使用词袋、TF-IDF、Word2Vec以及

GioVe对预处理后数据进行向量表示。其中,Word2Vec和 GloVe词向量是对来 斯 大学提供的

1§1\"Sentimentl40\" 1 600 000 条 Twitter 数据进行训练得来,

训练中特征的维度分别设置为100、200、300、400、500, 此

特征维度特征 化 类效果的影响,其它参数均保实验中完全 。=数据一去除 ™数据二保留 —数据一去除 一一数据二保留= 数据一保留 皿 数据二去除 b 数据三去除 \"数据三保留 …一数据一保留 * 数据二去除 + 数据三去除 一…数据三保留本 用Python调用5种常见的分类模型:逻辑回 归、随机森林、

数在同一实验中均 2.2实验结果与分析图3 逻辑回归 Word2Vec和GloVe(柱状图为使用 Word2Vec,折线图为使用GloVe)树、SVM以及kNN。每种分类模型参全一致,只对比

件下图1

本次实

用词和

用逻辑 归 类 和词袋特征型,特征数量在100到400时 停用词与 停用词准100到1900用同一分类模型不同向量表示方法对去停类, 类结果进确率均 (其中, 特征

停用词的3个 之 特征

停用词准确率 高

为1300时

停用词准确率,且在比 ,观 类准确率与特征 如,图1〜图3为用4种特征

别对3个

化趋势。例向停用词取 高准确率75.40%,高

在1900到4300期间准确率上下波动,在4300到16 000期

表示, 变化趋势图。用逻辑 归 类 准确率 特征停用词准确率

16000 准确率

停用词,当特征数量大停用词准确率 高停用词为700到4000时

, 此时

逻辑回归词袋保留vs去除停用词:准确率0.85 1留停用词; 二在特征

准确 率高

确率

停用 词, 之 下 动, 特征 为停用词准确率较高;数据三无论特征0.80 -15 700时保留停用词准确率达到最高值81. 20%,此后准

%0.75 -<0.70 -、富0.65 1更

0.60 -0.55 -如何变化

样的,从图2

停用词准确率 高于去除停用词准确和TF-IDF率,当特征数为7600时保留停用词准确率最高为76. 63%。用逻辑回归分类

和 无 特征

0.50--------------------------------------------------------------------------------------------------------100 4600 9100 13600 18100 22600特征 , 如何 化,特征数量— 数据一保留停用词

数据二保留停用词 数据三保留停用词

停用词准确率 准确率高

高 停用词,而 二在特征数量一一数据一去除停用词数据二去除停用词-• 一数据三去除停用词小于8500时,准确率上下浮动,大于8500后保留停用词

停用词,当特征 为1300时 停用词图1 逻辑回归词袋取得最高准确率81.65%。图3为用Word2Vec和GloVe分别对文本进行向量表

示, 用Word2Vec后,数据二

0.85 -均表现为 停用词准确率高 停用词, 而

高75. 79%;

特征 时0.80 -停用词 时

准确率表 势, 特征 200用GloVe后,%<、富0.65 -更

0.60 -0.55 -停用词准确率

二在特征

特征 400 时 停用 词 取 高 值

75.00%,

为500维时 依然表现为

停用词取 停用词准确率始0.50 -I-------------------------------------------------------------------------------——高准确率76. 15%, 高

100 4600 9100 13600 18100 22600停用词。树和词袋

特征数量图4、图5为使用决策树分类模型对数据分类。由图可

---- 数据一保留停用词 数据一去除停用词

——数据二保留停用词 —— 数据二去除停用词 ——数据三保留停用词 一… 数据三去除停用词, 用

时3 个 均表 为无 特征 如何 化, 停用词 准确率

图2 逻辑回归TF-IDF停用词。 而 样 用 树 类 , 特征第40卷第11期高巍,孙盼盼,李大舟:Twitter情感分析中停用词处理・3183・变为TF-IDF后, 和 表现为 停用词准确率高 停用词' 二 停用词与 停用词 高准确率相同。SVM词袋保留VS去除停用词:准确率0.850.80%0.75<0.70、富0.65更

0.60%<、富更

0.550.50100 4600 9100 13600 18100 22600特征数量— 数据一保留停用词 一 一数据一去除停用词

数据二保留停用词数据二去除停用词 -■-数据三保留停用词 数据三去除停用词图6 SVM词袋— 数据一保留停用词 一 一数据一去除停用词

数据二保留停用词••…“数据二去除停用词 数据三保留停用词 —数据三去除停用词图4决策树词袋%<、富更

决策树TF-IDF保留VS去除停用词:准确率0.85 ]0.80 -%

<0.70、富0.65更

0.600.550.750.50 \\100

-----------------------------------—4600

— 数据一保留停用词 一 一数据一去除停用词 ― 数据二保留停用词数据二去除停用词 -■-数据三保留停用词•••+••数据三去除停用词9100 13600 18100 22600特征数量— 数据一保留停用词 一 一数据一去除停用词 ― 数据二保留停用词 …••“数据二去除停用词 -■-数据三保留停用词 —数据三去除停用词0.85图 7 SVM TF-IDFkNN词袋保留VS去除停用词:准确率图5 决策树TF-IDF0.80同时,实验使用Word2Vec对文本进行向量表示后数

%

<0.70、富0.65更

0.600.550.75仲囂沁加g稱=二三均

GloVe

停用词取得最高准确率;而在使用二

停用词准确率最高, 依然为 停用词准确率最高。图6、图7为使用SVM分类模型对数据分类分析。由 图 ,使用SVM分类 时, 是用词袋还是TF-IDF 向 特征 ' 和 均表 为 停用词

0.50 ----------------------------------------------------------------------------------------------100 4600 9100 13600 18100 22600的准确率高 停用词。而 二 用词袋 时,特征数量— 数据一保留停用词 一 一数据一去除停用词数据二保留停用词••…“数据二去除停用词 数据三保留停用词 —数据三去除停用词特征 2200保留停用词准确率最高81.19%,使用TF-

IDF 时特征数量4300去停用词准确率最高83. 03%。图 8 kNN 袋用Word2Vec 本 向量表示后数据二三均用GloVe模型数量为16 600时保留停用词取得最高准确率66.67%,当

停用词取得最高准确率;而

停用词准确率最高,

特征 大于16 900后准确率 ,此时 停用词准确

二则为去除停用词准率高 停用词; 二与 化趋势 ,特征确率最高。为8500时 停用词取 高准确率77.06%;

用词袋特征

3个

图8、图9为使用kNN分类模型对数据分类分析。由 图

向量表示,数三无论特征 如何变化保留停用词准确率始终高 •除 停用词,当特征数为13 000时准确率最高为69. 12%。同 样的,从图9

用TF-IDF ,

据一特征 100到16 300之间准确率上下波动,在特征二三前期・3184・kNN TF-IDF保留VS去除停用词:准确率计算机工程与设计表2随机森林最高准确率百分比/%数据一随机森林保留二2019 年数据三保留75.2973.7971.29去除73.4173.4171.8371.03保留81.65去除79.8281.6576.1576.15去除70.4571.2968.78词袋TF-IDF75.0074.2169.4469.8482.1175.6973.85Word2VecGloVe68.6168.95—数据一保留停用词 一 一数据一去除停用词—一数据二保留停用词••…“数据二去除停用词 数据三保留停用词 —数据三去除停用词表3决策树保留决策树最高准确率百分比/%数据一去除63.4963.4966.6763.89二数据三保留69.28图 9 kNN TF-IDF词袋保留75.23去除74.77去除62.6069.0570.6369.44准确率震荡较大,而在特征数量取得最大后,3个数据保 停用词准确率均远高

停用词,取得最大准确率。用Word2Vec和GloVe对文本进行向量表示,使用

Word2Vec,数据一数据三最高准确率均是保留停用词,而

TF-IDF74.3166.9766.0674.3166.0669.9563.1161.2763.77Word2Vec63.6164.44GloVe62.3068.81数据二相反; 率 77. 52%。用GloVe时, 和三均为保留停SVM 表4SVM 准 率 分比/%

二用词取 高值,数据二 停用词取 高准确

数据一保留数据三保留76.4678.9679.4776.96此外,实验还使用随机森林分类模型。使用随机森林

去除73.8173.0275.00保留81.19去除80.28去除72.7974.1274.9672.62分类 和词袋向量表示 时,当特征 大于13 000

词袋TF-IDF75.00时, 停用词准确率高 停用词,在特征数量为停用词准确78.1775.0082.1176.6175.6983.0373.3978.4415 100时 停用词准确率最高75. 00%;数据二与数据

Word2Vec一变化趋势 ,特征 为11 200时, 率最高为81. 65% ;

TFIDF特征模型,

GloVe75.7972.22则表现为无论特征 如何变化停用词的准确率均高 词,

二特征 为11 800时,

停用词。 ,使用

kNN 表5kNN 准 率 分比/%二停用词准确率高 停用停用词准确率最高数据一保留数据三保留69.1268.28去除66.2764.6864.6865.08保留76.6182.1170.6472.94去除77.0678.44去除67.1164.6166.9466.44为82.11%, 依然是无论特征 如何变化 停用词袋TF-IDF66.6767.4668.2567.06词的准确率均高于去除停用词。使用Word2Vec和GloVe本 向 表示 用 机 停用词 取 高准确率#而 高,在使用GloVe

类,

二均停用词准确率Word2Vec75.2377.5269.12停用词准确率最高。GloVe68.613讨论根据以上实验得到见表1〜表5(表1逻辑回归最高准确率百分比/%数据一逻辑回归-保留由表1可以看岀,使用词袋、Word2Vec、GloVe对数

向量表示后用逻辑回归分类模型分类,3个

样为

数据三保留76.6378.6378.9676.63,集•数均为保留停用词准确率更高,其中使用TFIDF对数据一和

停用词准确率更高,

二保留81.1981.19二 则表 为 停用词准确率更高, 是由去除74.60去除81.1981.6573.3976.15去除73.2973.9675.2973.46二 ,

类更多地依赖于与灾难 专有词汇,停用词和词袋TF-IDF75.4077.78灾难相关性较小,影响TF-IDF中的词频及逆向词频的计

73.4175.40停用效果更好。表2表明,使用随机 :分停用词准确Word2Vec类模型和词袋或TF-IDF向量表示方法时,

75.7975.0076.6176.15GloVe率较高;相反的,使用Word2Vec和GloVe特征模型时,

73.41停用词效 ,产生这种结果的原因之一是随机森

第40卷第11期高巍,孙盼盼,李大舟:Twitter情感分析中停用词处理2014: 80-81.• 3185 .林初始随机值不固定。表3为使用决策树分类算法,词袋、

TF-DF、Word2Vec这3种向量表示方法均为保留停用词

[5* KhanF H, QamarU, BashirS6SentiMI\"Introducingpoint-

准确率更高,而GloVe在对数据一和数据二进行分析时,

wisemutualinformation withSentiWordNettoimprovesenti- mentpolaritydetection [J*6AppliedSoftComputing, 2016,

去除停用词效果更好。表4分别为使用SVM和kNN分类 算法,此时除了数据二,其它均为保留停用词准确率较高, 产生这种现象的原因之一为数据二内容的特殊性。39 4)\"140-1536[6* SaifH, He Y, Fernandez M, etal6Semanticpaternsfor

sentimentanalysisofTwiter [C*//Procofthe13thInterna-

此外,使用词袋、TF-IDF特征模型向量表示后用逻辑

回归、随机森林、决策树、SVM分类模型进行分类时,特

tional Semantic Web Conference6 Trentino\" dblp, 2014\"

征数量不需要过大即可达到较高准确率,同时过大的特征

324-3406数量会影响分类的速率。使用Word2Vec、GloVe特征模型

100-400 之 , 用过大型时花费大量的时间,最终分类的准确率也并不会因此 而提高。综合分析可见,对Twitter分类分析中多数情况下保留

停用词效果较好,由于Twitter中字数较少,语言较为精 炼,停用词出现的频率较高,甚至部分Twitter全部为停用

词汇,在语义分析时去除停用词会导致语义信息缺失、破 坏文本原有的句法结构,降低分类准确率,所以多数情况 下保留停用词效果较好,并且提取特征时适当的特征数量 有助于加快分类过程。4结束语本文通过一系列实验研究了停用词去留和特征数量选

取对Twitter分类效果的影响,研究发现,Twitter情感分 类 中多 下

停用词 类准确率 高, 时取特征时适当的特征数量有助于加快分类过程,并且Twi--

ter数据预处理降低了文本噪声的同时有助于提高分类器的

性能这种假设多数情况下不完全成立,这可以为自然语言 处理的研究者提供参考依据。由于本实验只验证了预处理 在常用算法下的影响,下一步将研究在神经网络等其它算

法中的影响以及其它预处理对分类性能的影响。参考文献:[1* Terrana D, Augello A, Pilato G. Automatic unsupervised po­

larity detection on a Twitter data stream [C* //Proc of the 8th International Conference on Semantic Computing. Newport Beach: IEEE Press, 2014: 128-134,[2* Ren Yafeng, Wang Ruimin, Ji Donghong. A topic-enhanced

word embedding for Twitter sentiment classification [J*. Elec­tronic Letters, 2016, 10 (11): 188-19&[3* YoonH G, Kim H, Kim C O, etal.Opinionpolaritydetec-

tionin Twiterdatacombiningshrinkageregressionandtopic

modeling [J*.Informetrics, 2016, 10 (2)\"634-644.[4* SaifH, Fernandez M, He Y, etal.Onstopwords, ltering

anddatasparsityforsentimentanalysisofTwiter [C*//Proc ofthe 9th Language Resources and Evaluation Conference,[7* WANG Rujiao, JI Donghong6Twiteremotion classification

methodbasedonconvolutionneuralnetworkand multi-feature fusion [J*6ComputerEngineering, 2018, 44 (2)\"210-219 (in Chinese).[王汝娇,姬东鸿.基于卷积神经网络与多特征

融合的Twitter情感分类方法[J*.计算机工程,2018, 44

(2): 210-219 *[8* YIShunming, YIHao, ZHOU Guodong ResearchonTwiter

emotionclassificationusingemotionfeaturevector [J* Journal ofChineseComputerSystems, 2016, 37 (11): 2454-2458 (in

Chmese).[易顺明,易昊,周国栋.采用情感特征向量的 Twitter情感分类方法研究[J*.小型微型计算机系统,2016,

37 (11): 2454-2458 *[9* BaoY, QuanC, WangL, etal6Theroleofpre-procesingin

Twitersentimentanalysis [C*//Procofthe10thInternational ConferenceonInteligentComputing6New York: IEEE Xplore,

2014: 615-6246[10* Zhao Jianqiang, Gui Xiaolin6Comparison research on text

pre-processing methods on twitersentimentanalysis [J *6IEEE Access, 2017, 5 (2): 2870-28796[11* HaddiE, Liu X, ShiY6Theroleoftextpre-processingin

sentimentanalysis [J*6Procedia ComputerScience, 2014,

17 (9): 26-326[12* YU Mo6Modelingandlearningofrepresentationsfornatural

languagesentence-levelstructures [D*6Harbin: HarbinIn-

stituteofTechnology, 2016: 32-57 (inChinese)6[ 6自然语言句子级结构表示的建模与学习[D*.哈尔滨:哈尔滨 工业大学,2016: 32-57..[13* WANG Qinqin, ZHANGYuhong, LIPeipei, etal6Across-

domain emotion classification method based on word2vec

[J/OL*6ApplicationResearchofComputers, 2018 (10): 1­

66 [2017-10-10*6ht p : //kns cnki6net/kcms/detail/51 11966TP. 20171010. 1729.00& html (in Chinese).[王勤勤,张玉

红,李培培,等.基于word2vec的跨领域情感分类方法

[J/OL*.计算机应用究,2018 (10): 1-6. [20171010*. htp://kns.cnki.net/kcms/detail/51.1196.TP.20171010.17296008 html6*(下转第3191页)

第40卷第11期陈金广,王星辉!马丽丽:状态与杂波相关的GM-PHD平滑滤波・3191・nese).[欧阳成,姬红兵,杨金龙.一种改进的多传感器粒子 [11* NandakumaranN, TharmarasaR, LangT, etal.Gaussian

mixtureprobabilityhypothesisdensitysmoothing with multi­staticsonar [J*.ProceedingsofSPIE Conferenceon Signal

PHD滤波近似算法[J*.系统工程与电子技术’2012, 34

⑴:50-55..[4* Lv N, Lian F, Han C. Multitarget tracking algorithm based

on clutter model estimation [C* //International Conference on Infomation Fusion, 2013: 1228-1235.Processing, Sensor Fusion and Target Recognition, 2008, 6968 (7): 1-8.[12* Clark D E. First-moment multi-object forward-backward

smoothing [C*//InternationalConferenceonInformationFu-

[5* Lian F, Han C, Liu W. Estimating unknown clutter intensity

for PHD filter [J*. IEEE Transactions on Aerospace & Elec- tronicSystems, 2010, 46 4)\"2066-2078.sion, 2011: 1-6.[13* HeX, LiuG.ImprovedGausian mixtureprobabilityhypothesis

densitysmoother [J*.SignalProcessing, 2016, 120: 56-63.[6* Schlangen I, Delande E, Jeremie Houssmeau, et al. A PHD

filterwithnegativebinomialcluter [C*//InternationalCon- ferenceonInformationFusion, 2016.[14* MahlerR P S, Vo B N, Vo B T.Theforward-backward

probabilityhypothesisdensitysmoother [C*//International ConferenceonInformationFusion, 2010: 1-8.[7* Mahler R P S, Vo B T, Vo B N. CPHD filtering with un-

knowncluterrateanddetectionprofile [J*.IEEE Transac­tions on Signal Processing, 2011, 59 (8): 3497-3513.[15* NagappaS, DelandeED, ClarkDE, etal.Atractablefor-

ward-backwardCPHDsmoother [J*.IEEE Transactionson AerospaceandElectronicSystems, 2017, 53 (1): 201-217.[16* YANGFeng, WANG Yongqi, LIANG Yan, etal.Colabo-

[8* SchlangenI, BhartiV, Delande E, etal.Joint multi-object

andcluterrateestimation withthesingle-clusterPHDfilter

[C* //IEEE International Symposium on Biomedical Imaging,

2017: 10871091.rativePHDfilterforfastmulti-targettracking [J*.Systems

EngineeringandElectronics, 2014, 36 (11): 2113-2121 (in

[9* RezatofighiS H, GouldS, BaT V, et al6Multi-target trac-

kingwithtime-varyingcluterrateanddetectionprofile\"App- licationto time-lapse cel microscopy sequences [J *6IEEE Transactionson MedicalImaging, 2015, 34 (6)\"1336-13486

Chinese).[杨峰,王永齐,梁彦,等.面向快速多目标跟踪

的协同PHD滤波器[*.系统工程与电子技术,2014, 36

(11): 2113-21216*[17* CHENJinguang, SUN Rui, MA Lili6Post-processingalgo-

rithmforGM-CPHDfilterbasedontrack-estimateassociation

[10* MALili, QIN Xiaoshan, CHEN Jinguang. GM-CPHD filter

withstate-dependentcluter [J*6JournalofSystem Simula­

[J*6ComputerEngineeringandApplications, 2015, 51 (8):

189-194 (in Chinese).[陈金广,孙瑞,马丽丽.基于航迹-

tion, 2016, 28 (7): 1637-1643 (in Chinese).[马丽丽,秦

晓姗,陈金广.一种状态与杂波相关条件下的GM-CPHD算

估计关联的GM-CPHD后处理算法[*.计算机工程与应用,

2015, 51 8): 189-194 *法[*.系统仿真学报,2016, 28 (7): 16371643.](上接第3185页)[14* ZHENG Yanan, TIAN Dagang A textclassificationstudybasedon GloVeand SVM [J* Software Guide, 2018, 17(6): 45-48 (in Chinese).[郑亚南,田大钢.基于 GloVe 与[J/OL*6ApplicationResearchofComputers 2018 (10): 1­

36 [2017-10-10*6htp://knscnki6net/kcms/detail/51 11966TP. 20171010.1729. 024. html (in Chinese).[刘黎志,邓介

一,吴云韬.基于Hbase的多分类逻辑回归算法研究

SVM的文本分类研究[J*.软件导刊,2018, 17 (6): 45-48 *[15* LIU Lizhi, DENG Jieyi , WU Yuntao. Research on multiple

classification logic regression algorithm based on Hbase

[J/OL*.计算机应用研究,2018 (10): 1-3. [20171010*. htp://kns6cnki6net/kcms/detail/51611966TP6201710106 1729024 html *

因篇幅问题不能全部显示,请点此查看更多更全内容