登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 开题报告 > 理工学类 > 统计学 > 正文

递归神经网络在影评情感分析中的应用开题报告

 2022-01-07 21:54:48  

全文总字数:3506字

1. 研究目的与意义及国内外研究现状

1)目的:应用递归神经网络的算法对于互联网影评数据库上50000条电影评分的二元情感倾向进行分类,得到情感分类准确率;利用词袋模型、词语向量化模型、词频-逆向文本频率等情感分析方法,结合诸如决策树、logistic回归、随机森林等神经网络,尝试使用gridsearchcv、核外学习等计算方法,同样比例划分训练集和测试集,与递归神经网络算法的情感分类准确率结果相比较,对如何正确地对大数据集进行情感分析得出有用的结论。

2)研究意义:电影已经成为21世纪重要的娱乐活动之一。人们渴望欣赏到高质量、具有艺术性、兼具娱乐性而又反映社会现实的优秀电影,而导演和制作人也希望制作更符合大众要求的电影产品,同时实现利润。互联网电影数据库是针对电影、家庭录像带、电视节目和录像游戏等评价的数据库。随着网站用户数的增加,对逐渐累积的作品评论进行情感分析对于电影创作人对作品的改进、市场营销等都具有很重要的作用。传统的情感分析方法应用于电影评价如何才能得到好的效果,具有记忆性的递归神经网络模型是否可以应用于情感分析得到理想的情感分析准确率,以及将情感分析算法和不同种的神经网络相结合是否能够取得理想的效果,需要我们对理论知识深刻理解并且变成计算。我们希望能够更深入地理解电影评价的情感分析问题,继而帮助电影制作人得到更精准的反馈。

国内外研究现状

神经网络的第一个模型—感知器模型在1957年首次被提出,关于情感分析问题的研究兴起于20世纪末。bo pang,lillian le等学者提出了以文件为单元进行情感分析。2007年minqing hu,bing liu及soo-min kim,eduard hovy等学者提出以句子为单元进行情感分析。2009年apoorv agarwal,fadi biadsy,kathleen r. mckeown等学则提出以短语为单元进行情感分析。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 研究的基本内容

1)原始数据的采集及处理,采用了来源于maas and others的5000条电影评价和积极或者消极的分类标签数据,其中第一列是50000条电影评价的英文文本,第二列是情感打分,其中数字1表示积极评价,数字0表示消极评价。

2)利用带有长-短期记忆单元的递归神经网络将互联网影评数据库上五万条二元情感倾向数据划分成训练集和测试集,根据训练集拟合到的模型对测试集计算情感分类的准确率,并且比较不同层数的神经网络和数据集不同训练集合和测试集合的划分方式的情感分析准确率结果。

3)将其它神经网络如随机森林、决策树、knn、支持向量机、logistic回归、多重神经网络等在对数据集作相同比例的训练集与测试集划分的前提下,对数据集作相同的前期处理,得到情感分析的准确率。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

3. 实施方案、进度安排及预期效果

1)实行方案:阅读关于情感分析的相关文献,学习情感分析的方法;搜集合适的影评数据;了解研究者们在情感分析中所做的工作,找到适合数据集的情感分析处理方法。利用所学神经网络理论和python软件进行分析,建立合适的模型,比较不同方法进行情感分析的准确率。比较带有长短期记忆单元的递归神经网络使用不同方法组合进行情感分析的准确率差异,从而给电影制作人提供启示。

2)进度:3月中旬-4月中旬:了解课题研究的内容,查阅相关资料,学习相关知识,确定基本的研究方案并撰写任务书和开题报告;4月中旬-4月下旬:采集相关数据,整合资料,分析计算模型,并准备中期报告;5月初-5月中下旬:整理相关结果,撰写毕业论文;5月下旬起完善论文并准备论文答辩。

3)预期效果:用带有长 短-期记忆单元的递归神经网络模型成功训练长度为50000的影评数据集,得到情感分析的正确率,并且将各种情感分析技术和各种神经网络方法以及gridsearchcv、核外学习等计算方法结合,尝试计算不同组合下情感分类的准确率。最终,我们比较不同种模型进行情感分析的准确率的高低、训练过程的难易,得出能够更好地进行情感分析的方法,给电影制作人和导演等需要了解观影爱好者需求的专业人士提供有用的帮助。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

4. 参考文献

[1] sebastian raschka,vahid mirjalil.python machine learning [m].birmingham:packt publishing ltd.,2017..

[2]wojciech zaremba,ilya sutskever, oriol vinyals.recurrent neural network regularization[j].iclr 2015 conference,2015.

[3] haim sak, andrew senior, franoise beaufays.long short-term memory recurrent neural network architectures for large scale acoustic modeling[j].15th annual conference of the international speech communication association,2014,338-342

剩余内容已隐藏,您需要先支付 5元 才能查看该篇文章全部内容!立即支付

微信号:bysjorg

Copyright © 2010-2022 毕业论文网 站点地图