基于SVM的新型冷藏箱生鲜冷链共配订单分类模型开题报告
2020-02-20 07:18:22
1. 研究目的与意义(文献综述)
1.1背景 我国通过改革开放政策,经济得到空前的发展,进入21世纪之后,产业迅速转型,快递服务产业在政策扶持和大量资金注入的情形下发展势头迅猛。近两年来,互联网产业蓬勃发展,“互联网 ”的概念迅速延伸,民众消费观念改变,致使电子商务的急速发展,网上购物成几何倍数的成交量,中国快递行业仍然持续着快速增长的良好势头,业务量与年剧增,到2014年,我国的业务量跃居全球第一。但现存的冷链物流的配送成本居高不下,且末端配送受设备限制效率低下。泡沫箱生鲜法易造成产品变质,与其他网点联合配送的方法难以实现全程冷链的问题仍然不可忽视。中国每年在运输中由于腐烂变质的水果、蔬菜、乳制品和其他易损食品的总损失达 750 亿元。 现有一种新型冷藏箱可以在一定程度上替代冷藏车在冷链末端发挥的配送作用,所有部件型号与参数已知。目前国内的生鲜货物由冷藏仓库运输至末端经销商的工作绝大多数情况下是由冷藏车完成的,但是存在经销商的位置、所需货物数量、时间、货物兼容性等诸多因素,导致订单不能被合理分类,增加了运输的各项成本。所以寻找合理的订单分类方式与运输模式是解决以上问题的关键。 从现象中发现规律,是人类智能的核心的能力之一,人们也很早就开始研究如何用数学方法来分析数据中的规律[1]。Vapnik[2-4]、 Drucker[5]等学者提出的支持向量机算法(SVM)和机器学习的统计学分析专著——统计学习理论( SLT )[6-8],是近10年来机器学习、模式 识别以及神经网络界最有影响力的成果之一,支持向量机分类算法具有4个显著特点:1)利用大间隔 的思想降低分类器的VC维,实现结构风险最小化原则,控制分类器的推广能力;2) 利用Mercer核实现线性算法的非线性化;3)稀疏性,即少量样本(支持向量)的系数不为零,就推广性而言,较少的支持向量数在统计意义上对应好的推广能力,从计算角度看,支持向量减少了核形式判别式的计算量;4)算法设计成凸二次规划问题,避免了多解性。 1.2目的与意义 (1)随着生活水平的提高,人们对生活品质的要求也越来越高,对多样性及鲜度提出了更高要求。在日常生活中传统的注重价格也已经改变为注重价值,消费者对质量高的产品愿意付出更多的费用。特别是针对新鲜蔬菜、水果、肉食、海鲜等易腐品,其鲜美程度与食用安全程度不仅是消费者最关心的方面,而且也体现着它的真正价值。对比一般商品,易腐商品有着其独有的特征,比如容易腐烂变味或有效期不长等,所以在供应链流通过程中会采取一些保鲜技术,使易腐品在流通过程中处于低温状态,延缓商品衰败。因此冷链物流应运而生,并且在物流行业起到至关重要的作用。而为了提高我国食品及药品等商品的质量和安全,满足人们更高的需求,减少在运输过程中的资源浪费情况,并提高商品的安全和质量,必须发展好冷链物流。通过食品冷链物流的发展现状可以得出,冷链食品的发展必须依靠冷链物流的进步,必须建立健全冷链物流体系,不断优化冷链物流的设计规划,才能促进冷链物流事业的快速发展。 (2)统计学习理论是一种专门研究小样本情况下机器学习规律的理论。该理论针对小样本统计问题建立了一套新的理论体系,在该体系下的统计推理规则不仅考虑了对渐近性能的要求,而且追求在现有有限信息的条件下得到最优结果。支持向量机是建立在统计学习理论VC维理论和结构风险最小化原理基础上的机器学习方法。它在解决小样本、非线性和高维模式识别问题中表现出许多特有的优势,并在很大程度上克服了“维数灾难”和“过学习”等问题[9]。 1.3国内外发展现状 1.3.1分类算法 (1)支持向量机分类。Lau等[10]为SVM提出一种在线学习算法,用于处理按顺序逐渐提供输入数据的分类问题。该算法速度快,所用的支持向量个数少,具有强泛化能力。Pavel等[11]提出一种快速,数值稳定和鲁棒的增量支持向量机学习方法。Huang等[12]提出一种大边缘分类器,与其他大边缘分类器或局部构建分离超平面不同,该模型能局部和全局地判定边界。Kim等[13]提出适用于大数据的特征提取和分类算法。 (2)决策树分类。传统决策树作为一种经典的分类学习算法,对大数据处理存在内存开销过大的问题。Franco-Arcega等[14]提出一种从大规模数据中构造决策树的方法,解决当前算法中的一些限制条件,可利用所有的训练集数据,但不需将它们都保存在内存中。Yang等[15]提出一种增量优化的快速决策树算法用于处理带有噪音的大数据。与传统的挖掘大数据的决策树算法相比,该算法的主要优势是实时挖掘能力,这使得当移动数据流是无限时,它能存储完整的数据用于再训练决策模型。 Ben-Haim等[16]提出一种构建决策树分类器的算法。该算法在分布式环境中运行,适用于大数据集和流数据,与串行决策树相比,在精度误差近似的前提下能提高效率。 (3) 神经网络与极端学习机。传统前馈神经网络一般采用梯度下降算法调整权值参数,学习速度慢、泛化性能差等问题是制约前馈神经网络应用的瓶颈。Huang等[17]摒弃梯度下降算法的迭代调整策略,提出ELM。该方法随机赋值单隐层神经网络的输入权值和偏差项,并通过一步计算即可解析求出网络的输出权值。相比于传统前馈神经网络训练算法需经多次迭代调整才可最终确定网络权值,ELM 的训练速度获得较显著提升。 1.3.2聚类算法 聚类学习是最早被用于模式识别及数据挖掘任务的方法之一,并且被用来研究各种应用中的大数据库,因此用于大数据的聚类算法受到越来越多的关注。Havens等[18]对比3种扩展的模糊c均值(FCM)聚类算法对于大数据的执行效率。Xue等[19]提出一种压缩感知性能提升模型用于大数据聚类,该模型定量分析整个计算过程中与压缩有关的诸多因素的影响。Hall等[20]研究二次抽样方法以提高聚类算法的可扩展性。Zhao等[21]提出基于MapReduce的 K-means算法,在speed up、size up、scale up这3个指标上获得较好的并行性能。Papadimitriou等[22]给出一种利用MapReduce模型实现协同聚类的系统框架—分布式协同聚类框架,并引入分布式数据预处理、协同聚类等方法,在Hadoop上实现该系统。Ferreira 等[23]给出一种利用MapReduce开展大规模数据聚类的方法。 1.3.3 新型冷藏箱的开发 Jung[24]设计出一种依附于发展中国家的疫苗冷藏箱,通过与摩托车或者汽车相连来解决发展中国家能源不稳定问题,并且稳定冷藏箱内温度保持在最适宜的2-7℃。Jorge等[25]提出在低能源供应条件下使用石墨烯基纳米符合材料作为疫苗冷藏箱的隔热材料。Wan等[26]提出了一种基于不规则数据的提高风能效率的预测模型。Dakkama等[27]设计了一种集成式蒸发器-冷凝器级联低温吸附系统。Youssef等[28]进行了一系列关于集成式蒸发器-冷凝器的吸附-脱盐-制冷循环数值模拟。Fedhel等[29]设计了一种新型低级吸附式制冷发电系统。 |
2. 研究的基本内容与方案
2.1基本内容 (1)对国内外物流业尤其是冷链物流的发展现状分析,结合具体情况得出导致物流成本居高不下、配送客户满意度不高的因素: (2)基于一种新的可充电式冷藏箱探寻新的联合或者单独生鲜配送模式。 选取多种可能有效减少生鲜货物冷链运输成本的联合或独立生鲜配送模式,例如冷藏车与冷藏箱分别配送,冷藏车与冷藏箱混合配送等等。 (3)应用SVM建立生鲜冷链共配订单分类模型,对订单分类。 针对经销商需求订单选取时间、数量(重量)、地理位置等特征参数,建立指标体系并量化。根据上述配送模式对订单进行分配。 (4)建立成本计算模型,生成基于数据对比的报告。 比较新模式与原有模式的配送成本,必要时可以设置客户满意指数,形成关于加入新型冷藏箱的生鲜冷链配送模式可行性分析。 2. 2 设计技术方案 (1)通过阅读相关文献等方式,熟悉目前国内生鲜冷链末端配送模式,主要包括运输载具的型号、制冷性能、容量等等。了解其路径规划方法。再与新型冷藏箱相结合,探寻新的配送模式。 (2)SVM技术建模。收集订单基础特征数据,包括地址、时间、需要不同保温环境的货物数量(重量),确定训练集与测试集、核函数、关键参数,最后训练模型。其中关键参数包括惩罚因子C与核参数g,本研究选用网格搜索法来确定惩罚因子和核参数。最后使用MATLAB或PYTHON建立模型。 (3)熟悉生鲜冷链配送的流程,明确的成本构成,建立成本计算模型,形成多种方式并行的生鲜冷链订单共配模式成本分析。 |
3. 研究计划与安排
周次 | 目标任务 |
1 | 接收任务书,查阅文献与资料,完成阅读报告; |
2 | 翻译相关的英文资料; |
3 | 提交开题报告,完成开题工作 |
4 | 明确论文的写作思路,构思论文的框架,完成论文写作提纲; |
5-6 | 针对需求订单选取特征参数,建立指标体系并将其量化; |
7 | 建立生鲜冷链共配订单分类模型; |
8-9 | 使用编程软件应用SVM算法实现分类; |
10 | 建立成本计算模型,生成基于数据对比的结论; |
11 | 完成毕业论文初稿; |
12-13 | 对初稿进行修改和完善,终稿完成、打印、装订;整理各项毕业设计材料并提交毕业论文,准备答辩用的PPT演讲材料; |
14-15 | 论文提交评阅,完成毕业论文答辩。 |
4. 参考文献(12篇以上)
[1] 胡越,罗东阳,花奎,等.关于深度学习的综述与讨论[J].智能系统学报,2019, 14(1):119. [2] Boser B E, Guyon I M, Vapnik V N. A training Algorithm for optimal margin Classifiers [A]. The 5th Annual ACM Workshop on COLT [C]. Pittsburgh: ACM Press, 1992. 144-152. [3] Cortes C, Vapnik V N. Support vector networks [J]. Machine Learning, 1995, 20(3):273-297. [4] Vapnik V N, Golowich S, Smola A. Support vector method for function Approximation, regression estimation and signal processing [A]. Advances in Neural Information Processing Systems [C]. Cambridge: MIT Press, 1997. 281-287. [5] Drucker H, Burges C J C, Kaufman L, et al. Support vector regression machines [A]. Advances in Neural Information Processing Systems[C]. Cambridge: MIT Press, 1997. 155-161. [6] Vapnik V N. The Nature of Statistical Learning Theory [M] .New York: Springer-Verlag, 1995. [7] Vapnik V N. Statistical Learning Theory [M]. New York: Wiley, 1998. [8] Vapnik V N. The Nature of Statistical Learning Theory [M]. 2nd edition. New York: Springer-Verlag, 1999. [9]丁世飞,齐炳娟,谭红艳.支持向量机理论与算法研究综述[J].电子科技大学学报, 2011,40(1):2-10. [10] Lau K W, Wu Q H. Online Training of Support Vector Classifier [J]. Pattern Recognition, 2003, 365(8). [11] Pavel L, Christian G, Stefan K, Klaus M. Incremental Support Vector Learning: Analysis, Implementation and Application [J]. Machine Learning Research, 2006, 7: 1909-1936. [12] Huang K, Yang H, King L, Maxi-Min Margin Machine: Learning Large Margin Classifiers Locally and Globally [J]. IEEE Trans on Neural Networks,2008,19(2):260-272. [13] Kim B J. A Classifier for Big Data [C]. Proc of the 6th International Conference on Convergence and Hybrid Information Technology. Daejeon, Republic of Korea, 2012:505-512. [14] Franco-Arcega A, Carrasco-Ochoa J A,Sánchez-Díaz G, et al. Building Fast Decision Trees from Large Training Sets [J]. Intelligent Data Analysis,2012,16(4):649-664. [15] Hang Y, Fong S. Incrementally Optimized Decision Tree for Noisy Big Data [C]. Proc of the 1st International Workshop on Big Data, Streams and Heterogeneous Source Mining: Algorithms, Systems, Programming Models and Applications. Beijing,China,2012: 36-44. [16] Ben-Haim Y,Tom-Tov E. A Streaming Parallel Decision Tree Algorithm [J]. Journal of Machine Learning Research,2010,11: 849-872. [17] Huang G B, Zhu Q Y, Siew C K. Extreme Learning Machine: Theory and Applications. Neurocomputing, 2006,70 ( 1 /2 /3 ): 489-501. [18] Havens T C, Bezdek J C, Leckie C, et al. Fuzzy c-means Algorithms for Very Large Data [J]. IEEE Trans on Fuzzy Systems, 2012,20(6): 1130-1146. [19] Xue Z H, Shen G, Li J H, et al. Compression-Aware I /O Performance Analysis for Big Data Clustering [C]. Proc of the 1st International Workshop on Big Data, Streams and Heterogeneous Source Mining: Algorithms, Systems, Programming Models and Applications, Beijing, China, 2012: 45-52. [20] Hall L O. Exploring Big Data with Scalable Soft Clustering [C]. Proc of the 6th International Conference on Soft Methods in Probability and Statistics. Konstanz, Germany , 2012:11-15. [21] Zhao W Z, Ma H F , He Q. Parallel k-means Clustering Based on MapReduce [C]. Proc of the 1st International Conference on Cloud Computing and Big Data. Beijing, China, 2009: 674-679. [22] Papadimitriou S,Sun J M. DisCo: Distributed Co-clustering with MapReduce: A Case Study towards Petabyte-Scale End-to-End Mining [C]. Proc of the 8th IEEE International Conference on Data Mining. Pisa, Italy, 2008: 512-521. [23] Ferreira C R L, Junior T C, Traina A J M, et al. Clustering Very Large Multi-dimensional Datasets with MapReduce [C]. Proc of the 17th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. San Diego, USA, 2011: 690-698. [24] Jung W M. IoT based Vaccine Carrier Monitoring and Self-Learning Algorithm to Optimize Power Consumption in Developing Countries [D]. Seoul National University, 2018:1-41. [25] Jorge M P A, Hernán F V V, et al. Application: Graphene nanocomposite for improvement of vaccine transportation cold chain [J]. Revista EIA, ISSN 1794-1237, Year XII, Volume 12, Special Edition No. 3, May 2016, pp. E59-E67. [26] Wan, Can, Zhao Xu, Pierre Pinson, Zhao Yang Dong, and Kit Po Wong. "Probabilistic Forecasting of Wind Power Generation Using Extreme Learning Machine." [J]. IEEE Transactions on Power Systems 29, no. 3 (2014): 33 1033-044. [27] Dakkama H J, Elsayed A, Al-Dadah R K, Mahmoud S M, and Youssef P G. Integrated evaporator– condenser cascaded adsorption system for low temperature cooling using different working pairs [J]. Applied Energy 185 (2017): 2117-126. [28] Youssef P G, Mahmoud S M, Al-Dadah R K. Numerical simulation of combined adsorption desalination and cooling cycles with integrated evaporator/condenser [J]. Desalination, 2016, 392:14-24. [29] Al-Mousawi F N, Al-Dadah R, Mahmoud S. Novel adsorption system for cooling and power generation utilizing low grade heat sources[C]. Students on Applied Engineering. IEEE, 2017. |