登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 文献综述 > 电子信息类 > 电子科学与技术 > 正文

基于支持向量机的图像分类设计与实现文献综述

 2020-04-14 19:44:17  

1.目的及意义
1研究背景与意义
(1)图像分类
图像分类,根据各自在图像信息中所反映的不同特征,把不同类别的目标区分开来的图像处理方法。它利用计算机对图像进行定量分析,把图像或图像中的每个像元或区域划归为若干个类别中的某一种,以代替人的视觉判读
所谓图像分类问题,就是已有固定的分类标签集合,然后对于输入的图像,从分类标签集合中找出一个分类标签,最后把分类标签分配给该输入图像。虽然看起来挺简单的,但这可是计算机视觉领域的核心问题之一,并且有着各种各样的实际应用。在后面的课程中,我们可以看到计算机视觉领域中很多看似不同的问题(比如物体检测和分割),都可以被归结为图像分类问题。
(2)支持向量机
支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervised learning)方式对数据进行二元分类(binary classification)的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin hyperplane)。
SVM是由模式识别中广义肖像算法(generalized portrait algorithm)发展而来的分类器,其早期工作来自前苏联学者Vladimir N. Vapnik和Alexander Y. Lerner在1963年发表的研究。1964年,Vapnik和Alexey Y. Chervonenkis对广义肖像算法进行了进一步讨论并建立了硬边距的线性SVM。此后在二十世纪70-80年代,随着模式识别中最大边距决策边界的理论研究、基于松弛变量的规划问题求解技术的出现,和VC维(Vapnik–Chervonenkis,VC dimension)的提出,SVM被逐步理论化并成为统计学习理论的重要部分。1992年,Bernhard E. Boser、Isabelle M. Guyon和Vapnik通过核方法首次得到了非线性SVM。1995年,Corinna Cortes和Vapnik提出了软边距的非线性SVM并将其应用于手写数字识别问题,这份研究在发表后得到了广泛的关注和引用,为其后SVM在各领域的应用奠定了基础。
SVM使用铰链损失函数(hinge loss)计算经验风险(empirical risk)并在求解系统中加入了正则化项以优化结构风险(structural risk),是一个具有稀疏性和稳健性的分类器。SVM可以通过核方法(kernel method)进行非线性分类,是常见的核学习(kernel learning)方法之一。
SVM被提出于1963年,在二十世纪90年代后得到快速发展并衍生出一系列改进和扩展算法,包括多分类SVM、最小二乘SVM(Least-Square SVM, LS-SVM)、支持向量回归(Support Vector Regression, SVR)、支持向量聚类(support vector clustering)、半监督SVM(semi-supervised SVM, S3VM)等,在人像识别(face recognition)、文本分类(text categorization)等模式识别(pattern recognition)问题中有广泛应用。
Image classification, according to the different characteristics reflected in the image information, distinguishes the different categories of objects from the image processing methods. It uses computer to analyze image quantitatively and classifies every pixel or region of image or image into one of several categories instead of human visual interpretation.
The so-called image classification problem is that there is a fixed set of classification labels, and then for the input image, a classification label is found from the set of classification labels, and finally the classification label is assigned to the input image. Although it seems quite simple, it is one of the core problems in the field of computer vision and has a variety of practical applications. In the following courses, we can see that many seemingly different problems in the field of computer vision (such as object detection and segmentation) can be reduced to image classification.
Support Vector Machine (SVM) is a kind of generalized linear classifier which classifies data by supervised learning. Its decision boundary is the maximum margin hyperplane for solving learning samples.
SVM is a classifier developed from the generalized image algorithm in pattern recognition. Its early work came from the research published in 1963 by former Soviet scholar Vladimir N. Vapnik and Alexander Y. Lerner. In 1964, Vapnik and Alexey Y. Chervonenkis further discussed the generalized image algorithm and established a linear SVM with hard margins. Since then, in the 1970s and 1980s, with the emergence of the theoretical study of the maximum margin decision boundary in pattern recognition, the planning problem solving technology based on relaxed variables, and the proposal of VC dimension, SVM has gradually been theorized and become an important part of statistical learning theory. In 1992, Bernhard E. Boser, Isabelle M. Guyon and Vapnik obtained nonlinear SVM for the first time by kernel method. In 1995, Corinna Cortes and Vapnik proposed the soft margin nonlinear SVM and applied it to handwritten numeral recognition. This research has been widely concerned and cited after its publication, which laid a foundation for the application of SVM in various fields.
SVM is a sparse and robust classifier, which uses hinge loss function to calculate empirical risk and adds regularization term to the solution system to optimize structural risk. SVM can be classified nonlinearly by kernel method, which is one of the common kernel learning methods.
SVM was proposed in 1963, and developed rapidly after 1990s. A series of improved and extended algorithms, including multi-classification SVM, least squares SVM, support vector regression, support vector clustering, semi-supervised SVM, have been widely used in pattern recognition such as image recognition and text classification.
2研究现状

SVM通过平面将空间中的实例划分到不同的类别,从而实现分类。这里的空间包括二维空间,三维空间,一直到高维空间,具体的维数等于实例的特征数量,如果我们待分类的图片是32*32*3(长宽分别是32个像素,RGB3个颜色通道)维的,那么图片所处的空间就是3072维的空间。在这个高维空间,我们通过由权重向量W和偏置项b确定的一个(实际上是一组)超平面来将图片进行分类。这里每一个平面都将整个高维空间划分成两部分,平面的一侧是某一类图片,另一侧是这个类别之外的其他图片。比如红色的平面一侧是汽车这个类别,另一侧是非汽车类别。每一个类别都对应一个平面,这些平面互相之间不存在关联,利用SVM模型进行分类的目的就是确定这样一组平面,使得同一类尽可能划分在该类对应的平面的一侧,其他类尽可能在另一侧,而且两种类别离平面的距离越大越好(平面尽可能把两类分的更开),这是SVM模型的思路。

支持向量机理论自20世纪90年代提出以来,在各种应用领域表现出较好的推广能力,得到了广泛应用,并在模式识别领域已经得到成功应用。在模式识别领域的第1个应用是手写数字的识别,此后逐渐应用于人脸识别与人脸检测以及文本分类等各种领域。
支持向量机在生物信息领域,如蛋白质的分类和DNA分析等,取得了较好结果。此外,支持向量机还应用于时间序列分析、回归分析、聚类分析、动态图像的人脸跟踪、信号处理、语音识别、图像分类和控制系统等诸多领域。

{title}

2. 研究的基本内容与方案

{title}

3研究目标
通过svm算法来实现对于一组图片的分类。


4研究内容
(1)数据获取
比如摄像机或视频头的输出,通过采样获得数据,也可以是一般的统计数据集,其中的数据以向量或矩阵形式表示,或者是已经准备好的待检测的图片
(2)训练图片特征提取和选择
特征提取是指从对象本身获取各种对于分类有用的度量或属性。

特征选择是指如何从描述对象的多种特征中找出那些对于分类最有效的特征。

特征提取我们用到了surf算法。

Surf具有比sift快的检测速度。


对某一类模式的识别,其关键在于对模式特征的描述以及如何去提取这些特征。

征描述直接影响到特征提取以及特征向量库的建立,并影响到最后分类识图像的特征提取和分类别精度的高低 从理论上讲,个体的特征是唯一的,这是因为不存在完全相同的两个个体。

但是由于客观条件限制的存在,往往使得选取的特征并不是描述个体的特征全集,而只是特征的一个子集。

剩余内容已隐藏,您需要先支付 5元 才能查看该篇文章全部内容!立即支付

微信号:bysjorg

Copyright © 2010-2022 毕业论文网 站点地图