基于统计学习理论的支持向量机回归方法非线性建模.doc
《基于统计学习理论的支持向量机回归方法非线性建模.doc》由会员分享,可在线阅读,更多相关《基于统计学习理论的支持向量机回归方法非线性建模.doc(33页珍藏版)》请在沃文网上搜索。
1、摘 要基于统计学习理论的支持向量机回归方法,是一种崭新的系统辨识和建模的有力工具。它建立在完备的理论基础之上,综合了经验风险最小化和结构风险最小化的原则,它克服了神经网络存在局部极小,泛化能力差,结构需要经验确定的缺点,能够任意逼近复杂非线性函数,目前具有良好的泛化性能。它最初主要用于模式识别领域,近几年越来越受到控制界的关注。1999年Suykens与Vandewall将支持向量机的二次规划问题替换为一组线性等式,提出了最小二乘支持向量机(LS-SVM )。与采用线性或非线性规划方法的其它支持向量机算法相比,LS-SVM具有降低计算复杂度的优点。因此,最小二乘支持向量机在许多分类或回归估计问
2、题中取得了很好的应用效果。关键词:最小二乘支持向量机;非线性系统; 建模;Matlab AbstractThe support vector machine regression(SVMR) based on Statistical Learning.Theory(SLT) is a novel powerful tool of system identification and modeling. It is based on a complete theory and the idea of tradeoff between Emprical Risk Minimization (ERM)
3、 and Structural Risk Minimization (SRM).It provide high generalization ability and overcomes the overfitting problem experienced hy the otherlearning technique such as ANN. The training of SVM is done by quadratic programming possessing a global solution, which overcomes the problem of local minima
4、suffered by classical neural network. An interesting and important property of SVMs solutions is that one obtains a sparse approximation, in the sense that its structure is naturally decided instead of decision based on experience of ANN. It could approach any nonlinear function. Initially, it was r
5、ecognition, recent years, it was payed more attention to by mainly used for pattern control domain.In 1999, Suykens and Vandewalle proposed a modified version of SVM forclassification, which is called least square support vector machine (LS-SVM) and resulted in a set of linear equations instead of a
6、 convex quadratic programming (QP) problem. Especially, LS-SVM has a significant advantage of the lower computational complexity than the other support vector machine formulations using linear or nonlinear mathematical programming. Therefore, Least squares support vector machine has shown an excelle
7、nt classification or regression performance in many appli cati ons.Key words: Least squares support vector machine; modeling; Nonlinear System;matlab目 录第1章绪论1第2章统计学习理论与支持向量机42.1 统计学习理论42.2支持向量机92.3本章小结17第3章最小二乘支持向量机173.1最小二乘支持向量机183.2 基于LS-SVM的回归建模203.3 LS_SVM的工具箱安装实例213.4本章小结24第4章 基于LS_SVM的非线性系统建模方
8、案分析254.1发酵过程模型建立254.2仿真实验274.3本章小结29参考文献29致 谢3030第1章 绪论人工智能是计算机科学与技术学科领域的一个重要方向,主要以研究计算机系统模拟人类智能行为为日标,是一门多学科相互渗透,具有实用价值的新兴边缘交义学科。自1956年诞生以来,尽管人工智能学科的发展经历了曲折的过程,但它在知识表示、自动推理、认知建模、机器学习、神经计算、自然语言理解、专家系统等方向上开展了大量的研究工作,取得了相当大的进展和较多的成果,对其他学科的发展产生了积极的影响。学习是人类的基本智能活动,是获取知识、积累经验、增进智能、发现规律、适应环境的过程。人的认识能力和智慧才能
9、是在不断的学习中逐步形成、发展和完善的。随着计算机时代的到来,研究人员不断地努力,试图给计算机赋予学习能力。使计算机系统具有某种学习能力,即所谓的机器学习,是人工智能研究的一个热点。机器学习至今还没有统一的定义,按照西蒙(H. A. S imon)的定义,机器学习就是“系统在不断重复的工作中对本身能力的增强或改进,使得系统在下一次执行同样的任务或者类似的任务时,会比现在做得更好或效率更高”。从计算机科学角度,可以把机器学习定义为:研究计算机获取新知识和新技能,并识别现有知识的科学。机器学习主要研究以下二方面的问题:(1)学习机理。这是对人类学习机制的研究,即人类获取知识、技能和抽象概念的天赋能
10、力。通过这一研究将从根本上解决机器学习中存在的多种问题。(2)学习方法。研究人类的学习过程,探索各种可能的学习方法,建立起独立于具体应用领域的学习算法。(3)学习系统。根据特定任务要求,建立相应的学习系统。机器学习的发展极为迅速,应用亦日益广泛,有很多优秀的学习算法,基本上可以分为基于符号学习和基于非符号学习(连接学习)。其中符号学习比较好的有机械式学习、指导式学习、示例学习、类比学习、基于解释的学习。随着人工智能研究的进展,人们逐渐发现研究人工智能的最好方法是向人类自身学习,因而引入了一些模拟进化的方法来解决复杂优化问题,其中富有代表性的是遗传算法。遗传算法的生物基础是人类生理的进化及发展,
11、这种方法被称为进化卞义。另一方面,神经网络的理论是基于人脑的结构,其日的是揭示一个系统是如何向环境学习的,此方法被称为连接主义。这两种方法与传统方法大相径庭,因而,近年来许多科学家致力于这两种方法的研究。另外由于统计学习理论(Statistical Learning Theory)的发展,提出了支持向量机(Support Vector Machines,简称SVM)的学习算法,由于其出色的学习性能,尤其是泛化能力,引起了人们对这一领域的极大关注。 长期以来,统计是我们面对数据而又缺乏理论模型时最基本的和唯一的分析手段。传统统计学所研究的是渐进理论,即当样本数日趋向于无穷大时的极限特性。统计学中
12、关于估计的一致性、无偏性和估计方差的界等,以及分类错误率的诸多结论,都属于这种渐进特性。但实际应用中,这种前提条件却往往得不到满足,当问题处在高维空间时尤其如此,这实际上是包括模式识别和神经网络等在内的现有机器学习理论和方法中的一个根本问题。Vapnik等人早在20世纪60年代就开始研究有限样本情况下的机器学习问题,由于当时这些研究尚不十分完善,在解决模式识别问题中往往趋于保守,且数学上比较艰涩,而直到90年代以前并没有提出能够将其理论付诸实现的较好方法。加上当时正处在其他学习方法飞速发展的时期,因此这些研究一直没有得到充分的重视。直到90年代中,有限样本情况下的机器学习理论研究逐渐成熟起来,
13、形成了一个较完善的理论体系一一统计学习理论。而同时,神经网络等较新兴的机器学习方法的研究则遇到了一些重要的困难,比如,如何确定网络结构问题、过学习和欠学习问题、局部极小点问题等等。在这种情况下,试图从更本质上研究机器学习问题的统计学习理论逐步得到重视。1992年-1995年,在统计学习理论的基础上发展出了一种新的模式识别方法一一支持向量机。支持向量机算法最终归结为求解一个次规划问题,当训练样本增大时,一次规划问题面临着维数灾难。由于内存的限制,大规模问题的求解无法进行。在支持向量机出现之后的短短几年时间,许多研究人员致力于其理论与算法的研究。Osuna等提出了一种分解算法,把标准SVM的QP问
14、题分解成一系列小规模的子QP问题,使得每个子问题容易求解,该算法有效地解决了大规模支持向量机问题。在文献11的基础上,Joachims从选择工作集的角度提出了具体的实现方案,并A由SVM软件来实现文献 11的分解算法。 Platt提出了序列最小优化(Sequential optimal minimization,简称SMO)的分解算法,把标准SVM的QP问题分解成了可以解析求解的最小QP问题,即每个工作集仅由两个样本组成,该方法可以看作是文献11的特例。 Suykens等设计的最小一乘支持向量机(Least Squares Support Vector Machines,简称LS-SVM)把不
15、等式约束换成等式约束,从而使得支持向量机的求解由QP问题转化为一个线性方程组,极大地提高了求解效率,同时降低了求解难度。Suykens等进一步研究了最小一乘支持向量机在回归问题中地应用,同时针对最小一乘支持向量机算法破坏了支持向量的稀疏性这一缺点,提出了稀疏近似的策略,当支持向量谱分布均匀时,该方法不易对支持向量进行取舍。由于支持向量机在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他学习问题中,使得该技术成为机器学习界的研究热点,并在很多领域都得到了成功的应用,如人脸识别、语音识别、时间序列预测、文本自动检测与识别等。本文主要以最小二乘支持向量机算法
16、为基础,根据发酵过程特征,构建完整的软测量模型,进而构成实用的软测量系统,为发酵过程中难测生物参数的在线测量提供一种有效途径。本文内容按章节安排如下:第2章简单介绍了统计学习理论的基本知识和支持向量机的分类与回归算法。第3章首先介绍了最小二乘支持向量机的回归算法,然后简单介绍基于LS_SVM非线性系统的建模流程,最后介绍在MATLAB环境下,LS_SVM工具箱的安装及使用。第4章以基于LS_SVM的GSH浓度测量模型为例,具体介绍LS_SVM非线性系统的建模流程。第2章 统计学习理论与支持向量机统计学习理论(statistical learning theory SLT)是一种专门研究小样本情
17、况下机器学习规律的理论。Vapnik等人从六、七十年代开始致力于此方法的研究,到九十年代中期,随着其理论的不断发展和成熟,也由于神经网络等学习方法在理论上缺乏实质性进展,统计学习理论开始受到越来越广泛的关注。 统计学习理论是建立在一套比较坚实的理论基础之上的,为解决有限样本学习问题提供了一个统一的框架,它将很多现有的方法归纳其中,有望解决许多原来难以解决的问题。同时在这一理论基础上发展了一种新的通用学习方法支持向量机(support vector machine SVM),它己初步表现出很多优于现有方法的性能。采用SVM回归进行非线性系统建模和控制研究是最近产生的智能控制的一个研究领域。这种建
18、模与控制方法不仅模型简单,有完备的理论支持,更重要的是提供了一种实现复杂非线性系统建模与控制的新方法,拓宽了智能控制的研究领域。一些学者认为,统计理论学习和SVM正在成为继神经网络研究之后的又一个新的研究热点,并将有力的推动机器学习理论和技术的发展。2.1 统计学习理论统计学习理论是一种专门的基于小样本的统计理论,它为研究有限样本情况下的统计模式识别和更广泛的机器学习问题建立了一个较好的理论框架,同时也发展了一种新的模式识别方法一一支持向量机,能够较好地解决小样本学习问题。2.1.1 统计学习理论的核心内容 机器学习的目的是根据给定的己知训练样本求取对系统输入输出之间的依赖关系的估计,使它能够
19、对未知输出作出尽可能准确的预测。机器学习问题可以形式化地表示为:己知变量y与输入x之间存在一定的未知依赖关系,即存在一个未知的联合概率F(x, y),机器学习就是根据n个独立同分布观测样本.(x1,y1),(x2,y2)(xn,yn), (1-1)在一组函数f(x,w)中求一个最优的函数f(x,w0),使预测的期望风险最小。 (1-2)其中,f(x,w)称作预测函数集,w=为函数的广义参数,故f(x,w)可以表示任何函数集;L(y,f(x,w)为由于用f(x,w)对y进行预测而造成的损失。要使期望风险最小化,必然依赖关于联合概率F(x,y)的信息。但是,在实际的机器学习问题中,我们只能利用己知
20、样本(1.1)的信息,因此期望风险无法直接计算和最小化。根据概率论中大数定律定理的思想,人们自然想到用算术平均代替式(1.2)的数学期望,于是定义了 (1-3)来逼近式(1.2)定义的期望风险。由于Remp(w)是用己知的训练样本(即经验数据)定义的,因此称作经验风险。用对参数、求经验风险Remp(w)的最小值代替求期望风险R(w)的最小值,就是所谓的经验风险最小化(Empirical Risk Minimization简称ERM)原则。仔细研究经验风险最小化原则和机器学习问题中的期望风险最小化要求,可以发现,从期望风险到经验风险最小化并没有可靠的理论依据,只是直观上合理的想当然做法。但是,经
21、验风险最小化作为解决模式识别等机器学习问题的基本思想仍在相当长的时间内统治了这一领域的几乎所有研究,人们多年来一直将大部分注意力集中到如何更好地求取最小经验风险上。与此相反,统计学习理论则对用经验风险最小化原则解决期望风险最小化问题的前提是,当这些前提不成立时经验风险最小化方法的性能如何,以及是否可以找到更合理的原则等基本问题进行了深入的研究。 统计学习理论被认为是目前针对小样本统计估计和预测学习的最佳理论。它从理论上较系统地研究了经验风险最小化原则成立的条件、有限样本下经验风险与期望风险的关系及如何利用这些理论找到新的学习原则和方法等问题。其主要内容包括四个方面: 1)经验风险最小化原则下统
22、计学习一致性的条件; 2)在这些条件下关于统计学习方法推广性的界的结论; 3)在这些界的基础上建立的小样本归纳推理原则; 4)实现这些新的原则的实际方法(算法)。1.1.2 学习过程一致性的条件 学习过程一致性是统计学习理论的基础,也是它与传统渐进统计学的基本联系。学习过程一致性就是指当训练样本数日趋于无穷大时,经验风险的最优值能够收敛到真实风险的最优值。只有满足一致性条件,才能保证在经验风险最小化原则下得到的最优解在样本无穷大时趋近于使用期望风险最小的最优结果8。定义2.1:记f(x,w*)为在式(1.1)的n个独立同分布样本下,在函数集中使经验风险取最小的预测函数,由它带来的损失函数为L(
- 1.请仔细阅读文档,确保文档完整性,对于不预览、不比对内容而直接下载带来的问题本站不予受理。
- 2.下载的文档,不会出现我们的网址水印。
- 3、该文档所得收入(下载+内容+预览)归上传者、原创作者;如果您是本文档原作者,请点此认领!既往收益都归您。
下载文档到电脑,查找使用更方便
10 积分
下载 | 加入VIP,下载更划算! |
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 统计 学习理论 支持 向量 回归 方法 非线性 建模
