湘潭大学-人工智能课件-机器学习ppt【图片、文字、动画均可编辑】

首页 > PPT模板 > 说课PPT课件 > 湘潭大学-人工智能课件-机器学习ppt.PPTX 【图片、文字、动画均可编辑】
湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt 湘潭大学-人工智能课件-机器学习ppt

<p>Artificial Intelligence (AI)人工智能第七章 机器学习</p><br><p>内容提要第七章:机器学习系统1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经网络学习8.其他7.知识发现</p><br><p> 阿法狗通过神经网络学习所有高水平围棋棋谱,大概是历史上有的20万个左右职业棋谱,从而获得了在盘面上如何落子的直觉。</p><br><p> 类似的深度学习是在近几年出现的,目前,这项科技也有了一些应用,最简单的例子就是通过深度学习识别猫。通过这项识别验证,已经引申出了更多具有实际意义的应用,比如识别某一个图片中是否有癌细胞,某一个铁路沿线上的轨道是否存在磨损,甚至军事作战中,对方的视线中是否有坦克,都可以通过深度学习实现。谷歌的自动驾驶,其中很重要的就是识别道路、交通信号灯、路标等,这都是通过深度学习获得。</p><br><p> 阿法狗走的是通用学习的道路。它的估值函数,不是专家攻关捣哧出来的。它的作者只是搭了一个基本的框架(一个多层的神经网络),除了围棋最基本的规则外,没有任何先验知识。你可以把它想象成一个新生儿的大脑,一张白纸。然后,直接用人类高手对局的3000万个局面训练它,自动调节它的神经网络参数,让它的行为和人类高手接近。这样,阿法狗就具有了基本的棋感,看到一个局面大致就能知道好还是不好。 阿法狗的核心技术还包括策略网络的训练和蒙特卡洛树搜索。</p><br><p>内容提要第七章:机器学习系统1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经网络学习8.其他</p><br><p> 机器学习是人工智能的核心,通过使机器模拟人类学习行为,智能化地从过去的经历中获得经验,从而改善其整体性能,重组内在知识结构,并对未知事件进行准确的推断。机器学习在科学和工程诸多领域都有着非常广泛的应用,例如金融分析、数据挖掘、生物信息学、医学诊断等。生活中常见的一些智能系统也广泛使用机器学习算法,例如电子商务、手写输入、邮件过滤等。</p><br><p> 人类的未来生活和工作,还将有机器人参与。机器人的自主学习,更离不开人脸识别技术。 2015年3月16日,马云在德国参加活动时,为嘉宾演示了一项“Smile to Pay”的扫脸技术。在网购后的支付认证阶段,通过扫脸取代传统的密码,实现“刷脸支付”。</p><br><p>机器学习的基本概念机器学习的两大学派机器学习:人工智能的重要分支构造具有学习能力的智能系统知识、推理、学习手段:统计,逻辑,代数……统计机器学习从大量样本出发,运用统计方法,发现统计规律有监督学习、无监督学习、半监督学习问题:分类,聚类,回归</p><br><p>机器学习的基本概念机器学习的定义西蒙(Simon,1983):学习就是系统中的适应性变化,这种变化使系统在重复同样工作或类似工作时,能够做得更好。明斯基(Minsky,1985):学习是在人们头脑里(心理内部)有用的变化。学习是一个有特定目的知识获取和能力增长过程,其内在行为是获得知识、积累经验、发现规律等,其外部表现是改进性能、适应环境、实现自我完善等。机器学习是研究如何使用机器来模拟人类学习活动的一门学科。</p><br><p>机器学习的基本概念机器学习的任务根据有限样本集 Q ,推算这个世界 W 的模型,使得其对这个世界为真。</p><br><p>机器学习的基本概念机器学习的三要素一致性假设:假设世界W与样本集Q具有某种相同性质机器学习的条件。样本空间划分:将样本集放到一个n维空间,寻找一个决策面(等价关系),使得问题决定的不同对象被划分在不相交的区域。泛化能力:从有限样本集合中获得的规律是否对学习集以外的数据仍然有效。泛化能力 决定模型对世界的有效性。 </p><br><p>内容提要第七章:机器学习系统1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经网络学习7.其他</p><br><p>机器学习策略与基本结构机器学习的主要策略:按照学习中使用推理的多少,机器学习所采用的策略大体上可分为4种机械学习:记忆学习方法,即把新的知识存储起来,供需要时检索调用,而不需要计算和推理。示教学习:外界输入知识与内部知识的表达不完全一致,系统在接受外部知识时需要推理、翻译和转化。类比学习:需要发现当前任务与已知知识的相似之处,通过类比给出完成当前任务的方案。示例学习:需要从一组正例和反例中分析和总结出一般性的规律,在新的任务中推广、验证、修改规律。</p><br><p>机器学习策略与基本结构学习系统的基本结构影响学习系统设计的要素环境:环境向系统提供信息的水平(一般化程度)和质量(正确性)知识库:表达能力,易于推理,容易修改,知识表示易于扩展。</p><br><p>内容提要第七章:机器学习系统1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经网络学习7.其他</p><br><p>归纳学习归纳学习(Induction Learning)归纳学习是应用归纳推理进行学习的一种方法。归纳学习的模式: 实验规划过程通过对实例空间的搜索完成实例选择,并将这些选中拿到的活跃实例提交给解释过程。解释过程对实例加以适当转换,把活跃实例变换为规则空间中的特定概念,以引导规则空间的搜索。</p><br><p>归纳学习归纳学习(Induction Learning)归纳学习是目前研究得最多的学习方法,其学习目的是为了获得新概念、构造新规则或发现新理论。根据归纳学习有无教师指导,可把它分为示例学习:给学习者提供某一概念的一组正例和反例,学习者归纳出一个总的概念描述(规则),并使这个描述适合于所有的正例,排除所有的反例。观察发现学习:概念聚类:按照一定的方式和准则分组,归纳概念机器发现:从数据和事例中发现新知识</p><br><p>内容提要第七章:机器学习系统1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经网络学习7.其他</p><br><p>类比学习类比推理和类比学习方式类比学习(learning by analogy)就是通过类比,即通过对相似事物加以比较所进行的一种学习 。类比学习是利用二个不同领域(源域、目标域)中的知识相似性,可以通过类比,从源域的知识(包括相似的特征和其它性质)推导出目标域的相应知识,从而实现学习。例如:1. 一个从未开过truck的司机,只要他有开car的知识就可完成开truck的任务。2. 若把某个人比喻为消防车,则可通过观察消防车的行为,推断出这个人的性格。</p><br><p>类比学习类比推理和类比学习方式类比学习系统可以使一个已有的计算机应用系统转变为适应于新的领域,来完成原先没有设计的相类似的功能。类比推理过程: 回忆与联想:找出当前情况的相似情况 选择:选择最相似的情况及相关知识 建立对应关系:建立相似元素之间的映射 转换:求解问题或产生新的知识</p><br><p>类比学习类比学习研究类型问题求解型的类比学习:求解一个新问题时,先回忆以前是否求解过类似问题,若是,则以此为依据求解新问题。预测推理型的类比学习传统的类比法:用来推断一个不完全确定的事物可能还有的其他属性因果关系型:已知因果关系S1:A->B,如果有A'≌A,则可能有B'满足A'->B'</p><br><p>内容提要第七章:机器学习系统1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经网络学习7.其他</p><br><p>解释学习解释学习(Explanation-based learning, EBL) 解释学习兴起于20世纪80年代中期,根据任务所在领域知识和正在学习的概念知识,对当前实例进行分析和求解,得出一个表征求解过程的因果解释树,以获取新的知识。例如:学生根据教师提供的目标概念、该概念的一个例子、领域理论及可操作准则,首先构造一个解释来说明为什么该例子满足目标概念,然后将解释推广为目标概念的一个满足可操作准则的充分条件。</p><br><p>解释学习解释学习过程和算法米切尔提出了一个解释学习的统一算法EBG,建立了基于解释的概括过程,并用知识的逻辑表示和演绎推理进行问题求解。其一般性描述为:给定:领域知识DT目标概念TC训练实例TE操作性准则OC找出:满足OC的关于TC的充分条件</p><br><p>解释学习EBG算法可概括为两步:1.构造解释:运用领域知识进行演绎,证明提供给系统的训练实例为什么是满足目标概念的一个实例。例如:设要学习的目标概念是 “一个物体(Obj1)可以安全地放置在另一个物体(Obj2)上”,即: Safe-To-Stack(Obj1,obj2)领域知识是把一个物体放置在另一个物体上面的安全性准则:</p><br><p>解释学习EBG算法可概括为两步:领域知识:¬Fragile (y)→ Safe-To-Stack (x ,y):如果y不是易碎的,则x可以安全地放到y的上面Lighter (x, y)→ Safe-To-Stack (x ,y):如果x 比y轻,则x可以安全地放到y的上面Volume (p, v) ∧Density (p, d)∧ *(v, d, w)→ Weight (p, w):如果p的体积是v、密度是d、v乘以d的积是w,则p的重量是wIsa(p, table)→Weight (p, 15) :若p是桌子,则p的重量是15 Weight(p1,w1)∧Weight(p2,w2)∧Smaller(w1,w2)→Lighter(p1,p2):如果p1的重量是w1、 p2的重量是w2、w1比w2小, 则p1比p2轻</p><br><p>解释学习EBG算法可概括为两步:Safe-To-Stack(Obj1,obj2)解释结构:</p><br><p>解释学习EBG算法可概括为两步:2.获取一般性的知识:任务:对上一步得到的解释结构进行一般化的处理,从而得到关于目标概念的一般性知识。方法:将常量换成变量,并把某些不重要的信息去掉,只保留求解问题必须的关键信息。例如: Volume (O1, v1) ∧Density (O1, d1)∧*(v1, d1, w1)∧Isa(O2,table)∧ Smaller(w1,15) → Safe-To-Stack(Obj1,obj2)</p><br><p>解释学习EBG算法可概括为两步: Safe-To-Stack(O1,O2)一般化解释结构以后求解类似问题时,就可以直接利用这个知识进行求解,提到了系统求解问题的效率。</p><br><p>内容提要第七章:机器学习系统1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经网络学习7.其他</p><br><p>神经网络学习神经生理学研究表明,人脑的神经元既是学习的基本单位,同是也是记忆的基本单位。目前,关于人脑学习和记忆机制的研究有两大学派:化学学派:认为人脑经学习所获得的信息是记录在某些生物大分子之上的。例如,蛋白质、核糖核酸、神经递质,就像遗传信息是记录在DNA(脱氧核糖核酸)上一样。突触修正学派:认为人脑学习所获得的信息是分布在神经元之间的突触连接上的。</p><br><p>神经网络学习按照突触修正学派的观点,人脑的学习和记忆过程实际上是一个在训练中完成的突触连接权值的修正和稳定过程。其中,学习表现为突触连接权值的修正,记忆则表现为突触连接权值的稳定。突触修正假说已成为人工神经网络学习和记忆机制研究的心理学基础,与此对应的权值修正学派也一直是人工神经网络研究的主流学派。突触修正学派认为,人工神经网络的学习过程就是一个不断调整网络连接权值的过程。按照学习规则,神经学习可分为:Hebb学习、纠错学习、竞争学习及随机学习等。</p><br><p>神经网络学习Hebb学习Hebb学习的基本思想:如果神经网络中某一神经元同另一直接与它连接的神经元同时处于兴奋状态,那么这两个神经元之间的连接强度将得到加强,反之应该减弱。Hebb学习对连接权值的调整可表示为:wij (t+1)表示对时刻 t 的权值修正一次后所得到的新的权值;η取正值,称为学习因子,它取决于每次权值的修正量;xi(t)、xj(t)分别表示 t 时刻第 i 个和第 j 个神经元的状态。 </p><br><p>神经网络学习纠错学习纠错学习的基本思想:利用神经网络的期望输出与实际输出之间的偏差作为连接权值调整的参考,并最终减少这种偏差。纠错学习是一种有导师的学习过程。最基本的误差修正规则为:连接权值的变化与神经元希望输出和实际输出之差成正比。其联结权值的计算公式为: yj (t)为神经元 j 的实际输出; dj (t)为神经元 j 的希望输出;</p><br><p>神经网络学习竞争学习基本思想:网络中某一组神经元相互竞争对外界刺激模式响应的权力,在竞争中获胜的神经元,其连接权会向着对这一刺激模式竞争更为有利的方向发展。随机学习基本思想:结合随机过程、概率和能量(函数)等概念来调整网络的变量,从而使网络的目标函数达到最大(或最小)。他不仅可以接受能量函数减少(性能得到改善)的变化,而且还可以以某种概率分布接受使能量函数增大(性能变差)的变化。</p><br><p>感知器学习 单层感知器学习算法 单层感知器学习的例子 BP网络学习 Hopfield网络学习神经网络学习</p><br><p> 单层感知器学习实际上是一种基于纠错学习规则,采用迭代的思想对连接权值和阈值进行不断调整,直到满足结束条件为止的学习算法。 假设X(k)和W(k)分别表示学习算法在第k次迭代时输入向量和权值向量,为方便,把阈值θ作为权值向量W(k)中的第一个分量,对应地把“-1”固定地作为输入向量X(k)中的第一个分量。即W(k)和X(k)可分别表示如下: X(k)=[-1, x1(k), x2(k), …, xn(k)] W(k)=[θ(k),w1(k), w2(k), … ,wn(k)]即x0(k)=-1,w0(k)=θ(k)。 单层感知器学习是一种有导师学习,它需要给出输入样本的期望输出。 假设一个样本空间可以被划分为A、B两类,定义: 功能函数:若输入样本属于A类,输出为+1,否则其输出为-1。 期望输出:若输入样本属于A类,期望输出为+1,否则为-1。 单层感知器学习算法算法思想</p><br><p> 单层感知器学习算法可描述如下: (1) 设t=0,初始化连接权和阈值。即给wi(0)(i=1, 2, … ,n)及θ(0)分别赋予一个较小的非零随机数,作为初值。其中,wi(0)是第0次迭代时输入向量中第i个输入的连接权值;θ(0)是第0次迭代时输出节点的阈值; (2) 提供新的样本输入xi(t)(i=1, 2, … , n)和期望输出d(t); (3) 计算网络的实际输出: 单层感知器学习算法—算法描述</p><br><p> (4) 若y(t)=d(t),不需要调整连接权值,转(6)。否则,需要调整权值 (5) 调整连接权值其中,η是一个增益因子,用于控制修改速度,其值如果太大,会影响wi(t)的收敛性;如果太小,又会使wi(t)的收敛速度太慢; (6) 判断是否满足结束条件,若满足,算法结束;否则,将t值加1,转(2)重新执行。这里的结束条件一般是指wi(t)对一切样本均稳定不变。 若输入的两类样本是线性可分的,则该算法就一定会收敛。否则,不收敛。单层感知器学习算法—算法描述</p><br><p> 例 用单层感知器实现逻辑“与”运算。 解:根据“与”运算的逻辑关系,可将问题转换为:输入向量: X1=[0, 0, 1, 1] X2=[0, 1, 0, 1]输出向量: Y=[0, 0, 0, 1] 为减少算法的迭代次数,设初始连接权值和阈值取值如下: w1(0)=0.5, w2(0)=0.7, θ(0)=0.6并取增益因子η=0.4。 算法的学习过程如下: 设两个输入为x1(0)=0和x2(0)=0,其期望输出为d(0)=0,实际输出为: y(0)=f(w1(0)x1(0)+ w2(0)x2(0)-θ(0)) =f(0.5*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值。单层感知器学习的例子—学习例子(1/4)</p><br><p> 再取下一组输入:x1(0)=0和x2(0)=1, 期望输出d(0)=0,实际输出: y(0)=f(w1(0) x1(0)+ w2(0) x2(0)-θ(0)) =f(0.5*0+0.7*1-0.6)=f(0.1)=1实际输出与期望输出不同,需要调节权值,其调整如下: θ(1)=θ(0)+η(d(0)- y(0))*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(1)=w1(0)+η(d(0)- y(0))x1(0)=0.5+0.4*(0-1)*0=0.5 w2(1)=w2(0)+η(d(0)- y(0))x2(0)=0.7+0.4*(0-1)*1=0.3取下一组输入:x1(1)=1和x2(1)=0,其期望输出为d(1)=0,实际输出为: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-θ(1)) =f(0.5*1+0.3*0-1)=f(-0.51)=0实际输出与期望输出相同,不需要调节权值。单层感知器学习的例子—学习例子(2/4)</p><br><p> 再取下一组输入:x1(1)=1和x2(1)=1,其期望输出为d(1)=1,实际输出为: y(1)=f(w1(1) x1(1)+ w2(1) x2(1)-θ(1)) =f(0.5*1+0.3*1-1)=f(-0.2)=0 实际输出与期望输出不同,需要调节权值,其调整如下: θ(2)=θ(1)+η(d(1)- y(1))*(-1)=1+0.4*(1-0)*(-1)=0.6 w1(2)=w1(1)+η(d(1)- y(1))x1(1)=0.5+0.4*(1-0)*1=0.9 w2(2)=w2(1)+η(d(1)- y(1))x2(1)=0.3+0.4*(1-0)*1=0.7 取下一组输入:x1(2)=0和x2(2)=0,其期望输出为d(2)=0,实际输出为: y(2)=f(0.9*0+0.7*0-0.6)=f(-0.6)=0实际输出与期望输出相同,不需要调节权值. 单层感知器学习的例子—学习例子(3/4)</p><br><p> 再取下一组输入:x1(2)=0和x2(2)=1,期望输出为d(2)=0,实际输出为: y(2)=f(0.9*0+0.7*1-0.6)=f(0.1)=1 实际输出与期望输出不同,需要调节权值,其调整如下: θ(3)=θ(2)+η(d(2)- y(2))*(-1)=0.6+0.4*(0-1)*(-1)=1 w1(3)=w1(2)+η(d(2)- y(2))x1(2)=0.9+0.4*(0-1)*0=0.9 w2(3)=w2(2)+η(d(2)- y(2))x2(2)=0.7+0.4*(0-1)*1=0.3 实际上,由与运算的阈值条件可知,此时的阈值和连接权值以满足结束条件,算法可以结束。 对此,可检验如下: 对输入:“0 0”有y=f(0.9*0+0.3*0-1)=f(-1)=0 对输入:“0 1”有y=f(0.9*0+0.3*0.1-1)=f(-0.7)=0 对输入:“1 0”有y=f(0.9*1+0.3*0-1)=f(-0.1)=0 对输入:“1 1”有y=f(0.9*1+0.3*1-1)=f(0.2)=1单层感知器学习的例子—学习例子(4/4)</p><br><p> 多层感知器可以解决非线性可分问题,但其隐层神经元的期望输出却不易给出。 而单层感知器学习是一种有导师指导的学习过程,因此其学习算法无法直接用于多层感知器。 由于多层感知器和BP网络都属于前向网络,并能较好解决多层前馈网络的学习问题. 因此,可用BP学习来解决多层感知器学习问题。多层感知器学习问题</p><br><p> BP网络学习的网络基础是具有多层前馈结构的BP网络。为讨论方便,采用如下图所示的三层BP网络。BP网络学习的基础—1. 三层BP网络</p><br><p> 对上述三层BP网络,分别用I,j,k表示输入层、隐含层、输出层节点,且以以下符号表示: Oi, Oj, Ok分别表示输入层节点i、隐含层节点j,输出层节点k的输出; Ii , Ij ,Ik,分别表示输入层节点i、隐含层节点j,输出层节点k的输入; wij, wjk分别表示从输入层节点i到隐含层节点j,从隐含层节点j输出层节点k的输入节点j的连接权值; θj 、 θk分别表示隐含层节点j、输出层节点k的阈值; 对输入层节点i有: BP网络学习的基础—2. 网络节点的输入/输出关系(1/2)(7.1)</p><br><p> 对输出层节点有:(7.5)(7.4) 对隐含层节点有:(7.2)(7.3) BP网络学习的基础—2. 网络节点的输入/输出关系(2/2)</p><br><p>BP网络学习的方式BP网络学习的基础—BP网络的激发函数和学习方式BP网络的激发函数(7.3) 通常采用连续可微的S函数,包括单极</p><br><p> BP网络学习过程是一个对给定训练模式,利用传播公式,沿着减小误差的方向不断调整网络联结权值和阈值的过程。 设样本集中的第r个样本,其输出层结点k的期望输出用drk表示,实际输出用yrk表示。其中,drk由训练模式给出,yrk由7.5式计算得出。即有 yrk = Ork 如果仅针对单个输入样本,其实际输出与期望输出的误差为 BP算法的传播公式—误差 上述误差定义是针对单个训练样本的误差计算公式,它适用于网络的顺序学习方式。若采用批处理学习方式,需要定义其总体误差。假设样本集中有R个样本,则对整个样本集的总体误差定义为(7.6)(7.7)</p><br><p>针对顺序学习方式,其联结权值的调整公式为 BP算法的传播公式—权值变化量(1/2)(7.8)(7.9)式中,为增益因子,取[0, 1]区间的一个正数,其取值与算法的收敛速度有关; 由下式计算式中,wjk (t)和wjk(t+1)分别是第t次迭代和t+1次迭代时,从结点j到结点k的联结权值;wjk是联结权值的变化量。 为了使联结权值能沿着E的梯度下降的方向逐渐改善,网络逐渐收敛,权值变化量wjk的计算公式如下:(7.10)</p><br><p>根据7.2式,可得到输出层节点k的Ik为 BP算法的传播公式—权值变化量(1/2)(7.11)(7.12)令局部梯度(7.13)对该式求偏导数有将7.10式、7.11式和7.12式代入7.9式有 对δk的计算,须区分k是输出层上还是隐含层上的结点。下面分别讨论。</p><br><p>如果结点k是输出层上的结点,则有Ok=yk,因此 BP算法的传播公式—节点k是输出层节点(1/3)(7.14)(7.15)由7.6式,有即而(7.16)</p><br><p>将7.15式和7.16式代入7.14式,有BP算法的传播公式—节点k是输出层节点(2/3)(7.17)(7.15)由于f’(Ik) = f(Ik)[1-f(Ik)],且f(Ik)=yk,因此有再将7.18式代入7.13式,有根据7.8,对输出层有(7.20)(7.18)</p><br><p> 如果k不是输出层结点.它表示联结权值是作用于隐含层上的结点,此时,有k=j ,j按下式计算 BP算法的传播公式—节点k是隐含层节点(1/3)(7.22)由7.3式,Oj=f (Ij-θj),因此有式中,(7.21)是一个隐函数求导问题,其推导过程为</p><br><p>由7.12式有 BP算法的传播公式—节点k是隐含层节点(2/3)(7.24)将7.23式代入7.22式,有 它说明,低层结点的值是通过上一层结点的值来计算的。这样,我们就可以先计算出输出层上的值,然后把它返回到较低层上,并计算出各较低层上结点的值。 由于f ’(Ij) = f(Ij)[ 1-f (Ij) ],故由7.24可得(7.23)(7.25)</p><br><p>再将7.25式代入7.13式,并将其转化为隐函数的变化量,有7.3.2 BP算法的传播公式—节点k是隐含层节点(3/3)再由7.1式和7.3式,有根据7.8,对隐含层有(7.26)(7.28)(7.27)</p><br><p> 对三层BP网络,设wij是输入层到隐层,wjk是隐层到输出层的联结权值;R是样本个数,其计数器为r;T是训练过程的最大迭代数,其计数器为t。 (1) 初始化网络及学习参数:将wij、wjk、θj、θk均赋以较小的随机数;设置η为[0,1]区间的数;置训练样本计数器r=0,误差E=0、误差阈值ε为很小的正数。 (2) 随机输入一个训练样本,r=r+1,t=0。 (3) 按7.1--7.5式计算隐层神经元的状态和输出层每个节点的实际输出yk,按7.6式计算该样本的误差E。 BP网络学习算法算法描述</p><br><p> (4) 检查E >ε? 若是,执行下一步;否则,转(8)。 (5) t=t+1。 (6) 检查t ≤ T ?若是,执行下一步;否则,转(8)。 (7) 按7.18式计算输出层结点k的δk,按7.25式计算隐层结点j的δj,按 7.20式计算wjk(t+1),按 7.28式计算wij(t+1),返回(3)。其中,对阈值按联结权值的学习方式修正,即把阈值设想为神经元的联结权值,并假定其输入信号值总是为1。 (8) 检查r = R ? 若是,执行下一步;否则,转(2)。 (9) 结束。BP网络学习算法算法描述</p><br><p> BP网络学习算法算法流程随机输入一个训练样本,置r=r+1,t=0初始化网络及学习参数wij,wjk,,θj,θk,η,ε,R,T,置E=0,r=0 对输入样本,计算该样本的每一个yk,计算该样本的误差EE>ε? t=t+1t≤T ?计算输出层结点k的δk修正各层的wjk(t),wij(t)E>ε? 结束是否是否否是</p><br><p> BP网络模型是目前使用较多的一种神经网络,其主要优、缺点如下。 优点 (1)算法的优点是算法推导清楚,学习精度较高; (2)从理论上说,多层前馈网络可学会任何可学习的东西; (3)经过训练后的BP网络,运行速度极快,可用于实时处理。 缺点 (1)由于其数学基础是非线性优化问题,因此可能陷入局部最小区域; (2)算法收敛速度很慢,通常需要数千步或更长,甚至还可能不收敛; (3)网络中隐含结点的设置无理论指导。 上述缺点的解决办法 对于局部最小区域问题,通常需要采用模拟退火算法或遗传算法。 对于算法收敛慢的问题,其主要原因在于误差是时间的复杂非线性函数。为提高算法收敛速度,可采用逐次自动调整增益因子,或修改激活函数f(x)的方法来解决。BP网络学习的讨论</p><br><p>Hopfield网络学习 Hopfield网络学习的过程实际上是一个从网络初始状态向其稳定状态过渡的过程。而网络的稳定性又是通过能量函数来描述的。这里主要针对离散Hopfield网络讨论其能量函数和学习算法。Hopfield网络的能量函数Hopfield网络学习算法</p><br><p>式中,n是网络中的神经元个数,wij是神经元i和神经元j之间的连接权值,且有wij=wji; vi和vj分别是神经元i和神经元j的输出;θi是神经元i的阈值。 可以证明,对Hopfield网络,无论其神经元的状态由“0”变为“1”,还是由“1”变为“0”,始终有其网络能量的变化: ΔE<0Hopfield的能量函数—能量函数定义及性质 能量函数用于描述Hopfield网络的稳定性。其定义为: 对网络能量变化的这一结论,我们可以从网络能量的构成形式进行分析。 如果假设某一时刻网络中仅有神经元k的输出发生了变化,而其它神经元的输出没有变化,则可把上述能量函数分作三部分来讨论。其中,第一部分是i=1,…,k-1;第二部分是i=k;第三部分是i=k+1,…,n。</p><br><p>Hopfield的能量函数—能量函数定义及性质(2/7)在这种形式中,可以引起网络能量变化的仅有公式中的如下部分:i=1,…,k-1 ,j≠k,这部分能量与k的输出无关i=1,…,k-1 ,j=k,这部分能量与k的输出有关i=k ,j≠k,这部分能量与k的输出有关i=k+1,…,n ,j≠k,这部分能量与k的输出无关i=k+1,…,n ,j≠k,这部分能量与k的输出有关</p><br><p>又由于即:再根据连接权值的对称性,即wij=wji, 有: BP网络学习的基础—2. 网络节点的输入/输出关系(3/2)</p><br><p> Hopfield的能量函数—能量函数定义及性质(4/7)即可以引起网络能量变化的部分为 为了更清晰地描述网络能量的变化,我们引入时间概念。假设t表示当前时刻,t+1表示下一时刻,时刻t和t+1的网络能量分别为E(t)和E(t+1),神经元i和神经元j在时刻t和t+1的输出分别为vi(t)、vj(t)和vj(t+1)、vj(t+1)。由时刻t到t+1网络能量的变化为: ΔE= E(t+1) - E(t) 当网络中仅有神经元k的输出发生变化,且变化前后分别为t和t+1,则有</p><br><p>当神经元k的输出vk由1变0时,有此时,由于神经元k的输出为1,即有:因此: Hopfield的能量函数—能量函数定义及性质(5/7)</p><br><p>当神经元k的输出vk由0变1时,有此时,由于神经元k的输出为0,即有:因此: Hopfield的能量函数—能量函数定义及性质(6/7)</p><br><p> 可见,无论神经元k的状态由“1”变为“0” 时,还是由“0”变为“1” 时,都总有: 它说明离散Hopfield网络在运行中,其能量函数总是在不断降低的,最终将趋于稳定状态。 ΔEk<0 由于神经元k是网络中的任一神经元,因此它具有一般性,即对网络中的任意神经元都有: ΔE<0 Hopfield的能量函数—能量函数定义及性质(7/7)</p><br><p> 例 如图所示的三个节点的Hopfield网络,若给定的初始状态为: V0={1,0,1}各节点之间的联结权值为: w12=w21=1,w13=w31=-2,w23=w32=3各节点的阈值为 θ1=-1, θ2=2, θ3=1 请计算在此状态下的网络能量。 解:E=-(1/2)(w12v1v2+w13v1v3+w21v2v1+w23v2v3+w31v3v1+w32v3v2) + θ1v1+ θ2v2+ θ3v3 = -(w12v1v2+w13v1v3+w23v2v3)+ θ1v1+ θ2v2+ θ3v3 =-(1×1×0+(-2)×1×1+3×0×1)+(-1) ×1+2×0+1×1 =2Q1Q2Q3v1v2v3w12w13w23Hopfield的能量函数—计算网络能量的例子</p><br><p> (1) 设置联结权值其中,xis 为S型样例(即记忆模式)的第i个分量,它可以为1或0(或-1),样例类别数为m,节点数为n。 (2) 对未知类别的样例初始化其中,yi(t)为节点i时刻t的输出,yi(0)是节点的初值;xi为输入样本的第i个分量。 (3) 迭代运算其中,函数f为阈值型。重复这一步骤,直到新的迭代不能再改变节点的输出为止,即收敛为止。这时,各节点的输出与输入样例达到最佳匹配。否则 (4) 转第(2)步继续。Hopfield网络学习算法</p><br><p>神经学习单层感知器算法:感知器网络:单层前向网络学习算法:纠错学习方法用梯度下降法调整网络连接权值,使总的输出误差向减小的方向变化BP算法:反向传播算法多层感知器网络(BP网络)学习算法收敛速度非常慢,且随着训练样例维数增加,网络性能变差。</p><br><p>内容提要第七章:机器学习1.机器学习的基本概念2.机器学习策略与基本结构3.归纳学习4.类比学习5.解释学习6.神经学习7.其他</p><br><p>其他机器学习方法其他机器学习方法迁移学习:将在先前任务中学到的知识或技能应用于一个新的任务或新的领域增强机器学习:从变化环境中学习蕴含在环境中的知识流形机器学习:把一组在高维空间中的数据在低维空间中重新表示半监督机器学习:结合标记和非标记样本多实例机器学习:一个对象可能同时有多个描述Ranking机器学习:获得关于检索中“喜欢”顺序的模型数据流机器学习:从数据流中发现知识……</p><br><p>版权声明感谢您下载办图网平台上提供的PPT作品,为了您和办图网以及原创作者的利益,请勿复制、传播、销售,否则将承担法律责任!办图网将对作品进行维权,按照传播下载次数进行十倍的索取赔偿!1.在办图网出售的PPT模板是免版税类(RF:Royalty-Free)正版受《中国人民共和国著作法》和《世界版权公约》的保护,作品的所有权、版权和著作权归办图网所有,您下载的是PPT模板素材的使用权。2.不得将办图网的PPT模板、PPT素材,本身用于再出售,或者出租、出借、转让、分销、发布或者作为礼物供他人使用,不得转授权、出卖、转让本协议或者本协议中的权利。更多精品PPT模板:www.888ppt.com</p><br><p>课程结束</p><br>
好党课网提供湘潭大学-人工智能课件-机器学习ppt模板供会员免费下载,作品支持软件PowerPoint,格式为pptx。更多精彩说课PPT课件素材,尽在好党课网。
标签:人工只能PPT,说课,说课稿,说课比赛,课件,
本网站所有作品均是用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系客服。
  • 编号 11186342
  • 大小 11.65MB
  • 页数 共76页
  • 软件 PowerPoint/WPS 查看教程

+收藏好党课网

节省您50%的设计时间

版权声明:
此作品是由好党课网签约设计师设计上传,仅限个人学习分享使用,请勿作他用。人物肖像,字体及音频如需商用需第三方额外授权;
好党课网尊重知识产权,如知识产权权利人认为平台内容涉嫌侵权,可通过邮件:1329633930@qq.com提出书面通知,我们将及时处理。
对作品中含有的国旗、国徽等政治图案不享有权利,仅作为作品整体效果的示例展示,禁止商用。另外您必须遵循相关法律法规规定的使用范围和使用方式,禁止以任何形式歪曲、篡改。

工 作 日:09:00-18:00

客服电话:4001600191
好党课网VIP
全站资源终身免费下载
立即加入

好党课网提示

知道了

工作日:09:00-18:00

400-1600-191

工作日:09:00-18:00

Ctrl+D
收藏好党课网

内容建议

联系方式(选填)

提交
微信登录 QQ登录

我已阅读并接受《用户协议》
好党课网-专注高效办公

举报作品

该作品违反相关法律规范
侵权/盗版问题

请详细描述并提供原作品链接

其他原因

请详细描述举报原因

提交