收藏 分享(赏)

人工智能-7.ppt

上传人:scg750829 文档编号:10137003 上传时间:2019-10-13 格式:PPT 页数:92 大小:1.75MB
下载 相关 举报
人工智能-7.ppt_第1页
第1页 / 共92页
人工智能-7.ppt_第2页
第2页 / 共92页
人工智能-7.ppt_第3页
第3页 / 共92页
人工智能-7.ppt_第4页
第4页 / 共92页
人工智能-7.ppt_第5页
第5页 / 共92页
点击查看更多>>
资源描述

1、第10章 机器学习方法,一、常见学习方法分类,依据学习策略划分 二、常见学习方法分类,依据获取知识的类型划分 三、两种归纳学习方法:概念学习法、决策树学习法,第10章 机器学习方法,一、常见学习方法分类(根据学习策略)1 机械式学习:死记式学习,能够直接体现它的特点,这是一种最简单的,最原始的学习方法,也是机器的强项,人的弱项。 2 指导式学习:这种学习方式是由外部环境向系统提供一般性的指示或建议,系统把它们具体地转化为细节知识并送入知识库中,在学习过程中要反复对知识进行评价,使其不断完善。,机器学习方法,3 类比学习:类比也就是通过对相似事物进行比较所进行的一种学习。它的基础是类比推理,也就

2、是把新事物和记忆中的老事物进行比较,如果发现它们之间有些属性(过程)是相同的,那么可以(假定地)推断出它们的另外一些属性(过程)也是相同的.例如 “桥 bridge”概念建立、“狗”与“狼”概念的建立等。已知“偶数偶数=偶数”,用类比的方法求证“奇数奇数=奇数”。 4 解释学习:它不是通过归纳或类比进行学习,而是通过运用相关的领域知识及一个训练实例来对某一目标概念进行学习,并最终生成这个目标概念的一般描述,这个一般描述是一个可形式化表示的一般性知识。,机器学习方法,二、常见学习方法(获取知识的类型):1 归纳学习:(概念学习、决策树) 2 基于范例的学习 3 人工神经网络 4 统计学习(支持向

3、量机) 5 遗传算法(马尔柯夫模型),高级人工智能,1 归纳学习方法,归纳学习是一种符号学习,在已知正例,反例的基础上归纳出一个通用的概念,归纳学习能得到新的概念,创立新的规则,发现新的理论。 归纳学习并不“保真”,是“保假”的;是从特殊到一般,而演绎是保真的。如“麻雀会飞”,“燕子会飞”等归纳“鸟会飞(鸵鸟不会飞)”. 归纳学习依赖于经验数据,因此又称为经验学习. 归纳学习的基本操作:泛化,例化;泛化- 扩展一假设的语义信息,使其能包含更多的正例,应用于更多的情况; 例化-用于限制概念描述的应用范围。,归纳学习方法,概念学习 给定某一类别的若干正例和反例,从中获得该类别的一般定义概念。 搜索

4、的观点 在预定义的假设空间中搜索假设,使其与训练样例有最佳的拟合。 例如“云计算Cloud Computing”,“物联网 The Internet of things”,“社会计算 Social Computing” ,“码农Coding Farmer(s)”等。 单概念/多概念学习;,1.1 概念学习,概念学习,许多机器学习涉及到从特殊训练样例中得到一般概念。 概念,可被看作一个对象或事件集合,它是从更大的集合中选取的子集,或在这个较大集合中定义的布尔函数。 概念学习问题的定义 给定一个样例集合以及每个样例是否属于某个概念的标注,怎样推断出该概念的一般定义。又称从样例中逼近布尔函数。 概念

5、学习是指从有关某个布尔函数的输入输出训练样例中推断出该布尔函数。,概念学习,目标概念:“运动员进行水上运动项目的日子”,表示为布尔函数EnjoySport任务目的:基于某天的有关属性,预测EnjoySport函数的值 任务的学习空间:样例集,每个样例表示为属性的集合,概念学习例子,术语定义,目标概念 c 训练样例 x 训练样例集 D=x1,x2,.xn 正例(yes),目标概念成员 反例(no),非目标概念成员 假设 h 假设集 H=h1,h2.hn机器学习的目标就是寻找一个假设h,使得对所有的训练样例x,都有h(x)=c(x) 假设与概念一致,概念学习任务(2),目标概念EnjoySport

6、的训练样例,D=Day1,Day2,.Dayn 每个训练样例 x有六个属性,概念学习任务(3),表示假设的形式 一个简单的形式,具体实例的各属性约束的合取式 令每个假设为6个约束(或变量)的向量,每个约束对应一个属性可取值范围,可以为 ?任意本属性可接收的值 明确指定的属性值;如Cold, High。 不接受任何值 假设的例子/气温冷,湿度偏高/ 所有的样例都是正例,没有指定任何条件/ 所有的样例都是反例,任何条件都满足不了,概念学习任务(4),EnjoySport概念学习的任务 已知 实例x 每个实例x由6个属性描述,每个属性的取值范围已确定 假设集H 每个假设h描述为6个属性的取值约束的合

7、取 目标概念c 布尔函数,变量为实例 训练样例集D 目标函数(或目标概念)的正例和反例 求解 H中的任一假设h,使对于任意实例x,h(x)=c(x),归纳学习过程,归纳学习 从特殊的训练样例中得到普遍的规律 归纳 保证输出的假设能与训练样例相拟合 归纳假设的一个基本假定 对于未见实例最好的假设就是与训练数据最佳拟合的假设 归纳学习假设 任一假设如果在足够大的训练样例集中很好地逼近目标函数,它也能在未见实例中很好地逼近目标函数。,假设从一般到特殊的转化,假设的一般到特殊 考虑下面两个假设 h1= h2= 任何被h1划分为正例的实例都会被h2划分为正例,因此h2比h1更一般(h1比h2更特殊)。

8、利用这个关系,无需列举所有假设,就能在无限的假设空间中进行彻底的搜索,假设从一般到特殊的转化(2),关系“更一般”的精确定义 任给实例x和假设h,x满足h,当且仅当h(x)=1 令hj和hk是在X上定义的布尔函数,称hj比hk更一般,当且仅当(xX)(hk(x)=1)(hj(x)=1) 记为hj more_general_than_or_equal_to hk,或hj g hk显然“g “ 是一种关系中的一类“偏序关系”。 (自反、反对称、可传递;在某一集合上可能存在四类八种特殊元素),假设从一般到特殊的转化(3),“更一般”的严格情形hj g hk,当且仅当,(hj g hk) (hk g

9、hj) 反对称性 “更特殊”关系的定义hj g hk,当且仅当,hk g hj以EnjoySport为例说明上面的定义 hk= hj = hj g hk hj “更一般” hk hk g hj hk “更特殊” hj,概念学习的方法 Find-S算法:寻找极大特殊假设(1),使用more_general_than偏序的搜索算法 从H中最特殊假设开始,然后在假设覆盖正例失败时将其一般化Find-S算法 将h初始化为H中最特殊假设 对每个正例x对h的每个属性约束ai 如果x满足ai ,那么不做任何处理 否则 将h中ai替换为x满足的另一个更一般约束 输出假设h,Find-S:寻找极大特殊假设(2)

10、,Find-S算法在例子EnjoySport上的应用 h h h 遇到反例,h不变(因为h已经能够正确地识别反例) h 极大特殊假设,Find-S:寻找极大特殊假设(3),Find-S算法演示了一种利用more_general_than偏序来搜索假设空间的方法,沿着偏序链,从较特殊的假设逐渐转移到较一般的假设。因此,每一步得到的假设都是在那一点上与训练样例一致的最特殊的假设。 Find-S的重要特点:对以属性约束的合取式描述的假设空间H,保证输出为H中与正例一致的最特殊的假设。 存在的问题 是否收敛到了正确的目标概念? 为什么要用最特殊的假设? 训练样例是否相互一致?学习方法的健壮性 如果有多

11、个极大特殊假设怎么办?多概念下的学习?,概念学习的方法:变型空间和候选消除算法,候选消除算法概述 概念学习的另一种方法,候选消除算法(Candidate-Elimination) Find-S算法的不足,输出的假设只是H中能够拟合训练样例的多个假设中的一个; 候选消除算法输出与训练样例一致的所有假设的集合; 候选消除算法在描述这一集合时不需要明确列举所有成员; 利用more_general_than偏序结构,可以维护一个一致假设集合表示; 候选消除算法可用于启发式搜索控制规则来表示; 候选消除算法的缺点,容错性能差;,变型空间和候选消除算法(2),“一致”的定义 一个假设h与训练样例集合D一致

12、,当且仅当对D中每一个样例 都有h(x)=c(x),即: Consistent(h,D)(D)h(x)=c(x)“一致”与“满足”的关系; 变型(版本)空间VS(Version Space) 与训练样例一致的所有假设组成的集合 表示了目标概念的所有合理的变型(版本) 关于H和D的变型空间,记为VSH,D,是H中与训练样例D一致的所有假设构成的子集:VSH,D=hH|Consistent(h,D),变型空间和候选消除算法(3),先列表后消除法 能表示变型空间的一种方法是列出其所有成员; 变型空间VS 包含H中所有假设的列表; 对每个训练样例,从变型空间中移除所有h(x)c(x)的假设; 输出VS

13、中的假设列表; 优点 保证得到所有与训练数据一致的假设; 缺点 非常繁琐地列出H中的所有假设,大多数实际的假设空间无法做到。,变型空间和候选消除算法(4),变型空间的更简洁表示 变型空间被表示为它的极大一般g和极大特殊s的成员; 这些成员形成了一般和特殊边界的集合,这些边界在整个偏序结构中划分出变型空间;,g,s,VSH,D,变型空间 Version Space,变型空间方法的初始G集是最上面的一个点(最一般的概念),初始S集是最下面的直线上的点(训练正例),初始 H集是整个规则空间。 在搜索过程中,G 集逐步下移(进行特例化),S 集逐步上移(进行泛化),H 逐步缩小。最后H收敛为只含一个要

14、求的概念。,变型空间方法以整个规则空间为初始的假设规则集合H, =H 。 依据训练例子中的信息,它对集合H进行泛化或特化处理,逐步缩小集合H。最后使H收敛为只含有要求的规则。由于被搜索的空间H逐步缩小,故称为变型空间。,VSH,D,VSH,D,初始变型空间,例化,泛化,g,s,第一个训练实例(sm cir),第二个训练实例(lg,tri),第三个训练实例(lg,cir),消除候选算法,(1)正规的初始H集是整个规则空间,这时S包含所有可能的训练正例(最特殊的概念)。这时S集规模太大。实际算法的初始S集只包含第一个训练正例, 这种H就不是全空间了。(2)接收一个新的训练例子。如果是正例,则首先由

15、G中去掉不覆盖新正例的概念,然后修改S为由新正例和S原有元素共同归纳出的最特殊的结果(这就是尽量少修改S,但要求S覆盖新正例)。如果这是反例,则首先由S中去掉覆盖该反例的概念,然后修改G为由新反例和G原有元素共同作特殊化的最一般的结果(这就是尽量少修改G,但要求G不覆盖新反例)。,变型空间和候选消除算法(5),形式化定义 极大一般:更一般中的极大者(元)-下确界 极大特殊:更特殊中的极小者(元)-上确界 关于假设空间H和训练数据D的一般边界G,是在H中与D相一致的极大一般成员的集合 关于假设空间H和训练数据D的特殊边界S,是在H中与D相一致的极大特殊成员的集合,变型空间和候选消除算法(6),变

16、型空间定理: 令X为一任意的实例集合,H为X上定义的布尔假设的集合。令c: X0,1为X上定义的任一目标概念,并令D为任一训练样例集合。对所有的X, H, c, D以及定义的S和G:VSH,D=hH|(sS)( gG)(gghgs)变型空间中的任意假设h一定更一般特殊边界S而更特殊一般边界G,变型空间和候选消除算法(7),候选消除算法(candidate-elimination ) 初始化G和S 如果d是一个正例 从G中移去所有与d不一致的假设 对S中每个与d不一致的假设s 从S中移去s 把s的所有的极小泛化式h加入到S中,其中h满足h与 d一致,而且G的某个成员比h更一般 如果d是一个反例

17、从S中移去所有与d不一致的假设 对G中每个与d不一致的假设g 从G中移去g 把g的所有的极小特殊化式h加入到G中,其中h满足h与d一致,而且S的某个成员比h更特殊 从G中移去所有这样的假设:它比G中另一个假设更特殊,变型空间和候选消除的说明,候选消除算法收敛到正确的假设 训练样例中没有错误 H中包含描述目标概念的正确假设 如果样例中存在错误 如果给定足够的训练数据,S和G边界收敛得到一个空的变型空间 如果目标概念不能由假设表示方式所描述 相似情况出现,变型空间和候选消除的说明(2),下一步需要什么样的训练样例 一般来说,概念学习的最优查询策略,是产生实例以满足当前变型空间中大约半数的假设。这样

18、,变型空间的大小可以在遇到每个新样例时减半,正确的目标概念就可在只用log2|VS|次实验后得到。,变型空间和候选消除的说明(3),怎样使用不完全学习概念 即便变型空间中包含多个假设,即目标概念还未学习到,但是仍然有可能对新样例进行一定可信度的分类。,归纳偏置,有关候选消除算法的几个问题 如果目标概念不在假设空间中怎么办? 是否可设计一个包含所有假设的空间来解决这一困难? 假设空间的大小对于算法推广到未见实例的能力有什么影响? 假设空间的大小对所需训练样例的数量有什么影响?,归纳学习需要的预先假定,称为归纳偏置,归纳偏置(2),一个有偏的假设空间 在EnjoySport这个例子中,假设空间限制

19、为只包含属性值的合取。(肯定有偏) 因为这一限制,导致假设空间不能够表示最简单的析取形式的目标概念。,归纳偏置(3),无偏的学习器 为了保证目标概念在假设空间中,需要提供一个假设空间,它能表达所有的可教授概念。换言之,它能表达实例集X的所有子集。 EnjoySport的无偏形式 带来的问题:概念学习算法无法从训练样例中泛化。 要想获得单个目标概念,就必须提供X中所有实例作为训练样例,归纳偏置(4),无偏学习的无用性 归纳学习的一个基本属性:学习器如果不对目标概念的形式做预先的假定,它从根本上无法对未见实例进行分类,小 结,概念学习可看作搜索预定义潜在假设空间的过程; 假设的一般到特殊偏序结构可

20、以定义在任何概念学习问题中,这种结构便于假设空间的搜索; Find-S算法使用一般到特殊序关系,在偏序结构的一个分支上执行一般到特殊搜索,寻找一个与样例一致的最特殊假设; 候选消除算法利用一般到特殊的过程,通过渐进地计算极大特殊假设集合s和极大一般假设集合g发现变型空间; 候选消除算法缺少健壮性; 归纳学习算法隐含了归纳偏置,候选消除算法的偏置是:目标概念可以在假设空间中找到-所以又称限定偏置。输出的假设和对新实例的分类可由归纳偏置和训练样例演绎推出。,二 决策树学习,概 论,决策树学习是应用最广的归 纳学习(推理)算法之一 是一种逼近离散值函数的方法 很好的健壮性 能够学习析取表达式 ID3

21、-是著名的学习算法 搜索一个完整表示的假设空间 归纳偏置是优先选择较小的树 决策树表示了多个if-then规则,决策树表示法,决策树 通过把实例从根节点排列到某个叶子节点来分类实例。 叶子节点即为实例所属的分类 树上每个节点说明了对实例的某个属性的测试 节点的每个后继分支对应于该属性的一个可能值 决策树代表实例属性值约束的合取的析取式。从树根到树叶的每一条路径对应一组属性测试的合取,树本身对应这些合取的析取。,决策树举例,能否打羽毛球? (看天气情况),R1:if Outlook = Sunny Humidity = High then No R2:if Outlook = Sunny Hum

22、idity = Normal then Yes R1 R2,决策树,Outlook,Humidity,No,Yes,分支对应属性值,Sunny,Overcast,Rainy,High,Normal,决策树学习的适用问题,适用问题的特征 实例由“属性-值”对表示 目标函数具有离散的输出值 可能需要析取的描述 训练数据可以包含错误 训练数据也可以包含缺少属性值的实例 问题举例 根据疾病分类患者 根据起因分类设备故障 根据拖欠支付的可能性分类贷款申请 根据年龄、收入等分类银行信用卡的等级 分类问题 核心任务是把样例分类到各可能的离散值对应的类别,决策树学习的适用问题,客户的购买记录,确定下列商品是否

23、可能购买,决策树学习案例:一个模拟淘宝的简单示例,sellers(SID,WID,WPrice,WSold,WScore) customers(CID,CName,CType,CScore) wdivide(WID,WName,WType_1,WType_2,WType_3) shopcart(CID,SID,WID,Datetime,Amount) 用表cookie来模拟用户上网浏览产生的数据: cookie(SID,WID),数据库视图,1、数据库中的表customers:,2、购物车shopcarts:,数据表设计,3、商家店铺,根据网页用户浏览产生的cookie来推荐给用户商品,coo

24、kie中信息,推荐其他的,适合用户的,迫切需求的,代码设计,declare type_1 nchar(12),type_2 nchar(12),type_3 nchar(12),name varchar(16),sid char(10),wid char(10) select sid = cookie.SID,wid = cookie.WID,name = WName,type_1=WType_1,type_2=WType_2,type_3 = WType_3from wdivide,cookie where wdivide.WID = cookie.WID; select name “您正在

25、浏览的物品“,sid “商家编号“,type_1 “种类“, type_2 “性质“,type_3 “品牌“; select WName “您可能喜欢的物品“,SID “商家编号“,WType_1 “种类“,WType_2 “性质“,WType_3 “品牌“ from wdivide,sellerswhere WType_1 = type_1 and WType_2 = type_2 and wdivide.WID = sellers.WID and sellers.WID wid;,根据购物车来推荐商品, 按最简单的分类方式-决策树方法,种类,性质,这里选取了购物车中的一条记录进行了模拟,而

26、现实生活中肯定会有大量的数据存在,所以真实的淘宝因其成千上万的数据要显示给用户,其界面会显得让人眼花缭乱,分类:,推荐商品:,作 者 :孙志刚 指导老师 :赵合计 教 授,基本的决策树学习算法,大多数决策树学习算法是一种核心算法的变体 采用自顶向下的贪婪搜索遍历可能的决策树空间 ID3(IDentification 辨认)是这种算法的代表,基本的决策树学习算法(2),ID3的思想 自顶向下构造决策树 从“哪一个属性将在树的根节点被测试”开始 使用统计测试来确定每一个实例属性单独分类训练样例的能力 ID3的过程 分类能力最好的属性被选作树的根节点(如长相、收入、天气等) 根节点的每个可能值产生一

27、个分支 训练样例排列到适当的分支 重复上面的过程,ID3算法,1、随机选择训练实例的子集构成训练窗口 2、重复执行下列步骤: (1) 对窗口内的实例集构造其决策树;(2) 寻找决策树的一个反例(3)如果反例存在,将其加入到训练窗口中 ,并转 (1) ;否则返回得到的决策树。,ID3检查所有的候选属性,选择增益最大的属性A作为根结点,形成树。然后,对子树 C1, C2, , Cm以同样处理,递归地形成决策树。,ID3算法,最佳分类属性(1),实例集中实例的属性的重要性是不同的,如何评价属性所得到信息量的多少,引入信息增益-Gain的概念刻画。 信息增益 用来衡量给定的属性区分训练样例的能力 ID

28、3算法在增长树的每一步使用信息增益从候选属性中选择属性 用熵( Entropy )度量样例的均一性 熵刻画了任意样例集的纯度 给定包含关于某个目标概念的正反样例的样例集S,那么S相对这个布尔型分类的熵为 例如:26个字母,每个字母的熵;-log2(1/26)=4.7 2500个汉字每个汉字的熵-log2(1/2500)=11.29 Entropy(S)= -Pos*log2Pos - Neg*log2Neg,最佳分类属性(2),Entropy(S)= -Pos*log2Pos - Neg*log2NegPos, Neg分别表示S中正负实例的比例,如3个正实例,6个负实例: Entropy3+,

29、6-= -3/9*log2 (3/9)-6/9*log2 (6/9)= -1/3*(-1.585)-1/3*(-0.585)=0.9182Entropy1+,6-= -1/7*log2 (1/7) - 6/7*log2 (6/7) =0.5617,最佳分类属性(2),Entropy6+,6-=-6/12*log2 (6/12)-6/12*log2 (6/12)=1 Entropy0+,6-=-0/6*log2 (0/6)-6/6*log2 (6/6)=0 Entropy6+,0-=-6/6*log2 (6/6)-0/6*log2 (0/6)=0 如果所有的实例都为正或都为负,则熵为0, 如Po

30、s= Neg=1/2(最均匀,平均);有则熵为1 熵的取值是 0,1,曲线如下,更一般地,如果目标属性具有c个不同的值,那么S相对于c个状态的分类的熵定义为Entropy(S)=,其中Pi表示第i个输出所占训练窗口中总的输出数量的比例.,最佳分类属性,为了检测每个属性的重要性,可以通过每个属性的信息增益Gain来评估其重要性,对于属性A,假设其域值为(v1,v2,vn),则训练实例中属性的信息增益定义如下:其中Si表示S中属性A的值为Vi的子集,|Si|表示集合的势.,通过计算各属性的信息增益,可以选择信息量最大的属性作为决策树的根节点属性.,最佳分类属性,信息增益计算举例,首先计算熵 Ent

31、ropy(S)=,然后计算每个属性A的增益 Gain,ID3应用举例,其中9个yes正例, 5个no反例,计算信息增益选择最佳分类属性,Humidity,High,Normal,3+, 4-,6+, 1-,S=9+,5- E=0.940,Gain(S,Humidity)=Entropy(S)-7/14*Entropy(3+,4-) -7/14*Entropy(6+,1-) =0.940-(7/14)*0.985 (7/14)*0.592 =0.151,E=0.985,E=0.592,Entropy(9+,5-) = -9/14 log2 9/14 5/14 log2 5/14= 0.940 其

32、中属性Humidity=High样例有7个,3个正例,4个反例 Entropy(3+,4-) = -3/7 log2 3/7 4/7 log2 4/7= 0.985 Humidity= Normal样例有7个,6个正例,1个反例 Entropy(6+,1-) = -6/7 log2 6/7 1/7 log2 1/7= 0.592,计算信息增益选择最佳分类属性,Wind,Weak,Strong,6+, 2-,3+, 3-,S=9+,5- E=0.940,E=0.811,E=1.0,Gain(S,Wind)=Entropy(S)-8/14*Entropy(6+,2-) -6/14*Entropy(

33、3+,3-) =0.940-(8/14)*0.811 (6/14)*1.0 =0.048,Entropy(6+,2-) = -6/8 log2 6/8 2/8 log2 2/8= 0.811 Entropy(3+,3-) = -3/6 log2 3/6 3/6 log2 3/6= 1.0,选择下一个分类属性,Outlook,Sunny,Rainy,2+, 3-,3+, 2-,S=9+,5- E=0.940,Gain(S,Outlook) =0.940-(5/14)*0.971 -(4/14)*0.0 (5/14)*0.0971 =0.247,E=0.971,E=0.971,Overcast,4

34、+, 0,E=0.0,Gain(S,Outlook)=0.247 Gain(S,Humidity)=0.151 Gain(S,Wind)=0.048,ID3算法,Outlook,Sunny,Overcast,Rainy,Yes,D1,D2,D149+,5-,Ssunny=D1,D2,D8,D9,D112+,3-,?,?,D3,D7,D12,D134+,0-,D4,D5,D6,D10,D143+,2-,Gain(Ssunny , Humidity)=0.970-(3/5)0.0 2/5(0.0) = 0.970 Gain(Ssunny , Temp.)=0.970-(2/5)0.0 2/5(1.

35、0)-(1/5)0.0 = 0.570 Gain(Ssunny , Wind)=0.970 -(2/5)1.0 3/5(0.918) = 0.019,ID3算法,Outlook,Sunny,Overcast,Rainy,Humidity,High,Normal,Wind,Strong,Weak,No,Yes,Yes,Yes,No,D3,D7,D12,D13,D8,D9,D11,D6,D14,D1,D2,D4,D5,D10,决策树中的规则,Outlook,Sunny,Overcast,Rain,Humidity,High,Normal,Wind,Strong,Weak,No,Yes,Yes,Ye

36、s,No,R1: If (Outlook=Sunny) (Humidity=High) Then PlayTennis=No R2: If (Outlook=Sunny) (Humidity=Normal) Then PlayTennis=Yes R3: If (Outlook=Overcast) Then PlayTennis=Yes R4: If (Outlook=Rain) (Wind=Strong) Then PlayTennis=No R5: If (Outlook=Rain) (Wind=Weak) Then PlayTennis=Yes,决策树学习中的假设空间搜索,观察ID3的搜

37、索空间和搜索策略,认识到这个算法的优势和不足 假设空间包含所有的决策树,它是关于现有属性的有限离散值函数的一个完整空间 维护单一的当前假设(不同于变型空间候选消除算法) 不进行回溯,可能收敛到局部最优 每一步使用所有的训练样例,不同于基于单独的训练样例递增作出决定,容错性增强,决策树学习的归纳偏置,ID3的搜索策略 优先选择较短的树 优先选择那些信息增益值大(高)的属性作为离根节点较近的节点 近似的ID3的归纳偏置 较短的树比较长的树优先 近似在于ID3得到局部最优,而不一定是全局最优 更贴切近似的归纳偏置 较短的树比较长的树优先,信息增益高的属性更靠近根节点的树优先,ID3和候选消除算法的比

38、较,ID3和候选消除算法的比较 ID3的搜索范围是一个完整的假设空间,但不彻底地搜索这个空间 候选消除算法的搜索范围是不完整的假设空间,但彻底地搜索这个空间 ID3的归纳偏置完全是搜索策略排序假设的结果,来自搜索策略 候选消除算法完全是假设表示的表达能力的结果,来自对搜索空间的定义,限定偏置和优选偏置,优选偏置 ID3的归纳偏置是对某种假设胜过其他假设的一种优选,对最终可列举的假设没有硬性限制 限定偏置 候选消除算法的偏置是对待考虑假设的一种限定 通常优选偏置比限定偏置更符合归纳学习的需要 优选偏置和限定偏置的结合,决策树学习的常见问题,决策树学习的实际问题 确定决策树增长的深度 处理连续值的

39、属性 选择一个适当的属性筛选度量标准 处理属性值不完整的训练数据 处理不同代价的属性 提高计算效率 决策树的知识表示没有规则不易于理解; 两棵决策树比较是否等价问题是子图匹配问题 不能处理未知属性的情况.,决策树学习算法的发展,发现概念描述空间一种特别有效的方法是形成决策树。Hunt、Marin、和 Stone于1966年研制了一个概念学习系统CLS, 可以学习单个概念,并用此学到的概念分类新的实例。Quinlan于1983年研制了ID3(1983)。Schlimmer和 Fisher于1986年构造了ID4算法,允许递增式地 构造决策树。Utgoff于1988年提出ID5算法,它允许通过修改

40、决策树来增加新的训练实例,而无需重建决策树,决策树ID4,1986, Schlimmer 和Fisher设计了ID4学习算法, 是一种递增式学习算法。他们修改ID3算法,在每个可能的决策树结点创建一系列表。每个表由全部未检测属性值和每个值的正例和反例数组成。当处理一个新例时,每个属性值的正例或反例递增计量。,决策树ID4,输入: 决策树,一个实例输出: 决策树(1) 若该实例是正例,正例数加1,否则,反例数加1。(2) 如果实例全部为正例或反例,则返回决策树。(3) 否则(a) 计算期望信息分数。(b) 实例中出现的每个属性、每个值,使之递增正例数或者反例数。(c) 计算全部属性的信息分数。,

41、决策树ID4,(d)如果没有根,或者最大属性不在根结点,则创建新树。(i)如果最大属性是x2依赖关系,那么用它作为这棵树的根结点。(ii)链接根到每个根属性的值(e)跳转到步骤(1),下面创建的子树链到该实例的根属性值。,决策树ID5,在ID4的基础上Utgoff提出了ID5学习算法(Utgoff 1988)。ID5与ID4的差别在于检测属性。ID5抛弃旧的检测属性下面的子树,从下面选出检测属性形成树。这种方法的优点是在树操纵时重新计算正例和反例的数,不要对实例重新处理。,ID5算法,(1)对结点每个可能的检测属性,修改属性的正例和反例数,以及修改该属性值观察值的正例数和反例数。(2)如果非检

42、测属性的最低信息论测度低于当前的检测属性,则将该检测属性提上来,重新构造决策树。(3)在给定结点仅观察到正例或反例,那么保存其余训练实例。结束停止。(4)在实例描述中,对所希望检测属性值下面的决策树进行递归修改。,ID5属性提升算法,(1)递归地提升属性到最近子树的根结点。(2)对每个子树的分支值,将旧的检测属性推到新属性下,构造新的决策树。 这样,形成一组子树,每个根结点都是所希望的检测属性。(3)合并子树,形成决策树,其根结点是所希望的检测属性。,决策树在电子商务中的应用-基于营销数据库的推荐,美国著名的国家篮球队NBA的教练,利用IBM公司提供的数据挖掘工具临场决定替换队员。想象你是NB

43、A的教练,你靠什么带领你的球队取得胜利呢?当然,最容易想到的是全场紧逼、交叉扯动和快速抢断等具体的战术和技术。但是今天,NBA的教练又有了他们的新式武器:数据挖掘。大约20个NBA球队使用了IBM公司开发的数据挖掘应用软件Advanced Scout系统来优化他们的战术组合。例如Scout就因为研究了魔术队队员不同的布阵安排,在与迈阿密热队的比赛中找到了获胜的机会。,决策树在电子商务中的应用-NBA上场队员得分分析,系统分析显示魔术队先发阵容中的两个后卫安佛尼.哈德卫(Anfernee Hardaway)和伯兰.绍(Brian Shaw)在前两场中被评为17分,这意味着他俩在场上,本队输掉的分

44、数比得到的分数多17分。然而,当哈德卫与替补后卫达利尔.阿姆斯创(Darrell Armstrong)组合时,魔术队得分为正14分。 在下一场中,魔术队增加了阿姆斯创的上场时间。此着果然见效:阿姆斯创得了21分,哈德卫得了42分,魔术队以88比79获胜。魔术队在第四场让阿姆斯创进入先发阵容,再一次打败了热队。在第五场比赛中,这个靠数据挖掘支持的阵容没能拖住热队,但Advanced Scout毕竟帮助了魔术队赢得了打满5场,直到最后才决出胜负的机会。,决策树在电子商务中的应用-NBA上场队员得分分析,构建电脑购买历史数据的决策树,小 结,决策树学习为概念学习和学习其他离散值的函数提供了一个实用的方法 ID3算法 贪婪算法 从根向下推断决策树 搜索完整的假设空间 归纳偏置,较小的树 ID4算法, ID5算法等,

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报