收藏 分享(赏)

人工智能总结---矿大版.doc

上传人:dcjskn 文档编号:4313088 上传时间:2018-12-22 格式:DOC 页数:9 大小:446.96KB
下载 相关 举报
人工智能总结---矿大版.doc_第1页
第1页 / 共9页
人工智能总结---矿大版.doc_第2页
第2页 / 共9页
人工智能总结---矿大版.doc_第3页
第3页 / 共9页
人工智能总结---矿大版.doc_第4页
第4页 / 共9页
人工智能总结---矿大版.doc_第5页
第5页 / 共9页
点击查看更多>>
资源描述

1、(只有部分概念,计算题不包括)第一章【人工智能的定义】人工智能主要研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人类智力才能胜任的工作。人工智能的发展划分为:孕育期(1956 年前)形成期(1956 年-1969 年)-达特茅斯会议发展期-基于知识的系统实用期-神经网络的复兴智能主体的兴起符号主义:(AI 研究的传统观点)强调物理符号系统,思维过程是富符号模式的处理过程。联接主义:又称仿生学派,强调神经元的运作。行为主义:智能行为的基础是“感知-行动”,是在与环境的交互作用中表现出来的。人工智能的主要研究领域:专家系统 数据挖掘 语义 web 自然语言理解

2、机器人 模式识别 智能控制 博弈 自动证明定理第二章:知识表示知识表示是数据结构及其处理机制的综合知识表示=符号(结构)+ 处理机制基本的知识表示方式谓词逻辑表示法 产生式表示法 语义网络表示法 框架表示法脚本 状态空间表示法 面向对象的知识表示产生式规则通常用于表示事物间的因果关系;【基本形式】IF P then Q 或 P Q,其中P 表示规则的条件(或称前提) ;Q 表示规则激活时应该执行的动作(或得到的结论) ;【规则分类】前提-结论型条件-动作型 产生式系统的组成把一组产生式放在一起,让他们互相配合,协同作用,一个产生式生成的结论可以供另一个产生式作为已知事实使用,以求得问题的解决,

3、这样的系统称为产生式系统。一般说来,一个产生式系统由以下三个基本部分组成产生式系统推理机的推理方式有正向推理、反向推理和双向推理三种。语义网络1. 类属关系AKO(A-Kind-of):表示一个事物是另一个事物的一种类型。AMO(A-Member-of):表示一个事物是另一个事物的成员。ISA(Is-a):表示一个事物是另一个事物的实例。2. 包含关系Part-of,Member-of3.属性关系Have:表示一个结点具有另一个结点所描述的属性。Can:表示一个结点能做另一个结点的事情。4.时间关系Before:表示一个事件在一个事件之前发生。After:表示一个事件在一个事件之后发生。5.

4、位置关系Located-on:表示一物体在另一物体之上。Located-at: 表示一物体在某一位置。Located-under: 表示一物体在另一物体之下。Located-inside: 表示一物体在另一物体之中。Located-outside: 表示一物体在另一物体之外。6. 相近关系Similar-to:表示一事物与另一事物相似。Near-to: 表示一事物与另一事物接近。7. 因果关系If-then8. 组成关系Compsoed-of每个学生都学习了一门外语应该知道就行了吧,呵呵 、框架的一般表示结构框架由描述事物各个方面属性的槽(slot)组成框架更强调表示事物的内部结构;语义网络节

5、点更强调表示事物间的关系;(1)ISA 槽ISA 槽用于指出对象间抽象概念上的类属关系。其直观意义是“是一个” , “是一种” ,“是一只”。在一般情况下,用 ISA 槽指出的联系都具有继承性。(2)AKO 槽AKO 槽用于具体地指出对象间的类属关系。其直观意义是“是一种” 。当用它作为某下层框架的槽时,就明确地指出了该下层框架所描述的事物是其上层框架所描述事物中的一种,下层框架可继承上层框架中值或属性。(3)Instance 槽Instance 槽用来表示 AKO 槽的逆关系。当用它作为某上层框架的槽时,可在该槽中指出它所联系的下层框架。用 Instance 槽指出的联系都具有继承性,即下层

6、框架可继承上层框架中所描述的属性或值。(4)Part-of 槽Part-of 槽用于指出部分和全体的关系。当用其作为某框架的一个槽时,槽中所填的值称为该框架的上层框架名,该框架所描述的对象只是其上层框架所描述对象的一部分。第三章符号说明:s-初始状态节点G-搜索图OPEN-存放待展扩节点的表CLOSE-存放已被扩展的节点的表MOVE-FIRST(OPEN)-取 OPEN 表首的节点作为当前要被扩展的节点 n,同时将节点 n 移至CLOSE 表盲目搜索常用的简单方式: 宽度优先(基本思想)扩展当前节点后生成的子节点总是置于 OPEN 表的后端,即 OPEN 表作为队列使用,先进先出,使搜索优先向

7、横广方向发展。 深度优先(基本思想)扩展当前节点后生成的子节点总是置于 OPEN 表的前端,即 OPEN 表作为栈使用,后进先出,使搜索优先向纵深方向发展。深度优先、宽度优先 比较:适用场合 深度优先当一个问题有多个解答或多条解答路径,且只须找到其中一个时;往往应对搜索深度加以限制。 宽度优先确保搜索到最短的解答路径。共同优缺点: 可直接应用一般图搜索算法实现,不需要设计特别的节点排序方法,从而简单易行,适合于许多复杂度不高的问题求解任务。 节点排序的盲目性,由于不采用领域专门知识去指导排序,往往会在白白搜索了大量无关的状态节点后才碰到解答,所以也称为盲目搜索。 启发式搜索1.A 算法(掌握)

8、【基本思想】设计体现启发式知识的评价函数 f(n);指导一般图搜索中 OPEN 表待扩展节点的排序:【评价函数 f(n)=g(n)+h(n) (掌握) 】n-搜索图 G 中的节点;f(n)- G 中从 s 经 n 到 ng,估计的最小路径代价;g(n)- G 中从 s 到 n,目前实际的路径代价;h(n)-从 n 到 ng,估计的最小路径代价; h(n)值-依赖于启发式知识加以计算;h(n)称为启发式函数(掌握意义!) 。如何用评价函数来实现 A 算法 ? ( 掌握!)A 算法的设计与一般图搜索相同,划分为二个阶段:1、初始化 建立只包含初始状态节点 s 的搜索图 G:=sOPEN:=sCLO

9、SE:= 2、搜索循环MOVE-FIRST(OPEN)-取出 OPEN 表首的节点 n 扩展出 n 的子节点,插入搜索图 G 和 OPEN 表 对每个子节点 ni,计算 f(n,ni)=g(n,ni)+h(ni)适当的标记和修改指针(子节点 父节点)排序 OPEN 表(评价函数 f(n)的值排序)通过循环地执行该算法,搜索图会因不断有新节点加入而逐步长大,直到搜索到目标节点A 算法的可采纳性定义 f*(n)=g*(n)+h*(n)n-搜索图 G 中最短解答路径的节点;f*(n)- s 经节点 n 到 ng 的最短解答路径的路径代价;g*(n)-该路径前段(从 s 到 n)的路径代价;h*(n)

10、-该路径后段(从 n 到 ng)的路径代价;A*算法定义:1、在 A 算法中,规定 h(n) h*(n);2、经如此限制以后的 A 算法就是 A*算法。A*算法是可采纳的,即总能搜索到最短解答路径启发式函数的强弱及其影响定理:解决同一问题的两个 A*算法 A1 和 A2,若 h1(n) h2(n) h*(n) 且 g1(n)=g2(n)则 t(A1) t(A2)其中,h1、h2 分别是算法 A1、A2 的启发式函数,t 指示相应算法到达目标状态时搜索图含的节点总数。h(n)接近 h*(n)的程度衡量启发式函数的强弱A*算法搜索问题解答的关键h(n)在满足 h(n) h*(n) 的条件下,越大越

11、好!问题规约:是由初始问题出发,运用操作算子产生一些子问题,对子问题再运用操作算子产生子问题的子问题,这样一直进行到产生的问题均为本原问题,则问题得解。 启发式函数的强弱及其影响定理:解决同一问题的两个 A*算法 A1 和 A2,若 h1(n) h2(n) h*(n) 且 g1(n)=g2(n)则 t(A1) t(A2)其中,h1、h2 分别是算法 A1、A2 的启发式函数,t 指示相应算法到达目标状态时搜索图含的节点总数。算法 AO*与 A*的比较解图解答路径估计代价最小的局部解图加以优先扩展OPEN 表中 f(n)最小的节点;只考虑评价函数 f(n)=h(n)同时计算分量 g(n)和 h(

12、n),应用 LGS 存放待扩展局部解图,并依据 fi(n0)值排序 应用 OPEN 表和 CLOSE 表分别存放待扩展节点和已扩展节点,并依据 f(n)值排序 OPEN 表。MINMAX 基本思想:(1)当轮到 MIN 走步的节点时(取与时) ,MAX 应考虑最坏的情况(即 f(p)取极小值) 。(2)当轮到 MAX 走步的节点时(取或时) ,MAX 应考虑最好的情况(即 f(p)取极大值) 。(3)评价往回倒推时,相应于两位棋手的对抗策略,交替使用(1)和(2)两种方法传递倒推值。所以这种方法称为极大极小过程。- 过程就是把生成后继和倒推值估计结合起来,及时剪掉一些无用分支,以此来提高算法的

13、效率。第四章谓词公式永真性和可满足性概念:永真永假:如果谓词公式 P,对个体域 D 上的任何一个解释都取得了真值(假值) ,则称P 在 D 上是永真的(永假的) ;如果公式 P 在每个非空个体域上均为永真(永假) ,则称 P永真(永假的) 。可满足:对于谓词公式 P,如果至少存在一个解释使得公式 P 在此解释下的真值为真,则称公式 P 是可满足的。连词优先级别是 非,、,蕴含,等价,但可通过括号改变优先级。空子句设 C1=L、 C2= L,则归结式 C 为空;以表示为空的归结式 C,并称 C=为空子句;因为 C1 和 C2 是一对矛盾子句,不可同时满足,所以是不可满足的子句;通过往 S 中加入

14、而产生的扩展子句集 S不可满足;空子句是用归结原理判定子句集 S 不可满足的成功标志。空子句是不可满足(即永假)的子句归结反演的基本思路:要从作为事实的公式集 F 证明目标公式 W 为真;先将 W 取反W ,加入公式集 F;标准化 FW 为子句集 S;通过归结演绎证明 S 不可满足,得出 W 为真的结论。第五章要实现对不确定性知识的处理,要解决不确定知识的表示问题 不确定信息的计算问题不确定性表示 计算的语义解释问题3 种不确定推理方法(不同的确定性程度定义):主观 Bayes 方法 可信度方法 证据理论LS充分性因子=1:O(Q/P)=O(Q),P 对 Q 无影响;1:O(Q/P)O(Q),

15、P 支持 Q;1:O(Q/P)O(Q),P 支持 Q;1:O(Q/P)O(Q), P 不支持 Q;主观 Bayes:分段线性插值:可信度定义:规则的不确定性MYCIN 提出的可信度方法中,推理规则表示为:)()(|)(| 21 QOQOPQOPIF E THEN H,CF(H,E),其中:证据 E命题的合取和析取组合;结论 H单一命题;CF(H,E)确定性因子,简称为可信度,证据 E 为真的情况下,结论 F 为真的可能程度;CF(H,E)=MB(H,E)-MD(H,E)MB(H,E)=a 信任度量证据 E 成立使结论 H 的可信度增加了数量 a;MD(H,E)=b 不信任度量证据 E 成立使结

16、论 H 的不可信度增加了数量 b;信任函数 BelBel(A)=A 的所有子集 B 的基本概率 m(B)之和;Bel(A)表示当前证据下,假设集 A 的综合信任度;似然(真)函数 PlPl(A)=所有与 A 相交的子集 B 的基本概率 m(B)之和Pl(A)表示 A 非假的信任程度表示对 A 不知道是真是假的程度:Bel(A),Pl(A)来综合描述 A 的不确定性;3 个特殊区间:1,1:信任 A 为真;0,0:信任 A 为假;0,1:对 A 是真是假一无所知;1,0:错误假设集 A 的类概率函数 f(A)其中:|A|:假设集 A 包含元素的个数;|U|:论域 U 包含元素的个数;第六章学习系

17、统的基本结构如图所示机器学习所采用的策略可分为: 机械学习 示教学习 类比学习 示例学习AmBel )()(BelPl )()(1)( 1)(UBel0)(Bel 1)(Pl0)(Pl)(ABelAl)(Bell)()()()( ABelPlBelf 0)(f1Uf环境 学习 知识库 执行归纳学习(induction learning)是应用归纳推理进行学习的一种方法。根据归纳学习有无教师指导,可把它分为示例学习和观察与发现学习。前者属于有师学习,后者属于无师学习。归纳学习的双空间模型特化搜索从最泛化的假设(概念描述)出发;每次取用一个新的例子,产生一些特化的描述;直到产生出足够特化的解描述; 泛化搜索从最特化的假设(例子空间中的一个正例)开始;每次取用一个新的例子,产生一些泛化的描述;直到产生出足够泛化的解描述。“泛化策略”:采用宽度优先、自底向上的搜索方式;“特化策略”:采用宽度优先、自顶向下的搜索方式;【相同点】新例子的加入会导致新假设的增加和已存在假设的删除 ;正例剪裁过于特化的假设。反例生成一些特化假设ID3 算法优缺点:优点:分类和测试速度快,特别适合于大数据库的分类问题。缺点:决策树的知识表示不如规则那样易于理解;两颗决策树进行比较,以判断它们是否等价的问题是子图匹配问题,是 NP 完全的;不能处理未知属性值的情况;对噪声问题没有好的处理方法。

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 实用文档 > 工作总结

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报