1、1,神经网络BP算法案例,2,【例】 假设训练样本s的属性值为1,0,1,实际类别分别为1,两层前馈神经网络NT如图1所示,NT中每条有一向加权边的权重、每个隐藏层与输出层单元的偏置如表1所示,学习率为0.9。写出输入S训练NT的过程。,神经网络BP算法案例,图1 两层前馈神经网络,3,首先算出单元4、5、6的输入、输出,具体结果见表1,然后计算4、5、6的误差,见表2;NT中每条有向加权边的新权重、每个隐藏层与输出层单元的新偏置见表3。,图2 两层前馈神经网络,神经网络BP算法案例,4,表1 权重、单元的偏置,神经网络BP算法案例,5,表2 隐藏层与输出层每个单元的输入、输出,神经网络BP算
2、法案例,6,表3 隐藏层与输出层每个单元的误差,神经网络BP算法案例,7,表4 有向加权边的新权重、每个隐藏层与输出层单元的新偏置,神经网络BP算法案例,由Apriori关联算法 推算,牛奶可以搭配哪些商品,从一家公司的销售记录中我们找到以下8条消费记录,并以3作为最小支持度,也就是说出现频率在3次以下的记录是被我们所忽略的。,所有满足最小支持度3的1项频繁集如下 (其中巧克力、香蕉、葡萄的支持度为1,不满足条件),所有满足最小支持度3的2项频繁集如下 :,递归执行,所有满足最小支持度3的3项频繁集只剩下一条:,再次递归执行,那么牛奶,果酱,面包就是我们要的满足最小支持度3的3项频繁集,也就是
3、说牛奶、果酱和面包这三种是最被经常一起买的。,然而,在研究挖掘关联规则的过程中,许多学者发现在实际应用中,对于很多应用来说,由于数据分布的分散性,数据比较少,所以很难在数据最细节的层次上发现一些强关联规则。要想在原始的概念层次上发现强的(strong)和有意义的(interesting)关联规则是比较困难的 。,当我们引入概念层次后,就可以在较高的层次上进行挖掘 。所以数据挖掘应该提供这样一种在多个层次上进行挖掘的功能。,概念层次(Concept Hierarchy)是指将大量的概念用层次化的方法组织起来,使得子概念所包含的意义比它的父亲更加特殊,可以被其父概念所概括 。,概念层次在要挖掘的数
4、据库中经常是存在的,比如在一个超市中会存在这样的概念层次:蒙牛牌牛奶是牛奶,伊利牌牛奶是牛奶,王子牌饼干是饼干,康师傅牌饼干是饼干等。 可以用有向无环图 (directed acyclic graph )表示概念层次,如下:,从有向无环图 (directed acyclic graph )可以看出,如果我们只是在数据基本层发掘关系,蒙牛牌牛奶,王子牌饼干,蒙牛牌牛奶,康师傅牌饼干,伊利牌牛奶,王子牌饼干,伊利牌牛奶,康师傅牌饼干都不符合最小支持度。不过如果我们上升一个层级,可能会发现牛奶,饼干 的关联规则是有一定支持度的。这样我们就可以在较高的概念层次上发现关联规则。,关联规则,同层关联规则,层间关联规则,单维关联规则,多维关联规则,关联规则的分类,同层关联规则可以采用两种支持度策略: 统一的最小支持度:对于不同的层次,都使用同一个最小支持度。这样比较容易,但是弊端也是显而易见的。 递减的最小支持度:每个层次都有不同的最小支持度,较低层次的最小支持度相对较小。同时还可以利用上层挖掘得到的信息进行一些过滤的工作。层间关联规则考虑最小支持度的时候,应该根据较低层次的最小支持度来定。,支持度的设置策略,