ImageVerifierCode 换一换
格式:DOC , 页数:3 ,大小:143KB ,
资源ID:3120939      下载积分:10 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.docduoduo.com/d-3120939.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(K-means聚类算法基本思想.doc)为本站会员(weiwoduzun)主动上传,道客多多仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知道客多多(发送邮件至docduoduo@163.com或直接QQ联系客服),我们立即给予删除!

K-means聚类算法基本思想.doc

1、K-means 聚类算法基本思想 聚类分析以相似性为基础,在一个聚类中的模式之间比不在同一聚类中的模式之间具有更多的相似性。K-means 也是聚类算法中最简单的一种。以星团划分为例,首先随机选取 k 个宇宙中的点(或者 k 个星星)作为 k个星团的质心,然后第一步对于每一个星星计算其到 k 个质心中每一个的距离,然后选取距离最近的那个星团作为,这样经过第一步每一个星星都有了所属的星团;第二步对于每一个星团,重新计算它的质心 (对里面所有的星星坐标求平均)。重复迭代第一步和第二步直到质心不变或者变化很小。K-means 也是聚类算法中最简单的一种了,但是里面包含的思想却是不一般。最早我使用并实

2、现这个算法是在学习韩爷爷那本数据挖掘的书中,那本书比较注重应用。看了 Andrew Ng 的这个讲义后才有些明白 K-means 后面包含的EM 思想。聚类属于无监督学习,以往的回归、朴素贝叶斯、SVM 等都是有类别标签 y 的,也就是说样例中已经给出了样例的分类。而聚类的样本中却没有给定 y,只有特征 x,比如假设宇宙中的星星可以表示成三维空间中的点集 。聚类的目的是找到每个样本 x 潜在的类别 y,并将同类别 y 的样本 x 放在一起。比如上面的星星,聚类后结果是一个个星团,星团里面的点相互距离比较近,星团间的星星距离就比较远了。在聚类问题中,给我们的训练样本是 ,每个 ,没有了 y。K-

3、means 算法是将样本聚类成 k 个簇(cluster),具体算法描述如下:1、 随机选取 k 个聚类质心点(cluster centroids)为 。2、 重复下面过程直到收敛 对于每一个样例 i,计算其应该属于的类对于每一个类 j,重新计算该类的质心K 是我们事先给定的聚类数, 代表样例 i 与 k 个类中距离最近的那个类, 的值是 1 到 k 中的一个。质心代表我们对属于同一个类的样本中心点的猜测,拿星团模型来解释就是要将所有的星星聚成 k 个星团,首先随机选取 k 个宇宙中的点(或者 k 个星星)作为 k 个星团的质心,然后第一步对于每一个星星计算其到 k 个质心中每一个的距离,然后

4、选取距离最近的那个星团作为 ,这样经过第一步每一个星星都有了所属的星团;第二步对于每一个星团,重新计算它的质心 (对里面所有的星星坐标求平均)。重复迭代第一步和第二步直到质心不变或者变化很小。下图展示了对 n 个样本点进行 K-means 聚类的效果,这里 k 取 2。K-means 面对的第一个问题是如何保证收敛,前面的算法中强调结束条件就是收敛,可以证明的是 K-means 完全可以保证收敛性。下面我们定性的描述一下收敛性,我们定义畸变函数(distortion function)如下:J 函数表示每个样本点到其质心的距离平方和。K-means 是要将 J 调整到最小。假设当前 J 没有达

5、到最小值,那么首先可以固定每个类的质心 ,调整每个样例的所属的类别 来让 J 函数减少,同样,固定 ,调整每个类的质心 也可以使 J 减小。这两个过程就是内循环中使 J 单调递减的过程。当 J 递减到最小时, 和 c 也同时收敛。(在理论上,可以有多组不同的 和 c 值能够使得 J 取得最小值,但这种现象实际上很少见)。由于畸变函数 J 是非凸函数,意味着我们不能保证取得的最小值是全局最小值,也就是说 k-means 对质心初始位置的选取比较感冒,但一般情况下 k-means 达到的局部最优已经满足需求。但如果你怕陷入局部最优,那么可以选取不同的初始值跑多遍 k-means,然后取其中最小的

6、J 对应的 和 c 输出。下面累述一下 K-means 与 EM 的关系,首先回到初始问题,我们目的是将样本分成 k 个类,其实说白了就是求每个样例 x 的隐含类别 y,然后利用隐含类别将 x 归类。由于我们事先不知道类别 y,那么我们首先可以对每个样例假定一个 y 吧,但是怎么知道假定的对不对呢?怎么评价假定的好不好呢?我们使用样本的极大似然估计来度量,这里是就是 x 和 y 的联合分布 P(x,y)了。如果找到的 y 能够使 P(x,y)最大,那么我们找到的 y 就是样例 x 的最佳类别了,x 顺手就聚类了。但是我们第一次指定的 y 不一定会让 P(x,y)最大,而且 P(x,y)还依赖于

7、其他未知参数,当然在给定y 的情况下,我们可以调整其他参数让 P(x,y)最大。但是调整完参数后,我们发现有更好的 y 可以指定,那么我们重新指定 y,然后再计算 P(x,y)最大时的参数,反复迭代直至没有更好的 y 可以指定。这个过程有几个难点,第一怎么假定 y?是每个样例硬指派一个 y 还是不同的 y 有不同的概率,概率如何度量。第二如何估计 P(x,y),P(x,y)还可能依赖很多其他参数,如何调整里面的参数让 P(x,y)最大。这些问题在以后的篇章里回答。这里只是指出 EM 的思想,E 步就是估计隐含类别 y 的期望值,M 步调整其他参数使得在给定类别 y 的情况下,极大似然估计 P(

8、x,y)能够达到极大值。然后在其他参数确定的情况下,重新估计 y,周而复始,直至收敛。上面的阐述有点费解,对应于 K-means 来说就是我们一开始不知道每个样例 对应隐含变量也就是最佳类别。最开始可以随便指定一个 给它,然后为了让 P(x,y)最大(这里是要让 J 最小),我们求出在给定 c 情况下,J 最小时的 (前面提到的其他未知参数),然而此时发现,可以有更好的 (质心与样例 距离最小的类别)指定给样例 ,那么 得到重新调整,上述过程就开始重复了,直到没有更好的 指定。这样从 K-means 里我们可以看出它其实就是 EM 的体现,E 步是确定隐含类别变量 ,M 步更新其他参数 来使 J 最小化。这里的隐含类别变量指定方法比较特殊,属于硬指定,从 k 个类别中硬选出一个给样例,而不是对每个类别赋予不同的概率。总体思想还是一个迭代优化过程,有目标函数,也有参数变量,只是多了个隐含变量,确定其他参数估计隐含变量,再确定隐含变量估计其他参数,直至目标函数最优。

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报