ImageVerifierCode 换一换
格式:DOC , 页数:7 ,大小:98.36KB ,
资源ID:11333833      下载积分:10 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.docduoduo.com/d-11333833.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(机器学习10大算法-周辉.doc)为本站会员(HR专家)主动上传,道客多多仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知道客多多(发送邮件至docduoduo@163.com或直接QQ联系客服),我们立即给予删除!

机器学习10大算法-周辉.doc

1、机器学习 10 大算法什么是机器学习呢?从广泛的概念来说,机器学习是人工智能的一个子集。人工智能旨在使计算机更智能化,而机器学习已经证明了如何做到这一点。 简而言之,机器学习是人工智能的应用。 通过使用从数据中反复学习到的算法,机器学习可以改进计算机的功能,而无需进行明确的编程。机器学习中的算法有哪些?如果你是一个数据科学家或机器学习的狂热爱好者,你可以根据机器学习算法的类别来学习。机器学习算法主要有三大类:监督学习、无监督学习和强化学习。监督学习使用预定义的“训练示例”集合,训练系统,便于其在新数据被馈送时也能得出结论。系统一直被训练,直到达到所需的精度水平。无监督学习给系统一堆无标签数据,

2、它必须自己检测模式和关系。 系统要用推断功能来描述未分类数据的模式。强化学习强化学习其实是一个连续决策的过程,这个过程有点像有监督学习,只是标注数据不是预先准备好的,而是通过一个过程来回调整,并给出“标注数据” 。机器学习三大类别中常用的算法如下:1. 线性回归工作原理:该算法可以按其权重可视化。但问题是,当你无法真正衡量它时,必须通过观察其高度和宽度来做一些猜测。通过这种可视化的分析,可以获取一个结果。回归线,由 Y = a * X + b 表示。Y =因变量; a=斜率;X =自变量;b= 截距。通过减少数据点和回归线间距离的平方差的总和,可以导出系数 a 和 b。2. 逻辑回归根据一组独

3、立变量,估计离散值。它通过将数据匹配到 logit 函数来帮助预测事件。下列方法用于临时的逻辑回归模型:添加交互项。消除功能。正则化技术。使用非线性模型。3. 决策树利用监督学习算法对问题进行分类。决策树是一种支持工具,它使用树状图来决定决策或可能的后果、机会事件结果、资源成本和实用程序。根据独立变量,将其划分为两个或多个同构集。决策树的基本原理:根据一些 feature 进行分类,每个节点提一个问题,通过判断,将数据分为两类,再继续提问。这些问题是根据已有数据学习出来的,再投入新数据的时候,就可以根据这棵树上的问题,将数据划分到合适的叶子上。优点:与回归一样,决策树组合在实践中表现也很好。由

4、于它们的分层结构,它们对离群值、可伸缩性和自然模型的非线性决策边界具有鲁棒性。弱点:无约束,单个树容易过度拟合,但这可以通过集成方法来缓解。4. 支持向量机(SVM)基本原理(以二维数据为例):如果训练数据是分布在二维平面上的点,它们按照其分类聚集在不同的区域。基于分类边界的分类算法的目标是,通过训练,找到这些分类之间的边界(直线的称为线性划分,曲线的称为非线性划分) 。对于多维数据(如 N 维) ,可以将它们视为 N 维空间中的点,而分类边界就是 N 维空间中的面,称为超面(超面比 N 维空间少一维) 。线性分类器使用超平面类型的边界,非线性分类器使用超曲面。要将两类分开,想要得到一个超平面

5、,最优的超平面是到两类的 margin 达到最大,margin 就是超平面与离它最近一点的距离。优点:SVM 可以模拟非线性决策边界,并且有很多内核可供选择。它可用于防止过度拟合,特别是在高维空间中。缺点:SVM 的内存密集,调优的难度很大,并且不能很好地扩展到更大的数据集。目前在行业中,随机森林通常优于 SVM。应用:显示广告。人类剪切位点识别(human splice site recognition) 。基于图像的性别检测。大规模图像分类等。5. 朴素贝叶斯朴素贝叶斯认为每个特征都是独立于另一个特征的。即使在计算结果的概率时,它也会考虑每一个单独的关系。它不仅易于使用,而且能有效地使用大

6、量的数据集,甚至超过了高度复杂的分类系统。优点: 尽管条件独立性假设很少成立,但朴素贝叶斯模型在实践中表现出色,特别是它们的简单性。它们易于实现,可以与更多的数据集进行扩展。弱点: 由于简单性,朴素贝叶斯模型经常在正确训练和调整之前被以前的算法击败。应用:判断垃圾邮件。对新闻的类别进行分类,如科技、政治、运动。判断文本表达的感情是积极的还是消极的。人脸识别。6. KNN(K -最近邻)该算法适用于分类和回归问题。在数据科学行业中,它更常用来解决分类问题。这个简单的算法能够存储所有可用的案例,并通过对其 k 近邻的多数投票来对任何新事件进行分类。然后将事件分配给与之匹配最多的类。一个距离函数执行

7、这个测量过程。优点:该算法适用于对样本容量比较大的类域进行自动分类。缺点:在计算上是昂贵的(计算量比较大) 。变量应规范化。数据需要预处理。7. k 均值这种无监督算法用于解决聚类问题。数据集以这样一种方式列在一个特定数量的集群中:所有数据点都是同质的,并且与其他集群中的数据是异构的。优点:算法速度很快。缺点:分组的数目 k 是一个输入参数,不合适的 k 可能返回较差的结果。集群是如何形成的:该算法为每个集群选择称为 centroid 的点。数据在最接近的 centroid 中形成集群。新的 centroid 是基于现有的集群数据点创建的。每个数据点之间的距离是确定的。这个过程会重复,直到中心

8、不改变。8. 随机森林利用多棵决策树对样本进行训练并预测的一种分类器被称为随机森林。为了根据其特性来分类一个新对象,每棵决策树都被排序和分类,然后决策树投票给一个特定的类,那些拥有最多选票的被森林所选择。以下是每棵树种植和生长的方式:如果在案例中有 N 个训练集,那么就会随机选择 N 个案例。输入变量是 M。树会生长到最大水平,不经剪切和修剪。9. 降维算法在存储和分析大量数据时,识别多个模式和变量是具有挑战性的。维数简化算法,如决策树、因子分析、缺失值比、随机森林等,有助于寻找相关数据。10. 梯度提高和演算法这些算法是在处理大量数据,以作出准确和快速的预测时使用的 boosting 算法。boosting 是一种组合学习算法,它结合了几种基本估计量的预测能力,以提高效力和功率。综上所述,它将所有弱或平均预测因子组合成一个强预测器。

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报