ImageVerifierCode 换一换
格式:PPT , 页数:24 ,大小:623KB ,
资源ID:5307583      下载积分:10 金币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.docduoduo.com/d-5307583.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(卷积神经网络.ppt)为本站会员(HR专家)主动上传,道客多多仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知道客多多(发送邮件至docduoduo@163.com或直接QQ联系客服),我们立即给予删除!

卷积神经网络.ppt

1、卷积神经网络初步解析 陈遥,单层感知器,感知器可谓是最早的人工神经网络。 单层感知器是一个具有一层神经元、采用阈值激活函数的前向网络。通过对网络权值的训练,可以使感知器对一组输人矢量的响应达到元素为0或1的目标输出,从而实现对输人矢量分类的目的。,单层感知器作用范围,感知器是一个简单的二类分类的线性分类模型,要求我们的样本是线性可分的。,多层感知器,多层感知器的思路是,尽管原始数据是非线性可分的,但是可以通过某种方法将其映射到一个线性可分的高维空间中,从而使用线性分类器完成分类。图1中,从X到O这几层,正展示了多层感知器的一个典型结构,即输入层隐层输出层。,输入层隐层,是全连接的网络,即每个输

2、入节点都连接到所有的隐层节点上。更详细地说,可以把输入层视为一个向量 x ,而隐层节点 j 有一个权值向量 j 以及偏置 bj ,激活函数使用 sigmoid 或 tanh ,那么这个隐层节点的输出应该是 若输入层有 m 个节点,隐层有 n 个节点,那么 = T 为 nm 的矩阵,x 为长为 m 的向量,b 为长为 n 的向量,激活函数作用在向量的每个分量上, f(x) 返回一个向量,隐层输出层,可以视为级联在隐层上的一个感知器。若为二分类,则常用LogisticRegression;若为多分类,则常用Softmax Regression。,核心!权值、偏置估计(结论如下,推导见“卷积神经网络

3、全面解析”),残差定义: 假设有层 p, q, r ,分别有 l, m, n 个节点,依序前者输出全连接到后者作为输入。t为标签,y为输出,E为损失函数, 为p层输出向量,表示激活函数,层 q 有权重矩阵 qml ,偏置向量 bqm1 ,层 r有权重矩阵 rnm ,偏置向量 brn1 。那么其中,运算 w = uv 表示 wi = uivi 。函数作用在向量或者矩阵上,表示作用在其每个分量上。,卷积神经网络的三大优点,局部感受野权值共享:在卷积神经网中,同一个卷积核内,所有的神经元的权值是相同的,从而大大减少需要训练的参数。作为补充,在CNN中的每个隐层,一般会有多个卷积核。池化:在卷积神经网

4、络中,没有必要一定就要对原图像做处理,而是可以使用某种“压缩”方法,这就是池化,也就是每次将原图像卷积后,都通过一个池化的过程,来减小图像的规模。,卷积神经网络的正向过程,卷积 下采样 光栅化 多层感知器预测。,卷积,考虑一个大小为55的图像,和一个33的卷积核。这里的卷积核共有9个参数,记为 =ij33 f(x)=act( ),卷积总结公式:,如果卷积层 c 中的一个卷积核j连接到输入图 X1, X2, ., Xi ,且这个卷积核的权重矩阵为 ,那么这个卷积核的输出为这个输出矩阵大小为(m-p+1)(n-q+1).,下采样(池化),下采样,即池化,目的是减小特征图,池化规模一般为22。常用的

5、池化方法有: 最大池化(Max Pooling):取4个点的最大值。这是最常用的池化方法。 均值池化(Mean Pooling):取4个点的均值。 高斯池化 可训练池化:训练函数 f ,接受4个点为输入,输出1个点。不常用。,由于特征图的变长不一定是2的倍数,所以在边缘处理上也有两种方案:忽略边缘。即将多出来的边缘直接省去。保留边缘。即将特征图的变长用0填充为2的倍数,然后再池化。一般使用 这种方式。对神经中枢 j 的输出 Oj ,使用池化函数 downsample ,池化后的结果为,光栅化,图像经过池化下采样后,得到的是一系列的特征图,而多层感知器接受的输入是一个向量。因此需要将这些特征图中

6、的像素依次取出,排列成一个向量。具体说,对特征图 X1, X2, ., Xj ,光栅化后得到的向量,多层感知器预测,将光栅化后的向量连接到多层感知器,CNN参数更新,多层感知器层,残差定义 使用多层感知器的参数估计方法,得到其最低的一个隐层 s 的残差向量 s 。现在需要将这个残差传播到光栅化层 r ,光栅化的时候并没有对向量的值做修改,因此其激活函数为恒等函数,其导数为单位向量。,光栅化层,从上一层传过来的残差为重新整理成为一系列的矩阵即可,若上一层 Q 有 q 个池化核,则传播到池化层的残差,池化层,对应池化过程中常用的两种池化方案,这里反传残差的时候也有两种上采样方案: 最大池化:将1个点的残差直接拷贝到4个点上。均值池化:将1个点的残差平均到4个点上。即传播到卷积层的残差,卷积层,对权值和偏置的更新:其中,rot180 是将一个矩阵旋转180度; Oq是连接到该卷积层前的池化层的输出。,卷积层的残差反传?,整体思路,以层为单位,分别实现卷积层、池化层、光栅化层、MLP隐层、分类层这五个层的类。其中每个类都有output和backpropagate这两个方法。 另外,还需要一系列的辅助方法,包括:conv2d(二维离散卷积,valid和full模式),downsample(池化中需要的下采样,两种边界模式),upsample(池化中的上采样)等。,谢谢!,

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报