收藏 分享(赏)

卷积神经网络CNN代码解析-matlab.doc

上传人:ysd1539 文档编号:6504506 上传时间:2019-04-14 格式:DOC 页数:11 大小:574.31KB
下载 相关 举报
卷积神经网络CNN代码解析-matlab.doc_第1页
第1页 / 共11页
卷积神经网络CNN代码解析-matlab.doc_第2页
第2页 / 共11页
卷积神经网络CNN代码解析-matlab.doc_第3页
第3页 / 共11页
卷积神经网络CNN代码解析-matlab.doc_第4页
第4页 / 共11页
卷积神经网络CNN代码解析-matlab.doc_第5页
第5页 / 共11页
点击查看更多>>
资源描述

1、 内蒙古大学 计算机学院 模式识别小组 小强 1卷积神经网络 CNN 代码解析deepLearnToolbox-master 是一个深度学习 matlab 包,里面含有很多机器学习算法,如卷积神经网络 CNN,深度信念网络 DBN,自动编码 AutoEncoder(堆栈 SAE,卷积 CAE)的作者是 Rasmus Berg Palm ()代码下载:https:/ deepLearnToolbox-master 中的 CNN 部分。DeepLearnToolbox-master 中 CNN 内的 函数:调用关系为:该模型使用了 mnist 的数字 mnist_uint8.mat 作为训练样本

2、,作为 cnn 的一个使用样例,每个样本特征为一个 28*28=的向量。内蒙古大学 计算机学院 模式识别小组 小强 2网络结构为:让我们来看看各个函数:一、Test_example_CNN: .2三、cnntrain.m 5四、cnnff.m 6五、cnnbp.m .7五、cnnapplygrads.m .10六、cnntest.m .111、 Test_example_CNN:Test_example_CNN:1 设置 CNN 的基本参数规格,如卷积、降采样层的数量,卷积核的大小、降采样的降幅2 cnnsetup 函数 初始化卷积核、偏置等3 cnntrain 函数 训练 cnn,把训练数

3、据分成 batch,然后调用3.1 cnnff 完成训练的前向过程,内蒙古大学 计算机学院 模式识别小组 小强 33.2 cnnbp 计算并传递神经网络的 error,并计算梯度(权重的修改量)3.3 cnnapplygrads 把计算出来的梯度加到原始模型上去4 cnntest 函数,测试当前模型的准确率该模型采用的数据为 mnist_uint8.mat,含有 70000 个手写数字样本其中 60000 作为训练样本,10000 作为测试样本。把数据转成相应的格式,并归一化。设置网络结构及训练参数初始化网络,对数据进行批训练,验证模型准确率绘制均方误差曲线二、Cnnsetup.m该函数你用

4、于初始化 CNN 的参数。设置各层的 mapsize 大小,初始化卷积层的卷积核、bias尾部单层感知机的参数设置* bias 统一设置为 0权重设置为:-11 之间的随机数/sqrt(6/ (输入神经元数量+ 输出神经元数量) )内蒙古大学 计算机学院 模式识别小组 小强 4对于卷积核权重,输入输出为 fan_in, fan_outfan_out = net.layersl.outputmaps * net.layersl.kernelsize 2;%卷积核初始化,1 层卷积为 1*6 个卷积核,2 层卷积一共 6*12=72 个卷积核。对于每个卷积输出 featuremap, %fan_

5、in = 表示该层的一个输出 map,所对应的所有卷积核,包含的神经元的总数。 1*25,6*25fan_in = numInputmaps * net.layersl.kernelsize 2;fin =1*25 or 6*25fout=1*6*25 or 6*12*25net.layersl.kij = (rand(net.layersl.kernelsize) - 0.5) * 2 * sqrt(6 / (fan_in + fan_out);1 卷积降采样的参数初始化2 尾部单层感知机的参数(权重和偏量)设置:内蒙古大学 计算机学院 模式识别小组 小强 5三、cnntrain.m该函数

6、用于训练 CNN。生成随机序列,每次选取一个 batch(50)个样本进行训练。批训练:计算 50 个随机样本的梯度,求和之后一次性更新到模型权重中。在批训练过程中调用:Cnnff.m 完成前向过程Cnnbp.m 完成误差传导和梯度计算过程Cnnapplygrads.m 把计算出来的梯度加到原始模型上去内蒙古大学 计算机学院 模式识别小组 小强 6四、cnnff.m1、取得 CNN 的输入2、两次卷积核降采样层处理3、尾部单层感知机的数据处理,需要把 subFeatureMap2 连接成为一个(4*4)*12=192 的向量,但是由于采用了 50样本批训练的方法,subFeatureMap2

7、 被拼合成为一个 192*50 的特征向量 fv;Fv 作为单层感知机的输入,全连接的方式得到输出层内蒙古大学 计算机学院 模式识别小组 小强 7五、cnnbp.m该函数实现 2 部分功能,计算并传递误差,计算梯度1、计算误差和 LossFunction2、计算尾部单层感知机的误差3、把单层感知机的输入层 featureVector 的误差矩阵,恢复为 subFeatureMap2 的 4*4 二维矩阵形式内蒙古大学 计算机学院 模式识别小组 小强 8插播一张图片:4、误差在特征提取网络【卷积降采样层】的传播如果本层是卷积层,它的误差是从后一层(降采样层)传过来,误差传播实际上是用降采样的

8、反向过程,也就是降采样层的误差复制为 2*2=4 份。卷积层的输入是经过 sigmoid 处理的,所以,从降采样层扩充来的误差要经过sigmoid 求导处理。如果本层是降采样层,他的误差是从后一层(卷积层)传过来,误差传播实际是用卷积的反向过程,也就是卷积层的误差,反卷积(卷积核转 180 度)卷积层的误差,原理参看插图。内蒙古大学 计算机学院 模式识别小组 小强 95、计算特征抽取层和尾部单层感知机的梯度内蒙古大学 计算机学院 模式识别小组 小强 10五、cnnapplygrads.m该函数完成权重修改,更新模型的功能1 更新特征抽取层的权重 weight+bias2 更新末尾单层感知机的权重 weight+bias内蒙古大学 计算机学院 模式识别小组 小强 11六、cnntest.m验证测试样本的准确率

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 医学治疗 > 神经内外科

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报