1、神经元的数学模型,网络结构,输入与输出网络结构:递归网络、单层前馈馈,多层前馈BP 神经网络是误差反向传播神经网络的简称。激活函数的类型1 阈值函数 2sigmond 函数神经网络中常见的非线性单元三种基本的神经网络架构感知机、Hamming 网络、Hopfield 网络知识表示的规则三种距离(1)欧几里得距离x(1)与 x(2)距离::内积:根据教师信号有无,机器学习可分为有教师学习和无教师学习,其中无教师学习又分为无监督学习和强化学习传统电子计算机与神经网络计算机的异同机器学习有哪些任务1 模式联想,模式识别,函数逼近,控制,波束形成2 第一章感知器收敛定理:感知器收敛算法:感知器收敛条件
2、:初始条件 w(0)等于 0贝叶斯分类准则:感知器与贝叶斯的比较:2 章如何克服感知器非线性可分的条件约束,举例说明如何解决 XOR 问题XOR 问题就是如何用神经网络实现异或逻辑。写出线性回归的表示,并给出最大后验和最大似然估计权重向量计算公式,并指出两者的不同点最大似然估计最大后验估计无约束优化方法:当观察样本趋于无穷时,线性最小二乘滤波器渐进于维纳滤波器:最小均方算法:最小均方算法和最小二乘算法区别:准则函数不同最小均方算法代价函数:更新公式:最小二乘算法代价函数:更新公式:w(n+1)=(XT(n)XT(n)-1XT(n)d(n)3 正则最小二乘算法更新函数: W=Rxx(N)+I -
3、1rdx(N) 隐藏神经元的功能:=批量学习和在线学习的区别:如何用多层感知器解决 XOR 问题:主量分析: 21 PCA 算法介绍211 PCA 原理令 x 为表示环境的 m 维随机向量。假设 x 均值为零,即:Ex=O令 w 表示为 m 维单位向量,x 在其上投影。这个投影被定义为向量 x 和 w 的内积,表示为:而主成分分析的目的就是寻找一个权值向量 w 使得表达式 Ey2的值最大化:根据线性代数的理论,可以知道满足式子值最大化的训应该满足下式:即使得上述式子最大化的 w 是矩阵 Cx 的最大特征值所对应的特征向量。212 主成分的求解步骤在 PCA 中主要的是要求出使得方差最大的转化方向,其具体的求解步骤如下:(1)构建关联矩阵:Cx=Ex*xT,CxPn*n.在实际应用中,由于原始数据的数学期望不容易求解,我们可以利用下式来近似构造关联矩阵:(其中 x1,x2,xN,是各个原始灰度图像所有象素点对应的向量,N 是原始图像的个数)(2)先计算出 Cx 的各个特征值(3)把特征值按大小排序(4)计算出前 m 个特征值对应正交的特征向量构成 w。(5)将原始数据在特征向量 w 上进行投影,即可获得原始图像的主特征数据。GHA 与 KPCA 的比较:最大特征滤波器最终结果:PCA 的图像压缩原理:自组织学习的原则:自增强、竞争、协作、结构化信息。