收藏 分享(赏)

KNIME使用说明.doc

上传人:精品资料 文档编号:9630338 上传时间:2019-08-19 格式:DOC 页数:15 大小:783KB
下载 相关 举报
KNIME使用说明.doc_第1页
第1页 / 共15页
KNIME使用说明.doc_第2页
第2页 / 共15页
KNIME使用说明.doc_第3页
第3页 / 共15页
KNIME使用说明.doc_第4页
第4页 / 共15页
KNIME使用说明.doc_第5页
第5页 / 共15页
点击查看更多>>
资源描述

1、KNIME 用法说明刘春玲、王斌、王璐、谢冬、周莲子(按学号顺序)引注:使用说明包括三个部分:KNIME构建 CBR 完整模型、聚类K-D 树存储和检索优化、Adaboost决策树推理 RBR,在使用 knime 之前先进行 knime 升级 weka 功能模块,具体操作:fileupdate knimeavailable software,在搜索栏里输入 weka 安装完成重新启动 knime,完成升级。KNIME构建 CBR 完整模型一、新建 KNIME 文件单击菜单栏 File 里的 New 之后出现如下对话框:选择 New KNIME Project,并按下 Next 键,之后点击 F

2、inish 即可完成新文档的创建。二、K-D 树的生成与准确度判断1.布局1)查找 file reader,其结果如下图所示:2)分别拖两个 file reader 出来。3)将 IBK 拖出来。并将其中的一个 file reader 与 IBK 连接起来。4)拖一个 Weka Predictor 出来并与 IBK 和另一个 file reader 连接起来。5)将 Scorer 与 Weka Predictor 连接起来。其具体的布局和连接情况如下图所示:2.导入数据右击第一个 File Reader,选择 Configure(或直接双击进入) ,在 Valid URL 处选择要导入的数据的

3、文件。之后点击 OK 就完成了数据的导入。3.生成 K-D 树右击 IBK,点击 Configure,可以改变 KNN 的数值,从而改变精度。改distanceweighting(距离权重)的值为 weight by 1-distance,之后点击 nearest neighbourSearch Algorithm 后面的 choose,选择 KD Tree,点击 OK。4.导入新的数据其方法与参照步骤 2 中导入数据的过程5. 模型运行与验证1)将来自 File Reader2 的数据和来自 IBK 的 K-D 树模型输入到 Weka Predictor 中。注:当发现设置完的结点没有变成绿

4、灯时要及时按下按钮 来执行所有的结点。2)设置 scorer 的属性右击后点击 Configure,first column 选择要预测的属性;second column 选择 winner. 6查看结果右击后点击 accuracy statistics 来查看预测的结果。聚类 K-D 树存储和检索优化1布局与数据导入1)先打开 knime,再新建(new)一个工程(project) 。2)先拖一个 file reader 到工作区,右击选择 configure,设置成下图形式:3)再拖入一个 k-means(依次 miningclustering-k-means) ,file reader

5、连接 k-means4)拖入一个 interactive table(dataviews interactive table) ,k-means 连接 interactive table。5)再拖入一个 file reader,右击选择 configure,设置成下图形式:6)再拖入一个聚类器 cluster assigner(三个下拉菜单里存在聚类器,这里选择 miningclustering-cluster assigner)7)最终使工作区变成如下形式:2、模型测试与运行1)点击 ,运行,观察各 node 的运行结果。2)右击 k-means,选择“0 labeled input”,可观

6、察到如下结果:3) 、右击 k-means,选择“view:cluster view”,可观察到如下结果注:在 interactive table 的“view:cluster view”中也可观察到相应结果,结果如下图4、再右击 cluster assigner,选择“0 assigned data”,可得到如下结果:Adaboost决策树推理 RBR用 Adaboost 对数据进行训练并得到规则,并用此规则对新数据进行预测1.布局与数据导入1)数据源的选取先查找到 File Reader,然后将其拖出。共拖两个,分别代表用来进行训练的数据和用来预测的数据。2)找出 Adaboost,将其拖

7、出3)将 Weka predictor 和 Scorer,Interactive table 拖出,形成如下图所示。4)开始进行设置。在第一个 File Reader 上点击右键,选择 Configure,出现如下图所示:点击“Browse” ,选择数据源。本例中是选取经过粗糙集处理的 241 例病例的数据。5)同理,将第二个 File Reader 的数据源设置为经过粗糙集处理的 61 例病例的数据。如下图:2.参数设置1)对 Adaboost 进行设置,在 Adaboost 上点击右键,选择 Configure,出现如下图所示其中,numIterations 一项指的是将多少个分类器累加,

8、即迭代多少次。不同的迭代次数会使最后的准确度不同,次数过少会训练不足,次数太多会训练过度,都不会得到最好的结果,需要多次试数。使最后的准确度最高的迭代次数,就是最合理的迭代次数。2)对 Scorer 进行设置,在 Scorer 上点击右键,选择 Configure,出现如下图所示将进行比较的两列设为如图所示。即为,将患者实际的是否患病的情况(class)与用训练出的规则预测的情况(winner)进行比较,在 Weka preictor 上点击右键,选择 0 Classified Test Data,即可观察比较情况:如上图,若判断情况相同,则准确度高;反之,则准确度低。3.运行与测试设置完成,

9、即可开始运行如上图,点击最上面一行 的即可运行,当所有控件下部都显示绿灯时,运行即结束。如下图所示4、观察预测结果与分析在 Scorer 上点击右键,选择 0Confusion matrix 或 1 Accuracy Statistics ,即可观察预测结果(或在 Interactive Table 中也能观察) ,如下图所示图中数据意为:实际为 Yes 的案例一共有 20 个,但预测结果是 11 个 No,9 个 Yes;实际为 No 的案例一共有 41 个,但实际预测结果是 39 个 No,2 个 Yes如上图所示,规则预测准确率为 78.7%,这是在迭代次数为 55 时的结果。大家也可以试试变化迭代次数后准确率是否会提高。5.模型验证 回归检验上例中,如果将第二个 File Reader 的数据也换成 241 例的数据,则会发现最后结果准确率非常高。这是因为规则就是用这 241 的数据训练出来的,反过来用这个规则来预测自己本身,自然准确率就会很高。如下图所示:

展开阅读全文
相关资源
猜你喜欢
相关搜索
资源标签

当前位置:首页 > 企业管理 > 管理学资料

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:道客多多官方知乎号:道客多多

经营许可证编号: 粤ICP备2021046453号世界地图

道客多多©版权所有2020-2025营业执照举报