欢迎来到冰点文库! | 帮助中心 分享价值,成长自我!
冰点文库
全部分类
  • 临时分类>
  • IT计算机>
  • 经管营销>
  • 医药卫生>
  • 自然科学>
  • 农林牧渔>
  • 人文社科>
  • 工程科技>
  • PPT模板>
  • 求职职场>
  • 解决方案>
  • 总结汇报>
  • ImageVerifierCode 换一换
    首页 冰点文库 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    KNIME使用说明书.docx

    • 资源ID:1758896       资源大小:425KB        全文页数:13页
    • 资源格式: DOCX        下载积分:3金币
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    二维码
    微信扫一扫登录
    下载资源需要3金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    KNIME使用说明书.docx

    1、KNIME使用说明书KNIME用法说明刘春玲、王斌、王璐、谢冬、周莲子(按学号顺序)引注:使用说明包括三个部分:KNIME构建CBR完整模型、聚类K-D树存储和检索优化、Adaboost决策树推理RBR,在使用knime之前先进行knime升级weka功能模块,具体操作:fileupdate knimeavailable software,在搜索栏里输入weka 安装完成重新启动knime,完成升级。 KNIME构建CBR完整模型一、新建KNIME文件单击菜单栏File里的New之后出现如下对话框:选择New KNIME Project,并按下Next键,之后点击Finish即可完成新文档的创

    2、建。二、K-D树的生成与准确度判断1.布局1)查找file reader,其结果如下图所示:2)分别拖两个file reader出来。3)将IBK拖出来。并将其中的一个file reader与IBK连接起来。4)拖一个Weka Predictor出来并与IBK和另一个file reader连接起来。5)将Scorer与Weka Predictor连接起来。其具体的布局和连接情况如下图所示:2.导入数据右击第一个File Reader,选择Configure(或直接双击进入),在Valid URL处选择要导入的数据的文件。之后点击OK就完成了数据的导入。 3.生成K-D树右击IBK,点击Conf

    3、igure,可以改变KNN的数值,从而改变精度。改distanceweighting(距离权重)的值为weight by 1-distance,之后点击nearest neighbourSearch Algorithm后面的choose,选择KD Tree,点击OK。4.导入新的数据其方法与参照步骤2中导入数据的过程5. 模型运行与验证1)将来自File Reader2 的数据和来自IBK的K-D树模型输入到Weka Predictor中。注:当发现设置完的结点没有变成绿灯时要及时按下按钮来执行所有的结点。2)设置scorer 的属性右击后点击Configure,first column 选择

    4、要预测的属性;second column选择winner. 6查看结果右击后点击accuracy statistics 来查看预测的结果。聚类K-D树存储和检索优化1布局与数据导入1)先打开knime,再新建(new)一个工程(project)。2)先拖一个file reader到工作区,右击选择configure,设置成下图形式:3)再拖入一个k-means(依次miningclustering-k-means),file reader连接 k-means4)拖入一个interactive table(dataviewsinteractive table),k-means连接interact

    5、ive table。5)再拖入一个file reader,右击选择configure,设置成下图形式:6)再拖入一个聚类器cluster assigner(三个下拉菜单里存在聚类器,这里选择miningclustering-cluster assigner)7)最终使工作区变成如下形式:2、模型测试与运行1)点击,运行,观察各node的运行结果。2)右击k-means,选择“0 labeled input”,可观察到如下结果:3)、右击k-means,选择“view:cluster view”,可观察到如下结果注:在interactive table的“view:cluster view”中也

    6、可观察到相应结果,结果如下图4、再右击cluster assigner,选择“0 assigned data”,可得到如下结果:Adaboost决策树推理RBR用Adaboost对数据进行训练并得到规则,并用此规则对新数据进行预测1.布局与数据导入1)数据源的选取先查找到File Reader,然后将其拖出。共拖两个,分别代表用来进行训练的数据和用来预测的数据。2)找出Adaboost,将其拖出3)将Weka predictor 和Scorer,Interactive table 拖出,形成如下图所示。4)开始进行设置。在第一个File Reader上点击右键,选择Configure,出现如下

    7、图所示:点击“Browse”,选择数据源。本例中是选取经过粗糙集处理的241例病例的数据。5)同理,将第二个File Reader的数据源设置为经过粗糙集处理的61例病例的数据。如下图:2.参数设置1)对Adaboost进行设置,在Adaboost上点击右键,选择Configure,出现如下图所示其中,numIterations一项指的是将多少个分类器累加,即迭代多少次。不同的迭代次数会使最后的准确度不同,次数过少会训练不足,次数太多会训练过度,都不会得到最好的结果,需要多次试数。使最后的准确度最高的迭代次数,就是最合理的迭代次数。2)对Scorer进行设置,在Scorer上点击右键,选择Co

    8、nfigure,出现如下图所示将进行比较的两列设为如图所示。即为,将患者实际的是否患病的情况(class)与用训练出的规则预测的情况(winner)进行比较,在Weka preictor上点击右键,选择0 Classified Test Data,即可观察比较情况:如上图,若判断情况相同,则准确度高;反之,则准确度低。3.运行与测试设置完成,即可开始运行如上图,点击最上面一行的即可运行,当所有控件下部都显示绿灯时,运行即结束。如下图所示4、观察预测结果与分析在Scorer上点击右键,选择0Confusion matrix或1 Accuracy Statistics ,即可观察预测结果(或在Interactive Table中也能观察),如下图所示图中数据意为:实际为Yes的案例一共有20个,但预测结果是11个No,9个Yes;实际为No的案例一共有41个,但实际预测结果是39个No,2个Yes如上图所示,规则预测准确率为78.7%,这是在迭代次数为55时的结果。大家也可以试试变化迭代次数后准确率是否会提高。5.模型验证回归检验上例中,如果将第二个File Reader的数据也换成241例的数据,则会发现最后结果准确率非常高。这是因为规则就是用这241的数据训练出来的,反过来用这个规则来预测自己本身,自然准确率就会很高。如下图所示:


    注意事项

    本文(KNIME使用说明书.docx)为本站会员主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2023 冰点文库 网站版权所有

    经营许可证编号:鄂ICP备19020893号-2


    收起
    展开