欢迎来到冰点文库! | 帮助中心 分享价值,成长自我!
冰点文库
全部分类
  • 临时分类>
  • IT计算机>
  • 经管营销>
  • 医药卫生>
  • 自然科学>
  • 农林牧渔>
  • 人文社科>
  • 工程科技>
  • PPT模板>
  • 求职职场>
  • 解决方案>
  • 总结汇报>
  • ImageVerifierCode 换一换
    首页 冰点文库 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    山东大学人工智能复习参考春带答案Word文档格式.docx

    • 资源ID:6441381       资源大小:528.36KB        全文页数:18页
    • 资源格式: DOCX        下载积分:3金币
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    二维码
    微信扫一扫登录
    下载资源需要3金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    山东大学人工智能复习参考春带答案Word文档格式.docx

    1、群智能潜在的两大特点是可行性和分布式。其典型算法有蚁群算法(蚂蚁觅食)和粒子群算法(蜂群或鸟群觅食)。已有的群智能理论的研究和应用证明群智能方法是一种能够有效解决大多数优化问题的新方法。13、蚁群算法是模拟自然界中蚂蚁寻找从巢穴到食物的最佳路径的行为而设计的,蚂蚁在遇到食物返回的路上会分泌信息素,信息素会随着时间慢慢挥发,且关键路径上的信息素相对浓度高,蚁群算法已被广泛应用于许多优化问题中,其中有聚类问题、路由算法设计、图着色、车辆调度、机器人路径规划。14、粒子群优化算法是模拟鸟群或蜂群的觅食行为而设计的,其基本思想是通过群体中个体之间的协作和信息共享来寻找最优解。粒子群优化算法的应用领域有

    2、广泛应用于各类优化问题上、在军事领域中的应用、对巡航导弹的飞行高度进行优化、车辆路径问题的应用、邮政投递、火车及汽车的调度、港口装卸集装箱。15、遗传算法是以达尔文的自然选择学说为基础发展起来的。遗传算法的三种基本操作是复制、交叉、变异;在遗传算法中,衡量个体优劣的尺度是适应度,它决定某些个体是繁殖或是消亡,同时也是驱动遗传算法的动力。16、蚁群算法是模拟自然界中蚂蚁寻找从巢穴到食物的最佳路径的行为而设计的,依据蚁群算法的基本原理,蚁群算法中的行为因子有觅食规则、移动规则、避障规则、信息素规则、范围、环境等。17、近年有学着提出的人工鱼群算法(Artificial Fish Swarm Alg

    3、orithm-AFSA)是模仿自然界中鱼群的行为而提出来的解决问题的算法,从模拟鱼群的聚集行为、觅食行为、跟随行为和移动行为等方面来模拟自然界中的鱼群行为。18、遗传算法将“优胜劣汰,适者生存”的生物进化原理引入优化参数形成的编码串群体中,按所选择的适应度函数并通过遗传中的复制、交叉及变异对个体进行筛选,适应度高的个体被保留下来,组成新的群体,新的群体既继承了上一代的信息,又优于上一代。19、决策树是一种知识概念表示方法,能表示与或规则;是一种归纳/实例/有师/监督/图形。而人工神经网络(ANNs)是非图形符号表示法/函数表示法 /一种普遍且实用的表示法,又是一种函数表示法;即从大量的数据中学

    4、习值 为实数、离散值或向量的函数。人工神经网络对于训练数据中的“错误”数据的健壮性。 人工神经网络的训练学习过程中有一个称为“学习速率”的常数,取值过大会引起漂移,取值过小会收敛速度太慢,学习效率不高。20、多层神经网络的学习过程中有一种是反向传播算法(Back Propagation-BP),其基本思想是利用输出单元的误差再计算上一层单元的误差,以次向上传播,以次向上传播,俗称反向传播。又称逆推学习算法算法。利用输出单元的误差再计算上一层单元的误差,又称逆推学习算法(简称 BP 算法)。21、归纳学习需要的预先假定,称为归纳偏置,归纳学习算法隐含了归纳偏置,候选消除算法的归纳偏置是目标概念可

    5、以在假设空间找到-所以又称限定偏置。ID3是一种典型的决策树学习方法,ID3的归纳偏置有两点,分别是贪婪算法/从根向下推断决策树/搜索完整的假设空间,优先选择较小的树。Find-S算法(寻找极大特殊假设)使用一般到特殊序,在偏序结构的一个分支上执行一般到特殊搜索,寻找一个与样例一致的最特殊假设。22、自然语言处理是研究用机器处理人类语言的理论和技术,又叫自然语言理解, 它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法, 自然语言处理研究面临的两大困难是歧义和病构,其中歧义分为音歧义、分词歧义、短语歧义、词义歧义、语用歧义四个方面。23. 在证据理论(Evident Theory

    6、)中引入了信任函数(BeL),它满足了概率论弱公理。在概率论中,当先验概率很难获得,但又要被迫给出时,用证据理论能区分不确定性和不知道的差别。因而它比概率论更适合于专家系统推理方法。概率论是证据理论的一个特例,有时也称证据理论为广义概率论。24、贝叶斯网就是一个在弧的连接关系上加入连接强度的因果关系网络。有两个部分组成,其一是DAG,即:有向无环图;其二是CPT,即:条件概率表。贝叶斯网络通常使用三种推理是因果推理,诊断推理,辩解推理。25、在确定性推理模型中可信度因子CF(h,e) 知识静态强度取值范围为-1,+1;主观Bayes方法中规定规则的静态强度LS,LN的值应0,)。二、 证明1、

    7、设公理集: ( x)(R(x) L(x),( x)(D(x) L(x),( x)(D(x) I(x)求证: ( x)(I(x) R(x) ( 给出归结步骤并画出归结树)2、将下式化为Skolem标准形: ( x)( y)P(a, x, y) ( x)( y)Q(y, b)R(x)第一步,消去号,得: ( x)( y)P(a, x, y) ( x) ( y)Q(y, b)R(x)第二步,深入到量词内部,得: ( x)( y)P(a, x, y) ( x) ( y)Q(y, b)R(x)第三步,变元易名,得 ( x)( y)P(a, x, y)( u)( v)(Q(v,b)R(u)第四步,存在量词

    8、左移,直至所有的量词移到前面,得: ( x)( y)( u)( v)(P(a,x,y)Q(v,b)R(u)由此得到前述范式( x)( y)( u)( v)(P(a,x,y)Q(v,b)R(u)第五步,消去“ ”(存在量词),略去“ ”全称量词 消去( y),因为它左边只有( x),所以使用x的函数f(x)代替之,这样得到: ( x)( u)( v)(P(a,x,f(x)Q(v,b)R(u)消去( u),同理使用g(x)代替之,这样得到: ( x)( v)(P(a,x,f(x)Q(v,b)R(g(x)则,略去全称变量,原式的Skolem标准形为: P(a, x, f(x) Q(v, b)R(g(

    9、x)3、用归结法证明:即B是A1、A2、A3的有效结论。A1 的子句:S1=P(x)Q(x)W(x,f(x) S2=P(x)Q(x)V(f(x) A2 的子句:S3=P(a), s4=U(a), s5=W(a,y) U(y) A3 的子句:s6=Q(x)U(x) B 的子句:S7=V(x)U(x) 归结过程:S1 和 S3 归结 Q(a)W(a,f(a) 定义为子句 s8 S2 和 S3 归结 Q(a)V(f(a) 定义为子句 s9 S4 和 S6 归结 Q(a) 定义为子句 s10 S9 和 S10 归结 V(f(a) 定义为子句 s11 S8 和 S10 归结 W(a,f(a) 定义为子句

    10、 s12 S5 和 S12 归结 U(f(a) 定义为子句 s13 S7 和 S13 归结 V(f(a) 定义为子句 s14 S11 和 S14 归结 空 4、依据基于规则的正向演绎系统, 有下列谓词公式(事实)( x)( y)(Q(y, x) (R(y) P(y) S(x, y),请给出事实的与或树表示。( x)( y)(Q(y, x) (R(y) P(y) S(x, y)=( x)( y) (Q(y, x) (R(y) P(y) S(x, y)=Q(y, a) (R(y) P(y) S(a, y) Skolem化 Q(w, a) (R(y) P(y) S(a, y) 主合取元变量换名例:

    11、Q(w, a) (R(y) P(y) S(a, y)三、 简答题1人工智能方法与传统程序的不同有哪些?传统方法解决问题。利用已有知识,问题可以结构化-数据结构,数学形式表达-数学公式、算法。利用知识,特别是依赖人类经验的启发知识是根本不同之处。人工智能可以解决众多的难以数学表达的非结构化的实际问题。人工智能首先研究的是以符号表示的知识, 而不是数值为研究对象。其次采用的是启发式推理的方法而不是常规的算法,控制结构和领域知识是分离的。同时还允许出现相对正确的答案。2在与或图的问题求解过程中,哪几类节点称为能解节点?终节点是能解节点若非终节点有“或”子节点时,当且仅当其子节点至少有一能解时,该非终

    12、节点才能解。若非终节点有“与”子节点时,当且仅当其子节点均能解时,该非终节点才能解。3宽度优先搜索和深度优先搜索有何不同?在何种情况下宽度优先搜索优于深度优先搜索?在何种情况下深度优先搜索优于宽度优先搜索?两种搜索策略是否都是完备的?宽度优先搜索就是逐层穷举搜索。深度优先搜索就是分支优先搜索。待搜索问题的解存在且关键路径较短时宽度优先搜索优于深度优先搜索;待搜索问题的解存在且关键路径较长,而深度优先搜索过程中优先发展的正好是解所在的路径时深度优先搜索优于宽度优先搜索。宽度优先搜索是完备的 。4.举例解释语义网络(Semantic Network)与知识图谱(Knowledge graph)的区

    13、别与联系。5.举例说明大型应用软件系统开发过程中采用的软件技术(体系)架构是如何体现框架理论知识表示思想的。6简要说明粒子群优化算法与遗传算法的共性和差异。共性( 1 )都属于仿生算法;( 2 )都属于全局优化方法;( 3 )都属于随机搜索算法;( 4 )都隐含并行性;( 5 )根据个体的适配信息进行搜索,因 此不受函数约束条件的限制, 如连续性、可导性等;( 6 )对高维复杂问题,往往会遇到早熟 收敛和收敛性能差的缺点,都 无法保证收敛到最优点。 差异 ( 1) PSO 有记忆,所有粒子都保存较优解的知识,而 GA ,以前的知 识随着种群的改变被改变; ( 2) PSO 中的粒子是一种单向共

    14、享信息机制。而 GA 中的染色体之间 相互共享信息,使得整个种群都向最优区域移动; ( 3) GA 需要编码和遗传操作,而 PSO 没有交叉和变异操作,粒子只 是通过内部速度进行更新,因此原理更简单、参数更少、实现更容易7影响算法A启发能力的重要因素有哪些。1.路径的耗散值;2.求解路径时所扩展的节点数;3.计算 h 所需的工作量。因此选择h函数时,应综合考虑这些因素以便使启发能力最大8决策树学习法与神经网络学习法的区别。决策树是知识一种图形符号表示,能表示与或规则;形象直观地图形符号与神经网络学习是非图形符号表示法,是一种函数表示法;从大量的数据中抽取规则函数。9为什么说遗传算法是一种“智能

    15、式搜索”,又是一种“渐进式优化搜索”。遗传算法的搜索策略,既不是盲目式的乱搜索,也不是穷举式的全面搜索,它是有指导的搜索。指导遗传算法执行搜索的依据是适应度,也就是它的目标函数。利用适应度,使遗传算法逐步逼近目标值。渐进式优化:遗传算法利用复制、交换、突变等操作,使新一代的结果优越于旧一代,通过不断迭代,逐渐得出最优的结果,它是一种反复迭代的过程。10简述-过程的剪枝规则。后辈节点的值祖先节点的值时,剪枝。设MAX节点的下限为 ,则其所有的MIN子节点中,其评估值的 上限小于等于 的节点,其以下部分的搜索都可以停止了,即对这部分节点进行 剪支。后辈节点的值祖先节点的值时,剪枝。设MIN节点的上

    16、限为 ,则其所有的MAX子节点中,其评估值的 下限大于等于 的节点,其以下部分的搜索都可以停止了,即对这部分节点进行了 剪支。11简述关于群智能理论(算法)研究存在那些问题。数学理论基础相对薄弱,涉及的各种参数设置没有确切的理论依据带有随机性,每次的求解不一定一样,当处理突发事件时,系统的反映可能是不可预测的,这在一定程度上增加了其应用风险。12举例说明决策树如何代表实例属性值约束的合取的析取式。即从树根到树叶的每一条路径对应一组属性测试的合取,树本身对应这些合取的 析取。 例如有如下关于天气的决策树 R1:if Outlook = Sunny 并 Humidity = High then N

    17、o 或 R2:if Outlook = Sunny 并 Humidity = Normal then Yes 表示的是与规则,而 R1 或 R2 表示的是或规则。13.在主观贝叶斯方法中,为什么LS, LN不能同时大于或小于1;但可以出现LS, LN 等于1的情况。14.在确定性方法(CF方法)的推理模型中,规则A B的可信度表示为CF(B, A);分析CF(B, A)取值范围及表示的意义。CF(B, A)=MB(B,A)-MD(B,A) ,CF是由证据A得到的假设B的确定性因子。MB是由证据A得到的假设B的信任增加度量。MD是由证据A得到的假设B的不信任增加度量。确定性因子把信任与不信任组合

    18、在了一起。CF(B, A)表示的意义:1、证据为真时相对于P(B) = 1 - P(B)来说,A对B为真的支持程度。即A发生更支持B发生。 此时 CF(B, A) 0。2、 或,相对于P(B)来说,A对B为真的不支持程度。即A发生不支持B发生。此时 CF(B, A) 0。结论 -1 CF(B, A) 115解释学习的基本思想是什么?解释学习属于那一大类学习?(归纳、演绎)基于解释的学习,不考虑很多实例,采用演绎推理,少用归纳。可以克服归纳学习的不可靠问题。基本思想:利用单个问题的求解例子,依据领域知识对实例进行详细分析,构造 求解过程的因果关系的解释结构,并获取控制知识,然后对解释进行推广得到

    19、一般性描述,以便用于指导以后求解类似问题。从本质上是属于演绎学习。解释的过程是为获得相似问题的解决方法(概念)。16.在贝叶斯网络(Bayes Network)推理计算中,什么叫D分离?有那些情况?对推理有什么作用?AI-6 54页开始四、变形空间与候选消除的算法思想及实例分析。变形空间与候选消除学习算法的归纳偏置有是什么?AI-7 64-67页五、在遗传算法中,交叉率 Pc,变异率 Pm,复制概率 Pt分别起到的作用是什么?依据经验三种概率一般的取值范围是多少。复制概率 Pt 用于控制复制与淘汰的个体数目。取值范围一般为 0.4 1 交叉率 Pc 就是参加交叉运算的染色体个数占全体染色体总数

    20、的比例,取值范围一般为 0.4 0.99 。变异率 Pm 是指发生变异的基因位数所占全 体染色体的基因总位数的比例,取值范围一般为 0.0001 0.1 。六、给出粒子群优化算法的“速度”和“位置”更新公式,并对公式的每部分给出解释。粒子速度和位置的更新其中,w称为惯性权重 ,c1和 c2为两个正常系数,称为加速因子。将 vidk 限制在一个最大速度 vmax 内。从速度公式我们可以看出粒子的速度 vidk主要有三部分组成,分别是 “ 惯性部分”,对自身运动状态的信任, “ 认知部分”,对粒子本身的思考,即来源于自己经验的部分 “ 社会部分”,粒间子的信息共享,来源于群体中的其它优秀微粒的经验

    21、,如果 很小(如 0.1 ), 则 “ 认知部分”和 “ 社会部分”的变化将很小,从 粒子群的运动轨迹将非常缓慢;如果 很大(如 100 ),则粒子群位置变化非常快。七、在粒子群优化算法的“速度”更新公式中有加速常数(又称加速因子)c1和c2,一般将c1和c2统一为一个控制参数,= c1+c2。如果很小(如0.1),粒子群运动轨迹将非常缓慢;如果很大(如100),则粒子群位置变化非常快;请对这种现象结合粒子群的“速度”更新公式给出你的解释分析。八、右图是贝兹德克于1994年提出的一种A,B,C智能模型,用于表示神经网络、模式识别和智能之间的关系,根据你的理解对该模型给出分析解释。计算智能是信息

    22、科学和生命科学相互交叉的前沿领域 , 是现代科学技术发展的一个重要体现。计算智能涉及神经网络、模糊逻辑、进化计算和人工生命等领域,它的研究和发展反映了当代科学技术多学科交叉与集成的重要发展趋势。贝兹德克于 1994 年提出了一种A,B,C智能模型,从而表示 ABC 与神经网络、模式识别和智能之间的关系: A : Artificial , 表示人工的、符号的(非生物的) B : Biological , 表示生物的 C : Computational, 表示计算的计算智能是一种智力方式的底层认知,它与人工智能的区别是认知层次从中层下降到底层而已。中层系统含有知识,底层系统没有知识。 NN Neu

    23、ral Network 神经网络,PR Pattern Recognition 模式识别。九、假设:命题S(smoker):该患者是一个吸烟者;命题C(coal Miner): 该患者是一个煤矿矿井工人;命题L(lung Cancer):肺癌患者;命题E(emphysema):肺气肿患者,建立如图贝叶斯网络,给定患者是一个吸烟者(S),计算他患肺气肿(E)的概率P(E|S)。S称作推理的证据,E叫询问结点。首先,E的另一个父结点(C),P(E|S)=P(E,C|S)+P(E,C|S)-(1);(1)式右边的第一项 , P(E,C|S)P(E,C,S)/P(S)P(E|C,S)*P(C,S)/P

    24、(S) P(E|C,S)*P(C)*P(S)/P(S) = P(E| C,S)*P(C) 同理可得(1)式的右边的第二项为:P(E,C|S) = P(E|C,S)*P(C)。由此可得:P(E|S) = P(E| C,S)*P(C)+P(E|C,S)*P(C)如果采用概述中的例题数据,有P(C) = 1 - P(C),则有,P(E|S)0.9*0.3+0.3*(1-0.3)=0.48十、已知:证据A1,A2必然发生,且P(B1)0.02 规则如下: R1:A1B1 LS=10 LN=1 R2:A2B1 LS=400 LN=1求、结论B1的更新值,P( B1 | A1 A2 )。已知:证据A1,A

    25、2必然发生,且P(B1)0.03A1B1 LS=20 LN=1 A2B1 LS=300 LN=1求B1的更新值,P( B1 | A1 A2 )。解: 依R1,P1(B)0.03 O(B1)0.03/(1-0.03)=0.030927 O(B1|A1)=LSO(B1)=200.030927=0.61855 P(B1|A1)= 0.61855/(1+0.61855)=0.382 使用规则R1后,B1的概率从0.03上升到0.382 依R2:O(B1|A1A2)=300O(B1|A1)=185.565 P(B1|A1A2)= 185.565/(1+185.565)=0.99464 使用规则R2后,B1的概率从0.382上升到0.99464十一、已知:R1:A1B1 CF(B1,A1)0.6 ;A2B1 CF(B1,A2)0.5 R3:B1A3B2 CF(B2,B1A3)0.8 CF(A1)CF(A2)CF(A3)1; CF(B1)= CF(B2)=0;计算 CF(B1)、CF(B2)并画出推理网络。 推理网络十二、课本、课件或实验中关于产生式系统描述的例子(如八数码难题、野人传教士、走迷宫等问题),见课件、课本、实验指导书。


    注意事项

    本文(山东大学人工智能复习参考春带答案Word文档格式.docx)为本站会员主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2023 冰点文库 网站版权所有

    经营许可证编号:鄂ICP备19020893号-2


    收起
    展开