90080计算机科学进展考题部分总结71王明辉.docx
- 文档编号:18094702
- 上传时间:2023-08-13
- 格式:DOCX
- 页数:27
- 大小:1.50MB
90080计算机科学进展考题部分总结71王明辉.docx
《90080计算机科学进展考题部分总结71王明辉.docx》由会员分享,可在线阅读,更多相关《90080计算机科学进展考题部分总结71王明辉.docx(27页珍藏版)》请在冰点文库上搜索。
90080计算机科学进展考题部分总结71王明辉
1.用认知心理学回答三个基本问题:
(林涛)
1.人是怎样解决问题、进行思考、产生语言的?
2.信息在头脑中是怎样储存和加工的?
3.人是怎样注意到并获取世界中的信息?
答:
认知的多个过程,包括感知、关注、记忆、学习、识别、阅读、说话和聆听、规划、推理和决策
认知心理学涉及心理活动的全部过程,从感觉到知觉、识别、注意、学习、记忆、概念的形成、思维、表象、回忆、语言、情绪和发展过程
1)注意是指心理努力的集中和聚焦——是一种有选择性,转移性和可分解性的集中。
第一:
感知,人首先经过触觉,听觉,视觉,感知到外部世界的刺激,感觉登记,刺激被储存在某个通道(如视觉通道,听觉通道)的感觉记忆中,虽然这种记忆的持续时间很短,但认为是最初刺激的精确表象。
刺激在感觉登记存储中,受到前注意分析,前注意分析决定刺激的一些物理特征,如音高,强度等。
然后选择过滤器决定哪些刺激进一步加工,选择后,刺激转向察觉器,在这里分析信息的意义,然后做出反应。
注意:
一种认知心理学家用来描述和解释集中和转移的心理现象。
2)
认知心理学家通常把人类信息加工系统分为几个部分(如图所示)。
这种划分的一部分原因是基于这样一种主张:
一些认知行为与另一些存在明显的差异。
信息加工系统中第一个部分是感觉系统,在这里产生认知代码。
在这个系统中,觉察环境的具体方面并开始对其进行组织。
感觉系统产生认知代码后,将之传入到记忆中。
如图所示,认知心理学家在永久性记忆(通常也称为不活跃记忆)和工作记忆之间作了区分。
永久性记忆可以被看作一个陈述性知识和程序性知识的巨大贮藏库。
永久性记忆不仅贮存事实,而且还贮存使我们能运动和言语的技能和运动程序。
在一些情况下,中枢加工器把注意分配给工作记忆。
分配注意时,传递到永久性记忆的成分就被激活,在这个结点上认知代码被精致化和修正。
工作记忆是认知代码的“工作台”。
如图所示,工作记忆是制定目标的地方。
这些目标有时包括修正认知代码。
例如,在问题解决中,认知代码由可能的解决方法及产生解决方法的可能操作的表象组成。
问题解决时,中枢加工器可能把工作记忆作为地点来系统地匹配可能的解决方法和可能的操作,看能否达到匹配以及问题解决。
中枢加工器的任务是制定目标。
目标一旦形成,中枢加工器必须制定实施目标完成的方案。
当中枢加工器处理各种目标(在现实生活中可能遇到)时,必须建立目标的优先排列。
建立完毕,中枢加工器必须把注意分配给监测完成进度的认知过程。
中枢加工器使用工作记忆或活动记忆来追踪它在计划中的位置,从工作记忆的这个地点中反应系统得以控制。
系统中的信息必须用物质事件进行表象。
例如,“船”这个词,所具有的有关该词含义的知识是抽象的,但是这种知识在认知和神经系统中必须以具体神经事件的模式来表象。
因此,我们的知识必须以“表象”的形式贮存在物质系统中。
3)
人们试图用逻辑(日常思维和推理中用到的原则的形式说明)来解决形式问题。
逻辑可以分成分析和抽象,分析是把客体分解为成分,使其中一个代表整个客体的一种能力,抽象则是我们将某一特定成分归入一个更广泛类别的能力。
我们一般采用遵循了逻辑学家所建立的已经成为定论的逻辑规则,进行推理,以便得到真实有效的结论,达到解决问题的目的。
有些是经验式作业,不需要我们知道和运用形式逻辑也可以得到正确的答案。
首先,人们可能具有一种内在的“心理-逻辑”,虽然这些规则并非总是对应于逻辑学家所使用的逻辑形式规则,但这些心理等价物足以用来完成我们所碰到的大多数推理作业,
言语和听话行动紧紧地联系在一起,且两者都受知觉的不同心理过程影响的。
SKINNER:
语言的声音并非天生特殊的,支配其他操作行为的学习规律也应该支配语言的学习。
认为言语行为是学习得来的,如不断强化的祈求式,能恰当辨别线索的再认称为语言的年限功能。
Chomsky认为语言的祈求语功能不能解释新颖语言现象
2.RobustPCA方法在哪些方面改进了传统PCA,解决了哪些问题?
(何坤)
答:
(老师提示:
小问一:
1.噪声方向;2.奇异点上。
小问二:
1.用中心点代替均值;2.平升距离代替方差(欧氏距离)。
小问三:
1.克服了噪声的影响;2.传统PCA的排它性。
)
主成分分析(PCA)是统计分析法中的一种重要方法,在系统评价、故障诊断、质量管理和发展对策等.许多方面都得到广泛的应用。
这一方法利用数理统计方法找出系统中主要因素和各因素之间的相互关系,大大压缩了处理的数据量.
然而,普通的基于特征值分解的统计PCA方法存在严重的鲁棒性问题,对实际样本的奇点不敏感,这大大影响了PCA的运算精度
当前对PCA鲁棒性的考虑主要有两个角度:
一是考虑如何能够达到输出的各主成分之间相互独立。
这样就可以把一个多输入的问题分解为多个相互独立的单输入的问题来考虑。
(样本分布已知)
传统PCA算法由于只考虑基于协方差阵的二阶特性,因此得到的主成分只能做到互不相关,而不能做到相互独立.
二是考虑如何去除或减弱有限的训练样本集中少量“劣点”样本的影响从而获得准确主方向。
所谓“劣点”样本,直观上是指与样本集中绝大部分样本分布差异过大的极少量样本,它们的存在使得PCA的计算结果会出现很大的误差。
“劣点”的产生原因是多方面的,例如突发的随机噪声,测量或者记录的偶尔出错等等。
另外,由于样本数是有限的,即使所有样本都是由同一分布产生的,也有可能因为样本数不足从而使得其中少量样本成为实际上的“劣点”样本。
因此,从克服“劣点”样本的影响出发是PCA算法鲁棒性研究的另一个主要方向。
小问二:
1.用中心点代替均值;2.平升距离代替方差(欧氏距离)。
(1)传统PCA,样本均值是datalocation的一种代表
但由于样本中包含噪声引起的奇异点,使用样本均值作为数据特征的表示已经不具备鲁棒性,为了更好的描述大多数样本数据,忽略那些奇异点,我们利用最小二乘的特性,寻找一个到所有样本数据的欧氏距离的和最小的值作为随即变量的均值。
计算公式如下:
||…||表示L2欧式范数。
(2)随即变量X的标准差和协方差矩阵可以表示为
使用绝对偏差中值估计
c=1.4826,变体
(3)数据预处理,为了提高计算精度,使每个变量在分析中的影响是等价的。
我们使用放射变换对数据进行预处理。
两种处理方法:
A
B
(4)检测奇异点
利用信号重构误差判别“劣点”样本。
实例:
行人检测是目前智能车辆和计算机视觉研究领域备受关注的问题.常见的行人检测方法包括基于形状或基于神经网络的方法等.行人检测中的一个关键环节是判定待检图像是否为行人,这是一个二值分类问题.为此,首先从行人库与非行人库中各自挑出一些图像作为学习样本.本实验采用CBCL行人库,幅图的大小均为128−64像素的彩色图像.本实验
采用的非行人库是作者自己构建的.可以看出,行人库中存在明显的奇点。
3.AViewof20thand21stCenturySoftwareEngineering
如何看待过去半个世纪的软件工程?
从中学到的经验和教训?
(红梅)
软件工程的发展是一个曲折而又不断进步和成熟的过程。
从世界上第一个软件的出现,到现代计算机软件通用开发的时代,很多伟大的计算机科学家做出了他们伟大的贡献。
20世纪50年代,软件伴随着第一台电子计算机的问世诞生了。
写软件开始成为一些人的职业。
但是,早期的软件开发根本没有什么系统的方法可以遵循,大多都是沿用个体软件开发的方式,随着软件数量的急剧膨胀,软件需求日趋复杂,难度不断扩大,维护也变的更加复杂。
不断失败的软件项目最终导致了“软件危机”。
为迎接软件危机的挑战,人们进行了不懈的努力。
60年代末,软件工程(SoftwareEngineering)的概念提出来,从两个方面对软件开发做改进。
一是从管理的角度,希望实现软件开发过程的工程化,提出”瀑布式“第一个生命周期模型,后面提出了快速原型法、螺旋模型、喷泉模型,以及CMM(CapabilityMaturityModel),即能力成熟模型等对“瀑布式”生命周期模型进行补充。
现在,它们在软件开发的实践中被广泛采用。
二是侧重与对软件开发过程中分析、设计的方法的研究,从70年代风靡一个的机构化开发方法PO(面向过程开发)到面向对象的分析设计方法(OOA和OOD)的出现使传统的开发方法发生了翻天覆地的变化。
随之而来的是面向对象建模语言(以UML为代表)、软件复用、基于组件的软件开发等新的方法和领域。
从中学到的经验和教训
软件工程对于软件的开发和维护起到至关重要的作用,从50年代软件附属于硬件,到软件作为单独产品,催生软件工程。
从面向过程——面向对象——面向构件——面向服务到面向大众,软件工程随着科学的发展在不断地改革。
但是,软件工程太多地关注图灵计算,忽视了人机交互,忽视了机器行为通过人群的参与引发的相互影响。
随着云计算的发展壮大,大众既是软件的使用者,也是软件的开发者;既是服务的消费者,也是服务的提供者。
以往的软件工程没有考虑过这样的群体智能产生模式。
未来,软件将没有版本的概念,采用永远在用的软件开发模式;软件产品的生命周期被云计算淡化,软件可以无数次在线更新。
而用户与软件的互动使得软件向贴近用户需求的方向演化。
(1)
(1)1950年代的主题:
类似硬件工程的软件工程
面向硬件:
—软件应用:
飞机、桥梁、电路
—计算经济学
—专业组织:
计算机械协会、IEEE计算机协会
—软件过程:
SAGE(半自动化地面环境)
l●1MLOC防空系统,实时,用户密集
l●前所未有高度的系统研制成功
l●面向硬件的瀑布模型过程
(2)
(2)1960年代的写照:
软件与硬件不同,具有软件特色
l●软件较于硬件更易于修改,不需要昂贵的生产线去复制产品。
l●软件不会磨损,因此,软件的可靠性只能由硬件可靠性模型来进行估计,软件维护又是一个与硬件维护有很大区别的活动。
l●软件是不可见的,它没有重量,但是花费很高。
l●软件一般具有很多状态,模型,和路径来测试,因此它的规范更为复杂。
1960年代的进展和存在的问题
l●更好的基础设施:
操作系统,编译器,工具
l●计算机科学机构
l●产品系列
l●取得了一些重大的成功
l●存在问题:
1968,1969北约报告
—许多大型系统的失败
—不可维护的复杂代码
—不可靠,无法诊断的系统
(3)(3)1970年代的写照:
正规的和瀑布方法
l●结构化方法
—结构化编程
ØØ正规编程演变
ØØ正规的自上而下的软件过程
l●瀑布方法
1970年代正规方法存在的问题
l●小型关键程序的成功
l●最大成熟程序在10KSLOC左右
l●证据表明存在缺陷
l●没有可扩展的程序员组织
1970年代瀑布模型存在的问题
l●过于字面的解释顺序里程碑
l●重要的文档很难复审,维护
l●与COTS,复用,传统软件不兼容
l●可扩展性,周期时间和过期期限
(4)(4)1980年代的综述:
产品化和可扩展性
l●世界范围的关注生产力,竞争力
l●主要软件的生产率得到提高
(5)(5)1990年代到2000年代早期的写照:
成熟的模型和敏捷方法
(6)(6)2000年代中期:
风险驱动的混合产品和过程
经验和教训:
1950年代:
+不要忽视科学
+慎思而后行(避免过早地承诺)
--避免:
不可更改的顺序过程
1960年代:
+跳出固定模式思考
+尊重软件的不同模式
--避免:
牛仔编程
1970年代:
+尽早消除错误
+确定系统目的
--避免:
自上而下的开发和还原
1980年代:
+有很多方式来提高生产率
+对产品有好处的同时也对过程有好处
--持怀疑态度的:
银色子弹,一个方案解决所有问题
1990年代:
+时间就是金钱,对人们来说很有价值
+软件要有使用价值
--避免:
匆忙
2000年代:
+如果变化是迅速的,适应性要优于重复性
+考虑并满足所有利益相关者的价值主张
--避免:
爱上口号
2010年代:
+尽量在自己的范围内掌控
+有一个退出策略
--避免:
相信所有你读过的东西
4.试简要阐述现有按照目标表达方式进行视频目标跟踪的各种方法
答:
按照目标的表达方式,可分为基于区域的跟踪,基于主动轮廓的跟踪,基于局部特征的跟踪,基于模型的跟踪。
基于区域的跟踪:
利用图像相关匹配技术对目标进行跟踪,需要先获得一个表示目标的模板,模板可以是通过手工选定或是图像分割得到,通常是略大于目标的矩形区域或是任意形状;然后运用相关算法,计算目标模板与当前图像候选区域的特征匹配度,匹配特征可以是颜色、纹理等,匹配度最大的候选区域即为目标的当前位置。
基于主动轮廓的跟踪:
将目标描述为可变形的边界轮廓来进行跟踪。
最常用的主动轮廓模型是由Kass等提出的Snake模型。
基于局部特征的跟踪:
通过跟踪目标的某个或某些局部特征,如边缘特征、点特征等,从而实现对整个目标的跟踪。
基于模型的跟踪:
利用先验知识建立跟踪目标的目标模型(2D、3D模型),然后将目标模型的图像投影与图像序列进行匹配,从而确定出目标的运动参数。
在通常的跟踪对象中,非刚体的代表性目标是人,刚体的代表性目标是车辆。
5.在不提高单个磁盘的读写性能和可靠性的前提下,如何通过多个磁盘和缓存技术来提高总体读写性能和可靠性?
原理是什么?
答:
(1)我们可以通过RAID(Redundant Arrays of Inexpensive Disks)磁盘阵列来实现通过多个磁盘和缓存技术来提高总体读写性能和可靠性这一问题,磁盘阵列作为独立系统在主机外直连或通过网络与主机相连。
磁盘阵列有多个端口可以被不同主机或不同端口连接。
一个主机连接阵列的不同端口可提升传输速度。
和目前PC用单磁盘内部集成缓存一样,在磁盘阵列内部为加快与主机交互速度,都带有一定量的缓冲存储器。
主机与磁盘阵列的缓存交互,缓存与具体的磁盘交互数据。
在应用中,有部分常用的数据是需要经常读取的,磁盘阵列根据内部的算法,查找出这些经常读取的数据,存储在缓存中,加快主机读取这些数据的速度,而对于其他缓存中没有的数据,主机要读取,则由阵列从磁盘上直接读取传输给主机。
对于主机写入的数据,只写在缓存中,主机可以立即完成写操作。
然后由缓存再慢慢写入磁盘。
RAID通过在多个磁盘上同时存储和读取数据来大幅提高存储系统的数据吞吐量(Throughput)。
在RAID中,可以让很多磁盘驱动器同时传输数据,而这些磁盘驱动器在逻辑上又是一个磁盘驱动器,所以使用RAID可以达到单个磁盘驱动器几倍、几十倍甚至上百倍的速率,从而提高了总体读写性能。
通过数据校验提供容错功能。
普通磁盘驱动器无法提供容错功能,如果不包括写在磁盘上的CRC(循环冗余校验)码的话。
RAID容错是建立在每个磁盘驱动器的硬件容错功能之上的,所以它提供更高的安全性和可靠性。
在很多RAID模式中都有较为完备的相互校验/恢复的措施,甚至是直接相互的镜像备份,从而大大提高了RAID系统的容错度,提高了系统的稳定冗余性。
(2)原理是利用数组方式来作磁盘组,配合数据分散排列的设计,提升数据的安全性。
磁盘阵列是由很多便宜、容量较小、稳定性较高、速度较慢磁盘,组合成一个大型的磁盘组,利用个别磁盘提供数据所产生加成效果提升整个磁盘系统效能。
同时利用这项技术,将数据切割成许多区段,分别存放在各个硬盘上。
磁盘阵列还能利用同位检查(Parity Check)的观念,在数组中任一颗硬盘故障时,仍可读出数据,在数据重构时,将数据经计算后重新置入新硬盘中。
6.简述认知心理学作为人机交互研究的基础的原因,并举例说明。
(这个应该不考了)
计算机中的人机交互是指人与计算机之间使用一定的交互方式,完成确定任务的信息交换过程.人机交互的基本过程是:
由人输入信息给计算机发起对话,然后计算机根据存储在计算机中的相应规则,对输入的信息进行相应的处理,最后将处理结果反馈给用户.一个人机交互系统一般由3部分构成:
交互设备、交互软件和人。
人机交互学科就是要根据实际的问题,开发合适的交互设备,研究合适的交互软件(模型),用于提高人与机器的交互效率。
在这当中,“人”就处在一个核心的位置——人机交互活动的发起,正是为了满足人的某种要求。
因此,设计一个交互系统的基本前提,就是对人自身的“工作原理”、人与系统的相互关系,有清晰的认识。
这两部分的内容,分别由认知心理学及人机工程学来完成。
1、认知心理学:
认知心理学主要研究人的高级心理过程,主要是认识过程,如知觉、思维、语言、记忆等。
认知心理学研究我们如何获得世界的信息;这种信息又如何表征并转化为知识;它怎样存储;知识又是怎样用来指导我们的注意和行为。
它涉及心理过程的全部范围——从感觉到知觉、模式识别、注意、学习、记忆、概念的形成等,还贯穿于行为的各个领域。
了解并遵循认知心理学的原理是进行人机交互设计的基础。
人机交互设计,主要是用理论来指导,一方面防止出错,另一方面用以提高工作效率。
为了提高人机交互的效率,增强用户与计算机之间的友好程度,必须对用户,有一个较为清晰的认识。
既要了解人的感觉器官是如何接受信息,也要了解人是怎样理解,处理信息,以及学习记忆有哪些过程,人又是如何进行推理的。
由此,尽量是自己的设计适应于人的自然特性,以使设计的系统满足用户的需求;
2人机工程学:
人机工程学是研究“人——机——环境”系统中人、机、环境三大要素之间的关系,为解决系统中的效能、健康问题提供理论与方法的科学。
人机工程学的研究结论,能为人机交互系统设计中考虑“人的因素”提供人体尺度参考;能为“机”的功能合理性提供科学依据;为考虑“环境因素”提供设计准则;为进行“人——机——环境”系统设计提供理论依据;
人机交互学科研究的是如何使人与计算机的交互更加高效,研究如何使人能更自然、方便地与计算机进行交互。
人,是人机交互系统的核心,而认知心理学及人机工程学的研究结果,为设计交互系统提供了基础的理论依据和参考。
因此它们是人机交互的基础。
例子:
6.容灾
一、基本概念
1.1容灾备份系统:
是指在相隔较远的异地,建立两套或多套功能相同的IT系统,互相之间可以进行健康状态监视和功能切换,当一处系统因意外(如火灾、地震等)停止工作时,整个应用系统可以切换到另一处,使得该系统功能可以继续正常工作。
1.2容灾系统分类:
从其对系统的保护程度来分,可以将容灾系统分为:
数据容灾和应用容灾。
1、数据容灾是指建立一个异地的数据系统,该系统是本地关键应用数据的一个实时复制。
采用的主要技术是数据备份和数据复制技术。
2、应用容灾是在数据容灾的基础上,在异地建立一套完整的与本地生产系统相当的备份应用系统(可以是互为备份),在灾难情况下,远程系统迅速接管业务运行。
主要的技术包括负载均衡、集群技术。
数据容灾是抗御灾难的保障,而应用容灾则是容灾系统建设的目标。
二、关键技术
2.1数据备份技术
数据备份就是把数据从生产系统备份到备份系统的介质中的过程。
数据备份技术最初是备份到本地磁带,随着网络发展,现在的备份技术有了飞速的发展。
2.1.1主机备份
基于主机(Host-based)的备份,即主机将数据备份到与主机直接相连的存储介质上(一般是磁带)。
优点:
备份的速度快,管理简单,
缺点:
仅适应于单台服务器备份,且在灾难恢复过程中,系统恢复的时间长。
2.1.2网络备份
根据备份系统中备份服务器、介质服务器是否在同一个LAN中,可以将网络备份分为基于局域网的备份和远程网络备份。
基于局域网的备份(NAS)特点是应用服务器、备份服务器和介质服务器共用一个局域网络,备份服务器统一管理备份的过程,多个应用服务器可以将各自的数据备份到介质服务器上。
这种备份方式可以共享介质咨询,实现集中的备份管理。
缺点是对网络带宽和备份时间的压力比较大,并且不具备远程的容灾能力。
当然通过将介质(磁盘、磁带或光盘)运输到远程保存,可以具备一定的容灾能力。
远程网络备份,则是介质服务器与应用服务器不属于同一个局域网,备份服务器依然统一管理备份的过程,备份数据则是通过WAN,ATM或者Internet等公共网络传送到远程的介质服务器上。
这种备份方式基本上构成了一个异地的备份容灾方案。
由于备份数据在公共网络上传输,备份的速度、备份数据的完整性和安全性等方面都需要考虑。
2.1.3专有存储网络备份
基于存储局域网(SAN:
StorageAreaStorage)的备份,使得备份过程可以在存储局域网中实现,根据备份过程中对应用服务器的影响,可以分为LAN-Free备份和Server-Free备份。
LAN-Free备份,是在存储网络(StorageNetwork)之上建立的一种备份系统。
在该备份系统中,生产系统的存储和介质服务器的存储直接通过专用存储网络进行连接,在备份过程中,庞大的备份数据不经过主机系统所在的网络,而是通过专用的存储网络传输到介质上。
这种备份方式的优点是共享介质资源,实现集中管理,不会对主机系统网络有影响。
缺点是实现比较复杂,成本相对较高。
Server-Free备份,则是建立在存储区域网(SAN:
StorageAreaNetwork)的基础上,备份过程无需应用服务器参与数据传输的备份系统。
这种备份方式可以保证生产系统及其网络不受影响。
目前这种备份技术还不太成熟,对硬件的性能和兼容性的要求都很高。
2.2数据复制技术
数据复制技术通过不断地将生产系统的数据复制到另外一个不同的备份系统中,以保证在灾难发生时,生产系统的数据丢失量最少。
数据复制可以分成同步数据复制和异步数据复制。
同步数据复制就是将本地生产系统的数据以完全同步的方式复制到备份系统中。
这种复制方式可能做得数据的零丢失,但是对系统的性能有很大的影响。
异步数据复制则是将本地生产系统中的数据在后台异步的复制到备份系统中。
这种复制方式会有少量的数据丢失,但是对生产系统的性能影响较小。
根据数据复制的层次,数据复制技术的实现可以分成以下四种:
1.存储系统数据复制:
数据的复制过程通过本地的存储系统和远端的存储系统之间的通信完成。
这种方式的复制对应用来讲时透明的,可以直接实现数据容灾功能,也可以提供很高的性能,可是,对存储系统的要求比较高。
2.数据交换层数据复制:
这种方式的复制技术是伴随着存储局域网的出现引入的,即在存储局域网的交换层上实现数据复制。
实现方式可以通过专有的复制服务器实现,也可以通过存储局域网(SAN)交换机,将数据同步的复制到远端存储系统中。
3.操作系统层数据复制:
主要通过操作系统或者数据卷管理器来实现对数据的远程复制。
这种复制技术往往要求本地系统和远端系统是同构的,并且由于数据复制由主机系统完成,其效率和管理上也存在不少问题。
4.应用程序层数据复制:
例如数据库的异地复制技术,通常采用日志复制功能,依靠本地和远程主机间的日志归档与传递来实现两端的数据一致。
这种复制技术对系统的依赖性小,有很好的兼容性。
缺点是本地应用程序向远端复制的是日志文件,这需要远端应用程序重新执行和应用才能生产可用的备份数据。
另外,由于各个应用程序采取的复制技术不同,无法以一种技术实现多种应用的数据复制。
2.3灾难检测技术
在灾难发生时,尽早地发现生产系统端的灾难,尽快地恢复生产系统的正常运行或者尽快地将业务迁移到备用系统上,都可以将灾难造成的损失降低到最低。
目前容灾系统的检测技术一般采用心跳技术。
心跳技术,其中一个实现是:
生产系统在空闲时每隔一段时间向外广播一下自身的状态。
检测系统在收到这些“心跳信号
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 90080 计算机科学 进展 考题 部分 总结 71 王明辉