拼接技术.docx
- 文档编号:15093419
- 上传时间:2023-06-30
- 格式:DOCX
- 页数:25
- 大小:631.59KB
拼接技术.docx
《拼接技术.docx》由会员分享,可在线阅读,更多相关《拼接技术.docx(25页珍藏版)》请在冰点文库上搜索。
拼接技术
第1章绪论1
1.1背景1
1.2全景图像拼接技术概述1
第2章全景图像以及图像拼接技术3
2.1基于图像绘制技术的全景图3
2.1.1基于图像绘制技术的全景图3
2.2图像配准及拼接技术4
2.2.1图像配准技术5
2.2.2图像拼接技术6
第3章基于特征的全景图拼接7
3.1图像的获取与几何校正7
3.1.1图像的获取7
3.1.2图像的几何校正7
3.1.3平面图像的柱面正投影10
3.2图像的特征提取13
3.2.1特征点提取算子13
3.3基于特征区域的图像配准15
3.3.1柱面投影图像的配准15
3.4全景图像的平滑拼接16
3.4.1图像直方图处理16
3.4.2渐入渐出的拼接16
第4章实验结果及分析17
4.1图像采集以及柱面投影17
4.2图像特征提取及基于特征的配准18
4.3图像序列的平滑融合20
结论22
参考文献23
第1章绪论
1.1背景
虚拟现实(VirtualReality—VR)技术是采用以计算机技术为核心生成逼真的视、听、触觉一体化的特定范围的虚拟环境。
用户借助必要的装备以自然的方式与虚拟环境中的对象进行交互作用,相互影响,从而产生身临其境,等同现实环境的感受和体验,利用我们现有的图形技术很难做到将一些实体对象模拟的和现实世界完全一致,基于以上的缺点,促使人们考虑可否避开繁琐的建模过程和复杂的绘制计算,将现实世界的映像(如图像、视频、声音等)通过一种手段将观察者所处的位置观察到的局部图像绘制成新视点处的场景画面——全景图。
这种基于全景图的虚拟现实系统,通过全景图的深度信息抽取,恢复场景的三维信息,进而建立三维模型。
这个系统允许用户在虚拟环境中的一点作水平环视以及一定范围内的俯视和仰视,同时允许在环视的过程中动态地改变焦距。
这样的全景图像相当于人站在原地环顾四周时看到的情形。
如果人处在这种图像的环绕中,则能够产生强烈的沉浸感。
因此,全景图像是快速实现虚拟现实系统的一个必不可少的环节。
全景图拼接不仅是虚拟现实技术的重要组成部分,它在医学图像处理、遥感遥测图像处理、视频压缩、视频检索、军用图像特别是红外图像的采集和显示等领域都有很广泛的应用。
在医学图像处理方面,显微镜或超声波的视野较小,医师无法通过一幅图像进行诊视,同时对于大目标图像的数据测量也需要把不完整的图像拼接为一个整体。
所以把相邻的各幅图像拼接起来是实现远程数据测量和远程会诊的关键环节。
遥感遥测技术应用图像拼接技术将遥感卫星拍摄到的有失真地面图像拼接成比较准确的完整图像,作为进一步研究的依据。
在很多办公系统中,所用扫描仪大多为A4或A3幅面的。
如果使用这样的扫描仪去扫描输入一幅A0或更大的图,比如一幅海图,就显得无能为力了。
软件上,可以用A3或A4幅面的扫描仪分块扫描输入图像,存入计算机硬盘,再用一个图像拼接的程序将图像拼成原图,这样的应用也同样适用于数码相机、数码摄像机拍出的照片与视频片断。
对数码照片或者摄像机视频片段进行加工,让用户更易于使用这些媒体,让这些素材变得更加有趣。
从以上几点可以看出,全景图像拼接技术的发展前景十分广阔,深入研究全景图像拼接技术有着很重要的意义。
1.2全景图像拼接技术概述
为了进行全景图像拼接,相邻两幅图像边界必须存在重叠区域(视觉重叠区域),该重叠区域代表相同的景物内容。
图像拼接的工作就是搜寻相邻两幅图像中相同的内容,从而确定它们的相对位置,进一步将两幅图像拼合在一起。
全景图像的基本拼接步骤如图1-1所示。
拼接360度全景图像首先需要利用相机或者摄像机采集包括全方位景物信息的图像,图像间应具有一定程度的重叠区域。
然后利用图像的2D信息寻找图像间相对几何关系,将所有的图像映射到一个面上,最后将图像叠加起来,组成全视角的空间景物信息图像。
图1-1全景图像拼接示意图
图像的平滑拼接算法也在最初的重叠区域直接融合的基础上不断改进,首先出现的是“渐入渐出”的羽化拼接算法,但该算法有一定的局限性。
为了适应不同拼接情况的需要,科研人员还提出了很多该算法的变体。
图像配准技术以及图像平滑拼接算法的进步在很大程度上放宽了图像序列采集的硬件条件,使得全景图像的研究更经济、更普及。
全景图像的研究就在这些方面的发展推动下不断进步。
第2章全景图像以及图像拼接技术
2.1基于图像绘制技术的全景图
为了提高场景绘制的速度,增加场景的真实感,近几年国际上开始流行使用基于图像的绘制(Image一BasedRendering,简称IBR)技术构造虚拟空间。
基于图像绘制的全景图的基本出发点是为了解决如何在普通计算机上实现真实感全景图形的实时绘制问题。
该技术基于一些预先生成的图像或者环境映射图,来实时生成不同视点的场景画面。
IBR是计算机图形学和计算机视觉相结合的产物;使用计算机图形学的思想构造虚拟场景,使用计算机视觉技术从己知的图像中生成新的图像。
而基于图像绘制技术的全景图像正是从采样图像序列生成新视景的图像:
首先在源场景中确定一系列的采样视点和采样方向,然后进行图像采样,并对得到的图像序列进行变换、组织,生成图像流场,依据观察者在虚拟场景中的位置和观察方向从图像流场中检索生成视景所需的光线信息从而恢复出图像。
2.1.1基于图像绘制技术的全景图
全景图像(Panorama)通常是指大于双眼正常有效视角(大约水平90度,垂直70度)或双眼余光视角(大约水平180度,垂直90度),乃至360度完整场景范围拍摄的照片。
全景图是一种全新的图像信息组织模式,可以表达完整的周围环境信息,相当于人们从一个固定点向四周转一圈所看到的景象。
全景图像对于观察者而言,是建立在图像上立体的多角度的图形环境;相对于传统的几何建模而言,全景图模型不仅真实感强,而且它的细节复杂性丝毫不影响其运行速度,所以全景图比基于几何的VR建模方法具有更突出的优点。
在基于全景图像的虚拟现实系统中,全景图是使用在某一点拍摄的多幅实景图像拼接而成的。
具体的生成过程是:
将反映各自投影平面的相互重叠图像映射到简单的几何体表面上,如球面、立方体表面或者圆柱面,使得平面图像具有深度感,然后对投影图像进行无缝拼接,就可得到没有图像畸变的全景图像。
根据所映射的几何体,全景图像可以分为360度柱面全景图像、球面全景图像和立方体全景图像。
球面和立方体表面全景图像的构造方法是:
将某一视点空间的同一焦距、同一时间拍摄的所有局部图像投影到各自所对应的球面或者立方体表面上,这些投影图像相互之间存在重叠部分,然后对这些投影图像进行无缝拼接,就能够得到全景图像。
利用全景图像,根据视域的方向将全景图像中的相应部分进行反投影,就能够获得该视域处的视图。
360度柱面全景图像与球面和立方体表面全景图像相比,构造要简单得多:
将照相机以相同的焦距,绕其镜头中点旋转一周并间隔一定角度进行拍摄,然后把这些相互重叠的相片投影到圆柱面上,配准,最后经无缝拼接得到全景图像。
观察时,我们把柱面全景图像进行反投影,就可以得到观察平面的图像。
360度柱面全景图像的构造
本文对基于图像绘制的360度柱面全景图像的构造——图像投影、图像配准以及图像的平滑连接过程进行了深入的探索,并提出了自己的改进意见,形成了具有更高效率的新的全景图像拼接算法。
2.2图像配准及拼接技术
采集图像时使用不同的设备和不同的方法,得到的图像也不同。
若采用经过严格标定的摄像机且严格限制摄像机的转角,得到图像序列中的相邻两幅图像在亮度以及同一物体的像的差别,即特征变形可以忽略不计。
但是这样的高要求会导致图像的获取过程变得复杂而难于操作,而且设备过于昂贵。
反之,若采用普通相机或摄像机采集图像,且不对其运动作严格的限制,在图像获取过程中,由于相机视角以及运动的影响,会造成图像的明显特征变形。
这时,为了校正这些变形,就必然导致图像拼接算法的复杂化。
针对以上两种不同情况得到图像,全景图像配准、拼接技术从两个互相联系又有所区别的方向上发展起来了。
2.2.1图像配准技术
Stein提出了在相邻两帧间进行纹理特征跟踪,进而求摄像机焦距和帧间偏移距离的算法,该算法能取得较好的精度,但是纹理特征的检测和跟踪带来了巨大的计算量。
Szeliski和Shum提出了在保持摄像机光心基本不动的前提下,利用手持摄像机图像拼接全景图的算法,该算法先采用传统的有8个未知参数的矩阵来描述两幅图像之间的变换关系,并用最小化算法估计该矩阵,然后根据矩阵参数之间的约束关系计算摄像机焦距,得到焦距之后,将图像之间的变换关系重新描述为式(2-1),其中,R为旋转矩阵。
M=VRV-1(2-1)
在式(2-1)的基础上,进一步求解摄像机坐标之间的旋转矩阵R。
其中:
(2-2)
这样,在确定了一个标准坐标系之后,该算法便可以求出各摄像机坐标系相对标准坐标系的旋转关系。
进而可以将各图像投影到标准坐标系中的任意表面,形成全景图。
该算法不要求摄像机作纯水平旋转,可以拼接任意形状的全景图;但是算法仍然要求保证摄像机光心基本不动。
该算法简单地从两帧图像的变换矩阵计算摄像机焦距,这样得到的焦距值是很不准确的。
误差较大的焦距值将对旋转矩阵的求解带来影响,使全景图首尾之间产生重叠或间隙。
针对这个问题,文献提出了修正焦距的方法,但是每次修正焦距之后,都需要重复相邻图像的最小化对齐过程,这个计算量是很大的。
为了解决全景图像拼接中计算量很大的问题,清华大学的研究人员在2001年提出了一种折衷的方案,用三角架保证摄像机基本绕垂直轴旋转,但是不对摄像机的旋转角度作严格限制。
在此基础之上首先估计相邻帧之间的图像变换矩阵,然后根据变换矩阵提供的帧间的相对运动信息求摄像机焦距,接着,用一种快速的迭代算法对焦距值求精,最后将图片序列投影到圆柱面,并拼接成全景图。
2.2.2图像拼接技术
由于相邻帧之间亮度差的存在,如果将图像简单叠加,拼接处会产生明显的接缝。
通常人们采用的都是“渐入渐出”的拼接方式。
为了消除拼接缝隙,在两幅图的重叠区域,我们将两帧图的像素值按一定的权值合成到新图。
在某一条扫描线上,图片I和I′在区间[x1,x2]上重叠,那么新图I″在这个区间上x点处的取值如下:
(2-4)
w(x)与w′(x)是0~1的加权函数,且有:
w(x)+w′(x)=1。
上述计算是按扫描线逐条进行的,因此该算法适用于任意形状的两幅图像的融合。
另外,小波分解与重构也可以消除简单拼接产生的接缝问题。
把要拼接的两幅图像先按分解的方法分解为不同频率下的小波分量,把两个图像按不同尺度下的小波分量先拼接下来,然后重构整个图像,这样得到的图像可以很好的兼顾清晰度与光滑度的要求。
为了使得相邻两幅图像在灰度及颜色上都平滑拼接,采用渐入渐出的加权办法。
对两幅图像重叠区域的每一个像素值依照他们距离重叠区域边缘的远近分别进行加权,计算每个拼接图像重叠区域每个位置的像素值加权和。
如图2-2,I1为原图像,I2为目标图像经过投影变换之后得到的图像,p(x,y)为重叠区域的任意一点,根据羽化算法,则在(x,y)处像素值的加权和为式(2-5);而非重叠区域的图像像素取他们各自原图像的像素值。
图2-2利用羽化算法拼接两幅图像
(2-5)
第3章基于特征的全景图拼接
3.1图像的获取与几何校正
为了获得全视角的环境信息,需要相机采集360度景物的图像。
同时,若使图像之间能够无歧异连接,相邻两幅图像之间必须具有一定的重叠部分。
相机的投影模型示意图如图3-1所示。
由透镜投影知识可知,同一实体在不同角度拍摄的两幅图像上的影像有空间关系的区别,若对两幅图像重叠区域进行简单叠加,必定造成叠加结果模糊不清。
因此,在进行图像拼接前,必须对这种几何畸变进行修正。
本节中将详细描述拼接柱面全景图所需图像序列的采集以及图像的几何校正过程。
图3-1针孔相机的投影模型
3.1.1图像的获取
柱面全景图是最为常见的全景图像。
柱面全景空间的视点空间对应单一视点处的柱面范围,要获取该范围内的环境图,只需固定照相机或摄像机的位置,平转照相机或摄像机进行拍摄。
拍摄实景图像使用的器材包括三脚架和数码相机等。
拍摄柱面全景图时,将数码相机固定在摄影三脚架上,尽量避免平转数码相机时镜头的偏斜和俯仰,并以镜头为轴,平转一周连续拍摄。
在拍摄时,要求被拍摄的景图必须静止,且依据实验数据,相邻两幅图像边界部分有大约1/3的重叠。
为保证360度信息的完整性,最后一幅图像应该与第一幅图像具有50%以上的重叠区域。
3.1.2图像的几何校正
相机或摄像机是将3D世界几何信息转换成2D几何信息的基本仪器,是使用2D图像信息对3D世界进行自动测量的传感器,其中最重要的就是从2D图像中测量点的3D坐标。
透视投影(PerspectiveProjection或CentralProjection),描述了相机或薄透镜的图像成像形式。
平面透视投影可以用图3-2表示。
图3-2平面透视投影模型
同一实体在两幅图像上的投影可以表示为图3-3,我们可以从几何学来求解精确的点到点对应的两幅图像的映射关系。
据此理论,平面图像间的投影关系有以下两种情况:
(1)不限制相机运动拍摄的图像,如图3-3所示。
(2)相机绕光心旋转和缩放的任意三维场景,如图3-4所示。
(3)通过自由移动相机观察远距离场景,比如高空摄影或者卫星遥感图像。
由于他们拍摄的实体到相机的距离远远大于图像间的运动,所以由三维自然场景引起的视差效果可以忽略不计。
本文中采用齐次坐标表示2D点(x,y,w),相应的笛卡尔坐标为(x/w,y/w)。
相似地,3D点的齐次坐标为(x,y,z,w),则相应的笛卡尔坐标
图3-3同一平面上的点在两幅图像中的影像
图3-4相机绕轴旋转实体点的投影
为:
(x/w,y/w,z/w)。
在齐次坐标下,设有某一实体点的空间坐标为(x0,y0,1)该点在相邻的两幅图像上都有一个像素点,像素点的坐标分别为:
(x,y,1),(x′,y′,1)。
在假设物体为刚性的,无任何非刚性形变的情况下,上述三种情况下拍摄的2D相邻图像间的透视投影变换表示为:
(3-1)
这里
为透视投影变换矩阵。
这个变换公式可以代表一些最基本的平面变换模型,例如:
平移(Translation)、旋转(Rotation)、缩放(PlusScaling)、仿射变换(AffineTransformation)和完全投影变换(FullProjectiveTransformation)等。
平移变换可以反映相机的左右、上下两个方向上的运动,具有两个自由度。
旋转变换可以反映相机的旋转角度,具有四个自由度。
将平移和旋转变换表示在一个矩阵里为:
(3-2)
其中θ为相机的旋转角度,t=(tx,ty,1),为平移参数。
在所有被拍摄的实体静止、无视差的假设下,仿射变换模型可以准确地描述相机绕光轴的转动;但是不能够描述相机绕x轴和y轴的旋转。
仿射模型对这些运动的描述只能是近似的,因为它只有6个自由度。
考虑第一种情况,在不限制相机运动的假设下,结合旋转、平移、仿射和投影变换矩阵,可以完全描述两幅相邻图像间的变换关系,如果可以从图像中恢复透视投影变换矩阵,便可以利用公式(3-1)进行图像的几何修正。
对于第二种情况,保证相机在x、y轴上没有旋转的前提下,可以把图像投影到同一个圆柱面上。
该圆柱面与相机的焦距相关,恢复相机运动轨迹,保证实体的空间约束关系,同时保证拼接完成的图像和肉眼观察的图像在视角上的一致性,即同一实体在柱面投影的不同图像上具有完全相同的映像。
这时,相邻图像间的变换就只是图像平移变换模型了。
3.1.3平面图像的柱面正投影
在实际的物理透镜投影测量和计算中,所涉及的物理量都是以实际的物理单位作为基本度量单位,比如相机的焦距f就是以毫米作为度量单位。
但是实景图像是以像素作为基本的度量单位,这样在计算中就存在着基本度量单位不同的问题。
为了避免相互转化带来的不便,将像素作为统一的基本度量单位。
为了实现上述目的,必须首先求出实景图像上每一个像素点在照相机坐标系中的像素坐标。
在照相机坐标系OXYZ中,视平面的位置关系如图3-5所示,视平面在Z=-f的平面上,这样实景图像上每一个像素点在照相机坐标系下具有Z轴坐标值-f。
假设照相机的镜头中心不存在偏差,则实景图像的中心是照相机的光轴(照相机坐标系的Z轴)与视平面的交点,由于照相机坐标系的X轴和Y轴分别平行于图像坐标系的横轴与纵轴,那么,对于实景图像上任何一个像素点(x,y),由图3-5我们不难得到它在照相机坐标系OXYZ下的像素坐标为(x-W/2,y-H/2,-f)。
其中,W和H分别是实景图像的宽度和高度,x,y,W,H以像素作为基本度量单位。
图3-5照相机系统的坐标
如图3-6所示,数码相机拍摄的一张实景图像J,P(x,y)是实景图像J上的任意一个像素点。
则P在照相机坐标系下的坐标为:
其中,W和H分别是实景图像J的宽度和高度。
我们把圆柱面的中心设为照相机坐标系的原点,并以数码相机的像素焦距f作为圆柱面的半径,下面求出像素点P在圆柱面上的投影点Q在柱面全景图像中的坐标(x′,y′)。
图3-6柱面正投影示意图
照相机坐标系原点与像素点P的直线方程可以表示为参数方程的形式:
(3-3)
其中t是参数,圆柱面的方程可以表示为:
(3-4)
联立以上两式得:
(3-5)
(u,v,w)是像素点(x,y)在圆柱面上的投影点Q的参数坐标,把所有这样的投影点组合在一起便得到全景图像。
但是,参数坐标是三维的,需要把它们转变为二维的图像坐标才便于存储。
这里,我们选用下面的公式来把三维的参数坐标转化为二维的图像坐标:
(3-6)
联立以上两式有:
(3-7)
式(3-7)是将实景图像J上的任意一个像素点P(x,y)柱面正投影到柱面全景图像上一个像素点Q(x′,y′)的投影公式。
利用该公式就可以将平面图像正投影到圆柱面上。
在图像的柱面正投影过程中,我们使用了相机焦距f,并且在公式中以像素计。
下面给出如何得到以像素计的相机焦距f。
照相机的水平视角hfov决定了拍摄景物的多少,它可以由水平旋转相机一周来估计,即
(3-8)
其中n是水平旋转相机一周时拍摄的是景图像张数(相邻位置拍摄的图像刚好左右衔接)。
图指出了实景图像的图像宽度W、相机焦距f、相机水平视角hfov之间的关系。
可以采用以下的公式估计相机的像素焦距f:
(3-9)
3.2图像的特征提取
为了避免在利用图像信息获得图像间变换矩阵M的8个自由度,来修正图像间的几何关系时的大量运算,本文作者提出了基于图像的特征提取的图像配准正方案。
该方法首先利用Moravec算子在相邻两幅图像其中一幅的重叠区域提取特征点,找到特征区域。
依据表示相同实际场景的图像具有最大相关性的原则,到另外一幅图像的重叠区域寻找对应的特征区域,这样找到计算8个自由度的四对特征区域,依据相对应的坐标信息,计算得到8个自由度,进而进行图像配准。
3.2.1特征点提取算子
特征点主要指明显点,如角点、圆点等。
提取特征点的算子称为兴趣算子或有利算子(InterestOperator),即运用某种算法从影像中提取我们所感兴趣的,即有利于某种目的的点。
目前已提出了一系列算法各异,且具有不同特色的兴趣算子,比较知名的有Moravec算子、Hannah算子与Fostner算子等。
3.2.1.1Moravec算子Moravec于1977年提出利用灰度方差提取点特征的算子,是基于一个理想的特征点在其四周各个主要方向上灰度具有最大—最小的方差的提取算法。
其步骤为:
(1)计算各个像素的兴趣值Iv(InterestValue)。
在以像素点P(c,r)为中心的的ω×ω图像窗口(如图中5×5的窗口),利用公式(3-10)计算如图3-8所示的四个方向相邻像素灰度差的平方和,作为该像素的兴趣值:
图3-8Moravec算子5×5窗口
(3-10)
这里,k=INT(ω/2)。
取最小者作为该像素的兴趣值:
(3-11)
(2)给定一经验阈值,将兴趣值大于该阈值的点(即兴趣值计算窗口的中心点)作为候选点。
阈值的选择应以候选点中包括所需要的特征点,而又不含过多的非特征点为原则。
(3)选取候选点中的极值点作为特征点。
在一定大小的窗口内(可不同于兴趣值计算窗口,例如5×5,7×7更大的像元),候选点中兴趣值不是最大者均去掉,仅留下一个兴趣值最大者,该像素即为一个特征点。
关于Hannah算子,Fostner算子由于其计算较复杂,故不在此介绍。
上述Moravec算子提取特征点的方法较简单快捷,且效果很好,本文中将它作为特征点提取算子。
3.3基于特征区域的图像配准
得到一幅图像的特征区域及其在相邻图像里的对应特征区域的信息,就得到了式(3-1)的(x,y)与(x′,y′)。
依据简单的矩阵运算后,就可以恢复矩阵M的8个参数。
然后再利用式(3-1)将相邻两幅图像其中的一幅投影到另外一幅图像所在的平面上,完成两幅图像的配准。
3.3.1柱面投影图像的配准
在保证所有的相机运动都发生X-Z平面,而且图像的中心点就是相机的光轴与图像平面的交点前提下,将图像投影到柱面上,图像序列中相邻两幅柱面图像间的关系只与平移矩阵有关。
这时的图像配准主要工作是从图像信息中获得两幅柱面图像的上下左右的平移参数(tx,ty,1).我们依照以下原则进行:
1)确定两幅图像的重叠区域。
依据拍摄时的条件,一般选左边图像的右1/3,右边图像的左1/3,如图3-11所示。
图3-11具有重叠区域的两幅图像
2)在左边图像的重叠区域内,利用本文提出的特征区域选取办法,选取具有最大窗口值的特征块,并以该块的中心点坐标作为一个特征点p(x,y)。
3)以最大相关原则,在右边图像中寻找与特征块具有最大相关系数的同等大小的块作为匹配块,并以该块的中心点坐标作为特征点的匹配点p′(x′,y′)。
4)特征点与匹配点的平移参数,即为两幅相邻柱面图像的匹配参数:
将右边的图像进行相应的坐标平移,投影到左边图像的平面上,相邻两幅柱面图像的配准就完成了。
3.4全景图像的平滑拼接
为了去掉简单叠加造成的影响,使用渐入渐出的方法进行了图像拼接。
同时本文还提出了一种直方图处理法,以消除同一实体由于光强不同造成在对两幅图像上的影像进行融合时的接痕。
3.4.1图像直方图处理
在拍摄柱面全景图时周围环境和相机本身引起的最大的问题就是相邻图像之间的光照变化比较大。
理想的光照条件下,相邻图像中表示同一实体的部分应该具有相同的光照强度,但是由于光源变化或者相机运动和光源的平角的变化,导致了光强的差异。
这种差异表现在图像平滑融合时,在融合区域会有视觉上的带状痕,为了消除这种影响,提出了一种直方图处理方法:
1)对于24位色图,首先将RGB图像转换成HIS类型图像,针对其I分量进行处理,等同于对灰度图像的灰度值进行处理。
2)将两幅图像的1/3公共部分作为重叠区域,注意要保证两个重叠区域像素数目一致。
3)分别计算左、右两边重叠区域的I分量或灰度图像灰度值的和sum1与sum2。
4)Differ=sum1/sum2,将图像2的每一个像素的I分量或者灰度图像2的每一个像素的值与参数Differ相乘加权。
这样做的目的是将两幅图像的亮度均值统一,使得重叠区域在融合时能够平滑过渡。
3.4.2渐入渐出的拼接
相邻两幅图像经过上面小节的直方图处理之后,具备了同样的亮度均值。
利用平移参数矩阵t=(tx,ty)我们可以采用“渐入渐出”的方法将图像融合在一起。
在图像融合结果中,非重叠区域内分别属于图像A和B的像素点的颜色值就取各自本来的颜色值。
重叠区域内的像素点的颜色值是两幅图像颜色值的加权平均。
为了进一步保证颜色和亮度的均匀
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 拼接 技术