多光谱和全色数据有什么区别?

地信专业的人士请进来回答,其他人免进!
2024-12-20 05:10:00
推荐回答(3个)
回答1:

多光谱和全色数据的区别如下:

1、定义不同:

全色图像,是遥感器获取整个可见光波区(一般定义在0.4μ到0.7μ之间)的黑白影像称全色影像。

多光谱图像是指包含很多带的图像,有时只有3个带(彩色图像就是一个例子)但有时要多得多,甚至上百个。每个带是一幅灰度图像,它表示根据用来产生该带的传感器的敏感度得到的场景亮度。

2、图像获取方式不同:

多光谱图像是对地物辐射中多个单波段的获取,得到的影象数据中会有多个波段的光谱信息。对各个不同的波段分别赋予RGB颜色将得到彩色影象。

全色数据图像通过延长与黑色图像形成相关的装置部件特别是黑色用光源的寿命,从而尽管黑色图像形成频度高于全色图像形成频度,也可有较长的寿命。

3、波段不同:

多光谱图像通常指3到10个波段。每个波段都是使用遥感辐射计获得的。全色图像的光波区为0.4μ到0.7μ之间的黑白影像。

参考资料来源:百度百科-多光谱图像

参考资料来源:百度百科-全色图像

回答2:

随着光谱分辨率的不断提高,光学遥感的发展过程可分为:全色(Panchromatic)→彩色(Color Photography)→多光谱(Multispectral)→高光谱(hyspectral)。

区别:

1、波段

全色:一般使用0.5微米到0.75微米左右的单波段,即从绿色往后的可见光波段。全色遥感影象也就是对地物辐射中全色波段的影象摄取,因为是单波段,在图上显示是灰度图片。全色遥感影象一般空间分辨率高,但无法显示地物色彩。

多光谱:将地物辐射电磁破分割成若干个较窄的光谱段,以摄影或扫描的方式,在同一时间获得同一目标不同波段信息。

2、图像

全色:因为是单波段,在图上显示是灰度图片。全色遥感影像一般空间分辨率高,但无法显示地物色彩。实际操作中,我们经常将之与波段影象融合处理,得到既有全色影象的高分辨率,又有多波段影象的彩色信息的影象。

多光谱:不同地物有不同的光谱特性,同一地物则具有相同的光谱特性。不同地物在不同波段的辐射能量有差别,取得的不同波段图像上有差别。

航空摄影用的多光谱摄影与陆地卫星所用的多光谱扫描均能得到不同普段的遥感资料,分普段的图像或数据可以通过摄影彩色合成或计算机图像处理,获得比常规方法更为丰富的图像,也为地物影像计算机识别与分类提供了可能。

扩展资料

国际遥感界的共识是光谱分辨率在λ/10数量级范围的称为多光谱(Multispectral),这样的遥感器在可见光和近红外光谱区只有几个波段,如美国 LandsatMSS,TM,法国的SPOT等;

而光谱分辨率在λ/100的遥感信息称之为高光谱遥感(HyPerspectral);随着遥感光谱分辨率的进一步提高,在达到λ/1000时,遥感即进入超高光谱(ultraspectral)阶段。

多光谱图像处理包括光学处理和数字处理两类。光学处理有普通的照相处理、光学几何校正、分层叠加曝光、假彩色合成、电子灰度分割、相关掩模处理、物理光学处理等。

数字处理是用计算机系统对原始信息进行图像辐射与几何误差的校正、特征的增强、图像配准、地物类别区分、目标特征提取等处理。

二者相比,数字处理更为重要。数字处理方法灵活、速度快、重复性好、可生成高几何精度及高质量的图像。多数情况下应先将图像信号数字化,然后在计算机中进行处理。

参考资料:百度百科 - 多光谱图像

回答3:

全色是通过单通道探测器探测目标表面亮度,一般是可见光波段,产生黑白图像。多光谱是通过多波段探测器探测目标表面亮度和光谱信息,有几个到几十个波段,波长范围比可见光大,还包括红外、微波