2. 山西省农业遥感中心, 山西 太原 030051
2. Remote Sensing Center of Agriculture of Shanxi Province, Taiyuan 030051, Shanxi, P. R. China
玉米是世界上分布最广的作物之一,我国作为世界上玉米生产第二大国,及时掌握玉米播种的相关信息,将为国民经济和宏观决策提供科学的依据[1]。遥感技术具有运行周期短、探测范围大、时效性强和费用成本低的特点,在农业应用中产生了良好的社会效益和经济效益。相比传统的统计手段,在很大程度上避免了人为因素的干扰,大大节省了时间、人力、物力、财力,可以快速准确地提取作物种植面积、监测作物长势情况和进行作物产量估算。
彩色高分一号卫星(GF-1)玉米田遥感图像中,玉米田目标复杂,地块边缘模糊。利用传统灰度阈值进行地块分割,虽然计算简单、运算效率较高,但其不考虑空间特征,对于光谱信息复杂的玉米田图像目标,会产生严重的错分现象;区域生长的分割方法虽然对复杂图像的分割效果较好,但对分裂合并准则的要求比较高,算法较复杂,计算量大,分裂还可能破坏区域的边界;边缘检测分割,利用了灰度级和结构具有突变的特征进行分割,常用于边缘检测的微分算子如一阶微分算子 Roberts算子、Prewitt算子和Sobel算子,二阶微分算子Laplace算子和Kirsh算子等[2],都能很好地提取目标的边界,但应用于光谱信息复杂、地块边缘模糊的玉米田图像时,会产生严重的复杂边界,同时地块边界检测误差大,不利于后续的面积统计工作。玉米田遥感图像的边缘是图像最基本的特征之一,包含了图像的大部分信息。而玉米田地块边缘存在于图像的不规则结构和不平稳现象中,反映的是图像内部不同局部区域的特征。传统灰度图像的边界是由灰度等级的不连续性导致的,而彩色遥感图像边界产生因素有亮度、色度、饱和度和梯度等等。加上玉米作物复杂的光谱特征,其彩色遥感图像更复杂,传统的基于像元的分类方法,忽略了地物空间信息,分类结果较差。因此,利用面向对象的分类方法,对玉米田进行基于彩色遥感信息分析与理解的边界检测,并利用检测结果进行玉米田种植面积的统计成为本文研究的重点。
本文利用模糊集理论与现有的边缘检测相结合的方法对玉米田遥感图像进行分割处理。首先将GF-1卫星遥感图像从RGB变换到I1I2I3彩色空间,提取出含丰富特征的单色图I1;然后在模糊领域对I1进行基于块的增强处理;再对增强后的图像进行最小值边缘提取;最后利用Full Lambda-Schedule算法对区域边缘进行优化。本文方法能有效地分割出目标,减少了目标复杂和边缘模糊带来的影响,有效的去除了复杂光谱噪声目标,分割结果更加符合玉米田实际分布和实际统计面积。
1 基于块模糊增强的边缘检测本文算法的具体实施步骤:(1) 将GF-1卫星遥感图像从RGB变换到I1I2I3彩色空间;(2) 在I1I2I3彩色空间中提取出含丰富特征的单色图I1;(3) 对含丰富特征的单色图I1进行块模糊增强;(4) 利用“min”算子提取图像边缘;(5) 计算边缘灰度比,优化边缘提取效果;(6) 利用Full Lambda-Schedule算法进行区域边缘合并处理,得到最终的边缘分割结果。算法流程如图1 所示。
边缘检测的本质是颜色差分的定义和计算问题。对于彩色图像来说,由于每个像素由R、G、B 3个分量决定,很难定义颜色差分的大小以及方向,因此彩色图像边缘的检测要困难许多。
许多彩色空间可以被用于彩色图像处理中,如RGB、HIS、CIR L*a*b、I1I2I3等等,每种颜色空间都有不同的特性,所以不同的颜色空间都有确定的不同的应用范围。由于没有对所有彩色图像处理都适用的颜色空间,我们需要根据具体图像和检测方法选择合适的彩色空间。
为了降低彩色特征空间中各个特征分量之间的相关性,以及为了使所选的特征空间更方便于图像边缘检测方法的具体实现,本文中将图像从RGB空间变换到I1I2I3彩色空间。
本文利用Ohta等人提出的动态 K-L变换[3],把彩色图像的R、G和B变换为一组由相互正交的三彩色基I1、I2和I3构成的色彩空间,这样可以极大地减小色彩相关度。该变换关系可以用式(1)表示。
本文中的R、G、B通道分别对应近红外、红色和绿色3个波段的图像。同时,由于该变换是线性变换,因而计算简单,可以减少检测时间。
1.2 块模糊增强通常,在一幅复杂的图像中不止有一种目标,而且目标之间的界限很难确定。通过模糊增强,可使模糊斜坡边界变为近似的阶梯边界[4],如图 2所示。
以对图像A进行增强为例(见图 3),当图像A以一个灰度阈值简单的分为两部分时,它将丢掉很多重要的边缘信息[5]。为了解决这个问题,引入小尺寸的滑块B:(1)B仅覆盖了图A的很小的一部分,同时内部有少量边界,所以会对边界信息更敏感;(2)对B覆盖的区域图像进行增强,增强的阈值是针对小滑块区域B的,这样可以在不同灰度变化下对图像进行边缘增强。
uij0为像素(i,j)模糊化后的模糊像素值,计算方法见式(2)。
其中Xij为单色图I1在像素点(i,j)位置的灰度值,Xmax和Xmin分别为单色图I1中的最大和最小灰度值。
1.3.2 块结构尺寸的选择块的尺寸决定了算法的速度[6]。块的尺寸越小,算法的运行速度越快,但是,当块的尺寸过小时会削弱增强的效果。本文通过大量实验,根据提取目标尺寸大小,选择了d×d=16×16尺寸的块结构。
1.3.3 单色图I1阈值T计算本文使用对应块的平均灰度值进行计算,该计算快速、稳定,适应于复杂的图像。
其中N为每个平滑块的像素个数。
1.3.4 调整模糊空间利用公式(4)调整模糊成员到区间[0,1],计作uij1,如式(4)所示。
其中umin和umax为公式(2)计算得到的uij0中的最小和最大值。
1.3.5 uc值的确定初始化uc=0.5,调整uc=uc+λ。
1.3.6 图像块区域的模糊增强处理反复采用如下公式(5)增强算子,对图像进行块区域的模糊增强处理,得到模糊增强后的图像uij2,如式(5)所示。
其中uc为增强阈值。该非线性变换增大了大于uc的uij1的值,同时减小了小于uc的uij1的值。本文进行两次迭代,这里uc已演变为一个广义的渡越点。
1.3.7 反交换得到增强图像通过对uij2进行公式(4)的反变换,调整增强后的块图像,返还到原来的模糊区间[umin,umax],利用模块遍历整幅图像,得到增强后的图像uij3。
1.4 提取边缘采用 Nakagowa [2]提出的“min”最小值算子(公式(6))提取图像uij3边缘,得到边缘连续的闭合区域。
式中Q为以坐标(i,j)为中心的3×3窗口。Eedge为最终的边缘图像。
1.5 根据边缘提取效果调整uc的取值本文采用边缘灰度比EGR(Edge Grey Ratio)[4]来作为判断边缘提取效果理想与否的客观准则。
式中Shigh为图像高灰度区像素最多的灰度值的像素个数,Slow为图像低灰度区像素数最多的灰度值的像素个数,Stotal为图像像素之和。一般情况下,EGR越大,边缘检测效果就越好。但是如果EGR的值取得过大,则可能会失去图像的一些细小边缘。我们根据EGR的值来调整步骤(3)中的步长λ,公式如下:
式中 m、n为边缘灰度比的阈值,用于调整边缘效果,两参数可根据用户提取边缘的需要来进行调整。经过大量实验发现,如果图像构成比较简单,则将m、n分别取为 40和50;如果图像细节丰富,则将m、n分别取为 60和70,即可满足边缘提取要求。本文玉米田目标细节复杂,取m、n分别为 60、70。
1.6 区域边缘合并处理提取出的边缘,由于图像内容不同地物的光谱影响或阈值选取的不同,有些特征会被错分,一个特征也有可能被分为很多部分,同时考虑到图像源数据中,彩色GF-1图像的高分一号数据像元尺寸为2.4 m×2.4 m,为了能更好的地显示图像中的小目标,同时为了避免分割区域数量过大导致的过分割现象,本文利用Full Lambda-Schedule算法[7,8]进行合并来解决这些问题。该方法在结合光谱和空间信息的基础上迭代合并临近的小斑块。
Full Lambda-Schedule算法的原理是依据相邻对象之间的光谱和空间信息,不断地合并相邻对象。该方法中我们首先需要设定一个阈值λ,对于两个相邻对象p和q,通过比较合并条件tp,q和阈值λ之间的关系来判断两对象是否可以合并,当合并条件tp,q小于阈值λ,则p和q两个区域合并成一个区域;反之,p和q两个区域不合并。合并条件tp,q公式如下:
其中Op表示区域p的面积,Oq表示区域q的面积,Up表示区域p的平均灰度值,Uq表示区域q的平均灰度值,Up-Uq表示对象p和q平均灰度值之间的欧式距离,length(∂(Op,Oq))表示对象p和q之间公共边界的长度。
合并尺度的阈值λ设定范围在0到100.0之间。当分割结果出现过分割现象时,通过设定合适的合并尺度,可以得到更好的分割对象,本文通过大量实验,选取λ=35,得到较好的结果,见表 1。
本文所使用的GF-1图像数据的成像时间为2013年7月30日,地理位置为陕西省蓝田县。该图像包括4个多光谱波段:蓝(0.45~0.52 μm)、绿(0.52~0.59 μm)、红(0.63~0.69 μm)和近红外(0.77~0.89 μm)波段,分辨率均为8 m;1个全色波段(0.45~0.90 μm),分辨率为2 m。该地区属于大玉米种植区,地势较为平整,对研究玉米与水稻、建筑物等背景区域的边缘分割比较适宜。所使用的GF-1数据已经进行了正射校正、辐射定标、大气校正和融合等预处理。图 4 为GF-1全色图像和多光谱图像的融合结果图像,R、G和B通道分别对应近红外、红色和绿色3个波段的彩色图像显示。
利用动态K-L变换,把彩色图像(图 4)的R、G和B变换为一组由相互正交的三彩色基I1、I2和I3构成的色彩空间,分离出含丰富特征的单色图I1,如图 5所示。
直接对原始彩色遥感图像进行边缘检测的结果如图 6所示。图 6(a)为Canny边界提取结果图;图 6(b)为Sobel边界提取结果图;图 6(c)为本文方法边缘提取结果。可以看出传统的Sobel算子丢失了很多边界;Canny算子能直接获得二值边界图像,在边界稀少的区域效果较好,但对于玉米田遥感图像中目标复杂的区域,边界提取是混乱和模糊不清的。
相比传统边界提取算子,本文通过颜色空间转换,对含丰富特征的单色图I1进行模糊增强,同时采用 Nakagowa提出的“min”算子提取图像边缘,边缘结果图如图 6(c)所示,可以看出,本文方法对于光谱复杂的玉米田遥感图像,能够较清晰的检测出玉米田的边界,较好的去除非玉米目标噪声的影响;相比于Canny和Sobel算子提取的边界结果,较好地检测到不同灰度对比度下的灰度变化,没有出现边界大量丢失的现象;检测出的边缘曲线(如图 7(a)所示)细腻而光滑,有较好的连续性,有效地识别出玉米田地块的边缘,且定位精度较高[9,10]。
对边界提取结果进行合并优化得到最终的模糊边缘检测的结果(如图 7(b)所示)。为了检验本文结果与实际玉米作物分布的符合情况,根据K-L反变换,将变换后的I1和原I2、I3进行合成得到彩色回显图像,结果如图 7(c)所示,然后通过计算各区域的特征向量与样本区域的特征向量的欧氏距离进行目标分类(如图 7(d)),提取出的玉米目标为图 7(e)中蓝色边缘包围的区域。可以看出,本文方法在有效地提取玉米田边界的同时,减少了由于光谱复杂造成的小块区域,保持了大面积玉米区的地块特征,为进一步的玉米种植面积统计提供了有效的数据支持。
图 7(f)为人工解译玉米目标。人工解译样本是由专业人员结合影像目视解译与光谱特征分析获取的。通过解译获取本文的训练样本过程中,首先选取局部区域进行地理坐标绘制,投射到遥感图像上进行样本绘图;再对整个图像区域进行人工解译;最后对其进行野外调查和详细解译,得到相对准确的目标区域参考分割样本,图像中白色区域代表玉米区域。将本文方法(图 7(e))与人工解译的目标区域样本图 7(f)进行比较。经表 2比较可以看出,本文分割结果面积误差率为5.95%,项目统计中要求误差率小于8%,因此,本文方法符合实际玉米田的面积统计。
本文基于块模糊增强的玉米田边缘检测方法,首先将GF-1卫星遥感图像从RGB变换到I1I2I3彩色空间;然后对含丰富特征的单色图I1进行块模糊增强;最后利用“min”算子提取出边界,并对区域边界进行合并优化处理,得到最终的边缘检测结果。在对目标有效分割的同时,清晰地检测出玉米田的边界,较好去除了非玉米目标噪声的影响,对含有大量类矩形地块的大面积玉米田遥感图像有很好的分割效果,为玉米面积统计提供了有效的帮助。结论如下:
1) 通过增强块图像,边界的灰度对比度将拉大,更多的边界信息将被提取出来,使得边缘提取更加精确。
2) 考虑到图像源数据中,彩色GF-1号数据像元尺寸为2.4 m×2.4 m,为了能更好地显示图像中的小目标,同时为了避免分割区域数量过大导致的过分割现象,对边缘提取结果进行合并处理。
3) 通过与Canny和Sobel算子提取的边界结果相比,本文方法较好地检测到不同灰度对比度下的灰度变化,没有出现边界大量丢失的现象;检测出的边缘细腻而光滑,有较好的连续性,有效地识别出玉米田地块的边缘,且定位精度较高,更接近玉米田的实际分布情况,为玉米种植面积统计提供了较好的分割结果。
致谢:山西省农业遥感研究中心为本文提供了遥感图像,并在样本采集和人工解译方面给予了大力支持,在此表示衷心的感谢![1] | 程 茜. 基于模糊逻辑的边缘检测技术研究[D]. 扬州:扬州大学, 2012. doi:10.7666/d.y927286. Cheng Q. Research on the technique of edge detection based on fuzzy logic. Yangzhou: Yangzhou University,2012. |
[2] | Li G, Huang T Y, Yan H, Zhang X C, Di J, Si L L. Fuzzy edge detection of color remote sensing image[C]. Automatic Control and Artificial Intelligence (ACAI 2012), International Conference. 2012: 1098-1101. |
[3] | Ohta.Y I, Kanade T, Sakai T. Color information for region segmentation[J]. Computer Graphics and Image Proce-ssing, 1980, 13:222-241. |
[4] | Rildler T W, Calvard S. Picture thresholding using an iterative selection method[J]. IEEE-SMC, 1978, 8(8):630-632. |
[5] | 陆昳丽.面向对象的农田目标遥感识别与提取研究[D].南京:南京大学, 2011. 9-20. Lu Y L. Object-based farmland recognition and extraction from high resolution remotely sensed imagery[D]. Nanjing: Nanjing University, 2011.9-20. |
[6] | 黄 亮,左小清,冯 冲,聂俊堂 .基于Canny算法的面向对象影像分割[J].国土资源遥感, 2011,23(4):26-30. Huang L, Zuo X, Feng C and Nie J T. Object- oriented image segmentation based on canny algorithm[J]. Remote Sensing for Land & Resources,2011,23(4):26-30. |
[7] | Makkeasorn A, Chang N B, Li J. Seasonal change detection of riparian zones with remote sensing images and genetic programming in a semi-arid watershed[J]. Journal of Environmental Management,2009,90(2):1069-1080. |
[8] | Theoharatos C, Economou G, Fotopoulos S. Color edge detection using the minimal spanning tree[J]. Pattern Recognition, 2005,38(4):603-606. |
[9] | Sziranyi T, Shadaydeh M. Improved segmentation of a series of remote sensing images by using a fusion MRF mo-del[J]. Content-Based Multimedia Indexing (CBMI), 2013,(11):137-142. |
[10] | Bencherif M A, Bazi Y, Guessoum A, Alajlan N, Melgani F, Alhichri H. Fusion of extreme learning machine and graph-based optimization methods for active classification of remote sensing images[J]. Geoscience and Remote Sensing Letters, 2015,12(3):527-531. |