基于EM算法的图像分割实现文献综述
2020-05-04 21:18:12
1.1 课题的研究背景及意义
当今世界已经步入了人工智能(AI)时代。在智能时代的大背景下,机器学习深度学习与计算机视觉成为了如今的热点。而与其相关的便是数字图像处理技术(DIP),图像分割是实现自动图像分析和模式识别的首要问题,它根据图像的某些特征或特征集合的相似性准则,对图像像素进行分组聚类,将图像划分为一系列“有意义”的不同区域。图像分割质量的优劣、区域界限定位的精度直接影响后续的区域描述及图像的分析和理解,是图象分析、处理、理解中一个举足轻重的技术环节。本次设计的目标正是将EM算法应用到图像处理技术中完成图像分割。
EM(expectation-maximization) 算法又称期望最大化算法,是 Dempster,Laind,Rubin 于 1977 年提出的求参数极大似然估计的一种方法,它可以从非完整数据集中对参数进行 MLE(极大似然估计) 估计,是一种非常简单实用的学习算法。这种方法可以广泛地应用于处理缺损数据,截尾数据,带有讨厌数据等所谓的不完全数据(incomplete data)。EM算法是在缺失数据等不完全数据下进行参数的极大似然估计或者极大后验估计一种行之有效的方法。
1.2 国内外研究现状
EM算法作为一种常用的迭代算法,因为其具有良好的可操作性、收敛性,在世纪初期的一些文献中己经被提了出来。首先是1926年M’kendrick在医药研宄中最先考虑到这一算法;随后1958年将其应用到数据计算的一般情况中,在很大程度上发展了这一理论;1970年,Baum,Petri等人将其应用到了马尔科夫链的模型中,这一情况下证明了关键的数学结果,扩大了其应用范围;1974年,在文章Marimum likelihood theory for imcomplete data from an exponential family集中讨论了在指数分布族下的不完全数据的似然函数,并给出了不完全数据条件下的信息阵的计算,为EM算法的构建打下基础。1977年,由Dempster、Ladrid和Rubin三人文章Marimum likelihood fromincomplete data via the EM algorithm中正式提出EM算法,之后算法成为处理不完全观测数据的备受关注的方法,不断被深入研究,从年起有许多算法的新应用以及改进。据Meng在1997年调查,仅在1991年这一年关于算法的文章就有1000多篇发表在300多类杂志上。经过了几十年的发展,算法己被广泛应用于工程学、医学、社会学、商务管理学等数据量需求比较大的领域的不完全数据的处理中。
随着国外对算法的深入研究,我国对算法的研究也有了很大进步,国内的研究方向主要集中在下述两个方面:
一是在EM算法收敛性、收敛速度方面。罗季先生在论文《MonteCarlo EM加速算法》中提出了MCEM加速算法,将MCEM算法与N-R相结合,实现了对MCEM算法收敛速度的改进;
二是国内有许多文献对EM在多类混合模型中进行了参数估计以及聚类分析研究。
2. 研究的基本内容与方案
{title}在本次设计中主要用MATLAB或PYTHON编写程序实现基于EM算法的图像分割。在程序设计方案中,主要考虑利用高斯混合模型对原始图像进行建模,将图像中的每个像素视为由一种密度函数计算所得到的,之后计算该密度函数的数学期望(E步),接着计算该模型的最大似然估计(M步),在进行完一次E、M步骤后,继续对像素进行分析重新建立模型再进行求期望与极大似然估计操作,将E、M步骤循环下去,直到期望收敛。
在程序第一步是用软件读取图像。从上所述EM算法计算量巨大,而且一般图像为RGB彩色图像并且像素远大于8位,以常见的128*128像素图像举例,在处理时会有16384个像素,而8*8图像只需要处理64个像素,相差1024倍。因此在进行操作之前首先需要将图像转化为8位灰度图像从而简化运算。第二步是对图像进行去噪处理以保证在接下来的纹理提取过程中不受噪声的干扰,在程序中可以考虑使用均值滤波进行图像的去噪操作,去噪之后的图像直方图应该变得平滑。第三步是图像的纹理提取,提取完成后就可以直接进行算法操作。在第四步EM算法实现的过程中,计算量特别大,因此在这个步骤中需要充分考虑后再编写函数,这样能减少计算的冗余量。