基于改进的支持向量机方法的多目标图像分割
1 引言
传统学习分类方法,像神经网络方法,已经在图像分割中得到了广泛的应用[1~2],但其目前遇到了网络模型难以确定、容易出现过学习与欠学习以及局部最优等问题[3]。由Vapnik等人发展的支持向量机(SVM)方法[4~5]被看作是对传统学习分类方法的一个好的替代,特别在小样本、高维情况下,具有较好的泛化性能。SVM方法是建立在统计学习理论的VC维(Vapnik-Chervonenkis Dimen-sion)理论和结构风险最小化原理基础上,根据有限样本信息在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的泛化能力。SVM方法作为一种新的学习分类方法,目前已经在人脸识别、纹理分类、目标检测等领域得到了成功的应用[6~8]。最近,采用SVM方法分割图像也得到了广泛关注[9]。
本文对一对一支持向量机方法进行了改进,并采用其对多目标图像进行了分割研究。为了评价该方法的分割性能,我们以磁共振脑组织图像作为实验图像,将其分割成脑灰质、脑白质、脑脊髓及背景四类目标。
2 改进的支持向量机方法
SVM方法是针对两类分类问题提出的,如何将两类分类推广到多类分类是SVM方法研究的重要内容之一。目前主要有两种方法来解决这个问题:第一种是直接求解一个含多类问题的优化问题[5]。相对其它方法而言,该方法需要较长的时间来求解一个大的优化问题;第二种是通过构造或组合多个两类分类问题来实现多类问题的分类,其中包括:一对多(one-against-the rest)方法[10],一对一(one-against-one)方法[11]以及有向无环图(di-rected acyclic graph)方法[12]。一对一方法是目前多类支持向量机中应用最多的方法,但其存在不可分的区域,这给它的名声带来了或多或少的损害。
为此,Abe等人[13]对一对一方法进行了改进,提出了多类问题的模糊支持向量机,对位于不可分区域中的向量采用最小算子定义其隶属度,最后根据隶属度决定其类别。Tsujinishi等人[14]对Abe等人的方法进行了修改,用平均算子替代最小算子来定义不可分区域中向量的隶属度,但实验表明,用平均算子替代最小算子会使分类精度变差。上述方法虽然较好地解决了区域不可分问题,但由于需定义隶属度函数,实现起来较为复杂。
众所周知,在分类问题中,距离是一种最直观、最自然的类隶属测度。基于这个考虑,提出了一种改进的一对一方法。其实现过程如下:针对k(k>2)类问题,对得票数相同(位于不可分区域)的向量,计算其到所有两类分类超平面的垂直距离(如图1所示):
为了验证改进方法的有效性,该方法在UCI标准数据库[15]的iris、vehicle以及wine数据上进行了实验,并将其分类性能与一对一方法及Abe等人的改进方法进行了比较。实验中,将样本数一分为二,一半用于训练,一半用于测试,核函数采用了二阶的多项式核。表1为几种方法分类性能的比较结果。从表中可以看出,本文的改进方法可以获得与Abe等人的改进方法接近的分类性能。与Abe等人的改进方法相比,此方法无需定义隶属度函数,因此实现起来更简单。其实,本文改进的方法实现了对不可分区如图2所示的划分。
相关文章
- 2023-03-22SolidWorks在管路补偿接头系列化设计中的应用
- 2023-04-12全电子包装秤故障原因分析及策略
- 2023-05-28锁相红外热成像技术在无损检测领域的应用
- 2021-12-20DSP和FPGA在大尺寸激光数控加工系统中的运用
- 2023-04-04基于NX的FANUC系统四轴加工中心后置处理器构建
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。