本课题得到国家自然科学基金A项目编号B#C"D%%BE和江苏省自然科学基金A项目编号FG##%!BE资助>吴建鑫;男;H#"C年生;硕士研究生;主要研究领域为神经网络I机器学习>周志华;男;H#"!年生;博士研究生;主要研究" />

一种选择性神经网络集成构造方法

第!"卷第#期

$%%%年#月计算机研究与发展&’()*+,’-.’/0(12))232+).456272,’0/2*1789:!";*8:#3<=>$%%%原稿收到日期?$%%%@%!@$%>本课题得到国家自然科学基金A 项目编号B #C "D %%B E 和江苏省自然科学基金A 项目编号F G #

#%!B E 资助>吴建鑫;男;H #"C 年生;硕士研究生;主要研究领域为神经网络I 机器学习>周志华;男;H #"!年生;

博士研究生;主要研究领域为神经网络I 机器学习I 数据挖掘>沈学华;男;H #""年生;硕士研究生;主要研究领域为神经网络I 机器学习>陈兆乾;女;H #J %年生;

教授;博士生导师;主要研究领域为机器学习I 知识工程I 神经网络>一种选择性神经网络集成构造方法

吴建鑫

周志华沈学华陈兆乾A 南京大学计算机软件新技术国家重点实验室南京$H %%#!E 摘要提出一种选择性神经网络集成构造方法;在训练出个体神经网络之后;使用遗传算法选择部分网络来组成

神经网络集成>

理论分析和实验结果表明;与传统的使用所有个体网络的方法相比;该方法能够取得更好的效果>关键词神经网络;集成;遗传算法

中图法分类号

10H C KL M N M O P Q R MO S T L P U V O P Q T W K X X U S K O Y P S T M V U K N

T M P ZS U [M T L M \]N M

^(&_‘a @b _a ;c 4’(c d _@4e ‘;342*b e <@4e ‘;‘a f.42*c d ‘8@g _‘a

A h i j i k lk mn j o p q j i p q mr p q sp t k u h p r i v j q k w k x y z p u p {m ;sj z |}z {~z }t k q !}i m ;sj z |}z {$

H %%#!E K "#$%&’$18_(=)8*<+d <‘,_9_+-8./

a <+38)4

_a f _*_f e ‘9a <+38)41+8,<1d <8)<+_2‘9‘a ‘9-1<1‘a f<5=<)_(

+d _1‘==)8‘2d8e +=<).8)(1+d <+)‘f _+_8a ‘98a <1+d ‘+

>[6789%:#a

;引言

神经网络技术已在很多领域得到了成功的应用;但是;由于缺乏严密理论体系的指导;其应用效果完全

取决于使用者的经验>48)a _4等人

只需一个具有单隐层的前馈网络就可以逼近任意复杂度的函数;但如何找到合适的网络配置却是一个*0问题>在实际应用中往往很难找到理想的网络结构;这就影响

了网络泛化能力的提高>H ##%年;4‘a 1

38)4

E ;为上述问题的解决提供了一个简易可行的方案>研究结果表明;神经网络集成方法不仅易于使用;还能够以很小的运算代价显著地提高学习系统的泛化能力>因此;神经网络集成已成为目前神经网络界的研究热点>

然而;设计一个好的神经网络集成并非易事>典型的一类神经网络集成构造方法分如下两步执行

首先训练一批神经网络;然后对这些网络的输出结论以某种方式进行结合;构成神经网络集成>G )8/d 等人通

过理论研究发现;

组成神经网络集成的各网络差异越大;集成的效果越好>由于在前述方法中;神经网络通常是各自尽可能独立地训练;网络的差异由使用的训练集I 网络结构I 学习算法的差异或者学习算法的随机性来产生;因此有可能产生彼此非常相似的神经网络;>

>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>>这些神经网络对于整个神经网络集成泛化能力的提高可

万方数据

相关主题
相关文档
最新文档