X为了获得更好的用户体验,请使用火狐、谷歌、360浏览器极速模式或IE8及以上版本的浏览器
关于我们
欢迎来到科易网(仲恺)技术转移协同创新平台,请 登录 | 注册
尊敬的 , 欢迎光临!  [会员中心]  [退出登录]
成果 专家 院校 需求
当前位置: 首页 >  科技成果  > 详细页

[01054450]提高神经网络泛化能力的研究及其应用

交易价格: 面议

所属行业: 网络

类型: 非专利

交易方式: 资料待完善

联系人:

所在地:

服务承诺
产权明晰
资料保密
对所交付的所有资料进行保密
如实描述
|
收藏
|

技术详细介绍

该项目研究如何设计有效的提高神经网络泛化能力的训练学习算法,主要包括:研究基于非单调搜索思想的神经网络训练学习算法,使其不仅具有确定型模拟退火法全局寻优的特点,又能体现局部快速搜索的优点;研究如何根据隐层结点的聚类特性动态设计隐层结点,为提高神经网络模型的泛化能力提供一个新的途径;研究如何设计属性约简新算法,使其在训练样本冗余化约和计算速度方面有明显提高;研究如何设计跳步策略,使学习过程摆脱平坦曲面。项目主要从如何有效控制训练误差的变化、如何有效动态控制隐层节点等目前尚未解决的难题入手,研究成果主要特点有:1、针对网络训练误差函数的非凸性,提出非单调搜索学习和跳步学习新机制,较好地克服了传统单调搜索学习算法的缺点;2、项目应用聚类分析思想对隐层输出特性进行研究,较好地解决了隐层动态设计问题;3、应用粗糙集思想研究了对训练数据进行降维、冗余化约和不确定性滤除的属性约简算法。该项目研究成果被EI收录1篇,被15篇论文所引用,引文作者分别来自上海交通大学、复旦大学、国防科技大学、华南理工大学、重庆大学、大连理工大学、吉林大学、华中科技大学等高校,在国内神经网络算法研究领域具有一定的影响。特别是项目提出的非单调搜索思想、确定神经网络隐层结点算法和跳步策略多次被作为设计新算法的参考或应用于具体的网络隐层结构设计中。
该项目研究如何设计有效的提高神经网络泛化能力的训练学习算法,主要包括:研究基于非单调搜索思想的神经网络训练学习算法,使其不仅具有确定型模拟退火法全局寻优的特点,又能体现局部快速搜索的优点;研究如何根据隐层结点的聚类特性动态设计隐层结点,为提高神经网络模型的泛化能力提供一个新的途径;研究如何设计属性约简新算法,使其在训练样本冗余化约和计算速度方面有明显提高;研究如何设计跳步策略,使学习过程摆脱平坦曲面。项目主要从如何有效控制训练误差的变化、如何有效动态控制隐层节点等目前尚未解决的难题入手,研究成果主要特点有:1、针对网络训练误差函数的非凸性,提出非单调搜索学习和跳步学习新机制,较好地克服了传统单调搜索学习算法的缺点;2、项目应用聚类分析思想对隐层输出特性进行研究,较好地解决了隐层动态设计问题;3、应用粗糙集思想研究了对训练数据进行降维、冗余化约和不确定性滤除的属性约简算法。该项目研究成果被EI收录1篇,被15篇论文所引用,引文作者分别来自上海交通大学、复旦大学、国防科技大学、华南理工大学、重庆大学、大连理工大学、吉林大学、华中科技大学等高校,在国内神经网络算法研究领域具有一定的影响。特别是项目提出的非单调搜索思想、确定神经网络隐层结点算法和跳步策略多次被作为设计新算法的参考或应用于具体的网络隐层结构设计中。

推荐服务:

Copyright © 2015 科易网 版权所有 闽ICP备07063032号-5