邹斌

作品数:13被引量:11H指数:2
导出分析报告
供职机构:湖北大学更多>>
发文主题:英文学习算法泛化能力尺度函数FOURIER变换更多>>
发文领域:自动化与计算机技术理学文化科学更多>>
发文期刊:《工程数学学报》《应用概率统计》《计算机应用与软件》《湖北大学学报(自然科学版)》更多>>
所获基金:国家自然科学基金湖北省自然科学基金中国博士后科学基金更多>>
-

检索结果分析

署名顺序

  • 全部
  • 第一作者
结果分析中...
条 记 录,以下是1-10
视图:
排序:
大学基础数学课堂中问题驱动式教学方法探究
《教育教学论坛》2023年第2期133-136,共4页邹斌 潘晏枫 姜峰 付应雄 徐婕 
2021年度湖北大学教研项目“‘数学+大数据’交叉复合型人才培养模式的探索与实践”;2021年度湖北大学研究生院中央支持地方高校发展专项“数学与统计学学院研究生教育教学项目”(1040017321)。
在大学基础数学课程教学中,课程本身的枯燥及较大的难度是导致学生学习效率不高的主要原因。针对这一问题提出了问题驱动式教学方法,对湖北大学数学与统计学院学生进行了调查,发现采用该方法后学生的预习时间增加且复习时间减少,在课堂...
关键词:问题驱动式教学 大学基础数学 教学方法 
基于α混合序列的在线算法的推广性能(英文)
《工程数学学报》2017年第2期209-220,共12页胡小云 邹斌 龚铁梁 杨艳 
The National Natural Science Foundation of China(61370002;61403132);the Natural Science Foundation of Hubei Province(2015CFB404)
近年来,在线算法的理论研究得到相应的重视.以前在线算法的推广界都是基于独立同分布的样本建立的.在本文中,我们跳过这个框架来研究基于α混合序列的在线算法的推广界.我们用全变差来定义α混合序列,而且在分析时只要求鞅收敛参数.结果...
关键词:在线算法 独立同分布的样本 α混合 推广界 
相依观察值下新的伯恩斯坦不等式及其在学习理论中的应用(英文)
《应用概率统计》2014年第6期570-584,共15页邹斌 唐远炎 李落清 徐婕 
supported in part by National Natural Science Foundation of China(11371007,61370002,61403132);Multi-Year Research of University of Macao under Grants No.MYRG205(Y1-L4)-FST11-TYY and No.MYRG187(Y1-L3))-FST11-TYY;Start-up Research of University of Macao under Grant No.SRG010-FST11-TYY;Natural Science Foundation of Hubei Province(2011CDA003)
经典的集中不等式描述了基于独立同分布随机变量的函数与其数学期望的偏离程度,并且这些不等式在统计学和机器学习理论中都有许多重要的应用.在本文,我们超出了独立同分布随机变量这个经典框架来建立了基于β-混合序列、一致遍历马氏链...
关键词:集中不等式 β-混合 马氏链 一致偏差 经验风险最小化 
基于β-混合输入的经验风险最小化回归的学习速率(英文)被引量:2
《应用概率统计》2011年第6期597-613,共17页邹斌 徐宗本 张海 
supported by National 973 project(2007CB311002)NSFC key project(70501030)NSFC project(61070225)China Postdoctoral Science Foundation(20080440190,200902592)
研究最小平方损失下的经验风险最小化算法是统计学习理论中非常重要研究内容之一.而以往研究经验风险最小化回归学习速率的几乎所有工作都是基于独立同分布输入假设的.然而,独立的输入样本是一个非常强的条件.因此,在本文,我们超出了独...
关键词:学习速率 经验风险最小化 β混合 最小平方损失. 
基于β-混合序列的学习机器的相对一致收敛速率的界(英文)被引量:1
《工程数学学报》2008年第3期531-538,共8页邹 斌 李落清 万成高 
This research was supported by FHEC (Q200710001) and NSFC (10771053).
推广性能是机器学习理论研究的主要目的之一。为了研究相依序列下采用ERM算法的学习机器的推广性能,本文基于β-混合序列建立了采用ERM算法的学习机器的经验风险到它的期望风险相对一致收敛速率的界。这个界不仅把基于独立序列下已有的...
关键词:学习机器 ERM算法 相对一致收敛 混合序列 
基于α-混合序列的学习机器一致收敛速率的界(英文)被引量:2
《应用概率统计》2007年第2期188-196,共9页邹斌 李落清 万成高 
Supported in part bly NSFC under grant 60403011.
Vapnik,Cucker和Smale已经证明了,当样本的数目趋于无限时,基于独立同分布序列学习机器的经验风险会一致收敛到它的期望风险.本文把这些基于独立同分布序列的结果推广到了α-混合序列,应用Markov不等式得到了基于α-混合序列的学习机...
关键词:学习机器 一致收敛 混合序列. 
联合算法稳定下的排一推广误差界
《工程数学学报》2005年第6期1121-1124,共4页董雪梅 邹斌 李落清 
国家自然科学基金(10371033;60403011).
在机器学习算法的联合稳定性条件下,利用广义McDiarmid不等式获得了排一推广误差的界。讨论了机器学习的推广能力,和类似的结果进行了比较。
关键词:学习理论 算法稳定 推广误差 差分界定 
联合算法稳定下变一推广误差的界
《湖北大学学报(自然科学版)》2005年第4期313-316,共4页邹斌 董雪梅 李落清 
国家自科学基金(10371033)资助课题;湖北省自然科学基金(99J169)资助课题
为研究机器学习在算法稳定框架下的推广能力,提出了变一误差估计条件下联合算法稳定的概念,并利用广义的M cD iarm id不等式得到了机器学习在联合算法稳定下变一推广误差的界.
关键词:算法稳定 推广误差 误差估计 
RKHS中正则化学习算法的推广误差界
《湖北大学学报(自然科学版)》2005年第1期15-18,共4页董雪梅 邹斌 李落清 
国家自然科学基金(10371033)资助课题
研究了再生核希尔伯特空间(RKHS)中的正则化学习算法,证明了其推广误差可分解为两个部分:逼近误差和估计误差,并应用VC维和算法稳定性给出了相应界,最后联立这两个结果证明了正则化学习算法具有好的推广性.
关键词:误差界 再生核 希尔伯特空间 正则化 证明 逼近误差 推广 学习算法 VC维 算法稳定性 
四种学习算法稳定之间的关系被引量:1
《计算机应用与软件》2005年第1期30-31,111,共3页邹斌 董雪梅 李落清 
湖北省自然科学基金资助项目 (99J1 69)。
为研究机器学习的推广误差 ,提出了变一误差估计条件下一种新的学习算法稳定 逐点假设稳定 ,并讨论了逐点假设稳定、CV稳定、重叠稳定以及弱假设稳定四种学习算法稳定之间的关系 ,得出了逐点假设稳定是这四种学习算法稳定中最弱的学习...
关键词:学习算法 机器学习 误差估计 假设 CV 推广 结论 重叠 条件 
检索报告 对象比较 聚类工具 使用帮助 返回顶部