函数的卷积论文-林长方,黄毓珍,陈定柱,黄仲开

函数的卷积论文-林长方,黄毓珍,陈定柱,黄仲开

导读:本文包含了函数的卷积论文开题报告文献综述及选题提纲参考文献,主要关键词:深度学习,卷积神经网络,激活函数,人工智能

函数的卷积论文文献综述

林长方,黄毓珍,陈定柱,黄仲开[1](2019)在《基于LReLU-Softplus激活函数的深度卷积神经网络》一文中研究指出针对深度卷积神经网络中常见激活函数存在的表达能力不足、缺乏稀疏能力或梯度消失等问题,提出了一种新的不饱和非线性激励函数LReLU-Softplus。将使用常见激活函数和LReLU-Softplus函数的网络模型在MNIST和CIFAR-10数据集上进行对比实验。结果表明,基于LReLU-Softplus函数的卷积神经网络相比于其他激活函数不仅收敛速度更快,而且识别效率更高,误差率更低。(本文来源于《长春师范大学学报》期刊2019年10期)

孙芳美,吴嘎日迪[2](2019)在《某一卷积函数类在Orlicz空间内宽度的精确估计》一文中研究指出该文讨论了由实系数线性微分算子定义的2π周期函数类■在Orlicz空间内的宽度问题.得到该函数类在Orlicz空间内的n-K宽度,n-G宽度,n-L宽度,n-B宽度的精确值和相应的极子空间.(本文来源于《数学物理学报》期刊2019年04期)

张铁玲[3](2019)在《除数函数与尖形式Fourier系数的卷积和》一文中研究指出令f(z)是模群SL2(Z)上的一个权为k的全纯尖形式,λf(n)为它的正规化Fourier系数.那么f(z)的Fourier展开式为f(z)=(?)λf(n)nk-1/2e2πinz.在本论文当中,我们首先讨论如下除数函数d(n)与尖形式Fourier系数Af(n)的卷积和D+(x):=(?)d(n)λf(n+h)(h≥1),D-(x):=(?)d(n+h)λf(n)(h≥ 1),得到的主要结果是,对于任意的h<<x1/3-ε,我们有D±(x)<<x2/3+ε,其中《中的常数依赖于f(z)和e.进一步地,考虑加权情况下的结果Dω±):=(?)dcn)λf(n±h)w(n/x)(h≥1),其中ω:R→R为一个光滑函数.我们得到h《X1/3-ε,有上界dω±(x)<<x1/2+θ+ε,其中θ=7/64,误差项中的常数依赖于ω,f(z)和ε.(本文来源于《河南大学》期刊2019-06-01)

娄淼[4](2019)在《某些算术函数的转移卷积和问题》一文中研究指出本文主要研究了平均意义下高阶群的转移卷积和问题以及平均意义下叁重除数函数的叁元相关性问题.设α和β是某些算术函数,在解析数论中,很多重要的问题都与转移卷积和(?)有关,其中h ∈Z{0}.我们回顾一下某些备受关注的特殊情形:·(α,β)=(∧,∧):这与孪生素数猜想有关(h=2).·(α,β)=(λ,λ):这与Chowla猜想有关.·(α,β)=(τ,τ):这是着名的二元加性除数问题,它与Riemann函数的四次积分均值有关.当τ替换成κ重除数函数τκ时,这是一般的二元加性除数问题,它与Riemann函数的高次均值有关.·(α,β)=(∧,τκ):这是经典的Titchmarsh除数问题.·(α,β)=(λf,λg):这是GL(2)× GL(2)的转移卷积和问题,可以看成是二元加性除数问题的推广.这里∧,∧,τ分别表示von Mangoldt函数,Liouville函数以及除数函数.λf,λg分别表示GL(2)上尖形式的f,g的傅里叶系数.更多详情和相关进展请参考文献[1,3,7,9,11,12,14,15,17,21-24,28,31,33,34,36-38,40,44-48,51,53-57,60].设AF(1,…,1,n)是SLm(Z)上Hecke-Maass形式F的正规化傅里叶系数以及ξ=∧(或者τκ).本文研究如下形式的转移卷积和(?)在平均意义下的问题.对于几乎所有的h ∈[-H,H],我们有如下结果.定理0.1 设AF(1,...,1,n)是SLm(Z)上Hecke-Maass形式F的正规化傅里叶系数.设ξ是von Mangoldt函数∧(或者是κ重除数函数Tk)以及B>0,ε>0.假设N8/33+ε ≤ H ≤ N1-ε,对于除了至多O(Hlog-BN)个整数h∈[-H,H],则有(?)另一方面,关于算术函数的叁元相关性,目前研究甚少.设α,β,γ表示某些算术函数,本文也研究如下形式的叁元相关性问题(?)若α,β,γ中某一个恒为常数函数1,则叁元相关性Th(α,β,γ;N)变成转移卷积和,因此叁元相关性rh(α,β,γ;N)可以看成是转移卷积和的一个自然推广.在解析数论中,估计Th(τ,τ,τ;N)的渐近公式是一个极具挑战的问题.迄今为止,对于一个固定正整数h情形也仍未解决.即使α,β,γ取作一些非常简单的算术函数,这些问题依然是极其困难的.对h取平均可以得到一个额外的抵消,相关研究可以参考文献[4,8,32,35,36,39,50,51].本文结合Blomer[4]以及Topacogullari[55]的工作,得到如下结果.定理0.2 设1 ≤ H≤N/3,W是在[1,2]上紧支撑的光滑函数,并且它的Mellin变换是W.设α(n)是一个任意的算术函数,rd(n)表示Ramanujan和,则有(?)其中P2,d是一个二次多项式,y是Euler常数,O(·)中的隐含常数依赖于W和ε.这里‖α‖2=(∑|α(n)|2)1/2表示l2-范数.除数函数与傅里叶系数有很多相似性,因此可以把除数函数τ替换为尖形式f的傅里叶系数λf.我们利用定理0.2的证明方法,可以得到如下结果.定理0.3 设1≤H≤N/3,W是在[1,2]上紧支撑的光滑函数.设α(n)是一个任意的算术函数,λf(n)是全模群SL2(Z)上全纯尖形式f的正规化傅里叶系数,则有(?)其中隐含常数依赖于W,f和ε.记v表示Ramanujan-Petersson猜想中的上界.在任何情形下,v=1/(64)都是可接受的(admissible).因此,当N5/9+ε≤H≤N-ε 时,上述两个结果是非平凡的.(本文来源于《山东大学》期刊2019-05-22)

王红霞,周家奇,辜承昊,林泓[5](2019)在《用于图像分类的卷积神经网络中激活函数的设计》一文中研究指出为了提高图像分类效果,针对卷积神经网络中常用激活函数relu在x负半轴的导数恒为零,导致训练过程中容易造成神经元"坏死"以及现有组合激活函数relu-softplus在模型收敛情况下学习率过小导致收敛速度慢的问题,提出新的组合激活函数relu-softsign.分析激活函数在训练过程中的作用,给出激活函数在设计时需要考虑的要点;根据这些要点,将relu和softsign函数于x轴正、负半轴进行分段组合,使其x负半轴导数不再恒为零;分别在MNIST、PI100、CIFAR-100和Caltech256数据集上,与单一的激活函数和relu-softplus组合激活函数进行对比实验.实验结果表明,使用relu-softsign组合激活函数提高了模型分类准确率,简单有效地缓解了神经元不可逆"坏死"现象;加快了模型的收敛速度,在复杂数据集上该组合函数的收敛性能更好.(本文来源于《浙江大学学报(工学版)》期刊2019年07期)

何涛,李书海,马丽娜,敖恩,汤获[6](2019)在《一类解析函数的广义λ-Hadamard卷积》一文中研究指出首先引进一类具有负系数的广义星象函数子类及其广义λ-Hadamard卷积;其次,利用从属关系证明了属于该类函数的充要条件;最后,研究了在函数类上广义λ-Hadamard卷积及其相关特殊卷积的封闭性质.所得结果改进和推广了Choi等人的主要结果,并得到了一些新结果.(本文来源于《数学的实践与认识》期刊2019年08期)

刘小文,郭大波,李聪[7](2019)在《卷积神经网络中激活函数的一种改进》一文中研究指出卷积神经网络中激活函数的作用是激活神经元的特征,然后保留并映射出来,这是人工神经网络能模拟人脑机制,解决非线性问题的关键.针对传统卷积神经网络出现的震荡、不收敛甚至过拟合的情况,对激活ReLU函数进行优化.提出一种新型矫正激活函数,称其为ReLU阈值函数.通过对数据集caltech101和caltech256进行训练,证明其在图片分类上的性能要优于ReLU函数.其中用Alexnet网络模型对caltech101数据集进行训练时的分类准确率由之前的97.7%提高到99.3%,对caltech256数据集进行训练时的分类准确率由之前的65.4%提高到92.3%.(本文来源于《测试技术学报》期刊2019年02期)

刘奇[8](2019)在《基于函数型数据拟合与卷积神经网络的行星齿轮故障预测》一文中研究指出随着机械设备的自动化与智能化程度日益提升,人们对机械设备健康状态评估及管理的需求变得尤为迫切。而行星齿轮作为旋转机械中最重要的组成部分,通常在低速、重载的环境下工作,一旦发生故障,会引起连锁反应,造成巨大的经济损失、危害人身安全。因此对其进行预知维修具有非常重要的意义。本文以行星齿轮为研究对象,进行故障预测的研究,主要研究内容如下:首先,提出原始离散振动数据函数化转换的方法。针对离散数据存在的数据丢失等问题,采用函数型数据分析思想中的函数型数据拟合方法,对离散数据进行函数化转换,以函数形式代替离散数据点,对正常运转的行星齿轮数据,采用传统的傅立叶基函数进行拟合,对不适用传统基函数的故障数据,建立不同故障位置基函数模型。经误差参数筛选后提取函数系数作为新的样本数据集。其次,提出行星齿轮卷积神经网络预测模型。针对行星齿轮数据,建立结构深度为3层的行星齿轮卷积神经网络预测模型,来解决浅层预测方法仅适用于小批量样本数据的局限性,弥补传统浅层预测方法需人为进行特征提取与特征降维的不足。并与浅层预测模型中最具代表性的BP神经网络进行对比分析,证明所建预测模型在针对样本数据量过多的数据时,预测效果更好。再次,研究卷积神经网络内部结构对预测结果的影响。针对卷积神经网络内部结构,从输入数据的维度不同、卷积核大小不同、有无批量归一化层、模型结构深度不同等方面进行研究,分析以上因素对预测结果的影响,对卷积神经网络预测模型的内部结构参数进行改进。最终确定输入数据形式为一维、卷积核尺寸随层数增多而减小、具有批量归一化层的7层深卷积神经网络预测模型。最后,搭建行星齿轮故障试验台。设计行星齿轮模拟故障试验方案,进行原始时域信号的数据采集,对行星齿轮离散数据进行函数化转换,以建立的结构深度为7层的卷积神经网络预测模型进行故障预测,与结构深度为3层的卷积神经网络预测模型相比提高了预测精度。(本文来源于《哈尔滨理工大学》期刊2019-03-01)

徐振忠[9](2019)在《关于卷积神经网络损失函数的改进算法》一文中研究指出经典的卷积神经网络模型损失函数在设计时只考虑输出与标签之间的比较,没有涉及到图片之间的差异.为了提高卷积神经网络模型提取特征的差异,提出了基于Triplet network模型约束的卷积神经网络模型,这种方法提高了卷积神经网络提取有效特征的能力,减少数据集数量对于模型的影响.在MNIST数据集和cifar-10数据集上进行实验,提出的新模型在这2个数据集上比经典的卷积神经网络模型识别效果更好.(本文来源于《高师理科学刊》期刊2019年01期)

郭栋,李宗涛[10](2019)在《一类由卷积定义的解析函数类的Fekete-Szeg问题(英文)》一文中研究指出引入了一类由卷积定义的解析函数Sγ(λ,h,Φ).利用分析的方法和技巧,得到了其上|a2|,|a3|的系数估计和Fekete-Szeg不等式.由所得结果得到了一些算子定义的函数子类的Fekete-Szeg不等式,推广了一些作者的结论.(本文来源于《曲阜师范大学学报(自然科学版)》期刊2019年01期)

函数的卷积论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

该文讨论了由实系数线性微分算子定义的2π周期函数类■在Orlicz空间内的宽度问题.得到该函数类在Orlicz空间内的n-K宽度,n-G宽度,n-L宽度,n-B宽度的精确值和相应的极子空间.

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

函数的卷积论文参考文献

[1].林长方,黄毓珍,陈定柱,黄仲开.基于LReLU-Softplus激活函数的深度卷积神经网络[J].长春师范大学学报.2019

[2].孙芳美,吴嘎日迪.某一卷积函数类在Orlicz空间内宽度的精确估计[J].数学物理学报.2019

[3].张铁玲.除数函数与尖形式Fourier系数的卷积和[D].河南大学.2019

[4].娄淼.某些算术函数的转移卷积和问题[D].山东大学.2019

[5].王红霞,周家奇,辜承昊,林泓.用于图像分类的卷积神经网络中激活函数的设计[J].浙江大学学报(工学版).2019

[6].何涛,李书海,马丽娜,敖恩,汤获.一类解析函数的广义λ-Hadamard卷积[J].数学的实践与认识.2019

[7].刘小文,郭大波,李聪.卷积神经网络中激活函数的一种改进[J].测试技术学报.2019

[8].刘奇.基于函数型数据拟合与卷积神经网络的行星齿轮故障预测[D].哈尔滨理工大学.2019

[9].徐振忠.关于卷积神经网络损失函数的改进算法[J].高师理科学刊.2019

[10].郭栋,李宗涛.一类由卷积定义的解析函数类的Fekete-Szeg问题(英文)[J].曲阜师范大学学报(自然科学版).2019

标签:;  ;  ;  ;  

函数的卷积论文-林长方,黄毓珍,陈定柱,黄仲开
下载Doc文档

猜你喜欢