逆凸优化问题论文_储敏

导读:本文包含了逆凸优化问题论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:神经网络,光滑,梯度,微分,步长,递归,近似。

逆凸优化问题论文文献综述

储敏[1](2019)在《稀疏正则非凸优化问题之全局收敛分析》一文中研究指出本文研究了一类稀疏正则化的非凸优化问题.利用近端梯度法,获得了其全局收敛的结果,推广了算法模型在神经网络训练中的应用.(本文来源于《数学杂志》期刊2019年06期)

喻昕,胡悦,马崇,伍灵贞,汪炎林[2](2019)在《递归神经网络方法解决非光滑伪凸优化问题》一文中研究指出针对目标函数为非光滑伪凸函数且带有等式约束和不等式约束的优化问题,基于罚函数以及微分包含的思想,构建一个层次仅为一层且不包含惩罚算子的新型递归神经网络模型。该模型不用提前计算惩罚参数,能够很好地收敛。理论证明全局解存在,模型的状态解能够在有限的时间内进到原目标函数的可行域并不再离开,其状态解最终收敛到目标函数的一个最优解。仿真实验证实了理论结果的可行性。(本文来源于《计算机应用与软件》期刊2019年11期)

喻昕,马崇,胡悦,伍灵贞,汪炎林[3](2019)在《一种新型解决非光滑伪凸优化问题的神经网络方法》一文中研究指出优化问题的研究一直以来深受科研工作者的关注,凸优化问题作为优化问题的一个重要部分更是成为研究重点,许多应用神经网络思想提出的模型已经被应用到实际问题中。然而,在机器学习、信号处理、生物信息学等领域中涉及的优化问题往往不是凸优化问题,而是伪凸优化及非凸优化的问题,因此解决后一类问题变得刻不容缓。针对目标函数是非光滑伪凸函数、约束函数由等式和不等式函数构成的优化问题,基于罚函数以及微分包含的思想,构建了一个新型的不含惩罚参数的单层神经网络模型。该模型的主要设计思路是根据已经提出的神经网络模型思想,为目标函数的梯度设计一个制约的函数,使其值始终保持在一个范围之内,再结合一个关于时间的函数,确保其值随时间变小。同时,考虑到不等式约束对状态解进入等式约束之前的收敛方向有影响,加入一个条件函数来限制它。与已提出的神经网络模型相比,所提模型具有结构简单、无须提前进行惩罚参数的计算、对初始点的位置无特殊要求等优势。而且,对于任意初始点,理论证明了状态解的有界性、状态解能够在有限时间内收敛到等式约束内并永驻其中、状态解能够在有限时间内收敛到可行域并永驻其中以及状态解最终收敛到优化问题的最优解。在MATLAB环境下,通过数学仿真实验,状态解都能快速地收敛到一个最优解。同时,用已经提出的类似神经网络模型解决同样的优化问题时,若罚参数或初始点选择不恰当则会导致状态解不能很好地收敛。这不仅验证了所提出的理论结果的正确性,同时也说明了所提网络具有更广泛的应用范围。(本文来源于《计算机科学》期刊2019年11期)

王贞贞[4](2019)在《求解凸优化问题一类改进的加速邻近水平束方法》一文中研究指出凸优化是最优化的一个重要分支,广泛应用于随机规划、工程设计以及最优控制等领域.随着大数据时代的到来和机器学习的兴起,出现了很多结构特殊、规模庞大的凸优化问题.因此,研究求解凸优化问题的有效算法具有重要的科学意义和实际应用价值.首先,本学位论文针对文[Guanghui Lan,Mathematical Programming,149:1-45,2015]的加速邻近水平束方法进行改进,提出了一个新的加速邻近水平束方法.Lan的方法在每一步迭代都需要求解两个子问题,与Lan的方法相比,本文提出的改进的加速邻近水平束方法仅需求解一个子问题,从而可以减少算法的计算量.与经典的水平束方法相比,该方法结合多步加速策略,引入了叁个迭代点序列进行求解.通过引入邻近函数将传统的欧氏距离进行推广,从而可以充分利用可行集的几何性质.对提出的改进的加速邻近水平束方法进行复杂度分析,无论对于光滑、弱光滑还是非光滑凸优化问题都能够得到一致的最优迭代复杂度.其次,针对一类结构非光滑凸优化问题,本学位论文对Lan的一致光滑化水平束方法进行改进,提出了改进的一致光滑化水平束方法.该方法将Lan中求解两个子问题修改为求解一个子问题,可以减少迭代的计算.结构非光滑优化问题的目标函数由一个非光滑凸函数和一个简单凸函数组成,提出的方法对非光滑函数进行光滑化,再利用加速邻近水平束方法进行求解.该方法可以自动调整光滑参数,并且不需要输入问题的任何参数就可达到与Nesterov的光滑化方法相同的迭代复杂度.最后,对本学位论文提出的一类改进的加速邻近水平束方法进行了初步的数值试验,数值结果表明提出的方法是有效的,并且具有一定的优势.(本文来源于《广西大学》期刊2019-06-01)

董小霞[5](2019)在《求解两类非光滑凸优化问题的非精确束方法》一文中研究指出对于非光滑优化问题,如极大极小问题、两阶段随机规划问题等,这些问题很难计算精确的一阶信息(函数值和次梯度),以致于基于精确数据的非光滑优化方法计算速度较慢,甚至不能求解.因此,如何建立可行且高效的非光滑优化方法求解这些问题,成为国内外优化学者研究的热点课题.本文针对上述困难,提出了求解两类非光滑凸优化问题的非精确束方法.首先,针对一类凸集约束非光滑优化问题,提出了基于按需精度近似一阶信息的邻近投影束方法.该近似一阶信息的获取依赖于两个额外的参数,分别是下降目标和误差界.根据这两个参数的不同选取,其包括精确、部分非精确、非精确、渐进精确和部分渐进精确一阶信息五种类型.该方法通过引入指示函数将其转化为等价的非光滑无约束凸优化问题,每次迭代交替求解两个基于近似一阶信息的子问题,分别是邻近子问题和投影子问题,其中,邻近子问题是对目标函数的多面体模型保持不变、指示函数进行线性化;投影子问题是对多面体模型进行线性化、指示函数保持不变.求解邻近子问题是为了产生目标函数的一个近似线型化模型;求解投影子问题是为了得到试探点.最后,建立了该算法在近似一阶信息不同类型下的全局收敛性.其次,针对一类特殊结构的无约束凸优化问题,其目标函数是两个非光滑凸函数的和,提出了基于按需精度近似一阶信息的交替线性化束方法.该近似一阶信息同样包含上述五类近似一阶信息.该方法每次迭代交替求解两个基于近似一阶信息的子问题.每一个子问题分别对其中一个函数进行线性化,另一个函数保持不变.最后,建立了该算法在近似一阶信息不同类型下的全局收敛性.最后,对本学位论文提出的非精确束方法进行初步的数值实验,针对各类近似一阶信息,测试来源于电信设计和货运车辆路径领域的二阶段随机规划问题,并且与现有的方法进行比较,本文所提出的非精确束方法在数值效果上更有优势.(本文来源于《广西大学》期刊2019-06-01)

徐智会,陈瑞婷,高英[6](2019)在《拟凸优化问题近似解的最优性条件》一文中研究指出研究拟凸优化问题近似解的最优性条件.在已有的拟凸函数次微分的基础上提出拟凸函数4种近似次微分的概念,并给出此4种近似次微分之间的关系.然后利用4种近似次微分给出拟凸优化问题近似解的充分和必要条件,并通过实例进行说明.(本文来源于《四川师范大学学报(自然科学版)》期刊2019年03期)

喻昕,伍灵贞,汪炎林[7](2019)在《一种解决非光滑伪凸优化问题的新型神经网络》一文中研究指出针对带有不等式约束条件的非光滑伪凸优化问题,提出了一种基于微分包含理论的新型递归神经网络模型,根据目标函数与约束条件设计出随着状态向量变化而变化的罚函数,使得神经网络的状态向量始终朝着可行域方向运动,确保神经网络状态向量可在有限时间内进入可行域,最终收敛到原始优化问题的最优解。最后,用两个仿真实验用来验证神经网络的有效性与准确性。与现有神经网络相比,它是一种新型的神经网络模型,模型结构简单,无需计算精确的罚因子,最重要的是无需可行域有界。(本文来源于《计算机工程与应用》期刊2019年12期)

徐笑,马国栋,王泓森[8](2019)在《一种基于ADMM求解多分块凸优化问题的算法》一文中研究指出乘子交替方向法(ADMM)是求解可分凸优化的有效方法之一,但在仅要求目标是凸函数的情况下,用其直接求解多分块问题难以保证收敛性。本文通过将ADMM作用于对偶问题来产生原问题的解,提出一种可并行求解凸多分块优化问题的算法。在原问题及对偶问题解集非空,且原问题解集有界的假设条件下,论证了算法的全局收敛性。(本文来源于《玉林师范学院学报》期刊2019年02期)

王欣[9](2019)在《两类非凸优化问题广义乘子交替方向法的收敛性》一文中研究指出凸优化问题是数学优化问题的一个重要分支,主要研究如何基于凸紧集实现凸目标函数最小化问题。如果实际问题可以描述成凸优化问题,能够得到该实际问题的全局最小值。凸优化问题的研究已经相当成熟,有了许多有效的算法。在现实世界中,仍然存在大量的非凸优化问题,目前常见的方法是将非凸优化问题松弛成凸优化问题,但得到的结果与实际问题的解往往存在较大的差距。对于目标函数是非凸或者部分非凸的情况,这方面的研究还处于初期阶段,已有的研究成果非常少。本文以原始非凸优化问题为出发点,运用广义乘子交替方向法(GADMM)解非凸优化问题。本文针对两类非凸优化问题,在假设增广Lagrange函数满足Kurdyka-?ojasiewicz不等式的条件下,证明了当增广Lagrange函数的罚参数充分大时,由广义乘子交替方向法(GADMM)产生的迭代序列收敛到增广Lagrange函数的稳定点,在更多的假设条件下,分析了该算法的收敛速度。本文由以下五个章节构成:第一章,介绍了本文的研究背景和研究问题以及本文内容结构。第二章,给出了本文研究所要用到的一些预备知识。第叁章,考虑利用广义乘子交替方向法(GADMM)求解线性约束两个函数和的最小值问题,其中一个函数为凸函数,另一个函数可以表示为两个凸函数的差。对GADMM的每一个子问题,采用凸函数差分算法中的线性化技术来类似地处理。通过假定相应函数满足Kurdyka-?ojasiewicz不等式,当增广Lagrange函数的罚参数充分大时,证明了GADMM所产生的迭代序列收敛到增广Lagrange函数的稳定点。最后,给出了该算法的收敛速度分析。第四章,考虑利用广义乘子交替方向法(GADMM)求解具有耦合目标函数的线性约束非凸优化问题。通过假定相应函数满足Kurdyka-?ojasiewicz不等式,当增广Lagrange函数的罚参数充分大时,证明了GADMM所产生的迭代序列收敛到增广Lagrange函数的稳定点。最后,给出了该算法的收敛速度分析。第五章,对全文进行总结。说明本文研究的主要工作以及得到的主要结论。(本文来源于《西华师范大学》期刊2019-04-01)

李星,邓康康,李超[10](2019)在《求解可分解强凸优化问题的FISTA-Barzilai-Borwein算法》一文中研究指出针对一类可分解的强凸优化问题提出一种快速临近Barzilai-Borwein算法,采用Barzilai-Borwein步长作为快速迭代收缩/阈值(简称FISTA-CD)算法中的步长因子,并给出合适的参数更新准则,从而加快算法的收敛速度。在适当的假设条件下证明该算法具有O(1/k~2)的收敛速率,最后进行初步的数值实验验证算法的有效性。(本文来源于《武夷学院学报》期刊2019年03期)

逆凸优化问题论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

针对目标函数为非光滑伪凸函数且带有等式约束和不等式约束的优化问题,基于罚函数以及微分包含的思想,构建一个层次仅为一层且不包含惩罚算子的新型递归神经网络模型。该模型不用提前计算惩罚参数,能够很好地收敛。理论证明全局解存在,模型的状态解能够在有限的时间内进到原目标函数的可行域并不再离开,其状态解最终收敛到目标函数的一个最优解。仿真实验证实了理论结果的可行性。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

逆凸优化问题论文参考文献

[1].储敏.稀疏正则非凸优化问题之全局收敛分析[J].数学杂志.2019

[2].喻昕,胡悦,马崇,伍灵贞,汪炎林.递归神经网络方法解决非光滑伪凸优化问题[J].计算机应用与软件.2019

[3].喻昕,马崇,胡悦,伍灵贞,汪炎林.一种新型解决非光滑伪凸优化问题的神经网络方法[J].计算机科学.2019

[4].王贞贞.求解凸优化问题一类改进的加速邻近水平束方法[D].广西大学.2019

[5].董小霞.求解两类非光滑凸优化问题的非精确束方法[D].广西大学.2019

[6].徐智会,陈瑞婷,高英.拟凸优化问题近似解的最优性条件[J].四川师范大学学报(自然科学版).2019

[7].喻昕,伍灵贞,汪炎林.一种解决非光滑伪凸优化问题的新型神经网络[J].计算机工程与应用.2019

[8].徐笑,马国栋,王泓森.一种基于ADMM求解多分块凸优化问题的算法[J].玉林师范学院学报.2019

[9].王欣.两类非凸优化问题广义乘子交替方向法的收敛性[D].西华师范大学.2019

[10].李星,邓康康,李超.求解可分解强凸优化问题的FISTA-Barzilai-Borwein算法[J].武夷学院学报.2019

论文知识图

信号的稀疏表示Fig.1SSparserepresent...对可稀疏信号测量Fig.2Measurementofs...约束点选择方式比较Fig.1Comparisonof...

标签:;  ;  ;  ;  ;  ;  ;  

逆凸优化问题论文_储敏
下载Doc文档

猜你喜欢