随机算法论文_孙志文,王开西

导读:本文包含了随机算法论文开题报告文献综述、选题提纲参考文献及外文文献翻译,主要关键词:算法,函数,方差,对称性,微分方程,高效,最小化。

随机算法论文文献综述

孙志文,王开西[1](2019)在《基于随机算法的中文文本无载体隐写方法》一文中研究指出针对文本的隐写方法以修改文本载体为主,易被检测,可修改特征较少其隐写容量受限等,提出基于空间转换的思想,结合秘密消息文本序列和文本载体词频表,将文本序列映射成数字序列,借助随机算法将数字序列生成密钥实现文本无载体隐写。基于搜狗新闻文本数据集的研究结果表明,该方法不易被检测,安全性能高,通过起始标识符和终止标识符的设定隐写容量可无限扩充,通过构建文本数据库和载体选择的方式验证了该方法的可行性。(本文来源于《青岛大学学报(自然科学版)》期刊2019年02期)

赵永国,陈奕奕,吴峻峰[2](2018)在《近似邻近搜索随机算法》一文中研究指出通过研究近似邻近查询算法,提出了一种基于随机化思想的KANN(K-approximate nearest-neighbor algorithm)算法,改进相似性搜索的速度和精度。算法在两个阶段采用了随机思想:一是在编码时,结合谱哈希算法和随机矩阵逼近法得到数据点的二进制编码。二是在查询时,为降低搜索时间成本,先对原数据集进行初次阈值筛选得到一个查询点的一个近似类别集。由于近似类别中存成对距离很小,采用基于距离搜索算法精度下降。本论文提出采用统计秩的思想,保留距离排序的信息,在近似类别的数据集进行多次抽样排序,得到k个近似邻居。本文提出的近似邻近检索框架采用多环节过滤数据,并控制搜索误差,在速度和精度上得到了改进。(本文来源于《科技通报》期刊2018年12期)

周喆[3](2017)在《求解黑箱全局优化问题的一种改进的随机算法》一文中研究指出提出了一个改进的随机算法求解黑箱全局优化问题,算法中使用的径向基函数插值是昂贵的目标函数的近似.算法在可靠的信赖域内通过简单而有效的方法选择下一个迭代点.在早期的迭代过程中,算法倾向于在响应面模型的全局最优值附近改善响应面模型的局部逼近精度.它可能暂时陷入局部最优,但它有能力在之后的迭代中探索可行域中的其他区域并改善响应面的全局逼近精度.数值实验结果说明了该算法的有效性.(本文来源于《湖北民族学院学报(自然科学版)》期刊2017年04期)

文天才,刘保延,何丽云,白文静,闫世艳[4](2017)在《最小化随机算法形式化定义与优化》一文中研究指出最小化法是一种动态随机化算法,它可以在较小的样本量下保证各处理组间和控制因素水平下的样本均衡。介绍了最小化算法的原理,并利用形式化方法对其进行了详细的描述,对算法中较为核心的均衡度量和不均衡计算方法做了说明。提出最小化法存在的叁个缺陷:不可重复、不支持非平衡设计和计算复杂度高。针对上述缺陷,通过加入基于种子的随机序列来控制分组概率,从而解决不可重复的问题,通过用处理组间样本比例来修正优先分配概率解决非平衡设计,通过设计一套计算机函数来解决复杂度,最终使这些问题都得到很好地解决。(本文来源于《中国数字医学》期刊2017年11期)

王金华[5](2017)在《小质量极限过程及其在随机算法中的应用》一文中研究指出对于一个高维复杂系统,小质量极限是一个具有重要意义的新课题。它不仅可以降低系统的维度,提高计算效率,而且对于一个只能获得位置信息的微观系统,是必要的近似过程。另一方面,在随机采样算法中经典的基于Langevin动力学的采样算法和Metropolis-Hastings算法满足细致平衡条件,其收敛速度受到限制。因此设计不满足细致平衡条件的Langevin采样算法和Metropolis-Hastings算法以提高算法的收敛速度具有重要理论和应用价值。针对大数据机器学习问题,基于哈密尔顿体系的随机梯度算法从数据中自适应地学习算法参数,而不是人为预设参数可以提高算法的采样准确度。这两者都是随机采样算法中未解决的问题。我们研究的高维系统的小质量极限过程为解决上述问题提供了理论基础和实现框架。一.首先利用后向Kolmogorov方程的均质化技巧,我们独立且完整地推导出小质量极限方程中新的“伪”漂移项——由噪声和环流引起的额外漂移项,其在极限方程中的出现保证慢速变量的稳态分布(如果存在)服从Boltzmann-Gibbs分布,特别地,发现一维小质量极限对应着反伊藤随机积分解释。二.然后我们使用平均首次穿越时间方法先后计算一维系统里强摩擦力(常数和依赖位置变量的函数)和小质量极限下不同随机积分的逃逸速率。发现在小质量极限下,反伊藤积分能得到正确的逃逸速率公式。基于强摩擦力与小质量极限的等价性,证明了小质量极限过程推导是正确的。对于高维的简化系统,利用随机过程的大偏差理论,我们计算发现小质量极限方程中势函数与FreidlinWentzell最小作用量泛函之间存在简单关系。并得到逃逸路径以及逃逸速率公式,讨论了“伪”漂移项在逃逸速率公式可能起到的作用。利用计算逃逸速率进一步理解小质量极限过程。叁.进一步基于概率流的概念,我们分析证明了小质量极限方程不满足细致平衡条件。所以结合黎曼流形,针对贝叶斯模型中的参数学习问题,设计出不可逆Langevin蒙特卡洛算法,并进一步利用“举”思想创造性地实现了满足非细致平衡(Skew Detailed Balance)条件的Metropolis-Hastings算法。与可逆Metropolis-Hastings算法相比,由于其发挥了构造的随机过程的不可逆特性,其收敛速度有明显提高。四.最后将实现的不可逆Langevin蒙特卡洛算法扩展到大数据的机器学习场景中。提出基于不可逆随机梯度黎曼Langevin动力学采样算法的框架及其扩展。实现了自适应方差受控的随机梯度黎曼哈密尔顿蒙特卡洛算法及其对称分离的高阶数值积分改进算法。提高了算法的采样准确度。我们以高维小质量极限问题为切入点。在严格推导出它的极限方程和计算其逃逸速率问题后,利用它不满足细致平衡条件的特性,设计了新的基于Langevin动力学的采样算法。针对该算法的离散化误差,实现了不可逆Metropolis-Hastings算法。最后将基于Langevin动力学的采样算法扩展到大数据机器学习场景中,提高了现有算法的性能。数据实例支持小质量极限过程的推导结果和相关算法的设计。(本文来源于《上海交通大学》期刊2017-09-17)

叶嘉[6](2017)在《基于PAC模型的并行关联分析随机算法》一文中研究指出随着大数据时代的来临以及数据集容量的迅速增长,基于并行/分布式计算的频繁模式挖掘相比受内存和节点限制的传统技术在处理海量数据集时有较为明显的优势。正是处于当前的背景下,本研究论文提出一个有效的基于随机抽样的关联分析算法用来从大规模数据集内发现近似频繁项集。本算法的核心在于选择一个数据集的随机样本来挖掘近似频繁项集。标准的Apriori和FP-Growth算法往往需要多次扫描整个数据集来找到具体的频繁项集,对于极大数据集而言,这必然会付出相当高的存储和计算代价。为了更有效地进行大数据集挖掘,本文提出两个新的基于随机抽样的技术从事务型数据集样本中提取高质量的近似频繁项集,并且给予较高的概率保证该近似项集是数据集内真实频繁项集的超集。其中一个方法应用计算学习理论中的经验Rademacher复杂度,结合集中不等式,来推导出一个基于数据集样本经验Rademacher复杂度的近似上界,进而运用统计学习理论中的相关结论来找到项集绝对频率误差上确界的一个近似上界。另一个方法则直接利用经典的Bernstein不等式的变形来限定项集的绝对频率误差。然后将PAC学习框架应用于这两种频繁项集抽样方法的分析中,通过频繁项集的(?,δ)-近似来推导出各自的满足PAC样本完整性的近似样本边界,最后算法根据该边界值选取相应的数据集样本来挖掘近似频繁项集。自频繁项集发现问题被提出以来,后续有许多文献致力于研究基于抽样技术的频繁项集发现方法。同时随着单机串行计算瓶颈的出现,越来越多的研究工作开展基于并行/分布式计算平台的频繁项集发现任务。本研究论文的扩展实验既采用真实的retail数据集,也包括人造数据集T10I4D100K,分别从数据集样本挖掘实验中返回的近似频繁项集的召回率,准确率以及频率误差估计叁方面来评估方法的正确性,同时从串行计算(基于单机)和并行计算(基于Hadoop伪分布式平台)两方面综合评估方法的运行时间,最后对提出的不同的理论方法的性能以及对样本空间的需求进行了对比。根据目前所了解的知识情况,本研究首次将经验Rademacher复杂度以及Bernstein不等式应用于基于抽样技术的频繁项集发现问题中,并利用统计学习中的相关结论推导出相对紧凑的理论样本边界,该边界相比现有的Riondato和Upfal提出的基于VC维的频繁项集发现理论样本边界更为紧凑,因而具有更优的执行效率。同时,我们研究方法建议的样本复杂度是近似误差倒数1/?和置信参数倒数1/δ的多项式函数,故而也是PAC可学习的。我们采用计算学习理论中一些经典的概念和技术来解决一个实际问题,这种研究思路或许也可以运用到数据挖掘的其他方面。(本文来源于《云南财经大学》期刊2017-05-01)

李忠武[7](2017)在《局部搜索中随机算法策略探讨》一文中研究指出随机局部搜索方法在2003年和2004年分别由Spall和Hoos、Stützle给出相应的描述,是一种解决计算机科学和运筹学领域中组合最优化问题的元启发式方法。典型的局部搜索方法对邻居的选择有:将变量和值一起选择的方式;先选择一个变量,然后选择它的值的方式;随机选取变量或者变量值,如果能提升评估,那么就接受这个改变等多种变化方式。笔者试从:成对地选择变量-变量值来完成最佳改进;将成对选择变量-变量值策略进行分割;择参与约束冲突的任意变量并改变它的值;将不再获取约束冲突数据的结构随机地选择一个邻居,然后对于新赋值选择接受还是拒绝四个方面来探讨随机局部搜索的随机算法。(本文来源于《电子商务》期刊2017年02期)

朱小辉,陶卿[8](2016)在《求解非光滑强凸优化问题的减小方差加权随机算法》一文中研究指出在光滑问题随机方法中使用减小方差策略,能够有效改善算法的收敛效果.文中同时引用加权平均和减小方差的思想,求解"L1+L2+Hinge"非光滑强凸优化问题,得到减小方差加权随机算法(α-HRMDVR-W).在每步迭代过程中使用减小方差策略,并且以加权平均的方式输出,证明其具有最优收敛速率,并且该收敛速率不依赖样本数目.与已有减小方差方法相比,α-HRMDVR-W每次迭代中只使用部分样本代替全部样本修正梯度.实验表明α-HRMDVR-W在减小方差的同时也节省CPU时间.(本文来源于《模式识别与人工智能》期刊2016年07期)

晁平复[9](2015)在《基于随机算法的分布式实体匹配技术》一文中研究指出实体匹配技术旨在从目标数据集中识别出表征相同实体或对象的记录,并通过对描述相同实体的多条记录进行筛选与融合,实现对数据集的集成与清洗,提高数据质量,从而为后续的数据分析、组织与管理提供更好的支持。作为数据集成领域的一项重要技术,实体匹配技术已经历了数十年的发展。传统的实体匹配技术研究工作目标主要是提升结构化数据的实体匹配精度以及匹配效率。现有工作大多通过优化数据标记、特征提取方法以及相似度度量标准等技术,实现匹配精度的提高;而通过添加前缀后缀过滤器以及引入分块策略等方式实现匹配性能的提升。但近年来的主要技术发展仍然较多专注于对结构化数据的匹配,随着当前数据结构的稀疏性变强、噪音增多以及非结构化数据的增加,原有技术的性能受到了较大约束;另一方面随着近年来互联网数据量的迅速膨胀,传统的集中式实体匹配方法受限于单机性能瓶颈的制约,已经远远无法满足当前的数据处理需求。因此,针对非结构化数据的分布式实体匹配技术成为新的研究热点。分布式环境具有良好的并行能力以及优秀的可扩展性,通过横向增加处理节点可以有效地应对当前迅速膨胀的数据处理需求。借助分布式环境在处理性能上的优势,实体匹配技术可以实现更大数据场景下的实体识别与比较。然而,在分布式环境下,影响处理性能的因素主要体现在两方面:节点负载均衡以及网络传输开销。节点负载均衡问题广泛存在于分布式系统环境下,其主要表现为各节点待处理的数据量或运算量存在严重的不均衡现象,降低了任务的并行度。网络传输开销则主要体现在分布式环境下的数据分发,在数据处理过程中,大量通过网络的数据交换导致严重的网络传输延迟,从而任务执行时间被延长。现有基于分布式环境下的实体匹配技术研究工作并不能较好地同时解决上述两个问题,并且多数基于分块策略的实体匹配方法还会产生重复的记录对,引起冗余计算问题,产生额外的运算代价。此外,多数现有研究主要集中在针对结构化数据的实体匹配技术,并不能有效处理非结构化数据的实体匹配。针对以上问题,本文提出一种基于随机算法的快速实体匹配方案,用于高效解决非结构化数据的实体匹配问题;此外,针对该随机算法,本文提出了一套基于分布式环境的实现框架,实现了基于随机算法的分布式实体匹配,同时解决了分布式环境下影响性能的节点负载均衡以及网络传输开销问题。随后,本文针对方法中所出现的冗余计算问题设计了两种有效的冗余去除方案,并整合到框架中,进一步提升匹配效率。本文的主要贡献点如下:·提出了基于随机算法的非结构化数据快速实体匹配技术.本文针对非结构化数据提出了一套快速实体匹配方法。首先,通过位置敏感哈希(LocalitySensitive Hash, LSH)的降维运算,原始实体数据被压缩为低维的二进制0-1特征向量。为提高匹配精度,对降维特征向量进行多次随机变换并将变换后结果分别进行重排序,基于窗口的方法获取相似度计算对象。借助于位置敏感哈希的降维以及对特征向量的二进制序列化,该方法有效地减少了计算复杂度,实现了高速的实体匹配,通过实验验证了该算法在实现了高效实体匹配的同时,仍然保持较高的正确性。·设计了基于随机算法的分布式实现框架.本文基于前述的随机算法,提出了一套适用于非结构化数据的高速分布式实体匹配框架,该框架基于当前较为成熟的MapReduce分布式计算模型,通过在map端使用随机算法进行数据降维与特征变换,并在reduce端进行记录对提取与比较,实现快速的实体匹配方案。该框架充分发挥随机算法的特性,同时解决了节点负载均衡与网络传输开销问题,实现了分布式环境下的高性能。通过详细的实验分析了该方案中不同的参数对实体匹配正确性与效率的影响,并通过与其他目前较为先进方案进行性能比较,验证了该算法具有明显的性能优势。·给出了去除冗余计算的两种方案.针对该随机算法中会产生的冗余记录对问题,本文分别基于正确性优先与效率优先原则,提出了两种冗余去除的方案:通过增加额外的MapReduce任务,将现有结果集进行分组,从而将重复记录汇总并去除,实现精确的冗余去除;通过对序列化的实体特征向量添加相似性校验信息,并在记录对生成阶段通过比对校验信息判断某一记录对是否已被生成,从而减少冗余记录的生成,在不添加额外的MapReduce任务的前提下,实现快速的冗余去除。本文通过实验比较了两种方法的优劣,并对比现有的分块策略技术,对因算法随机性导致冗余去除的不确定性进行了分析和研究,并提出了通用的解决模型。(本文来源于《华东师范大学》期刊2015-05-12)

舒龙庆,曾垂力[10](2015)在《一种基于圆的几何特性改进的圆检测随机算法》一文中研究指出在模式识别和计算机视觉领域,圆检测的应用十分重要。目前,大部分圆检测算法都把关注点放在精确度和检测效率上,随机算法具有计算效率高和占用内存少的优点,然而,随机算法通过选取大量的候选圆并统计落在候选圆上的像素总数判断圆的存在,在实时检测中并不适用。文章提出了一种基于圆的对称性的改进算法,加速了判断候选圆是否为真实圆的过程,同时在统计候选圆上的像素时没有采集图像中全部的边缘像素,而是采集候选圆的内接正方形和外切正方形范围内的边缘像素。实验表明,这种方法在保持圆检测准确性的条件下减少了运算时间。(本文来源于《集成技术》期刊2015年02期)

随机算法论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

通过研究近似邻近查询算法,提出了一种基于随机化思想的KANN(K-approximate nearest-neighbor algorithm)算法,改进相似性搜索的速度和精度。算法在两个阶段采用了随机思想:一是在编码时,结合谱哈希算法和随机矩阵逼近法得到数据点的二进制编码。二是在查询时,为降低搜索时间成本,先对原数据集进行初次阈值筛选得到一个查询点的一个近似类别集。由于近似类别中存成对距离很小,采用基于距离搜索算法精度下降。本论文提出采用统计秩的思想,保留距离排序的信息,在近似类别的数据集进行多次抽样排序,得到k个近似邻居。本文提出的近似邻近检索框架采用多环节过滤数据,并控制搜索误差,在速度和精度上得到了改进。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

随机算法论文参考文献

[1].孙志文,王开西.基于随机算法的中文文本无载体隐写方法[J].青岛大学学报(自然科学版).2019

[2].赵永国,陈奕奕,吴峻峰.近似邻近搜索随机算法[J].科技通报.2018

[3].周喆.求解黑箱全局优化问题的一种改进的随机算法[J].湖北民族学院学报(自然科学版).2017

[4].文天才,刘保延,何丽云,白文静,闫世艳.最小化随机算法形式化定义与优化[J].中国数字医学.2017

[5].王金华.小质量极限过程及其在随机算法中的应用[D].上海交通大学.2017

[6].叶嘉.基于PAC模型的并行关联分析随机算法[D].云南财经大学.2017

[7].李忠武.局部搜索中随机算法策略探讨[J].电子商务.2017

[8].朱小辉,陶卿.求解非光滑强凸优化问题的减小方差加权随机算法[J].模式识别与人工智能.2016

[9].晁平复.基于随机算法的分布式实体匹配技术[D].华东师范大学.2015

[10].舒龙庆,曾垂力.一种基于圆的几何特性改进的圆检测随机算法[J].集成技术.2015

论文知识图

交换期权的保险算法定价与B-S公式比较4-13 可以看出,随机映射算法的结果在图...网络异步时的吞吐量数据白化电路随机分布下不同比例节点死亡时算法生...差分进化算法的

标签:;  ;  ;  ;  ;  ;  ;  

随机算法论文_孙志文,王开西
下载Doc文档

猜你喜欢