导读:本文包含了海量图像数据论文开题报告文献综述及选题提纲参考文献,主要关键词:大数据分析,海量,激光图像,HDFS
海量图像数据论文文献综述
严伟中,刘芝怡[1](2019)在《大数据分析技术在海量激光图像检索中的应用》一文中研究指出为解决海量激光图像的检索问题,提出基于大数据分析的海量激光图像检索方法。大数据分析技术中的HDFS采用一个NameNode与数个DataNode组合的运行方式,将海量激光图像特征数据存储在HDFS中;采用基于MapReduce程序与相似度计算方法检索海量激光图像,利用Map读取存储在HDFS中的海量激光图像特征数据,并转换为Key/Value形式的数据特征,在Reduce任务中采用相似度计算方法获取HDFS中海量激光图像特征的形状、纹理、颜色相似度并排序,排序结果则为激光图像检索结果。实验结果表明,所提方法计算的激光图像特征相似度误差较小,检索海量激光图像过程中,所提方法具有高查全率、高查准率的优势,是一种高性能的海量激光图像检索方法。(本文来源于《激光杂志》期刊2019年09期)
任仪[2](2019)在《基于决策树的海量医学图像数据挖掘方法研究》一文中研究指出传统数据挖掘方法不能清晰描述医学图像的特征信息和高分辨属性。为解决上述问题,提出一种基于决策树的海量医学图像数据挖掘方法。分析图像的简化属性分裂特点,并通过引入矫正函数的方式定义决策树分类堆,完成海量医学图像挖掘决策树分类规则的确定。在此基础上,利用医学图像目标识别和灰度直方特征提取结果,确定局部数据的挖掘引子,完成基于决策树的海量医学图像数据挖掘方法研究。模拟方法运行环境设计对比实验结果表明,与传统数据挖掘方法相比,应用基于决策树的海量医学图像数据挖掘方法后,医学图像特征信息、高分辨属性的描述清晰程度均得到20%左右的提升。(本文来源于《电子设计工程》期刊2019年06期)
刘霞[3](2018)在《粒子物理学离不开人工智能》一文中研究指出位于欧洲核子研究中心(CERN)的大型强子对撞机(LHC)是目前世界上最大的粒子加速器,在里面进行的实验每秒产生大约一百万吉字节(GB,十亿字节)的数据。即使经过压缩,LHC在一小时内积累的数据也与社交网站脸书整年收集的数据量相当。这么海量的数据,给存储(本文来源于《科技日报》期刊2018-08-07)
彭雪[4](2018)在《MOST系列海量图像数据集的标准化问题研究》一文中研究指出大脑作为中枢神经的主要组成部分,是生物体最复杂、最重要的器官之一,其结构和功能机制是当前脑科学研究领域的热点和难点。近年来随着神经元标记技术和成像技术的发展,尤其是全脑范围、亚微米级高分辨光学显微成像技术的出现为脑科学研究提供了有力的工具。然而,由于研究目的和染色方法的多样性以及成像系统的差异性,使得脑科学研究过程中产生了海量、复杂、多样、质量存在差异的数据集,给数据分析和应用带来了困难。因此,在数据产生的过程中,如何解决数据分析与应用中面临的困难、实现海量图像数据的标准化已成为重要的问题。本文对标准化数据的基本要求是数据及相关信息完整、拼接和配准结果准确、全局灰度一致、解剖坐标系统统一、存储格式和命名规则一致。为了获取标准化的数据,提高图像质量,使获得的数据符合应用需求,使用者能直接分析和应用,本文针对MOST系列海量图像数据集的标准化问题进行研究,对数据的特点进行全面分析,以求实现基于海量MOST系列图像数据集的标准化。本研究主要由以下叁部分组成:(1)为了获取标准化的数据集,对图像处理流程进行标准化,提出了基于互相关信息的图像拼接方法以实现全景图像的自动拼接,利用基于相位相关的方法实现了多通道数据的融合,研究了基于图像灰度补偿的校正算法和图像增强算法以实现数据集灰度的全局一致性,通过坐标统一、二维对齐及叁维配准实现了数据集解剖坐标系统标准化,并对衍生数据进行了标准化;(2)为了对经标准化流程处理后的数据集进行快速有效评估,建立了主观与客观相结合的评估体系,可对数据完整性、全局灰度一致性及数据质量等进行综合评估;(3)为了实现规模化数据生产中的流程管理,对数据文件系统进行管理,开发自动快速校验的方法以确保数据集的完整性,避免数据从成像系统到存储中心传输和计算过程中发生丢失,结合信息管理系统对数据集及数据相关信息进行实时管理以实现数据的生产调度。本文从数据处理到数据评估再到流程管理,构建标准化处理流程,开发自动的、适用性强的图像处理方法,尽量减少海量数据处理过程中人工参与,避免人为因素导致的误差。采用主观与客观相结合的评价方法,对处理后的数据快速评估,保证数据质量的同时也可以提高图像处理算法的可靠性。对数据处理流程进行管理,可以为脑科学研究积累标准化数据,为脑科学研究者快速、便捷获取脑科学数据提供重要资源,为科学共享和管理脑科学数据提供基础和保障。(本文来源于《华中科技大学》期刊2018-05-01)
陈勇[5](2018)在《基于视频编码的海量脑空间信息叁维图像数据压缩研究》一文中研究指出脑对人类的思维、情感与行为都起着决定性的控制作用,同时也与许多的精神疾病密不可分。构成脑的基本单位是神经元,结构决定功能,从神经元级别上了解脑结构,对于了解脑的各项功能以及精神疾病的病因都有十分重要的价值。脑空间信息叁维图像能够帮助人们从神经元级别上理解大脑结构。随着成像技术的发展,成像系统的分辨率越来越高,所能成像的样本体积也越来越大。极高的分辨率与大样本体积决定了成像得到的叁维图像数据必然是海量的数据。巨大的数据量对存储、传输都造成了巨大的压力,因此对其进行有效的压缩具有十分重要的意义。现有的叁维数据的压缩方法,普遍存在压缩效果不佳,压缩效率低等问题,难以适用于海量叁维图像的数据压缩。论文针对上述问题,设计了一种基于视频编码的海量叁维图像数据的压缩方案,并实现了适用于海量叁维图像数据的压缩工具。围绕该方案的设计,从编码器的实现效率、压缩比与压缩时间等方面对多种视频编码器的性能进行了比较,选取了适用于海量脑空间信息叁维图像数据的编码器。本文基于x264视频编码器,分别设计了针对8位与16位数据的视频压缩方案。并针对不同的数据类型选取了合适的编码参数。针对16位叁维图像的视频压缩,论文还提出了更加合理的压缩方案。同时,通过实现视频编码接口,在现有的分块程序的基础上,实现了简单易用的海量叁维图像数据的视频压缩工具以及配套的格式检查工具。为了对视频压缩数据集进行解压,论文实现了压缩数据ROI区域的数据解压调取工具。在海量叁维图像数据的常见应用——神经元重建工作,通过使用视频压缩数据与并行化加速,加快了神经元重建工作所涉及的数据调用操作的速度,提高了神经元重建工作的效率。新压缩工具能够在在合理的时间内对海量叁维显微图像数据进行高效视频压缩。在神经元重建工作中,通过使用视频压缩数据与并行化加速,显着提高了神经元重建工作中的经常出现的数据调用操作的速度。(本文来源于《华中科技大学》期刊2018-05-01)
刘润虎,张宁,黄璜,邬学东[6](2017)在《基于Hadoop云平台的海量数字图像数据挖掘的分析》一文中研究指出Hadoop云平台在各个领域当中都有着极其广泛的应用,结合云计算技术等,对相关数据管理水平的提升具有重要价值。因此,本文就基于Hadoop云平台的海量数字图像数据挖掘进行有效分析,简要介绍了数字图像处理流程中的预处理与特征空间构建两个环节;然后,对海量数字图像数据挖掘系统构建的硬件设备、软件环境、继承开发平台等构建进行了细致分析。(本文来源于《科技创新导报》期刊2017年32期)
张海娜[7](2017)在《不同视角下海量高分辨率视频图像数据挖掘方法》一文中研究指出当前高分辨率视频图像数据挖掘方法容易受到外界环境的干扰,提取的视频图像特征不可靠,且不同视角下提取的特征值有很大差异,导致视频图像数据挖掘精度大大降低。为此,提出一种新的不同视角下海量高分辨率视频图像数据挖掘方法,通过Harris角点检测方法对待挖掘高分辨率视频图像数据时空特征进行提取。依据高分辨率视频图像数据时空特征,通过自相关矩阵建立相同事物不同视角下的递归图,将递归图看作一幅图像,通过计算像素点的梯度向量构建递归特征描述符。对相同事物不同视角下的关联性进行挖掘,将具有相同递归图梯度特征的高分辨率视频图像数据汇聚在一起,实现数据挖掘。实验结果表明,所提方法挖掘精度高。(本文来源于《科学技术与工程》期刊2017年26期)
蔡武越[8](2017)在《网上评卷海量图像数据云存储技术应用探析》一文中研究指出针对目前国家教育考试网上评卷海量图像文件的存储管理问题,本文提出基于Hadoop的No Sq L云存储方案,提高评卷海量数据安全性和存储可靠性,构建分布式、可扩展、高可用性和可靠性的云存储平台。通过分析基于Hadoop平台云计算体系和基于HDFS/HBase的云存储技术,结合网上评卷海量图像文件的存储需求和实际,规划基于Hadoop/HDFS/HBase的国家教育考试云存储中心的数据交换平台,并对在国家教育考试中深入应用此平台给出设计方案,提出发展愿景。(本文来源于《中国考试》期刊2017年06期)
李冰,毛布,许然[9](2017)在《海量弱关联图像数据的检测系统设计与实现》一文中研究指出当前设计的图像数据检测系统大都依据特定关键词完成数据检测,对海量弱关联图像数据的检测效率和精度较低。为了解决这些问题,设计基于PMML规范的海量弱关联图像数据检测系统,其将数据检测算法同PMML标准融合,由表示层、应用服务层和数据资源层构成。其中应用服务层中的数据检测模块将形成的检测模型通过PMML文档输出,模型应用模块通过PMML模型采用自定义的数据检测查询语言CMQL完成语言检索,实现海量弱关联图像数据的有效检测。系统实现部分给出了PMML模型的创建和应用过程。实验结果表明,所设计检测系统具有较高的检测性能和较低的虚警率。(本文来源于《现代电子技术》期刊2017年08期)
侯延童[10](2017)在《卫星海量数据背景下遥感图像去噪算法研究》一文中研究指出近年来,我国发射了大量卫星,从北斗导航系列卫星到各种气象、资源勘探卫星,可以说,我国的航天遥感技术取得了长足发展。伴随着这么多的卫星发射升空,每天都有海量的数据从各种传感器上接收下来。与此同时,在采集和回传阶段,数据或多或少都会受到许多不确定因素的影响而被污染。因此,在传输前对其进行压缩,以及在接收后进行噪声去除已成为广泛关注的研究热点。小波分析的时频局部特性和多分辨率分析特性,可以把图像数据中的重要信息有效地提取出来,因此,它在图像处理领域得到了非常广泛的应用。文章的主要工作是把接收到的图像数据经小波变换后如何更好地对其进行噪声剔除,以及图像传输前的数据压缩。小波变换去噪的方法已有很多种,本文着重考虑阈值去噪方法,讨论了去噪过程中阈值和阈值函数的选取,并对传统方法进行了改进,最后通过仿真,检验了改进方法的可行性及去噪效果。分析了经典小波编码算法,针对SPIHT编码算法需要大的存储空间和很多不必要运算的缺点,提出了一种改进的SPIHT编码算法,弥补了之前编码过程中需要大存储空间并耗时的不足。(本文来源于《长春理工大学》期刊2017-03-01)
海量图像数据论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
传统数据挖掘方法不能清晰描述医学图像的特征信息和高分辨属性。为解决上述问题,提出一种基于决策树的海量医学图像数据挖掘方法。分析图像的简化属性分裂特点,并通过引入矫正函数的方式定义决策树分类堆,完成海量医学图像挖掘决策树分类规则的确定。在此基础上,利用医学图像目标识别和灰度直方特征提取结果,确定局部数据的挖掘引子,完成基于决策树的海量医学图像数据挖掘方法研究。模拟方法运行环境设计对比实验结果表明,与传统数据挖掘方法相比,应用基于决策树的海量医学图像数据挖掘方法后,医学图像特征信息、高分辨属性的描述清晰程度均得到20%左右的提升。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
海量图像数据论文参考文献
[1].严伟中,刘芝怡.大数据分析技术在海量激光图像检索中的应用[J].激光杂志.2019
[2].任仪.基于决策树的海量医学图像数据挖掘方法研究[J].电子设计工程.2019
[3].刘霞.粒子物理学离不开人工智能[N].科技日报.2018
[4].彭雪.MOST系列海量图像数据集的标准化问题研究[D].华中科技大学.2018
[5].陈勇.基于视频编码的海量脑空间信息叁维图像数据压缩研究[D].华中科技大学.2018
[6].刘润虎,张宁,黄璜,邬学东.基于Hadoop云平台的海量数字图像数据挖掘的分析[J].科技创新导报.2017
[7].张海娜.不同视角下海量高分辨率视频图像数据挖掘方法[J].科学技术与工程.2017
[8].蔡武越.网上评卷海量图像数据云存储技术应用探析[J].中国考试.2017
[9].李冰,毛布,许然.海量弱关联图像数据的检测系统设计与实现[J].现代电子技术.2017
[10].侯延童.卫星海量数据背景下遥感图像去噪算法研究[D].长春理工大学.2017