导读:本文包含了图像间语义模型论文开题报告文献综述、选题提纲参考文献,主要关键词:语义,卷积,神经网络,图像,深度,模型,门控。
图像间语义模型论文文献综述写法
张静,靳淇兆,王洪振,达铖,向世明[1](2019)在《多尺度信息融合的遥感图像语义分割模型》一文中研究指出遥感图像分割是目前学术界和工业界的一个研究热点,在城市规划、变化检测以及GIS信息构建等方面有着十分广泛的应用.然而,诸多复杂因素(如多变的尺度、多样化的拓扑形状以及复杂的背景和阴影等)使得遥感图像语义分割成为一项具有挑战性的任务.为此,提出一种基于多尺度信息融合的遥感图像语义分割深层卷积神经网络模型,该模型分为编码器和解码器2部分.在编码阶段,设计了基于DenseNet网络的跨卷积层级的多尺度特征融合策略,采用子区域全局平均池化及多尺度卷积处理复杂的背景区域;在解码阶段,为了准确地恢复图像的细节信息,设计了能够融合不同层级卷积特征的短解码器;最后,在整体模型构建方面设计了一种具有多输出的分层监督机制网络模型,从不同层级获取监督信息,可在充分利用监督信息的同时更好地引导网络的训练.在ISPRS公开数据集以及北京市遥感数据集上,通过实验验证了文中模型的有效性.(本文来源于《计算机辅助设计与图形学学报》期刊2019年09期)
张嘉祺,赵晓丽,董晓亚,张翔[2](2019)在《面向图像语义分割的生成对抗网络模型》一文中研究指出图像语义分割一直是计算机视觉中具有挑战性的任务之一。目前多数基于卷积神经网络的语义分割算法存在分割结果不精确,不连续等问题。为了提高图像分割效果,提出了基于生成对抗学习的图像语义分割网络模型。该模型由生成网络和判别网络两部分组成。生成网络含有五个模块,主要作用是生成语义分割图,判别网络与生成网络进行对抗训练,优化生成网络以使生成图像更加接近于Ground Truth。通过在Pascal VOC 2012数据集上对图像进行语义分割的分析,验证了该算法可以有效提高图像语义分割的精度。(本文来源于《传感器与微系统》期刊2019年08期)
王媛华[3](2019)在《基于多融合模型的图像语义描述研究》一文中研究指出图像语义描述可以自动生成图像的自然语言描述,对场景理解具有重要意义。本文主要针对图像语义描述的特征学习和语义学习等进行改进,提出一种新的多融合模型。实验结果表明,本文提出的模型有较好的描述效果,但模型在训练时时间过长,有待改进。(本文来源于《河南科技》期刊2019年14期)
贾园园[4](2019)在《基于深度学习和形变模型的乳腺癌全扫描切片图像语义分割》一文中研究指出乳腺癌现已成为对女性健康威胁程度最高的恶性肿瘤之一。目前,主要是人工结合组织活检的显微分析进行诊断,不仅费时费力,而且诊断结果具有主观性与差异性。因此若能通过计算机自动准确地将病理图像中的病变区域诊断出来,那么不仅省时省力,而且可为病理学家提供精确客观的评估依据,这对于恶性肿瘤的智能诊断极具意义。对乳腺组织根据癌变与否进行切片图像的语义分割即可实现这点。本文要研究的乳腺组织活检全扫描切片图像分割是基于千兆分辨率的像素级分割,因数据量巨大,染色图像背景复杂,并且检测对象含有不同尺度的细胞与组织,故使得现有图像分割算法不能很好地适用于本文数据。针对乳腺癌全扫描切片图像语义分割中存在的一些难点,结合最新的深度学习技术,本文提出了一种将多尺度空洞卷积神经网络与形变模型相结合的图像分割算法,对多分类乳腺病变区域(正常、良性、恶性(原位性或浸润性))进行语义分割:(1)本文采用多个尺度的空洞卷积结构获取多尺度特征进行特征融合,并在上采样过程中,使用反卷积减少特征损失,以适应更加精细的多分类任务,这种改进的多尺度空洞卷积神经网络在数据集上进行训练验证,对比经典算法,该方法的准确率更高。(2)卷积神经网络在训练时采用随机抽取图像块的方法,使得网络无法获取更大范围的组织特征及全局信息,可能导致乳腺组织分割缺乏轮廓细节等问题。为此,本文提出了可整合全局形状信息和先验知识的形变模型,以达到优化网络分割结果的目的。实验表明,以上改进在乳腺癌全扫描切片图像的多分类语义分割任务中具有较好的分割性能,能够为相关研究提供重要价值。(本文来源于《华中科技大学》期刊2019-05-01)
张誉矾[5](2019)在《基于局部区域条件随机场模型的的图像语义分割算法》一文中研究指出图像的语义分割技术是图像理解的基石性技术,所谓图像的语义分割技术实质就是将图片中不同的物体用不同的区域块分割开来,它的目的是将图片中每一像素点进行分类。其研究成果在各个方向上都有着广泛的应用,例如自动驾驶技术、医疗影像技术分析、遥感图像分析等领域。图像的语义分割技术在过去的数十年当中由于技术原因一直发展缓慢,但是随着深度学习的研究热潮,卷积神经网络逐渐成为了计算机视觉任务研究的最核心方法,它对二维图片具有强大的特征提取能力,并且不用对原始图片数据进行特征的提取和重构。全卷积神经网络的提出正是得益于卷积神经网络的发展,该方法开创性的将卷积神经网络结构用于语义分割任务当中,在分割精度和分割速度上都远远超过了传统图像分割算法,通常,语义分割任务最主要的工作在于对图片空间位置信息的提取和对图片像素与像素间依赖关系的提取,本文基于卷积神经网络展开了深入的研究,从特定的应用场景出发,提出了一种新的语义分割模型结构。主要工作如下:1.深入研究现今主流语义分割技术,包括了基于全卷积神经网络的语义分割模型和基于条件随机场模型的语义分割模型。然后对比分析了两种语义分割模型的优势和缺点。2.提出了一种新的基于全卷积神经网络的语义分割模型DeepLab-Resnet18模型,该模型引入了最新的卷积结构——ResNet结构,在一定程度上避免了原始卷积过程当中会因为池化作用而丢失物体空间位置信息的问题,此外模型采用了空洞卷积技术,在保证图片分辨率的情况下有效的增加了卷积过程中的感受野大小。3.对具体的模型应用场景进行了仔细的分析,提出了一种基于条件随机场模型的语义分割网络——局部区域条件随机场模型,它充分考虑了应用场景与模型之间的适应性,使用新型的算法优化了条件随机场模型的迭代过程,使得模型能够提取到图片像素与像素之间的依赖关系,给分割结果增加了一个平滑的过程,优化了在物体边界区域处的分割结果,并且建立了信息完整、标注尺度统一的交通场景语义分割数据集。4.为了能够有效利用连续交通场景图片帧与帧之间的强相关信息,本文设计了一种基于卷积神经网络跟踪算法,该算法能够获取图片相邻帧之间的信息,并利用这一信息对相邻帧图片的分割结果进行错误修正。通过实验证明,本文所述局部区域条件随机场模型能够适时高精度的扩展应用到交通场景图片的语义分割当中。(本文来源于《杭州电子科技大学》期刊2019-03-09)
王鑫,于重重,马先钦,陈秀新[6](2019)在《基于语义分割-对抗的图像语义分割模型》一文中研究指出图像语义分割对场景理解等具有重要的作用,是当前计算机视觉领域研究的一个热点问题。针对当前图像语义分割方法存在的精度低等问题,提出语义分割-对抗模型(Semantic Segmentation Generative Adversarial Networks, SSGAN)。模型采用Deeplab-VGG16作为生成模型,通过对输入真实样本的学习,生成语义分割图;采用金字塔池(Atrous Spatial Pyramid Pooling, ASPP)作为判别模型,对人工标记图与生成分割图进行高阶规律统计。在数据集POSCALVOC2012上实验得到mIOU为0.823,较Adversarial提高0.24。SSGAN模型通过将对抗模型与传统语义分割模型相结合,既保持传统语义分割模型端到端的训练方式,又具有对抗网络自主学习能力,避免人工设计对应的高阶损失项产生的不匹配。最后通过剪枝与权值量化共享将模型压缩为原来的0.045。实验证明本文所提方法具有可行性。(本文来源于《计算机仿真》期刊2019年02期)
胡涛,李卫华,秦先祥,邱浪波,李小春[7](2018)在《基于深度CRF模型的图像语义分割方法》一文中研究指出从图像中提取多种特征向量堆迭为一个高维特征向量用于图像语义分割,会导致部分特征向量的分类能力减弱或丢失。针对此问题,提出了一种结合深度卷积神经网络AlexNet和条件随机场的图像语义分割方法。利用预训练好的AlexNet模型提取图像特征,再通过条件随机场对多特征及上下文信息的有效利用来实现图像的语义分割。与利用传统经典特征的方法进行对比,实验结果表明:在利用AlexNet模型提取特征进行图像语义分割时,Conv5层为最有效的特征提取层,在Stanford background和Weizmann horse数据集下的识别准确率分别为81.0%和91.7%,均高于其他2种对比方法,说明AlexNet可以提取更有效的特征,得到更高的语义分割精度。(本文来源于《空军工程大学学报(自然科学版)》期刊2018年05期)
乔雪,许舟军,焦程波,彭晨,段贺[8](2018)在《基于注意力GRU模型的高分辨率遥感图像语义描述》一文中研究指出随着遥感技术的快速发展,高分辨率遥感图像数据急剧增加,如何从海量的遥感图像数据中提取有效的语义描述信息具有重要的研究价值。然而,现有方法通常忽略遥感图像中的细节特征,从而导致图像的重要内容不能被语义信息准确描述。针对上述问题,本文提出了一种基于注意力机制的门控循环单元(Attention based Gated Recurrent Unit, Att-GRU)模型,并将该模型应用于高分辨率遥感图像的语义描述。首先,利用卷积神经网络提取高分辨率遥感图像的全局特征;然后在门控循环单元网络中引入注意力机制,以捕捉遥感图像中的细节视觉特征;最后,将图像视觉特征和描述文本特征共同作为Att-GRU模型的输入,以保证描述文本和图像内容的语义一致性,最终生成具有丰富语义内容的高分辨率遥感图像描述文本。实验结果表明,本文提出的模型在高分辨率遥感图像语义描述方面取得了较好的效果。(本文来源于《第五届高分辨率对地观测学术年会论文集》期刊2018-10-17)
赵彦会,崔嘉,董新锋,王化雨,郑元杰[9](2018)在《基于特征语义模型的复杂结构图像分割算法》一文中研究指出针对结构复杂图像所具有的相似复杂性和属性复杂性,提出了基于特征语义模型的图像分割算法,通过采用矩阵分解将图像分割问题转化为最优化问题.对原始图像进行视窗扫描,选取规模为n的视窗计算所有像素的特征语义.经过PCA降维后,在保证特征信息最小丢失的前提下计算相互之间的特征语义相似度.通过最优化理论近似寻找特征语义相同的像素点集,从而完成结构复杂图像的分割.经过实验证明,本文方法针对结构复杂的图像物体分割完整,细节分割精细.通过对比实验验证了该方法的有效性.(本文来源于《扬州大学学报(自然科学版)》期刊2018年03期)
陈佳丽[10](2018)在《基于深度语义模型的乳腺X线图像检索》一文中研究指出随着时代的进步和科技的发展,基础医疗设施日趋完善,基于图像的临床医疗技术得到了广泛应用。由此产生的海量医学影像的有效管理和应用已经成为当前跨学科领域的一大难题。医学影像检索通过快速有效地检索相似病例,为医生提供有效参考,有助于后期诊断和治疗,并能帮助新入职的放射科医生和实习生快速掌握医学影像的特点及诊断经验。乳腺X线图像为乳腺癌筛查的重要依据,但乳腺肿块等病变形态各异,人体乳腺密度差异巨大,为乳腺X线图像分析和检索带来了巨大的挑战。本文以乳腺X线图像中的感兴趣区域为研究对象,基于词汇化影像细节的词汇树,深入研究了基于深度语义模型的医学影像检索方法,主要工作如下:首先,分别从空间和语义信息的角度出发,分析了空间信息和语义信息对乳腺图像检索的影响和作用,分别提出了基于空间优化和语义优化的深度语义树检索方法,通过自适应优化卷积层的空间或语义特征图,有效去除卷积层特征在空间和语义上的冗余,设计自适应节点分布的权重,构建了更为精简高效的深度语义树,有效提升了检索的准确率。在此基础上,为了有效融合两种深度语义树的优点,提出了基于空间-语义双重优化的深度语义树模型,对于每个深度语义树,在查询图像和数据库图像之间建立互近邻图模型,根据Jaccard系数、相似度得分等自适应获得各权重参数,最终将两个图模型进行融合,进一步优化检索性能。最后,为了进一步挖掘深度特征之间的内在联系,提出了基于语义微森林模型的检索方法,通过构建不同层级的多棵语义树,形成具有深层监督机制的语义微森林模型,以前一层深度语义树的结构为监督构建下一层深度语义树,迭代往复,并在检索过程中不断融合微森林模型中所有语义树的检索结果,进一步提高了检索精度。实验结果表明,本文提出的基于深度语义树及微森林模型的检索方法能够有效表征图像语义,挖掘图像的深度特征之间的内在关系,具有较高的检索和分类性能,为医学影像检索提供了有效的技术基础。(本文来源于《西安电子科技大学》期刊2018-06-01)
图像间语义模型论文开题报告范文
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
图像语义分割一直是计算机视觉中具有挑战性的任务之一。目前多数基于卷积神经网络的语义分割算法存在分割结果不精确,不连续等问题。为了提高图像分割效果,提出了基于生成对抗学习的图像语义分割网络模型。该模型由生成网络和判别网络两部分组成。生成网络含有五个模块,主要作用是生成语义分割图,判别网络与生成网络进行对抗训练,优化生成网络以使生成图像更加接近于Ground Truth。通过在Pascal VOC 2012数据集上对图像进行语义分割的分析,验证了该算法可以有效提高图像语义分割的精度。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
图像间语义模型论文参考文献
[1].张静,靳淇兆,王洪振,达铖,向世明.多尺度信息融合的遥感图像语义分割模型[J].计算机辅助设计与图形学学报.2019
[2].张嘉祺,赵晓丽,董晓亚,张翔.面向图像语义分割的生成对抗网络模型[J].传感器与微系统.2019
[3].王媛华.基于多融合模型的图像语义描述研究[J].河南科技.2019
[4].贾园园.基于深度学习和形变模型的乳腺癌全扫描切片图像语义分割[D].华中科技大学.2019
[5].张誉矾.基于局部区域条件随机场模型的的图像语义分割算法[D].杭州电子科技大学.2019
[6].王鑫,于重重,马先钦,陈秀新.基于语义分割-对抗的图像语义分割模型[J].计算机仿真.2019
[7].胡涛,李卫华,秦先祥,邱浪波,李小春.基于深度CRF模型的图像语义分割方法[J].空军工程大学学报(自然科学版).2018
[8].乔雪,许舟军,焦程波,彭晨,段贺.基于注意力GRU模型的高分辨率遥感图像语义描述[C].第五届高分辨率对地观测学术年会论文集.2018
[9].赵彦会,崔嘉,董新锋,王化雨,郑元杰.基于特征语义模型的复杂结构图像分割算法[J].扬州大学学报(自然科学版).2018
[10].陈佳丽.基于深度语义模型的乳腺X线图像检索[D].西安电子科技大学.2018