视觉信息提取论文-李小艳,杨帅,刘玥,管红梅

视觉信息提取论文-李小艳,杨帅,刘玥,管红梅

导读:本文包含了视觉信息提取论文开题报告文献综述及选题提纲参考文献,主要关键词:机器人,双目立体视觉,伪彩色,深度信息

视觉信息提取论文文献综述

李小艳,杨帅,刘玥,管红梅[1](2019)在《机器人用双目视觉的深度信息提取》一文中研究指出机器人用双目立体视觉是从两个角度观察同一个景物,以获取不同视角下的感知图像,通过成像几何原理计算图像像素之间的位置偏差来获取景物的叁维信息。双目立体视觉系统包括,双目摄像机标定,特征提取以及特征匹配,本文提出一种伪彩色方法表示出物体的深度信息,不同的颜色代表不同的深度信息,实现了深度信息的有效识别。(本文来源于《科技创新导报》期刊2019年22期)

桂喜雨[2](2019)在《填丝TIG焊接过程视觉检测及熔透信息提取》一文中研究指出在焊接过程中实时获取当前的熔透状态是进行焊接熔透控制的基础,在TIG薄板单面焊双面成形焊接工艺中,熟练的焊工可以根据熔池、熔孔形态判断出当前的熔透状态,从而调整焊接速度、焊枪倾角等保证焊缝熔透而不发生焊穿。可见,熔池、熔孔形态包含了大量的熔透信息,但是目前仅在手工焊接时利用了熔孔现象,为了实现自动化焊接中的熔透控制,有必要对熔池、熔孔形态以及动态行为进行研究。本文搭建了薄板TIG单面焊双面成形实验平台。设计了1064nm窄带滤光片和中性减光片组成的复合滤光系统,有效的滤除了弧光干扰,获得了清晰的熔池、熔孔图像。利用近摄接圈提高了图像尺寸,增加了图像的清晰度。针对3mm厚Q235碳钢板开展预留间隙对接焊实验并采集焊接过程中的图像和电参数。设计图像处理算法,获取了熔池、熔孔边缘。对于熔孔图像,以熔孔最大宽度和熔孔长度作为其特征值,分析了熔孔在不同的焊接速度下的失稳形式。按失稳时的熔孔长度与宽度的大小,将失稳形式分为横向失稳、纵向失稳以及整体失稳。同时研究了熔滴过渡频率与熔孔稳定性之间的关系,当熔滴过渡频率为5HZ时,相对于1HZ,熔孔的尺寸稳定性获得了极大提升。通过控制送丝速度、熔滴过渡频率和电流的匹配,实现了低碳钢预留间隙对接焊在100A下熔孔稳定存在和全熔透。针对熔池图像,以熔池尾部轮廓角以及熔池半长作为其特征值,研究了熔池形状与熔透之间的关系。其他参数不变,变电流实验的结果表明,即使在不同的对接间隙下,未熔透时尾部轮廓角均较大,在140°以上,同时熔池半长较短,在5mm以下;过熔透时熔池尾部轮廓角均较小,在65°以下,熔池半长在7mm以上;当熔池尾部轮廓角在80°~120°范围内时,工件熔透良好,当熔池尾部轮廓角在100°附近,熔透效果最好,此时熔池半长在6mm左右。设计了变对接间隙实验,利用熔池尾部轮廓角及熔池半长成功判断出了焊接过程中的熔透状态变化。(本文来源于《山东大学》期刊2019-05-21)

彭捷斐[3](2019)在《基于视觉信息挖掘的遥感影像农业信息提取方法研究》一文中研究指出近年来,随着以高分系列和资源系列卫星为代表的国产高分辨率遥感卫星技术的发展,遥感影像更广泛地应用在各种大规模生产领域。在第叁次农业普查中,使用调查地区的高分辨率遥感影像进行信息提取工作,对农业资源进行调查和评估已经成为普查工作重要的一环。使用计算机根据需求对遥感影像进行信息提取,提高遥感影像分类精度和利用率并将其应用到生产领域,是遥感应用领域主要的研究内容。在此背景下,本文总结了国内外遥感影像信息提取研究理论和应用的相关成果,采用湖北省2016年部分区域高分辨率遥感影像数据,研究了基于视觉信息挖掘的遥感影像农业用地信息提取方法,主要研究内容如下:(1)通过对多维度特征提取方法的实验和分析,对目标区域遥感影像进行特征挖掘并构建相应的特征数据集,以实现对目标地物特征的范式表达。(2)针对当前适用于神经网络训练的遥感地物目标数据集数量有限的现状,根据神经网络在训练过程中对图像特征学习和构建的原理,提出了利用特征挖掘和神经网络进行少量标记样本下遥感影像高维特征学习方法。(3)在特征数据集的基础上,应用卷积神经网络和全卷积神经网络实现了对高分辨率遥感影像的场景分析和语义分割,并对信息提取的精度进行了分析。实验结果表明,采用特征挖掘建立合理的深度学习训练样本集,能够在特定领域的图像信息提取任务中取得较好效果,为遥感技术在国情监测领域的应用探索了新的思路。(本文来源于《南京航空航天大学》期刊2019-03-01)

韩东,杨贵军,杨浩,邱春霞,陈明杰[4](2018)在《基于立体视觉的玉米雄穗叁维信息提取》一文中研究指出玉米雄穗的表型信息对玉米育种研究具有重要的参考意义。该研究以自动获取玉米雄穗叁维表型信息为目的。通过对雄穗样本进行多视角摄影处理来重建其叁维模型。对重建的叁维点云数据运用基于密度聚类的方法统计其分枝数信息,运用Delaunays叁角网方法计算其外包络体积信息,并基于点云信息对雄穗主轴和最大穗冠的结构参数进行计算,同时定义了相关表型参数。用实测结果验证计算结果:分枝数统计结果的最大绝对误差为2,RMSE(root mean square error)为1.03,n RMSE(normalized root mean square error)为0.05;主轴长度,主轴最大/最小直径,最大穗冠高度和最大穗冠直径的R~2分别为0.99,0.82,0.83,0.97和0.93,均达到极显着相关水平。研究提出的相关表型参数和其提取方法在育种研究中具有应用潜力,为田间高通量雄穗信息的快速提取提供了参考。(本文来源于《农业工程学报》期刊2018年11期)

李涛涛[5](2018)在《多视觉线结构光高精度叁维信息提取技术研究》一文中研究指出道路是城市中重要的基础设施。近年来,地下空间的不断开发利用,不仅导致路面破损,同时造成路面坍塌,严重影响城市交通安全。根据北京市交通委提供的路面坍塌事故统计结果显示,北京市80%的路面塌陷事故由地下排水管道失效引起,管道失效诱发路基病害,为此中国矿业大学(北京)和北京公联洁达公路养护工程有限公司承担了北京市交通委重点攻关课题“北京市城市道路路基病害快速检测技术的研究与应用”,结合课题本论文针对路面破损及地下排水管道的本体病害进行叁维信息提取技术研究。现有的信息提取技术无法满足路面破损和地下排水管道病害高精度、量化检测的需求。现有的主要检测方法及存在不足如下:(1)病害检测方法以视频法为主,人工判读破损或病害,无法获得到其量化信息;视频成像受外界干扰严重,检测效率低下、精度不高。(2)路面的叁维检测以激光雷达和多线结构光为主,激光雷达成本较高,全车道检测的精度偏低,对路面精细裂纹检测效果差;多线结构光由于未能有效限制曝光时间、环境光照、路面材质对测量精度影响,而无法实现高精度检测。(3)排水管道的叁维检测由于受空间和环境的限制,目前还没有有效的方法。针对上述问题,本文对路面及地下排水管道线结构光高精度叁维信息提取技术进行了研究,以期为排水管道和路面高精度检测提供技术保障,为路面破损和管道本体病害的量化评价提供精准数据支撑。主要的研究工作及创新点如下:(1)针对现有路面叁维测量无法同时满足大范围、高精度问题及排水管道叁维检测缺乏有效方法的现状,本文提出了一种多视觉线结构光大尺度高精度测量新方法。新方法研究首先在分析现有单、多线结构光测量模型存在问题的基础上,分别构建了用于排水管道和路面检测的多视觉线结构光测量模型。针对所构建测量模型,提出基于图像拼接的多视觉线结构光测量方法,该方法先将所有相机光条图像统一拼接到主相机成像坐标系上,再基于主相机的透视变换模型完成拼接光条的坐标转换。在拼接方法研究中,首先利用图像熵、局部对比度、光条中心质量研究了光条图像特性;之后结合光条图像特性分析和经典图像配准方法实验,排除了通用拼接方法对光条图像拼接的可行性;最后利用相邻相机图像拼接不变的“单应性关系”,研究了基于拼接透视变换模型(Perspective Transformation Model for Image Stitching,PTMIS)的多视觉光条图像拼接方法。利用相邻相机公共视场的二维棋盘格图像,以棋盘格角点为匹配特征点,标定得到传感器的PTMIS。所提方法与其它叁种方法对高精密齿条测量实验结果表明:同尺度测量时,所提方法精度最高;同精度测量时,所提方法测量尺度大,最大约为其它方法的2.2倍。水泥路面模型测量对比实验表明:本文方法具备较高的测量准确性和精度,测得模型与真实模型平均构造深度偏差仅为8.3%,低于其它方法。(2)曝光时间是影响结构光测量精度的主要原因之一,路面和排水管道在不同光照条件下需设定不同的曝光时间来保证测量精度,现有曝光时间设定主要以人工经验为主,缺乏科学依据,为此本文构建了基于光条置信度评价的线结构光传感器曝光时间优化模型,以获取不同光照条件下的最佳光条成像所需最优曝光时间。在介绍光条产生、成像原理及分析光条置信度评价依据的基础上,结合光条截面能量高斯分布的特点,改进得到新的高斯置信度评价模型。针对曝光时间优化所需系列图像的光条中心快速、精确提取问题,利用图像间的极大相关性和低曝光图像LSROI(Light Stripe Region of Interest,LSROI)的梯度分布图,研究了系列图像光条中心提取算法。基于高斯置信度评价模型对系列图像的光条提取中心进行置信度评价,研究了曝光时间对置信度评价能量和评价灰度的影响机理,由信度评价结果随曝光时间的变化模型得到最佳的曝光时间。基于曝光时间优化模型,形成了水泥路面在20lux-400lux光强下的最优曝光时间曲线。200lux光强下的高精度齿条和水泥路面模型测量实验结果表明:曝光时间优化后的测量更准确,单光条测量平均残差平方和约为0.03mm~2,测得水泥路面模型与真实模型平均构造深度偏差仅为9.8%。80lux、200lux、300lux光强下的水泥路面模型测量实验结果表明:不同光照条件下,以各自优化曝光时间测量的结果都具有较高的精度,与真实模型的平均构造深度偏差几乎相等(10.4%、9.8%、9.6%)。(3)排水管道和路面不同的表面材质和光照条件有不同的光条成像质量,现有算法对不同质量光条图像无法同时实现光条中心的精确提取,而影响最终测量精度,为此本文提出了基于高斯-洛伦兹分峰拟合的光条中心提取算法。首先根据光条成像质量的不同将光条分成四类;引入四种传统光条中心提取算法分别用于四类图像的光条中心提取,比较提取效果及算法性能。在此基础上进一步开展本文算法研究,首先构建了光条截面的能量模型,分析了四类光条截面的能量模型组成;依据能量模型的组成特点,构建了高斯-洛伦兹分峰拟合模型,模型包含高斯主峰和洛伦兹次峰两部分,分别用于拟合能量模型中的主分量和次分量;最后采用灰度重心法对去洛伦兹次分量的光条进行中心提取,得到精确的光条中心。为保证提取精度和效率,提取前对光条图像进行了归一化处理,自动提取出LSROI,并设定了拟合模型的初始参数。对比实验表明:本算法对不同质量光条的中心提取效果最好,提取中心的平均置信度值均大于其它方法,但整体耗时较长。然而对强漫反射和强镜面反射图像而言,其提取耗时优于当前提取效果最好的Steger算法。(4)为验证研究内容的可行性和有效性,本文基于室内排水管道模型和实际路面开展了多视觉线结构光高精度叁维信息提取的应用实验研究。开发了应用实验的系统平台,研制了由测量探头、直线导轨滑台、补偿信息采集模块和通讯模块组成的硬件系统,开发了由探头控制模块、图像采集模块和图像后处理模块组成的软件系统。构建了室内地下排水管道模型,模型管壁上模拟构造出了五类排水管道缺陷。开展了管道模型和实际水泥、沥青路面的叁维信息提取应用实验,应用实验完整、精准地获得管壁、路面叁维信息。验证了本文所研究大尺度高精度测量方法、曝光时间优化模型和光条中心提取算法在排水管道和路面高精度叁维信息提取中的有效性。(5)针对排水管道内壁异己物干扰信息影响管壁自身信息的准确性和后续管道评价的可靠性问题,本文提出了基于渐变形态滤波器的异己物干扰信息去除方法。该方法将数学形态学滤波思想应用于异己物剔除中,通过设定一维线性滤波窗口,经开、闭运算实现异己物信息去除。针对异己物尺度多变问题,设计了滤波窗口尺度渐变的形态滤波器。为避免管壁自身信息被误去除,向滤波器添加高差阈值条件,用于滤波时对异己与自身信息的判定。结合管壁自身与异己物的几何特点,研究了滤波器参数的求解方法。排水管道叁维信息的异己物去除实验验证了所提方法的有效性。该方法同样适用于路面异己物干扰信息去除。本文对多视觉线结构光高精度叁维信息提取技术的研究取得了的阶段性研究成果,但有待研究的内容还很多,如叁维信息的快速提取、破损的自动识别等。(本文来源于《中国矿业大学(北京)》期刊2018-04-02)

朱皓[6](2017)在《视觉跟踪系统中基于人机交互的目标信息提取技术研究》一文中研究指出近年来目标跟踪算法研究已经取得了长足发展,因而也被广泛应用到了现实场景中去,所涉及的视觉系统小到手机、无人机,大到无人汽车、监控系统等等,涉及了不同的跟踪目标和应用场景。跟踪算法从理论研究到现实应用的嫁接过程也遇到了各种问题,初始化信息的获取就是其中之一。在理论研究中,跟踪算法初始化时所用的目标信息来自于所用视频集中的人工标注。但实际视觉系统所在的真实场景中没有现成的人工标注,初始化信息需要通过目标检测或者人工交互的方式来给定。基于目标检测给出初始目标的方案具有局限性。其中基于模型的针对特定目标或特定类别物体的检测算法需要已知目标模型或者已有足够多的样本来训练模型;而基于背景差分、目标轮廓特征、图像显着性等技术的通用目标检测算法往往对目标的运动状态、场景的混杂程度有着特殊的要求。因此在目标种类多样、场景复杂多变、跟踪需求不一的现实视觉跟踪系统中,手工提取目标仍然是不可缺少的方案之一。但是一直以来都鲜有视觉跟踪系统中基于人工交互来提取初始目标的相关研究,人机交互既缺乏数据基础和理论分析,也没有针对其中问题的系统性解决方法。为了填补这一空白,本文收集并建立了实际场景下的人机交互数据集,提出了全新的基于人机交互的初始目标提取方法,同时为了实现这这些方法在多个研究方向上进行了算法创新。本文收集并建立了首个公开的人机交互输入数据集。由于视觉系统的应用范围极广、输入规则不同、交互环境有异,本文征集了多名测试用户,设计了叁种不同的交互规则,收集了两种不同的交互操作信息,同时用于收集交互数据所用的视频均拍摄于实际视觉系统,包含室内室外、白天夜晚、行人车辆等不同的场景和目标。目前为止数据库规模超过了20000多个有效的人机交互输入。基于该数据库,本文进一步对人机交互输入进行了建模,分析并讨论了影响交互输入精度的主要原因,并按照视频特点和交互难度对视频数据集进行了分类,为后续算法的提出和测试提供了数据基础。从本文建立的人机交互输入数据集中可以清晰的看到,人机交互操作在众多场景下的低精度输入和跟踪算法初始化时的高精度需求之间存在着矛盾。针对这一问题,本文提出了叁种操作复杂度和输出精度不同的人机交互初始化方法。本文提出了一种通过人工输入的单次点击自动恢复出目标区域的人机交互方法,其核心为本文提出的一种融合类目标采样(Object Proposal)和显着性特征(Saliency)等底层图像信息的通用目标检测算法。其中类目标采样算法的任务是从图像中检测所有可能包含物体的图像窗口,基于底层图像特征的特性使得其采样输出会在完整的物体轮廓周围聚集,本文利用这一特点实现了不依赖先验目标模型的通用目标检测。算法的输入为一个针对待跟踪物体的人工点击,通过融合类目标采样窗口、图像显着性信息、以及前文数据集中得到的人工交互输入分布模型,在减小交互输入误差的同时自动恢复出待选目标区域。本文算法使得目标提取过程仅需一次人工点击就可完成,操作复杂度低,适用于需求快速响应的系统环境,同时由于不依赖先验目标模型,该算法可用于任意目标的检测。实验表明本文算法灵活有效,可以大幅度的提高人工交互输入的精度,实现了基于单次点击输入的目标区域提取方法。本文提出了一种基于视频稳定的通过人工拖选提取目标区域的人机交互方法,其核心为基于目标运动轨迹的视频稳定算法。传统视频稳定方法需要估计摄像机的运动模型以进行图像变换,稳定后的视频中场景和目标均实现平滑的运动。但是对于人机交互来说,在视频抖动之外目标本身的运动同样会造成输入精度的降低。因此本文通过估计待选目标的运动轨迹来作为视频稳定的依据,与传统的视频稳定技术只消除摄像机抖动相比,本文算法同时消除了相机抖动以及待选目标在交互界面上的相对运动,使得待选物体相对于交互界面保持静止,极大的方便了更为复杂的交互输入。实验表明本文方法可以有效的消除视频抖动和目标运动,基于该算法人机交互操作得以给出精确的目标区域,使得复杂场景下精确信息的提取成为了可能。本文提出了一种基于在线视频分割的精确目标区域选取方法,其核心为本文提出的一种视频超像素分割算法,与传统方法相比本文算法提出了“支持超像素组”的概念来处理遮挡。视频超像素与图像超像素间的不同在于超像素区域会在视频序列中传播。基于视频超像素分割可以得到任意超像素在其他帧中的对应位置,因此人机交互时可以通过点选目标包含的超像素来得到其他帧中对应的精确区域。传统视频超像素方法因为没有考虑遮挡前后的超像素配准从而会导致轨迹中断,“支持超像素组”利用超像素间的轨迹相似性、基于隐形状模型和广义霍夫投票的方法来估计被遮挡的超像素位置。实验证明本文提出的视频超像素算法可以有效的对抗遮挡,延长超像素轨迹长度,基于此算法的人机交互方法可以得到更加灵活、更加精确的目标信息。(本文来源于《北京理工大学》期刊2017-06-01)

陈国锋[7](2017)在《工业机器人智能打磨视觉系统中铸件飞边信息提取关键技术研究与应用》一文中研究指出随着社会工业化的不断深入,越来越多的机器人被运用到工厂当中,但是采用人工对铸件进行清理打磨比例仍然很大并且以传统的锤击和普通砂轮机研磨方式为主,这样不仅加重了企业的负担,与此同时恶劣的打磨环境对工人的身体健康也造成了巨大的危害。因而研究智能打磨视觉系统相关技术具有重要意义。本文重点研究铸件生产线中工业机器人智能打磨系统的关键视觉处理技术,利用视觉图像处理,感知铸件飞边的位置与大小,为工业机器人运动控制提供参考,以提高机器人的工作效率与安全可靠性。但是工业铸件生产线生产条件非常恶劣,而且目前铸件行业利润较低,为了降低成本,视觉系统采用低端摄像机,这样给本文的研究带来较大的挑战。本文的研究内容主要包括以下几点:1.本文在对铸件飞边的提取中,主要考虑使用铸件具有丰富几何边缘的特性,同时考虑实际工作中的恶劣环境。首先,对成熟算子进行筛选,在此基础上,设计了一种铸件边缘检测效果的评价指标。该指标从漏检率和最小方差这两个方面进行边缘检测效果的评价。其次,利用本文设计的铸件边缘检测评价指标进行实验,记录实验数据并与主观评价进行比较。实验结果表明,该指标与人为主观评价结果是一致的,这为生产线视觉识别飞边位置与大小提供了可靠性保障。2.本文在上一步骤边缘检测的基础上,提出了针对铸件几何空间优化的方法。在复杂的工业应用环境中,经过边缘检测的铸件图像,包含大量的干扰信息以及很多有效的几何信息,为了获得更加准确的匹配,使下一步对飞边的检测更加准确,本文利用线分叉度以及周长大小等几何特征,实现针对铸件几何空间的优化。具体应用上,本文利用SIFT算法和SURF算法对铸件图像特征点进行提取和配准,分析了两种算法对铸件特征配准的效果;并且根据铸件图像的几何边缘特征,进行几何空间优化,去掉了背景中的特征点干扰,使特征点更加集中在铸件上;最后,本文再将铸件图像进行全局和局部处理。实验表明,利用几何优化富集特征点后,可以进行局部处理进而获得更加精准的匹配结果。3.本文利用以上的分析结果,设计了一个图像空间到物理空间的处理流程,实现了对铸件飞边提取。首先,利用标准铸件的标定图像标定出敏感区域与设定加工基准线,对待打磨的铸件图像进行图像匹配、图像飞边边缘检测、飞边边缘几何空间优化、飞边边缘位置搜索,再利用标定的参数,将图像飞边位置映射到物理空间,最后,把视觉飞边提取的结果,应用到工业机器人智能打磨系统中,试验表明,通过视觉的飞边位置感知,可以有效降低工业机器人与铸件的冲击力度。(本文来源于《广西大学》期刊2017-06-01)

王淦[8](2017)在《基于双目视觉的深度信息提取方法的研究》一文中研究指出随着处理器计算能力的发展以及数字图片处理技术的完善,作为一个多学科交叉领域,双目立体视觉已经成为计算机研究的热门领域。把双目立体视觉基础概念和理论方法作为出发点,将双目立体视觉广泛运用在空间几何尺寸的精确定位和测量,这样便产生出一种新的概念——视觉测量。其应用正逐渐渗透到航空航天、军事装备、生物医疗、目标识别、装备制造、工业测量和自动化控制等诸多领域。双目立体视觉测量的全过程包括摄像机标定、图像获取、图像的预处理、特征提取与匹配、深度信息提取等主要阶段。本文以双目立体视觉技术为基础,图像预处理、特征点提取、立体校正、立体匹配、深度信息提取等关键技术进行了理论和实验的研究,针对常用算法进行比较分析,并提出了符合实际应用的几点改进方法。本论文的主要工作内容如下:1、在现有算法的基础上,设计了一套适合本系统的图像预处理方法,去除掉在图像获取中携带的噪音和背景干扰信息,使目标物体的有用信息更加突出。本文描述了相机的成像模型、坐标系之间的转换关系、相机的内外参数,重点研究了张正友的棋盘格标定法,深入的学习了摄像机标定原理,并在实验条件许可的情况下选取精度较高且操作简便的张氏标定方法,完成了双目立体测量系统内外参数的标定,实现了高精度的摄像机标定。2、针对无法得到相机内外参数情况下的立体图像校正,本文研究了Hartley校正算法,该方法需要计算求解对极几何的数学表达式即基础矩阵,而基础矩阵的精确求解关键在于匹配点对的精确配对,因此改进了基础矩阵的精确求解方法,利用基于Harris-SIFT结合的特征点提取并匹配,该特征点能够降低算法的运算时间和错误匹配率,直观的表征出图像的结构特征信息。最终从算法时间、误匹配率等方面对比Harris-SIFT特征点提取以及SIFT特征点提取的结果,结果表明Harris-SIFT特征点能够提高匹配准确率,从而提高基础矩阵的计算准确性,最终提高校正算法的效率。3、研究了图像匹配所需的约束准则、匹配基元、匹配策略。重点研究了GC,BM,SGBM叁种立体匹配算法,从对标准图像对的匹配结果的误匹配率以及计算时间对比叁种方法,最终选取在算法时间和准确率方面都符合实际应用的SGBM算法。最后介绍了深度信息提取原理以及深度信息精确求解方法,并通过对实际情况下的目标图像对进行预处理、特征点提取、立体校正、图像匹配、深度信息提取等实验验证上述测量过程的可行性。(本文来源于《哈尔滨工程大学》期刊2017-05-16)

靳太明[9](2017)在《基于双目视觉的运动目标深度信息提取方法研究》一文中研究指出基于立体视觉的深度感知技术,工作原理是获得场景中不同位置图像中的映射点所对应的视差关系,结合相机标定参数获得该空间点的深度信息。深度感知技术作为一种智能视觉测量技术,已经成为计算机视觉的研究热点。经过几十年的研究与发展,立体视觉、运动估计、叁维信息测量和叁维表面重建技术,已成功应用于工业界,市面上已有许多成型的产品。本文使用立体视觉的深度信息测量方法,借助廉价的实验设备,实现了运动目标的深度信息提取系统。论文的主要研究工作如下:1、介绍了运动目标信息的获取方法,并整合了一种运动前景分割算法:首先使用混合高斯模型检测出初始运动(前景)目标,然后整合了基于纹理特征与色度特征的阴影检测策略,检测并去除前景中的阴影像素点,得到准确的前景目标,最后结合跟踪算法确定运动目标的完整信息。2、介绍了立体视觉的基本理论,包括相机成像模型及坐标系转换关系、立体视觉的深度信息恢复模型、对极几何原理以及立体匹配中的基本约束关系。研究并实现了双目相机参数标定算法,包括单目相机参数标定(求解相机内参数)、立体相机参数标定(求解相机外参数)和立体图像校正。3、研究了一种基于多特征融合与代价修正的视差计算方法,并研究了基于置信度策略的视差优化方法。计算匹配代价:本文采用两阶段求解策略计算初始代价体:首先组合多种特征计算初始匹配代价,通过加权融合方式计算得到初始代价体;然后使用特征点代价来修正初始代价体,提高计算精度。初始视差计算:基于物体边缘特征和像素灰度特征,使用贪婪算法构建稳定的最小权重生成树结构,进行匹配代价聚合优化以求取像素点初始视差。视差优化:基于最小生成树结构进行置信度聚合与传播来修正错误的视差,得到精确的视差值。4、介绍了多尺度策略与倾斜面优化匹配算法,研究了一种基于平面参数估计与多尺度的立体匹配方法。通过构建视差平面参数模型与初始化,使用多尺度策略计算匹配代价,利用随机搜索算法优化视差模型参数,得到像素点最优视差。5、研究了运动目标深度提取方法,设计了基于双目视觉的运动目标深度信息提取技术系统,包括平行双目采集设备和计算机处理软件两部分。基于MFC设计的UI界面,用户可以方面的运行系统软件,得到运动目标的深度信息。(本文来源于《电子科技大学》期刊2017-05-02)

李亚伟[10](2017)在《基于视觉技术的道路交通信息提取方法研究》一文中研究指出为了解决城市交通快速发展所衍生的各种问题,智能交通系统成为国内外研究的重点。全面、准确、实时的交通信息能够为智能交通系统建设提供数据支持,是交通疏导、路网规划以及行人制定出行路线的决策依据,如何快速、有效的进行交通信息提取是制约智能交通系统发展进程的关键因素。本文重点针对交通信息的提取方法展开研究。与传统的交通信息提取方法相比,基于计算机视觉技术的交通信息提取方法因其具备设备安装维护方便、成本低等优点,成为了智能交通领域的热门课题。但由于光照产生的车辆阴影以及车辆检测中的鬼影会极大地降低检测精度,信息提取方法中常用的虚拟线圈大多需手动设置且参数难以确定等问题,使基于视觉技术的交通信息提取方法应用仍有一定局限性。本文针对以上缺陷与不足展开研究,主要成果如下:(1)针对车辆检测中的阴影问题,提出了一种基于主成分分析法的交通视频车辆阴影消除算法。该算法具有较高的鲁棒性,对交通场景无特殊要求,无需前期训练和人工干预;引入主成分分析法,极大的降低了运算复杂度;与传统阴影消除算法相比较,本文算法阴影消除综合指数提高10%以上,运算效率提高30%以上。(2)针对车辆检测中的鬼影问题,以实时性较高的ViBe算法为基础,提出了一种V-ViBe算法。该算法通过构造“虚拟”背景图像,改变传统ViBe算法初始背景模型建立方法,从源头上抑制鬼影的产生;利用形态学相关知识完善检测目标;实验表明,本文算法精确度、召回率、误检率等六项性能指标均优于原ViBe算法。(3)在信息提取阶段,利用车道线颜色在(4(7空间的突出特征以及霍夫变换原理提取车道线;根据车道线在图像中的形变系数设置与车道形状相吻合的虚拟线圈;结合本文车辆检测算法,提取交通监控视频交通信息参数。(本文来源于《山东理工大学》期刊2017-04-10)

视觉信息提取论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

在焊接过程中实时获取当前的熔透状态是进行焊接熔透控制的基础,在TIG薄板单面焊双面成形焊接工艺中,熟练的焊工可以根据熔池、熔孔形态判断出当前的熔透状态,从而调整焊接速度、焊枪倾角等保证焊缝熔透而不发生焊穿。可见,熔池、熔孔形态包含了大量的熔透信息,但是目前仅在手工焊接时利用了熔孔现象,为了实现自动化焊接中的熔透控制,有必要对熔池、熔孔形态以及动态行为进行研究。本文搭建了薄板TIG单面焊双面成形实验平台。设计了1064nm窄带滤光片和中性减光片组成的复合滤光系统,有效的滤除了弧光干扰,获得了清晰的熔池、熔孔图像。利用近摄接圈提高了图像尺寸,增加了图像的清晰度。针对3mm厚Q235碳钢板开展预留间隙对接焊实验并采集焊接过程中的图像和电参数。设计图像处理算法,获取了熔池、熔孔边缘。对于熔孔图像,以熔孔最大宽度和熔孔长度作为其特征值,分析了熔孔在不同的焊接速度下的失稳形式。按失稳时的熔孔长度与宽度的大小,将失稳形式分为横向失稳、纵向失稳以及整体失稳。同时研究了熔滴过渡频率与熔孔稳定性之间的关系,当熔滴过渡频率为5HZ时,相对于1HZ,熔孔的尺寸稳定性获得了极大提升。通过控制送丝速度、熔滴过渡频率和电流的匹配,实现了低碳钢预留间隙对接焊在100A下熔孔稳定存在和全熔透。针对熔池图像,以熔池尾部轮廓角以及熔池半长作为其特征值,研究了熔池形状与熔透之间的关系。其他参数不变,变电流实验的结果表明,即使在不同的对接间隙下,未熔透时尾部轮廓角均较大,在140°以上,同时熔池半长较短,在5mm以下;过熔透时熔池尾部轮廓角均较小,在65°以下,熔池半长在7mm以上;当熔池尾部轮廓角在80°~120°范围内时,工件熔透良好,当熔池尾部轮廓角在100°附近,熔透效果最好,此时熔池半长在6mm左右。设计了变对接间隙实验,利用熔池尾部轮廓角及熔池半长成功判断出了焊接过程中的熔透状态变化。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

视觉信息提取论文参考文献

[1].李小艳,杨帅,刘玥,管红梅.机器人用双目视觉的深度信息提取[J].科技创新导报.2019

[2].桂喜雨.填丝TIG焊接过程视觉检测及熔透信息提取[D].山东大学.2019

[3].彭捷斐.基于视觉信息挖掘的遥感影像农业信息提取方法研究[D].南京航空航天大学.2019

[4].韩东,杨贵军,杨浩,邱春霞,陈明杰.基于立体视觉的玉米雄穗叁维信息提取[J].农业工程学报.2018

[5].李涛涛.多视觉线结构光高精度叁维信息提取技术研究[D].中国矿业大学(北京).2018

[6].朱皓.视觉跟踪系统中基于人机交互的目标信息提取技术研究[D].北京理工大学.2017

[7].陈国锋.工业机器人智能打磨视觉系统中铸件飞边信息提取关键技术研究与应用[D].广西大学.2017

[8].王淦.基于双目视觉的深度信息提取方法的研究[D].哈尔滨工程大学.2017

[9].靳太明.基于双目视觉的运动目标深度信息提取方法研究[D].电子科技大学.2017

[10].李亚伟.基于视觉技术的道路交通信息提取方法研究[D].山东理工大学.2017

标签:;  ;  ;  ;  

视觉信息提取论文-李小艳,杨帅,刘玥,管红梅
下载Doc文档

猜你喜欢