导读:本文包含了位姿测量论文开题报告文献综述及选题提纲参考文献,主要关键词:机器视觉,特征靶标,目标识别,圆识别
位姿测量论文文献综述
罗小依,张莉君,贺晓斌,张琴,施英莹[1](2019)在《空间交会对接位姿测量中特征靶标快速识别》一文中研究指出空间交会对接中,需实时测量追踪航天器上视觉传感器与目标航天器上特征靶标之间的位姿,而其前提是快速、准确识别特征靶标。提出一种四同心圆环特征靶标的快速识别算法。该算法首先使用优化的Otsu算法进行图像分割,然后采用连通域识别方法进行轮廓提取,最后根据圆的周长与面积的关系确定圆轮廓,并采用最小二乘法进行圆拟合,提取特征圆心。通过实验对方法进行验证,结果表明,该方法能在2 m距离内准确、快速识别特征靶标,且与优化前算法相比,该方法运算效率提升了近10倍。(本文来源于《电子技术应用》期刊2019年10期)
王锦清,赵融冰,虞林峰,江永琛,蒋甬斌[2](2019)在《基于干涉全息法测量射电望远镜主面重力变形和副面位姿》一文中研究指出本文围绕天马65 m (TM65 m)射电望远镜主面重力变形和副面位姿展开实测研究.论文先概述了主面测量的方法,主要讨论了基于微波全息法的测量方法和天线扫描方法,然后论述了采用Very Long Baseline Interferometer (VLBI)测量65 m主面各俯仰角的重力变形,对测量误差进行了评估,进而构建了重力模型,并与仿真结果进行了比较,两者变化趋势一致.同时,推导并仿真了主焦馈源、副面位姿偏移和口径面相位的解析关系,然后基于该解析关系和VLBI测量得到的口径面相位数据,并采用最小二乘法解算得了实际TM65 m副面位姿随俯仰的变化情况,该测量结果在叁维方向上与传统基于主动副面的幅度扫描法结果一致性强,该方法为测量副面位姿提供了不同于传统法的可行途径.(本文来源于《中国科学:物理学 力学 天文学》期刊2019年10期)
祝凯旋,于复生,张华强[3](2019)在《基于陀螺仪的水下机器人位姿测量系统研究》一文中研究指出为了检测水下机器人在海里位姿状态变化的问题,研究了基于陀螺仪的水下机器人位姿测量系统。系统由水下机器人、Arduino UNO控制板、MPU6050陀螺仪和USB-TTL转换元件组成,采用Arduino UNO作为系统控制器。通过MPU6050陀螺仪采集水下机器人位姿信息,经过Arduino UNO控制器的信息处理,以及USB-TTL转换元件的信号转换和传输,经MiniIMU上位机的数据显示,通过对数字信号进行严密的数学推算,最终实现对水下机器人位姿的测量并通过上位机对水下机器人位姿进行动态显示。(本文来源于《机电技术》期刊2019年04期)
杜福洲,吴典[4](2019)在《面向大尺度产品对接的位姿测量模式研究与应用》一文中研究指出位姿测量作为大尺度产品对接过程的关键环节,具有方法多样、理论复杂的特点。依据不同的测量原理划分位姿测量模式,并研究各类测量模式的特点,有助于从理论上分析位姿测量过程,对位姿精确测量具有重要的意义。首先,结合大尺度产品对接过程将部件的位姿划分为绝对位姿与相对位姿;其次,通过分析相对位姿的测量原理,开展位姿测量模式的研究,提炼出3种基本的位姿测量模式,并以此为基础衍生出3种复杂的位姿测量模式;最后,结合具体的相对位姿测量案例对位姿测量模式进行了应用研究,为大尺度产品对接任务中位姿测量方法的选择与优化提供了理论依据。(本文来源于《航空制造技术》期刊2019年15期)
郭胜君,赵祚喜,张智刚,谈婷,冯荣[5](2019)在《基于单目高速相机的平地铲位姿参数动态测量方法》一文中研究指出为研究水田激光平地机动力学模型,提高控制算法精度,优化机械结构设计,提出一种基于单目高速相机的平地铲位姿参数动态测量方法。该方法利用直接线性变换(Direct linear transformation,DLT)分别建立单目相机与平地铲局部坐标系、单目相机与平地铲台架之间的对应关系方程,通过高斯-牛顿迭代法间接求解出平地铲上两个坐标系之间的转换关系,从而实现平地铲空间位置和姿态角的测量。利用单目高速相机进行了试验验证,并与AHRS(Attitude and heading reference system)传感器进行数据对比。试验结果表明:本文方法可以实现平地铲的位姿参数测量,与AHRS传感器相比,姿态角平均绝对误差为0. 687°、标准差为0. 543°,最大绝对误差为-1. 92°,出现在平地铲运动到3. 76 s处;测得的质心位置在X、Y、Z轴方向上的变化与平地铲实际运动相符。(本文来源于《农业机械学报》期刊2019年S1期)
温秀兰,康传帅,宋爱国,乔贵方,王东霞[6](2019)在《基于全位姿测量优化的机器人精度研究》一文中研究指出随着机器人在高端制造业、航空航天、医疗等领域广泛应用,对其全位姿精度要求越来越高。采用激光跟踪仪对机器人末端执行器进行全位姿实测,研究基于几何参数标定的机器人精度提升方法。首先,建立了串联机器人(MDH)模型;其次,提出了基于拟随机序列产生初始位置的改进乌鸦搜索算法(ICSA)用于标定机器人几何参数,建立了用ICSA标定机器人几何参数目标函数的数学模型,给出了标定的详细步骤。最后,对Staubli Tx60工业机器人进行了实测标定,结果证实:采用提出方法能够快速标定机器人几何参数,标定后的机器人在工作空间内随机选择的测试点其平均绝对位置和姿态误差由标定前的0. 309 6 mm和0. 232 2°减小为标定后的0. 092 6 mm和0. 082 9°,精度大幅提升。该方法简单易实现,效率高,鲁棒性强,稳定性好,适宜于在位置和姿态均有高精度要求的机器人中推广应用。(本文来源于《仪器仪表学报》期刊2019年07期)
陈晓生[7](2019)在《轮式机器人的末端位姿测量与误差补偿控制》一文中研究指出为了提高轮式机器人控制的稳定性,提出基于稳态跟踪识别的轮式机器人的末端位姿测量与误差补偿控制方法,构建轮式机器人弹性连杆机构的动力学模型,在给定的加速度约束下进行轮式机器人弹性连杆机构的参数辨识,在机器人的运动平面内采用标准卡尔曼滤波模型进行运动姿态参数融合处理,根据轮式机器人的末端位姿进行参数自适应调节,采用比例-微分控制模型进行机器人的末端位姿测量与误差补偿控制,采用多步迭代方法实现轮式机器人的轨迹跟踪和位姿测量,提高机器人的位姿精度。仿真结果表明,采用该方法进行轮式机器人的末端位姿测量的准确性较高,误差补偿控制能力较好,具有较好的稳健性和鲁棒性。(本文来源于《智能计算机与应用》期刊2019年04期)
张嘉旭[8](2019)在《基于深度学习的无人机位姿视觉测量与计算方法》一文中研究指出随着无人机的发展,越来越多的无人机产品出现满足着人们的不同需求。由于无人机飞行控制自动化、智能化等方面日益增长的需求,我们需要准确感知无人机的位置与姿态信息。传统方法通常具有累计误差大、易受外界干扰等缺点,本文通过视觉信号对无人机进行测量不仅能够实现对目标的低成本非接触测量而且能够检测到大量有效信息。为了实现无人机位姿估计,本文使用视觉传感器提取图像中的关键信息对无人机的位置与姿态进行测量与计算。本文首先建立视觉测量的坐标系,并分析摄像机的投影成像原理及其中包含的数学模型。摄像机成像原理和双目汇聚模型是本文进行位姿估计的基础,为求解相机模型参数,使用标定板照片对双目相机的内外参数进行求解。其次,为了从复杂的视觉图像中提取关键坐标信息,提出了一种基于深度学习的双卷积网络关键点预测算法,通过第一个卷积神经网络对关键点检测、基于预测坐标的图像分割以及第二个卷积网络的关键点优化叁个步骤最终输出无人机四个旋翼轴心坐标的信息。为了定位双目相机之间的匹配点,使用基于Faster RCNN的目标检测方法对目标形心进行定位匹配,经过特征图提取、候选区域筛选、ROI池化尺寸修改和损失函数最小化等步骤得到最后的坐标输出。再次,本文使用双卷积网络检测到的4个特征点,输入PNP算法进行计算得到无人机空间姿态信息,通过双目相机间的关系建立双目交汇模型,向模型输入目标检测网络检测到的双目匹配坐标得到无人机的位置信息。最后,将无人机姿态与位置的测量方法合并成为一个系统,并对该位姿检测系统进行了实验测试,实验结果表明该方法具有可行性,能够满足无人机视觉测量的工作。本文创新点体现在提出了一种基于深度学习的视觉关键信息检测方法与传统视觉成像原理相结合的位置与姿态测量与计算方法,该方法能够在无人机自主导航、自主着落、自动避障的领域得到广泛的应用。本研究得到国家自然科学基金面上项目(编号:91646108,61473222)资助。(本文来源于《西安理工大学》期刊2019-06-30)
李振[9](2019)在《基于视觉的自主装配系统轴孔位姿测量研究》一文中研究指出随着科学技术的不断发展,传统制造业已经无法满足用户个性定制化的需求。面对传统制造业转型升级,智能制造引起了人们的关注。搭载视觉的装配机器人使得智能装配成为可能,但是目前智能装配领域的研究满足不了智能装配业的要求。为了进一步提高装配机器人作业定位精度及智能化水平,以典型的轴孔装配为研究对象,本文重点研究基于ETH(Eye-to-Hand)视觉系统标定与机器人抓取位姿确定、基于云台双目视觉系统对受部分遮挡物体的位姿测量和基于EIH(Eye-in-Hand)视觉系统孔位姿测量,具体工作如下:1.基于ETH视觉系统标定与机器人抓取位姿确定。首先,基于ETH视觉系统标定原理,采用张氏标定法和Tsai—Lenz算法分别完成相机标定和手眼标定;其次,对工件轴进行中值滤波、阈值化、亚像素轮廓提取及双母线提取等图像处理,通过双母线四个端点像素坐标确定工件轴基于图像的位姿;最后,利用坐标变换及手眼标定结果实现工件轴图像位姿到机器人基坐标系的转换。实验结果表明,手眼标定的平移部分最大误差是0.669mm,旋转部分最大误差是0.418°。2.基于云台双目视觉系统对受部分遮挡物体的位姿测量。所提方法如下:首先,将物体模板左、右图像分别与受部分遮挡物体右、左图像进行匹配建立两个仿射模型;其次,根据对应的模型分别利用模板关键点的像素坐标去估计受遮挡物体图像与之对应的像素点坐标;基于双目立体视觉重建原理,求解出受遮挡物体上的一些共面关键点的空间坐标;最后,利用所求空间坐标确定其位姿。实验结果表明,所提方法可行有效。3.基于EIH视觉系统孔位姿测量。首先,基于EIH视觉系统标定原理进行相机标定和手眼标定;其次,通过Hough变换提取手眼相机采集的平行方位两孔图像的孔心,并针对孔边缘点匹配不精问题,提出先经SURF+RANSAC匹配估计基础矩阵,之后用基础矩阵进行极线约束匹配孔边缘点的方法;建立平视双目视觉模型,依据视差原理求解孔心及孔边缘点的叁维坐标,根据求解的叁维坐标利用空间向量法求解孔的姿态;最后,利用EIH手眼标定结果,实现了目标孔位姿到机器人基坐标系的转换。实验结果表明,手眼标定最大平移误差是0.792mm,最大旋转误差是0.221¤,机器人对孔位置定位最大偏差是2.44mm。4.双目视觉测量精度验证实验。将棋盘格标定板固定在机器人末端,控制机器人某一关节转动获得多处标定板之间的实际相对转角,利用双目立体视觉测量棋盘格尺寸及标定板法向量的夹角与实际值进行比较。实验结果表明,双目视觉测量精度较高。(本文来源于《西安理工大学》期刊2019-06-30)
杨文娟,张旭辉,马宏伟,刘志明[10](2019)在《悬臂式掘进机机身及截割头位姿视觉测量系统研究》一文中研究指出针对煤矿井下悬臂式掘进机机身及截割头位姿测量难题,提出一种基于激光束和红外光斑特征的悬臂式掘进机机身及截割头位姿视觉测量系统。在掘进工作面的巷道顶部安装3个激光指向仪,通过固定安装在掘进机机身上的防爆相机对激光束图像进行采集,利用改进的随机Hough变换对激光束进行直线检测,通过建立的基于两点叁线的掘进机位姿解算模型得到掘进机机身在巷道坐标下的位姿。同时,通过防爆相机对截割部所安装的红外标靶图像进行采集,利用高斯曲面拟合算法对光斑进行中心定位,通过建立的基于对偶四元数的掘进机截割头位姿解算模型得到截割头在机身坐标系下的位姿,结合得到的机身坐标系与巷道坐标系间的转换关系,得到巷道坐标系下的截割头中心点位姿。最终,在实验室搭建了掘进机机身及截割头位姿视觉测量平台,并在该平台上模拟掘进机的实际工况位姿,结果表明,该方法测得的掘进机截割头中心点在巷道坐标系下的姿态测量误差在0.5°范围以内,位置测量误差在40 mm以内,可以满足掘进机机身及截割头位姿自动、准确、实时测量的要求。(本文来源于《煤炭科学技术》期刊2019年06期)
位姿测量论文开题报告
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文围绕天马65 m (TM65 m)射电望远镜主面重力变形和副面位姿展开实测研究.论文先概述了主面测量的方法,主要讨论了基于微波全息法的测量方法和天线扫描方法,然后论述了采用Very Long Baseline Interferometer (VLBI)测量65 m主面各俯仰角的重力变形,对测量误差进行了评估,进而构建了重力模型,并与仿真结果进行了比较,两者变化趋势一致.同时,推导并仿真了主焦馈源、副面位姿偏移和口径面相位的解析关系,然后基于该解析关系和VLBI测量得到的口径面相位数据,并采用最小二乘法解算得了实际TM65 m副面位姿随俯仰的变化情况,该测量结果在叁维方向上与传统基于主动副面的幅度扫描法结果一致性强,该方法为测量副面位姿提供了不同于传统法的可行途径.
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
位姿测量论文参考文献
[1].罗小依,张莉君,贺晓斌,张琴,施英莹.空间交会对接位姿测量中特征靶标快速识别[J].电子技术应用.2019
[2].王锦清,赵融冰,虞林峰,江永琛,蒋甬斌.基于干涉全息法测量射电望远镜主面重力变形和副面位姿[J].中国科学:物理学力学天文学.2019
[3].祝凯旋,于复生,张华强.基于陀螺仪的水下机器人位姿测量系统研究[J].机电技术.2019
[4].杜福洲,吴典.面向大尺度产品对接的位姿测量模式研究与应用[J].航空制造技术.2019
[5].郭胜君,赵祚喜,张智刚,谈婷,冯荣.基于单目高速相机的平地铲位姿参数动态测量方法[J].农业机械学报.2019
[6].温秀兰,康传帅,宋爱国,乔贵方,王东霞.基于全位姿测量优化的机器人精度研究[J].仪器仪表学报.2019
[7].陈晓生.轮式机器人的末端位姿测量与误差补偿控制[J].智能计算机与应用.2019
[8].张嘉旭.基于深度学习的无人机位姿视觉测量与计算方法[D].西安理工大学.2019
[9].李振.基于视觉的自主装配系统轴孔位姿测量研究[D].西安理工大学.2019
[10].杨文娟,张旭辉,马宏伟,刘志明.悬臂式掘进机机身及截割头位姿视觉测量系统研究[J].煤炭科学技术.2019