论文摘要
机器人采摘荔枝时需要获取多个目标荔枝串的空间位置信息,以指导机器人获得最佳运动轨迹,提高效率。该文研究了大视场下荔枝采摘机器人的视觉预定位方法。首先使用双目相机采集荔枝图像;然后改进原始的YOLOv3网络,设计YOLOv3-DenseNet34荔枝串检测网络;提出同行顺序一致性约束的荔枝串配对方法;最后基于双目立体视觉的三角测量原理计算荔枝串空间坐标。试验结果表明,YOLOv3-DenseNet34网络提高了荔枝串的检测精度与检测速度;平均精度均值(mean average precision,m AP)达到0.943,平均检测速度达到22.11帧/s。基于双目立体视觉的荔枝串预定位方法在3 m的检测距离下预定位的最大绝对误差为36.602 mm,平均绝对误差为23.007 mm,平均相对误差为0.836%,满足大视场下采摘机器人的视觉预定位要求,可为其他果蔬在大视场下采摘的视觉预定位提供参考。
论文目录
文章来源
类型: 期刊论文
作者: 陈燕,王佳盛,曾泽钦,邹湘军,陈明猷
关键词: 机器人,图像处理,目标检测,荔枝采摘,大视场,卷积神经网络,立体视觉
来源: 农业工程学报 2019年23期
年度: 2019
分类: 农业科技,信息科技
专业: 农业工程,自动化技术
单位: 华南农业大学工程学院,华南农业大学南方农业机械与装备关键技术教育部重点实验室
基金: 国家自然科学基金资助项目(31571568),广东省自然科学基金项目(2018A030307067)
分类号: TP242;S225.93
页码: 48-54
总页数: 7
文件大小: 924K
下载量: 389