环境感知是无人车夜间行驶中的一项关键任务,提出一种改进的YOLOv3网络,以实现夜间对无人车获取的红外图像中行人、车辆的检测,将判断周边车辆的行驶方向问题转化为预测车辆位置的角度大小问题,并与深度估计信息进行融合对周边车辆行驶的距离和速度作出判断,从而实现夜间无人车对周边车辆行驶意图的感知。该网络具有端到端的优点,能实现整张图像作为网络的输入,直接在输出层回归检测目标的边界框位置、所属的类别和车辆的角度预测结果,并和深度估计信息融合得到周边车辆的距离和速度信息。实验结果表明,使用改进的YOLOv3网络对夜间无人车获取的红外图像进行目标检测的时间为0.04 s/帧,角度和速度预测效果较好,准确性和实时性达到了实际应用要求。
类型: 期刊论文
作者: 裴嘉欣,孙韶媛,王宇岚,李大威,黄荣
关键词: 红外图像,目标检测,网络,角度预测,深度估计
来源: 应用光学 2019年03期
年度: 2019
分类: 基础科学,工程科技Ⅱ辑,信息科技
专业: 汽车工业,计算机软件及计算机应用
单位: 东华大学信息科学与技术学院,东华大学数字化纺织服装技术教育部工程研究中心
基金: 上海市科委基础研究项目(15JC1400600),国家青年自然科学基金(61603089),上海市青年科技英才扬帆计划(16YF1400100)
分类号: TP391.41;U463.6
页码: 380-386
总页数: 7
文件大小: 2316K
下载量: 578
本文来源: https://www.lunwen90.cn/article/d1954d164e709134da175495.html