从开发套件出发,手把手教你如何实践Apollo自动驾驶技术,给对自动驾驶研究感兴趣的开发者带来实质帮助,加速每一位开发者的研发进程。本文将介绍 基于双目感知的封闭园区自动驾驶搭建–感知适配。主要从以下几点为大家进行详细讲解:
- 前提条件
- 修改配置文件
- *感知开环验证及测试
正确完成了《循迹搭建–车辆循迹演示》
序号 待修改文件 修改内容
1modules/common/data/global_flagfile.txt
添加
–half_vehicle_width=0.43
把车辆开到户外,手动控制车辆,看感知是否有数据。
1、进入docker环境,编译apollo,启动DreamView。
cd /apollo
bash docker/scripts/dev_start.sh
bash docker/scripts/dev_into.sh
bash apollo.sh build_opt
bash scripts/bootstrap.sh
2、在浏览器中打开(http://localhost:8888), 选择Dev_Kit并选择相应高精地图,在Module Controller标签页启动GPS、Localization、Camera、Transform模块。
3、在Docker中输入cyber_monitor命令并检查以下Channel(使用上下方向键选择Channel,使用右方向键查看Channel详细信息。关于cyber_monitor更详细使用,请参考Apollo Cyber RT开发者工具):
channel_name 检查项目
/apollo/localization/pose确保能正常输出数据/apollo/sensor/gnss/best_pose确保能正常输出数据,sol_type: 选项显示为NARROW_INT/apollo/sensor/smartereye/image确保能正常输出数据,帧率稳定在15HZ左右/apollo/sensor/smartereye/image/compressed确保能正常输出数据,帧率稳定在15HZ左右/tf确保能正常输出数据/tf_static确保能正常输出数据
4、在DreamView的Module Controller界面点击ThirdPartyPerception按钮,使用cyber_monitor查看/apollo/perception/obstacles是否正常输出,并在DreamView上查看障碍物信息。查看车前方运动的人或者自行车(自行车上要有人),在DreamView上查看障碍物颜色以及位置速度信息(自行车青蓝色,行人黄色,车辆绿色),如下图所示:
/apollo/perception/obstacles的数据如下图所示:
如果在DreamView上能看到障碍物并且/apollo/perception/obstacles有障碍物信息,则开环测试通过。
- 《基于双目感知的封闭园区自动驾驶搭建–感知适配》
https://github.com/ApolloAuto/apollo/blob/master/docs/D-kit/Third_Party_Perception/perception_configuration_cn.mdOriginal: https://blog.csdn.net/weixin_41888295/article/details/124269643
Author: 百度_开发者中心
Title: 技术文档|基于双目感知的封闭园区自动驾驶搭建–感知适配
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/598344/
转载文章受原作者版权保护。转载请注明原作者出处!