功能覆盖“感知-建图-导航-决策-验证”全流程,每一项都贴合教学与科研痛点,兼顾实用性与前沿性,让实验更高效、更精准。
车辆内置两种自动驾驶模式,可由用户自主切换,完美适配不同实验场景:自主定位导航模式,依托平台自研高精度定位算法,实现自主定位与路径规划;外部高精度定位导航模式,搭配外部定位设备,进一步提升定位精度。两种模式协同,可确保隧道、弯道、遮挡等复杂场景下的轨迹稳定性,解决复杂场景定位难题。
基于车载激光雷达、编码器、IMU多设备协同,实现实时高精度建图,无需人工干预即可完成环境地图构建。支持至少三种建图算法,可满足不同科研需求,让学生直观理解SLAM技术原理,助力科研团队开展建图算法优化与创新研究,为自动驾驶定位导航提供坚实基础。
搭载视觉传感器、激光雷达等多模态感知设备,可自主识别红绿灯、锥桶、车道线、行人及周边车辆等交通设施,自动生成避障策略,实现自主避障。同时支持Wi-Fi/5G与路侧单元互联,融合多源交通信息,打破单车感知盲区,模拟真实车路协同场景,适配车路协同相关教学与科研需求。
采用环境感知、路径规划、决策控制的多分层智能决策机制,涵盖中央协同调度、基础驾驶(自主跟车、车道保持)及高阶驾驶功能,是智能车完成复杂驾驶任务的核心支撑。可快速规划最优行驶路径,动态调整避障策略,驱动线控底盘精准执行指令,兼顾技术先进性与教学适配性,让学生清晰掌握决策与执行的逻辑的流程。
内置ROS、Autoware、PyTorch等主流开发框架,支持嵌入Python脚本二次开发,灵活适配不同算法研发需求。可同时支持6+车辆开展自动驾驶编队实验,实现多车协同行驶、路径协同规划等复杂场景实验,为算法验证、多车协同技术研究提供高效载体,助力科研团队快速推进技术迭代。