"); //-->
在自动驾驶技术飞速发展的当下,一套兼顾 “实战开发” 与 “教学实训” 的智能小车方案,成为高校、职业院校及科研机构的核心需求。
今天,康谋带来的 ROS 智能驾驶小车整体方案,不仅具备专业级的硬件配置与软件架构,更配套完整的实训教学平台及教学资源,从 “硬件落地” 到 “教学实践”,一站式解决自动驾驶教学与开发痛点。
一、ROS 智能驾驶小车方案概述
运行速度:8km/h
尺寸:1320mm×785mm×490mm
轴距/轮距:600mm/665mm
轮胎直径:420mm
对外供电:48V/10A,24V/15A,12V/15A
通讯方式:CAN2.0B
整车质量:125kg
制动方式:电动
越障高度:90mm(空载)/60mm(满载)
最大负载:100kg
阿克曼底盘
多线激光雷达:R550 PLUS(16线,测量距离70-150m,频率5-20Hz)
双目相机:Gemini Pro(深度范围0.25-2.5m,USB3.0接口)
毫米波雷达:大陆ARS408(探测距离0.2-250m,测速范围-400km/h~200km/h)
RTK定位系统:华测CGI-430(多系统支持,RTK精度1cm+1ppm)
工控机:MIC-7700系列边缘计算平台
显示屏:10.1寸(HDMI接口,1080P分辨率)
智能驾驶模块化开发与教学:拆解自动驾驶核心模块,便于学生理解与实践;
自动驾驶感知开发与教学:支持视觉、激光雷达、毫米波雷达等单一 / 多源感知算法开发;
开源自动驾驶深度算法使用:直接调用 Autoware 框架内成熟算法,降低开发门槛;
CAN 通讯开发:实现上位机与底盘等硬件间的通讯调试,掌握车载通讯核心技术;
多传感器融合自动驾驶算法开发与使用:支持激光雷达 - 相机、毫米波雷达 - 相机等多模态数据融合,提升感知精度。
支持多种传感器数据(视觉、毫米波雷达、激光雷达、超声波)读取、存储、回放与解析
相机标定:获取内参标定及畸变矩阵
Radar2Camera标定:地面坐标标定与联合标定
Lidar2Camera标定:多传感器融合标定
教师端权限:支持添加 / 修改学生信息、批改作业、查看学生操作画面、发布题库任务、统计训练数据(训练次数、正确率、错误率)、管理训练工单(发布任务、查看完成情况);
学生端功能:接收教师批改结果、查看训练统计数据(如答题正确率)、完成教师发布的实训任务,形成 “学习 - 实践 - 反馈” 闭环。
配套教材:不少于250页,包含30个以上工作任务
教学PPT:30个以上,总页数不少于400页
教师手册:30个以上,配套每个工作任务
学生工作页:30个以上,配套每个工作任务
16个以上辅助教学视频
总时长不少于180分钟
包含判断题、单选题、多选题
总数不少于260道
本方案采用BRCKplus多传感器数据采集系统,通过集成6个视觉摄像头与1个激光雷达传感器,构建无人船的多模态感知平台。该系统利用GNSS实现各传感器间的高精度时间同步,旨在精确采集与重建海面场景数据。
本方案核心为BRCKplus多传感器数据采集系统,集成了毫米波雷达、激光雷达和摄像头等多种传感器,构建了全面的环境感知数据采集体系。在此基础上,方案采用ADTF作为上位机开发工具,实现了对多源数据的集中管理、可视化与处理。
五、总结
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。