我们以优质的服务质量取信于客户!

汽车智能驾驶与无人驾驶实训台-环境感知综合实训台

2025-11-01 09:35



货物名称


主要功能配置及技术参数要求


环境感知综合实训台
环境感知综合实训台是一款由域控制器、激光雷
达、4D 毫米波雷达、摄像头、惯导 IMU、7 英寸的
交互平台及相关线束组合而成桌面级教学实训实验
设备。具备手持式激光雷达数据采集的功能和多传感
器融合感知的能力,支持校内道路数据采集及仿真环
境搭建,能够快速的实现典型传感器实训教学场景实
验测试。数采融合感知箱集成芯片主控,结合采集的
激光雷达、毫米波雷达、摄像头数据,提供直观的操
作界面,便于参数设置和数据查看,支持点云、雷达
图等多种数据可视化方式,同时又可进行单传感器的教学和科研开发。产品采用模块化设计,提供多种接口,支持二次
开发,便于集成到其他自动驾驶产品系统中。一、硬件外观参数
台架主体需为钣金材料,表面采用喷塑工艺,耐腐耐磨;台架面板为亚克力材质,台架面板上有丝印文字;台面下方留
有收纳空间,便于相关教学配件进行收纳;台架底部装有静音滚轮,方便设备移动。整体结构坚固、功能布局紧凑、造
型美观大气、防护严密、接口牢固、线缆规范、便于安装。长≥1200mm*宽≥600mm*高≥1550mm
可拆卸感知箱尺寸:
1.箱体尺寸:≥300mm*185mm*220mm
2.屏幕尺寸:≥7 英寸
3.接口:USB ≥2,RJ45 网口≥2,HDMI≥1,电源口≥1,gmsl 接口≥4,CAN/CANFD 接口≥1,RS232 串口≥1,RS485
串口≥1;
4.网络:网线/WIFI
5.工作电压:12V
二、一个激光雷达
激光雷达是专门为扫除盲区设计的新型近距离 3D 激光雷达,主要应用于机器人环境感知、无人驾驶汽车环境感知、无人机测绘、智慧城市等领域。激光雷达采用创新性的信号处理技术,最小探测距离可近至 10 厘米,加上半球型超广视
角的设计,可大范围内有效探测各类极近距离障碍物。
(一)规格参数
1.线数:≥96
2.水平视场角:0~360°
3.激光波长:≥940nm
4.垂直视场角:0~90°
5.激光安全等级:Class1 人眼安全
6.水平角分辨率:≥0.4°
7.测距能力:不少于 60m(30m@10%NIST)
8.垂直角分辨率:≥0.947°
9.精度(典型值)31.5cm(1σ)
10.转速:≥60011.帧率:≥10Hz
12.出点数:≥856,320pts/s(单回波模式),1,712,640pts/s(双回波模式)
13.以太网传输速率:≥100Mbps
14.输出数据协议:UDPPacketsOverEthernet
15.工作电压:9V-32V
16.尺寸:直径 60mm×高 63mm
17.产品功率:≥8W(典型值)
18.工作温度:-40℃~+60℃
19.重量:230g±20g(激光雷达本体)
20.存储温度:-40℃~+85℃
21.时间同步:GPS,PTP&gPTP
22.防护等级:≥IP67/IP6K9K
(二)软件 RSView 包含以下功能:RSView 支持在 Windows64 位、Ubuntu18.04 以上操作系统上运行
1.通过以太网实时显示数据;
2.将实时数据记录保存为 PCAP 文件;
3.从记录的 PCAP 文件中回放;
4.不同类型可视化模式,例如距离、时间、水平角度等等;
5.用表格显示点的数据;
6.将点云数据导出为 CSV 格式文件;
7.测量距离工具;
8.将回放数据的连续多帧同时显示;
9.显示或者隐藏激光雷达中个别线束;
(三)通信协议
激光雷达与电脑之间的通信采用以太网介质,使用 UDP 协议,和电脑之间的通信协议主要分为两类,MSOP 与 DIFOP
数据协议。MSOP:I/O 类型:产品输出,电脑解析;帧头 Header 共 42bytes,用于识别出数据的开始位置。
DIFOP:DIFOP 是为了将产品序列号(S/N)、固件版本信息、上位机驱动兼容性信息、配置信息、角度信息、运行状
态、故障诊断等信息,定期发送给用户的“仅输出”协议,用户可以通过读取 DIFOP 解读当前使用产品的各种参数的
具体信息
三、一个 4D 毫米波雷达
毫米波雷达是一种基于 77GHz 频段的车规级雷达传感器,其采用 FMCW(调频连续波)的电磁波发射机制,主要用
于发现并探测目标的空间位置、特征属性、运动属性等,而后通过特定的通讯方式(CAN/CANFD)将目标属性对外
输出。FR51 前向毫米波雷达在输出目标属性的同时,也可同步输出相应的功能信息。
技术参数:
1.测距范围:≥120m
2.距离测量精度:±0.2m
3.距离测量分辨率:±0.4m
4.水平角度测量范围:±75°5.水平角度测量精度:±0.5°
6.水平角度测量分辨率:4°
7.垂直角度测量范围:±15°
8.垂直角度测量精度:±1°
9.垂直角度测量分辨率:7°
10.速度测量范围:±66.7m/s
11.速度测量精度:±0.2m/s
12.速度测量分辨率:0.2m/s
13.天线通道: ≥4T4R
14.工作温度: -40~85℃
15.防护等级: ≥IP67
16.刷新周期: ≥50ms
17.目标数量: ≥4818.输出接口: CAN/CANFD
19.额定电压: ≥12V
20.产品功耗:<4W
毫米波雷达标定:主要是为了矫正雷达安装过程中的工艺误差,使雷达法线与设计法线重合。
雷达可正常标定的前提是安装工艺公差控制在要求的范围之内。标定方式分为动态标定和静态标定,通常情况下,动态
标定可以用于整车下线过程中的雷达标定,也可用于售后雷达维护或换件后的标定;静态标定对于场地的要求较高,但
标定周期较短、标定精度高,用于整车下线标定。
四、主控单元
感知箱域控计算平台参数:
1. 感知箱主控单元采用 Orin 芯片;AI 算力:≥100TOPS,支持 TensorRT、cuDNN、cuBLAS 等 AI 框架,支持多种
神经网络模型推理和训练,支持 PyTorch、TensorFlow 等主流 AI 框架
2. GPU:NVIDIAAmpere 架构、1024 个 CUDA 核心、支持 FP16、INT8、INT4 等多种计算精度
3. CPU: 8 核 ArmCortex-A78AEv8.264 位处理器、支持 1.5MBL2 缓存和 4MBL3 缓存4. 接口要求:RJ45 网口≥3、gmsl 接口≥8、CANFD 接口≥2、RS232 接口≥2、RS485 接口≥2
5. 硬盘存储:≥512G
6. 工作温度:-25℃~70℃
7. 供电范围:宽压输入 9-36VDC,典型功耗≤60W
五、2 个相机
摄像模组采用了索尼 CMOS 图像传感器(IMX390)、图像处理器(GW5200)和 Maxim GMSL2 串行器(Max9295A)
开发设计。它符合车规级性能以及具有经过专业图像调试的高质量图像效
果;并配有 AA 车载规格镜头,模组整体可达到 IP67 防护等级。在自动驾驶/量产 ADAS 车型/机器人上广泛应用。
技术参数
一个 H60 相机:
1.Sensor:SONY 2.12MP IMX390 RGGB
2.ISP:AP0202
3.感光尺寸:1/2.7 英寸 CMOS4.输出分辨率:≥1920×1080
5.像素尺寸:≥3μm×3μm
6.帧率:≥1920×1080@30fps
7.支持 HDR:是
8.输出数据格式:YUV422@8bit
9.串行器:MAXIM MAX9295A
10.相机接口:GMSL2
11.电源输入:9~16VPOC(线缆供电)
12.工作电流:<250mA@12VDC
13.连接器:(Amphenol Z 型 Fakra)
14.工作温度:-40℃~+85℃
15.尺寸:宽 30mm×长 30mm×高 22.5mm
16.重量:<50g17.水平视场:≥60°
18.垂直视场:≥32°
一个 H120 相机:
1.Sensor:SONY 2.12MP IMX390 RGGB
2.ISP:AP0202
3.感光尺寸:1/2.7 英寸 CMOS
4.输出分辨率:1920×1080
5.像素尺寸:3μm×3μm
6.帧率:1920×1080@30fps
7.支持 HDR:是
8.输出数据格式:YUV422@8bit
9.串行器:MAXIM MAX9295A
10.相机接口:GMSL211.电源输入:9~16VPOC(线缆供电)
12.工作电流:<250mA@12VDC
13.连接器:(Amphenol Z 型 Fakra)
14.工作温度:-40℃~+85℃
15.尺寸:宽 30mm×长 30mm×高 22.5mm
16.重量:<50g
17.水平视场:≥118.4°
18.垂直视场:≥62.6°
功能特性:
1. ▲传感器台架支持台架上的集成的域控感知箱设备和台架分离式设计,支持兼顾实训室内和校园的户外移动采集的
双重需求。在室内测试场景下,台架上域控感知箱设备可牢固固定在台架预设的安装位上,可满足感知设备标定需求。
当需要进行校园场景移动采集时,域控感知箱可快速从台架分离,转换为便携式手持采集单元。同时系统集成高亮度户
外可读显示器,支持实时渲染激光雷达点云数据,并提供整套域控感知箱套件系统和台架分离式设计的原理设计图纸证明材料及实物照片(部件名称需一一标注)。
2. ▲拆卸后域控感知箱系统采用智能数据同步方案,通过硬件级 PTP 协议确保多传感器时间对齐精度小于 200μs。在
校园场景采集中,系统可同时记录原始点云数据、图像数据及轨迹信息,投标文件需提供分离域控感知箱系统校园实时
数据采集时的操作界面截图。
六、典型实训内容
(1)智能传感器标定与功能调试
1.组合导航定位系统原理介绍
2.激光雷达定位算法原理介绍
3.摄像头感知算法原理介绍
4.激光雷达定位算法原理介绍
5.激光雷达与摄像头融合感知原理介绍
6.组合导航标定与定位功能调试实操
7.激光雷达标定与定位功能调试实操8.摄像头标定与感知功能调试实操
9.激光雷达感知功能调试实操
10.激光雷达与摄像头融合感知功能调试实操
11.4D 毫米波雷达技术基础工作原理
12.4D 毫米波雷达设备操作与数据采集
13.4D 毫米波雷达应用案例、雷达数据处理、目标检测与跟踪算法、数据建图,可视化工具使用等
(2)AI 视觉课程实训
1.AI 视觉课程包含
1.deepstream 简介与应用、
2.YOLO V5 简介及使用、
3.安装 TAO 模型训练工具、
4.图像分类/目标检测推理、
5.语义分割、6.姿态估计、
7.汽车检测、
8.动作识别等内容
(3)多传感器融合实训内容
1.包含校园内部数据采集
2.SLAM 建图和数据处理、
3.数据复现与分析等课程。





昵称:
内容:
验证码:
提交评论
评论一下