实验室或功能区
无人机外场飞行实操实训建设 - 方案文档
无人机外场飞行实操实训建设
这是一个专为无人机飞行训练与测试设计的开阔场地,是保障无人机操控课程及无人机应用技术课程训练顺利开展的必备条件,也可作为无人驾驶航空器驾驶证培训训练区。该飞行区位于校园内安全隔离的区域,确保飞行活动不会干扰到正常的教学和生活秩序,同时提供了足够的空间供无人机进行起降、悬停、航线飞行等各种飞行动作的练习。
主要功能
了解分布式、边缘计算和各类芯片架构原理
分布式人工智能全场景智慧教学与实训平台包括分布式人工智能系统各个主要组成部分,主要模块包括终端设备、边缘设备、网络设备和云端设备,可满足人工智能全场景教学、实验与科研。
满足人工智能不同场景教学实验需求
满足计算机网络、分布式计算、高性能计算与边缘计算相关教学与实验,实现人工智能模型训练与优化,可满足各类人工智能应用开发、测试与部署,满足大语言模型离线部署与应用。各模块支持二次开发,提供丰富教程资料,便于教学、竞赛和科研使用。
终端节点相关算法验证和开发
终端节点可对采集到的数据进行初步处理,终端设备包括ARM和RISC-V不同芯片架构类型的模块,可满足不同类型架构芯片的原理学习和程序开发、Linux相关基础学习与开发、基础AI模型的部署等。
边缘节点相关算法验证和开发
当终端节点性能不满足需求时,将一部分处理后的数据交由算力更强的边缘节点处理,边缘节点采用JETSON Orin NX Super和华为昇腾架构,可满足不同类型架构芯片的原理学习,满足较为复杂的深度学习相关程序开发和部署。
云端节点相关算法验证和开发
云端设备提供高性能计算模块和存储模块,当终端和边缘设备算力无法满足需求时,可将部分处理后的数据交由高性能的云端处理,可满足模型训练与推理,提供大语言模型本地化部署方案。
云端设备还提供存储模块,提供大容量数据存储空间,各模块均可访问其数据。
网络原理和相关配置学习
网络设备主要包括路由模块、交换模块和管理模块,路由模块、交换模块提供各模块之间的互联互通,路由模块支持二次开发,支持自定义网络环境配置。
无人机算法仿真
在计算机上模拟无人机在实际场景中的行为和传感器反应,提供机上各种传感器(如深度相机)数据,包括位置坐标、点云、深度图等,可在计算机中模拟无人机与人工智能算法,避免因程序设计不当造成无人机损坏或造成人员受伤。
了解和掌握蜂群协同定位和协同控制
支持多无人机之间的协同定位,使蜂群在飞行过程中能够准确知晓彼此位置,为蜂群的协同飞行、编队等功能提供基础。可实现无人机之间的机间两两通信,任意一架无人机均可获取其他无人机的信息以及控制其他无人机飞行,从而实现蜂群的协同飞行、编队变换等复杂功能,以完成各种任务。
主要实验装备
小型八旋翼无人机电子执照考训平台
HT1000X8是一款面向教学的无人机飞行平台,是三类CAAC民航执照考证专用无人机,满足AOPA和CAAC培训与考试的相关需求,适合高校及职业院校开展实验实训,尤其是“1+X”无人机驾驶职业技能培训使用。支持多种挂载设备,满足行业应用和二次开发。

分布式人工智能全场景智慧教学实训平台
分布式人工智能全场景智慧教学实训平台包括分布式人工智能系统主要组成部分,主要模块包括终端设备、边缘设备、网络设备和云端设备,可满足人工智能全流程教学与实验,可满足分布式、高性能计算与边缘计算相关教学与实验。终端节点可对采集到的数据进行初步处理,终端设备包括ARM、RISC-V、达芬奇(华为昇腾)等不同芯片架构类型的模块,可满足不同类型架构原理和程序开发学习、竞赛与科研需求。当终端节点性能不足以满足需求时,将一部分处理后的数据交由算力更强的边缘节点处理,边缘节点采用JETSON Orin NX Super,可满足基于Cuda的深度学习相关程序开发、竞赛与科研。云端设备提供高性能计算模块和存储模块,当终端和边缘设备算力无法满足需求时,可将部分处理后的数据交由高性能的云端处理,云端设备还提供存储模块,提供大容量数据存储空间。网络设备主要包括路由模块和交换模块,提供各模块之间的互联互通。各模块均采用开源方案,可二次开发,便于教学、竞赛和科研使用。
四类中型六旋翼无人机考训平台
HT1600是一款面向培训与考试的六旋翼无人机电子执照考训平台,轴距1650 mm,最大起飞重量40.5 kg,是四类CAAC民航执照考证专用无人机,满足无人机培训与考试的相关需求,可用于相关培训,非常适合各种行业用户以及各类高校、职业院校培训考试使用,该机型还支持二次开发,可用于行业应用实训。
无人机算法模拟仿真器
无人机作为空中机器人,在各行各业发挥了重要的作用,无人机的AI赋能和蜂群协同是近年来的研究热点。
高校实验室与科研领域是无人机控制算法与AI赋能的主要研究阵地。面对未来AI时代,控制算法与AI赋能的教学和研发方式被重新定义,行业亟需一种更快速、高效的无人机控制算法研发模式。
无人机模拟仿真器VISIM可帮助教学及科研工作者在第一时间对算法进行实践验证,提高教学和科研效率,模拟验证后再用真机测试,减少风险和炸机发生概率。
基于PX4_SITL和Gazebo的环境,提供位置、速度、加速度等控制方式,用户可以验证自己的飞控算法和外围控制算法。
自主飞行和路径规划方面,模拟器适配了Ego-Planner开源算法和一些基本的路径生成算法,方便用户实现轨迹生成算法及轨迹控制验证;

提供Ego-Planner-Swarm开源蜂群算法,用户也可在模拟器中开发/验证自己的集群/蜂群算法;
VSIM模拟仿真器也提供AI目标识别、跟踪算法和框架,方便用户实现无人机对目标的追踪等实验;

AI视觉无人机开发平台
OWL Mini 3无人机体积小,重量轻,更加适合算法验证。
AI视觉无人机开发平台(激光雷达版)
猫头鹰3,实战派。全能旗舰,助力科研成果转化落地,与猫头鹰Mini 3相比,猫头鹰 3体型更大,负载更强,能够搭载更多设备,适用于更多场景。


OWL 3L搭载VisBot 3代视觉模块,双轴增稳云台以及4线LiDAR激光雷达,适用于无GPS环境下基于视觉/LiDAR的无人机定位/导航/避障算法的验证与开发,以及室内无人机组网编队的研究。
激光雷达定位基于LiDAR激光传感器获得的点云数据,融合惯性导航模块的6轴数据,实现LIO算法。
视觉定位基于双目视觉传感器捕获的双目图像,融合惯性导航模块数据,实现VIO算法。
可基于动作捕捉系统定位,支持VRPN协议实时获得定位信息,提供真实飞行数据。
支持基于LiDAR点云/iTof深度图/双目产生深度图,实时生成地图和路径规划的避障算法。

激光雷达通过发射激光束并接收反射光来测量距离,能够提供高精度的距离数据,可精确探测到障碍物的位置、形状和大小等信息,相比单纯的视觉传感器,激光雷达传感器受光照条件、物体表面纹理等因素的影响更小。可以在诸如电磁干扰、强光干扰等复杂的环境中稳定工作,减少因外部干扰而导致的误差,保证无人机对周围环境的准确感知。结合激光雷达获取的大量精确距离数据和OWL3L自身的计算能力,能够快速构建出周围环境的三维模型,为无人机的自主导航、路径规划以及避障提供更全面、准确的信息基础,使其能更好地适应复杂多变的环境。
AI视觉无人机蜂群开发平台(RTK版)
猫头鹰3,实战派,全能旗舰,助力科研成果转化落地,与OWL mini 3相比,OWL 3 体型更大,负载更强,能够搭载更多设备,更适用于多场景。


蜂群软件架构包括单机系统和算法软件,多机协同软件,多机通讯机制。在多机协同环境,还需要协调多机轨迹、位置、同步完成多机目标飞行。适配了Ego-Planner-Swarm开源软件,作为多机协同下的避障导航软件。它结合了多机的位置,和各自目标下的轨迹,整体规划出防碰撞轨迹。再结合控制软件就可以同步控制集群进行目标飞行。在分布式多机协同系统中,需要互通网络环境和多机通讯机制。目前引用的Ego-Planner-Swarm软件是基于ROS系统的多机通讯机制,是Master/Slave架构的消息通讯机制。Visbot视觉模块提供了Wifi接口,可接入大功率Wi-Fi基站,优势是可以较长距离通讯;也可以配置成自组网模式,省去Wi-Fi基站,可以满足小范围的机群需求。

在视觉版的基础上,RTK版本搭载VisBot 3代视觉模块,双轴增稳云台以及RTK模块,适用于GPS环境下基于视觉/RTK的无人机定位/导航/避障算法的验证与开发,以及室内无人机组网编队的研究。
提供厘米级绝对精度,实时性与稳定性强,算力需求低,适合高处飞行。
实验室设备清单
| 序号 |
设备名称 |
单位 |
数量 |
设备品牌 |
设备型号 |
| 1 |
小型八旋翼无人机电子执照考训平台 |
架 |
2 |
中航恒拓 |
HT1000X8 |
| 2 |
分布式人工智能全场景智慧教学实训平台 |
台 |
2 |
中航恒拓 |
HT-ZJ150A |
| 3 |
四类中型六旋翼无人机考训平台 |
架 |
2 |
中航恒拓 |
HT1600 |
| 4 |
无人机算法模拟仿真器 |
台 |
2 |
中航恒拓 |
VISIM |
| 5 |
三类训练机备用电池 |
块 |
2 |
中航恒拓 |
---- |
| 6 |
考训平台备用电池 |
块 |
2 |
中航恒拓 |
22000MAH |
| 7 |
电子执照无人机考试监测系统 |
套 |
2 |
中航恒拓 |
U-RTK |
| 8 |
RTK考试训练基站 |
套 |
2 |
中航恒拓 |
---- |
| 9 |
AI视觉无人机开发平台 |
架 |
4 |
中航恒拓 |
OWL Mini 3 |
| 10 |
无人机云端接入设备 |
个 |
2 |
中航恒拓 |
---- |
| 11 |
AI视觉无人机开发平台(激光雷达版) |
架 |
4 |
中航恒拓 |
OWL 3L |
| 12 |
飞行训练专用教练控 |
个 |
5 |
中航恒拓 |
ET16S |
| 13 |
AI视觉无人机蜂群开发平台(RTK版) |
套 |
8 |
中航恒拓 |
OWL 3 RTK |
| 14 |
考训平台维修备件库 |
套 |
2 |
中航恒拓 |
---- |
| 15 |
无人机外场训练场地道具 |
套 |
1 |
中航恒拓 |
---- |
| 16 |
高性能计算机 |
台 |
10 |
主流品牌 |
主流型号 |
| 17 |
GPU服务器 |
台 |
1 |
主流品牌 |
主流型号 |
| 18 |
推理服务器 |
台 |
2 |
主流品牌 |
主流品牌 |
| 19 |
存储服务器 |
台 |
2 |
主流品牌 |
主流品牌 |
| 20 |
交换机 |
台 |
1 |
主流品牌 |
主流型号 |
| 21 |
服务器机柜 |
套 |
1 |
主流品牌 |
主流型号 |
主要课程与实验
基于ARM架构的人工智能实验与开发
基于RK3588芯片和Ubuntu操作系统开展实验。
■ 实验1:LeNet部署与开发
■ 实验2:AlexNet部署与开发
■ 实验3:VGG-Net部署与开发
■ 实验4:YOLO v5部署与开发
■ 实验5:YOLO v6部署与开发
■ 实验6:YOLO v7部署与开发
■ 实验7:YOLO v8部署与开发
■ 实验8:YOLO x部署与开发
■ 实验9:PP-Seg部署与开发
■ 实验10:PP-OCR部署与开发
■ 实验11:大语言模型部署与开发
■ 实验12:生成式人工智能乘客信息展示互动系统
基于Nvidia的人工智能实验与开发
基于Nvidia GPU和Ubuntu操作系统开展实验。
■ 实验1:GPIO控制
■ 实验2:视觉基础
■ 实验3:OpenCV基础
■ 实验4:二维码识别
■ 实验5:DeepStream部署与开发
■ 实验6:YOLO v11部署与开发
■ 实验7:Mediapipe部署与开发
■ 实验8:Docker安装与使用
■ 实验9:ROS1-Melodic使用
■ 实验10:ROS2-Humble使用
■ 实验11:Llama3模型部署与开发
■ 实验12:Qwen3模型部署与开发
■ 实验13:DeepSeek-R1部署与开发
基于RISC-V的人工智能实验与开发
基于JH7110芯片和Debian/Ubuntu操作系统开展实验。
■ 实验1:GPIO开发和移植
■ 实验2:以太网开发
■ 实验3:SPI/IIC/UART开发
■ 实验4:物体识别
■ 实验5:二维码识别与解码
■ 实验6:图像边缘检测
■ 实验7:编译和安装OpenWRT
■ 实验8:安装和运行Docker
基于华为昇腾的人工智能实验与开发
基于华为Atlas 200i DK A2和OpenEuler/Ubuntu操作系统开展实验。
■ 实验1:人体关键点检测
■ 实验2:多路视频采集
■ 实验3:行人识别
■ 实验4:安全帽识别
■ 实验5:基于DeepSPRT的深度学习Tracking算法
■ 实验6:中文OCR识别
基于VISIM的飞行模拟
基于模拟器实现相关验证与开发。
■ 实验1 单台OWL无人机模拟
■ 实验2 多台OWL无人机模拟
■ 实验3 QGC控制单台OWL
■ 实验4 从命令行向单台OWL发送takeoff, landing, start, 和stoptask指令
■ 实验5 用rviz显示单台OWL传感器发出的数据
■ 实验6 OWL定点追踪移动物体
■ 实验7 路径规划:OWL简单路径规划,通过rviz设置目标位置
■ 实验8 路径规划:OWL使用ego_planner规划飞行路线,命令行与rviz结合控制
■ 实验9 用QGC和命令行控制多台OWL
■ 实验10 用rviz显示多台OWL传感器发出的数据
■ 实验11 通过rostopic向单台/多台OWL发布数据和命令
■ 实验12 OWL蜂群避障
ROS及相关技术
ROS系统而是一个运行在Linux等操作系统之上的次级操作系统。它通过提供硬件抽象、底层设备控制、进程间消息传递等功能,帮助开发者高效地创建和管理机器人应用软件,将机器人的软件功能模块化,形成一个个节点,这些节点可以通过发送消息进行通信,从而实现复杂的机器人行为。
■ 实验1:Ubuntu操作系统安装
■ 实验2:Ubuntu操作系统安装应用程序
■ 实验3:Ubuntu操作系统命令行操作
■ 实验4:ROS的安装
■ 实验5:ROS的运行(海龟移动)
■ 实验6:安装Visual Studio Code编辑器
■ 实验7:配置ROS环境并实现“Hello World”
无人机视觉
实验目的:了解和掌握无人机视觉跟踪技术的基本原理和实现方法
实验内容:由于无人机能搭载的传感器和处理器性能有限,因此与常规数字图像处理方法相比,要求所应用的方法同时具备实时性和可靠性。本实验需要综合应用SIFT、SURF、YOLO等视觉跟踪方法,利用学生自己的计算机,实现视觉跟踪,并要求在实验中开始学习使用ROS(机器人操作系统)、OpenCV等工具。
■ 实验1:K-MEANS网络搭建
■ 实验2:GAN网络搭建
■ 实验3:CGAN网络搭建
■ 实验4:YOLO网络搭建(V1-V8)
■ 实验5:基于YOLO实现目标识别
无人机滤波和传感技术
实验目的:了解和掌握无人机使用传感器和滤波器的基本原理
实验内容:本实验主要针对无人机控制系统中所使用的传感器和滤波器基本原理,包括IMU(惯性传感器)、GPS(全球定位系统)或北斗定位系统、Kalman滤波器或互补滤波器,通过实验,使用实际无人机上采集的传感器数据来融合出可靠的位姿数据,巩固所学知识。
■ 实验1:多传感器数据融合
■ 实验2:前端光流
■ 实验3:高效的去畸变方式
■ 实验4:误差卡尔曼滤波
■ 实验5:连续时间预积分误差传递
■ 实验6:离散时间预积分误差传递
同步定位与建图
实验目的:了解和掌握无人机同步定位建图基本原理和实现方法
实验内容:本实验主要探索无人机在不依靠外部定位手段,如GPS、无线基站和动作捕捉系统等的情况下,仅依靠自身携带的传感器进行导航、定位和地图建立的SLAM(同步定位建图)方法,合作完成一种或几种典型的SLAM方法原理调研、实际运行测试、评价等。
■ 实验1:VINS-Mono代码编译运行
■ 实验2:预积分零偏建模方式
■ 实验3:VIO初始化
■ 实验4:VIO数据预处理
■ 实验5:旋转外参初始化
■ 实验6:ceres解析求导以及核函数
■ 实验7:预积分残差计算
■ 实验8:预积分雅可比计算
■ 实验9:视觉重投影
■ 实验10:视觉雅可比
■ 实验11:滑动窗口边缘化
■ 实验12:VINS_Fusion介绍及运行
■ 实验13:VINS_Fusion光流优化
■ 实验14:VINS_Fusion初始化
■ 实验15:VINS_Fusion后端优化
■ 实验16:鲁棒的外点剔除策略
■ 实验17:VINS_Fusion的GPS融合
无人机位姿控制
实验目的:以多旋翼无人机为例,了解无人机位姿控制的基本原理和方法,并通过实验对无人机的闭环相应特性获得直观认识。
实验内容:本实验将基于室内无人机飞行实验,学习和体验无人机姿态位置和姿态控制的控制器设计和调节方法,包括姿态环(内环)参数调节、位置环(外环)参数调节、扰动抑制、轨迹跟踪等环节。通过实验,同学可以更深入了解无人机控制器的构成和不同控制器参数对于飞行品质的影响。
■ 实验1:无人机的数学模型
■ 实验2:无人机动力模型
■ 实验3:无人机姿态模型
■ 实验4:无人机位置模型
■ 实验5:无人机模型线性优化
■ 实验6:基于欧拉角的控制器
■ 实验7:PID控制
■ 实验8:基于四元数的控制器
■ 实验9:基于旋转矩阵的控制器
无人机视觉控制
实验目的:了解无人机视觉控制的基本原理,通过实验掌握无人机视觉的基本方法。
实验内容:本实验将基于机载立体摄像头的口袋式室内无人机实验平台,学习无人机视觉跟踪的基本原理,包括图像跟踪、解耦控制、轨迹平滑等环节。
■ 实验1:回环检测数据流
■ 实验2:基于dbow的回环检测
■ 实验3:回环校验
■ 实验4:通过后端滑窗优化回环帧位姿
■ 实验5:四自由度位姿图优化
■ 实验6:视觉地图的保存和加载
基于PX4的开源飞控系统
实验目的:基于PX4开源平台,研究并调试多旋翼无人机飞控系统。
实验内容:综合应用控制和传感器相关知识,在课程组提供的PX4系统上,学习传感器采集模块、传感器数据融合和滤波模块、内环控制模块、外环控制模块、通信模块等的开发方法,并利用Mavros(MAVLink + ROS)开发相应的机载计算机程序,实现上位机对无人机的实时操控。
■ 实验1:基于PX4的四旋翼建模与控制
■ 实验2:四旋翼模型与控制基础
■ 实验3:实际飞行测试
■ 实验4:日志分析
■ 实验5:传感器与遥控器校准原理
■ 实验6:PX4自定义任务并执行
■ 实验7:PX4自定义参数并使用QGC显示
■ 实验8:PX4自定义uORB消息并保存到日志
■ 实验9:PX4控制算法
■ 实验10:PX4中uORB概览
■ 实验11:PX4位置-姿态-角速度控制逻辑
■ 实验12:基于SO3的姿态控制
■ 实验13:TD微分跟踪器原理与仿真
■ 实验14:ADRC误差组合
■ 实验15:LESO原理与仿真
■ 实验16:LADRC角速度环Simulink仿真
■ 实验17:LADRC飞控C++代码编写
■ 实验18:LADRC仿真与实物测试分析
■ 实验19:非线性ADRC原理与仿真
■ 实验20:一键起飞
■ 实验21:自动降落
■ 实验22:速度平滑
单目视觉跟踪与识别系统
实验目的:研究和探索无人机单目视觉追踪和识别的方法。
实验内容:综合应用计算机视觉和深度学习等相关知识,学习和开发基于特征的无人机视觉识别与跟踪方法、基于深度学习的无人机视觉与跟踪方法,并在安装有Ubuntu和Ros的计算机上实现。
■ 实验1:单目视觉位姿估计
■ 实验2:基于ceres自动求导的单目视觉BA优化
■ 实验3:陀螺仪零偏初始化
■ 实验4:视觉惯性对齐求解
■ 实验5:基于已知重力的视觉惯性对齐调整
立体视觉导航与避障系统
实验目的:研究和探索无人机立体视觉导航和避障方法。
实验内容:应用深度相机、激光雷达等具备深度测量能力的传感器,学习和开发无人机立体视觉同步定位建图导航方法、基于特征或学习的避障方法,并在安装有Ubuntu和Ros的计算机上实现。
无人机虚实融合仿真系统
实验目的:研究和探索无人机虚实融合仿真方法。
实验内容:应用Ros提供的Gazebo等工具,通过无线或有线方式接入开源飞控Px4的数据,开发完整的无人机虚实融合仿真系统,在虚拟系统中为无人机安装单目摄像头、深度摄像头、激光雷达等视觉传感器,实现虚拟环境下的无人机自主任务规划与飞行测试。
无人机视觉导航与避障技术
实验目的:研究和探索无人机视觉导航和避障方法。
实验内容:基于搭载轻量化计算平台、双目摄像头和和PX4飞控系统的微型无人机,开发算力受限情况下的无人机自主双目点云生成算法、视觉导航算法和自主避障算法,在室内实现飞行验证。
无人机视觉编队与任务规划技术
实验目的:研究和探索无人机视觉编队与任务规划方法。
实验内容:基于搭载轻量化计算平台、双目摄像头和和PX4飞控系统的微型无人机,开发算力受限情况下的分布式无人机视觉编队方法、集中式/分布式/智能式任务规划方法,并在室内实现飞行验证。
无人机编队实验
实验目的:认识在不同的无人机编队协议下,无人机编队的性能。
实验内容:利用Matlab和QuarQ等工具进行编程,通过WiFi建立服务器和无人机集群之间的通信,实现无人机集群的集中式和分布式编队飞行,并通过航迹变换和施加外部干扰等,验证不同的编队协议的鲁棒性和快速性之间的差异。
无人机智能任务规划
实验目的:通过实验综合掌握无人机全自主飞行及智能任务规划相关的方法。
实验内容:在机载Ubuntu和Ros系统上进行编程,并通过Mavros等工具与机载PX4飞控系统通信,利用机载双目摄像头采集的视觉数据生成点云,实现无人机在无GPS等外部导航手段的引导下的自主定位、自主导航、避障、路径规划和目标匹配,最终完成在开阔实验室空间内的智能任务规划。
配套课程资源
AOPA和CAAC考试相关资源。
人工智能系统软硬件环境搭建
如何构建各类基于不同硬件架构的人工智能系统
■ 基于英伟达/ARM/华为昇腾等不同架构的AI基础教程、配套例程
■ 基于英伟达/ARM/华为昇腾等不同架构的AI开发环境搭建教程
人工智能相关项目部署与开发
■ 基于英伟达/ARM/华为昇腾等不同架构的AI视觉模型部署与开发教程、配套例程(LeNet、VGGNet、Yolo、PP-Seg、PP-OCR等)
■ 基于英伟达/ARM/华为昇腾等不同架构的AI视觉模型与AI视觉交互应用教程(人脸识别、物体识别、车牌识别、姿态估计、手势识别、手势控制等)
■ 基于英伟达/ARM/华为昇腾等不同架构的AI大语言模型离线部署与开发教程、配套例程(DeepSeek、Qwen等以及大模型对话平台)
■ AI语音克隆模型部署与开发教程
■ Linux系统与驱动开发教程
■ ROS/ROS2基础与开发教程
■ OpenCV应用及开发教程
■ Docker安装与使用教程
■ Qt开发教程、配套例程
■ 配套开发工具及系统镜像
无人机与深度学习
主要包括无人机算法、无人机与深度学习视频教程,主要包括零基础入门四旋翼建模与控制等。
人工智能基础
主要包括深度学习经典检测方法概述、K-MEANS、生成对抗网络、条件生成对抗网络等视频课程。
机器视觉
主要包括AlexNet网络思想与网络架构、YOLO-V1整体思想与网络架构、YOLO-V2改进细节详解、YOLO-V3核心网络模型、基于V3版本进行源码解读、YOLO V4和V5、迁移学习与Resnet网络等相关视频课程。
ROS和SLAM
主要包括ROS基础、机器人环境感知、机器人SLAM与自主导航、多模态SLAM技术和算法框架、激光-惯性子系统(LIS)及代码精读、视觉-惯性子系统(VIS)及代码精读、激光-视觉-惯性数据融合与优化融合、ROS理论与实践Moveit、ROS机器人综合应用等相关PPT、教案和视频课程。