广东科学技术职业学院人工智能+无人机实验室解决方案 - 中航恒拓

广东科学技术职业学院

人工智能+无人机实验室解决方案

导出pdf或打印

广东科学技术职业学院人工智能+无人机实验室解决方案

中航恒拓智能科技河北有限公司
概述
无人机与人工智能的结合,正在重塑传统行业并开拓全新应用场景。通过搭载AI芯片、传感器及深度学习算法,无人机实现了从“远程操控工具”到“自主决策终端”的跨越式进化。在核心技术层面,AI赋予无人机实时环境感知能力,如通过计算机视觉识别障碍物、追踪目标,结合SLAM技术实现复杂场景下的精准避障与路径规划。行业应用中,农业无人机通过多光谱分析精准监测作物健康,物流无人机利用智能调度系统优化配送路线,安防巡检无人机则能自动识别异常行为并预警。更值得关注的是,AI驱动的无人机集群技术已应用于灾害救援,多机协作可快速构建三维灾情模型,提升搜救效率。
随着边缘计算与5G技术的融合,未来无人机将在城市管理、环境保护等领域展现更强的实时决策能力,但同时也面临数据隐私、空域安全等挑战,亟待技术标准与法规的协同创新,无人机+人工智能在多个学科和领域都有着学术研究意义。对于高等院校来说,面对无人机技术和人工智能技术的发展,如何培养兼具不同学科和领域的技术应用与行业知识的复合型人才成为了重点,同时,人工智能技术能够与高校教学的深度融合,将推动教育从“规模导向”向“质量驱动”转型,要求高校在课程创新、师资建设、成果落地、资源整合等领域实现系统性变革,结合学生自身情况,从“标准化教学”转向“精准化育人”。
建立无人机与人工智能实验室,能够推动技术研发和创新,培养复合型人才,搭建产教融合实践平台,加速人工智能与无人机融合技术的突破。同时驱动产业升级与经济发展,革新教育模式与科研体系,不仅是技术研发与人才培养的基础设施,更是连接教育、产业与科研的核心枢纽,其目标在于通过技术赋能与生态协同,推动社会生产力和创新能力的双重跃升。
公司实力

#

中航恒拓智能科技河北有限公司成立于2014年7月,是一家专注于人工智能系统研发的高新技术企业。历经多年发展,中航恒拓在机器视觉、空间建模、智能控制等方面均取得了一定的成就。公司拥有强大的技术研发能力,除在河北石家庄拥有高规格的研发、生产基地外,2016年起先后在北京、浙江杭州、广东深圳、河北保定等地成立研发中心,拥有高性能数据中心,可满足深度学习模型训练、推理等需求,同时依托多所高校成立联合实验室。  

#  

研发团队核心成员来自国内外知名高校,其中博士硕士占比超50%,多人拥有高级职称,团队拥有二十余年无人机与人工智能研发经历,核心成员曾在英特尔、中国科学院等知名企业和单位任职十余年,为公司提供坚实技术保障,拥有一批具有自主知识产权的技术与产品,团队成员先后发表高水平论文数十篇,申请专利及软件著作权百余项。

#  

公司产品和解决方案深受市场欢迎,多家科技馆引入产品作为启发青少年科技创新积极性的重要展示项目。2021年,高精度室内定位自主飞行无人机解决方案亮相中国科学技术馆机器人大秀场,为观众呈现了精彩绝伦的表演,取得了广大观众一致好评。2024年,承担广东科学中心修缮改造项目之“航空航天”展馆重点展项设计与实施之中“无人机表演秀”展项的研发任务,提供亚毫米级超高精度无人机室内自主定位及飞行解决方案,取得了较好的视觉展示效果。

#  

先后与多家高校联合,研发有更高技术水准且更具应用价值的产品和解决方案。与北京理工大学联合研发脑机接口控制系统,成功研制面向多域、多任务的“脑控”智能系统,将空地协同机器人系统与无人机系统进行智能融合,形成“脑控”空地协同无人系统,该项目2020-2022连续三年参展世界机器人大会,获评为2023世界机器人大赛十大技术创新成果,受到中国教育电视台、北京电视台、凤凰新闻等媒体多次报道。新加坡国立大学依托于OWL Mini 3系列无人机构建10机蜂群系统。

#  

于2017年与中航无人机合作成立无人机教育品牌,专门致力于教育、科研无人机领域,主要提供面向教育教学及科研、竞赛的人工智能+无人机解决方案及相关配套产品。教育类主要产品及服务包括面向教育的无人机实训平台、无人机创客实验室解决方案、无人机实训实验室解决方案、职业院校无人机应用技术专业建设方案、无人机产教融合实训基地建设等,为各类教育机构提供无人机教育、实训实践、竞赛及学科建设一站式服务。先后与清华大学、北京航空航天大学等知名院校在内的全国数百所院校和科研单位合作,设立无人机专业、成立无人机实验室,为用户提供了大量教学无人机设备和无人机专业师资培训,为我国低空经济的发展做出一定的贡献。

#

助力清华大学建设具有自身特色的无人机创新实验室,为相关技能竞赛、师资培养、教学服务提供必要的支撑,实验室的硬件以及技术环境进行设计和科学理论的就位,进一步促进学校科技智能教育的发展,促进学校教学能力的提升,为学校的教学发展增添一抹科技亮色。

#

产品荣登清华大学官网首页。  

#

建设方案
本方案旨在构建具备前沿技术支撑的人工智能+无人机实验室解决方案,通过系统化部署实现教学、实训、科研与产业转化的无缝衔接。根据广东科学技术职业学院实际情况及根据专业需求,人工智能+无人机实验室解决方案建设方案主要分为人工智能+无人机实验室等功能区域。


人工智能+无人机实验室

“人工智能+”‌(Artificial Intelligence Plus,AI+)是指将人工智能技术与各行各业深度融合,推动产业转型升级和创新发展的一种理念与实践。它不仅是将人工智能应用于某一特定领域,而是通过技术的集成与创新,实现对传统行业的全面赋能与重构。机器视觉是人工智能正在快速发展的一个分支,用机器代替人眼来做测量和判断,通过机器视觉产品将被摄取目标转换成图像信号,传送给专用的图像处理系统,得到被摄目标的形态信息,根据像素分布和亮度、颜色等信息,转变成数字化信号;图像系统对这些信号进行各种运算来抽取目标的特征,进而根据判别的结果来控制现场的设备动作。实验室是聚焦人工智能技术研究、应用开发及人才培养,配备先进的教学实训仪器,可满足教学、科研和竞赛各类需求。通过配备搭载各类传感器的无人机,可满足数据采集等需求,数据分析与处理聚焦大数据价值挖掘的前沿科研平台,集成了分布式计算、机器学习与可视化分析技术体系。实验室构建了"采集-存储-计算-应用"四层技术架构,配备混合计算集群、GPU训练与推理服务器及大容量存储系统,支持结构化数据、时序数据、空间数据等多模态数据的并行处理。

主要功能
掌握人工智能系统环境搭建
了解和掌握主要人工智能开发和应用的系统环境搭建,能够运行常见人工智能模型并进行实验。
了解环境感知与传感器技术
了解和掌握智能环境感知和传感器相关技术,学习ROS与SLAM建图相关技术并进行实验。
掌握无人机+人工智能相关知识
了解和掌握人工智能、深度学习、机器视觉等知识,学习无人机避障碍、导航、目标跟踪等原理并实现相关应用。熟悉并配置ROS操作系统,熟悉Linux操作系统常用命令。
了解无人机自主飞行原理
了解和验证无人机自主飞行相关技术方案和原理,学习无人机控制相关技术并进行实验。
了解和掌握蜂群协同定位和协同控制
支持多无人机之间的协同定位,使蜂群在飞行过程中能够准确知晓彼此位置,为蜂群的协同飞行、编队等功能提供基础。可实现无人机之间的机间两两通信,任意一架无人机均可获取其他无人机的信息以及控制其他无人机飞行,从而实现蜂群的协同飞行、编队变换等复杂功能,以完成各种任务。
了解分布式、边缘计算和各类芯片架构原理
分布式人工智能全场景智慧教学与实训平台包括分布式人工智能系统各个主要组成部分,主要模块包括终端设备、边缘设备、网络设备和云端设备,可满足人工智能全场景教学、实验与科研。
满足人工智能不同场景教学实验需求
满足计算机网络、分布式计算、高性能计算与边缘计算相关教学与实验,实现人工智能模型训练与优化,可满足各类人工智能应用开发、测试与部署,满足大语言模型离线部署与应用。各模块支持二次开发,提供丰富教程资料,便于教学、竞赛和科研使用。
终端节点相关算法验证和开发
终端节点可对采集到的数据进行初步处理,终端设备包括ARM和RISC-V不同芯片架构类型的模块,可满足不同类型架构芯片的原理学习和程序开发、Linux相关基础学习与开发、基础AI模型的部署等。
边缘节点相关算法验证和开发
当终端节点性能不满足需求时,将一部分处理后的数据交由算力更强的边缘节点处理,边缘节点采用JETSON Orin NX Super和华为昇腾架构,可满足不同类型架构芯片的原理学习,满足较为复杂的深度学习相关程序开发和部署。
云端节点相关算法验证和开发
云端设备提供高性能计算模块和存储模块,当终端和边缘设备算力无法满足需求时,可将部分处理后的数据交由高性能的云端处理,可满足模型训练与推理,提供大语言模型本地化部署方案。
云端设备还提供存储模块,提供大容量数据存储空间,各模块均可访问其数据。
网络原理和相关配置学习
网络设备主要包括路由模块、交换模块和管理模块,路由模块、交换模块提供各模块之间的互联互通,路由模块支持二次开发,支持自定义网络环境配置。
无人机传感器系统开发
无人机等任何智能设备都离不开传感器技术,学生需要了解各类传感器的工作原理和特征并结合理论知识完成传感器系统软硬件开发,并将相关传感器与无人机结合以实现更多功能,能够培养学生的综合开发能力。
惯性导航系统开发
惯性导航系统是一种不依赖于外部信息、也不向外部辐射能量的自主式导航系统,可用于无卫星定位时的持续导航定位。学生可以通过学习相关技术原理,并开发符合实际需求的软硬件系统并与无人机进行结合,培养学生的软硬件开发能力。
无人机与机械爪
能够提供无人机和机械爪开发平台,可根据需求实现对应的功能,还可以满足一系列竞赛的要求。
无人机算法仿真
在计算机上模拟无人机在实际场景中的行为和传感器反应,提供机上各种传感器(如深度相机)数据,包括位置坐标、点云、深度图等,可在计算机中模拟无人机与人工智能算法,避免因程序设计不当造成无人机损坏或造成人员受伤。
主要课程与实验
ROS及相关技术
ROS系统而是一个运行在Linux等操作系统之上的次级操作系统。它通过提供硬件抽象、底层设备控制、进程间消息传递等功能,帮助开发者高效地创建和管理机器人应用软件,将机器人的软件功能模块化,形成一个个节点,这些节点可以通过发送消息进行通信,从而实现复杂的机器人行为。
■ 实验1:Ubuntu操作系统安装
■ 实验2:Ubuntu操作系统安装应用程序
■ 实验3:Ubuntu操作系统命令行操作
■ 实验4:ROS的安装
■ 实验5:ROS的运行(海龟移动)
■ 实验6:安装Visual Studio Code编辑器
■ 实验7:配置ROS环境并实现“Hello World”
无人机视觉
实验目的:了解和掌握无人机视觉跟踪技术的基本原理和实现方法
实验内容:由于无人机能搭载的传感器和处理器性能有限,因此与常规数字图像处理方法相比,要求所应用的方法同时具备实时性和可靠性。本实验需要综合应用SIFT、SURF、YOLO等视觉跟踪方法,利用学生自己的计算机,实现视觉跟踪,并要求在实验中开始学习使用ROS(机器人操作系统)、OpenCV等工具。
■ 实验1:K-MEANS网络搭建
■ 实验2:GAN网络搭建
■ 实验3:CGAN网络搭建
■ 实验4:YOLO网络搭建(V1-V8)
■ 实验5:基于YOLO实现目标识别
无人机滤波和传感技术
实验目的:了解和掌握无人机使用传感器和滤波器的基本原理
实验内容:本实验主要针对无人机控制系统中所使用的传感器和滤波器基本原理,包括IMU(惯性传感器)、GPS(全球定位系统)或北斗定位系统、Kalman滤波器或互补滤波器,通过实验,使用实际无人机上采集的传感器数据来融合出可靠的位姿数据,巩固所学知识。
■ 实验1:多传感器数据融合
■ 实验2:前端光流
■ 实验3:高效的去畸变方式
■ 实验4:误差卡尔曼滤波
■ 实验5:连续时间预积分误差传递
■ 实验6:离散时间预积分误差传递
同步定位与建图
实验目的:了解和掌握无人机同步定位建图基本原理和实现方法
实验内容:本实验主要探索无人机在不依靠外部定位手段,如GPS、无线基站和动作捕捉系统等的情况下,仅依靠自身携带的传感器进行导航、定位和地图建立的SLAM(同步定位建图)方法,合作完成一种或几种典型的SLAM方法原理调研、实际运行测试、评价等。
■ 实验1:VINS-Mono代码编译运行
■ 实验2:预积分零偏建模方式
■ 实验3:VIO初始化
■ 实验4:VIO数据预处理
■ 实验5:旋转外参初始化
■ 实验6:ceres解析求导以及核函数
■ 实验7:预积分残差计算
■ 实验8:预积分雅可比计算
■ 实验9:视觉重投影
■ 实验10:视觉雅可比
■ 实验11:滑动窗口边缘化
■ 实验12:VINS_Fusion介绍及运行
■ 实验13:VINS_Fusion光流优化
■ 实验14:VINS_Fusion初始化
■ 实验15:VINS_Fusion后端优化
■ 实验16:鲁棒的外点剔除策略
■ 实验17:VINS_Fusion的GPS融合
无人机位姿控制
实验目的:以多旋翼无人机为例,了解无人机位姿控制的基本原理和方法,并通过实验对无人机的闭环相应特性获得直观认识。
实验内容:本实验将基于室内无人机飞行实验,学习和体验无人机姿态位置和姿态控制的控制器设计和调节方法,包括姿态环(内环)参数调节、位置环(外环)参数调节、扰动抑制、轨迹跟踪等环节。通过实验,同学可以更深入了解无人机控制器的构成和不同控制器参数对于飞行品质的影响。
■ 实验1:无人机的数学模型
■ 实验2:无人机动力模型
■ 实验3:无人机姿态模型
■ 实验4:无人机位置模型
■ 实验5:无人机模型线性优化
■ 实验6:基于欧拉角的控制器
■ 实验7:PID控制
■ 实验8:基于四元数的控制器
■ 实验9:基于旋转矩阵的控制器
无人机视觉控制
实验目的:了解无人机视觉控制的基本原理,通过实验掌握无人机视觉的基本方法。
实验内容:本实验将基于机载立体摄像头的口袋式室内无人机实验平台,学习无人机视觉跟踪的基本原理,包括图像跟踪、解耦控制、轨迹平滑等环节。
■ 实验1:回环检测数据流
■ 实验2:基于dbow的回环检测
■ 实验3:回环校验
■ 实验4:通过后端滑窗优化回环帧位姿
■ 实验5:四自由度位姿图优化
■ 实验6:视觉地图的保存和加载
基于PX4的开源飞控系统
实验目的:基于PX4开源平台,研究并调试多旋翼无人机飞控系统。
实验内容:综合应用控制和传感器相关知识,在课程组提供的PX4系统上,学习传感器采集模块、传感器数据融合和滤波模块、内环控制模块、外环控制模块、通信模块等的开发方法,并利用Mavros(MAVLink + ROS)开发相应的机载计算机程序,实现上位机对无人机的实时操控。
■ 实验1:基于PX4的四旋翼建模与控制
■ 实验2:四旋翼模型与控制基础
■ 实验3:实际飞行测试
■ 实验4:日志分析
■ 实验5:传感器与遥控器校准原理
■ 实验6:PX4自定义任务并执行
■ 实验7:PX4自定义参数并使用QGC显示
■ 实验8:PX4自定义uORB消息并保存到日志
■ 实验9:PX4控制算法
■ 实验10:PX4中uORB概览
■ 实验11:PX4位置-姿态-角速度控制逻辑
■ 实验12:基于SO3的姿态控制
■ 实验13:TD微分跟踪器原理与仿真
■ 实验14:ADRC误差组合
■ 实验15:LESO原理与仿真
■ 实验16:LADRC角速度环Simulink仿真
■ 实验17:LADRC飞控C++代码编写
■ 实验18:LADRC仿真与实物测试分析
■ 实验19:非线性ADRC原理与仿真
■ 实验20:一键起飞
■ 实验21:自动降落
■ 实验22:速度平滑
单目视觉跟踪与识别系统
实验目的:研究和探索无人机单目视觉追踪和识别的方法。
实验内容:综合应用计算机视觉和深度学习等相关知识,学习和开发基于特征的无人机视觉识别与跟踪方法、基于深度学习的无人机视觉与跟踪方法,并在安装有Ubuntu和Ros的计算机上实现。
■ 实验1:单目视觉位姿估计
■ 实验2:基于ceres自动求导的单目视觉BA优化
■ 实验3:陀螺仪零偏初始化
■ 实验4:视觉惯性对齐求解
■ 实验5:基于已知重力的视觉惯性对齐调整
立体视觉导航与避障系统
实验目的:研究和探索无人机立体视觉导航和避障方法。
实验内容:应用深度相机、激光雷达等具备深度测量能力的传感器,学习和开发无人机立体视觉同步定位建图导航方法、基于特征或学习的避障方法,并在安装有Ubuntu和Ros的计算机上实现。
无人机虚实融合仿真系统
实验目的:研究和探索无人机虚实融合仿真方法。
实验内容:应用Ros提供的Gazebo等工具,通过无线或有线方式接入开源飞控Px4的数据,开发完整的无人机虚实融合仿真系统,在虚拟系统中为无人机安装单目摄像头、深度摄像头、激光雷达等视觉传感器,实现虚拟环境下的无人机自主任务规划与飞行测试。
无人机视觉导航与避障技术
实验目的:研究和探索无人机视觉导航和避障方法。
实验内容:基于搭载轻量化计算平台、双目摄像头和和PX4飞控系统的微型无人机,开发算力受限情况下的无人机自主双目点云生成算法、视觉导航算法和自主避障算法,在室内实现飞行验证。
无人机视觉编队与任务规划技术
实验目的:研究和探索无人机视觉编队与任务规划方法。
实验内容:基于搭载轻量化计算平台、双目摄像头和和PX4飞控系统的微型无人机,开发算力受限情况下的分布式无人机视觉编队方法、集中式/分布式/智能式任务规划方法,并在室内实现飞行验证。
无人机编队实验
实验目的:认识在不同的无人机编队协议下,无人机编队的性能。
实验内容:利用Matlab和QuarQ等工具进行编程,通过WiFi建立服务器和无人机集群之间的通信,实现无人机集群的集中式和分布式编队飞行,并通过航迹变换和施加外部干扰等,验证不同的编队协议的鲁棒性和快速性之间的差异。
无人机智能任务规划
实验目的:通过实验综合掌握无人机全自主飞行及智能任务规划相关的方法。
实验内容:在机载Ubuntu和Ros系统上进行编程,并通过Mavros等工具与机载PX4飞控系统通信,利用机载双目摄像头采集的视觉数据生成点云,实现无人机在无GPS等外部导航手段的引导下的自主定位、自主导航、避障、路径规划和目标匹配,最终完成在开阔实验室空间内的智能任务规划。
基于ARM架构的人工智能实验与开发
基于RK3588芯片和Ubuntu操作系统开展实验。
■ 实验1:LeNet部署与开发
■ 实验2:AlexNet部署与开发
■ 实验3:VGG-Net部署与开发
■ 实验4:YOLO v5部署与开发
■ 实验5:YOLO v6部署与开发
■ 实验6:YOLO v7部署与开发
■ 实验7:YOLO v8部署与开发
■ 实验8:YOLO x部署与开发
■ 实验9:PP-Seg部署与开发
■ 实验10:PP-OCR部署与开发
■ 实验11:大语言模型部署与开发
■ 实验12:生成式人工智能乘客信息展示互动系统
基于Nvidia的人工智能实验与开发
基于Nvidia GPU和Ubuntu操作系统开展实验。
■ 实验1:GPIO控制
■ 实验2:视觉基础
■ 实验3:OpenCV基础
■ 实验4:二维码识别
■ 实验5:DeepStream部署与开发
■ 实验6:YOLO v11部署与开发
■ 实验7:Mediapipe部署与开发
■ 实验8:Docker安装与使用
■ 实验9:ROS1-Melodic使用
■ 实验10:ROS2-Humble使用
■ 实验11:Llama3模型部署与开发
■ 实验12:Qwen3模型部署与开发
■ 实验13:DeepSeek-R1部署与开发
基于RISC-V的人工智能实验与开发
基于JH7110芯片和Debian/Ubuntu操作系统开展实验。
■ 实验1:GPIO开发和移植
■ 实验2:以太网开发
■ 实验3:SPI/IIC/UART开发
■ 实验4:物体识别
■ 实验5:二维码识别与解码
■ 实验6:图像边缘检测
■ 实验7:编译和安装OpenWRT
■ 实验8:安装和运行Docker
基于华为昇腾的人工智能实验与开发
基于华为Atlas 200i DK A2和OpenEuler/Ubuntu操作系统开展实验。
■ 实验1:人体关键点检测
■ 实验2:多路视频采集
■ 实验3:行人识别
■ 实验4:安全帽识别
■ 实验5:基于DeepSPRT的深度学习Tracking算法
■ 实验6:中文OCR识别
无人机传感器原理相关开发
常用传感器数据读取和应用。
■ 实验1:红外避障碍传感器数据采集与展示
■ 实验2:霍尔传感器数据采集与展示
■ 实验3:温度湿度传感器数据采集与展示
■ 实验4:火焰传感器数据采集与展示
■ 实验5:上位机软件开发
惯性导航原理与相关开发
了解惯性导航相关原理并开发上位机软件。
■ 实验1:获取IMU数据
■ 实验2:获取卫星定位数据
■ 实验3:IMU与卫星定位数据融合
■ 实验4:在地图中记录轨迹
■ 实验5:GPS与Move_Base导航
■ 实验6:上位机软件开发
基于VISIM的飞行模拟
基于模拟器实现相关验证与开发。
■ 实验1 单台OWL无人机模拟
■ 实验2 多台OWL无人机模拟
■ 实验3 QGC控制单台OWL
■ 实验4 从命令行向单台OWL发送takeoff, landing, start, 和stoptask指令
■ 实验5 用rviz显示单台OWL传感器发出的数据
■ 实验6 OWL定点追踪移动物体
■ 实验7 路径规划:OWL简单路径规划,通过rviz设置目标位置
■ 实验8 路径规划:OWL使用ego_planner规划飞行路线,命令行与rviz结合控制
■ 实验9 用QGC和命令行控制多台OWL
■ 实验10 用rviz显示多台OWL传感器发出的数据
■ 实验11 通过rostopic向单台/多台OWL发布数据和命令
■ 实验12 OWL蜂群避障
机器视觉模型训练
实验目的:训练符合应用场景需求的人工智能机器视觉模型。
实验内容:通过高性能计算机和GPU服务器将无人机采集到的画面用于模型训练,定制符合实际用用场景需求的人工智能模型,可用于农作物长势预测、交通流量预测等场景。
无人机+大模型应用
实验目的:将既有大模型(如DeepSeek等)与无人机相结合,实现更多功能。
实验内容:在Ubuntu和Windows环境下搭建大模型运行环境,实现基本的文本识别与处理,然后尝试与无人机结合,实现无人机与大模型通信。
主要实验装备
AI视觉无人机开发平台

OWL 3/ OWL mini 3 系列无人机拥有自主研发的双目传感器和开发平台,平台支持 ROS 接口,提供了 8 核 CPU和6 Tops NPU计算资源,基于 PX4 开源飞控,预装融合了港科大的 VINS_Fusion VIO 算法的自定位系统,可以满足室内无人机定位需求,同时提供了 Ego-Planner 视觉避障算法,可以提供视觉避障功能。是一个安全、可靠、前沿、综合的无人机学习、实验平台,满足多样化的科研需求。集成 iTof、双目视觉、下摄激光、双轴增稳云台和超高清摄像头等多种传感器,能够有效感知规避 5 mm 直径的障碍物,用于 GNSS 拒止境下基于视觉的无人机飞行、定位、导航、避障、识别、跟踪等算法学习、实验、开发、验证,以及室内无人机组网编队的开发、实验。云台摄像支持机载高清高画质编码录制,同步支持低延迟视频图像传输功能,能清晰捕捉目标画面并实时传输给地面控制端或其他相关设备。

#

#

#

#

#

#

除基于视觉外,还可以提供基于激光雷达和 RTK 的版本。目前可以提供的 SLAM 类别包括基于单目摄像头、立体摄像头、激光雷达、IMU 等传感器的算法。课程组可以提供单目摄像头、立体摄像头、单线/多线激光雷达、面阵激光雷达、IMU 等多种传感器,便于同学开展实验研究。

三个版本的特征如下:

#

OWL Mini 3无人机体积小,重量轻,更加适合算法验证。

AI视觉无人机蜂群开发平台(激光雷达版)

猫头鹰3,实战派,全能旗舰,助力科研成果转化落地,与OWL mini 3相比,OWL 3 体型更大,负载更强,能够搭载更多设备,更适用于多场景。

#

#

蜂群控制系统主要模块包括飞控模块,定位模块,避障模块,captain,双目驱动,云台驱动,这些模块对内对外统一使用ROS1接口。其中,飞控模块运行基于PX4开源固件自主修改版本,其主要接口和框架兼容PX4规范。自主研发的双目驱动模块, 提供硬件时钟同步的双目数据及生成的深度图。无人机定位系统包括基于视觉的VIO,IMU等传感器数据融合,融合工作由飞控模块完成,定位模块在机载电脑上实现的视觉VIO。避障模块在避障功能打开的环境下,提供到单一或者连续目标点避障路径。为适应不同飞行任务需求,控制机载电脑上各个算法模块,Captain提供了一个统一控制点和任务管理器,方便实现不同的飞行任务。ROS1接口的云台驱动模块,提供云台姿态数据,提供云台控制接口,提供视频图像用于第三方软件实施跟踪。

蜂群软件架构包括单机系统和算法软件,多机协同软件,多机通讯机制。在多机协同环境,还需要协调多机轨迹、位置、同步完成多机目标飞行。适配了Ego-Planner-Swarm开源软件,作为多机协同下的避障导航软件。它结合了多机的位置,和各自目标下的轨迹,整体规划出防碰撞轨迹。再结合控制软件就可以同步控制集群进行目标飞行。在分布式多机协同系统中,需要互通网络环境和多机通讯机制。目前引用的Ego-Planner-Swarm软件是基于ROS系统的多机通讯机制,是Master/Slave架构的消息通讯机制。Visbot视觉模块提供了Wifi接口,可接入大功率Wi-Fi基站,优势是可以较长距离通讯;也可以配置成自组网模式, 省去Wi-Fi基站,可以满足小范围的机群需求。

#

在视觉版的基础上,激光雷达版搭载VisBot 3代视觉模块,双轴增稳云台以及4线LiDAR激光雷达,适用于无GPS环境下基于视觉/LiDAR的无人机定位/导航/避障算法的验证与开发,以及室内无人机组网编队的研究。激光定位基于LiDAR激光传感器获得的点云数据,并且融和惯性导航模块的6轴数据,实现的LIO算法。视觉定位是通过基于双目视觉传感器的双目图像,融和惯性导航模块数据,实现的VIO算法。可以基于动作捕捉系统定位,支持VRPN协议实时获得定位信息,提供真实飞行数据。避障功能是基于定位结果,基于LiDAR点云/iTof深度图/双目产生深度图,实时生成地图和路径规划的避障算法。

#

AI视觉无人机蜂群开发平台(RTK版)

猫头鹰3,实战派,全能旗舰,助力科研成果转化落地,与OWL mini 3相比,OWL 3 体型更大,负载更强,能够搭载更多设备,更适用于多场景。

#

#

蜂群软件架构包括单机系统和算法软件,多机协同软件,多机通讯机制。在多机协同环境,还需要协调多机轨迹、位置、同步完成多机目标飞行。适配了Ego-Planner-Swarm开源软件,作为多机协同下的避障导航软件。它结合了多机的位置,和各自目标下的轨迹,整体规划出防碰撞轨迹。再结合控制软件就可以同步控制集群进行目标飞行。在分布式多机协同系统中,需要互通网络环境和多机通讯机制。目前引用的Ego-Planner-Swarm软件是基于ROS系统的多机通讯机制,是Master/Slave架构的消息通讯机制。Visbot视觉模块提供了Wifi接口,可接入大功率Wi-Fi基站,优势是可以较长距离通讯;也可以配置成自组网模式,省去Wi-Fi基站,可以满足小范围的机群需求。

#

在视觉版的基础上,RTK版本搭载VisBot 3代视觉模块,双轴增稳云台以及RTK模块,适用于GPS环境下基于视觉/RTK的无人机定位/导航/避障算法的验证与开发,以及室内无人机组网编队的研究。

提供厘米级绝对精度,实时性与稳定性强,算力需求低,适合高处飞行。

分布式人工智能全场景智慧教学实训平台

分布式人工智能全场景智慧教学实训平台包括分布式人工智能系统主要组成部分,主要模块包括终端设备、边缘设备、网络设备和云端设备,可满足人工智能全流程教学与实验,可满足分布式、高性能计算与边缘计算相关教学与实验。终端节点可对采集到的数据进行初步处理,终端设备包括ARM、RISC-V、达芬奇(华为昇腾)等不同芯片架构类型的模块,可满足不同类型架构原理和程序开发学习、竞赛与科研需求。当终端节点性能不足以满足需求时,将一部分处理后的数据交由算力更强的边缘节点处理,边缘节点采用JETSON Orin NX Super,可满足基于Cuda的深度学习相关程序开发、竞赛与科研。云端设备提供高性能计算模块和存储模块,当终端和边缘设备算力无法满足需求时,可将部分处理后的数据交由高性能的云端处理,云端设备还提供存储模块,提供大容量数据存储空间。网络设备主要包括路由模块和交换模块,提供各模块之间的互联互通。各模块均采用开源方案,可二次开发,便于教学、竞赛和科研使用。

无人机传感器技术开发实训平台

无人机通常采用多种传感器,通过数据融合技术将来自不同传感器的数据整合成更准确的信息。传感器之间的协同工作可以实现无人机的高度自主飞行和复杂任务执行。无人机传感器技术开发实训平台提供多种传感器模块,主要包括惯性导航传感器模块、红外传感器、温湿度传感器、火焰传感器等。传感器模块套件配合单板计算机,实现各种传感器原理、应用、上位机软件编写等实验。

无人机GNSS INS惯性组合导航开发模块可用于学习无人机惯性导航。惯导的基本工作原理是以牛顿力学定律为基础,通过测量载体在惯性参考系的加速度,将它对时间进行积分,且把它变换到导航坐标系中,就能够得到在导航坐标系中的速度、偏航角和位置等信息。

教学无人机机械抓取平台

HT500Z是面向教学与竞赛的机械抓取无人机实训平台,配备可拆卸机械爪模块,支持物品抓取、运输及定点投放功能。

系统内置航线规划与基础避障能力,可满足物流运输课程实训需求,也可用于无人机相关竞赛。平台采用模块化设计,支持二次开发,便于与教学体系对接。

无人机蜂群表演编队

无人机蜂群表演编队支持手控飞行、定点飞行、自主航线飞行、自主返航等控制模式,支持横队、纵队、三角、方队、倒V、正V、包围式队形切换等编队模式。地面站软件支持无人机姿态、位置、电池、连接状态显示,支持报警信息提醒、指令发送、回传数据显示,支持目标工作区地图保存和显示、队形编辑、保存与加载。集控制、编辑一体,可预览已编程的飞行轨迹,动画展现飞行姿态,支持2D、3D模拟飞行,支持自动计算避障线路和防碰撞预警。

无人机算法模拟仿真器

无人机作为空中机器人,在各行各业发挥了重要的作用,无人机的AI赋能和蜂群协同是近年来的研究热点。

高校实验室与科研领域是无人机控制算法与AI赋能的主要研究阵地。面对未来AI时代,控制算法与AI赋能的教学和研发方式被重新定义,行业亟需一种更快速、高效的无人机控制算法研发模式。

无人机模拟仿真器VISIM可帮助教学及科研工作者在第一时间对算法进行实践验证,提高教学和科研效率,模拟验证后再用真机测试,减少风险和炸机发生概率。

基于PX4_SITL和Gazebo的环境,提供位置、速度、加速度等控制方式,用户可以验证自己的飞控算法和外围控制算法。

#  

自主飞行和路径规划方面,模拟器适配了Ego-Planner开源算法和一些基本的路径生成算法,方便用户实现轨迹生成算法及轨迹控制验证;

#

提供Ego-Planner-Swarm开源蜂群算法,用户也可在模拟器中开发/验证自己的集群/蜂群算法;

#

VSIM模拟仿真器也提供AI目标识别、跟踪算法和框架,方便用户实现无人机对目标的追踪等实验;

#

设备清单
序号 设备或部件名称 单位 数量 品牌 型号
1 AI视觉无人机开发平台 20 中航恒拓 OWL Mini 3
2 AI视觉无人机蜂群开发平台(激光雷达版) 5 中航恒拓 OWL 3LS
3 AI视觉无人机蜂群开发平台(RTK版) 5 中航恒拓 OWL 3 RTK
4 分布式人工智能全场景智慧教学实训平台 1 中航恒拓 HT-ZJ150A
5 无人机传感器技术开发实训平台 20 中航恒拓 HT-Sensors-EDU
6 教学无人机机械抓取平台 6 中航恒拓 HT500Z
7 无人机蜂群表演编队 8 中航恒拓 HT-BY200
8 无人机算法模拟仿真器 5 中航恒拓 VISIM
9 高性能计算机 20 主流品牌 主流型号
10 GPU服务器 2 主流品牌 主流型号
11 交换机 1 主流品牌 主流型号
12 机柜 1 主流品牌 22U
配套课程资源
无人机与深度学习
主要包括无人机算法、无人机与深度学习视频教程,主要包括零基础入门四旋翼建模与控制等。
人工智能基础
主要包括深度学习经典检测方法概述、K-MEANS、生成对抗网络、条件生成对抗网络等视频课程。
机器视觉
主要包括AlexNet网络思想与网络架构、YOLO-V1整体思想与网络架构、YOLO-V2改进细节详解、YOLO-V3核心网络模型、基于V3版本进行源码解读、YOLO V4和V5、迁移学习与Resnet网络等相关视频课程。
ROS和SLAM
主要包括ROS基础、机器人环境感知、机器人SLAM与自主导航、多模态SLAM技术和算法框架、激光-惯性子系统(LIS)及代码精读、视觉-惯性子系统(VIS)及代码精读、激光-视觉-惯性数据融合与优化融合、ROS理论与实践Moveit、ROS机器人综合应用等相关PPT、教案和视频课程。
人工智能系统软硬件环境搭建
如何构建各类基于不同硬件架构的人工智能系统
■ 基于英伟达/ARM/华为昇腾等不同架构的AI基础教程、配套例程
■ 基于英伟达/ARM/华为昇腾等不同架构的AI开发环境搭建教程
人工智能相关项目部署与开发
■ 基于英伟达/ARM/华为昇腾等不同架构的AI视觉模型部署与开发教程、配套例程(LeNet、VGGNet、Yolo、PP-Seg、PP-OCR等)
■ 基于英伟达/ARM/华为昇腾等不同架构的AI视觉模型与AI视觉交互应用教程(人脸识别、物体识别、车牌识别、姿态估计、手势识别、手势控制等)
■ 基于英伟达/ARM/华为昇腾等不同架构的AI大语言模型离线部署与开发教程、配套例程(DeepSeek、Qwen等以及大模型对话平台)
■ AI语音克隆模型部署与开发教程
■ Linux系统与驱动开发教程
■ ROS/ROS2基础与开发教程
■ OpenCV应用及开发教程
■ Docker安装与使用教程
■ Qt开发教程、配套例程
■ 配套开发工具及系统镜像
无人机传感器系统开发
各类传感器技术资料、开发指导以及例程。
无人机惯性导航开发
惯性导航系统开发手册、基本例程、相关资料文档、测试用上位机软件。
无人机算法入门课程
包括无人机算法、无人机与深度学习视频教程,主要包括零基础入门四旋翼建模与控制等。