中国石油大学(北京校区)人工智能实验室建设方案 - 中航恒拓

中国石油大学(北京校区)

人工智能实验室建设方案

导出pdf或打印

中国石油大学(北京校区)人工智能实验室建设方案

概述
无人机与人工智能的结合,正在重塑传统行业并开拓全新应用场景。通过搭载AI芯片、传感器及深度学习算法,无人机实现了从“远程操控工具”到“自主决策终端”的跨越式进化。在核心技术层面,AI赋予无人机实时环境感知能力,如通过计算机视觉识别障碍物、追踪目标,结合SLAM技术实现复杂场景下的精准避障与路径规划。行业应用中,农业无人机通过多光谱分析精准监测作物健康,物流无人机利用智能调度系统优化配送路线,安防巡检无人机则能自动识别异常行为并预警。更值得关注的是,AI驱动的无人机集群技术已应用于灾害救援,多机协作可快速构建三维灾情模型,提升搜救效率。
随着边缘计算与5G技术的融合,未来无人机将在城市管理、环境保护等领域展现更强的实时决策能力,但同时也面临数据隐私、空域安全等挑战,亟待技术标准与法规的协同创新,无人机+人工智能在多个学科和领域都有着学术研究意义。对于高等院校来说,面对无人机技术和人工智能技术的发展,如何培养兼具不同学科和领域的技术应用与行业知识的复合型人才成为了重点,同时,人工智能技术能够与高校教学的深度融合,将推动教育从“规模导向”向“质量驱动”转型,要求高校在课程创新、师资建设、成果落地、资源整合等领域实现系统性变革,结合学生自身情况,从“标准化教学”转向“精准化育人”。
建立无人机与人工智能实验室,能够推动技术研发和创新,培养复合型人才,搭建产教融合实践平台,加速人工智能与无人机融合技术的突破。同时驱动产业升级与经济发展,革新教育模式与科研体系,不仅是技术研发与人才培养的基础设施,更是连接教育、产业与科研的核心枢纽,其目标在于通过技术赋能与生态协同,推动社会生产力和创新能力的双重跃升。
建设方案
本方案旨在构建具备前沿技术支撑的人工智能实验室建设方案,通过系统化部署实现教学、实训、科研与产业转化的无缝衔接。根据中国石油大学(北京校区)实际情况及根据专业需求,人工智能实验室建设方案建设方案主要分为人工智能实验室等功能区域。


人工智能实验室

   

主要功能
掌握人工智能系统环境搭建
了解和掌握主要人工智能开发和应用的系统环境搭建,能够运行常见人工智能模型并进行实验。
了解环境感知与传感器技术
了解和掌握智能环境感知和传感器相关技术,学习ROS与SLAM建图相关技术并进行实验。
掌握无人机+人工智能相关知识
了解和掌握人工智能、深度学习、机器视觉等知识,学习无人机避障碍、导航、目标跟踪等原理并实现相关应用。熟悉并配置ROS操作系统,熟悉Linux操作系统常用命令。
了解无人机自主飞行原理
了解和验证无人机自主飞行相关技术方案和原理,学习无人机控制相关技术并进行实验。
了解和掌握蜂群协同定位和协同控制
支持多无人机之间的协同定位,使蜂群在飞行过程中能够准确知晓彼此位置,为蜂群的协同飞行、编队等功能提供基础。可实现无人机之间的机间两两通信,任意一架无人机均可获取其他无人机的信息以及控制其他无人机飞行,从而实现蜂群的协同飞行、编队变换等复杂功能,以完成各种任务。
主要课程与实验
ROS及相关技术
ROS系统而是一个运行在Linux等操作系统之上的次级操作系统。它通过提供硬件抽象、底层设备控制、进程间消息传递等功能,帮助开发者高效地创建和管理机器人应用软件,将机器人的软件功能模块化,形成一个个节点,这些节点可以通过发送消息进行通信,从而实现复杂的机器人行为。
■ 实验1:Ubuntu操作系统安装
■ 实验2:Ubuntu操作系统安装应用程序
■ 实验3:Ubuntu操作系统命令行操作
■ 实验4:ROS的安装
■ 实验5:ROS的运行(海龟移动)
■ 实验6:安装Visual Studio Code编辑器
■ 实验7:配置ROS环境并实现“Hello World”
无人机视觉
实验目的:了解和掌握无人机视觉跟踪技术的基本原理和实现方法
实验内容:由于无人机能搭载的传感器和处理器性能有限,因此与常规数字图像处理方法相比,要求所应用的方法同时具备实时性和可靠性。本实验需要综合应用SIFT、SURF、YOLO等视觉跟踪方法,利用学生自己的计算机,实现视觉跟踪,并要求在实验中开始学习使用ROS(机器人操作系统)、OpenCV等工具。
■ 实验1:K-MEANS网络搭建
■ 实验2:GAN网络搭建
■ 实验3:CGAN网络搭建
■ 实验4:YOLO网络搭建(V1-V8)
■ 实验5:基于YOLO实现目标识别
无人机滤波和传感技术
实验目的:了解和掌握无人机使用传感器和滤波器的基本原理
实验内容:本实验主要针对无人机控制系统中所使用的传感器和滤波器基本原理,包括IMU(惯性传感器)、GPS(全球定位系统)或北斗定位系统、Kalman滤波器或互补滤波器,通过实验,使用实际无人机上采集的传感器数据来融合出可靠的位姿数据,巩固所学知识。
■ 实验1:多传感器数据融合
■ 实验2:前端光流
■ 实验3:高效的去畸变方式
■ 实验4:误差卡尔曼滤波
■ 实验5:连续时间预积分误差传递
■ 实验6:离散时间预积分误差传递
同步定位与建图
实验目的:了解和掌握无人机同步定位建图基本原理和实现方法
实验内容:本实验主要探索无人机在不依靠外部定位手段,如GPS、无线基站和动作捕捉系统等的情况下,仅依靠自身携带的传感器进行导航、定位和地图建立的SLAM(同步定位建图)方法,合作完成一种或几种典型的SLAM方法原理调研、实际运行测试、评价等。
■ 实验1:VINS-Mono代码编译运行
■ 实验2:预积分零偏建模方式
■ 实验3:VIO初始化
■ 实验4:VIO数据预处理
■ 实验5:旋转外参初始化
■ 实验6:ceres解析求导以及核函数
■ 实验7:预积分残差计算
■ 实验8:预积分雅可比计算
■ 实验9:视觉重投影
■ 实验10:视觉雅可比
■ 实验11:滑动窗口边缘化
■ 实验12:VINS_Fusion介绍及运行
■ 实验13:VINS_Fusion光流优化
■ 实验14:VINS_Fusion初始化
■ 实验15:VINS_Fusion后端优化
■ 实验16:鲁棒的外点剔除策略
■ 实验17:VINS_Fusion的GPS融合
无人机位姿控制
实验目的:以多旋翼无人机为例,了解无人机位姿控制的基本原理和方法,并通过实验对无人机的闭环相应特性获得直观认识。
实验内容:本实验将基于室内无人机飞行实验,学习和体验无人机姿态位置和姿态控制的控制器设计和调节方法,包括姿态环(内环)参数调节、位置环(外环)参数调节、扰动抑制、轨迹跟踪等环节。通过实验,同学可以更深入了解无人机控制器的构成和不同控制器参数对于飞行品质的影响。
■ 实验1:无人机的数学模型
■ 实验2:无人机动力模型
■ 实验3:无人机姿态模型
■ 实验4:无人机位置模型
■ 实验5:无人机模型线性优化
■ 实验6:基于欧拉角的控制器
■ 实验7:PID控制
■ 实验8:基于四元数的控制器
■ 实验9:基于旋转矩阵的控制器
无人机视觉控制
实验目的:了解无人机视觉控制的基本原理,通过实验掌握无人机视觉的基本方法。
实验内容:本实验将基于机载立体摄像头的口袋式室内无人机实验平台,学习无人机视觉跟踪的基本原理,包括图像跟踪、解耦控制、轨迹平滑等环节。
■ 实验1:回环检测数据流
■ 实验2:基于dbow的回环检测
■ 实验3:回环校验
■ 实验4:通过后端滑窗优化回环帧位姿
■ 实验5:四自由度位姿图优化
■ 实验6:视觉地图的保存和加载
基于PX4的开源飞控系统
实验目的:基于PX4开源平台,研究并调试多旋翼无人机飞控系统。
实验内容:综合应用控制和传感器相关知识,在课程组提供的PX4系统上,学习传感器采集模块、传感器数据融合和滤波模块、内环控制模块、外环控制模块、通信模块等的开发方法,并利用Mavros(MAVLink + ROS)开发相应的机载计算机程序,实现上位机对无人机的实时操控。
■ 实验1:基于PX4的四旋翼建模与控制
■ 实验2:四旋翼模型与控制基础
■ 实验3:实际飞行测试
■ 实验4:日志分析
■ 实验5:传感器与遥控器校准原理
■ 实验6:PX4自定义任务并执行
■ 实验7:PX4自定义参数并使用QGC显示
■ 实验8:PX4自定义uORB消息并保存到日志
■ 实验9:PX4控制算法
■ 实验10:PX4中uORB概览
■ 实验11:PX4位置-姿态-角速度控制逻辑
■ 实验12:基于SO3的姿态控制
■ 实验13:TD微分跟踪器原理与仿真
■ 实验14:ADRC误差组合
■ 实验15:LESO原理与仿真
■ 实验16:LADRC角速度环Simulink仿真
■ 实验17:LADRC飞控C++代码编写
■ 实验18:LADRC仿真与实物测试分析
■ 实验19:非线性ADRC原理与仿真
■ 实验20:一键起飞
■ 实验21:自动降落
■ 实验22:速度平滑
单目视觉跟踪与识别系统
实验目的:研究和探索无人机单目视觉追踪和识别的方法。
实验内容:综合应用计算机视觉和深度学习等相关知识,学习和开发基于特征的无人机视觉识别与跟踪方法、基于深度学习的无人机视觉与跟踪方法,并在安装有Ubuntu和Ros的计算机上实现。
■ 实验1:单目视觉位姿估计
■ 实验2:基于ceres自动求导的单目视觉BA优化
■ 实验3:陀螺仪零偏初始化
■ 实验4:视觉惯性对齐求解
■ 实验5:基于已知重力的视觉惯性对齐调整
立体视觉导航与避障系统
实验目的:研究和探索无人机立体视觉导航和避障方法。
实验内容:应用深度相机、激光雷达等具备深度测量能力的传感器,学习和开发无人机立体视觉同步定位建图导航方法、基于特征或学习的避障方法,并在安装有Ubuntu和Ros的计算机上实现。
无人机虚实融合仿真系统
实验目的:研究和探索无人机虚实融合仿真方法。
实验内容:应用Ros提供的Gazebo等工具,通过无线或有线方式接入开源飞控Px4的数据,开发完整的无人机虚实融合仿真系统,在虚拟系统中为无人机安装单目摄像头、深度摄像头、激光雷达等视觉传感器,实现虚拟环境下的无人机自主任务规划与飞行测试。
无人机视觉导航与避障技术
实验目的:研究和探索无人机视觉导航和避障方法。
实验内容:基于搭载轻量化计算平台、双目摄像头和和PX4飞控系统的微型无人机,开发算力受限情况下的无人机自主双目点云生成算法、视觉导航算法和自主避障算法,在室内实现飞行验证。
无人机视觉编队与任务规划技术
实验目的:研究和探索无人机视觉编队与任务规划方法。
实验内容:基于搭载轻量化计算平台、双目摄像头和和PX4飞控系统的微型无人机,开发算力受限情况下的分布式无人机视觉编队方法、集中式/分布式/智能式任务规划方法,并在室内实现飞行验证。
无人机编队实验
实验目的:认识在不同的无人机编队协议下,无人机编队的性能。
实验内容:利用Matlab和QuarQ等工具进行编程,通过WiFi建立服务器和无人机集群之间的通信,实现无人机集群的集中式和分布式编队飞行,并通过航迹变换和施加外部干扰等,验证不同的编队协议的鲁棒性和快速性之间的差异。
无人机智能任务规划
实验目的:通过实验综合掌握无人机全自主飞行及智能任务规划相关的方法。
实验内容:在机载Ubuntu和Ros系统上进行编程,并通过Mavros等工具与机载PX4飞控系统通信,利用机载双目摄像头采集的视觉数据生成点云,实现无人机在无GPS等外部导航手段的引导下的自主定位、自主导航、避障、路径规划和目标匹配,最终完成在开阔实验室空间内的智能任务规划。
主要实验装备
AI视觉无人机蜂群开发平台

OWL 3/ OWL mini 3 系列无人机拥有自主研发的双目传感器和开发平台,平台支持 ROS 接口,提供了 8 核 CPU和6 Tops NPU计算资源,基于 PX4 开源飞控,预装融合了港科大的 VINS_Fusion VIO 算法的自定位系统,可以满足室内无人机定位需求,同时提供了 Ego-Planner 视觉避障算法,可以提供视觉避障功能。是一个安全、可靠、前沿、综合的无人机学习、实验平台,满足多样化的科研需求。集成 iTof、双目视觉、下摄激光、双轴增稳云台和超高清摄像头等多种传感器,能够有效感知规避 5 mm 直径的障碍物,用于 GNSS 拒止境下基于视觉的无人机飞行、定位、导航、避障、识别、跟踪等算法学习、实验、开发、验证,以及室内无人机组网编队的开发、实验。云台摄像支持机载高清高画质编码录制,同步支持低延迟视频图像传输功能,能清晰捕捉目标画面并实时传输给地面控制端或其他相关设备。

#

#

#

#

#

#

除基于视觉外,还可以提供基于激光雷达和 RTK 的版本。目前可以提供的 SLAM 类别包括基于单目摄像头、立体摄像头、激光雷达、IMU 等传感器的算法。课程组可以提供单目摄像头、立体摄像头、单线/多线激光雷达、面阵激光雷达、IMU 等多种传感器,便于同学开展实验研究。

三个版本的特征如下:

#

猫头鹰3,实战派,全能旗舰,助力科研成果转化落地,与OWL mini 3相比,OWL 3 体型更大,负载更强,能够搭载更多设备,更适用于多场景。

#

#

蜂群控制系统主要模块包括飞控模块,定位模块,避障模块,captain,双目驱动,云台驱动,这些模块对内对外统一使用ROS1接口。其中,飞控模块运行基于PX4开源固件自主修改版本,其主要接口和框架兼容PX4规范。自主研发的双目驱动模块, 提供硬件时钟同步的双目数据及生成的深度图。无人机定位系统包括基于视觉的VIO,IMU等传感器数据融合,融合工作由飞控模块完成,定位模块在机载电脑上实现的视觉VIO。避障模块在避障功能打开的环境下,提供到单一或者连续目标点避障路径。为适应不同飞行任务需求,控制机载电脑上各个算法模块,Captain提供了一个统一控制点和任务管理器,方便实现不同的飞行任务。ROS1接口的云台驱动模块,提供云台姿态数据,提供云台控制接口,提供视频图像用于第三方软件实施跟踪。

蜂群软件架构包括单机系统和算法软件,多机协同软件,多机通讯机制。在多机协同环境,还需要协调多机轨迹、位置、同步完成多机目标飞行。适配了Ego-Planner-Swarm开源软件,作为多机协同下的避障导航软件。它结合了多机的位置,和各自目标下的轨迹,整体规划出防碰撞轨迹。再结合控制软件就可以同步控制集群进行目标飞行。在分布式多机协同系统中,需要互通网络环境和多机通讯机制。目前引用的Ego-Planner-Swarm软件是基于ROS系统的多机通讯机制,是Master/Slave架构的消息通讯机制。Visbot视觉模块提供了Wifi接口,可接入大功率Wi-Fi基站,优势是可以较长距离通讯;也可以配置成自组网模式, 省去Wi-Fi基站,可以满足小范围的机群需求。

设备清单
序号 设备或部件名称 单位 数量 型号
1 AI视觉无人机蜂群开发平台 4 OWL 3S
配套课程资源
无人机与深度学习
主要包括无人机算法、无人机与深度学习视频教程,主要包括零基础入门四旋翼建模与控制等。
人工智能基础
主要包括深度学习经典检测方法概述、K-MEANS、生成对抗网络、条件生成对抗网络等视频课程。
机器视觉
主要包括AlexNet网络思想与网络架构、YOLO-V1整体思想与网络架构、YOLO-V2改进细节详解、YOLO-V3核心网络模型、基于V3版本进行源码解读、YOLO V4和V5、迁移学习与Resnet网络等相关视频课程。
ROS和SLAM
主要包括ROS基础、机器人环境感知、机器人SLAM与自主导航、多模态SLAM技术和算法框架、激光-惯性子系统(LIS)及代码精读、视觉-惯性子系统(VIS)及代码精读、激光-视觉-惯性数据融合与优化融合、ROS理论与实践Moveit、ROS机器人综合应用等相关PPT、教案和视频课程。