实验室或功能区 - 项目管理系统
项目
产品
装配
交付
日程
通知1:禁止将客户和外部人员的包括U盘、移动硬盘在内的存储设备插入公司电脑。 通知2:外部人员连接WiFi请使用“ZHHT-Guest”,不可使用ZHHT。 通知3:百度网盘、向日葵等软件不使用时请关闭,以节约网络资源。
实验室或功能区 人工智能系统创新开发实验室 - 方案文档

人工智能系统创新开发实验室


主要功能
了解分布式、边缘计算和各类芯片架构原理
分布式人工智能全场景智慧教学与实训平台包括分布式人工智能系统各个主要组成部分,主要模块包括终端设备、边缘设备、网络设备和云端设备,可满足人工智能全场景教学、实验与科研。
满足人工智能不同场景教学实验需求
满足计算机网络、分布式计算、高性能计算与边缘计算相关教学与实验,实现人工智能模型训练与优化,可满足各类人工智能应用开发、测试与部署,满足大语言模型离线部署与应用。各模块支持二次开发,提供丰富教程资料,便于教学、竞赛和科研使用。
终端节点相关算法验证和开发
终端节点可对采集到的数据进行初步处理,终端设备包括ARM和RISC-V不同芯片架构类型的模块,可满足不同类型架构芯片的原理学习和程序开发、Linux相关基础学习与开发、基础AI模型的部署等。
边缘节点相关算法验证和开发
当终端节点性能不满足需求时,将一部分处理后的数据交由算力更强的边缘节点处理,边缘节点采用JETSON Orin NX Super和华为昇腾架构,可满足不同类型架构芯片的原理学习,满足较为复杂的深度学习相关程序开发和部署。
云端节点相关算法验证和开发
云端设备提供高性能计算模块和存储模块,当终端和边缘设备算力无法满足需求时,可将部分处理后的数据交由高性能的云端处理,可满足模型训练与推理,提供大语言模型本地化部署方案。
云端设备还提供存储模块,提供大容量数据存储空间,各模块均可访问其数据。
网络原理和相关配置学习
网络设备主要包括路由模块、交换模块和管理模块,路由模块、交换模块提供各模块之间的互联互通,路由模块支持二次开发,支持自定义网络环境配置。
了解和掌握蜂群协同定位和协同控制
支持多无人机之间的协同定位,使蜂群在飞行过程中能够准确知晓彼此位置,为蜂群的协同飞行、编队等功能提供基础。可实现无人机之间的机间两两通信,任意一架无人机均可获取其他无人机的信息以及控制其他无人机飞行,从而实现蜂群的协同飞行、编队变换等复杂功能,以完成各种任务。
无人机算法仿真
在计算机上模拟无人机在实际场景中的行为和传感器反应,提供机上各种传感器(如深度相机)数据,包括位置坐标、点云、深度图等,可在计算机中模拟无人机与人工智能算法,避免因程序设计不当造成无人机损坏或造成人员受伤。
主要实验装备
分布式人工智能全场景智慧教学实训平台

分布式人工智能全场景智慧教学实训平台包括分布式人工智能系统主要组成部分,主要模块包括终端设备、边缘设备、网络设备和云端设备,可满足人工智能全流程教学与实验,可满足分布式、高性能计算与边缘计算相关教学与实验。终端节点可对采集到的数据进行初步处理,终端设备包括ARM、RISC-V、达芬奇(华为昇腾)等不同芯片架构类型的模块,可满足不同类型架构原理和程序开发学习、竞赛与科研需求。当终端节点性能不足以满足需求时,将一部分处理后的数据交由算力更强的边缘节点处理,边缘节点采用JETSON Orin NX Super,可满足基于Cuda的深度学习相关程序开发、竞赛与科研。云端设备提供高性能计算模块和存储模块,当终端和边缘设备算力无法满足需求时,可将部分处理后的数据交由高性能的云端处理,云端设备还提供存储模块,提供大容量数据存储空间。网络设备主要包括路由模块和交换模块,提供各模块之间的互联互通。各模块均采用开源方案,可二次开发,便于教学、竞赛和科研使用。

AI视觉无人机开发平台(激光雷达版)

激光雷达版搭载VisBot 3代视觉模块,双轴增稳云台以及4线LiDAR激光雷达,适用于无GPS环境下基于视觉/LiDAR的无人机定位/导航/避障算法的验证与开发,以及室内无人机组网编队的研究。激光定位基于LiDAR激光传感器获得的点云数据,并且融和惯性导航模块的6轴数据,实现的LIO算法。视觉定位是通过基于双目视觉传感器的双目图像,融和惯性导航模块数据,实现的VIO算法。可以基于动作捕捉系统定位,支持VRPN协议实时获得定位信息,提供真实飞行数据。避障功能是基于定位结果,基于LiDAR点云/iTof深度图/双目产生深度图,实时生成地图和路径规划的避障算法。

激光雷达通过发射激光束并接收反射光来测量距离,能提供高精度的距离数据,可精确探测到障碍物的位置、形状和大小等信息,相比单纯的视觉传感器,受光照条件、物体表面纹理等因素的影响更小。可以在诸如电磁干扰、强光干扰等复杂的环境中稳定工作,减少因外部干扰而导致的误差,保证无人机对周围环境的准确感知。结合激光雷达获取的大量精确距离数据和OWL mini3L自身的计算能力,能够快速构建出周围环境的三维模型,为无人机的自主导航、路径规划以及避障提供更全面、准确的信息基础,使其能更好地适应复杂多变的环境。

AI视觉无人机开发平台(激光雷达版)

猫头鹰3,实战派。全能旗舰,助力科研成果转化落地,与猫头鹰Mini 3相比,猫头鹰 3体型更大,负载更强,能够搭载更多设备,适用于更多场景。

#

#

OWL 3L搭载VisBot 3代视觉模块,双轴增稳云台以及4线LiDAR激光雷达,适用于无GPS环境下基于视觉/LiDAR的无人机定位/导航/避障算法的验证与开发,以及室内无人机组网编队的研究。

激光雷达定位基于LiDAR激光传感器获得的点云数据,融合惯性导航模块的6轴数据,实现LIO算法。

视觉定位基于双目视觉传感器捕获的双目图像,融合惯性导航模块数据,实现VIO算法。

可基于动作捕捉系统定位,支持VRPN协议实时获得定位信息,提供真实飞行数据。

支持基于LiDAR点云/iTof深度图/双目产生深度图,实时生成地图和路径规划的避障算法。

#

激光雷达通过发射激光束并接收反射光来测量距离,能够提供高精度的距离数据,可精确探测到障碍物的位置、形状和大小等信息,相比单纯的视觉传感器,激光雷达传感器受光照条件、物体表面纹理等因素的影响更小。可以在诸如电磁干扰、强光干扰等复杂的环境中稳定工作,减少因外部干扰而导致的误差,保证无人机对周围环境的准确感知。结合激光雷达获取的大量精确距离数据和OWL3L自身的计算能力,能够快速构建出周围环境的三维模型,为无人机的自主导航、路径规划以及避障提供更全面、准确的信息基础,使其能更好地适应复杂多变的环境。

AI视觉无人机蜂群开发平台(RTK版)

猫头鹰3,实战派,全能旗舰,助力科研成果转化落地,与OWL mini 3相比,OWL 3 体型更大,负载更强,能够搭载更多设备,更适用于多场景。

#

#

蜂群软件架构包括单机系统和算法软件,多机协同软件,多机通讯机制。在多机协同环境,还需要协调多机轨迹、位置、同步完成多机目标飞行。适配了Ego-Planner-Swarm开源软件,作为多机协同下的避障导航软件。它结合了多机的位置,和各自目标下的轨迹,整体规划出防碰撞轨迹。再结合控制软件就可以同步控制集群进行目标飞行。在分布式多机协同系统中,需要互通网络环境和多机通讯机制。目前引用的Ego-Planner-Swarm软件是基于ROS系统的多机通讯机制,是Master/Slave架构的消息通讯机制。Visbot视觉模块提供了Wifi接口,可接入大功率Wi-Fi基站,优势是可以较长距离通讯;也可以配置成自组网模式,省去Wi-Fi基站,可以满足小范围的机群需求。

#

在视觉版的基础上,RTK版本搭载VisBot 3代视觉模块,双轴增稳云台以及RTK模块,适用于GPS环境下基于视觉/RTK的无人机定位/导航/避障算法的验证与开发,以及室内无人机组网编队的研究。

提供厘米级绝对精度,实时性与稳定性强,算力需求低,适合高处飞行。

无人车开发平台

基于ROS操作系统开发的智能视觉搬运机器人,以树莓派4B为主控,采用Python编程,在视觉机械臂的基础上,增加了一个可以全向移动的麦克纳姆轮底盘,使得机器人可以进行移动抓取、目标追踪、智能搬运等功能,底盘可以自由拆卸,既可以作为桌面视觉机械臂使用,也可以作为移动视觉机械臂使用,提供源代码及两百多节课程资料,帮助用户更好的学习相关知识。能够与无人机配合实现空地协同。

无人机算法模拟仿真器

无人机作为空中机器人,在各行各业发挥了重要的作用,无人机的AI赋能和蜂群协同是近年来的研究热点。

高校实验室与科研领域是无人机控制算法与AI赋能的主要研究阵地。面对未来AI时代,控制算法与AI赋能的教学和研发方式被重新定义,行业亟需一种更快速、高效的无人机控制算法研发模式。

无人机模拟仿真器VISIM可帮助教学及科研工作者在第一时间对算法进行实践验证,提高教学和科研效率,模拟验证后再用真机测试,减少风险和炸机发生概率。

基于PX4_SITL和Gazebo的环境,提供位置、速度、加速度等控制方式,用户可以验证自己的飞控算法和外围控制算法。

#  

自主飞行和路径规划方面,模拟器适配了Ego-Planner开源算法和一些基本的路径生成算法,方便用户实现轨迹生成算法及轨迹控制验证;

#

提供Ego-Planner-Swarm开源蜂群算法,用户也可在模拟器中开发/验证自己的集群/蜂群算法;

#

VSIM模拟仿真器也提供AI目标识别、跟踪算法和框架,方便用户实现无人机对目标的追踪等实验;

#

无人机蜂群表演编队

无人机蜂群表演编队支持手控飞行、定点飞行、自主航线飞行、自主返航等控制模式,支持横队、纵队、三角、方队、倒V、正V、包围式队形切换等编队模式。地面站软件支持无人机姿态、位置、电池、连接状态显示,支持报警信息提醒、指令发送、回传数据显示,支持目标工作区地图保存和显示、队形编辑、保存与加载。集控制、编辑一体,可预览已编程的飞行轨迹,动画展现飞行姿态,支持2D、3D模拟飞行,支持自动计算避障线路和防碰撞预警。

球形集群编队表演无人机

球形集群编队表演无人机基于UWB制式基站进行定位,无需GPS即可实现各种环境下精确室内外定位。

机身搭载可编程256色灯光系统,能够实现不同颜色效果。系统通过PC端地面站实现编程编队、实时控制功能,支持飞行动作与灯光同步编程及实时动态仿真,预览编程实际效果,最多可同时控制 10 架无人机在线同步飞行。

实验室设备清单
序号 设备名称 单位 数量 设备品牌 设备型号
1 分布式人工智能全场景智慧教学实训平台 1 中航恒拓 HT-ZJ150A
2 AI视觉无人机开发平台(激光雷达版) 15 中航恒拓 OWL Mini 3L
3 AI视觉无人机开发平台(激光雷达版) 5 中航恒拓 OWL 3L
4 AI视觉无人机蜂群开发平台(RTK版) 5 中航恒拓 OWL 3 RTK
5 无人车开发平台 3 中航恒拓 HT-CAR
6 无人机算法模拟仿真器 5 中航恒拓 VISIM
7 无人机蜂群表演编队 10 中航恒拓 HT-BY200
8 球形集群编队表演无人机 5 中航恒拓 HT-BY100
9 高性能计算机 15 主流品牌 主流型号
10 GPU服务器 2 主流品牌 主流型号
主要课程与实验
基于ARM架构的人工智能实验与开发
基于RK3588芯片和Ubuntu操作系统开展实验。
■ 实验1:LeNet部署与开发
■ 实验2:AlexNet部署与开发
■ 实验3:VGG-Net部署与开发
■ 实验4:YOLO v5部署与开发
■ 实验5:YOLO v6部署与开发
■ 实验6:YOLO v7部署与开发
■ 实验7:YOLO v8部署与开发
■ 实验8:YOLO x部署与开发
■ 实验9:PP-Seg部署与开发
■ 实验10:PP-OCR部署与开发
■ 实验11:大语言模型部署与开发
■ 实验12:生成式人工智能乘客信息展示互动系统
基于Nvidia的人工智能实验与开发
基于Nvidia GPU和Ubuntu操作系统开展实验。
■ 实验1:GPIO控制
■ 实验2:视觉基础
■ 实验3:OpenCV基础
■ 实验4:二维码识别
■ 实验5:DeepStream部署与开发
■ 实验6:YOLO v11部署与开发
■ 实验7:Mediapipe部署与开发
■ 实验8:Docker安装与使用
■ 实验9:ROS1-Melodic使用
■ 实验10:ROS2-Humble使用
■ 实验11:Llama3模型部署与开发
■ 实验12:Qwen3模型部署与开发
■ 实验13:DeepSeek-R1部署与开发
基于RISC-V的人工智能实验与开发
基于JH7110芯片和Debian/Ubuntu操作系统开展实验。
■ 实验1:GPIO开发和移植
■ 实验2:以太网开发
■ 实验3:SPI/IIC/UART开发
■ 实验4:物体识别
■ 实验5:二维码识别与解码
■ 实验6:图像边缘检测
■ 实验7:编译和安装OpenWRT
■ 实验8:安装和运行Docker
基于华为昇腾的人工智能实验与开发
基于华为Atlas 200i DK A2和OpenEuler/Ubuntu操作系统开展实验。
■ 实验1:人体关键点检测
■ 实验2:多路视频采集
■ 实验3:行人识别
■ 实验4:安全帽识别
■ 实验5:基于DeepSPRT的深度学习Tracking算法
■ 实验6:中文OCR识别
基于VISIM的飞行模拟
基于模拟器实现相关验证与开发。
■ 实验1 单台OWL无人机模拟
■ 实验2 多台OWL无人机模拟
■ 实验3 QGC控制单台OWL
■ 实验4 从命令行向单台OWL发送takeoff, landing, start, 和stoptask指令
■ 实验5 用rviz显示单台OWL传感器发出的数据
■ 实验6 OWL定点追踪移动物体
■ 实验7 路径规划:OWL简单路径规划,通过rviz设置目标位置
■ 实验8 路径规划:OWL使用ego_planner规划飞行路线,命令行与rviz结合控制
■ 实验9 用QGC和命令行控制多台OWL
■ 实验10 用rviz显示多台OWL传感器发出的数据
■ 实验11 通过rostopic向单台/多台OWL发布数据和命令
■ 实验12 OWL蜂群避障
配套课程资源
人工智能系统软硬件环境搭建
如何构建各类基于不同硬件架构的人工智能系统
■ 基于英伟达/ARM/华为昇腾等不同架构的AI基础教程、配套例程
■ 基于英伟达/ARM/华为昇腾等不同架构的AI开发环境搭建教程
人工智能相关项目部署与开发
■ 基于英伟达/ARM/华为昇腾等不同架构的AI视觉模型部署与开发教程、配套例程(LeNet、VGGNet、Yolo、PP-Seg、PP-OCR等)
■ 基于英伟达/ARM/华为昇腾等不同架构的AI视觉模型与AI视觉交互应用教程(人脸识别、物体识别、车牌识别、姿态估计、手势识别、手势控制等)
■ 基于英伟达/ARM/华为昇腾等不同架构的AI大语言模型离线部署与开发教程、配套例程(DeepSeek、Qwen等以及大模型对话平台)
■ AI语音克隆模型部署与开发教程
■ Linux系统与驱动开发教程
■ ROS/ROS2基础与开发教程
■ OpenCV应用及开发教程
■ Docker安装与使用教程
■ Qt开发教程、配套例程
■ 配套开发工具及系统镜像
Copyright © 2014 - 2026 项目管理系统
慧伊创新科技(北京)有限公司 / 项目管理系统 / 京ICP备17005611号  
点击量 142368