专注工科类创新实验教学、科研开发20余年!方案覆盖嵌入式、IOT、AI、机器人、集成电路、新能源等领域。
 
  当前位置:首页 >> 产品信息 >> 人工智能AI/机器人
电子基础专业教学设备
通信专业教学设备
人工智能AI/机器人
机器人
人工智能AI方案
智能感知/物联网
微电子/电子系统设计
PLC/机电类/新能源
汽车实训平台
生物医学教学平台
虚拟仿真教学软件
开发板系列
仿真器系列
各类下载线
编程器系列
CPLD/FPGA开发工具
创新应用模块
3D打印设备
数据采集
测试测量工具
各类转换接口卡模块
传感器
电源模块系列
工业互联网/物联网通信产品
实验室建设方案


 
产品名称:具身智能机器人blx
产品报价:暂无报价
联系咨询:010-82608898 13521826485  马上联系
 
 
  - 返回 -
   
一、具身智能机器人科研与应用场景
商业服务、家居服务、医疗服务、智能制造、智慧农业、智慧物流等。

二、产品概述
具身智能作为人工智能技术与机器人技术深度融合的前沿领域,代表了未来智能系统发展的重要方向。本方案中的系列产品,在结构上,主要由机器人(如七轴协作机械臂、移动机器人)、视觉感知系统、语音交互模块、中央运算单元组成。在功能上,通过在中央运算单元内部署如DeepSeek等前沿的大模型技术,以及力控反馈、人机交互等技术,使其能够理解复杂的指令,进行逻辑推理,判断用户的真实意图,从而自主规划并执行相应任务,这也是具身智能机器人与传统机器人的根本区别。
该系列产品,不仅可以满足用户的科研、开发需求,还可以为智能制造、医疗服务和商业服务等场景提供全新的解决方案。

1.通用人形机器人
人形机器人由仿生双臂系统、多模态感知单元,以及中央运算单元构成,并通过全向移动底盘实现自主导航。在仿生双臂系统中,内置了电子皮肤和力传感器,以便于用户开发基于本体感知的双臂动态防碰撞算法,且双臂采用七自由度仿生关节,能够模拟人类上肢“肩-肘-腕”运动链的灵活性。该双臂构型适用于多类场景应用,比如完成倒水、叠衣服等家庭服务,或从事工业生产、水果采摘等行业应用。总的来说,该产品是一款深度融合仿生学设计、高自由度控制与具身智能技术的先进科研平台,支持面向复杂环境实验、动态环境交互及跨模态人机协作等场景开展研发工作。

2.智能服务机器人
智能服务机器人融合了移动机器人的自主导航能力与七轴人形手臂的高度拟人化能力,可以面向服务场景开展丰富的应用。在结构上,采用中央运算单元进行推理与决策,并通过配备的深度视觉系统、麦克风阵列及激光雷达构成多模态环境感知网络,可以感知人体位置、距离、手势动作、声音特性等多种信息,从而实现与用户的高度自主交互。产品适用于展厅讲解、商超导览、校园接待等
应用场景。

3.双臂协同柔性制造平台
该平台主要面向生产制造场景。通过采用双臂控制系统,以及部署在中央运算单元内的多模态大模型的智能分析能力,实现对复杂作业场景的分析推理与决策,最终精准执行各项任务。在实际操作中,用户可以根据具体需求选择不同类型的末端执行器,比如吸盘、夹爪、灵巧手,结合大模型的学习和推理能力,可以不断优化双臂的运动方式,逐步提升系统的作业效率与准确性。该平台可应用于零部件装配、上下料、良次品分拣等多种柔性制造工序。

4.具身智能开发平台
平台以一台人形机器人的上半身为主体结构,通过将其安装在操作平台上,可以面向生产或生活场景,以高度拟人的形态开展多样化的应用,为具身智能的前沿研究开辟了全新的创新平台。平台通过深度相机实时获取作业区域内的三维信息,结合内置的中央运算单元,以及部署的大模型技术,能够准确识别物体的形状、位置和姿态,从而控制双臂进行高精度的仿人作业。除此之外,该系统还内置强化学习算法,并配置遥操作系统,可用于协同控制算法、多模态感知与决策、自主进化等具身智能领域的先进算法开发与验证。

三、功能和特点
1.具身智能与自主决策
本方案的相关产品,均采用自研的七轴人形手臂,通过和视觉、语音、传感器等技术的深度融合,构建了“环境感知-决策-执行”闭环,形成多模态环境感知网络。所有产品均部署大模型技术,可以理解用户的复杂指令,推理出真实意图,并最终做出决策和反馈。例如,在工业分拣场景中,用户可以发出如“把桌上的螺丝刀放到货架上的蓝色盒子里”的语音指令,系统收到该指令后,进行如下推理:抓取目标(螺丝刀)、目标位置(桌上)、放置位置(蓝色盒子)、放置位置坐标(货架),然后,通过视觉系统的协同,自主生成该任务的分步骤指令,准确完成相关任务。同时,在任务执行过程中,可以融合视觉、触觉、位置等环境信息,不断优化任务执行效率。

2.双臂协同控制
双臂系统选用了自研的七轴人形手臂,完全开放底层源代码,支持二次开发,同时具备广泛的运动范围和高度的运动精确度,能够模拟人类手臂的大部分自然动作。
在控制方面,采用了一拖二的协同控制系统,即一个控制器控制两台手臂,该方式可以有效的实现双臂协同与冲突规避,同时通过强化学习算法动态分配任务优先级。比如,给机器人规划叠衣服的任务时,系统可以快速给出最优动作规划,还能避免双臂“打架”的情况,配备的电子皮肤则让双臂系统在工作时,及时感知周围环境的变化,结合大模型的决策能力,实时调整运动路径和姿态,实现更加精细的操作。

3.强化学习与自主进化
通过分层强化学习框架与跨场景迁移学习机制,赋予具身智能机器人持续适应复杂环境的能力。比如机器人在执行“帮我拿水过来”这个动作时,用户可以使用强化学习算法训练机器人,将识别任务(寻找水杯)、移动任务(移动到目的地)、抓取任务(采用合适的角度和姿态拿水杯)进行任务分解与策略分层,缩短训练周期。而通过持续学习与环境交互后,机器人则可以动态优化自身行为模型,完成自主进化,快速适应多种复杂应用场景,构建具身智能模型。
强化学习与自主进化的结合将推动人形机器人向“通用智能体”发展,实现完全自主决策。

4.多模态感知与融合
机器人配置了丰富的传感器,如深度视觉、语音识别、激光雷达、超声波测距、电子皮肤、触觉反馈等,构建了一个完善的机器人环境感知系统。在具体应用上,机器人内部安装的语音识别模块,支持声音检测、智能语音识别、声源定位等功能;机器人头部和躯干的的深度视觉系统,可以实现语音、手势、表情、物料、零部件等多种交互信息和产品信息的收集。通过搭载的中央运算单元,机器人在人机交互过程中,可实现自然语言指令解析,从而引导机器人执行指定动作,开展人机协作、语音控制等AI实践。

四、技术架构
具身智能机器人通过多模态感知网络、中央运算单元、双七轴手臂、AI大模型和多类自主学习算法的有机融合,构建了包含“感知-认知-执行-学习”四层架构的智能模型。

1.物理感知层
物理感知层作为具身智能机器人的输入层,通过多模态传感器实时捕捉环境信息,以此来作为机器人进行认知与自主决策的依据。
以通用人形机器人为例,物理感知层包含了深度相机、语音识别、电子皮肤力传感器等模块。其中,在机器人头部和手臂末端分别安装了一台深度相机,可以获取实际环境中实时的立体三维信息和RGB图像信息;另外,在机器人的手臂上,还采用了高灵敏度的电子皮肤和末端力传感器,可以实时得到手臂在运动过程中与环境可能的碰触数据。除了上述两类传感器之外,更重要的在于它和人的交互能力,因此,在机器人中还部署了语音识别模块,可以及时接收操作者发出的指令,并在接收到指令后,融合深度相机、电子皮肤、力传感器反馈的数据,最终为后续的认知和决策提供数据基础。

2.决策认知层
决策认知层依托多模态大模型为具身智能机器人提供全面的感知和认知能力。多模态大模型通过理解和分析物理感知层反馈的视觉、触觉、语音等环境感知数据,推理出类似人类行为的动作模型。
比如当操作人员向通用人形机器人下达一条任务指令:请帮我去把办公桌上的水杯端到会议室来。机器人首先通过语音大模型实现对任务指令的语义理解和意图分析,将其划分成识别目标、导航位置、动作路径等几个子任务。比如,机器人在识别目标这个子任务中,使用视觉大模型完成对“办公桌”、“水杯”、“人(下达指令的人)”等目标的识别,判断位置信息,为机器人的行动执行提供决策基础。

3.行动执行层
行动执行层主要由高自由度的七轴人形手臂和全向活动的移动底盘两部分组成,这些机器人硬件设备能够根据决策认知层下达的子任务指令和各种动作模型,实现如人类活动的各种行动能力。
结合以上案例,操作人员在“让机器人把办公桌上的水杯端到会议室”的这个任务指令中,决策认知层将“导航位置”和“动作路径”这两个子任务分别下发给负责移动的移动机器人和负责端水杯的七轴人形手臂。机器人收到任务后,结合对环境的感知信息,依次执行“导航至办公桌—抓取水杯—导航至会议室—将水杯递给操作人员”系列动作。

4.学习反馈层
学习反馈层通过与其他层级之间的协同工作,构建了以强化学习、模仿学习等算法网络为主的优化闭环。通过自主学习的算法网络,具身智能机器人在实际环境中能够不断进行试错和学习,根据环境的反馈信息来调整动作规范,以最大化累积奖励为目标,实现对推理与决策过程的优化和改进。
比如通用人形机器人在执行“端水杯”这个动作时,如何稳定地抓取水杯,可能是所有环节里难度最大的一步。为了实现这个目标,操作人员可以使用强化学习算法训练机器人抓取水杯的动作,通过动作捕捉或遥操作等方式,反复控制手臂执行水杯的抓取动作,不断优化运动策略。算法网络通过对该过程的学习和反馈,实现水杯抓取准确率和稳定性的不断提高。

五、各产品主要技术参数
1.通用人形机器人
采用人形外观设计,双臂结构,手臂由肩关节、肘关节、腕关节组成,采用轮式移动底盘进行空间运动与导航;
配置2台深度视觉系统,其中头部和躯干位置各安装一台,分别进行环境感知与手臂引导控制;
机器人身高:≥1600mm,体重:≤90kg;
手臂数量:2条,铝合金材质,末端可安装灵巧手、夹爪等多种夹持结构;
手臂自由度数量:7个,其中肩关节3个自由度、肘关节2个自由度、腕关节2个自由度;
手臂长度:≥850mm,有效工作半径:≥510mm;
手臂自重:≤12kg,最大负载≥5kg;
五指灵巧手:数量:2台,关节数:12个,自由度:6,控制接口:RS485,重复定位精度:±0.2mm,拇指抓握力:0-15N,四指抓握力:0-10N,抓握力分辨率:0.5N;
手臂控制器采用双控模式,可实现一台控制器同时对两台手臂进行协同控制;
手臂配备电子皮肤模块,具备预碰撞感知功能,在运动过程中,可实时感知与周围人体的距离,当两者距离≤10cm时,手臂将自动停止;
控制器接口:手臂通信接口×2、RJ45×2、USB3.0×2、IO接口×7、485接口×1,供电电压:24V;
深度相机:数量≥2台;深度流输出分辨率:≥1280×720;深度流输出帧速率:≥30fps;RGB传感器分辨率:≥1920×1080;RGB传感器帧速率:≥30fps;
头部配置的深度视觉系统,可对环境进行感知,可自定义训练各类环境目标、行人等模型,为机器人提供感知和识别能力。具体功能如下:
(1)支持行人检测:通过视觉系统快速检测通过行人并进行标记,支持同时检测多个行人;
(2)支持手部动作识别:支持识别多种手势的动作和方向,可精准定位手部的五个关键点,识别V字、点赞、五指、拳头等手势;
(3)具备手势控制功能:可通过手势对机器人进行左转、右转、前进、后退、停止等不同的方向的运动控制。
躯干配置的深度视觉系统,可在机器人双臂执行目标分拣、装配等任务时,生成物体的三维点云信息,从而辅助精准操作;
机器人内部署语音识别模块,具有如下功能:
(1)具有语音唤醒功能,能够通过语音唤醒机器人;
(2)具有语音识别功能,能够识别语音的输入并进行反馈;
(3)具有语义理解功能,能够对输入的语音完成语义理解;
(4)具有语音交互功能,可以通过语音与机器人进行交互,如控制机器人向各个方向运动,回答用户的问题等;
(5)具有语音导航功能,可以通过语音控制机器人到达目标点。
机器人采用轮式底盘实现在环境中的运动功能,要求如下:
(1)配置激光雷达,测距范围:≥30m,可利用激光雷达进行SLAM地图的实时扫描与构建;
(2)底盘支持通过语音控制实现自主运动,当用户下达语音指令时,可进行语音回复,并按照用户的指令执行指定动作;
(3)底盘最大运行速度:≥0.5m/s;
(4)底盘驱动方式:驱动轮×2,万向轮×4,差速驱动;
(5)底盘内置锂电池容量:≥40Ah;充电保护:过放、过充、短路、过压等多重保护。
运算单元:CPU:i7 11代及以上;内存:16G及以上;硬盘:512G及以上;显存:8G及以上独立显存;
需部署AI大语言模型,无需联网,支持在本地进行复杂语音和文本指令的识别和分析;
AI大语言模型需具备如下四种能力:深度学习能力、自然语言处理能力、自主学习能力和迁移学习能力。

2.智能服务机器人
采用立柱型仿人躯干设计,头部配备触摸屏幕,手臂由肩关节、肘关节、腕关节组成,采用轮式底盘进行空间运动与导航;
采用深度视觉系统,安装于头部,进行环境感知与手臂引导控制;
机器人身高:≥1200mm,体重:≤75kg;
手臂数量:1条,铝合金材质,末端可安装灵巧手、夹爪等多种夹持结构;
手臂自由度数量:7个,其中肩关节3个自由度、肘关节2个自由度、腕关节2个自由度;
手臂长度:≥850mm,有效工作半径:≥510mm;
手臂自重:≤12kg,最大负载≥5kg;
五指灵巧手:关节数:12个,自由度:6,控制接口:RS485,重复定位精度:±0.2mm,拇指抓握力:0-15N,四指抓握力:0-10N,抓握力分辨率:0.5N;
手臂配备电子皮肤模块,具备预碰撞感知功能,在运动过程中,可实时感知与周围人体的距离,当两者距离≤10cm时,手臂将自动停止;
手臂控制器采用双控模式,可实现一台控制器同时对两台手臂进行协同控制;
控制器接口:手臂通信接口×2、RJ45×2、USB3.0×2、IO接口×7、485接口×1,供电电压:24V;
深度相机:深度流输出分辨率:≥1280×720;深度流输出帧速率:≥30fps;RGB传感器分辨率:≥1920×1080;RGB传感器帧速率:≥30fps;
头部配置的深度视觉系统,可对环境进行感知,可自定义训练各类环境目标、行人等模型,为机器人提供感知和识别能力。具体功能如下:
(1)支持行人检测:通过视觉系统快速检测通过行人并进行标记,支持同时检测多个行人;
(2)支持手部动作识别:支持识别多种手势的动作和方向,可精准定位手部的五个关键点,识别V字、点赞、五指、拳头等手势;
(3)具备手势控制功能:可通过手势对机器人进行左转、右转、前进、后退、停止等不同的方向的运动控制。
机器人内部署语音识别模块,具有如下功能:
(1)具有语音唤醒功能,能够通过语音唤醒机器人;
(2)具有语音识别功能,能够识别语音的输入并进行反馈;
(3)具有语义理解功能,能够对输入的语音完成语义理解;
(4)具有语音交互功能,可以通过语音与机器人进行交互,如控制机器人向各个方向运动,回答用户的问题等;
(5)具有语音导航功能,可以通过语音控制机器人到达目标点。
机器人采用轮式底盘实现在环境中的运动功能,要求如下:
(1)配置激光雷达,测距范围:≥30m,可利用激光雷达进行SLAM地图的实时扫描与构建;
(2)底盘支持通过语音控制实现自主运动,当用户下达语音指令时,可进行语音回复,并按照用户的指令执行指定动作;
(3)底盘最大运行速度:≥0.5m/s,含机器人的整体高度:≥1200mm;
(4)底盘驱动方式:驱动轮×2,万向轮×4,差速驱动;
(5)底盘内置锂电池容量:≥40Ah;充电保护:过放、过充、短路、过压等多重保护。
运算单元:CPU:i7 11代及以上;内存:16G及以上;硬盘:512G及以上;显存:8G及以上独立显存;
需部署AI大语言模型,无需联网,支持在本地进行复杂语音和文本指令的识别和分析;
AI大语言模型需具备如下四种能力:深度学习能力、自然语言处理能力、自主学习能力和迁移学习能力。

3.双臂协同柔性制造平台
平台由两台七轴手臂和操作平台组成,手臂可在操作平台内执行如零部件组装、商品分类、水果分拣等生产生活领域的各项任务;
操作平台尺寸(长×宽×高):≥1100mm×750mm×800mm;
操作平台结构:碳钢钣金侧板和底板,加固处理,内部可安装计算机、电气系统和其他部件;
两台手臂分别安装于操作平台的左右两侧,手臂末端各配置1台深度视觉系统,进行目标识别与手臂的引导控制;
手臂数量:2条,铝合金材质,末端可安装灵巧手、夹爪等多种夹持结构;
手臂为拟人结构,包含肩关节、肘关节、腕关节,其中肩关节3个自由度、肘关节2个自由度、腕关节2个自由度,共7个自由度;
手臂长度:≥850mm,有效工作半径:≥510mm;
手臂自重:≤12kg,最大负载≥5kg;
手臂重复定位精度:±1mm;
手臂末端安装多指夹爪,最大行程≥90mm;
手臂配备电子皮肤模块,具备预碰撞感知功能,在运动过程中,可实时
感知与周围人体的距离,当两者距离≤10cm时,手臂将自动停止;
手臂控制器采用双控模式,可实现一台控制器同时对两台手臂进行协同控制;
控制器接口:手臂通信接口×2、RJ45×2、USB3.0×2、IO接口×7、485接口×1,供电电压:24V;
深度相机:数量≥2台;深度流输出分辨率:≥1280×720;深度流输出帧速率:≥30fps;RGB传感器分辨率:≥1920×1080;RGB传感器帧速率:≥30fps;
手臂末端配置的深度视觉系统,可在机器人双臂执行目标分拣、装配等任务时,生成物体的三维点云信息,从而辅助精准操作;
机器人内部署语音识别模块,具有如下功能:
(1)具有语音唤醒功能,能够通过语音唤醒机器人;
(2)具有语音识别功能,能够识别语音的输入并进行反馈;
(3)具有语义理解功能,能够对输入的语音完成语义理解;
(4)具有语音交互功能,可以通过语音与机器人进行交互,如回答用户的问题等。
运算单元:CPU:i7 11代及以上;内存:16G及以上;硬盘:512G及以上;显存:8G及以上独立显存;
需部署AI大语言模型,无需联网,支持在本地进行复杂语音和文本指令的识别和分析;
AI大语言模型需具备如下四种能力:深度学习能力、自然语言处理能力、自主学习能力和迁移学习能力。

4.具身智能开发平台
平台由人形机器人上身结构和操作平台组成,人形机器人双臂可在操作平台内执行如零部件组装、商品分类、水果分拣等生产生活领域的各项任务;
操作平台尺寸(长×宽×高):≥1100mm×750mm×800mm;
操作平台结构:碳钢钣金侧板和底板,加固处理,内部可安装计算机、电气系统和其他部件;
平台配置2台深度视觉系统,其中机器人头部和躯干位置各安装一台,分别进行环境感知与手臂引导控制;
手臂数量:2条,铝合金材质,末端可安装灵巧手、夹爪等多种夹持结构;
手臂为拟人结构,包含肩关节、肘关节、腕关节,其中肩关节3个自由度、肘关节2个自由度、腕关节2个自由度,共7个自由度;
手臂长度:≥850mm,有效工作半径:≥510mm;
手臂自重:≤12kg,最大负载≥5kg;
手臂重复定位精度:±1mm;
手臂末端安装多指夹爪,最大行程≥90mm;
手臂配备电子皮肤模块,具备预碰撞感知功能,在运动过程中,可实时感知与周围人体的距离,当两者距离≤10cm时,手臂将自动停止;
手臂控制器采用双控模式,可实现一台控制器同时对两台手臂进行协同控制;
控制器接口:手臂通信接口×2、RJ45×2、USB3.0×2、IO接口×7、485接口×1,供电电压:24V;
深度相机:数量≥2台;深度流输出分辨率:≥1280×720;深度流输出帧速率:≥30fps;RGB传感器分辨率:≥1920×1080;RGB传感器帧速率:≥30fps;
头部配置的深度视觉系统,可对环境进行感知,可自定义训练各类环境目标、行人等模型,为机器人提供感知和识别能力。具体功能如下:
(1)支持行人检测:通过视觉系统快速检测通过行人并进行标记,支持同时检测多个行人;
(2)支持手部动作识别:支持识别多种手势的动作和方向,可精准定位手部的五个关键点,识别V字、点赞、五指、拳头等手势。
躯干配置的深度视觉系统,可在机器人双臂执行目标分拣、装配等任务时,生成物体的三维点云信息,从而辅助精准操作;
机器人内部署语音识别模块,具有如下功能:
(1)具有语音唤醒功能,能够通过语音唤醒机器人;
(2)具有语音识别功能,能够识别语音的输入并进行反馈;
(3)具有语义理解功能,能够对输入的语音完成语义理解;
(4)具有语音交互功能,可以通过语音与机器人进行交互,如回答用户的问题等。
运算单元:CPU:i7 11代及以上;内存:16G及以上;硬盘:512G及以上;显存:8G及以上独立显存;
需部署AI大语言模型,无需联网,支持在本地进行复杂语音和文本指令的识别和分析;
AI大语言模型需具备如下四种能力:深度学习能力、自然语言处理能力、自主学习能力和迁移学习能力。

六、应用方向
1.科研场景人机协作
具身智能机器人融合了视觉、语音和各类环境感知传感器,在高校实验室的应用场景和科研过程中,研究人员可结合机器人内置的多模态大模型,研究如何通过多类传感器的数据结果,综合分析科研过程中的有效信息,以此提升对研究数据的分析和评估能力。比如,在材料科学实验室内,可以让具身智能机器人在协助研究人员进行材料表面工艺、成分分析、损耗曲线等数据的采集和记录。

2.商业服务机器人
配备了七轴人形手臂和全向移动底盘的机器人,具备高度的操作灵活性和运动能力,研究人员可通过这一特性探索多类商业应用场景下的交互方式。
比如,基于多模态大模型算法,结合视觉、雷达、触觉等传感器,在酒店、商场、餐厅、银行等商业环境中,机器人能够实时探测周围的环境信息,对这些信息数据进行分析和处理,结合强化学习算法,还可以训练机器人在不同场景下选择最优的行动策略,可以实现自主避障、路径规划和动态调整。

3.智慧农业机器人
研究人员可根据机器人获取到的各类农田环境数据,建立智能化的算法模型,以此为农业决策提供帮助。或者,以播种、施肥、除草、采摘等任务为目标,规划机器人的运动路径,精准操控机械臂执行相关动作。另外,机器人还可以采用多传感器和端到端的智能决策能力,实现对包括土壤湿度、温度、作物生长状态、病虫害情况等环境数据的实时监测,自动生成施肥量、灌溉量、播种、采摘等决策方案。

4.家居服务机器人
在家居服务中,具身智能机器人依赖其配置的人形七轴手臂、全向移动底盘、多类传感器和视觉系统,能够精准地识别并避开家中的障碍物。用户通过语音控制技术和集成的智能家居控制系统,可以实现家居服务机器人与其他智能设备之间的无缝连接,完成如开关窗帘、灯光照明、安防报警等一系列任务。


 
   
销售电话:010-82608898     技术支持:82608898-800    Email:sales@gexin.com.cn
Copyright © 2012-2024 版权所有:北京革新创展科技有限公司   京ICP备20004067号-1