首页 > 全部资讯 > 市场调查报告 > 具身智能发展报告分析(三)
芯达茂广告F 芯达茂广告F

具身智能发展报告分析(三)

报告指出,随着技术的进步,具身智能从早期依赖于多个独立“小模块”AI算法的组合逐渐演进到采用大型统一框架驱动的方法,在灵活性和适应性方面实现了显著进步。最初,为了完成特定任务,系统会根据需要调用不同的算法模块,并结合人工干预来实现目标。例如,在视觉处理中使用目标识别算法识别物体;在控制策略上,则应用强化学习、模仿学习以及形态计算等传统机器人学方法,使机器人能够在无人工干预的情况下做出最优决策。这个阶段的技术革新主要针对日益增长的机器人应用需求,旨在为机器人添加智能特性,超越传统的固定自动化操作模式。

然而,随着大模型技术的发展,具身智能开始将各类功能整合至一个统一的架构之中,利用这些大模型潜在的知识理解与表达能力,不仅实现了自然语言交流,还支持无缝多模态信息处理及转换。这使得系统能够综合处理包括语言、视觉、触觉、听觉在内的多种感官输入,并通过融合机器人动作轨迹等运动经验数据,进一步执行具体的行动指令。这种转变标志着从分散式模块集成向一体化智能解决方案的重要跨越。

根据报告,具身智能技术体系可分为“感知——决策——行动——反馈”四个模块,四个模块形成闭环,不断与环境交互,实现对环境的重构映射、自主决策和自适应行动,并从经验反馈中不断学习进化。

图:具身智能技术体系

图:具身智能技术体系

感知模块:负责收集和处理信息,通过多种传感器感知和理解环境。机器人上常见的传感器包括可见光相机、红外相机、深度相机、激光雷达、超声波传感器、压力传感器、麦克风等。不同的传感器负责不同的感知任务,如测量距离、检测障碍物、收音等。在获取环境信息后,机器人需要通过算法理解环境,对于多变和陌生的场景,需要使用多模态大模型,将声音、图像、视频、定位等多种环境信息融合并进行判断。

决策模块:是整个具身智能系统的核心,接收来自感知模块的环境信息,进行任务规划和推理分析,以指导行动模块生成动作。早期主要依赖人工编程的规则判断和专用任务的算法设计,后来基于近端策略优化算法和 Q - learning 算法的强化学习方法展现出更好的决策灵活性。大模型的出现极大地增强了具身智能体的智能程度,多模态大模型与世界模型的结合可以实现感知预测,未来具身智能系统将能够融合多种感官信息,更自动化地理解指令并增强任务泛化能力。

行动模块:根据决策模块的指令,协调机器人各部件的运动,在物理或模拟空间中与人类和环境进行互动,完成具体的任务,如具身任务问答、具身抓取等。行动模块涉及各种控制策略,包括显式策略、隐式策略和扩散策略等,通过强化学习和模仿学习等方法来优化控制策略,以实现更高的精准性与适应性。

反馈模块:在智能体完成动作后,收集关于动作执行结果和环境变化的信息,将这些反馈信息传递给决策模块和感知模块。决策模块根据反馈调整后续的决策,感知模块也可以根据反馈进一步优化对环境的理解和感知,从而使智能体能够不断改进自身的行为,以更好地适应环境和完成任务,实现智能的增长和行动的自适应。


相关阅读:

具身智能发展报告分析(一)

具身智能发展分析报告(二)

相关新闻推荐

登录

注册

登录
{{codeText}}
登录
{{codeText}}
提交
关 闭
订阅
对比栏
对比 清空对比栏