【多智能体强化学习】

编程入门 行业动态 更新时间:2024-10-22 22:51:38

【多<a href=https://www.elefans.com/category/jswz/34/1770939.html style=智能体强化学习】"/>

【多智能体强化学习】

参考链接
多智能体深度强化学习综述与批判.2019
万字长文:详解多智能体强化学习的基础和应用

与单智能体强化学习的区别

多智能体强化学习的难点:

  • 环境的不稳定性:决策相互影响
  • 信息局限性:单个智能体难以获得全局信息
  • 目标一致性:各智能体的目标可能是获得总体最优也可能是个体最优,如何定义奖励函数是个问题
  • 可扩展性:大规模多智能体系统对算力产生要求

    增加了新的学习目标(模型与模型之间的交互)

💡将其他智能体考虑为环境的一部分是否可行?
不可行,模型的不是稳态的,模型之间是策略是相互影响的。

【回顾】Q-Learning:价值学习算法, Q ( s , a ) Q(s,a) Q(s,a)是在某一时刻的 s 状态下(s∈S),采取 动作a (a∈A)动作能够获得收益的期望,主要思想是将State与Action构建成一张Q-table来存储Q值,然后根据Q值来选取能够获得最大的收益的动作。

问题定义

在博弈论视角下,序贯决策的三种问题:

  • 马尔可夫决策过程:单智能体 多状态
  • 重复博弈:多智能体 单一状态
  • 随即博弈(马尔可夫博弈):多智能体 多状态

多智能体强化学习属于随机博弈

随机博弈


通过数学工具进行描述

基本方法

按照智能体之间关系分类

完全竞争关系

minimax Q-Learning 零和随机博弈

按照是否中心化分类

完全中心化方法

1. 整体智能体

用于合作任务

计算量指数级增长,计算难度太大

2. 纳什Q-Learning




完全去中心化方法

鸵鸟算法


注:PPO:大概类似actor-critic方法

中心化训练 去中心化执行

类似于:训练的时候场上有教练指导大家,告诉大家什么动作是对的什么是不对的,真正比赛的时候,教练离场

数学模型




更多推荐

【多智能体强化学习】

本文发布于:2023-06-27 08:13:54,感谢您对本站的认可!
本文链接:https://www.elefans.com/category/jswz/34/908621.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
本文标签:智能

发布评论

评论列表 (有 0 条评论)
草根站长

>www.elefans.com

编程频道|电子爱好者 - 技术资讯及电子产品介绍!