当前位置: 首页 > news >正文

强化学习Sarsa求最优策略

理论基础:

注意:

1. 超参数samples的设置:size of q_table = grid_size*grid_size*action_size,每个 Q(s,a) 至少要访问 t= 20~50 次,才能开始收敛,那么需要的总更新次数至少是(q_table)*t,如果每个episode平均走step步,那么sample大小至少为(q_table)*t / step。大概来说,episode 数至少是 Q‑table 大小的 50~200 倍。

2. alpha不能太小,否则学不动,GridWorld 这种小环境alpha取0.05~0.2差不多。但也不能太大,比如0.5就太大了,Q 值会剧烈震荡,策略不稳定。

代码可运行:

''' 区别:1. sarsa是从一个特定的开始状态出发,到达目标状态,只有这条episode是最优的,其他状态则不一定 2. sarsa是迭代式算法,每更新一次action value就要更新一次policy ''' import random import numpy as np from prometheus_client import samples from env import GridWorldEnv from utils import drow_policy class Sarsa(object): def __init__(self, env:GridWorldEnv, gamma=0.9, alpha=0.001, epsilon=0.1, samples=1, start_state=(0,0)): ''' :param env: 定义了网格的基础配置 :param gamma: discount rate :param alpha: learning rate :param epsilon: epsilon greedy更新policy :param samples: 从起点到终点采样的路径数 :param start_state: 起点 ''' self.env = env self.action_space_size = self.env.num_actions # 上下左右原地 self.state_space_size = self.env.num_states self.reward_list = self.env.reward_list self.gamma = gamma self.samples = samples self.alpha = alpha self.epsilon=epsilon self.start_state = self.env.state_id(start_state[0],start_state[1]) self.policy = np.ones((self.state_space_size, self.action_space_size)) / self.action_space_size self.qvalues = np.zeros((self.state_space_size, self.action_space_size)) def solve(self): for i in range(self.samples): s = self.start_state a = np.random.choice(self.action_space_size, p=self.policy[s]) while s not in self.env.terminal: next_s, next_r, _ = self.env.step(s,a) next_a= np.random.choice(self.action_space_size, p=self.policy[next_s]) # 根据Πt(s_t+1)生成a_t+1 # updata q-value for (s_t,a_t) # qt+1(st, at) = qt(st, at) − αt(st, at) [ qt(st, at) − (rt+1 + γqt(st+1, at+1))] td_target=next_r+self.gamma*self.qvalues[next_s][next_a] td_error=td_target-self.qvalues[s][a] # 负号提出去 self.qvalues[s][a]+=self.alpha*td_error # update policy for s_t best_a=np.argmax(self.qvalues[s]) self.policy[s] = self.epsilon / self.action_space_size self.policy[s, best_a] += 1 - self.epsilon s, a = next_s, next_a if __name__ == '__main__': env = GridWorldEnv( size=5, forbidden=[(1, 2), (3, 3)], terminal=[(4, 4)], r_boundary=-1, r_other=-0.04, r_terminal=1, r_forbidden=-1, r_stay=-0.1 ) # 注意samples要大一点,否则每个state被访问到的概率很小 vi=Sarsa(env=env, gamma=0.9, alpha=0.01, epsilon=0.1, samples=5000, start_state=(0,0)) vi.solve() print("\n state value: ") print(vi.qvalues) drow_policy(vi.policy, env)

运行结果:

http://www.jsqmd.com/news/89026/

相关文章:

  • 基于单片机的PID调节脉动真空灭菌器上位机远程监控设计
  • JS 加密绕过大杀器!SpiderX 自动化工具横空出世,安全人直接封神
  • 【time-rs】time库 ComponentRange 错误类型详解(error/component_range.rs)
  • 一文详解Java中Thread、ThreadGroup 和 ThreadLocal<T> 三者的区别和用途
  • 基于单片机的安全带长度高度拉力监测与自动锁紧控制系统设计
  • std::promise 重难点
  • Qt定时执行:槽函数并非必须
  • 大梵公考:国考省考每一年的岗位一样吗?
  • 基于单片机的井盖安全监测与报警上位机监测系统设计
  • 告别低效爆破!Spray 号称 “目录爆破天花板”,实测效果惊到我了!
  • 大梵公考:国考和省考二选一怎么选?
  • 基于51单片机与ADC0808的数字电压表设计
  • 基于SpringBoot的智慧生活商城系统
  • 华为OSPF详解
  • 基于单片机的家庭防盗防火智能门窗报警系统设计
  • 基于单片机的多功能LCD音乐播放器设计
  • 帅!夸克网盘免费领取1TB空间教程 !
  • 每日一个C++知识点|异步编程
  • 探索非线性电液伺服系统的模型预测控制(MPC)之旅
  • Simulink双馈风机稳态模型:从理论到实践
  • 基于单片机的火焰与温度联动检测及声光灭火控制系统
  • 探索三相、五相电机的容错控制奥秘
  • 完整教程:【Nginx 】Nginx 部署前端 vue 项目
  • MATLAB 风力发电系统低电压穿越之串电阻策略探索
  • Best 5 Anime AI Video Tools in 2026 (Free)
  • 探索 S7 - 1200 地铁屏蔽门控制系统
  • 探索高压无桥PFC:原理图、PCB与源代码之旅
  • Java中如何检测死锁?如何预防和避免线程死锁?
  • 自动化测试-关键数据记录(日志+截图+页面源码)
  • 探索非线性电液伺服系统:基于ESO的反步滑模控制之旅