14 KiB
PPO
简介
以 MindSpeed RL 仓库复现 # Proximal Policy Optimization Algorithms (PPO) 后训练方法为例来帮助用户快速入门,前期需要完成代码仓、环境、数据集以及权重等准备工作,再按照说明中的启动方式启动训练,以下为具体的操作说明。
环境配置
配置 MindSpeed RL 基础环境以及准备代码: 参考 安装指南
数据预处理
配置好环境后,需要对数据集进行预处理。
以 DeepScaler 为例。
# 读取deepscaler数据集
mkdir dataset
cd dataset/
wget https://huggingface.co/datasets/agentica-org/DeepScaleR-Preview-Dataset/resolve/main/deepscaler.json
cd ..
数据预处理的yaml配置文件放置于configs/datasets文件夹下,通过以下命令进行数据集预处理: 示例yaml配置文件
# 读取configs/datasets/deepscaler.yaml文件
bash examples/data/preprocess_data.sh deepscaler
数据集处理配置可以根据需求自行配置,以下是数据集处理的yaml文件中基础参数的介绍:
input
:数据集的路径,需指定具体文件,例如/datasets/deepscaler.jsontokenizer_type
:指定分词器的类型,例如 HuggingFaceTokenizer 使用 Hugging Face 库提供的分词器来对文本进行分词处理;tokenizer_name_or_path
:指定分词器的名称或路径;output_prefix
:输出结果的前缀路径,例如 /datasets/data;workers
:设置处理数据时使用的 worker 数;prompt_type
: 用于指定对话模板,能够让 base 模型微调后能具备更好的对话能力,prompt-type
的可选项可以在configs/model/templates.json
文件内查看;log_interval
:设置日志记录的间隔,每处理多少条数据时记录一次日志,用于监控数据处理的进度和状态;handler_name
:指定处理数据的处理器名称;seq_length
:设置数据预处理最大序列长度,超过了会过滤掉;
模型权重转换
根据 PPO 算法要求,Actor 和 Reference 模型应该使用 SFT 微调后的模型进行初始化,Reward 模型应该使用规则奖励。PPO 算法模型权重均使用 Megatron-mcore 格式,其他格式的权重需要进行模型权重转换。
接下来,以 Qwen25-32B 模型的权重转换脚本为参考,相应的权重转换步骤如下:
获取权重文件
actor model权重文件
权重文件可以从 Huggingface 网站上获取,可以根据模型的使用场景灵活选择,在这里以 Qwen2.5-32B 为参考。
critic model权重文件
为了保证训练稳定性,使用预训练好的奖励模型权重进行训练,权重文件可以从 Huggingface 网站上获取,在这里以 nvidia/Qwen-2.5-Nemotron-32B-Reward 为参考。
hf 转 mcore
在训练前,需要将 Hugging Face 权重转换成 Mcore 格式,具体权重转换方式可见安装指南中对应 commit id 的 MindSpeed-LLM 权重转换部分 。
注意: 1、所有节点的代码、权重、数据等路径的层级要保持一致,且启动ray的时候都位于MindSpeed-RL目录下; 2、critic model与actor model的模型结构有差异,转换时需要额外添加--orm参数
mcore 转 hf(可选)
训练结束后,如果需要将生成的 Mcore 格式权重转换回 Hugging Face 格式,具体权重转换方式可见安装指南中对应 commit id 的 MindSpeed-LLM 权重转换部分 。
单卡多进程
技术概述
actor worker与critic worker共用一组placement group,并在该placement group上分别完成分布式进程初始化。在此情况下actor worker与critic worker上实现共卡训练的功能。
配置方法
在 configs/envs/runtime_env.yaml 下配置以下环境变量:
HCCL_HOST_SOCKET_PORT_RANGE: "60000-60050"
HCCL_NPU_SOCKET_PORT_RANGE: "61000-61050"
启动训练
以 Qwen25 32B 模型为例,在启动训练之前,需要修改 启动脚本 的配置:
- 根据实际安装路径设置 jemalloc 环境变量,用于更好管理内存,避免长跑过程中内存 OOM ,例如:export LD_PRELOAD=/usr/local/lib/libjemalloc.so.2
- 修改 DEFAULT_YAML 为指定的 yaml,目前已支持的配置文件放置在 configs / 文件夹下,具体参数说明可见 配置文件参数介绍;
- 根据使用机器的情况,修改 NNODES 、NPUS_PER_NODE 配置, 例如单机 A3 可设置 NNODES 为 1 、NPUS_PER_NODE 为16;
- 如果是单机,需要保证 MASTER_ADDR 与 CURRENT_IP 一致,如果为多机,需要保证各个机器的 MASTER_ADDR 一致,CURRENT_IP 为各个节点的 IP (需要注意的是MASTER_ADDR 与 CURRENT_IP 不能设置为 localhost);
#上述注意点修改完毕后,可启动脚本开启训练
bash examples/ppo/ppo_trainer_qwen25_32b.sh
断点续训
进行断点续训时,需要注意配置以下参数:
actor_config:
finetune: false <------- 断点续训时 finetune 参数设置为 false
load: ./ckpt <------- 断点续训时 load 路径应为之前保存的权重路径
save: ./ckpt
no_load_optim: false <------- 断点续训时 no_load_optim 应为 false
no_load_rng: false <------- 断点续训时 no_load_rng 应为 false
critic_config:
finetune: false <------- 断点续训时 finetune 参数设置为 false
load: ./ckpt <------- 断点续训时 load 路径应为之前保存的权重路径
save: ./ckpt
no_load_optim: false <------- 断点续训时 no_load_optim 应为 false
no_load_rng: false <------- 断点续训时 no_load_rng 应为 false
rl_config:
integrated_mode_config:
ref_model_load_path: ./Qwen2.5-32B-tp8 <------- 断点续训时,应在 ref_model_load_path 中配置原始模型权重路径,供 reference model 加载
日志打点指标说明
时间相关指标说明
指标 | 说明 |
---|---|
timing/all |
一次迭代总时间 |
timing/update |
一次迭代中actor model进行update耗时 |
timing/rollout |
一次迭代中actor model进行rollout耗时 |
timing/old_log_p |
一次迭代中actor model计算log p耗时 |
timing/reference_model |
一次迭代中reference model计算log p耗时 |
timing/resharding_to_train |
权重转到训练mode耗时 |
timing/resharding_to_infer |
权重转到推理mode耗时 |
timing/adv |
计算advantages耗时 |
timing/non_overlap_reference_model |
reference model计算log_p耗时的未被掩盖时间 |
timing/non_overlap_rule_reward |
rule_reward耗时的未被掩盖时间 |
timing/non_overlap_reward_model |
reward_model耗时的未被掩盖时间 |
timing/non_overlap_adv |
advantages计算耗时的未被掩盖时间 |
timing/rule_reward |
rule reward打分耗时 |
timing/reward_model |
reward model打分耗时 |
timing/ref_onload |
reference model计算logp过程中,onload耗时 |
timing/ref_offload |
reference model计算logp过程中,offload耗时 |
timing/critic_model |
一次迭代中critic model计算values耗时 |
timing/update_critic |
一次迭代中critic model进行update耗时 |
- 全共卡方案下总时间计算方式
timing/all
>= timing/rollout
+timing/old_log_p
+ timing/update
+ timing/reference
+ timing/reshard_to_train
+ timing/reshard_to_infer
+ max(timing/non_overlap_rule_reward, timing/non_overlap_reference_model)
+timing/critic_model
+timing/update_critic
其他指标
指标 | 说明 |
---|---|
actor/entropy |
策略熵,表示策略的随机性或探索能力 |
actor/kl_loss |
kl散度,衡量当前策略与参考策略(如旧策略或参考模型)之间的偏离程度 |
actor/pg_loss |
pg_loss,基于优势函数的策略梯度目标函数值,表示当前策略对提升奖励的学习能力。 |
actor/pg_clipfrac |
PPO中actor model裁剪机制生效的比例,反映了策略更新幅度的稳定性 |
actor/ppo_kl |
PPO算法的实际 KL 散度 |
grad_norm |
梯度范数,表示当前反向传播中参数梯度的整体幅度 |
critic/vf_loss |
vf_loss,基于优势函数的策略梯度目标函数值,表示当前策略对提升奖励的学习能力。 |
critic/vf_clipfrac |
PPO中critic model裁剪机制生效的比例,反映了策略更新幅度的稳定性 |
critic/vf_clipfrac |
PPO中critic model裁剪机制生效的比例,反映了策略更新幅度的稳定性 |
{verifier_function}_rewards/mean |
规则奖励打分的平均总奖励值 |
actor/lr |
actor model学习率,优化器当前使用的学习率 |
critic/lr |
critic model学习率,优化器当前使用的学习率 |
critic/score/mean |
开启奖励模型时的reward均值 |
critic/score/max |
奖励模型及规则奖励对同一个样本的reward最大值 |
critic/score/min |
奖励模型及规则奖励对同一个样本的reward最小值 |
critic/rewards/mean |
规则奖励的reward均值;奖励模型对样本的reward经过归一化后的均值 |
critic/rewards/max |
规则奖励的reward最大值;奖励模型对样本的reward经过归一化后的最大值 |
critic/rewards/min |
规则奖励的reward最小值;奖励模型对样本的reward经过归一化后的最小值 |
critic/advantages/mean |
优势值均值;奖励模型对样本的reward经过归一化后的均值 |
critic/advantages/max |
优势值最大值;奖励模型对样本的reward经过归一化后的最大值 |
critic/advantages/min |
优势值最小值;奖励模型对样本的reward经过归一化后的最小值 |
critic/returns/mean |
所有未来奖励的折扣和均值;奖励模型对样本的reward经过归一化后的均值 |
critic/returns/max |
所有未来奖励的折扣和最大值;奖励模型对样本的reward经过归一化后的最大值 |
critic/returns/min |
所有未来奖励的折扣和最小值;奖励模型对样本的reward经过归一化后的最小值 |
critic/values/mean |
当前状态下未来收益均值;奖励模型对样本的reward经过归一化后的均值 |
critic/values/max |
当前状态下未来收益均值最大值;奖励模型对样本的reward经过归一化后的最大值 |
critic/values/min |
当前状态下未来收益均值最小值;奖励模型对样本的reward经过归一化后的最小值 |
response_length/mean |
平均生成长度,模型生成回复(response)的平均 token 数 |
response_length/min |
最短生成长度,当前 batch 中生成最短的 response 长度 |
response_length/max |
最长生成长度,当前 batch 中生成最长的 response 长度 |
prompt_length/mean |
平均输入长度,输入 prompt 的平均长度 |
prompt_length/max |
最长输入长度,当前 batch 中最长的 prompt长度 |
prompt_length/min |
最短输入长度,当前 batch 中最长的 prompt长度 |
e2e_tps |
端到端的tokens/p/s指标 |
update_tps |
训练的tokens/p/s指标 |
vllm_tps |
推理的tokens/p/s指标 |
- e2e_tps计算方式
(\text{response_length_mean} + \text{prompt_length_mean}) \times \text{global_batch_size} \times \text{n_samples_per_prompt} / \text{world_size} \ / \text{time_all}
- update_tps计算方式
(\text{response_length_mean} + \text{prompt_length_mean}) \times \text{global_batch_size} \times \text{n_samples_per_prompt} / \text{world_size} \ / \text{time_update}
- vllm_tps计算方式
(\text{response_length_mean} + \text{prompt_length_mean}) \times \text{global_batch_size} \times \text{n_samples_per_prompt} / \text{world_size} \ / \text{time_rollout}
性能数据
模型 | 机器型号 | GBS | n_samples | max_prompt_length | max_tokens | 端到端 tps |
---|---|---|---|---|---|---|
Qwen25-32B | Atlas 900 A3 SuperPoD | 128 | 8 | 2048 | 2048 | 74 |
注:模型 token/p/s 性能数据会打印在日志中, 当前计算公式下,A3单卡性能需要将日志打印的token/p/s性能指数*2。