从 PPO 到 DPO 再到 GRPO:经典大模型强化学习算法解读
TL;DR:在大语言模型(LLM)的对齐(Alignment)领域,强化学习扮演着核心角色。从 OpenAI 提出的 PPO,到斯坦福大学提出的 DPO,再到 DeepSeek 提出的 GRPO,每一代算法都在解决前一代的痛点。本文将从原理、公式推导到工程实现,系统梳理这三大算法的核心思想与演进逻辑,帮助读者建立完整的技术图谱。
TL;DR:在大语言模型(LLM)的对齐(Alignment)领域,强化学习扮演着核心角色。从 OpenAI 提出的 PPO,到斯坦福大学提出的 DPO,再到 DeepSeek 提出的 GRPO,每一代算法都在解决前一代的痛点。本文将从原理、公式推导到工程实现,系统梳理这三大算法的核心思想与演进逻辑,帮助读者建立完整的技术图谱。
TL;DR: 本文梳理了位置编码的四代演进:从最初的可学习绝对位置编码(BERT、GPT)和正弦绝对编码(Transformer)的局限性,到相对位置编码(T5、Transformer-XL)的改进,再到旋转位置编码(RoPE)的突破性创新。RoPE 通过以”绝对之形,行相对之实”的设计,同时兼得了绝对和相对编码的优点。随后的2D-RoPE 和 M-RoPE 将这一机制创造性地扩展到了视觉和多模态场景,为现代视觉语言模型(如 Qwen2-VL、Qwen3-VL)的多维时空位置感知提供了坚实的数学基础。本文的核心洞见是:位置编码的发展本质上是对”距离”这一根本概念理解的深化,从难以捕捉的隐式相对关系,到通过旋转矩阵显式编码的相对位置,再到能够同时处理文本、图像和视频的统一时空坐标系。
TL;DR: 本文系统梳理了 Qwen-VL 系列四代视觉语言模型的技术演进——从基础的视觉-语言对齐(Qwen-VL),到原生动态分辨率与多模态位置编码(Qwen2-VL),再到工程级推理效率优化(Qwen2.5-VL),最终走向更深层的视觉-语言融合(Qwen3-VL)。
Paper: CapRL: Stimulating Dense Image Caption Capabilities via Reinforcement Learning (CVPR 2025)
Authors: Xing et al.
TL;DR: CapRL提出了一种新颖的强化学习框架,通过将主观的”描述好不好”问题转化为客观的”问题能否答对”问题,有效解决了图像描述任务中的reward hacking难题,显著提升了模型生成稠密、准确(Dense and Accurate)描述的能力。