Blog posts

2026

从 PPO 到 DPO 再到 GRPO:经典大模型强化学习算法解读

90 minutes read

Published: Tags: , Views:

TL;DR:在大语言模型(LLM)的对齐(Alignment)领域,强化学习扮演着核心角色。从 OpenAI 提出的 PPO,到斯坦福大学提出的 DPO,再到 DeepSeek 提出的 GRPO,每一代算法都在解决前一代的痛点。本文将从原理、公式推导到工程实现,系统梳理这三大算法的核心思想与演进逻辑,帮助读者建立完整的技术图谱。

位置编码的发展历程:从绝对、相对到多模态旋转编码

30 minutes read

Published: Tags: , , Views:

TL;DR: 本文梳理了位置编码的四代演进:从最初的可学习绝对位置编码(BERTGPT)和正弦绝对编码(Transformer)的局限性,到相对位置编码T5Transformer-XL)的改进,再到旋转位置编码(RoPE)的突破性创新。RoPE 通过以”绝对之形,行相对之实”的设计,同时兼得了绝对和相对编码的优点。随后的2D-RoPE 和 M-RoPE 将这一机制创造性地扩展到了视觉和多模态场景,为现代视觉语言模型(如 Qwen2-VLQwen3-VL)的多维时空位置感知提供了坚实的数学基础。本文的核心洞见是:位置编码的发展本质上是对”距离”这一根本概念理解的深化,从难以捕捉的隐式相对关系,到通过旋转矩阵显式编码的相对位置,再到能够同时处理文本、图像和视频的统一时空坐标系。

CapRL: 用强化学习激发视觉语言模型的描述能力

30 minutes read

Published: Tags: , Views:

Paper: CapRL: Stimulating Dense Image Caption Capabilities via Reinforcement Learning (CVPR 2025)
Authors: Xing et al.
TL;DR: CapRL提出了一种新颖的强化学习框架,通过将主观的”描述好不好”问题转化为客观的”问题能否答对”问题,有效解决了图像描述任务中的reward hacking难题,显著提升了模型生成稠密、准确(Dense and Accurate)描述的能力。

正在奋笔疾书中,争取每月更新 💪
Writing hard and aiming for monthly updates.