先做监督微调(SFT),是让大模型学会“听懂人话”和基本任务,比如按指令回答、格式正确等。这一步靠的是人工标注的高质量问答对,相当于给模型打基础。如果跳过SFT直接强化学习(RL),模型可能连指令都理解不了,奖励信号就无法有效引导它学习。
在有了SFT的基础后,再用强化学习(如PPO)进一步优化,目标是让回答更符合人类偏好(如有帮助、无害、流畅等)。这时模型已经具备基本能力,RL才能高效地“精修”行为,而不是从零摸索。
简单说:SFT教模型“会做事”,RL教它“做得好”。网友回复
有没有不依赖embedding向量的RAG技术?
有没有支持实时打断语音通话并后台帮你执行任何的ai模型?
开源ai大模型文件格式GGUF、MLX、Safetensors、 ONNX 有什么区别?
出海挣钱支付收款PayPal、Wise 、PingPong、Stripe如何选择?
如何实现类似google的图片隐形水印添加和识别技术?
linux上如何运行任意windows程序?
ai能写出比黑客还厉害的零日漏洞等攻击工具攻击任意软件系统工程?
js如何获取浏览器的音频上下文指纹、Canvas指纹、WebGL渲染特征?
为啥ai开始抛弃markdown文本,重新偏好html文本了?
网站有没有办法鉴别访问请求是由ai操控chrome-devtools-mcp发出的?


