+
40
-

回答

MIT 提出的 Recursive Language Models (RLM) 并不是“无限上下文”,而是通过让语言模型自己决定何时“暂停思考”、生成中间摘要,再基于摘要继续推理,从而递归地扩展有效上下文长度,在不增加模型窗口的情况下处理超长文本(比如整本书),本质上是一种智能分块+自摘要+递归调用的推理机制。

网友回复

我知道答案,我要回答