+
50
-

llama3的上下文tokens长度只有8k,如何提升到10万以上?

llama3的上下文tokens长度只有8k,如何提升到10万以上?


网友回复

+
0
-

试试这个版本的llama3名字叫llama3-gradient:

Gradient AI 利用分阶段训练策略,成功地将 Llama-3 模型的文本处理能力扩展至百万字符以上。

通过引入 RingAttention 和 EasyContext Blockwise 技术,模型的运算效率得到显著增强。此外,NTK-aware 插值技术和缩放法则的应用进一步提升了模型性能。Llama-3 在大规模 GPU 集群上的训练,使其在长文本处理方面取得了突破性进展。

直接通过ollama run llama3-gradient运行,注意100k的上下文需要64g的内存

800_auto

来源:https://ollama.com/library/llama3-gradient

我知道答案,我要回答