试试这个版本的llama3名字叫llama3-gradient:
Gradient AI 利用分阶段训练策略,成功地将 Llama-3 模型的文本处理能力扩展至百万字符以上。
通过引入 RingAttention 和 EasyContext Blockwise 技术,模型的运算效率得到显著增强。此外,NTK-aware 插值技术和缩放法则的应用进一步提升了模型性能。Llama-3 在大规模 GPU 集群上的训练,使其在长文本处理方面取得了突破性进展。
直接通过ollama run llama3-gradient运行,注意100k的上下文需要64g的内存
来源:https://ollama.com/library/llama3-gradient
网友回复