目前,支持最大上下文长度的模型是谷歌的Gemini 1.5 Pro,其上下文窗口长度扩展到了200万tokens。
而Anthropic公司推出的Claude 3.5 Sonnet模型,支持的上下文窗口为20万 tokens。
在此前,Gemini 1.5版本就已经支持了100万tokens的上下文长度。
gpt4o系列是12.8万tokens上下文。
这些模型的超长上下文功能使得它们能够处理大规模的信息,例如长视频、音频、大量代码或庞大的文本数据,从而在复杂推理、跨模态内容理解和相关问题解决等方面展现出更强大的能力。
网友回复