目前,支持最大上下文长度的模型是谷歌的Gemini 1.5 Pro,其上下文窗口长度扩展到了200万tokens。
而Anthropic公司推出的Claude 3.5 Sonnet模型,支持的上下文窗口为20万 tokens。
在此前,Gemini 1.5版本就已经支持了100万tokens的上下文长度。
gpt4o系列是12.8万tokens上下文。
这些模型的超长上下文功能使得它们能够处理大规模的信息,例如长视频、音频、大量代码或庞大的文本数据,从而在复杂推理、跨模态内容理解和相关问题解决等方面展现出更强大的能力。
网友回复
gpt-image2能直接将图片转成分层透明的psd设计文件?
claude code、codex、gemini cli如何切换国内大模型使用?
蒸馏最强ai大模型是中小ai模型低成本升级的最好通道?
arena.ai上为啥没有最新的claude4.7及gpt5.5呢?
ai大模型公司为啥开始大量招聘文科生了?
cloudflared如何在低版本centos6或7上安装?
bfwsoa框架如何开启异步缓存与异步任务模式?
selenium如何获取网页js加载渲染后的真实dom结构?
go编写的Eino与python编写的langchain如何选择?
LangChain如何编写多个agent协同工作的代码?


