+
95
-

回答

ollama调用千问qiwen2 7b的embedding是3584维度,而调用gemma:2b模型的时候的是2048,gemma:7b是3072,好像每个模型都不一样,同一个模型量化不同也不同。

网友回复

我知道答案,我要回答