不一样。同一个中英混合文本,在不同大模型里算出的 token 数量通常不一致,原因在于"分词规则"不同。
你可以把 token 想象成模型识字的最小单位。英文方面,有的模型把 "unhappy" 拆成 "un" + "happy"(2个token),有的直接认作1个;中文差异更大:有的模型按字切("你好"=2 token),有的按词切("你好"=1 token),还有的混合处理。中英混合时,空格、标点、数字的归属规则也不同,进一步拉大差距。
举个栗子网友回复
同一个中英混合文本不同大模型计算tokens长度一致吗?
Browser Use / Playwright / Puppeteer 与Chrome DevTools Protocol(CDP)的关系?
能否在三维空间调用ai的api实现vrm模型执行任意的姿势动作与行走完成任务?
如何让openclaw小龙虾自动帮你打电话聊客户?
各大公司推出的claw是否是为了大家消费自己的大模型tokens?
云服务器什么配置才能部署openclaw?
为啥ai生成视频模型只能5秒10秒或15秒生成,不能一次生成1分钟1i小时呢?
技术上如何解决被曝光的ai投毒geo行为?
有没有哪个大模型可以根据声音和文字描述生成带声音的视频?
如何实现华为手机终端设备之间隔空握拳抓取传送信息?


