+
73
-

回答

核心原因在于效率与规模的平衡。MoE模型内部包含多个“专家”子网络,但处理每个输入时,只激活其中的一小部分(例如2个)。这使得模型总参数量可以非常大,从而提升能力,但每次推理或训练的计算量却远小于同等规模的稠密模型,显著降低了计算成本和延迟。简单说,MoE用“人多但每次只叫几个人干活”的策略,打破了模型性能与计算开销之间的强绑定关系,实现了更高效的扩展。

网友回复

我知道答案,我要回答