+
80
-

Stable Diffusion中的LORA是干啥的?

 Stable Diffusion中的LORA是干啥的?


网友回复

+
0
-

LoRA(Low-Rank Adaptation of Large Language Models)主要用于处理大模型微调的问题。目前超过数十亿以上参数的具有强能力的大模型 (例如 GPT-3) 通常在为了适应其下游任务的微调中会呈现出巨大开销。 LoRA 建议冻结预训练模型的权重并在每个 Transformer 块中注入可训练层 (秩-分解矩阵)。因为不需要为大多数模型权重计算梯度,所以大大减少了需要训练参数的数量并且降低了 GPU 的内存要求。研究人员发现,通过聚焦大模型的 Transformer 注意力块,使用 LoRA 进行的微调质量与全模型微调相当,同时速度更快且需要更少的计算。

粗略地讲就是利用少量的图像来对 AI 进行额外学习训练,并在一定程度上控制结果。

我知道答案,我要回答