首页 > 试题广场 >

在大语言模型中,Adapter微调与LoRA微调的主要区别是

[单选题]
在大语言模型中,Adapter微调与LoRA微调的主要区别是什么?
  • Adapter添加新的层,而LoRA修改现有权重
  • Adapter只能用于注意力层,而LoRA可用于任何层
  • Adapter需要更多的参数
  • Adapter支持更高的学习率
LoRA不是会冻结权重吗
发表于 2025-08-15 18:36:09 回复(1)