首页 > 试题广场 >

LoRA(Low-Rank Adaptation)方法在微调

[单选题]
LoRA(Low-Rank Adaptation)方法在微调大模型时,其设计核心是什么?
  • 完全冻结预训练权重
  • 引入低秩矩阵实现参数高效更新
  • 依赖大量任务特定数据
  • 更改模型网络结构

这道题你会答吗?花几分钟告诉大家答案吧!