美团LLM大模型日常实习一面
1.你们产品里真的用大模型了吗?怎么训的?从0开始还是微调?
2.LoRA 是什么?它的权重是怎么初始化的?为什么有效?
3.你们实验室做过哪些横向项目?有没有处理过文档目录结构解析?
4.多模态场景下,怎么让模型理解图表(比如柱状图、表格)?
5.RAG 你们怎么优化的?chunk size / overlap 怎么设?有没有加 rerank?
6.SFT 阶段用了多少卡?训练时长多久?数据量级是多少?
7.预训练 loss 用的什么?怎么评估模型效果?(我当时答不会…)
8.有了解 Perplexity(PPL)吗?它和 loss 有什么关系?
9.长文档 PDF 处理,你们用了哪些长上下文扩展技术?
10.Vision Encoder 的 loss 怎么设计的?CLIP 之后有哪些新进展?
11.手撕:接雨水(LeetCode 42)
2.LoRA 是什么?它的权重是怎么初始化的?为什么有效?
3.你们实验室做过哪些横向项目?有没有处理过文档目录结构解析?
4.多模态场景下,怎么让模型理解图表(比如柱状图、表格)?
5.RAG 你们怎么优化的?chunk size / overlap 怎么设?有没有加 rerank?
6.SFT 阶段用了多少卡?训练时长多久?数据量级是多少?
7.预训练 loss 用的什么?怎么评估模型效果?(我当时答不会…)
8.有了解 Perplexity(PPL)吗?它和 loss 有什么关系?
9.长文档 PDF 处理,你们用了哪些长上下文扩展技术?
10.Vision Encoder 的 loss 怎么设计的?CLIP 之后有哪些新进展?
11.手撕:接雨水(LeetCode 42)
全部评论
多模态场景下,怎么让模型理解图表咋回答的
相关推荐
投票
找工作的基米花:肯定go学长啊 豆包kimi mininax都是go做agent后端 当然我们lab也是 点赞 评论 收藏
分享
字节跳动公司福利 1366人发布
查看12道真题和解析