面经分享- AI Infra蔚来汽车一面
继续来分享下之前的面经~欢迎友好讨论,信息共享
1. 详细对比CPU、GPU、NPU的硬件架构优缺点及适用场景
2. 为什么NPU适合AI计算?(Unified Buffer、矩阵加速单元)
3. NVIDIA GPU的内存组织架构和计算调度逻辑
4. 为什么要设计Warp?Warp Scheduler是如何工作的?(掩盖访存延迟)
5. GEMM(矩阵乘)在GPU上的经典优化手段(Shared Memory分块、向量化读写、Double Buffer)
6. 大规模Reduction(归约)操作怎么做?(Warp级归约 -> Block级归约 -> Global原子加 vs 多Kernel级联)
7. 多态的实现机制(编译时多态 vs 运行时多态)
8. 构造函数和析构函数可以是虚函数吗?为什么?
9. 继承关系下构造与析构的执行顺序。
10. 智能指针详解(unique_ptr, shared_ptr, weak_ptr及循环引用解决)
1. 详细对比CPU、GPU、NPU的硬件架构优缺点及适用场景
2. 为什么NPU适合AI计算?(Unified Buffer、矩阵加速单元)
3. NVIDIA GPU的内存组织架构和计算调度逻辑
4. 为什么要设计Warp?Warp Scheduler是如何工作的?(掩盖访存延迟)
5. GEMM(矩阵乘)在GPU上的经典优化手段(Shared Memory分块、向量化读写、Double Buffer)
6. 大规模Reduction(归约)操作怎么做?(Warp级归约 -> Block级归约 -> Global原子加 vs 多Kernel级联)
7. 多态的实现机制(编译时多态 vs 运行时多态)
8. 构造函数和析构函数可以是虚函数吗?为什么?
9. 继承关系下构造与析构的执行顺序。
10. 智能指针详解(unique_ptr, shared_ptr, weak_ptr及循环引用解决)
全部评论
相关推荐
查看15道真题和解析