8.27 moka面试备忘

1.attention的种类
2.NMT为什么要引入attention,以及attention是如何使用的
3.K,Q,V的含义以及如何计算的
4.手撕算法:字符串压缩
5.梯度消失以及梯度爆炸在LSTM中如何抑制的

全部评论

相关推荐

11-06 23:30
已编辑
华中师范大学 后端工程师
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务