快商通 NLP实习
1、自我介绍
2、项目讲解
3、指令集构建这一块有遇到什么难点吗?怎么解决的?
3、用的什么微调,讲一下lora、p-tunning的原理
4、lora怎么做矩阵的初始化,为什么这样做
5、有对比其他模型进行微调吗?微调后的效果怎么样?
6、微调后的badcase怎么处理?
7、怎么解决大模型的重复回答的问题?
8、LLM推理都有哪些参数设置(top-k,top-p),一般怎么调整?
9、Beam Search(束搜索)
10、RAG
11、RLHF、PPO、DPO算法
12、VLLM的KV Cache原理
13、反问
面试官挺好的,最后聊了一下学习建议,还得练。
2、项目讲解
3、指令集构建这一块有遇到什么难点吗?怎么解决的?
3、用的什么微调,讲一下lora、p-tunning的原理
4、lora怎么做矩阵的初始化,为什么这样做
5、有对比其他模型进行微调吗?微调后的效果怎么样?
6、微调后的badcase怎么处理?
7、怎么解决大模型的重复回答的问题?
8、LLM推理都有哪些参数设置(top-k,top-p),一般怎么调整?
9、Beam Search(束搜索)
10、RAG
11、RLHF、PPO、DPO算法
12、VLLM的KV Cache原理
13、反问
面试官挺好的,最后聊了一下学习建议,还得练。
全部评论
相关推荐
点赞 评论 收藏
分享
2024-12-31 16:32
北京科技大学天津学院 Java 点赞 评论 收藏
分享
查看28道真题和解析
点赞 评论 收藏
分享