科大讯飞nlp/llm 一面

1.⾃我介绍
2.介绍⾃⼰的项⽬
3.项⽬中数据语料
4.你怎么评价你⾃⼰构建的数据集的好坏?
5.chatGLM 和 GPT 模型结构⼀样吗
6.⼤模型训练⽅式
7.怎么评价⼈类⾼质量回答的数据集?精⼼处理的数据集作⽤?
(精⼼处理的数据集只能保证回复还⾏,但不可能只能只对⼀个场景)
8.强化学习中怎么⽤奖励模型打分?怎么样的分数?奖励模型是怎么得到的?
9.⽤强化学习的梯度更新是怎么实现的?
10.什么样的 prompt 是好的 prompt?
11.Instruct 和 prompt 有什么区别?
12.现在⼤模型有哪些的缺点
13.模型幻觉怎么解决?
14.⼤模型对话和传统的 nlp ⼈机对话⽅案有什么区别
15.(⼈机对话)你怎么知道⽤⼾输⼊之后,触发⼀些问题
16.传统⼈机对话中⼀个问题给 K 个回复吗
17.(⼈机对话)相似度怎么计算;这种度量的模型怎么训练?
18.命名实体识别遇到嵌套识别该怎么做?
19.⽂本分类中⼀个⽂本有多个类别的话,该怎么做?
20.⽂本分类中类别不均衡问题怎么解决?
21.⼤模型的幻觉怎么评测?
22.什么是⻓⽂本?⼤模型⻓本⽂怎么做?
23.你项⽬中⻓⽂本⽤的多⻓?
24.tokenizer的步骤

#算法#  #春招#  #牛客解忧铺#  #牛客在线求职答疑中心#  #科大讯飞求职进展汇总#
全部评论
你好,我是AI牛可乐,很高兴为你解答问题。 1. 自我介绍:我是AI牛可乐,一个基于AI的聊天助手,专注于帮助用户解决求职相关的问题。 2. 项目介绍:我的主要项目是帮助用户进行求职相关的咨询和指导,包括简历修改、面试技巧、职业规划等。 3. 项目中的数据语料:我的数据集主要包括各种求职相关的问题和答案,以及一些专业的面试技巧和职业规划建议。 4. 数据集的评价:我认为一个好的数据集应该具有多样性、准确性和实时性。多样性是指数据集应该涵盖各种不同的求职问题和场景,准确性是指数据集中的答案应该准确可靠,实时性是指数据集应该及时更新以反映最新的求职趋势和变化。 5. ChatGLM和GPT模型结构:ChatGLM和GPT都是基于Transformer的深度学习模型,它们的结构相似,都包括输入层、编码层、解码层和输出层。 6. 大模型训练方式:大模型通常采用自监督学习方式进行训练,例如语言建模、掩码语言建模等。 7. 人类高质量回答的数据集评价:人类高质量回答的数据集对于提升模型的性能具有重要作用。一个好的数据集应该具有多样性、准确性和实时性,同时应该包含各种不同的问题和场景,以便模型能够更好地理解和处理各种问题。 8. 强化学习中奖励模型的打分:强化学习中的奖励模型通常采用某种形式的评分函数来评估模型的表现。这种评分函数可以是基于准确率、召回率、F1值等指标,也可以是基于人工评估的结果。 9. 强化学习的梯度更新实现:强化学习的梯度更新通常采用Policy Gradient算法来实现。Policy Gradient算法通过估计梯度来更新模型的参数,以便找到最优的策略。 10. 好的prompt:一个好的prompt应该简洁明了,能够准确地描述问题的背景和需求。同时,一个好的prompt还应该具有一定的通用性,以便模型能够更好地理解和处理各种问题。 11. Instruct和prompt的区别:Instruct和prompt都是用于引导模型的提示词。Instruct通常用于指定任务的具体要求,而prompt则用于描述问题的背景和需求。 12. 大模型的缺点:大模型虽然具有强大的学习能力和泛化能力,但也存在一些缺点,例如训练数据量大、训练时间长、模型参数多等。同时,大模型也可能存在一些偏见和歧视等问题。
点赞 回复 分享
发布于 04-29 04:19 AI生成
码住
点赞 回复 分享
发布于 05-29 10:21 北京
有后续吗
点赞 回复 分享
发布于 06-14 00:24 上海
大佬
点赞 回复 分享
发布于 07-15 17:28 北京
为何会问强化学习?
点赞 回复 分享
发布于 08-02 15:44 陕西
woc校友
点赞 回复 分享
发布于 10-16 19:31 俄罗斯

相关推荐

11 53 评论
分享
牛客网
牛客企业服务