快手测开一面

快手9.2投递9.10一面,无笔试点赞!是个女面试官人很温柔

  • 自我介绍,项目介绍
  • 然后问了一些项目的细节,数据怎么流动,前后端怎么通信,怎么排序
  • 我提到了性能测试,她问T型用户访问量,在中间的数据量级时很慢,可能有哪些原因?
  • 怎么测试自己的项目
  • 接着就是八股环节,但是都很浅,输入url到页面呈现的网络过程
  • 手撕了一个mysql,简单的两表联查,中间忘记update 后边怎么写,还提示我是set,泪目
  • 手撕了一个最大子数组之和
  • 怎么看待测开和开发之类的问题
  • 反问了业务和工作内容,感觉偏测,因为我以为是要我做自动化测试开发,但是又说内部有自动化测试平台,主要工作是做效能提升和新方向大模型测评什么的

#软件开发笔面经#
全部评论
佬,手撕在力扣么,共享屏幕写么
点赞 回复 分享
发布于 2024-10-05 23:32 江苏
请问面试了大概多久啊
点赞 回复 分享
发布于 2024-09-19 15:56 甘肃
哥,发二面了嘛
点赞 回复 分享
发布于 2024-09-12 19:40 湖南
老哥,我想问一下第三个问题是咋回答的
点赞 回复 分享
发布于 2024-09-11 10:34 安徽

相关推荐

一、训练范式与核心技术1. 强化学习主导- DeepSeek-R1基于大规模强化学习(RL)完成后训练,其强化学习训练占比超过95%,甚至存在完全依赖RL的DeepSeek-R1-Zero版本。- 传统指令模型(如文心、ChatGPT O1)则更依赖监督微调(SFT)和人类反馈的强化学习(RLHF)。2. 冷启动与多阶段训练- DeepSeek-R1通过引入高质量“冷启动”数据辅助初始阶段学习,并结合多阶段训练策略(如拒绝采样)提升推理能力。- 而指令模型通常直接从预训练模型通过SFT对齐人类偏好。二、能力与任务适配性1. 复杂推理能力- DeepSeek-R1专门针对数学推导、代码生成、逻辑分析等复杂任务优化,其推理过程中支持自我验证、错误检测及多路径探索。- 指令模型更侧重通用对话和指令理解,在复杂推理任务中表现较弱。2. 生成质量差异- DeepSeek-R1的纯RL版本(R1-Zero)存在生成内容可读性较低的问题,需通过混合训练策略改进,- 而指令模型因依赖SFT数据,输出更符合人类语言习惯。三、架构设计与成本效率1. 优化算法创新- DeepSeek-R1采用Group Relative Policy Optimization(GRPO)等新型RL算法,支持无监督条件下的推理能力进化。- 指令模型通常沿用PPO等传统RLHF算法。2. 成本优势- DeepSeek-R1在同等性能下成本比OpenAI o1系列低30倍,且在数学、代码基准测试中达到甚至超越Claude 3.5 Sonnet等模型。四、应用场景与合规性1. 垂直领域适配- DeepSeek-R1更适用于科研、金融等高精度推理场景,- 而ChatGPT O1等指令模型偏向通用客服、教育等泛化场景。 #产品经理#  #Ai产品经理#  #AI#  #牛客创作赏金赛#  #牛客激励计划#
点赞 评论 收藏
分享
评论
5
24
分享

创作者周榜

更多
牛客网
牛客企业服务