学而思内推

学而思网校25届春季校园招聘正式启动!

在学而思网校你能获得什么?

●人才培养强势赋能

●内外训资源丰出

●职业发展畅通多元

●岗位多元化

产品实习面经分享:学而思AIGC(来自牛客)

面了大概四十分钟左右,八股问的很少,但是问的很深入,项目问的特别细致

1.问项目的路由权限是如何做的,追问token过期了怎么处理,追问各个细节

2.从发送请求到页面处理,有哪几个步骤

3.路由权限守卫的细节,点击某一个页面如何触发,触发过程

4.追问项目细节,给了几个实例、错误,问我怎么解决

5.路由懒加载和图片懒加载怎么实现的,性能优化有哪些方法

6.css中实现分栏布局,举出三种方法

7.口述代码(给了页面布局的三种情况,怎么让他们对齐,清除浮动)

8.绝对定位和相对定位的差别,实际应用

9.浏览器存储机制

10.网络攻击

11.性能优化(口述代码)

12.vue2,3的区别

【内推投递通道】https://app.mokahr.com/m/campus-recruitment/tal/140048?recommendCode=DSp3z1d1&hash=%23%2Fjobs#/jobs
【推荐码】DSp3z1d1

(优先处理特权)

建议大家尽早投递,锁定名额

大家投递完后可以在评论区评论例如java已投,我看到会及时回复,后续有问题也可以直接联系我。
#春招#                                       #实习#                                       #暑期实习#             
全部评论

相关推荐

面试官:目前有哪些post-training方法今天老师给大家详细分析一道大厂算法面试真题:目前有哪些post-training方法,供各位同学参考。✅回答:当前主流的后训练方法包括监督微调、基于人类反馈的强化学习(RLHF)、直接偏好优化(DPO)、专家迭代(EI)以及它们的变体(例如:RLAIF、PPO、ORPO、)。然而,后训练方法在LLM部署之前增加了一个相当复杂的过程。✍🏻详解:1️⃣基于人类反馈的强化学习(RLHF): 基于人类反馈的强化学习是一种将人类偏好和意见引入强化学习过程中的方法。RLHF将人类的反馈作为奖励信号来指导模型学习。人类可以通过提供对模型行为的偏好、反馈或排序,帮助模型更好地调整策略来适应人类的偏好,就是更懂你。2️⃣直接偏好优化(DPO): 直接偏好优化是一种优化技术,主要通过直接学习模型在不同情境下对不同偏好的评估,来提高模型的性能。注意,它是直接优化偏好,在本质上其是通过排序的思想构造了一个优化函数,然后推导为最后可直接优化的损失,比起来RLHF的思想它更简单,大体就是改个损失就可以了。3️⃣专家迭代(EI): 专家迭代是一种通过模仿专家行为并不断迭代改进模型的方法。在专家迭代过程中,模型首先通过观察专家的行为来学习。然后,通过模拟和优化这些行为,模型根据专家的反馈或策略进行改进。这个我没有用到过,只能说个大概。📳对于想求职算法岗的同学,如果想参加高质量项目辅导,提升面试能力,欢迎后台联系。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务