蚂蚁大安全前端一二三面面经

一面 3.11 1h :
应该是三道,dp,递归,异步,不用跑代码解释一下就行(阿里系都这样,具体没印象了
然后从上到下问简历

二面 3.13 45min:
实习项目,大模型

三面 3.25 1h+: 
(上周一就接到电话漏接了,以为无了,结果过了一周多打来了)

实习亮难点,穿插开放设计题
大模型相关科研或学习经历,ai和前端结合实践
说了点大模型硬件推理加速相关,追问是否搞过训练
口述算法题思路

大致就这样,我感觉还是比较偏个性化的,风格就是针对简历面,另外可能会临时考察一些工程相关的方案设计题,解决提及的问题。0八股。开放题偏多~

全部评论
不还✌太强了
点赞 回复 分享
发布于 03-25 22:21 广东
给不还佬👻了
点赞 回复 分享
发布于 03-25 23:54 浙江
不还哥哥太厉害了
点赞 回复 分享
发布于 03-26 07:50 湖南

相关推荐

微调(Fine-tuning)是机器学习中一种迁移学习技术,指在预训练模型(如BERT、GPT、ResNet等)的基础上,通过少量特定领域或任务的数据进一步调整模型参数,使其适应新任务。其核心思想是利用预训练模型的通用知识(如语言理解或图像特征提取能力),通过针对性训练提升模型在特定任务上的性能。微调的核心作用1. 节省资源:无需从头训练,减少计算成本。2. 提升性能:预训练模型已学习通用特征,微调能快速适应新任务。3. 小数据友好:适合数据量有限的任务。微调的主要方式1. 全参数微调(Full Fine-tuning)- 方法:解冻预训练模型的所有参数,用新数据更新全部权重。- 适用场景:数据量充足,任务与预训练任务差异较大。- 缺点:计算成本高,可能过拟合小数据集。2. 部分参数微调(Partial Fine-tuning)- 方法:冻结部分层(如底层),仅更新顶层参数。- 冻结策略:预训练模型的底层通常学习通用特征(如语法、低级视觉特征),可冻结;顶层更接近任务,需调整。- 适用场景:数据量较少,任务与预训练任务相似。- 示例:冻结ResNet的前几层,仅微调最后几层用于医学图像分类。 #产品经理#  #牛客激励计划#  #数据人的面试交流地#  #聊聊我眼中的AI#  #面试时最害怕被问到的问题# #牛客AI配图神器#
点赞 评论 收藏
分享
评论
5
10
分享

创作者周榜

更多
牛客网
牛客企业服务