寒武纪pytorch架构开发

💼公司岗位
👥面试题目
🤔面试感受
#社招#

1.简历介绍
yolo项目介绍
如何处理误报和误检问题
gpu不够怎么处理
fp16和fp32
模型调参和模型裁剪怎么做的
pytorch original memory(这里忘记了 完全不知道)
2.cnn感受野概念
transomer和cnn区别和用法
self- attention里的开根号原因

熟悉cuda嘛?写过cuda嘛?
写过算子嘛?

结论:不是很match,不继续面了

只能回忆起这么多了 相关同学加油👏!

分享面经 保佑🙏offer早点拿到待审核的公司offer…
🙏🙏

#算法面试分享#
全部评论

相关推荐

03-21 12:17
已编辑
哈尔滨工业大学 产品经理
Agent(智能体)与LLM(大语言模型)的区别与联系1. Agent的定义Agent(智能体)是一种能够自主感知环境、制定目标、规划行动并执行任务的实体。它通常由多个模块组成,包括:1️⃣感知模块:接收输入(如文本、传感器数据)。2️⃣决策模块:基于目标或规则制定策略(可能依赖LLM或其他模型)。3️⃣记忆模块:存储历史信息或知识。4️⃣执行模块:调用工具或API完成任务(如搜索、计算、控制设备)。Agent的应用场景广泛,例如自动驾驶、智能客服、自动化流程等,强调主动性、持续性和环境交互能力。2. LLM的定义LLM(大语言模型)是一种基于海量文本训练的自然语言处理模型,核心能力是理解和生成文本。例如,GPT-4、Claude等模型擅长文本生成、问答、翻译等任务,但本质上是一个“静态”模型:被动响应:需用户输入触发,无法自主行动。1️⃣无记忆性:默认不保留上下文(需通过技术手段实现)。2️⃣无工具调用能力:需依赖外部系统扩展功能。3. 核心区别1️⃣自主性Agent能主动规划任务并调用工具(如API、搜索引擎),持续与环境交互。LLM仅被动响应用户输入,无法独立决策或执行动作。2️⃣功能范围不同:Agent是多模块系统,整合记忆、推理、工具调用等功能,适用于复杂任务链(如自动化流程)。LLM仅处理文本输入输出,需依赖外部系统扩展功能(如通过插件调用工具)。3️⃣架构与复杂性:Agent是系统级架构,包含感知、决策、执行等组件,需管理动态任务流程。LLM是单一模型,仅作为Agent的“语言处理模块”存在。4. 联系与协作1️⃣LLM可作为Agent的“大脑”:Agent常利用LLM处理自然语言理解、生成和简单推理,例如分析用户意图或生成回复。2️⃣Agent扩展LLM的能力:通过整合记忆、工具调用等模块,Agent使LLM突破纯文本交互的限制,例如AutoGPT调用搜索引擎或API完成任务。总结来说:Agent是“行动者”:具备自主性和系统性,能独立完成复杂任务。LLM是“语言专家”:专注文本处理,需依赖外部系统实现功能扩展。#牛客AI配图神器#  #面试#  #产品经理#  #Ai产品经理#  #牛客激励计划#
点赞 评论 收藏
分享
大模型幻觉(Hallucination)是指模型生成与事实不符、缺乏依据或逻辑混乱的内容,其产生根源可从多个维度分析:数据驱动缺陷训练数据的噪声与偏见:大模型依赖海量互联网文本训练,而网络数据本身包含错误信息、主观偏见、过时知识甚至虚构内容。模型无法辨别数据真伪,可能将错误模式内化为“知识”。长尾知识覆盖不足:即使训练数据规模庞大,某些冷门领域或细节知识仍可能缺失。当模型被迫生成此类内容时,可能通过“脑补”填补空白,导致虚构。数据时效性滞后:模型训练存在时间差(如GPT-4数据截止到2023年10月),无法获取最新事件或研究成果,可能生成过时信息。概率生成的本质:模型通过最大化token预测概率生成文本,目标是“流畅合理”而非“真实准确”。当高概率路径与事实冲突时,模型优先选择语言连贯性。缺乏现实世界感知:模型仅学习文本间的统计关联,缺乏对物理世界、因果关系或社会常识的深层理解。例如,可能生成“太阳从西边升起”的合理句式,但违背常识。自回归生成误差累积:生成过程逐步依赖前文,早期错误(如错误的前提假设)会导致后续内容偏离事实,形成“幻觉链”。训练目标与评估偏差损失函数局限性:训练时以预测下一个token的准确性为目标,未直接优化事实正确性。模型擅长模仿语言模式,但缺乏事实核查能力。缺乏显式知识验证机制:传统架构未内置实时知识检索或逻辑推理模块,无法在生成过程中交叉验证信息真实性。应用场景的复杂性模糊性指令的过度泛化:当用户需求模糊(如“写一篇关于量子物理的论文”)时,模型可能虚构术语、引用不存在的文献以完成响应。对抗性提示诱导:特定提问方式(如“请描述历史上不存在的某场战争”)可能触发模型的创造性生成模式,混淆虚构与事实边界。缓解幻觉的常见策略知识增强:引入检索增强生成(RAG),实时调用权威数据库辅助生成。强化对齐:通过RLHF(基于人类反馈的强化学习)优化模型对“真实性”的偏好。不确定性标注:让模型主动标记低置信度内容,如“据某些资料显示…”。 #牛客激励计划#  #AI产品经理#  #产品经理#  #聊聊我眼中的AI#  #聊聊我眼中的AI#  #如果可以选,你最想从事什么工作# #牛客AI配图神器#
点赞 评论 收藏
分享
评论
点赞
6
分享

创作者周榜

更多
牛客网
牛客企业服务