大模型求教
全部评论
![](https://uploadfiles.nowcoder.com/files/20240813/120063338_1723523212282/pc_list.png)
1. 可以速成,3090专注 sft(dpo),rag,量化 2. 速成之后去实习,用组里资源跑实验 3. 实习中后期写一篇论文 4. 刷lc,笔记准备秋招
找实习也得发论文 没论文就不要卷大模型赛道了
![](https://uploadfiles.nowcoder.com/files/20240813/120063338_1723523212282/pc_list.png)
做LLM,paper是必备的,门槛其实很高,你想all in的话必须要很有实力,因为LLM目前落地效果不是很好,你如果没有paper或者工程项目的硬实力的话,工作稳定性十分堪忧,有随时被毕业的风险,并且LLM涉及到的面太广了,花活很多,比如问你深一点的有Cache管理,量化,vLLM,deepspeed,SageAttention等等,这些多多少少都是围绕硬件做的优化和加速,很广的,根本速成不了,建议再考虑考虑应用方向,这个方向好做的多,但是还是涉及到一个稳定性问题。
组里一张 3090 还是算了,微调都很难,可以找找 LLM 的实习试试
建议别来,感觉很泡沫
我们组里十几张A6000
我辣鸡二本组里都有4090![](https://uploadfiles.nowcoder.com/images/20220815/318889480_1660553763465/6F6CA9EC40A6F04C7838E4DE94A77241)
![](https://uploadfiles.nowcoder.com/images/20220815/318889480_1660553763465/6F6CA9EC40A6F04C7838E4DE94A77241)
![](https://uploadfiles.nowcoder.com/files/20240514/510894044_1715654316364/pingllunicon.png)
不如搜推
可以速成的,不过可能得多堆一些实习和比赛去弥补论文
没论文别走大模型赛道,卡都没有更别说了
实在不行,如果有实力自己买一张4080,4090摸清楚理论原理,然后去堆实习,在实习过程中和企业一起发论文。
可以是可以,不过明年大模型还火不火就不一定了
cy,同![](https://uploadfiles.nowcoder.com/images/20220815/318889480_1660553763930/8B36D115CE5468E380708713273FEF43)
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享