【校招】【实习】搜狐大数据中心——大数据方向(内推)

以下岗位均可实习可校招,如果实习请邮件备注实习起止日期和每周到岗天数(实习均有转正机会)
  
搜狐大数据中心是搜狐集团总部的核心研发和产品孵化部门,主要研究方向包括且不限于:     
-分布式计算/大数据底层技术研究/大数据平台研发和数据应用     
-云平台关键技术研究、智能数据中心平台开发等    
-Linux系统和内核相关技术研究  
-机器/深度学习、其他新技术预研和孵化等  
    
负责大搜狐若干个hadoop集群运营和系统研发工作,业务涵盖系统底层到上层数据业务  
大数据相关技术覆盖hadoop各项目内核源码开发、大规模集群运营、数据挖掘、推荐算法、机器学习&深度学习、数据应用平台和可视化等;有志于海量数据处理和分布式集群技术研究的小伙伴不要犹豫来瞧一瞧  
我们也关注系统和内核、分布式系统新技术研究、云平台关键技术研究、智能数据中心、服务器硬件新技术跟进等,对系统和底层感兴趣同学也可以多看看哦  
  
相关岗位信息如下:  
1、应用研发/后台研发(大数据方向)  
职位要求:  
-重点本科以上学历,计算机、通信相关方向  
-熟悉java或者C++,java语言优先  
-熟悉linux系统,会一种或多种脚本(shell/python)加分  
-良好的算法和数据结构基础    
-熟悉数据库(mysql),有开源项目使用经验加分  
-有大型软件项目(后端服务、web应用)优先  
-快速的学习能力和优秀的分析和解决问题能力,有团队意识  
    
其他加分项:  
-有hadoop/spark等研究/使用经验  
-熟悉或了解gpu/mic,cuda/opencl  
-有机器学习(mlib)、深度学习(tensorflow/caffe)相关基础优先  
    
    
2、前端开发  
任职要求:        
-重点本科以上学历,计算机、通信相关方向  
-精通各种前端技术(HTML(5),CSS(3),JS)  
-理解并掌握JavaScript语言核心技术DOM、BOM、Ajax、JSON等  
-有web前端开发经验,熟悉web开发环境  
-具备良好的学习能力和分析解决问题能力;责任心强,良好的对外沟通和团  
队协作能力  
    
加分项:  
-有以下任一技术经验者优先:vue,react,gulp,webpack,redux,es6,react-router,react-saga等  
    
    
3、机器学习/深度学习/算法(大数据方向)  
岗位要求:  
-重点本科以上学历,计算机/数学相关专业  
-熟悉java或者c++,java语言优先;熟悉一种或多种脚本语言(shell/python)  
-良好的算法基础,良好的编程功底  
-熟悉机器学习相关知识理论,有大规模机器/深度学习开发和应用经验优先  
    
加分项:  
-了解hadoop/spark等  
-了解cuda/caffe/tensorflow/gpu/mlib等  
-了解数据挖掘、推荐系统、策略优化等  
    
4、Linux系统开发/运维/服务器岗(大数据方向)  
岗位要求:  
-重点本科以上学历,计算机、电子、通信相关专业  
-熟悉计算机组成原理、操作系统等相关知识,良好、全面的计算机硬件基础,了解计算机外设组件(CPU、内存、RAID、盘阵、SSD等)  
-熟悉linux,熟练使用shell/python等脚本、有c/java后端开发经验者加分  
-学习能力强,优秀的分析和解决问题能力  
    
加分项:  
-熟悉x86架构、linux系统应用和管理,有linux应用系统运维相关经验  
(redhat/centos)  
-熟悉常见运维工具如nagios/ganglia/zabbix/snmp等,有集群管理经验者优先  
-熟悉linux,了解内核,喜欢钻研开源技术及自动化技术  
-linux重度用户、linux全栈工程师  
-了解主要硬件厂商主要产品、技术路线,对服务器硬件以及周边配置有浓厚的兴趣  
    
5、大数据高级研究员  
岗位要求:    
-重点本科以上学历,计算机相关专业  
-熟悉java/c++,java语言优先,有良好的算法和数据结构基础  
-熟悉jvm和java应用调试技术,有java后端服务优化经验加分   
-熟悉linux,有大型开源项目研究和应用加分   
-使用过hadoop/spark相关大数据技术、有底层研究经验加分  
-优秀的分析和解决问题能力,良好的团队协作精神,有责任心  
    
加分项:  
      -有大数据全栈经验(hive/hbase/kylin/kafka/storm)  
-了解cuda/cpu、tensorflow/caffe等  
    
岗位职责:   
-负责hadoop/spark/hive/hbase等内核研发  
-研究大数据相关前沿技术,包括机器学习和深度学习等  
-负责大数据相关项目的软件分析、设计和开发工作   
-负责底层应用架构调整和系统调优  
    
投递要求:  
1要写明自己的学校及专业,研究生也要写上本科院校哦! 
2简历内容要够丰富哦 让面试官看到出色的与众不同的你!  
3投递邮箱:rdcplatform@sohu-inc.com 
4邮件标题形式:[牛客-内推]+姓名+学校+岗位 (实习备注天数和实习起止日期) 
5尽快!尽快!尽快!不然简历就要和我们say goodbey了~  
快来吧,我们在这里等你!  
--  
全部评论
是在北京吗
点赞 回复 分享
发布于 2017-11-24 17:18
是的 地点:北京市海淀区科学院南路2号院3号楼搜狐媒体大厦
点赞 回复 分享
发布于 2017-11-24 17:21
精通看着还是挺吓人的,不敢报。。
点赞 回复 分享
发布于 2017-11-25 16:13
已经拿了其他部门offer 还可以再面吗?
点赞 回复 分享
发布于 2017-12-07 00:14
广州,有木有?
点赞 回复 分享
发布于 2017-12-14 13:18
你好,请问是搜狐的hr吗。我有问题想咨询一下
点赞 回复 分享
发布于 2017-12-21 20:34
是这样的~昨天接到搜狐的实习录用通知~可是我把那个确认函点击确认之后没有保存~现在那个确认函已经找不见了~我想问一下~报道的时候需要确认函吗~还有提供住宿吗
点赞 回复 分享
发布于 2017-12-22 11:05

相关推荐

11-07 13:31
怀化学院 Java
勇敢牛牛不怕难:又疯一个
点赞 评论 收藏
分享
评论
点赞
收藏
分享
牛客网
牛客企业服务