注意该招聘信息在 100 天前已发布,有可能已失效
0
申请人
[搜狐技术中心]招hadoop&spark研发工程师
于 搜狐 in 北京
职位要求:
-两年以上工作经验
-熟悉hadoop或spark等一种或几种分布式计算平台,理解mapreduce原理,理解图计算
等
-有mapreduce/spark应用开发经验、熟悉数据挖掘等算法者优先
-熟悉java/jvm/内存管理
-掌握集群的安装和部署,有集群运维和优化经验者优先
-了解hbase/hive/impala等优先
-了解集群资源管理yarn者优先
-善于分析和解决问题,比较强的学习和创新能力,有责任心
工作职责:
-负责研发搜狐内部最大的hadoop&spark集群平台
-根据业务需求持续性改进和优化集群系统性能
-指导和优化上层业务分布式程序实现
非常欢迎各位同学加入我们的团队!
公司地址:五道口清华科技园搜狐网络大厦
备注:属于社招职位,请在投递简历时写清楚应聘职位
应届生可实习,表现良好亦可转正
有意者请投递简历至alaleiwang@sohu-inc.com
近期的职位 搜狐
【搜狐】【部门直招】推荐系统研发工程师/算法专家 at 搜狐, 不限地址
2019-11-12
【社招】【搜狐大数据中心】高级数据挖掘/算法工程师 at 搜狐 in 北京
2019-02-28
【社招】【搜狐大数据中心】推荐系统研发工程师/算法专家 at 搜狐 in 北京
2019-02-28
【搜狐大数据中心】推荐系统研发工程师/算法专家 at 搜狐 in 北京
2018-12-28
【搜狐-大数据中心】自然语言处理实习生 at 搜狐 in 北京
2018-11-15