注意该招聘信息在 100 天前已发布,有可能已失效
0

申请人

全职 [搜狐技术中心]招hadoop&spark研发工程师

搜狐 in 北京

职位要求:
-两年以上工作经验
-熟悉hadoop或spark等一种或几种分布式计算平台,理解mapreduce原理,理解图计算

-有mapreduce/spark应用开发经验、熟悉数据挖掘等算法者优先
-熟悉java/jvm/内存管理
-掌握集群的安装和部署,有集群运维和优化经验者优先
-了解hbase/hive/impala等优先
-了解集群资源管理yarn者优先
-善于分析和解决问题,比较强的学习和创新能力,有责任心

工作职责:
-负责研发搜狐内部最大的hadoop&spark集群平台
-根据业务需求持续性改进和优化集群系统性能
-指导和优化上层业务分布式程序实现

非常欢迎各位同学加入我们的团队!

公司地址:五道口清华科技园搜狐网络大厦
备注:属于社招职位,请在投递简历时写清楚应聘职位
应届生可实习,表现良好亦可转正
有意者请投递简历至alaleiwang@sohu-inc.com



近期的职位 搜狐

« 返回分类
这是虚假的招聘信息? 报告   
推荐一位朋友
发布于 2014-11-27
查看1480