注意该招聘信息在 100 天前已发布,有可能已失效
0
申请人
【社招】凤凰新媒体诚招Hadoop高级工程师
于 凤凰网 in 北京
所属部门:技术部
岗位职责:负责基于Hadoop平台设计开发大数据产品,能够使用Mapreduce技术实现分布式应用,解决团队在Hadoop开发及管理中遇到的技术问题
招聘要求:
1.精通Hadoop,对分布式计算原理有较深的理解,熟悉Mapreduce编程 ,熟悉Hive开发及优化,了解Hadoop集群管理及优化
2.精通Java编程,熟悉Linux系统。熟悉Python编程者优先
3.具有良好的团队合作精神和高度的责任心,良好的沟通协调能力,勇于承担压力和责任
4.对大数据分析与应用有相关经验或有浓厚兴趣。有大型互联网工作经验者优先考虑
5.计算机或相关专业本科以上,相关工作经验三年及以上。
简历请发至panfeng@ifeng.com
近期的职位 凤凰网









