岗位职责
岗位职责:
1.负责Hadoop、HBase、Spark系统运行维护和状态监控;
2、负责Hadoop、HBase、Spark等系统的性能优化;
3. 基于Hadoop、HBase、Spark系统开发大数据数据相关分析算法
任职资格:
1、熟悉Hadoop、Hbase、Spark,两年以上Hadoop开发经验;
2、理解MapReduce计算框架的思想,熟悉分布式计算模型,有Spark编程开发经验者优先;
3、精通JAVA语言;
4、至少熟练使用Shell、Python等脚本语言之一;
5、热爱技术,工作认真、严谨,有团队精神。
任职要求
本科工作经验 本科学历
专科工作经验 专科学历
不限工作经验 不限学历
硕士工作经验 硕士学历
专科工作经验 专科学历
不限工作经验 不限学历
不限工作经验 不限学历
本科工作经验 本科学历
专科工作经验 专科学历
硕士工作经验 硕士学历
不限工作经验 不限学历
专科工作经验 专科学历
不限工作经验 不限学历
不限工作经验 不限学历
专科工作经验 专科学历