数据运维工程师岗位职责
在不断进步的时代,我们都跟岗位职责有着直接或间接的联系,岗位职责包括岗位职务范围、实现岗位目标的责任、岗位环境、岗位任职资格及各个岗位之间的相互关系等。想学习制定岗位职责却不知道该请教谁?以下是小编为大家收集的数据运维工程师岗位职责,仅供参考,大家一起来看看吧。
数据运维工程师岗位职责1
岗位职责:
1、负责数据平台的实时及离线计算的运维管理工作(部署、监控、优化、故障处理);
2、参与数据平台的相关工具开发(包括自动化部署、关键指标监控等)。
3、负责系统的运维与主动预防,搭建监控机制以及时发现集群问题,持续提升系统可用性与稳定性;
4、跟进并处理系统事件,对系统问题及故障解决跟踪优化,负责服务状况与服务质量报告,不断提升集群服务质量;
5、梳理优化业务使用集群的流程及规范,使集群使用在资源利用、质量等方面均达到较高水平;
6、日常跟踪业界技术发展动态,并结合业务发展需要,研究引入合适的技术。
任职要求:
1、本科以上学历,有2年以上Hadoop相关运维经验,了解Hadoop各组件的原理,并有实际部署维护经验;
2、深入理解linux系统,计算机网络,运维体系结构,精于容量规划、架构设计、性能优化;
3、熟悉一门以上脚本语言(shell/perl/python等),熟练掌握自动化运维技术;
4、熟悉docker操作、实施,能通过kuberneter、swarm技术管理docker集群,熟悉灰度发布;
5、熟悉hadoop、hive、hbase、yarn、spark等大数据生态圈之组件的原理及运维方式;
6、熟悉数据库基本原理,能对Mysql进行性能优化,监控Mysql日常运行情况,熟悉主备、主从、安全机制;
7、有敏锐的技术洞察力和较强的问题分析能力,故障排查能力,有很好的技术敏感度和风险识别能力;
8、良好的沟通技巧和推动能力,良好的服务意识和团队协作意识,细致周到的做事风格,责任心强;
9、熟悉公有云及架构,如AWS优先考虑。
数据运维工程师岗位职责2
工作职责:
1.负责Hadoop及相关组件的部署和维护,保证其稳定运行;
2.开发和使用Hadoop大数据自动化运维与监控工具;
3.基于大数据应用需求,不断调整和优化Hadoop框架及组件的配置,提升性能;
4.为数据仓库、数据挖掘建模等数据应用项目提供运行环境支持;
任职要求:
1.本科及以上学历,计算机相关专业,2年以上相关工作经验;
2.熟悉Linux开发环境和shell脚本;
3.熟悉Hadoop及其相关组件部署维护,有实际大数据集群运维经验;
4.熟悉IT系统基础架构及网络原理,具备大型集群运维经验;
5.熟悉数据仓库。
数据运维工程师岗位职责3
岗位职责:
1、负责大数据环境的`部署维护和技术支持;
2、现场系统的问题定位和分析解决;
3、负责应用安全,数据的日常备份和应急恢复;
4、负责大数据外其他日常运维工作。
任职要求:
1、熟悉Linux/Unix系统,两年以上Linux系统运维或开发经验;
2、熟练掌握数据库,有海量数据处理和并行计算平台运维或开发经验;
3、有较强的实现能力及学习能力,拥有实际的Hadoop项目经验;
4、本科及以上学历,英语四级;
5、良好的团队合作,较强的沟通能力,强大的解决问题能力。
【数据运维工程师岗位职责】相关文章:
变电运维工区轮岗实习心得01-20
通信运维部主任竞聘演说稿08-28
网络运维部竞聘上岗汇报材料01-26
电气工程师岗位职责07-21
通信维述职报告01-22
有趣的“运豆”比赛01-13
秋季运 动会总结02-02
货 物 运 输 合 同01-31
维保合同续签请示07-06
三维实习报告01-24