人的记忆力会随着岁月的流逝而衰退,写作可以弥补记忆的不足,将曾经的人生经历和感悟记录下来,也便于保存一份美好的回忆。写范文的时候需要注意什么呢?有哪些格式需要注意呢?下面是小编为大家收集的优秀范文,供大家参考借鉴,希望可以帮助到有需要的朋友。
大数据是运维工程师 大数据运维岗位篇一
1、负责大数据平台hawq数据库运维;
2、负责大数据平台tbase数据库运维;
3、负责传统数据(oracle、mysql等数据库)数据迁移、数据同步;
4、负责日常数据库的监控及问题分析排查;
5、负责ogg、kafafa等组件数据传输同步日常运维;
6、负责数据库的优化、sql语句的优化调优;
7、负责数据同步的检验与异常处理,确保数据的一致性、完整性、及时性;
8、负责制定数据同步方案及实施。
任职要求:
1、大专或以上学历,计算机或统计类相关专业
2、有3年以上技术类或数据类的开发经验;
3、熟练linux 系统操作及linux 运维监控、软件安装配置;
4、熟悉大数据技术,如hadoop、spark、storm、zookeeper等;
5、熟悉主流数据库mysql/sql serverl/oracle/postgresql等,精通sql语句,对复杂sql能进行优化,能熟练编写存储过程;
6、熟练linux shell,可以进行运维shell开发;
7、学习能力强,责任心强,具有优秀的沟通表达、理解能力与团队合作能力;
8、有centos 7、red hat 7等linux操作系统,有shell脚本编写经验的优先。
9、有3年以上的基于mpp(greenplum ,hawq,vertica,gbase等mpp db)数据仓库的实际运维经验或3年以上 hive、spark 实际项目运维经验
10、在实际项目中,有异构数据库迁移经验,从传统oracle,mysql迁移至mpp数据仓库的实战经验.
大数据是运维工程师 大数据运维岗位篇二
职责:
1. 负责公司核心集群的运维工作, 任务调度、监控预警,持续完善大数据平台,保证稳定性、安全性;
2. 负责集群容量规划、扩容及集群性能优化;
3. 基于大数据应用需求,持续优化hadoop框架及组件的配置,提升性能;
任职资格:
1.大专以上计算机,通信和网络相关专业;
2.3年以上中等规模集群环境下的hadoop/impala/hive/spark集群相关运维经验;
3.对各种hdfs/yarn/hive/impala/spark/hbase等相关参数调优, 性能优化等有实际经验;
4.有实际踩坑经历, 对于相关组件的版本跟进, 补丁跟踪, bug追踪等有相关经验;
5.实际处理过各种集群在线版本升级, 数据迁移, 集群扩容, 稳定性监控等工作;
6.熟悉kerberos安全认证系统,实施过集群权限管理, 资源隔离方面的方案规划或二次开发工作;
7.能维护hadoop源码,有hadoop 源代码bug修复或者源代码优化经验者优先;
8.有cloudera的cm使用经验尤佳。
大数据是运维工程师 大数据运维岗位篇三
职责:
- 负责局点大数据平台的部署、管理、优化、监控报警,保障平台服务7*24稳定可靠高效运行;
- 深入理解公司大数据平台架构,发现并解决性能瓶颈,支撑业务和数据量的快速增长;
- 开发大数据自动化运维、监控报警、故障处理相关脚本和工具;
- 负责hadoop/spark/kafka等集群服务、业务监控、持续交付、应急响应、容量规划等。
要求:
- 4年以上运维相关工作经验,有大数据平台运维相关工作经验优先;
- 具备一定的故障排查能力,有良好的技术敏感度和风险识别能力,精通一门以上脚本语言(shell/python等),熟悉http/https、tcp/ip、smtp等协议;
- 熟悉linux(redhat/centos)软硬件环境、系统管理和优化,熟练部署、优化各种常用服务。熟练使用linux 命令和常用的ssh、ftp、git、maven等开发工具;
- 熟悉hadoop大数据生态圈,包括但不限于cdh/hdfs/yarn/hive/hbase/kafka/zookeeper/spark/flink/impala/elasticsearch/kibana/mysql/kubernetes等;
- 熟悉hadoop各组件的原理和实现,有实际部署维护、管理( 包括元数据管理)及优化经验。并拥有持续调优能力,运维管理过大规模数据平台;
- 熟悉掌握常用的安全协议和组件服务,对hadoop各组件的权限、安全、kerberos进行配置管理。熟悉ssl、acl、kerberos等在大数据环境场景的使用;
- 熟悉常用运维监控工具(nagios/ganglia/zabbix/grafan/openfalcon等)和相关插件的开发。比如邮件、短信、微信报警插件等;
- 熟悉常用nginx/haproxy/varnish/netscaler等代理工具的使用和优化;
- 具备良好的服务意识,善于主动思考,自我驱动力强。有良好的沟通、协调能力,富有团队精神,有较强的文档编写能力;
- 有大数据开发经验和阅读源码能力者优先
大数据是运维工程师 大数据运维岗位篇四
职责:
1负责政务云平台、政务应用系统中数据库业务的日常运维,保障平台及应用系统服务7*24稳定可靠高效运行
2负责数据库性能调优,了解锁与隔离机制,协助客户解决数据库性能瓶颈
3制定数据库使用规范,制定数据库备份、升级、迁移规划并部署实施
4参与数据库设计工作,提高数据库维护自动化水平
5熟悉linux操作系统,熟练使用python,go,shell等至少一种语言
岗位要求:
1) 5年以上 oracle/mysql dba 从业经验;
2) 熟练掌握 oracle/mysql 数据库的基础理论知识、运行机制、体系架构、高可用方案、备份机制、容灾机制等;
3) 熟练掌握数据库性能优化,了解主流的分布式数据库 spanner/cassandra;
4) 熟悉 linux/unix 操作系统,对服务器硬件有一定了解;
5) 熟练掌握 golang、python、java 等语言中的一种;
6) 熟悉阿里云产品线,具备acp认证者优先考虑;
大数据是运维工程师 大数据运维岗位篇五
职责:
1、负责银行各类应用系统的运维标准制定和运维管理等工作;
2、负责银行各类应用系统的运行情况及相关技术的整理、分析和总结等工作;
3、负责银行各类应用系统的应用监控、应用运维体系工具的建设和维护工作;
4、负责银行各类应用系统的自动化脚本编写和测试工作。
招聘要求:
1、全日制一本以及以上学历,理工类专业;
2、具备2年及以上应用系统运维或应用系统开发经验,有银行应用系统运维或开发经验者优先;
3、具备较强的文档编写、英语文档阅读能力;
4、具备良好的沟通表达能力和团队合作精神,具有较强的工作责任心和主动性;
5、至少具备以下二项技能:
(1)熟悉银行应用系统体系架构、应用运维标准化流程;
(2)熟悉aix、linux操作系统相关运维工作,具备熟练的shell脚本编程能力;
(3)熟悉应用软件持续集成和持续发布交付项目的整体流程,熟悉jenkins、nexus等相关devops工具;
(4)熟练使用容器平台相关技术,有容器平台管理工作、应用容器打包的相关经验;
(5)熟练使用golang或者python编程。
大数据是运维工程师 大数据运维岗位篇六
职责:
1.对公司各业务系统进行技术维护;
2.业务平台新建、扩容等工作中部署、调测和对接;
3.业务系统故障和投诉的处理;
4.建设方案、割接方案等技术方案的编写和实施;
5.公司各平台业务所需的信号接收、转码等系统的维护;
6.业务系统的监控和巡检;
7.根据工作需要,能适应夜班及节假日值班工作;
任职要求:
1.全日制本科(统招)及以上学历,计算机、软件、通信工程、网络等相关专业,工作经验不限。
2.熟悉linux操作系统,熟练使用linux基本命令。
3.熟悉一两种常用linux上的开源程序或中间件,如:tomcat、nginx、lvs、redis、zabbix等。
4.了解mysql、oracle等主流数据库,了解计算机网络。
5.了解大数据、云计算、虚拟化、容器化、ai、ci/cd等技术者优先,如:hadoop、docker、kubernetes、python、jenkins等。
6.有良好的逻辑思维,掌握一门主流编程语言者优先,如:java、php、js、python、c++、go等。
7.具备良好的沟通协调能力,文字表达能力和执行力,对其他部门的技术支持工作有服务意识。
8.有较强的学习能力,热爱运维工作,喜欢钻研运维相关技术,能吃苦耐劳
9.对运维工作有高度的安全意识,办事仔细、认真、不浮躁。
大数据是运维工程师 大数据运维岗位篇七
职责:
1. 负责游戏产品的上线、更新和维护;
2. 负责公司产品自动化运维平台的搭建及持续更新;
3. 负责与业务团队进行沟通,提高业务产品的可维护性。
任职资格:
1. 3年以上linux系统运维工作经验,有上线游戏产品运维经验;
2. 精通shell脚本编写,至少熟悉一种编程语言(python/perl);
3. 熟悉mysql、redis、mongodb等数据库操作和维护,具备高并发数据库维护经验;
4. 精通nginx、php、tomcat等开源软件的配置和维护;
5. 熟悉各种公有云服务器以及cdn dns等产品,具备独立搭建自建服务器能力;
6. 具备开发和搭建自动化运维平台经验者优先;
7. 有强烈的责任心,具备较强的沟通协调能力。
大数据是运维工程师 大数据运维岗位篇八
职责:
1、参与项目需求分析, 制定开发计划,承担项目的架构设计和详细设计工作,并承担项目核心模块的开发任务,确保按时完成既定的开发内容;
2、参与软件开发的整体规划及实施,分析并解决软件开发过程中的技术问题,为公司的业务开展提供支持;
3、完成软件系统代码的实现,编写代码注释和开发文档,进行系统的功能定义,程序设计;
4、根据设计文档或需求说明完成代码编写,调试,测试和维护;
5、根据需要不断修改完善软件,负责现有系统的重构、优化、维护等工作;
7、对系统数据库进行日常管理,统计数据库中相关信息;
8、负责网络运行的安全性、可靠性及稳定性;
9、配合项目经理完成相关任务目标。
相关要求:
1、计算机或相关专业大专学历以上;
2、2年以上软件开发经验;
3、具备需求分析和系统设计能力,以及较强的逻辑分析和独立解决问题的能力;
4、熟练使用photoshop、flash、dreamweaver等工具,熟悉asp,java,sql,html等开发语言;
5、具有良好的沟通领悟能力及团队协作能力,有进取心,强烈的责任感和认真细致的工作态度,善于学习,具备良好的团队意识。
大数据是运维工程师 大数据运维岗位篇九
职责:
1、负责项目功能技术支持和功能测试;
2、有1年以上运维、测试工作经验;
3、追踪解决项目相关 bug ;
4、具备良好的表达能力,包括语言及文字表达能,良好的团队合作精神和解决问题的能力;
5、与开发人员、运维人员沟通,找出并能够快速准确定位问题。
职位要求:
1、熟悉基本主机、数据库系统、网络知识 ;
2、至少1年以上的软件运维支持经验,有使用常用测试工具的经验者优先 ;
3、具有linux平台运维经验 ;
4、熟悉sql语言、熟悉基本数据库操作、有oracle经验者优先;
5、能够完成测试案例、测试计划编写;
大数据是运维工程师 大数据运维岗位篇十
1、对服务器进行日常维护,确保各项服务连续正常运行。
2、负责服务器存储网络等基础平台的技术维护和问题处理 ;
3、负责执行大客户服务项目的定制化服务配置和硬件安装等处理工作;
4、了解操作系统安装与配置;
5、具备一定的网络相关故障解决能力;
6、熟悉主流厂商pc服务器硬件安装与配置;
7、windows、linux、vmware等日常管理、维护;
8、负责服务器异常或故障的受理、跟踪、解决以及统计分析;
大数据是运维工程师 大数据运维岗位篇十一
1、大规模以mesos为资源调度平台,承载了上百套应用的大型数据中心操作系统(dcos),负责平台高可用/高并发/可用性管控,有过sre经验优先考虑。
2、负责指导应用上云及平台自身监控运维性质开发,有devops工作心得优先考虑。
岗位要求
1.良好的语言表达和沟通能力,较强的服务意识与团队合作精神
2.有主动推进预定计划/方案实施的意识,愿意主动学习
3.深入理解linux操作系统,能够对主机性能进行分析和优化;
4.熟悉常用的监控软件nagios、zabbix、cadvisor、prometheus中的一种或多种;
5.熟悉常用的虚拟化技术,了解docker常见的使用方法,编排方式;
6.对mysql、redis、zookeeper、tomcat、haproxy等有一定的运维经验;
7.熟练使用shell、python、go中的一种或多种;
大数据是运维工程师 大数据运维岗位篇十二
职责:
1、负责公司idc业务线监控系统的日常维护与管理;
2、负责公司官网、oa、云平台等系统的日常维护与管理;
3、负责研发项目著作权申请文档的编写与申请沟通;
4、负责研发产品的实施与部署;
5、根据部门工作要求完成临时性的配合工作;
任职要求:
1、熟悉linux系统的常用操作
2、熟悉shell或python的编程
3、具有良好的沟通与协调能力
大数据是运维工程师 大数据运维岗位篇十三
职责:
1、负责多云管理平台的自动化部署及运维;
2、负责提供平台相关的技术支持,协助客户故障的分析和排除;
3、负责集群架构、性能、稳定性等优化工作,配合进行开发调试、排查及解决业务故障;
4、负责运维报告及知识库的整理以及相关文档的编写;
5、协助客户设置nat网关、internet 网关、软件负载均衡、终端节点、防火墙等高级网络配置;
6、协助客户设置弹性策略、高可用、反亲和性等主机高级策略;
7、协助客户调研高级云计算服务和配置运营相关策略;
任职要求:
1、统招本科以上学历,5年以上云运维工作经验;
2、熟悉shell、python或ansible,有自动化运维的理念,并且具备一定的脚本能力能够推进自动化运维建设;
3、熟练使用fio、iperf、telnet、tcpdump、nc等运维测试和排错工具;
4、熟悉关系型数据库mysql和健值数据库redis的安装配置,以及任意一款中间件的使用;
5、熟悉linux 安装、配置和命令和windows server 20xx以上操作系统的服务配置。
6、熟悉计算、存储、安全、网络等基本知识;
7、熟练使用公有云、vmware、openstack 或kvm 中至少二款云计算或虚拟化产品;
8、有良好的客户服务意识、良好的沟通能力、团队协作能力;
9、具备aws相关认证优先
大数据是运维工程师 大数据运维岗位篇十四
1、日常短彩信质量分析工作,协助短彩信业务质量人工测试、协助自有人员以提升用户感知、加强故障监控能力、消灭安全隐患为目标,提供对短彩信系统业务指标、系统运行效能进行主动发现、隐患整改、持续优化的服务。
2、日常巡检:协助实施系统巡检,协助编写问题报告。
3、投诉处理:协助投诉与故障现象分析,明确投诉原因,提出投诉处理建议。
4、作业计划:协助完成作业计划执行以及完成情况反馈。
5、系统备份与系统资料管理:协助开展系统备份与系统资料整理。
6、日常故障处理:协助数据提取与分析、系统监控,开展人工测试,提供故障处理建议,协助维保厂商及自有人员完成故障处理。
7、紧急故障处理:协助数据提取与分析、系统监控,开展人工测试,协助故障处理,提供故障处理建议,协助8、提供故障分析内容,协助维保厂商及自有人员完成故障处理。
9、话单数据保障:协助进行话单文件的日常维护,协助完成话单缺失的补传工作。
10、协助数据提取与分析、系统监控,开展业务测试。
11、协助开展日常安全扫描等工作,内容主要为:系统安全加固、弱口令、漏洞的自查及修复;信息安全风险的自查及整改;管控平台全面接入及绕行控制;防火墙设备策略梳理;定级备案内容提供;更新应急预案,完成应急演练等。
12、数据配置:进行局数据制作后测试。
13、报表分析:协助提取分析报表,实施分析工作,编写分析报告。
14、数据分析、服务汇报:协助完成系统指标数据提取、整理、问题分析;完成各系统专项服务汇报(故障报告、巡检报告等),以及定期服务总结。
15、协助买方完成其他临时性、阶段性工作任务。
大数据是运维工程师 大数据运维岗位篇十五
职责:
1. 客户web端,微信端销售系统及后台管理系统的日常维护,故障排除,用户培训,用户指南制作;
2. 常驻客户现场,及时处理用户提出的各类软件系统问题;
3. 全面负责软件测试的质量管理,并根据测试结果提交相关结论性意见建议;
4. 配合开发团队完成新软件系统的部署、发布工作;
5. 完成部门主管或上级领导交办的其它临时性工作。
职位要求:
1. 本科及以上学历,计算机、通信及相关专业;
2. 有年及以上软件开发或运维工作经验,同时拥有开发和运维工作经验者优先;
3. 有丰富的mysql,sqlserver等数据库运维和支持经验尤佳;
4. 熟知linux操作系统平台,熟悉在该平台进行软件搭建能力;
5. 有其他it运维工作经验者优先。