hadoop运维招聘 hadoop平台部署与运维
文件夹
在日常学习、工作或生活中,大家总少不了接触作文或者范文吧,通过文章可以把我们那些零零散散的思想,聚集在一块。范文怎么写才能发挥它最大的作用呢?下面是小编为大家收集的优秀范文,供大家参考借鉴,希望可以帮助到有需要的朋友。
1、对服务器进行日常维护,确保各项服务连续正常运行。
2、负责服务器存储网络等基础平台的`技术维护和问题处理;
3、负责执行大客户服务项目的定制化服务配置和硬件安装等处理工作;
4、了解操作系统安装与配置;
5、具备一定的网络相关故障解决能力;
6、熟悉主流厂商pc服务器硬件安装与配置;
7、windows、linux、vmware等日常管理、维护;
8、负责服务器异常或故障的受理、跟踪、解决以及统计分析;
2.保证hadoop/spark平台各核心服务运行的稳定、高效;
4.开发各种hadoop大数据自动化运维与监控工具;
5.平台大数据环境的部署维护和技术支持;
6.应用故障的处理跟踪及统计汇总分析;
7.应用安全,数据的日常备份和应急恢复。
1. 负责阿里云平台的ecs服务器与rds数据库的安全和维护工作;
3. 对现有运行网站的系统制定安全审计、维护制度,并监督执行;
4. 配合技术总监,共同组建完整的互联网安全防护措施;
5. 负责公司员工电脑的技术支持(如解决网络、邮箱配置、病毒查杀、办公软件排错等)
6. 负责公司各类终端机、打印机、扫描仪等外设的维护。
任职要求:
5.熟悉sql server/oracle基本语法,对互联网编程语言有一定的了解。
1、负责线上线下服务器部署,优化整个大规模应用架构的设计、实施、后期疑难问题解决。
2、熟悉分布式存储运维,为大数据和云服务提供可靠的运维保障。
3、完善自动监控报警系统,对业务层面关键指标进行监控与报警通知。
4、负责系统运维的执行、设计及流程优化及运维相关的文档、手册、流程编写整理。
5、负责实施项目的服务器部署、系统环境搭建、数据备份、日志分配、系统监控、性能优化、故障排除、系统巡检、生产问题排查等,并配合各相关部门完成运维工作。
6、为开发、测试、产品等相关人员提供各类研发环境的支持性工作,如:基础资源准备、系统环境搭建及日常维护、网络资源协助等工作。
7、发现现有业务架构中存在的性能问题,并进行全方位的性能优化
任职要求:
1、5年以上互联网或相关行业工作经验。
2、熟悉linux操作系统、体系结构,熟练掌握python/shell/perl等一至两种语言。
3、熟悉常见应用配置及优化,如lvs/haproxy/apache/tomcat/nginx/dns/redis等。
4、熟悉常用的日志及监控系统,如 zabbix、grafana、elk等。
5、熟悉vmware、kvm等各种技术化技术,有生产环境docker管理和运维经验者优先。
6、熟悉主流云平台(aws、阿里、华为云等)产品及技术特性,软件定义网络技术(openstack neutron、sdn)或虚拟计算技术(kvm、cloudstack、container),对iaas 平台构架有深层次的了解。
7、精通mysql数据库管理、监控和备份,主从搭建配置等,熟悉nosql数据库。
8、具有较强的troubleshooting能力、且能够推动业务问题改善和解决。
9、具备良好的团队协作精神,较强的学习能力和沟通能力。
2、负责分布式系统的部署、发布、监控、数据备份、维护和优化
3、负责集团(香港、上海)网络、防火墙、路由器的设置维护工作,加强公司信息安全管理。
4、主动发现生产环境的问题及隐患,针对突发事件能够运用监控、日志、apm等工具进行问题定位与分析,应用自动化运维工具来降低手工操作的维护成本。
5、配合制定并落实相关运维制度及安全防范制度
任职要求:
1、全日制本科以上学历,计算机网络相关专业
2、精通linux和windows操作系统的维护,擅长脚本开发
3、有阿里云/aws等云产品使用经验
4、具备网络故障排错能力,保障网络安全
6、熟悉服务器虚拟化容器技术
8、对中间件故障能快速定位、排查分析
hadoop运维招聘 hadoop平台部署与运维(五篇)
文件夹