首页>会议文档 >

陈运维自动化-陈尔冬-第三种运维

page:
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维
陈运维自动化-陈尔冬-第三种运维

陈运维自动化-陈尔冬-第三种运维

所属会议:GOPS 2016全球运维大会 • 北京站会议地点:北京


下载

手机看
活动家APP客户端

扫二维码下载
或点击下载
Android iOS

7394次
浏览次数
GOPS 2016全球运维大会 • 北京站所有文档 韩晓光 - 传统运维VS互联网运维:从哪里来到哪里去? 高级架构师-刘源-大规模分布式存储的开发与实践 云集智造(灵犀) 熊亚军-混合 IT 时代需要什么样的监控系统 中交兴路车联网 许颖维- 中小企业如何优雅地管理多机房服务器账号 七牛云 陈爱珍-七牛百亿级请求量数据处理系统架构演进 腾讯 方锦亮-腾讯大规模集群跨城迁移之术 eBay 方伟-建立基于Kafka的企业级数据传输平台 平安证券 刘宏霞-券商大数据质量保障之道 运维自动化-张乐-持续交付:高效率和高质量可以兼得 蓝鲸 党受辉 - 【从零打造百人级别的DevOps团队】等 光载无限 欧曜伟-分布式监控系统的容器化变迁与 CICD 实践 Google, SRE孙宇聪-Google 运维技术平台与设计思想浅析 Qunar DevOPS叶璐-去哪儿私有云建设和自动化管理 云杉网络 张天鹏-云网络数据分析及应用 迅达云成科技 陈震-云计算资源的全球部署经验 携程 胡俊雅-SaltStack在携程万台服务器上的运维实践 腾讯 洪楷-腾讯游戏运维服务体系 优维科技 王津银 - DevOps运维体系框架与其精益实践 —以运维为始,以运营为终,以交付为桥 乐视 邓良驹-乐视电商云高可用架构与实现 去哪儿网 吕晓旭-去哪儿实时流系统实践 广州尚航 尹璐-高可用性自适应安全网络 京东 赵明-手机京东统一与开放的监控体系构建 ThoughtWorks 金明-建设持续交付容器云平台 IBM马达-PaaS平台中的资源管理及调度 DOM-Toda-A Heart of EXIN DevOps Master 沙盘教练梁定安-凤凰项目沙盘精要 EXIN 国际信息科学考试学会 孙振鹏 - DevOpsDays 即将首次落户中国 优维科技CEO 王津银王津银-持续交付及互联网实践 阿里巴巴 范伦挺-阿里大数据计算平台运维实践 优云 刘东海-运维演进正确之道 - ITIL+DevOps双态运维 微信支付 莫晓东-微信支付数据库管理和优化实践 盛大游戏 胥峰-盛大游戏万台服务器自动化运维实战 微信支付 周汤-微信支付数据库管理和优化实践 金融保险-任明-传统企业运维演进及开源实践 金融保险-张晓诚-平安证券的自动化运维演进 中信银行 周海鹏-“十问”:银行私有云建设若干问题 博云 李亚琼-场景化运维——平台、引擎与自动化 点乐 赵舜东-中小企业 DevOps 实践之路 360 陈思雨&李福-从漏洞组合攻击看运维安全之殇 YY直播 韩方-YY直播安全运维从“0”到“1”的实践 奇虎360 王珂&任言-XSS攻击与企业级的解决方案 金山孙召增-企业内网APM实战 凤凰网 王建新-大型互联网公司与创业公司的 IT 对比分析 首都在线周东波-运维背后的逻辑 HIM陈贻泰-大中型互联网企业 IT 基础架构概览 高效运维 发起人萧田国-DevOps 2.0:重塑运维价值 主会场-Toda-DevOps & TPS - For success your Business 蓝鲸 党受辉 - 遇见蓝鲸,也许是个机会- Google SRE孙宇聪-SRE:Google 运维解密 中国移动王晓征-浙江移动云运维实践 KSC视频云 魏代政-视频直播运维难点与解决方案 DevOps Master 白皮书,企业 DevOps 的成功之路

文档介绍

陈尔冬,曾于新浪任职技术总监,负责私有云平台研发与运维并支撑新浪微博从零至上市高速发展的过程。后于华为任职技术专家,致力于提升华为公有云运维能力。今年初受鸟哥邀请加入链家网,负责基础设施研发与运维工作。曾译《奔跑吧,Ansible》一书。最近几年一直致力于研究如何根据公司不同情况,打造出最适合的运维体系。

演讲实录

1、前言



作者先前就职于新浪,是新浪私有云的负责人。从微博初始,一直到微博上市参与了项目全过程,历次的比较大的技术改造都有参与。


作者受鸟哥邀请,加入链家做 SRE,链家是个比较特别的模式。


到链家之后发现链家既用公有云亚马逊 AWS,同时也有自己的数据中心、服务器、基础设施,可能未来链家会考虑把它逐渐做成混合云。


从私有云到公有云到混合云经历过来,作者的经验恰恰都可以覆盖,本文的思路希望给读者带来一些新的想法。


2、链家网的第三种运维


为什么叫第三种运维?链家这两年提出了一个概念:第三种中介。


其实链家很早以前就一直在探索我们怎么样利用技术来加速业务。最早是传统 IT 公司思路,现在是利用互联网,如何把互联网和房产中介相结合。


很早以前链家的老板找到 IBM 做咨询,探索到底要不要做互联网,要推翻线下的中介经纪人制度吗?


IBM 的专家们也给链家做了非常深度的咨询,最后负责做战略的这位 IBM 的专家就加入到了链家,也是我们链家网现在的 CEO。


链家在传统线下中介和完全互联网化的房产中介之间找到一个灰度,既不是传统的中介也不是完全互联网化去经纪人的互联网中介,而是一种线下的经纪人和线上的互联网产品相结合的新型中介,所以链家叫它第三种中介。


我思考自己的职业生涯,做了这么多年的运维,一直以来想要追求运维的模式和链家探寻的结果很像。我们现在会看到很多朋友们探索的理念,不管是某种运维还是 DevOps 还是 SRE。


其实我们都在谋求寻找最终的目标,到底是一个什么样的运维状态?它和我们的传统运维在某种程度上可能是相对立的。


因为我们不希望利用人工,或利用自己的责任心和劳动时间,去解决这样的问题,所以我们将这两种运维的模式暂且放在对立的两端。


我们在真实世界中存在的运维的模式实际上是第三种运维模式,是在这种完美理想化的运维模式和传统的运维模式之间的一种运维模式。现实世界既是美好的又是真实的又是残酷的,不可能完全按照你的理想复制。




我可以拿出一些我们的项目细节给大家举例,但是有的项目是不开源的,我们和大家面临的问题也很难完全一样,只能在这吹一吹,也许对大家参考价值有限。


其实我更希望去介绍我们遇到某个问题的时候,是通过什么样的思路去选择什么样的方案。根据我们的环境选择什么样的方案,也许我们选择的方案或者我们选择的技术点和大家所在的环境不一定适合。


但是我们所思考的方式,觉得应该讲一讲,大家可能会有一些收获。因为我们都是做计算机的,我们都会本能的觉得这个世界上可能就是 0 和 1,但是做了一时间工作以后,工作的种类是开发也好,运维也罢,你会发现这个世界不只是 0 和 1。


我们经常会讲上线要灰度,实际上我发现所有的事情都要灰度。我在华为的时候也有这样的经历,华为的老板有一个很著名的讲话,我们要灰度一切,要把一些的工作乃至管理都做到灰度化。


灰度一切的意思是说做事不能一刀切,要么这么干,要么那么干。在过程之中会有一个甚至多个中间状态,甚至最终落地也落在中间状态。这个工作的思路,恰恰和我对运维工作的一个理念相符。


3、聊聊新技术




首先我们聊聊虚拟化和容器,不管是虚拟化还是容器都是很专业的一个领域,可以聊得很深入。说到虚拟化和容器,大家可能会本能的想到两个很有名的开源项目,一个是 OpenStack,一个是 Docker。


3.1 面对新技术的误区


在做这些工作的时候我会听到很多声音,比如,我以前在新浪经常会出来吹牛,说新浪几乎在国内最早做云计算的公司。有些人就会觉得很夸张,会觉得 04 年就敢说在做云计算,八成就是在公司搭一堆虚拟机,连管理平台都没有。


另外一个例子,有的朋友听说链家想做混合云,问我:“你的方案是什么?是基于容器做还是基于 OpenStack?”


我还遇到这样的朋友,在他们心里,私有云如果不用 OpenStack,就是基于 VM 去自己建设,类似很多这样的例子。


不过要说让我感触最深的,还是前阵子听到有个朋友说“现在做运维,除了用 Docker 就没啥新技术了。”


这些声音代表了一类朋友,他们觉得容器就是混合云的唯一方案,觉得 OpenStack 或者虚拟化技术就是云计算的唯一方案,这些技术与产品之间是划等号的。如果要做云计算,就一定要用容器、或者虚拟化技术。


我认为这样的观点有失偏颇,所以想以容器这个技术为切入点,讲述我对新技术的理解过程。


3.2 我对容器的理解




这是一张今年秋天日本京都的一张照片。具体地点是日本京都著名地标清水寺。清水寺秋天的时候会有很多红叶,特别美。大家看清水寺舞台下面的红叶,密密麻麻的很美。但是仔细看,一大片红叶还是挺乱的。




但是我们想象拿一片红叶在手上,红叶上会有脉络。就像上图,它是很有序的,而且你拿到每一个红叶一定是有很相近的脉络。


我们可以这样理解,一片红叶就是乱中有序。但这跟容器有什么关系呢?别着急,我们按照这样的一个思考方式研究容器。




Container 本来的意思是集装箱,集装箱和刚才我讲的红叶有可以类比的。集装箱其实与红叶是相反的,序中有乱。我们看到这个码头全都是集装箱,是不是特别有规律?可能颜色不一样,但是大小都是一样的。


我们如果需要城市运输、轮船跨国运输,以及在码头将货物搬上或搬下货轮,只要匹配这个尺寸,就可以完成工作。至于它里面运的什么东西,实际搬运的真实货物都不用去考虑了。不管食品还是电器,只要把集装箱运过来了,这个东西就过来了,我理解容器就像这样,序中有乱。


3.3 容器的应用场景


什么时候你需要序中有乱?


我举一个例子,如果我所在的公司很大。然后有上百个团队去做开发,每一个团队开发的技术架构都不一样,使用的语言也不一样:有的是 JAVA,有的是 PHP,有的是 Python,有的是 C/C++。即便同样是 JAVA 语言,有的是 HTTP 协议的,有的是私有协议。


那么如果我的团队来运维这所有的系统,这个架构相当乱。需要为所有的这些系统做运维,怎么做?


开发团队很大,加起来有上万人,我就算有几百人,肯定也做不过来。这时候就适合使用容器技术,实现序中有乱。乱在你集装箱内,对我的团队来讲,这里就是上万个集装箱,每一个集装箱的尺寸是完全一样的,我做一个基础设施可以去把集装箱从这里搬到那里,就搞定了。


集装箱内的东西每个研发团队自己去搞定,这是一种工作模式。我认为容器在这个领域是非常适合的,也就是没有办法让架构从头到脚有序的时候。


但是,我们工作的场景是什么样的呢?有的公司里面是不乱的。比如我原来在新浪的时候有一段阶段新浪所有项目都是 PHP,而且都用 Apache 做 Web 服务器。我们又设立了一些规范让研发团队去遵守,整体架构完全统一的。这时候我们还要必要容器吗?


我个人觉得这是需要考虑的,为什么呢?因为如果你要引入容器,终究会增加成本。等价交换是这个世界的铁则。你用了新的技术容器,它帮你解决了序中有乱的问题,你就要管理它。


3.4 容器Tomcat


我们如果采用新技术,但只有五个人,首先我有疑问:这能搞得定吗?是否可以不用容器,为什么一定要用呢?。再则,我们的架构里其实已经有容器了。Tomcat 就是个容器,从系统层看到的都是 Tomcat,但里面是不同的 JAVA 的程序,其实也是个乱之有序的架构。


这时候有朋友会提出问题,说 Docker 是可以实现资源隔离的。Tomcat 没有这个功能,可能会资源互相影响。其实 Docker 实现资源隔离是利用了 CGroup。为什么 Docker 用了 CGroup,我们不能用呢?最后看看一个没有 Docker 的弹性计算方案。




下面那三个我们可以认为跑在同一台服务器上.同一台服务器跑了多个应用实例,我们可以理解为每个 Tomcat 监听不一样的端口,我在七层负载均衡上把端口映射到不一样的端口上。


这个时候一个服务器上就有多个容器了,只不过容器是 Tomcat,不是 Docker。我们再对这多个 Tomcat 利用 CGroup 做资源隔离甚至资源统计。如果你有一套强大的管理系统,可以把这七层映射关系以及这些 Tomcat 配置文件配置起来的话,那么这套弹性计算云就完成了。


我个人理解,这套基础设施比 Docker 对于我的团队来讲更容易管理。因为我的团队这些工程师,他以前是做传统运维的,对 Tomcat 很熟,对于 Ansible、Puppet、SaltStack 这些配管工具很熟。


他们管理物理服务器非常熟悉,但让他们今天开始管容器,他需要一些时间。再加上容器项目本身成熟度问题,我认为对我团队这就是目前为止最好的方案。


4、最合适的才是最佳方案


未来 Tomcat 会不会变成容器呢?不好说。也许以后 Docker 成熟了,某些方面比我这个方案更好。现在这个时间点,我认为对于我的团队来讲它是一个更好的方案。


话又回到开篇所提及。对于您的团队是不是一定是这个方案是最好的方案呢?也许吧。


但我可以把我思考的思路以及我的理念写出来去做一个分享。在您的场景可以按我们的方式重新去思考一下,也许对您的团队来讲用 Docker 是更好的方式,也许您会探索出新的方案也未可知。


4.1 破解“被堵塞难题”


今天,大家都爱讲微服务。不管这个服务微不微,服务化已经是标配了。服务化后,整个架构中有数十个或上百个服务,每个服务做一件事,服务和服务之间的通信通过 RPC 实现。


4.2 探寻RPC堵塞的原因


服务之间 RPC 是很常见的事。如果一切都正常,那么一切都好,但如果某一个可能会被调用的资源变得慢的话,这个问题就来了。




如果有一个资源被调用慢,会产生两种结果:


第一种可能的结果,因为后面资源调度慢。像图里面的,右面是我的资源,它反应很慢,你来一个请求,我可能要5秒响应,前面的调用方会被堵死。


还有一种可能,前面队列发现设了一个超时时间,你 5 秒响应,我1秒就不调了,甚至 500 毫秒就不调了,然后我就会认为你这出错了。


对于超时这类的结果,一般调用方会重试,因为我调用没成功,逻辑跑不下去了。本来执行处理就慢,已经存在问题的情况了,但调用方又重试,500 毫秒就重试一次,就把这个服务给压死了。


友谊的小船说翻就翻,不光是服务会出现这样的故障,不同服务的团队也容易打翻友谊的小船互相指责。这边说我是被你拖死的,那边说你是把我压死的,你的超时时间设计不合理。




遇到这种情况怎么解决这个问题呢?回到刚才在容器技术用到的思考方式,要想去解决,我们先分析到底这个问题点在哪。




我觉得这里面有两个问题:


第一个问题,如果你的超时时间设计得很短,首先这个延迟增大总是可能出现的,不可能认为自己的服务或者网络永远那么正常,异常可能会突然出现。这个我们先放在我的假定范围之内,一定会有可能出现异常。


另一个问题,出现异常的时候,如果你的超时时间设计的特别长,调用方就会被堵死。如果你的超时时间设计得特别短,后面就会把服务方压死。那怎么办?


4.3 解决问题的思路

在这个点我们团队从系统层面角度给了一个方案,我们现在的方式是这样:当我慢了之后,M 个服务器,N 个进程,你就是 M+N 全部调到服务方了。我有 M 台机器,有 N 个进程,最后还是M个服务器去调这个服务,我肯定还是有调用,可以让它去尝试,如果慢就不要再调了。




我们给的方案是这样,针对问题一,如果说我调用超时时间设得比较慢,在系统层检测到后端的延迟,在慢的时候快速失败,防止堵塞。


针对问题二,超时时间设得比较短,后面会被压死,实际上是给了后面资源一个负向的正反馈。我们把这个反馈隔离,不要让这个调用到后面去,后面是不是就不会压死了。


那么解决方案就出来了:我们把这个系统叫做 RASH。我们把 Rash 运行在每一个应用服务器上。


4.4 RASH分析




首先我们先写了一个动态链接库,把这个动态连接库配到了 LD_PRELOAD。这么做的目的是为了劫持所有调用。所有的网络调用会被劫持到 Socks4 代理上。


Socks4 使用协程模型,每个协程处理一个连接。它会监测后面资源端给我们响应的第一个应用包,第一个应用协议的响应包的延时是多大,如果很慢,我们就快速的反馈失败,如果很快就让它正常运作。


很快或者很慢,现在说起来很简单,到底怎么做呢?这里有个算法来处理这个问题。


我们先做一些假设,设最大超时时间是 M,初始连接时间是 0,以后一旦有过连接就有统计了,这个连接用时设为Tt,本次连接的用时就是 Tc,现在队列中已经有进程数为 N。有了 M,N,Tt,Tc,当来了一个新的连接,入不入队列呢?


需要判断 Tt*N 是否小于等于 M。如果小于等于 M,那么就入队列,如果大于,直接结束,返回一个错误。如果连接完成了,比如入队列了,有一个连接完成了,我们会对这个连接记一个应用返回的响应时间 Tc,将 (Tt+Tc)/2 作为新的 Tt 值。


这样就给他上一次连接做了一次反馈,如果上一个连接很快,它的历史连接时间就会越来越短,如果上一个连接很慢,它的历史连接时间就会越来越长。


算法讲起来比较抽象,给大家用实例解释一下。首先设置连接总队列的时长,比如说 1 秒。随后处理了一个连接,如果这个连接首包是 500 毫秒,这个队列里面我就可以让他进两个连接。


如果下一个连接完成了,用的是 100 毫秒,下次我就可以让他进三个。如果变长了,变成 1 秒甚至超过 1 秒了,那么未来只会让队列保持一个连接,一个以上的连接通通反馈失败。


这样的一个基础设施就实现了刚才讲的功能,如果被调用方出现延迟,就给超出延迟的连接快速的反馈失败。如果他还重试,我们就把这个重试的反馈中断,不让它调用到被调用方。


5、另类的命名服务5.1 命名服务初探


命名服务不是一个新的概念,现在各位的公司大概都有自己的命名服务。实际上在有互联网的时候就有命名服务。命名服务就有点像我小时候的黄页。


小时候去我父母的公司玩,那时候电话数量很少,可能也就每一个国企有一部电话,每一个机关单位有一个电话。这时候每个单位都会在电话旁放一本黄页,这个黄页里能查到所有的机关单位的电话。基本上查一下,交通局是什么电话,就可以打电话打过去,我觉得很像我们的命名服务。


说到命名服务有很多方案,肯定有一种方案大家耳熟能详,那就是 etcd。我们也用,但不仅仅用 etcd,还用了 kubernetes 项目中用到的 SkyDNS。


我加入到这些团队的时候,不管是新浪、华为还是链家,我来的时候基础设施已经在用了。可能在已经有基础设施里面有很多环节没有命名服务,大家是直接 IP 端口连的。


这时候我给他们建议,我建议大家用命名服务,开发工程师说你建议很好,我们会考虑,但是我现在开发的周期很紧张,我的工期很短,我的工作压力很大,能不能你帮我做。


这个时候我就愁了,因为我是系统团队,不能改应用代码嘛。如果用 etcd 做命名服务的话,需要应用程序主动去联命名服务获取后端拓扑,再去连真正的服务器,这可能要涉及代码改动。所以我想这么个辙,DNS 协议的命名服务。


5.2 基于DNS的命名服务


我在新浪也做过,但是这个基础设施跟在新浪的时候已经不一样了。DNS 命名服务有什么优势呢?


如果你的代码不想改,比如你连一个ip地址,你只需要把 IP 地址改成域名就可以了,域名就是我们互联网最早也是最基础的命名服务。




域名作为命名服务的接口有一个问题,我们知道域名是有缓存的,缓存时间称作 TTL。比如我设 30 秒,是为了不让权威域名服务器过载,不能每一个域名都调用权威域名服务器,那权威域名服务器还不被压垮了?


所以大家都缓存一下吧,30秒内我不会变,直接用上次查询结果。如果我这里有一个后端的资源故障了,我要把这个故障移除,我刚才设了 30 秒 TTL,30秒内不会更新这个域名,30秒都可能继续连到有故障的后端,这怎么办?所以我们又引入了一个新的基础设施,叫做 DNSMasq。


首先呢,这个域名的缓存在 Linux 操作系统层是不缓存的。我们要用 DNSMasq 去缓存缓解 DNS 服务器压力,同时也降低了 DNS 解析延迟。


第二,我们给 DNSMasq 做了一个简单的修改,我们可以远程去通知 DNSMasq 说某个结果变了,不是你上次查的结果了,你的缓存没用了。


这个时候我们这个域名就可以在 TTL 之内也完成这个变更。我们看最后这个架构,我们在一台服务器上面安装了一个 DNSMasq,如果应用程序需要通过域名连接 MySQL,它会先查 DNSMasq 有没有。有,给一个 IP 端口,如果没有,DNSMasq 会查 SkyDNS。


如果这个时候有域名变更也能够取到,但是 DNSMasq 有缓存怎么办?我们看到后面我们有个 API 层,项目代码叫马其顿,我们每一个基础设施都是 API 化的。


当你做 MySQL 监控的时候,发现我一个从库延迟太高,我要摘掉它。怎么摘呢?


调用马其顿 API。马其顿做两件事,第一是更新 etcd,第二就是刚才我说的调我的 DNSMasq 的 API,这个时候如果业务再要连后面 MySQL 就会连 DNSMasq。DNSMaqs 这个缓存已经被清除了,于是就会连 SkyDNS,就会给一个新的记录,因为 etcd 里面记录已经被更新了。


最后还有个问题,后端服务拓扑不光有 IP 地址,还有可能是有端口号。这时候标准域名协议就搞不定了。这时候我们有两个方法。


第一个方法,我们知道 SkyDNS 是支持 SRV 记录的,如果是 SRV 记录的话,它可以同时返回端口。但这个不是一个现行的 RFC 规范,所以这个时候是不能无缝迁移的,这个工作我们目前也没有做。


另外一个方法,采用绕过的做法。我们在自己域名里面第一级约定是端口号,比如说数据库域名定义为 3306.MySQL.lianjia.com。而应用在连的时候会默认把第一级域名中数字当作端口号去使用。当然这个时候你又需要应用去做一些工作。


在链家应用团队觉得可接受,我们也乐得清闲,不用再改了。如果应用团队不接受怎么办?就要去修改 Glibc 了。


6、配管工具与自动化运维




最后部分是关于配置管理与自动化运维。我翻译过了《奔跑吧 Ansible》这本书,所以我肯定是偏爱 Ansible。


现在在市面上我们能看到的主流的配管工具有这么多,左下角是一个灯泡,这个灯泡在淘宝上叫爱迪生灯泡,我用它替代自研系统。


Puppet、Ansible、SaltStack 等配管工具各个有各自的特点,Ansible 是推模式,无 Agent,其他的是有 Agent 的。抽象层有薄有厚,在《奔跑吧 Ansible》一书中,作者的观点是他喜欢 Ansible 的一点就是抽象层很薄,这点我也非常同意。




举个例子,如果我这个团队有上千台服务器,都是 Linux,但是有多个发行版。Puppet 会倾向自己去适配不同发行版,形成抽象层。


Ansible 倾向于暴露这些差异,需要使用者去管理。或者使用者把发行版统一,或者使用者自己做一层抽象层来兼容不同发行版。


我认为 Ansible 的做法比较适合运维领域,但我觉得这几个工具都蛮好的。我还是建议大家分析它的特点,如果你觉得这个东西用得顺手,适合你的团队你就用,Ansible 会有瓶颈,没 Agent,又是 Python,内存占用比较高。


另外 Ansible 所有的配置是静态配置,如果我有些服务器变更,我希望它动态变更怎么办?




在我们团队初期,服务器规模还不大,直接使用 Ansible 落地很快。一方面不需要装 Agent,所有服务器肯定都会启动 SSH,Ansible 马上可以落地。而且团队历史遗留一些脚本,用 Ansible 也很容易复用。


当你用 Ansible 遇到瓶颈的时候,团队已经已经成长了,你就可以把它一定程度的改掉或者整个替换掉。


7、总结


总结一下,就像我最开始时说的,我认为这个真实世界不是 0 与 1 两面对立的,在 0 和 1 中间有无穷的灰度。到底这个灰度对于我们的公司或者对于您的公司在哪,需要结合团队情况自己分析,自己去找。


对于新技术,尤其是现在技术炒作问题这么严重,千万不要迷信。某个技术,解决什么问题?优势是什么?成本又是什么?对于我们团队、环境适不适合?这些都是在使用前需要考虑好的问题。


一个系统不管怎么样,在我们的应用中,在我们的生产环境中真正运行里面才能发挥价值。


系统再好,不管是因为什么原因,只要在我们环境中运行不起来,那对我们公司没有价值。最后就是不要忽略工程上和这些可以规范化、流程化上可以解决的问题。


×

打开微信扫一扫,分享到朋友圈