首页>会议文档 >

清华大学 裴丹-落地生根:智能运维技术路线图

page:
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图
清华大学 裴丹-落地生根:智能运维技术路线图

清华大学 裴丹-落地生根:智能运维技术路线图

所属会议:GOPS 2017全球运维大会上海站会议地点:上海


下载

手机看
活动家APP客户端

扫二维码下载
或点击下载
Android iOS

2514次
浏览次数
GOPS 2017全球运维大会上海站所有文档 姜鑫韡-从大象到猎豹 - 自动化运维和性能优化实践 平安证券 袁友高-面向千万级互联网证券用户的事件运维之路 质量工程师 张新-中国银行 DevOps 历程、效果及展望 林栗-Deploy anywhere:Orchestrating of the DevOps toolchain with Jenkins Pipeline 叶璐-去哪儿网机器学习云实践 UCloud 陈文志-UCloud 基础运维自动化平台实践 顺丰科技 陈天宇 -全栈资源下的自动化运维灵魂 资深技术支持工程师 胡俊雅-基于 StackStorm 的携程运维自动化平台 阿里巴巴 刘湘疆-阿里测试环境运维及研发效率提升之道 腾讯 谭用-痛点驱动的 DevOps 实践 携程 张乐-小小配置中心释放大能量 DevOps学院 赵班长-DevOps道法术器及全开源端到端部署流水线 博云 于春晓-云场景下自动化运维演变 国信证券 张浩水-证券行业DevOps第一步:IT资源自动化管理 许颖维&廖君仪-运维助力敏捷交付-我们的运维看板 IT 风控高级经理 赵锐-业务安全 - DevSecOps的催化剂 连尚网络 龚沛华-Android App 的安全保护实践之路 平安科技 董晓琼-企业内部风险管控的破冰与探索 阿卡迈公司 周德振-如何达成稳定安全和极速的海外用户体验 小红书QA 任志超-从0到1:2天搭建互联网电商全链路压测平台 DBA负责人 虢国飞-饿了么异地双活数据库实战 WiFi万能钥匙高级架构师 李春旭-百亿访问量的监控平台如何炼成 王培安-如何通过持续交付驱动技术能力升级_部分1 王培安-如何通过持续交付驱动技术能力升级_部分2 高级运维经理 陈金窗-云网融合,智慧运维 京东网络 王大泳-京东大规模数据中心网络运维监控之眼 杜颖君-巡航太平洋,运维平台实施的苦与乐 桂林-举重若轻 - 半天上线 - 中国人寿数据中心自主研发分布式通用流程平台 孔罗星-万亿交易量级下的秒级监控 中国信息通信研究院主任工程师 栗蔚-解读 DevOps 标准 中国信息通信研究院 栗蔚-云计算运维平台参考框架标准 IBM 黄卫-混合云认知IT服务管理 恒丰银行 柳东-金融云中的x86裸机服务实践 KK-Jenkins and Continuous Delivery Revolution_部分1 KK-Jenkins and Continuous Delivery Revolution_部分2 东方龙马-基于大数据的实时业务监控和预警系统_部分1 东方龙马-基于大数据的实时业务监控和预警系统_部分2 东方龙马-基于大数据的实时业务监控和预警系统_部分3 华为运维部 黄启辉-数据驱动运维—华为消费者云服务的智能运维实践 中国信息通信研究院师栗蔚-发布 DevOps 标准运维标准 腾讯微信 陈晓鹏-微信海量数据监控的设计与实践 中国信息通信研究院 何宝宏-大会致辞:我对 AI 的一些冷思考 91App 李智桦-由蝴蝶效应谈运维的系统思维 尚航科技 肖玉军-命脉保卫战--核心数据-业务的IDC重保思路 腾讯 赵建春-AI浪潮下的高效运维思考与实践 先智数据-AI运维实例分享——如何精准预测磁盘故障 devops 梁晓聪-B站统一监控系统的设计、演进与实战 擎创科技 擎创-智能运维场景探索与工程实践 运维专家孙杰-从说到做—大型企业智能运维的360度解析

文档介绍

结合我在AT&T的工作经验,以及百度、阿里、腾讯、滴滴、搜狗的合作经验,我总结智能运维科研还没有做到普世化,有条件智能运维科研的人很少。这是因为:工业界有数据、有应用,但是欠缺定义科研问题的经验和算法经验; 学术界不了解智能运维的应用场景,也很难获得训练算法必需的数据;工业界与学术界的一对一交流效率低、见效慢。在这次分享中, 我将提出普世化智能运维科研的一个思路。 首先,我将系统地把运维生产环境中的应用难题分解成若干切实可行的科研问题,并公布在我们实验室即将启动的一个智能运维算法大赛网站。

演讲实录

要点总结

从战术的角度,要把复杂的运维挑战分解定义成AI善于解决的问题,各个突破;

从战略的角度,要汇聚社区力量,在开放的平台上联合运维界和算法界的力量共同攻克难题。

大家上午好,非常荣幸,能有这个机会,跟这么多的运维人一起交流智能运维。最近这两年运维里面有一个很火的一个词叫做AIOps(智能运维),并且有一小部分人一往无前的投入到AIOps中去了, 但是更多的人都还在持观望态度,因为大家内心中还存在一个无法回避的问题:AIOps到底在自己的场景下怎么落地?所以今天我要跟大家分享我认为的AIOps落地应该遵循的路线图。既有技术路线图,也有战略路线图。这虽然不是唯一的一个路线图,但这是我今后十年会不断努力、专注和迭代的一个方向,希望为那些对AIOps感兴趣的朋友们提供一些借鉴意义。

运维现状与痛点

运维的重要性

运维在人类未来的生产生活中的作用会越来越重要。预计到2020年全球将有500亿到1000亿的设备,这些设备会承载无数的服务,涵盖互联网、金融、物联网、智能制造、电信、电力网络、政府等等的生产生活的方方面面。这些硬件和软件都是人造出来的,都是不完美的。

运维要做的是保障业务能够可靠高速高效安全的运转,因为它会直接影响到业务的收益和成本。

运维的现状与痛点

目前已有运维方法的主要难点是突发故障的发现、止损、修复和规避,也是我们要解决的关键问题。这些难点导致我们运维人有很多痛点。




我相信在座的各位都看到过这幅图,我们运维人是全年365天7×24小时的救火,我们压力山大。在过去的三个月里,我走访了大概几十家跟运维相关的单位,我经常听到的描述是我们的压力很大、我们在不停的背锅、我们的日子是如履薄冰、幸福指数低、不知道下一秒会发生什么、睡不了安稳觉,还有人略带夸张的说我们做运维就是把脑袋别在裤腰带上。但是从这些描述我们能体会到我们运维人目前的工具还不足,因此如果人工智能能帮助我们的话,运维的生产力将得到极大的提高。

最早先运维处于手工阶段时,可能每天需要“祈祷”不要发生故障。在实现自动化运维后,我们实现了不少自动化脚本,把很多已知任务像流水线一样串起来,就像特斯拉电动机车流水线一样。但是,很多故障都是突发的。在故障突发时,我们会把所有相关的人纠集到一个作战室,然后大家在一起拼命的想搞清楚问题的原因。我们的目标是两分钟就能搞定,实际上有可能需要一个半小时。在解决问题的过程中,每一分每一秒都在给业务带来持续损失。

系统、软件、架构的演进给运维带来的挑战

在处理突发故障时,我们主要关心三个问题(也是领导最关心的问题):发生了什么,怎么解决,多长时间能解决。由人力来回答这些问题效率低、不准确、不及时。因为我们要对付的这个系统实在是太复杂了。AIOps提高运维生产力的一种方式就是把处理突发故障时的人力分析尽可能的都替换成机器来做。

我们现在来看看复杂度的来源。下图展示的是对一个互联网公司来说最不可控的部分——越来越复杂接入网络。这是当时AT&T的一个网络拓扑图,左上角的iPhone连接到互联网的话,经历的这个网络设备的种类有十几种,数量几十个。

数据中心的系统也在不断的演进,其规模复杂度、变更频率非常大,技术更新也非常的快。网络中心的拓扑越来越庞大,像上图所示,微软Azure数据中心大概半年就会更新一次拓扑结构,然后底层会逐渐融入SDN、NFV这样的技术。

与此同时,软件的规模、调用关系、变更频率也在逐渐增大。上图是前两天腾讯视频的朋友提供的软件模块之间的调用,非常复杂。同时,由于持续集成、敏捷开发、DevOps,每一个模块随时都可能发生变化,随时都可能给我们带来故障,也就是说整个云计算也在不断地发生变化。容器、持续交付、软件架构、工程方法也在不断的演进,会不断的给我运维工作带来挑战。

与此同时,软件的规模、调用关系、变更频率也在逐渐增大。上图是前两天腾讯视频的朋友提供的软件模块之间的调用,非常复杂。同时,由于持续集成、敏捷开发、DevOps,每一个模块随时都可能发生变化,随时都可能给我们带来故障,也就是说整个云计算也在不断地发生变化。容器、持续交付、软件架构、工程方法也在不断的演进,会不断的给我运维工作带来挑战。

而处理海量、高速、多样的数据并产生高价值,正是机器学习的专长。也就是说,采用机器学习技术是运维的一个必然的走向。

我们希望在将来会有一个自动决策的CPU,大大的提升我们运维的效率,要真正能做到不光是双11的时候我们能够喝茶来保证的运维,而是在日常365天7×24小时都能够喝着茶,把运维工作做好。那么将来的愿景是什么样子呢?现有监控提供数据采集,AIOps的引擎做出决策建议,少数运维专家最终决策,执行自动化脚本进行故障止损、修复、规避等操作。

具体而言,

1、AIOps引擎 中的“异常检测”模块在检测到异常之后可以将报警第一时间报给运维人员,达到“故障发现”的效果;

2、“异常定位”模块达到“故障止损”的效果,它会给出一些止损的建议,运维专家看到这个定位之后也许他不知道根因,但是他知道怎么去根据已有的预案来进行止损,然后再执行自动化的脚本。如果是软件上线导致的问题我们回卷,如果业务不允许回卷就赶紧发布更新版本;如果是容量不够了,那我们动态扩容;如果部分软硬件出问题了,我们切换一下流量等等。

3、AIOps引擎中的“根因分析”模块会找出故障的根因,从而对其进行修复。如果根因是硬件出了问题,像慢性病一样的问题,那我们可以让我们的运维人员去修复。

4、同时,AIOps 引擎中的“异常预测模块”能够提前预测性能瓶颈、容量不足、故障等,从而实现“故障规避”。比如,如果我们预测出来了设备故障的话,那么可以更新设备;如果说我们发现性能上的瓶颈是代码导致的,那就交给研发人员去修改。

核心的AIOps的引擎会积累一个知识库,从里边不断的学习。也就是说监控数据会给AIOps提供训练数据的基础,然后专家会反馈一部分专家知识,上图是我展望的AIOps大概的体系结构,这里面关键的一点是,我们还是离不开运维专家的。最终的止损、规避的决策、软件的代码修复以及设备的更换还是要靠人来做的,但是机器把绝大部分工作都做了,包括异常检测、异常定位、根因分析、异常预测。

AIOps前景听起来很美好,那为什么还是有不少人持观望态度呢?

这是因为人们在实践AIOps的时候,往往容易踩到一个陷阱里面,也就是说想用直接应用标准的机器学习算法,通过黑盒的方法直接解决我们运维问题,这种做法通常是行不通的。

AIOps前景听起来很美好,那为什么还是有不少人持观望态度呢?

这是因为人们在实践AIOps的时候,往往容易踩到一个陷阱里面,也就是说想用直接应用标准的机器学习算法,通过黑盒的方法直接解决我们运维问题,这种做法通常是行不通的。

以上是清华大学张钹院士的观点。张钹院士80多岁了,经历了人工智能的起起伏伏。他的演讲中经常提到,AI可以解决不少问题,但是它目前的能力是有一定的范围的。人工智能在解决很多类型问题时不管多么复杂都能做到,甚至超过人类的水平。这些问题的特点是什么呢?有充足的数据和知识,问题定义很清楚,已经明确了输入输出是什么,以及单领域。

我们回过头来看上面我们的“异常检测”问题,我们基本可以体会到要想一步到位解决异常检测的所有挑战,是不现实的,因为这个整体问题已经复杂到AI不擅长解决的程度。

以上是清华大学张钹院士的观点。张钹院士80多岁了,经历了人工智能的起起伏伏。他的演讲中经常提到,AI可以解决不少问题,但是它目前的能力是有一定的范围的。人工智能在解决很多类型问题时不管多么复杂都能做到,甚至超过人类的水平。这些问题的特点是什么呢?有充足的数据和知识,问题定义很清楚,已经明确了输入输出是什么,以及单领域。

我们回过头来看上面我们的“异常检测”问题,我们基本可以体会到要想一步到位解决异常检测的所有挑战,是不现实的,因为这个整体问题已经复杂到AI不擅长解决的程度。

其实我们做异常检测这个事情也是一样的,我们只需要把前面的挑战都逐一的分解开,个个击破。刚才我们那些问题混杂在一起,这东西听起来就搞不定,但是如果我们能够把它们分解开,每一个变成了AI善于解决的问题,让它封闭住让它well-defined,那异常检测就变得可解了。

上图中左上子图所示, 我们先做一个无监督的异常检测,为什么呢?因为刚才说了,标注数据很难大批量获得,那我们先用一个无监督的异常检测作为初筛,一旦有了这个无监督异常检测,那我们再提供一个非常友好的界面,然后在上面我们的运维人员可以零星的把他们碰到的case在上面标注一下,然后我们提供基于算法的工具自动搜索跟它标注出来的异常区间类似的,达到举一反百、甚至举一反千的效果,让它的标注工作能够被充分利用,让它的标注开销非常非常低,如右中子图所示。

之后就可以采用已有的有监督的异常检测,解决算法和参数的普适性问题(左中子图)。同时,如果遇到右下子图的那个KPI曲线的模式的突变的话,我们首先判断新模式是否跟老模式属于同一类型,然后自动通过迁移学习自动调整算法参数。

最后,如左下子图所示,为了对大量的KPI自动地分配检测算法, 我们先把海量的KPI进行分类。即使有几百万条曲线,其类别也不会太多。我们在每一类里面找到典型的算法,然后对同一类里的每根曲线进行微调。

那我们把这个稍微梳理一下

最底下的是机器学习算法,最上面的是我们要做的这样一个自适应的异常检测系统,中间我们有一些技术层就是前面那页具体要解决的问题,下面还有一个智能运维的算法层,所以我通过这个小的实例来说明一下我的idea,就是说我们要把这个技术进行分解,把我们要解决的复杂问题庖丁解牛分解成实际上是AI善于解决的问题。

通过上面这个例子,我们可以看到,一个在实践中看起来非常难的异常检测问题,通过刨丁解牛的方法,可以分解成一系列问题的时候,它每一个都变成用AI方法可解了。

AIOps落地技术路线图

我们面对的不再是运维应用场景与标准机器学习算法之间巨大的鸿沟,而是在中间加入了AIOps基础算法层,和AIOps关键技术层。其中关键技术层解决的是前一幅图中的挑战,而基础算法层为关键技术层和最终的运维场景提供基础的算法支撑。

如上图所示。比如说刚才提到的我们需要对海量KPI进行异常检测的话,就需要对它进行聚类。KPI聚类的问题就是一个单独的问题。如果把这一问题拎出来,你会发现这个问题其实很抽象,输入是若干条曲线,输出是按照曲线形状的分类。这个问题对于做算法的人来说非常可解,非常well-defined,只要给了数据,人工智能肯定能搞定这个KPI聚类算法,并且AI算法专家并不需深入理解运维场景就能研究这个问题。图中的每个问题都是一个AI比较擅长解决的问题,但是他们之间还有一些先后依赖关系。也就是说,我们提供了一个落地AIOps中的“自适应异常检测”的一个技术路线图。

上图是AIOps的整体路线图。包含了异常检测、异常定位、根因分析和异常预测。原来实践AIOps遇到困难的原因是试图通过底层的标准机器学习算法解决最上层的运维应用,这种方法论解决不了实际问题很正常,因为这种方法是吧问题当做一整头牛来处理。后面我们对故障止损、故障修复、故障预测再简单做一下庖丁解牛。

在故障报出来之后,我们希望它能够有一些定位功能。那定位到什么粒度呢?

定位的粒度足以实施运维专家提前准备好的修复预案,从而可以执行自动化的脚本进行回卷、动态扩缩、切流量等等。

1、如右上子图所示,如果是变更导致了业务的异常,那运维人员把这个变更回卷一下就好了,如果业务不允许回卷(如涉及到用户交易)那么就需要快速部署更新过的新版本。把这个问题定义分解出来,那我们的预期是很清楚的——智能运维的算法需要告诉运维人员哪个变更导致了这个业务的巨变。我们之前也和百度在这方面合作过一个案例。

2、再以左上子图的单指标多维度监控为例。例如,运维人员需要监控流量的异常,并需要在数据中心、运营商、用户类型、浏览器等各个维度进行监控。一旦总流量出现了异常,它可能在各个维度都会出现报警。我们需要快速定位到具体哪些维度的组合导致了总流量的异常。比如,如果我们定位到根因是某个数据中心的某个集群的流量出现了异常,那我们就可以把该数据中心的流量切换掉就可以解决问题。

3、同理,在右中子图中,当业务指标发生剧烈波动时,我们找到该业务的哪些模块的哪些指标也同时发生了波动,并根据关联程度进行排序,给出最可能的根因位置,供运维人员进行定位。在左中子图中,一个不完善组粒度的故障树也能起到故障定位的效果。另外,还可以对故障进行最粗粒度的故障定界,确定是网络、服务器、存储、还是用户的问题,快速明确责任单位,便于止损,如右下子图所示。最后,还可以判断故障是否为容量不足导致,以便迅速做出动态扩容决策。

以上都是来源于实际的各种故障止损需求。由于问题定义得相对清晰, 都可以通过AI来解决。
根因分析的前提是报警(要求异常检测部分要报准),下一步就是构建故障树。由于软件模块之间的依赖关系太复杂,因此故障树的构建非常难。对所有的报警信息进行两两关联的计算量过大。一种思路是构建一个故障树的超集,通过模块调用链获得模块之间的逻辑调用关系,通过配置信息获得物理模块之间的物理关联,比如共享机器资源、网络资源等。这两部分一起构成一个可能的故障树,这棵树是真正故障树的一个超集。之后我们对这个超集中的每个边进行联动分析、联动分析,对这棵树进行剪枝,构成最终的故障传播关系。这种方法的覆盖面广,计算开销大大降低,并且是AI擅长解决的问题。当我们拥有了故障传播关系,并它比较全而且准的话,根因分析就变得可行了。当发生故障时,依据准确的报警, 顺着故障传播树就能找到根因,从而进行故障修复。




性能瓶颈预测、容量预测、故障预测等异常预测是故障规避的经典场景,如上图所示。 性能瓶颈被预测出来后,比如发现哪个模块是整个系统性能的瓶颈,就可以对这部分进行代码优化,如果代码优化来不及的话,也可以选择定向扩容。容量预测之后,可以进行动态的扩缩容、资源预算等,比如当业务需要达到每秒三十万笔交易时,也许不用统一的全面的扩容,只需要把瓶颈部分的容量扩展。故障预测可以帮助进行动态的切流量、替换硬件等等。时间关系,不展开详述。

以上就是我认为的AIOps落地的技术路线图,是根据我十几年的运维科研经验的基础上总结归纳出来的。我们清华大学NetMan实验室二十左右个同学对前面提到的每个题目都正在进行研究。

AIOps这么大的一件事还需要汇聚社区的力量。因此我提出的AIOps的战略路线图是,通过社区集合整个工业界的力量(因为他们熟悉运维场景、也有丰富的数据)同时集合算法界的力量(因为他们熟悉算法)。以往工业界和学术界的交流就是工业界和科学家的一对一进行交流合作。可能整个项目的一半时间都花在问题的定义和迭代上面,而且没有公认的benchmark数据和缺乏比较性。

大家看到了我们前面的技术路线图,我们现在已经把问题定义好了,而且受到ImageNet的启发,我们也创建了运维领域的智能挑战赛。而这个智能运维的挑战赛实际上它也是一种社区合作的思路。我称之为工业界和算法界的合作2.0。普林斯顿大学毕业的华裔女科学家李飞飞在不被看好的情况下创建了ImageNet的数据集和人工智能挑战赛,重新定义了研究人工智能的方式,培养了很多人才和专家,推动了如今如火如荼的人工智能浪潮,最终带动了整个人工智能领域的高速发展。

我们的思路也是类似的,在智能运维领域,我们收集了运维的场景和面临的主要挑战,把这些问题分解成前面的技术路线图,放在了一个公共的竞赛网站上面。除了网站以外,我们还有来自工业界的真实数据集。下图是我们的竞赛网站。经过我们的网站建设支持方——腾讯游戏的艰苦奋战,昨天晚上网站终于上线了。右上角是网站的二维码,直接输入这个url也同样可以访问。

在这个网站上既有运维场景,比如异常检测、聚类;又有数据集、比赛和科研问题。针对科研问题,我们会讲它的背景、面临的挑战,给出它的数据的示例、格式以及评估的方法,值得注意的是,统一的评估方法也是很重要,因此我们也提供了评估方法。在这里我也非常希望能和大家一起,汇聚社区力量,进一步探讨智能运维的算法,共同推进AIOps的发展。

最后总结一下:AIOps的大潮已经来了,路线图也已经有了,那我们还犹豫什么呢?让我们一起来通过社区的努力,汇聚社区的力量,共同推进AIOps在中国、在世界范围内落地吧,谢谢大家!

×

打开微信扫一扫,分享到朋友圈