kubernetes主机和容器的监控方案

摘要:随着Docker容器云的广泛应用,大量的业务软件运行在容器中,这使得对docker容器的监控越来越重要。传统的监控系统大多数是针对物理机或者虚拟机设计的,而容器的特点不同与传统的物理机或者虚拟机,如果还是采用传统的监控系统,则会增加监控复杂程度,那么如何对容器进行监控呢?

 

大家晚上好,今天很高兴能在这里和大家一起交流和分享在工作中的一些经验和总结。都知道监控在运维体系乃至产品的整个生命中期都是重要的一个环节,针对不同的应用场景,监控方案也会有很大的不同。本次就和大家分享一下我在开发我们公司新产品ufleet的监控模块时的一些技术总结,如果有错误的地方,欢迎大家指出。主要内容有:

 

1、数据的采集方式

2、监控原理

3、容器的监控方案

4、kubernetes上的主机和容器的监控

5、监控工具的对比

 

一个完整的监控体系包括:采集数据、分析存储数据、展示数据、告警以及自动化处理、监控工具自身的安全机制,接下来会对数据的采集和监控原理深入讲解,其他部分会在一些架构中穿插讲解。

 

数据的采集方式

 

1、命令行方式

比如在linux系统上使用top,vmstat,netstat写一些shell脚本进行数据的采集,再把数据存储在文本文件中进行处理。

       

2、嵌入式

通过在进程中运行agent的方式获取应用的状态。如目前的APM产品都是通过将监控工具嵌入到应用内部进行数据采集。

      

3、主动输出

提前在应用中埋点,应用主动上报。比如一些应用系统的业务状态,可以通过在日志中主动输出状态用于采集。

       

4、旁路式

通过外部获取的方式采集数据。比如对网站url的探测,模拟业务的报文 ,对服务器的ping,流量的监控。可以通过在交换机上将流量进行端口复制,将源始流量复制到另一个端口后再进行处理,这样这业务系统是完全没有侵入。

       

5、远程接入

通过对应用进程接口调用获取应用的状态。比如使用JMX的方式连接到java进程中,对进程的状态进行采集。

       

6、入侵式

不同于嵌入式,入侵式的agent是独立运行的进程,而不是运行在进程中。这个目前监控工具比较常用的方式,比如zabbix,在主机上运行一个进程进行相关数据的采集。

 

监控原理

 

具体监控指标总结如下:

 

  • 首先是容器本身资源使用情况:cpu,内存,网络,磁盘

  • 物理机的资源使用情况:cpu,内存,网络,磁盘

  • 物理机上容器镜像情况:名字,大小,版本。

 

1、主机的监控

 

(1)Cpu数据

 

使用top命令可以查看当前cpu使用情况,源文件来自/proc/stat

采样两个足够短的时间间隔的Cpu快照,分别记作t1,t2,其中t1、t2的结构均为:

(user、nice、system、idle、iowait、irq、softirq、stealstolen、guest)的9元组;

 

a)计算总的Cpu时间片totalCpuTime

把第一次的所有cpu使用情况求和,得到s1;

把第二次的所有cpu使用情况求和,得到s2;

s2- s1得到这个时间间隔内的所有时间片,即totalCpuTime = j2 - j1 ;

 

b)计算空闲时间idle

idle对应第四列的数据,用第二次的第四列- 第一次的第四列即可

idle=第二次的第四列- 第一次的第四列

 

c)计算cpu使用率

pcpu=100* (total-idle)/total

 

(2)linux内存监控

 

使用free命令可以查看当前内存使用情况。

其数据来源是来自/proc/meminfo文件

 

常用的计算公式:

real_used= used_mem - buffer - cache

real_free= free_mem + buffer + cache

total_mem= used_mem + free_mem

 

(3)Network数据

 

/proc/net/dev保存着有关网络的数据

如计算一段时间sec秒内的网络平均流量:

infirst=$(awk'/'$eth'/{print $1 }' /proc/net/dev |sed 's/'$eth'://')

outfirst=$(awk'/'$eth'/{print $10 }' /proc/net/dev)

sumfirst=$(($infirst+$outfirst))

sleep$sec"s"

inend=$(awk'/'$eth'/{print $1 }' /proc/net/dev |sed 's/'$eth'://')

outend=$(awk'/'$eth'/{print $10 }' /proc/net/dev)

sumend=$(($inend+$outend))

sum=$(($sumend-$sumfirst))

aver=$(($sum/$sec))

 

2、Docker的监控

 

Docker自身提供了一种内存监控的方式,即可以通过docker stats对容器内存进行监控。

 

该方式实际是通过对cgroup中相关数据进行取值从而计算得到。其数据来源是/sys/fs/cgroup

 

dockerclient相关代码入口可参考:/docker/docker/api/client/stats.go#141

dockerdaemon相关代码入口可参考:/docker/docker/daemon/daemon.go#1474

      

(1)Cpu数据

 

dockerdaemon会记录这次读取/sys/fs/cgroup/cpuacct/docker/  [containerId]/cpuacct.usage的值,作为cpu_total_usage;并记录了上一次读取的该值为pre_cpu_total_usage;读取/proc/stat中cpu field value,并进行累加,得到system_usage;并    记录上一次的值为pre_system_usage;读取/sys/fs/cgroup/cpuacct/docker/       [containerId]/cpuacct.usage_percpu中的记录,组成数组per_cpu_usage_array;

 

dockerstats计算Cpu Percent的算法:

cpu_delta= cpu_total_usage - pre_cpu_total_usage;

system_delta= system_usage - pre_system_usage;

CPU% = ((cpu_delta / system_delta) * length(per_cpu_usage_array) ) * 100.0

       

(2)Memory数据

 

读取/sys/fs/cgroup/memory/docker/[containerId]/memory.usage_in_bytes的值,作为    mem_usage;如果容器限制了内存,则读取/sys/fs/cgroup/memory/docker/  [id]/memory.limit_in_bytes作为mem_limit,否则mem_limit = machine_mem;docker stats计算 Memory数据的算法:

 

MEMUSAGE = mem_usage

MEMLIMIT = mem_limit

MEM% = (mem_usage / mem_limit) * 100.0

       

(3)Network Stats数据

 

获取属于该容器networknamespace veth pairs在主机中对应的veth*虚拟网卡EthInterface       数组,然后循环数组中每个网卡设备,读取/sys/class/net/[device]/statistics/rx_bytes得到rx_bytes,  读取/sys/class/net/[device]/statistics/tx_bytes得到对应的tx_bytes。

将所有这些虚拟网卡对应的rx_bytes累加得到该容器的rx_bytes。

将所有这些虚拟网卡对应的tx_bytes累加得到该容器的tx_bytes。

 

dockerstats计算Network IO数据的算法:

NETI = rx_bytes

NETO = tx_bytes

 

容器的监控方案

 

1、单台主机容器监控:

      

(1)docker stats

       

单台主机上容器的监控实现最简单的方法就是使用命令Docker stats,就可以显示所有容器的资源使用情况。

 

 

这样就可以查看每个容器的CPU利用率、内存的使用量以及可用内存总量。请注意,如果你没有限制容器内存,那么该命令将显示您的主机的内存总量。但它并不意味着你的每个容器都能访问那么多的内存。另外,还可以看到容器通过网络发送和接收的数据总量

 

虽然可以很直观地看到每个容器的资源使用情况,但是显示的只是一个当前值,并不能看到变化趋势。

 

(2)Google的 cAdvisor 是另一个知名的开源容器监控工具:

 

 

只需在宿主机上部署cAdvisor容器,用户就可通过Web界面或REST服务访问当前节点和容器的性能数据(CPU、内存、网络、磁盘、文件系统等等),非常详细。

 

 

它的运行方式也有多种:

 

a、直接下载命令运行

下载地址:https://github.com/google/cadvisor/releases/latest

格式:  nohup /root/cadvisor  -port=10000&>>/var/log/kubernetes/cadvisor.log &

访问: http://ip:10000/

 

 

b、以容器方式运行

docker pullindex.alauda.cn/googlelib/cadvisor

运行:

docker run -d --volume=/:/rootfs:ro--volume=/var/run:/var/run:rw –volume=/sys:/sys:ro       --volume=/var/lib/docker/:/var/lib/docker:ro--publish=8080:8080  --name=cadvisor                      index.alauda.cn/googlelib/cadvisor:latest

 

 

c、kubelet选项:   

在启动kubelete时候,启动cadvisor

cAdvisor当前都是只支持http接口方式,被监控的容器应用必须提供http接口,所以能力较弱。在Kubernetes的新版本中已经集成了cAdvisor,所以在Kubernetes架构下,不需要单独再去安装cAdvisor,可以直接使用节点的IP加默认端口4194就可以直接访问cAdvisor的监控面板。UI界面如下:

 

 

因为cAdvisor默认是将数据缓存在内存中,在显示界面上只能显示1分钟左右的趋势,所以历史的数据还是不能看到,但它也提供不同的持久化存储后端,比如influxdb等,同时也可以根据业务的需求,只利用cAdvisor提供的api接口,定时去获取数据存储到数据库中,然后定制自己的界面。

 

如需要通过cAdvisor查看某台主机上某个容器的性能数据只需要调用:      http://<host_ip>:4194/v1.3/subcontainers/docker/<container_id>

   

cAdvisor的api接口返回的数据结构如下:

 

 

可以根据这些数据分别计算出CPU、内存、网络等资源的使用或者占用情况。

 

kubernetes上的监控

 

1、容器的监控

 

在Kubernetes监控生态中,一般是如下的搭配使用:

 

 

(1)Cadvisor+InfluxDB+Grafana:

 

Cadvisor:将数据,写入InfluxDB

InfluxDB :时序数据库,提供数据的存储,存储在指定的目录下

Grafana :提供了WEB控制台,自定义查询指标,从InfluxDB查询数据,并展示

 

 

cAdivsor虽然能采集到监控数据,也有很好的界面展示,但是并不能显示跨主机的监控数据,当主机多的情况,需要有一种集中式的管理方法将数据进行汇总展示,最经典的方案就是cAdvisor+ Influxdb+grafana,可以在每台主机上运行一个cAdvisor容器负责数据采集,再将采集后的数据都存到时序型数据库influxdb中,再通过图形展示工具grafana定制展示面板。

 

在上面的安装步骤中,先是启动influxdb容器,然后进行到容器内部配置一个数据库给cadvisor专用,然后再启动cadvisor容器,容器启动的时候指定把数据存储到influxdb中,最后启动grafana容器,在展示页面里配置grafana的数据源为influxdb,再定制要展示的数据,一个简单的跨多主机的监控系统就构建成功了。

 

(2)Kubernetes——Heapster+InfluxDB+Grafana:

 

Heapster:在k8s集群中获取metrics和事件数据,写入InfluxDB,heapster收集的数据比cadvisor多,却全,而且存储在influxdb的也少。

InfluxDB:时序数据库,提供数据的存储,存储在指定的目录下。

Grafana:提供了WEB控制台,自定义查询指标,从InfluxDB查询数据,并展示。

 

 

Heapster是一个收集者,将每个Node上的cAdvisor的数据进行汇总,然后导到InfluxDB。Heapster的前提是使用cAdvisor采集每个node上主机和容器资源的使用情况,再将所有node上的数据进行聚合,这样不仅可以看到Kubernetes集群的资源情况,还可以分别查看每个node/namespace及每个node/namespace下pod的资源情况。这样就可以从cluster,node,pod的各个层面提供详细的资源使用情况。

 

2、kubernetes中主机监控方案:

 

prometheus

 

prometheus是个集 db、graph、statistic、alert 于一体的监控工具,安装也非常简单,下载包后做些参数的配置,比如监控的对象就可以运行了,默认通过9090端口访问。

 

(1)部署node-exporter容器

 

node-exporter要在集群的每台主机上部署,使用主机网络,端口是9100 如果有多个K8S集群,则要在多个集群上部署,部署node-exporter的命令如下:

#kubectl create -f node-exporter-deamonset.yaml

获取metrics数据http://ip:9100/metrics

 

 

返回的数据结构不是json格式,如果要使用该接口返回的数据,可以通过正则匹配,匹配出需要的数据,然后在保存到数据库中。

 

(2) 部署Prometheus和Grafana

 

Prometheus通过配置文件发现新的节点,文件路径是/sd/*.json,可以通过修改已有的配置文件,添加新的节点纳入监控,命令如下:

#kubectl create -f prometheus-file-sd.yaml

      

(3)查看Prometheus监控的节点

 

Prometheus的访问地址是:http://192.168.xxx.xxx:31330

通过网页查看监控的节点Status --> Targets

 

 

 

(4)另外可以配置Grafana展示Prometheus输出的监控数据,配置仪表盘等。

 

Grafana访问地址是:http://192.168.xxx.xxx:31331

账号:admin 密码:admin

注:系统预置了几个常用监控仪表盘配置,更多的配置可以到官方网站下载

 

监控工具的对比

 

以上从几个典型的架构上介绍了一些监控,但都不是最优实践。需要根据生产环境的特点结合每个监控产品的优势来达到监控的目的。比如Grafana的图表展示能力强,但是没有告警的功能,那么可以结合Prometheus在数据处理能力改善数据分析的展示。下面列了一些监控产品,但并不是严格按表格进行分类,比如Prometheus和Zabbix都有采集,展示,告警的功能。都可以了解一下,各取所长。

 

 

今天分享的内容主要就是这些,有不懂的地方或者有讲错的地方欢迎大家提出,谢谢大家。

 

Q&A

 

Q1:容器监控和主机监控为何不能用同一套方案,比如prometheus?

A:可以,主要考虑到prometheus的组件比较多,它将db、graph、statistic、alert都集于一体,但是它的扩展性不好,内存占用率大,在ssd盘下io占用比较高,同时可能会有大量数据堆积内存,维护成本比较大,但是也可以避免,其实还是要看具体的业务场景和需求,如果是针对大规模的主机和容器监控,并且对db、graph、statistic、alert的要求都比较高,那么prometheus肯定是比较好的选择,另外还可以使用cAdvisor + Prometheus + Grafana的组合方案,将这几个工具的有点结合起来使用。

 

Q2:有没有能集成邮件或短信告警工具的呢?

A:比如Prometheus和Zabbix都有采集,展示,告警的功能。

 

Q3:prometheus的数据存储在哪儿,用的文件系统是什么?谢谢

A:prometheus本身是用的LevelDB数据库,数据存储分两部分:内存和本地磁盘中。

 

Q4:kubelet 和 cadvisor 整合后,监控如果出问题岂不是会影响服务稳定性?这个如何解决?

A:在Kubernetes的新版本中已经集成了cAdvisor,cAdvisor作为一个daemon跑在k8s上面,即使cadvisor出现问题,对k8s并没有影响,而且k8s本身也有一套管理机制。

 

Q5:谢谢分享,想问一下对于pod的生命周期的监控有没有好的解决方案,想监控一些pod不明原因频繁删除和新建。

A:cadvisor可以对pod进行监控,如果想查原因,可以对日志进行监控和分析。

 

Q6:grafana4.0以上也支持告警了 请问k8s告警方案有哪些推荐 谢谢。

A:可以使用prometheus,Icinga, Zabbix的告警功能。

 

Q7:ca的采集粒度是多长时间?当需要采集秒级的性能数据时ca是否能满足要求?

A:cadvisor采集了最近接近两分钟内的8组数据, 可以满足,这里主要是要考虑下存储问题,因为到采集到秒级别后,数据会很大。

 

Q8:容器中使用像jvm这种都会怎么来进行监控呢?

A:ELK stack应该适合这种场景,另外Datadog也是 SaaS 监测工具,Datadog比较灵活,需要植入自己的代码,可能没有前者用起来简单。

 

Q9:对于群集环境,能不能简单比较一下各数据采集软件的好坏?或者分享一下用过的工具和坑。

A:这几个采集工具不好说哪个好那个坏,还是要看具体应用场景和需求,适合自己的才是最好的(嘿嘿)。例如:功能全的工具可能会很臃肿,占用资源也多,而且并不一定使用所有场景,功能少的扩展性可能很好。我可以分享下用过的工具的坑。

 

Q10:容器监控应该是为了容器能更好的运行。那么当容器出现一些异常情况,比如IO占用过高,带宽占用很多时,该怎么处理呢。

A:这是监控系统中自动化处理的那部分,针对容器出现的异常到底是要采取什么自动化操作还是要看具体情况,一般如果容器异常挂掉,可能会选择自动拉起,但如果像IO占用过高这中问题,因为导致的原因太多了,可能是主机的问题,也可能是程序本身的问题,所以还是需要人为去排查才行。

 

Q11:cadvisor 是定时采集数据,但是有时候时间点采集不到数据,是为什么?

A:可以看下cadvisor有没有异常重启过,然后可以手动区主机的文件下查看数据,然后跟cadvisor取到的数据进行比较,有可能是是在采集数据的时候有问题。

 

Q12:数据采集中,您提到主动输出到文件,那么涉及到日志文件的读取采集,那这块怎么做呢?

A:如果是传统的日志汇总收集有开源的软件ELK和Facebook开源的Scribe,容器的日志管理可以参考Fluentd。

 

Q13:不用heapster,cadvisor那个方案如何直接发送数据给influxdb?

A:需要在influxdb中去配置,创建cadvisor数据库。

 

Q14:这些监控方案中从资源占用数据准确性角度来看,哪个更好用?

A:准确性都不会差,他们采集的源数据都是一样的,在资源占用这块,cadvisor是占用资源最少的,prometheus占用资源比较多。

 

Q15:有没有发现prometheus比influxdb易用,并且性能还好些?为什么不能用prometheus同时监控物理机和容器呢?cadvisor原生支持prometheus metrics。因为规模?

A:性能没有具体比较过,但是prometheus扩展性没有Heapster+InfluxDB+Grafana好,无法自己指定存储系统,而且比较消耗内存。

 

Q16:有一处我不是很确定是否讲错了,我实践发现即便为容器设置了mem,CPU限制,所监控到的依然是主机的总 mem和CPU。

A:我测试了,在启动容器的时候设置mem和cpu限制后,通过docker stats命令监控的是设置的值。

 

 

 

Q17:比如多环境(开发、测试、生产)的情况下,你们是多套监控,还是一套监控系统监控所有环境?

A:一套。

 

Q18:目前,哪个方案对容器里面的具体应用提供的监控指标多?比如应用响应时间,吞吐量。

A:prometheus。

 

Q19:如果要监控某个容器内正在跑的进程,你们现在的方案是如何的,能介绍下吗?

A:可以参考k8s中Pod健康部分(https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-probes/),利用探针的方式监控进程。

 

 

 

分享:kubernetes主机和容器的监控方案

有容云-构筑企业容器云 www.youruncloud.com

温馨提示

对Docker容器技术或容器生产实施感兴趣的朋友欢迎加群讨论。我们汇集了Docker容器技术落地实施团队精英及业内技术派高人,在线为您分享Docker技术干货。我们的宗旨是为了大家拥有更专业的平台交流Docker实战技术,我们将定期邀请嘉宾做各类话题分享及回顾,共同实践研究Docker容器生态圈。

加微信群方法:

1.关注【有容云】公众号

2.留言”我要加群”

QQ群号:454565480

有容云微信二维码