背景:在kubernetes里event记录了集群运行所遇到的各种大事件,有助于排错,但大量的事件如果都存储在etcd中,会带来较大的性能与容量压力,所以etcd中默认只保存最近1小时的,如果我们将该时间改大 会大大增加集群etcd的压力,所以我们需要将该数据存储到其他地方。经过一段时间的寻找 觉的k8s-stackdriver这个项目比较符合目前我的需求,但是它存储到的是promethues,但是目前我司给与promethues的资源并不是很足,并且保存的时间默认只有15天本,地存储也意味着Prometheus无法持久化数据,无法存储大量历史数据,同时也无法灵活扩展。,所以考虑使用了ES作为存储。但是es存储方案目前官方并不支持,只有通过fluentd去收集日志达到效果,所以我这边通过修改源码将存储直接改为es,这样就不需要借助fluentd去收集日志了。 本文主要是先分析event-export源码,之后再讲修改过程写出来。 程序入口 main.go 解释:初始化sink对象 并根据sink-opts传递进来的 参数设置对应的参数 参数列表(NewSdSinkFactory): flagSet flushDelay maxBufferSize maxConcurrency resourceModelVersion endpoint 解析sinkOpts的参数(CreateNew) newKubernetesClient 初始化go-client 接口 通过集群内部配置创建 k8s 配置信息,通过 KUBERNETES_SERVICE_HOST 和 KUBERNETES_SERVICE_PORT 环境变量方式获取 默认tokenfile rootCAFile 在/var/run/secrets/kubernetes.io/serviceaccount/ newEventExporter函数的作用 我们可以看他具体实现方法: newEventExporter 返回了eventExporter这个结构体 该结构体包含sink 和watcher两个字段。 sink: 包含所有的参数配置等 watcher: 通过createwatcher函数 监听events resource 分解:createWatcher函数 NewEventWatcher配置了需要watche的目标对象为event,以及间隔多久watch一次 events.EventWatcherConfig 结构体包含三个字段 OnList OnListFunc event列表 ResyncPeriod watcher的时间间隔 默认为1分钟watch一次 。 通过resyncPeriod参数设置 Handler 包含三个字段OnAdd OnUpdate OnDelete OnAdd: 主要作用就是将watch到的数据通过通道存入sdSink下的logEntryChannel字段,并且在promethues插入数据 OnUpdate: 更新logEntryChannel字段,并更新promethues里的数据 首先 通过gorouteing执行了匿名函数 该匿名函数 主要设置了promethues的/metrics路由并且监听localhost的本地端口 默认为80 通过启动参数prometheusEndpoint设置 newSystemStopChannel函数,通过gorouteing 执行匿名函数,当接收到SIGINT(2),SIGTERM(9)的时候 打印Received signal sig.String(), terminating的信号 eventExporter.Run(stopCh) 函数: run函数: stopCh: 接收newSystemStopChannel传递过来的信号值通道 utils.RunConcurrentlyUntil 方法 并发运行e.sink.Run, e.watcher.Run 通过sync.WaitGroup解决同步阻塞等待的问题。 wg.Add 将计数器设置为1 执行e.sink.Run, e.watcher.Run两个函数 当执行完成的时候 将计数器设置减去1 在计数器不为0的时候Wait() 一直阻塞 只有当计数器为0的时候 或者接收到退出信号的时候才会退出。 e.sink.Run: 在eventExporter的sink字段 之后跳转到 interface.go下的Sink接口下的run方法 因为在newEventExporter函数里sink的值已经被赋值为sink, err := stackdriver.NewSdSinkFactory().CreateNew(strings.Split(*sinkOpts, ” “)) 返回的值 createNew 并且CreateNew 函数return newSdSink(writer, clk, config, resourceModelFactory), nil 通过查看newSdSink 该函数返回的是sdSink结构体 所以e.sink.Run 就相当于函数拥有者为sdSink下的Run方法 run方法是一个for死循环 只有当收到newSystemStopChannel传递过来的信号时才会退出,通过s.logEntryChannel传递过来的日志,将该日志存储到s.currentBuffer里 当存储里的个数大于s.config.MaxBufferSize的值时 执行flushBuffer函数 flushBuffer首先会清空s.concurrencyChannel里的值 之后将entries的值传递给sendEntries sendEntries函数下通过successfullySentEntryCount将日志写入promethues 之后接收s.concurrencyChannel传递过来的值,这里主要解决接收到SIGINT,SIGTERM的时候等待所有请求完成之后再停止 当s.currentBuffer等于1时 充值计时器,默认为5s,如果5s内没有数据代表超时 直接执行flushBuffer函数 e.watcher.Run: w.reflector.Run()会跳转到所属者为reflector下的Run函数 声明一个匿名函数 每隔一段时间执行这个匿名函数 该函数下的主要方法就是ListAndWatch 也就是由它收集event的日志
sink, err := stackdriver.NewSdSinkFactory().CreateNew(strings.Split(*sinkOpts, " ")) if err != nil { glog.Fatalf("Failed to initialize sink: %v", err) }
client, err := newKubernetesClient() if err != nil { glog.Fatalf("Failed to initialize kubernetes client: %v", err) } eventExporter := newEventExporter(client, sink, *resyncPeriod)
func newEventExporter(client kubernetes.Interface, sink sinks.Sink, resyncPeriod time.Duration) *eventExporter { return &eventExporter{ sink: sink, watcher: createWatcher(client, sink, resyncPeriod), } } func createWatcher(client kubernetes.Interface, sink sinks.Sink, resyncPeriod time.Duration) watchers.Watcher { return events.NewEventWatcher(client, &events.EventWatcherConfig{ OnList: sink.OnList, ResyncPeriod: resyncPeriod, Handler: sink, }) }
go func() { http.Handle("/metrics", promhttp.Handler()) glog.Fatalf("Prometheus monitoring failed: %v", http.ListenAndServe(*prometheusEndpoint, nil)) }() stopCh := newSystemStopChannel() eventExporter.Run(stopCh)
func newSystemStopChannel() chan struct{} { ch := make(chan struct{}) go func() { c := make(chan os.Signal) signal.Notify(c, syscall.SIGINT, syscall.SIGTERM) sig := <-c glog.Infof("Received signal %s, terminating", sig.String()) // Close stop channel to make sure every goroutine will receive stop signal. close(ch) }() return ch }
func (e *eventExporter) Run(stopCh <-chan struct{}) { utils.RunConcurrentlyUntil(stopCh, e.sink.Run, e.watcher.Run) }
func RunConcurrentlyUntil(stopCh <-chan struct{}, funcs ...StoppableFunc) { var wg sync.WaitGroup for i := range funcs { wg.Add(1) f := funcs[i] go func() { defer wg.Done() f(stopCh) }() } <-stopCh wg.Wait() }
func (s *sdSink) Run(stopCh <-chan struct{}) { glog.Info("Starting Stackdriver sink") for { select { case entry := <-s.logEntryChannel: s.currentBuffer = append(s.currentBuffer, entry) if len(s.currentBuffer) >= s.config.MaxBufferSize { s.flushBuffer() } else if len(s.currentBuffer) == 1 { s.setTimer() } break case <-s.getTimerChannel(): s.flushBuffer() break case <-stopCh: glog.Info("Stackdriver sink received stop signal, waiting for all requests to finish") for i := 0; i < s.config.MaxConcurrency; i++ { s.concurrencyChannel <- struct{}{} } glog.Info("All requests to Stackdriver finished, exiting Stackdriver sink") return } } }
func (s *sdSink) flushBuffer() { entries := s.currentBuffer s.currentBuffer = nil s.concurrencyChannel <- struct{}{} go s.sendEntries(entries) } func (s *sdSink) sendEntries(entries []*sd.LogEntry) { glog.V(4).Infof("Sending %d entries to Stackdriver", len(entries)) written := s.writer.Write(entries, s.logName, s.sdResourceFactory.defaultMonitoredResource()) successfullySentEntryCount.Add(float64(written)) <-s.concurrencyChannel glog.V(4).Infof("Successfully sent %d entries to Stackdriver", len(entries)) }
func (w *watcher) Run(stopCh <-chan struct{}) { w.reflector.Run() <-stopCh }
func (r *Reflector) Run() { glog.V(3).Infof("Starting reflector %v (%s) from %s", r.expectedType, r.resyncPeriod, r.name) go wait.Until(func() { if err := r.ListAndWatch(wait.NeverStop); err != nil { utilruntime.HandleError(err) } }, r.period, wait.NeverStop) }
本网页所有视频内容由 imoviebox边看边下-网页视频下载, iurlBox网页地址收藏管理器 下载并得到。
ImovieBox网页视频下载器 下载地址: ImovieBox网页视频下载器-最新版本下载
本文章由: imapbox邮箱云存储,邮箱网盘,ImageBox 图片批量下载器,网页图片批量下载专家,网页图片批量下载器,获取到文章图片,imoviebox网页视频批量下载器,下载视频内容,为您提供.
阅读和此文章类似的: 全球云计算