ELK 設置定時清理腳本清理索引
1133
2025-03-31
相關概念
微服務中的監控分根據作用領域分為三大類,Logging,Tracing,Metrics。
Logging - 用于記錄離散的事件。例如,應用程序的調試信息或錯誤信息。它是我們診斷問題的依據。比如我們說的ELK就是基于Logging。
Metrics - 用于記錄可聚合的數據。例如,隊列的當前深度可被定義為一個度量值,在元素入隊或出隊時被更新;HTTP 請求個數可被定義為一個計數器,新請求到來時進行累。prometheus專注于Metrics領域。
Tracing - 用于記錄請求范圍內的信息。例如,一次遠程方法調用的執行過程和耗時。它是我們排查系統性能問題的利器。最常用的有Skywalking,ping-point,zipkin。
今天我們主要聊聊Prometheus的監控,接下來我們了解下需要涉及的幾個關鍵組件。
Prometheus
Prometheus(中文名:普羅米修斯)是由SoundCloud開發的開源監控報警系統和時序列數據庫(TSDB). Prometheus使用Go語言開發, 是Google BorgMon監控系統的開源版本。
Prometheus的基本原理是通過HTTP協議周期性抓取被監控組件的狀態, 任意組件只要提供對應的HTTP接口就可以接入監控. 不需要任何SDK或者其他的集成過程。輸出被監控組件信息的HTTP接口被叫做exporter,目前開發常用的組件大部分都有exporter可以直接使用, 比如Nginx、MySQL、Linux系統信息、Mongo、ES等
exporter
prometheus可以理解為一個數據庫 數據抓取工具, 工具從各處抓來統一的數據, 放入prometheus這一個時間序列數據庫中. 那如何保證各處的數據格式是統一的呢?就是通過這個exporter. Exporter是一類數據采集組件的總稱. Exporter負責從目標處搜集數據, 并將其轉化為Prometheus支持的格式, 它開放了一個http接口(以便Prometheus來抓取數據). 與傳統的數據采集組件不同的是, Exporter并不向中央服務器發送數據, 而是等待中央服務器(如Prometheus等)主動前來抓取。https://github.com/prometheus 有很多寫好的exporter,可以直接下載使用。
Grafana
Grafana是一個圖形化工具, 它可以從很多種數據源(例如Prometheus)中讀取數據信息, 使用很漂亮的圖表來展示數據, 并且有很多開源的dashborad可以使用,可以快速地搭建起一個非常精美的監控平臺。它與Prometheus的關系就類似于Kibana與elasticsearch。
環境準備
在開始配置之前請下載以下幾個軟件(直接從github或者grafana官網下載太慢了,簡直是龜速而且容易下載失敗,建議使用迅雷下載)。
prometheus
grafana
node_exporter
安裝
準備兩臺服務器,一臺用作安裝prometheus和grafana,一臺用作放置exporter組件。建立應用文件夾,將相關軟件上傳至服務器。
192.168.249.131 prometheus,grafana
192.168.249.129 exporter
prometheus
使用如下shell命令進行安裝并啟動
tar zxvf prometheus-2.13.1.linux-amd64.tar.gz mv prometheus-2.13.1.linux-amd64 prometheus cd prometheus nohup ./prometheus &
1
2
3
4
啟動完成后,用瀏覽器打開http://192.168.249.131:9090進行訪問,效果如下:
grafana
使用如下shell命令進行安裝并啟動
tar grafana-6.4.3.linux-amd64.tar.gz cd grafana-6.4.3 nohup ./grafana-server &
1
2
3
啟動完成后,用瀏覽器打開http://192.168.249.131:3000進行訪問,默認賬號密碼為admin/admin,初次登陸需要修改密碼,修改密碼并登陸效果如下:
node_exporter
使用如下shell命令進行安裝并啟動
tar zxvf node_exporter-0.18.1.linux-amd64.tar.gz mv node_exporter-0.18.1.linux-amd64 node_exporter nohup ./node_exporter &
1
2
3
node exporter默認使用9100端口,可以使用–web.listen-address=":9200"指定端口號。
啟動完成后,用瀏覽器打開http://192.168.249.129:9100/進行訪問,顯示效果如下:
配置
prometheus
進入prometheus安裝目錄,修改prometheus.yml文件,增加監聽job server-192.168.249.129,完整配置如下:
# my global config global: scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute. # scrape_timeout is set to the global default (10s). # Alertmanager configuration alerting: alertmanagers: - static_configs: - targets: # - alertmanager:9093 rule_files: # - "first_rules.yml" # - "second_rules.yml" scrape_configs: # The job name is added as a label `job=
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
配置完成后重啟prometheus,查看監聽狀態。
grafana
配置prometheus數據源
去官網尋找對應的表盤,我們選擇node exporter監控看板
在grafana中在導入表盤
查看監控效果
至此基于Prometheus的監控環境搭建完成,你也來動手試一下吧。
近期熱文
SpringBoot Mysql8實現讀寫分離
Springboot2.xShardingSphere 實現分庫分表
基于elasticsearch的自定義業務告警的設計思路
HTTP
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。
版權聲明:本文內容由網絡用戶投稿,版權歸原作者所有,本站不擁有其著作權,亦不承擔相應法律責任。如果您發現本站中有涉嫌抄襲或描述失實的內容,請聯系我們jiasou666@gmail.com 處理,核實后本網站將在24小時內刪除侵權內容。