Развернул prometheus с Django и Kubernetes, как заставить его скрести приложение Django?
У меня есть проект Django, развернутый в Kubernetes, и я пытаюсь развернуть Prometheus в качестве инструмента мониторинга. Я успешно выполнил все шаги, необходимые для включения django_prometheus
в проект, и локально я могу перейти localhost:9090
и поиграть с запросами метрик.
Я также развернул Prometheus на своем кластере Kubernetes и, запустив kubectl port-forward ...
на стручке Prometheus, я могу увидеть некоторые метрики моих ресурсов Kubernetes.
Я немного запутался в том, как сделать так, чтобы метрики развернутого приложения Django были доступны на приборной панели Prometheus так же, как и другие.
Я развернул свое приложение в default
пространстве имен, а Prometheus в monitoring
выделенном пространстве имен. Мне интересно, что я здесь упускаю. Нужно ли мне выставить порты на службе и развертывании от 8000 до 8005 в соответствии с количеством рабочих или что-то в этом роде?
Мое приложение Django работает с gunicorn, используя supervisord
следующим образом:
[program:gunicorn]
command=gunicorn --reload --timeout 200000 --workers=5 --limit-request-line 0 --limit-request-fields 32768 --limit-request-field_size 0 --chdir /code/ my_app.wsgi
my_app
сервис:
apiVersion: v1
kind: Service
metadata:
name: my_app
namespace: default
spec:
ports:
- name: http
port: 80
protocol: TCP
targetPort: 80
selector:
app: my-app
sessionAffinity: None
type: ClusterIP
- Обрезанная версия
deployment.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: my-app
name: my-app-deployment
namespace: default
spec:
progressDeadlineSeconds: 600
replicas: 1
revisionHistoryLimit: 10
selector:
matchLabels:
app: my-app
strategy:
rollingUpdate:
maxSurge: 25%
maxUnavailable: 25%
type: RollingUpdate
template:
metadata:
labels:
app: my-app
spec:
containers:
- image: ...
imagePullPolicy: IfNotPresent
name: my-app
ports:
- containerPort: 80
name: http
protocol: TCP
dnsPolicy: ClusterFirst
imagePullSecrets:
- name: regcred
restartPolicy: Always
schedulerName: default-scheduler
terminationGracePeriodSeconds: 30
prometheus configmap
apiVersion: v1
data:
prometheus.rules: |-
... some rules
prometheus.yml: |-
global:
scrape_interval: 5s
evaluation_interval: 5s
rule_files:
- /etc/prometheus/prometheus.rules
scrape_configs:
- job_name: prometheus
static_configs:
- targets:
- localhost:9090
- job_name: my-app
metrics_path: /metrics
static_configs:
- targets:
- localhost:8000
- job_name: 'node-exporter'
kubernetes_sd_configs:
- role: endpoints
relabel_configs:
- source_labels: [__meta_kubernetes_endpoints_name]
regex: 'node-exporter'
action: keep
kind: ConfigMap
metadata:
labels:
name: prometheus-config
name: prometheus-config
namespace: monitoring
Вам не нужно выставлять сервисы, если прометей установлен на том же кластере, что и ваше приложение. Вы можете взаимодействовать с приложениями между пространствами имен, используя разрешение DNS Kubernetes, следуя правилу:
SERVICENAME.NAMESPACE.svc.cluster.local
поэтому один из способов - изменить цель задания prometheus на что-то вроде этого
- job_name: speedtest-ookla
metrics_path: /metrics
static_configs:
- targets:
- 'my_app.default.svc.cluster.local:9000'
И это "ручной" способ. Лучшим подходом будет использование prometheus kubernetes_sd_config
. Он автоматически обнаружит ваши сервисы и попытается их соскрести.
Ссылка: https://prometheus.io/docs/prometheus/latest/configuration/configuration/#kubernetes_sd_config
Нет необходимости выставлять приложение за пределы кластера.
Используя обнаружение служб Kubernetes, добавьте задание для поиска служб, подсистем или обоих:
- job_name: 'kubernetes-service-endpoints'
kubernetes_sd_configs:
- role: endpoints
relabel_configs:
- source_labels: [__meta_kubernetes_service_annotation_prometheus_io_scrape]
action: keep
regex: true
- source_labels: [__address__, __meta_kubernetes_service_annotation_prometheus_io_port]
action: replace
regex: ([^:]+)(?::\d+)?;(\d+)
replacement: $1:$2
target_label: __address__
- source_labels: [__meta_kubernetes_service_annotation_prometheus_io_path]
action: replace
target_label: __metrics_path__
regex: (.+)
- source_labels: [__meta_kubernetes_namespace]
action: replace
target_label: namespace
regex: (.+)
- regex: __meta_kubernetes_service_label_(.+)
action: labelmap
- regex: 'app_kubernetes_io_(.+)'
action: labeldrop
- regex: 'helm_sh_(.+)'
action: labeldrop
- job_name: 'kubernetes-pods'
kubernetes_sd_configs:
- role: pod
relabel_configs:
- source_labels: [__meta_kubernetes_pod_annotation_prometheus_io_scrape]
action: keep
regex: true
- source_labels: [__address__, __meta_kubernetes_pod_annotation_prometheus_io_port]
action: replace
regex: ([^:]+)(?::\d+)?;(\d+)
replacement: $1:$2
target_label: __address__
- source_labels: [__meta_kubernetes_pod_annotation_prometheus_io_path]
action: replace
target_label: __metrics_path__
regex: (.+)
- source_labels: [__meta_kubernetes_namespace]
action: replace
target_label: namespace
regex: (.+)
- source_labels: [__meta_kubernetes_pod_node_name]
action: replace
target_label: host
regex: (.+)
- source_labels: [__meta_kubernetes_pod_name]
action: replace
target_label: pod
regex: (.+)
- regex: __meta_kubernetes_pod_label_(.+)
action: labelmap
- regex: 'app_kubernetes_io_(.+)'
action: labeldrop
- regex: 'helm_sh_(.+)'
action: labeldrop
Затем, аннотируйте службу следующим образом:
metadata:
annotations:
prometheus.io/scrape: "true"
prometheus.io/port: "80"
prometheus.io/path: "/metrics"
и развертывание с:
spec:
template:
metadata:
annotations:
prometheus.io/scrape: "true"
prometheus.io/port: "80"
prometheus.io/path: "/metrics"