Hola, hoy os voy a enseñar cómo podéis monitorizar los logs del sistema o de otros contenedores o incluso de ficheros .txt/.log etc con Grafana + Loki + Promtail. Además, lo vamos a juntar con el contenedor de monitorización creado en el tutorial anterior (https://devcodelight.com/?p=3847).

Para empezar, vamos a crear un docker-compose.yml con la siguiente estructura:
version: "3.1"
services:
grafana:
image: grafana/grafana
container_name: grafana
restart: unless-stopped
volumes:
- ./config/grafana/data:/var/lib/grafana
ports:
- 3000:3000
networks:
- docker-network
prometheus:
image: prom/prometheus
container_name: prometheus
restart: unless-stopped
volumes:
- ./config/prometheus/prometheus.yml:/etc/prometheus/prometheus.yml
- ./config/prometheus/data:/prometheus
ports:
- 9090:9090
command:
- '--config.file=/etc/prometheus/prometheus.yml'
- '--storage.tsdb.path=/prometheus'
- '--storage.tsdb.retention.time=1y'
- '--web.enable-lifecycle'
networks:
- docker-network
node_exporter:
image: quay.io/prometheus/node-exporter:latest
container_name: node_exporter
restart: unless-stopped
ports:
- 9100:9100
##### linux
command:
- '--path.rootfs=/host'
pid: host
volumes:
- './config/node_exporter:/host:ro,rslave'
networks:
- docker-network
###### windows
#volumes:
#- /proc:/host/proc:ro
#- /sys:/host/sys:ro
#command:
#- '--path.procfs=/host/proc'
#- '--path.sysfs=/host/sys'
#- --collector.filesystem.ignored-mount-points
#- "^/(sys|proc|dev|host|etc|rootfs/var/lib/docker/containers|rootfs/var/lib/docker/overlay2|rootfs/run/docker/netns|rootfs/var/lib/docker/aufs)($$|/)"
cadvisor:
image: gcr.io/cadvisor/cadvisor:v0.47.0
container_name: cadvisor
restart: unless-stopped
expose:
- 8080
volumes:
- /:/rootfs:ro
- /var/run:/var/run:ro
- /sys:/sys:ro
- /var/lib/docker/:/var/lib/docker:ro
networks:
- docker-network
loki:
image: grafana/loki:2.0.0
container_name: loki
restart: unless-stopped
volumes:
- ./config/loki/loki-config.yml:/mnt/config/loki-config.yml
- ./config/loki/data:/loki
ports:
- 3100:3100
command:
- '-config.file=/mnt/config/loki-config.yml'
networks:
- docker-network
promtail:
image: grafana/promtail:2.0.0
container_name: promtail
restart: unless-stopped
volumes:
- ./config/promtail/promtail-config.yml:/mnt/config/promtail-config.yml
- ./config/promtail/data:/promtail
- /var/log:/var/log:ro
- ./config/promtail/tmp:/tmp
- ./web/logs/:/web:ro
#ports:
#- 9080:9080
command:
- '-config.file=/mnt/config/promtail-config.yml'
networks:
- docker-network
networks:
docker-network:
driver: bridge
external: true
Ahora voy a explicar los contenedores creados:
Primero hemos creado un contenedor de grafana:
grafana:
image: grafana/grafana
container_name: grafana
restart: unless-stopped
volumes:
- ./config/grafana/data:/var/lib/grafana
ports:
- 3000:3000
networks:
- docker-network
Utilizamos la imagen grafana/grafana (https://hub.docker.com/r/grafana/grafana).
Nombre de contenedor grafana
Creamos un volumen dentro de la carpeta config/grafana/data para que almacene los datos de configuración de forma persistente.
El puerto que utiliza grafana es el 3000.
Y unimos a una red que vamos a crear en común a todos los contenedores docker-network.
Contenedor prometheus:
prometheus:
image: prom/prometheus
container_name: prometheus
restart: unless-stopped
volumes:
- ./config/prometheus/prometheus.yml:/etc/prometheus/prometheus.yml
- ./config/prometheus/data:/prometheus
ports:
- 9090:9090
command:
- '--config.file=/etc/prometheus/prometheus.yml'
- '--storage.tsdb.path=/prometheus'
- '--storage.tsdb.retention.time=1y'
- '--web.enable-lifecycle'
networks:
- docker-network
Creamos la imagen a partir de prometheus docker (https://hub.docker.com/r/prom/prometheus)
El nombre de contenedor es prometheus (se utilizará más adelante en el panel de control de grafana).
Creamos dos volúmenes:
- config/prometheus/prometheus.yml (archivo de configuración de prometheus:
global:
scrape_interval: 15s
evaluation_interval: 15s
scrape_configs:
- job_name: 'prometheus'
static_configs:
- targets: ['prometheus:9090']
- job_name: 'cadvisor'
static_configs:
- targets: ['cadvisor:8080']
- job_name: 'node_exporter'
static_configs:
- targets: ['node_exporter:9100']
En este archivo, incluimos cadvisor y node_exporter (contenedores que explicaré más adelante) en los targets incluimos el nombre del contenedor, ya que el DNS de docker es capaz de resolver estos dominios. Además, apuntamos al puerto de cada servicio.
- /config/prometheus/data (directorio persistente de datos de configuración de prometheus).
Contenedor de Node exporter
node_exporter:
image: quay.io/prometheus/node-exporter:latest
container_name: node_exporter
restart: unless-stopped
ports:
- 9100:9100
##### linux
command:
- '--path.rootfs=/host'
pid: host
volumes:
- './config/node_exporter:/host:ro,rslave'
Utilizamos la imagen de quay.io/prometheus/node-exporter:latest (https://quay.io/repository/prometheus/node-exporter?tab=tags&tag=latest)
Creamos un volumen para almacenar la configuración del contenedor en la carpeta ./config/node_exporter
Contenedor Cadvisor:
cadvisor:
image: gcr.io/cadvisor/cadvisor:v0.47.0
container_name: cadvisor
restart: unless-stopped
expose:
- 8080
volumes:
- /:/rootfs:ro
- /var/run:/var/run:ro
- /sys:/sys:ro
- /var/lib/docker/:/var/lib/docker:ro
networks:
- docker-network
Utilizamos la imagen cadvisor de google: (https://github.com/google/cadvisor/releases)
Apunta a los volúmenes dónde va a monitorizar los contenedores docker.
Ahora ya comenzamos con la monitorización de logs.
Para ello añadimos el contenedor loki:

Loki es un sistema de registro de logs de código abierto diseñado para su uso con contenedores de Docker y orquestadores de contenedores como Kubernetes. Loki fue creado por Grafana Labs y se enfoca en proporcionar un almacenamiento eficiente y escalable de logs para el análisis y la visualización.
Lo que diferencia a Loki de otros sistemas de registro de logs es que utiliza una arquitectura de almacenamiento de logs inspirada en Prometheus, donde los registros se almacenan como series de tiempo comprimidas. Esto hace que Loki sea muy escalable y eficiente en términos de almacenamiento de logs, especialmente en entornos con un alto volumen de logs.
Además, Loki se integra con Grafana, lo que permite a los usuarios visualizar y analizar los logs en tiempo real. La integración con Grafana también permite a los usuarios realizar consultas y crear paneles de datos para visualizar y analizar los logs almacenados en Loki.
En resumen, Loki es una herramienta de registro de logs escalable, eficiente y de código abierto diseñada para su uso en entornos de contenedores y orquestadores de contenedores.
El contenedor Loki creado queda de la siguiente forma:
loki:
image: grafana/loki:2.0.0
container_name: loki
restart: unless-stopped
volumes:
- ./config/loki/loki-config.yml:/mnt/config/loki-config.yml
- ./config/loki/data:/loki
ports:
- 3100:3100
command:
- '-config.file=/mnt/config/loki-config.yml'
networks:
- docker-network
Utilizamos la imagen grafana/loki (https://hub.docker.com/r/grafana/loki)
El nombre del contenedor es loki (lo utilizaremos más adelante para indicar el endpoint de los logs)
Creamos dos volúmenes:
- Uno para la configuración loki-config.yml
auth_enabled: false
server:
http_listen_port: 3100
ingester:
lifecycler:
address: 127.0.0.1
ring:
kvstore:
store: inmemory
replication_factor: 1
final_sleep: 0s
chunk_idle_period: 1h # Any chunk not receiving new logs in this time will be flushed
max_chunk_age: 1h # All chunks will be flushed when they hit this age, default is 1h
chunk_target_size: 1048576 # Loki will attempt to build chunks up to 1.5MB, flushing first if chunk_idle_period or max_chunk_age is reached first
chunk_retain_period: 30s # Must be greater than index read cache TTL if using an index cache (Default index read cache TTL is 5m)
max_transfer_retries: 0 # Chunk transfers disabled
schema_config:
configs:
- from: 2020-10-24
store: boltdb-shipper
object_store: filesystem
schema: v11
index:
prefix: index_
period: 24h
storage_config:
boltdb_shipper:
active_index_directory: /loki/boltdb-shipper-active
cache_location: /loki/boltdb-shipper-cache
cache_ttl: 24h # Can be increased for faster performance over longer query periods, uses more disk space
shared_store: filesystem
filesystem:
directory: /loki/chunks
compactor:
working_directory: /loki/boltdb-shipper-compactor
shared_store: filesystem
limits_config:
reject_old_samples: true
reject_old_samples_max_age: 168h
chunk_store_config:
max_look_back_period: 0s
table_manager:
retention_deletes_enabled: true
retention_period: 1460h
ruler:
storage:
type: local
local:
directory: /loki/rules
rule_path: /loki/rules-temp
alertmanager_url: http://localhost:9093
ring:
kvstore:
store: inmemory
enable_api: true
Utilizamos la configuración por defecto, en este caso además hemos añadido que los datos de logs se borren cada 2 meses (1460h).
- Directorio data para la configuración persistente de loki.
La url de loki es http://loki:3100 y se utilizará en adelante.
Ahora se configura promtail:

Promtail es un componente de registro de logs de código abierto que forma parte del ecosistema de herramientas de Prometheus, diseñado para recolectar logs de varios sistemas y enviarlos a un servidor Prometheus para su análisis y monitoreo.
Promtail es altamente escalable y está diseñado para manejar grandes volúmenes de logs de manera eficiente. Utiliza una arquitectura de cliente-servidor en la que se ejecuta un agente Promtail en cada host para recolectar los logs y enviarlos a un servidor centralizado.
Promtail es altamente configurable y puede utilizarse para recolectar logs de varios formatos, incluyendo JSON, syslog, y logs de contenedores de Docker. También puede utilizarse para extraer métricas y etiquetas de los logs, lo que facilita el análisis y la visualización en Prometheus y Grafana.
En resumen, Promtail es una herramienta de recolección de logs de alta escalabilidad, diseñada para trabajar en conjunto con el sistema de monitoreo y alerta de Prometheus, y está diseñada para recolectar logs de diferentes sistemas y formatos.
Utilizamos la siguiente configuración de contenedor:
promtail:
image: grafana/promtail:2.0.0
container_name: promtail
restart: unless-stopped
volumes:
- ./config/promtail/promtail-config.yml:/mnt/config/promtail-config.yml
- ./config/promtail/data:/promtail
- /var/log:/var/log:ro
- ./config/promtail/tmp:/tmp
- ./web/logs/:/web:ro
#ports:
#- 9080:9080
command:
- '-config.file=/mnt/config/promtail-config.yml'
networks:
- docker-network
Utilizamos la imagen oficial de promtail: (https://hub.docker.com/r/grafana/promtail)
Asignamos de nombre de contenedor: promtail (servirá de dominio dentro de la red docker-network)
Creamos distintos volúmenes:
- Uno para almacenar los datos de promtail de forma persistente.
- Otro para obtener los logs de la carpeta /var/log
- Otro para almacenar los datos temporales de promtail.
- Y otro para obtener los logs .txt de un servidor php que he creado de ejemplo y que se almacenan en la carpeta /web/logs con formato fecha.txt
- Uno para guardar el promtail-config.yml.
server:
http_listen_port: 9080
grpc_listen_port: 0
positions:
filename: /tmp/positions.yml
clients:
- url: http://loki:3100/loki/api/v1/push
scrape_configs:
# Logs sistema
- job_name: system
static_configs:
- targets:
- localhost
labels:
job: varlogs
__path__: /var/log/*log
# Logs de la web:
- job_name: logs_web
static_configs:
- targets:
- localhost
labels:
job: web
__path__: /web/*.txt
Ahora voy a explicar este código:
server:
http_listen_port: 9080
grpc_listen_port: 0
El servidor escucha sobre el puerto 9080 (en docker lo he comentado para tenerlo de referencia, pero no es necesario ni recomendado exponerlo de forma pública)
Archivo temporal para almacenar las posiciones de los logs y de esta forma reconocer los datos nuevos:
positions:
filename: /tmp/positions.yml
URL del cliente loki:
clients:
- url: http://loki:3100/loki/api/v1/push
Esta URL se compone del nombre del contenedor (en este caso loki) y el puerto en el que opera 3100, y es el endpoint dónde enviará las notificaciones de los Logs.
Creamos un job para obtener los logs generales del sistema:
scrape_configs:
# Logs sistema
- job_name: system
static_configs:
- targets:
- localhost
labels:
job: varlogs
__path__: /var/log/*log
Y creamos un job para obtener los logs de nuestra web:
# Logs de la web:
- job_name: logs_web
static_configs:
- targets:
- localhost
labels:
job: web
__path__: /web/*.txt
Este job se llama web (hay que tener en cuenta el nombre del label).
Además, indicamos el path del log externo que se comunica con el docker creado.
En este caso indicamos que tenga en cuenta todos los archivos .txt dentro del directorio web.
Una vez configurado todo, tendremos que crear la red docker-network:
docker network create docker-network
Si necesitas instalar Docker puedes seguir este tutorial: https://devcodelight.com/desplegar-servidor-web-apache-con-docker-compose/
También podemos activar el plugin de docker para enviar todos los logs de nuestros contenedores a loki.
docker plugin install grafana/loki-docker-driver:latest --alias loki --grant-all-permissions
Si tenemos ARM64 el plugin fallará, tendremos que seguir estos pasos: https://devcodelight.com/instalar-plugin-loki-para-docker-en-arm64/
Para utilizar este plugin, tendremos que añadir esta configuración a nuestro contenedor:
logging:
driver: loki
options:
loki-url: "http://loki:3100/loki/api/v1/push"
loki-retries: "1"
loki-batch-size: "102400"
loki-external-labels: "container_name={{.Name}}"
Una vez ejecutado todo el conjunto de docker-compose.yml podremos acceder a la página de grafana.
Tendremos que crear un nombre de usuario y contraseña.
Por defecto son:
Usuario: admin
Contraseña: admin
Una vez dentro, vamos a configurar los logs, para ello vamos a ajustes:

Y seleccionamos, configuración > orígenes de datos (o data source)

Buscamos loki y lo añadimos indicando como url la siguiente: http://loki:3100
Ahora ya podemos obtener los logs. Para ello vamos a explorar:

Seleccionamos Loki:

Y buscamos el label que queremos consultar.

Aparecen dos tipos, filename o job. Si seleccionamos Job, en select value aparecerán los nombres de los jobs que hemos creado anteriormente. Cuando tengamos elegido el que queremos, pulsamos en Run Query

Y ya podemos ver los logs creados:

Si elegimos filename, podremos seleccionar cualquier log.

Ingeniero en Informática, Investigador, me encanta crear cosas o arreglarlas y darles una nueva vida. Escritor y poeta. Más de 20 APPs publicadas y un libro en Amazon.