Мониторинг¶
В данном разделе приведена информация о мониторинге запущенного кластера Picodata.
Мониторинг состояния кластера возможен после подключения к кластеру в консоли. После этого можно использовать команды, показывающие состояние raft-группы, отдельных инстансов, собранных из них репликасетов и т.д.
Получение лидера raft-группы¶
Узнать лидера raft-группы, а также ID и статус текущего инстанса:
pico.raft_status()
Пример вывода:
---
- term: 2
leader_id: 1
raft_state: Leader
id: 1
...
Получение состава raft-группы¶
Просмотр состава raft-группы и данных инстансов:
box.space._pico_instance:fselect()
Пример вывода:
---
- - +-----------+--------------------------------------+-------+-------------+--------------------------------------+-------------+------------+--------------+
- |instance_id| instance_uuid |raft_id|replicaset_id| replicaset_uuid |current_state|target_state|failure_domain|
- +-----------+--------------------------------------+-------+-------------+--------------------------------------+-------------+------------+--------------+
- | "i1" |"68d4a766-4144-3248-aeb4-e212356716e4"| 1 | "r1" |"e0df68c5-e7f9-395f-86b3-30ad9e1b7b07"|["Online",1] |["Online",1]| {} |
- | "i2" |"24c4ac5f-4981-3441-879c-aee1edb608a6"| 2 | "r1" |"e0df68c5-e7f9-395f-86b3-30ad9e1b7b07"|["Online",1] |["Online",1]| {} |
- | "i3" |"5d7a7353-3e82-30fd-af0d-261436544389"| 3 | "r2" |"eff4449e-feb2-3d73-87bc-75807cb23191"|["Online",1] |["Online",1]| {} |
- | "i4" |"826cbe5e-6979-3191-9e22-e39deef142f0"| 4 | "r2" |"eff4449e-feb2-3d73-87bc-75807cb23191"|["Online",1] |["Online",1]| {} |
- +-----------+--------------------------------------+-------+-------------+--------------------------------------+-------------+------------+--------------+
...
Можно отдельно посмотреть список репликасетов, их UUID и вес:
box.space._pico_replicaset:fselect()
Пример вывода:
---
- — +-------------+--------------------------------------+---------+------+
- |replicaset_id| replicaset_uuid |master_id|weight|
- +-------------+--------------------------------------+---------+------+
- | "r1" |"e0df68c5-e7f9-395f-86b3-30ad9e1b7b07"| "i1" | 1 |
- | "r2" |"eff4449e-feb2-3d73-87bc-75807cb23191"| "i3" | 1 |
- +-------------+--------------------------------------+---------+------+
...
Таблицы выше позволяют узнать текущий и целевой уровень (state)
каждого инстанса, а также вес (weight
) репликасета. Уровни отражают
конфигурацию остальных инстансов относительно текущего, а вес
репликасета — его наполненность репликами согласно фактору репликации
(см. подробнее). Вес
репликасета определяет его
приоритет при распределении бакетов с данными.
Получение версии схемы данных¶
Узнать текущую версию схему данных можно с помощью команды:
box.space._pico_property:get("current_schema_version")
---
- ['current_schema_version', 1]
...
Каждое изменение схемы данных в кластере приводит к увеличению этого номера.
Просмотр отладочного журнала¶
Способ просмотра отладочного журнала инстансов зависит от того, как был запущен кластер Picodata.
Если при запуске инстанса командой picodata run
в консоли не был явно
указан способ вывода отладочного журнала, то он выводится в ту же
консоль.
Если кластер развернут при помощи скриптов инстансов и файла
конфигурации, то в них вывод отладочного журнала может быть настроен в
файл или в службу syslog
. Этим поведением управляет параметр
конфигурации instance.log.destination.
При развертывании кластера через Ansible отладочный журнал по умолчанию
выводится в службу syslog
.
Для доступа к отладочному журналу:
- при выводе в файл используйте команду
tail -f
или любой другой инструмент просмотра файлов - при выводе журнала в
syslog
используйте командуjournalctl
При использовании службы syslog
для просмотра журнала конкретного
инстанса вам понадобится знать имя его сервиса. При развертывании через
Ansible оно по умолчанию формируется как
<cluster_id>@<instance_id>.service
. Например, для кластера с именем
test
и инстанса default-1000
команда для просмотра отладочного
журнала будет такой:
journalctl -u test@default-1000.service
Пример вывода:
systemd[1]: Starting Picodata cluster test@default-1000...
systemd[1]: Started Picodata cluster test@default-1000.
picodata[4731]: 'cluster.cluster_id': "test"
picodata[4731]: 'cluster.tier': {"default": {"replication_factor": 3, "can_vote": true}}
picodata[4731]: 'cluster.default_replication_factor': 1
picodata[4731]: 'instance.data_dir': "/var/lib/picodata/test/default-1000"
picodata[4731]: 'instance.instance_id': "default-1000"
picodata[4731]: 'instance.listen': "0.0.0.0:13301"
picodata[4731]: 'instance.http_listen': "0.0.0.0:18001"
picodata[4731]: 'instance.admin_socket': "/var/run/picodata/test/default-1000.sock"
picodata[4731]: [supervisor:4731] running StartDiscover
picodata[4733]: entering discovery phase
...
Журнал raft-лидера¶
Отладочный журнал raft-лидера представляет особый интерес при диагностике неполадок в кластере т.к. содержит важную информацию об изменениях, происходящих с конфигурацией и топологией. Raft-лидером в каждый момент времени является только один инстанс в кластере и именно он управляет остальными. Для доступа к отладочному журналу raft-лидера выполните следующие шаги.
Вычислите raft-лидера в кластере. Для этого подключитесь к административной консоли любого инстанса:
picodata admin ./admin.sock
Переключите язык ввода на Lua и узнайте идентификатор текущего raft-лидера:
\lua
pico.raft_status()
Пример вывода:
---
- main_loop_status: idle
leader_id: 2
id: 1
term: 30
raft_state: Follower
...
C помощью полученного leader_id
выясните адрес сервера, на котором
запущен этот инстанс:
\sql
SELECT "instance_id", "_pico_instance"."raft_id", "_pico_peer_address"."address"
FROM "_pico_instance" JOIN "_pico_peer_address"
ON "_pico_peer_address"."raft_id"="_pico_instance"."raft_id"
WHERE "_pico_instance"."raft_id" = 2 ;
Пример вывода:
+-----------------------+---------+--------------------+
| instance_id | raft_id | address |
+======================================================+
| "default-2000" | 2 | "192.168.0.2:3301" |
+-----------------------+---------+--------------------+
(1 rows)
Дальнейшие шаги зависят от варианта запуска. При развертывании кластера
через Ansible потребуется подключиться к серверу по ssh и открыть
диагностический журнал через journalctl
, см. Просмотр отладочного
журнала.
Метрики инстанса¶
Функциональность сбора метрик позволяет получать параметры работы СУБД из инстанса Picodata и предоставлять доступ к ним для внешних систем в формате Prometheus.
Включение сбора метрик¶
Модуль сбора метрик автоматически включается при использовании
встроенного HTTP-сервера в Picodata. Для этого нужно при запуске
инстанса использовать параметр --http-listen
и задать адрес
веб-сервера. Например:
picodata run --http-listen '127.0.0.1:8081'
Получение метрик¶
Метрики инстанса Picodata можно получить в консоли, используя curl
:
curl --location 'http://127.0.0.1:8081/metrics'
Настройка Prometheus¶
Для интеграции Picodata с системой мониторинга событий и оповещений
Prometheus настройте новую цель в файле
/etc/prometheus/prometheus.yml
:
global:
scrape_interval: 10s
scrape_configs:
- job_name: 'prometheus'
scrape_interval: 5s
static_configs:
- targets: ['127.0.0.1:9090']
- job_name: 'picodata'
scrape_interval: 5s
metrics_path: /metrics
static_configs:
- targets: ['127.0.0.1:8081']
В приведенном примере:
127.0.0.1:9090
— адрес, с которого Prometheus будет отдавать метрики127.0.0.1:8081
— адрес, с которого Prometheus собирает метрики (должен соответствовать параметру--http-listen
при запуске инстанса Picodata)
Под каждый инстанс Picodata нужно выделять отдельный адрес сбора метрик. Например, если локально запустить 4 инстанса Picodata, то файл конфигурации Prometheus может выглядеть так:
global:
scrape_interval: 10s
scrape_configs:
- job_name: 'prometheus'
scrape_interval: 5s
static_configs:
- targets: ['127.0.0.1:9090']
- job_name: 'picodata'
scrape_interval: 5s
metrics_path: /metrics
static_configs:
- targets: ['127.0.0.1:8081', '127.0.0.1:8082', '127.0.0.1:8083', '127.0.0.1:8084']
Настройка Grafana¶
Собранные в Prometheus метрики можно удобно просматривать в веб-интерфейсе Grafana. Для этого выполните следующие шаги.
1. Убедитесь, что в настройках подключений в Grafana (Connections
>
Data sources
) имеется источник данных Prometheus:
2. Импортируйте dashboard с данными Picodata. Для этого понадобится файл
Picodata.json, который следует добавить в меню Dashboards
> New
> Import
:
После этого в Grafana можно будет оперативно отслеживать состояние инстансов, потребляемую память, нагрузку на сеть, изменения в составе кластера и прочие параметры: