WebMoney: WMZ Z294115950220 WMR R409981405661 WME E134003968233 |
Visa 4274 3200 2453 6495 |
Никогда не используйте эти команды на рабочем
NDB Cluster, кроме как под специальным руководством технической поддержки
MySQL. Oracle НЕ
будет считаться ответственной за неблагоприятные результаты, являющиеся
результатом их использования ни при каких других обстоятельствах! Команды Они предназначаются только для использования при поиске
неисправностей, отладке и подобных действиях разработчиками MySQL,
QA и персоналом поддержки. Из-за пути, которым команды Форматы, аргументы и даже доступность этих команд не будут стабильны.
Вся эта информация подвержена изменениям в любое
время без предшествующего уведомления. По предыдущим причинам команды Общий синтаксис: Это вызывает сброс в журнал содержания одного или больше регистров
Отдельные команды Каждый листинг включает следующую информацию: Значение code. Соответствующий Кодовый символ Типовой вывод, если не указано иное, предполагается что каждая команда
Обычно это от журнала кластера, в некоторых случаях, где вывод может быть
произведен в журнал узла вместо него, это обозначается. Где команда DUMP
производит ошибки, вывод обычно берется из журнала ошибок. Где применимо, дополнительная информация, такая как возможные
дополнительные параметры,
предупреждения, статус или другие значения, возвращенные
Коды команд Нет также никакой гарантии что данный код
Для получения информации относительно других команд клиента
ndb_mgm
посмотрите Commands in the NDB Cluster Management Client. Коды 3000 - 5000 6000 - 7000 13000 и выше. 1 Описание. Информация о переменных фазы 1 запуска (см.
раздел 5.4). Пример вывода. Дополнительно. [N/A] Описание. Сбрасывает счетчик сигналов и информацию фазы запуска. Пример вывода. Дополнительно. [N/A] Описание. Пишет свободное место в
Пример вывода. Дополнительно. [N/A] Описание. Пишет данные из
Пример вывода. Дополнительно. [N/A] 16 Описание. Предоставляет информацию о перезапуске узла. Пример вывода. Дополнительно. [N/A] 17 Описание. Пишет статус узла. Пример вывода. Дополнительно. Возможные значения статуса узла
показывают в следующей таблице: Таблица 2.1. Значения статуса узла и имена 18 Описание. Печатает одну запись на фрагмент таблицы:
перечисляет номер таблицы, номер фрагмента, ID части журнала и ID узлов,
обращающихся с основными и вторичными фрагментами точной копии
этого фрагмента. Должен быть вызван как
Пример вывода. Дополнительно. [N/A] 19 Описание. Должен напечатать информацию об одном фрагменте, но на
самом деле вызывает сбой узла. 20 Описание. Печатает значения
Пример вывода. Дополнительно. Эта команда может также использоваться, чтобы
установить эти параметры, как в этом примере:
...
Необходимо установить каждый из этих параметров к тому же самому
значению на всех узлах, иначе последующий вызов
21 Описание. Посылает сигнал
Пример вывода. Дополнительно. [N/A] 22 backup_id Описание. Посылает узлу сигнал
Пример вывода. Дополнительно. Кажется, что любой
вызов 23 Описание. Сбрасывает в дамп все резервные отчеты и записи файла,
принадлежащие тем отчетам. Пример показывает только единственный отчет с единственным файлом, но
могут быть многочисленные отчеты и многократные файлы в
рамках каждого отчета. Пример вывода. Без происходящей резервной копии
( В то время, как резервная копия происходит
( Дополнительно. Возможные значения
Таблица 2.2. Значения State
и описание каждого статуса. Типы показывают в следующей таблице: Таблица 2.3. Значения типа файла и имена Флаги показывают в следующей таблице: Таблица 2.4. Флаговые значения и имена 24 Описание. Печатает информацию пула резервных записей. Пример вывода. Дополнительно.
Если 25 Описание. Уничтожает узел данных или узлы. Пример вывода. Дополнительно. [N/A] 70 Описание. Закрытие узла данных принудительно. Пример вывода. Дополнительно. [N/A] 400 Описание. Обеспечивает статистику файловой системы
Пример вывода. Дополнительно. [N/A] 401 Описание. Печатает дескрипторы файлов файловой системы
Пример вывода. Дополнительно. [N/A] 402 Описание. Список открытых файлов файловой системы
Пример вывода. Дополнительно. [N/A] 403 Описание. Список простаивающих дескрипторов файлов файловой системы
Пример вывода. Дополнительно. [N/A] 406 Описание. Включает информацию
Пример вывода. Дополнительно.
Добавлено в NDB 7.5.14, 7.6.10 и 8.0.16 (Bug #28922609). 502 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 503 Описание. Устанавливает
Устанавливает Пример вывода. Дополнительно. [N/A] 504 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 505 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 506 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] Описание. Пишет информацию о синхронизациях в журналы
узла данных. Полезно вместе с параметром
Пример вывода. Дополнительно. [N/A] 935 Описание. Unknown. Пример вывода.
...
Дополнительно. [N/A] Описание. Печатает использование памяти узла данных
(
Пример вывода. Когда вызвано как Дополнительно. Можно также использовать в
ndb_mgm
клиентскую команду
1001 Описание. Когда установлено, пишет дамп использования ресурсов при
отказе ассигновать требуемые ресурсы. Начиная с NDB 7.6.15 и NDB 8.0.21,
это также распечатывает внутреннее состояние менеджера страничной
памяти узла данных. Пример вывода. Дополнительно. [N/A] 1223 Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже
это не имеет никакого эффекта. Пример вывода. Дополнительно. [N/A] 1224 Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже
это не имеет никакого эффекта. Пример вывода. Дополнительно. [N/A] 1225 Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже
это не имеет никакого эффекта. Пример вывода. Дополнительно. [N/A] 1226 Описание. Печатает пул объектов в журнал кластера. Пример вывода. Дополнительно. [N/A] 1228 Описание. Сбрасывает в дамп содержание внутреннего словаря очереди
блокировок Пример вывода. Дополнительно. [N/A] 1229 Описание. Показывает статус очереди
Пример вывода. Дополнительно. Полная отладочная информация требует, чтобы
соответствующие узлы данных формировались с
Добавлено в NDB 7.4.12 и NDB 7.5.2 (Bug #20368450). 1332 Описание. Печатает статус всех таблиц, известных обработчику
локального запроса (
Пример вывода. Дополнительно. [N/A] 1333 Описание. Сообщает использование буферов журнала отката. Пример вывода. Дополнительно. Буфер журнала отката измерен в страницах по 32 КБ,
таким образом, типовой вывод может интерпретироваться следующим образом: Общий размер буфера журнала отката.
1024 * 32K = 32MB
Свободный буфер журнала отката.
960 * 32KB = ~31,457KB = ~30MB
Буфер журнала отката используется.
(1024 - 960) * 32K = 2,097KB = ~2MB
2300 Описание. Печатает указанный отчет просмотра. Синтаксис:
Пример вывода. Дополнительно. [N/A] 2301 Описание. Сбрасывает дамп всех записей
просмотра в журнал кластера. Пример вывода. Только первые несколько отчетов просмотра,
напечатанных для единственного узла данных, показаны здесь. Дополнительно. Этот код Первая строка обеспечивает общее количество отчетов просмотра для
этого узла данных. 2302 Описание. Только активный просмотр делает запись с этого узла. Пример вывода. Дополнительно. Первая строка в каждом блоке вывода содержит общее
количество (активных и бездействующих) отчетов просмотра. Если ничто иное не
написано в журнал, то никакие отчеты просмотра в настоящее
время не активны. 2303 Описание. Статус местной контрольной точки с точки зрения
экземпляра блока DBLQH. Эта команда также выводит статус записи просмотра единственного фрагмента,
зарезервированного для этого LCP. Пример вывода. Дополнительно. [N/A] 2304 Описание. Эта команда заставляет все фрагменты файлов журнала и их
статусы быть написанными в файл узла данных (в случае узла данных, имеющего
ID узла Пример вывода. Следующее взято из
Дополнительно. Следующие 2 таблицы предоставляют информацию о кодах
состояния изменения файла и кодах статусов файла журнала, как
показано в предыдущем примере. Таблица 2.5. Коды FileChangeState Таблица 2.6. Коды LogFileStatus со статусом
файла журнала и описаниями Больше информации о том, как эти коды
определяются, может быть найдено в исходном файле
2305 Описание. Показывает состояния всех файлов журнала фрагмента (см.
раздел 2.42), затем падает узел. Пример вывода. Дополнительно. [N/A] 2308 Описание. Уничтожает узел. Пример вывода. Дополнительно. [N/A] 2315 Описание. [Unknown] Пример вывода. [N/A] Дополнительно. [N/A] data_node_id 2350 operation_filters Описание. Определяются все операции на узле данных,
согласно типу и другим параметрам, определенным операционным фильтром. Пример вывода. Показать все операции на узле данных 2
от узла API 5: Дополнительно. Информация об операционном фильтре и операционных
значениях состояния следует. Операционные значения фильтра. Операционный фильтр (или фильтры) могут
взять следующие значения: Таблица 2.7. Значения фильтра В каждом случае ID определенного объекта следует за спецификатором.
Посмотрите типовой вывод для примеров. Операционные состояния. Нормальные
состояния, которые могут появиться в выводе этой
команды, перечисляются здесь: Transactions: Scan operations: Primary key operations: Отношение к NDB API. Возможно соответствовать выводу
Предположим, что вы работаете с экземпляром
Вывод от предыдущей строки кода: Верхние 16 битов показанного значения соответствуют числу в круглых
скобках от строки node_id 2352 operation_id Описание. Получает информацию об операции с данным ID. Пример вывода. Во-первых, получите дамп операций.
Здесь мы используем
В этом случае есть единственная операция, о которой сообщают относительно
узла 2, чей ID = Следующее написано в журнал кластера: Дополнительно. Надо использовать
2353 Описание. Пишет информацию об использовании пула LQH. Пример вывода. Дополнительно. [N/A] 2354 Описание. Пишет данный фрагмент просмотра
от указанного экземпляра. Синтаксис: Здесь recordno номер записи фрагмента просмотра,
Пример вывода. Дополнительно.
Этот код 2355 Описание. Используемый, чтобы проверить чистое отключение сигнала
при сбое узла. 2356 Описание. Используемый, чтобы установить максимальный размер для
определяемого переходного пула памяти. Синтаксис:
Дополнительно. Добавлено в NDB 8.0.19
(Bug #30265415, Bug #96757). 2357 Описание. Переустанавливает данный пул памяти к его размеру по
умолчанию. Синтаксис: Дополнительно. Добавлено в NDB 8.0.19
(Bug #30265415, Bug #96757). node_id 2398 Описание. Информация о свободном пространстве в файлах части
регистрации для узла данных с ID узла node_id. Дамп написан в журнал узла
данных, а не кластера. Пример вывода. Как написано в
Дополнительно. Каждая строка вывода имеет следующий формат
(показанный здесь разделен на две строки для читаемости): Журнал отката узла данных разделен на четыре части; таким образом,
part_no всегда число между 0 и 3 включительно. Части сохранены в файловой
системе узла данных как каталоги
start_file_no указывает на номер файла, start_pos это пункт в этом файле,
в котором начинается журнал отката, для примера, part_no = 0 означает, что
журнал отката начинается на уровне приблизительно 12 МБ с конца файла
Точно так же end_file_no соответствует номеру файла, а end_pos это
пункту в том файле, где журнал отката заканчивается. Таким образом, в
предыдущем примере, конечная точка журнала отката это приблизительно 10 МБ от
конца total_space показывает общую сумму места, зарезервированного для части
part_no журнала отката. Это равно
Не рекомендуется выполнять node_id 2399 Описание. Так же, как
Пример вывода. Записано в журнал кластера: Дополнительно. Каждая строка вывода использует следующий формат: timestamp показывает, когда команда была выполнена узлом данных node_id.
Журнал отката узла данных разделен на четыре части. Часть обозначается как
part_no (всегда содержит число между 0 и 3). Части сохранены в каталогах
файловой системы узла данных, названных start_file_no указывает на номер файла, start_pos это пункт в этом файле,
в котором начинается журнал отката, для примера, part_no = 0 означает, что
журнал отката начинается на уровне приблизительно 12 МБ от конца файла
Точно так же end_file_no соответствует номеру файла, а end_pos это
пункт в том файле, где журнал отката заканчивается. Таким образом, в
предыдущем примере конечная точка журнала отката находится приблизительно в
10 МБ от конца total_space показывает общую сумму места, зарезервированного для части
part_no журнала отката. Это равно
2400 record_id Описание. Выводит отчет просмотра, имеющий ID записи record_id. Пример вывода. После Дополнительно. Для дампа всех отчетов просмотра посмотрите
раздел 2.56. 2401 Описание. Дампа всех записей просмотра для определенного узла. Пример вывода. Дополнительно. Используйте эту команду с осторожностью, поскольку
может быть очень много просмотров. Если вы хотите сдампить единственную
запись просмотра, учитывая ее ID, см.
раздел 2.55, для дампа
всех активных записей просмотра посмотрите
раздел 2.57. 2402 Описание. Выводит все активные записи просмотра. Пример вывода. Подобно выводу для DUMP 2400 и DUMP 2401. См.
раздел 2.56. Дополнительно. Чтобы вывести все записи просмотра (активные или
нет), посмотрите раздел 2.56. 2403 record_id Описание. Выводит данный операционный отчет, учитывая его ID.
Никакие аргументы кроме этого (ID узла или
Пример вывода.
(For Дополнительно. [N/A] 2404 Описание. Выводит количество операционных отчетов (общее и
свободное количество в журнал кластера. Пример вывода. Дополнительно. Общее количество операционных отчетов определяется
набором значений для параметра
2405 Описание. Вывод отсутствует, если эту команду вызывают без
дополнительных аргументов, если дополнительный аргумент используется, эта
команда роняет узел данных. Пример вывода.
(для Дополнительно. [N/A] 2406 Описание. Вывод отсутствует, если эту команду вызывают без
дополнительных аргументов, если дополнительный аргумент используется, эта
команда роняет узел данных. Пример вывода.
(для Дополнительно. [N/A] В NDB Cluster 7.4 и позже этот код 2500 Описание. Этот код Это печатает numrecords записей из dbtcinst, экземпляра
Пример вывода. Дополнительно. [N/A] До NDB Cluster 7.4 этот код 2500 Описание. Уничтожает узел данных. Пример вывода. 2501 Описание. Вывод отсутствует, если эту команду вызывают без
дополнительных аргументов, если дополнительный аргумент используется, эта
команда роняет узел данных. Пример вывода.
(для Дополнительно. [N/A] В NDB Cluster 7.4 и позже этот код может использоваться, чтобы напечатать
ряд отчетов просмотра для данного экземпляра блока
2502 Описание. Синтаксис команды: Это печатает numrecords записей просмотра из экземпляра
NDB Cluster 7.3 и ранее: 2502 Описание. Выводит все отчеты просмотра, хранимые блоками TC. Пример вывода. Дополнительно. [N/A] Эта команда 2503 Описание. Дамп всех активных записей просмотра. Пример вывода. Дополнительно. [N/A] 2504 record_id Описание. Выводит единственный отчет просмотра, имеющий ID
record_id. Для дампинга всех отчетов просмотра посмотрите
раздел 2.64. Пример вывода.
(для Дополнительно. Признаки в выводе этой команды
описаны следующим образом: ScanRecord. Номер слота отчета просмотра (то же самое,
как record_id). state. Одно из значений ( Таблица 2.8. Значение ScanState 2505 Описание. Печатает запись связи API recordno из экземпляра
instanceno с использованием синтаксиса, показанного здесь: Пример вывода. Дополнительно. Добавлено в NDB 7.4.1. Эта команда 2506 Описание. [Unknown] Пример вывода. Дополнительно. Если настройки по умолчанию будут использоваться,
вывод этой команды, вероятно, превысит максимальный размер файла журнала. 2507 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 2508 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 2512 delay Описание. Выводит значение
Пример вывода. (Один отчет:) Дополнительно. Кажется, нет никакого способа отключить повторную
проверку 2513 Описание. Выводит значение
Пример вывода. Дополнительно. В отличие от непрерывной проверки, сделанной
2514 Описание. Предоставляет информационные счетчики для
каждого узла API. Синтаксис для этой команды показывают здесь: Эта команда берет номер экземпляра
Пример вывода. Общее количество ассигнованных отчетов зависит от количества
транзакций и многих других факторов, значение
Дополнительно. Есть два возможных статуса
для каждого отчета, перечисленные здесь: Available:
В пуле узла данных, не захваченном любым узлом API. Seized:
Зарезервирован из пула узла данных конкретным API. Захваченные узлы далее быть разделены на многие категории или подстатусы,
как показано в следующем списке: Ready:
Захваченный, готовый к употреблению, может быть вычислен для API как
#seized - (#stateless + #stateful + #scan). Stateless:
Запись в последний раз использовалась для транзакции
'stateless' и эффективно готова. Stateful:
Запись используется транзакцией. Scan:
Запись используется для просмотра (таблица или упорядоченный индекс).
2515 Описание. Выводит диапазон записей связи API. Синтаксис как
показано здесь, где recordno номер первой записи, numrecords число записей,
instanceno номер экземпляра блока: Рекомендуется не напечатать больше 10 записей за раз, используя этот код
Пример вывода. Дополнительно. Добавлено в NDB 7.4.1. 2516 Описание. Печатает запись связи TC recordno экземпляра
instanceno с помоью синтаксиса: Чтобы напечатать ряд таких записей, надо использовать
Пример вывода. Дополнительно. Добавлено в NDB 7.4.1. 2517 Описание. Печатает диапазон отчетов связи TC. Синтаксис как показан
здесь, где recordno номер первого отчета, numrecords количество выводимых
записей, instanceno номер экземпляра блока: Рекомендуется не печатать больше 10 отчетов за раз, используя
using Пример вывода. Дополнительно. Добавлено в NDB 7.4.1. data_node_id 2550 transaction_filters Описание. Дамп всех транзакций узла данных data_node_id,
удовлетворяющих условиям, установленным операционным
фильтром или фильтрами. Пример вывода. Дамп всех транзакций узла 2,
которые были бездействующими в течение 30 секунд или дольше: Дополнительно. Следующие значения могут использоваться для
операционных фильтров. Значение filter должно сопровождаться одним или более
ID узлов или в случае последней записи в таблице временем в секундах, которое
транзакции были бездействующими: Таблица 2.9. Значения filter с описаниями 2553 Описание. Сохраняет снимок от
Пример вывода. Дополнительно. [N/A] 2554 Описание. Проверяет снимок, взятый
Пример вывода. Дополнительно. [N/A] 2555 Описание. Печатает уровни пула в журнал кластера. Пример вывода. Дополнительно. Добавлено в NDB 7.4.1. 2556 Описание. Задает максимальный размер для пула
процесса координатора транзакций. Пример вывода. Дополнительно. См. 2557 Описание. Сбрасывает максимальный размер для пула
процесса координатора транзакций. Пример вывода. Дополнительно. См. 2600 Описание. Показывает статус связей между всеми узлами.
Когда кластер работает обычно, у каждой связи есть тот же самый статус. Пример вывода. Дополнительно. Сообщение 2601 Описание. [Unknown] Пример вывода. Дополнительно. [N/A] 2602 Описание. Устанавливает
Пример вывода. Дополнительно. См. описание параметра узла данных
для возможных значений. 2603 test_type no_of_loops Описание. Используемый в тестировании, посмотрите
Пример вывода. Дополнительно. [N/A] 2604 Описание. Подписки текущего события. Вывод написан в
Пример вывода. Дополнительно. Вывод перечисляет все подписки событий, для каждой
подписки печатаются строка заголовка и список категорий с их текущими
уровнями регистрации. Следующая информация включена: 2605 Описание. Долго сигнализирует, тестируя триггер. Пример вывода. Дополнительно. [N/A] 2606 Описание. См.
Пример вывода. Дополнительно. Вызов этой команды с недействительными аргументами
может заставить все узлы данных закрыться. 2607 Описание. См.
Пример вывода. Дополнительно. [N/A] 2608 Описание. См.
Пример вывода. Дополнительно. [N/A] 2609 Описание. См.
Пример вывода. Дополнительно. [N/A] 2610 Описание. Активирует или дезактивирует контрольный модуль, который
на следующем предупреждении после активации закрывает узел данных.
Это обеспечивает регистрацию трассировки, которая включает трассировки
сигнала, если процесс узла был начат с опцией
Синтаксис: Пример вывода. Client: Журнал узла: Дополнительно. Добавлено в NDB 7.3.7 (Bug #18703922). 2611 Описание. См.
Пример вывода. Дополнительно. [N/A] 2612 Описание. Пишет список владельцев памяти сигналов в журнал
узла данных. Пример вывода. Дополнительно. [N/A] Описание. Сохраняет потребление ресурсов. Пример вывода. Дополнительно. [N/A] Описание. Проверка, совпадает ли текущее потребление ресурсов с
сохраненным в
Пример вывода. Дополнительно. [N/A] 5900 Описание. Пытается продолжить местную контрольную точку, которая
потерпела неудачу из-за ошибки. Пример вывода. Дополнительно. [N/A] 7000 Описание. Информация о состоянии глобальной контрольной точки. Пример вывода. Дополнительно. [N/A] 7001 Описание. Информация о состоянии локальной контрольной точки. Пример вывода. Дополнительно. [N/A] 7002 Описание. Показывает таблицу состояний
во время глобальной контрольной точки. Пример вывода. Дополнительно. [N/A] 7003 Описание. Показывает состояние первого живого узла после поглощения
узла во время глобальной контрольной точки. Пример вывода. Дополнительно. [N/A] 7004 Описание. Показывает состояние ведущего
во время глобальной контрольной точки. Пример вывода. Дополнительно. [N/A] 7005 Описание. Получает глобальные положения начала контрольной точки
для одного или более узлов данных. Пример вывода. Дополнительно. [N/A] 7006 Описание. Выводит начальную информацию ведущего
для поглощения узла. Пример вывода. Дополнительно. [N/A] 7007 Описание. Получает информацию для неудавшегося главного узла во
время поглощения узла. Пример вывода. Дополнительно. [N/A] 7008 Описание. Информация о неудавшихся узлах во время поглощения. Пример вывода. Дополнительно. [N/A] 7009 Описание. Получает информацию о последней восстанавливаемой
глобальной контрольной точке. Пример вывода. Дополнительно. [N/A] 7010 Описание. Передает информацию о блоке. Пример вывода. Дополнительно. [N/A] 7011 Описание. Вывод информации о контрольной
точке и других сообщений. Пример вывода. Дополнительно. [N/A] 7012 Описание. Пишет местную диагностику контрольной
точки в журнал кластера. Пример вывода. Дополнительно. [N/A] 7013 Описание. Предоставляет основную диагностическую информацию
относительно состояния местной контрольной точки. Пример вывода. Дополнительно. [N/A] 7014 Описание. Предоставляет информацию о
состоянии поглощения владельца локальной контрольной точки. Пример вывода. Дополнительно. [N/A] 7015 Описание. Пишет вывод статуса фрагмента таблицы для таблиц
Типовой вызов/вывод. Вызов этой команды, используя необязательный
аргумент ID таблицы, дает следующий вывод в клиенте управления: Это заставляет пропустить таблицы с 1 по 5 в выводе, написанном в
журнал кластера, как показано здесь: Дополнительно. Вывод 7016 Описание. [Unknown] Пример вывода. Дополнительно. [N/A] 7017 Описание. Устанавливает промежуток между местными контрольными
точками как количество 4-байтовых слов. Пример вывода. Дополнительно. См. описание параметра узла данных
7018 Описание. Устанавливает время, позволенное между местными
контрольными точками, в его максимальное значение (31). Пример вывода. Дополнительно. См. описание параметра узла данных
Описание. Пишет представление распределенного блока данных об
обработке неудачи узла для неудавшегося узла (данного его ID узла) в журнал
кластера. Выполните как Пример вывода. Дополнительно. [N/A] 7020 Описание. Эта команда обеспечивает общую функциональность инъекции
сигнала. Два дополнительных аргумента всегда требуются: Номер сигнала, который пошлют. Номер блока, в который нужно послать сигнал. Кроме того, некоторые сигналы разрешают или требуют, чтобы дополнительные
данные были посланы. Пример вывода. Дополнительно. [N/A] 7021 Описание. Пишет информацию о статусе фрагмента таблицы для одной
таблицы Таблица, чтобы получить информацию, определяется ID таблицы.
Можно найти ID для данной таблицы в выводе
ndb_show_tables
: Пример вызова и вывода. Используя ID для таблицы
Это пишет следующий вывод в журнал кластера: Дополнительно. Больше информации о каждой из областей, написанных
Информация о фрагменте таблицы также предоставляется для каждого узла.
Это подобно тому, что показано здесь: Узел и фрагмент определяются по их ID.
replica_id, node_id и lcp_id это ID, соответственно,
точной копии фрагмента, узла и местной контрольной точки.
status всегда одно из 7022 Описание. Закрытие кластера в случае остановки GCP. Пример вывода. Дополнительно. [N/A] 7023 Описание. Выводит все активные поглощения. Пример вывода. Дополнительно. [N/A] 7024 Описание. Проверяет, была ли очищена добавленная неудача фрагмента.
Может вызвать сбой узла, поэтому сильно не рекомендуемуется
для использования в производстве. Пример вывода. Дополнительно. Добавлено в NDB 7.3.6 (Bug #18550318). 7026 Описание. Позволяет устанавливать порог остановки GCP. Пример вывода. Дополнительно. [N/A] 7027 Описание. Местная контрольная точка, чтобы остановиться.
Используемый для тестирования проблем LCP. Использование. Эта команда требует дополнительного аргумента
Чтобы очистить остановку и возобновить нормальное функционирование,
вызовите Дополнительно.
Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26661468). 7032 Описание. Дамп всей информации страничных записей. Пример вывода. Дополнительно. [N/A] 7033 Описание. Выводит количество фрагментов на одном или более узлах
данных. Никакие аргументы кроме ID узла не используются. Пример вывода. Вывод Дополнительно. Добавлено в NDB 7.4.1. 7034 Описание. Пишет информацию о любой поставленной на
паузу местной контрольной точке в журнал кластера. Пример вывода. Дополнительно. [N/A] Описание. Местная контрольная точка, которая будет выполнена. Пример вывода. Дополнительно. [N/A] 7090 Описание. Устанавливает время между глобальными контрольными
точками к конкретному количеству миллисекунд. Без аргумента устанавливает
этот интервал в значение
Пример вывода. Дополнительно. [N/A] 7099 Описание. Может использоваться, чтобы вызвать LCP вручную. Пример вывода. В этом примере узел 2 является главным узлом и
управляет синхронизацией LCP/GCP для группы. Независимо от node_id
только главный узел отвечает: Дополнительно. Вы, возможно, должны позволить более высокий уровень
регистрации, используя клиентскую команду
8004 Описание. Информация о подписных ресурсах. Пример вывода. Дополнительно. Когда 8005 Описание. [Unknown] Пример вывода. Дополнительно. [N/A] 8010 Описание. Пишет информацию обо всех подписчиках и связанных
узлах в журнал кластера. Пример вывода. В этом примере узел 1 является узлом управления,
узлы 2 и 3 являются узлами данных, узлы 4 и 5 являются узлами SQL (оба
работают как источники репликации). Для каждого узла данных эта команда Битовая маска узлов подписчика
( 8011 Описание. Пишет информацию обо всех подписчиках в кластере.
Используя эту информацию, необходимо иметь в виду, что у таблицы может быть
много подписок, а у подписки может быть больше, чем один подписчик. Вывод
Для каждой таблицы:
ID таблицы, версия и общее количество подписчиков. Для каждой подписки на данную таблицу
: ID подписки. Для каждого подписчика, принадлежащего
данной подписке: ID подписчика, ссылка на отправителя, данные
отправителя и ID подписки. Пример вывода. (Из журнала кластера:) 8013 Описание. Пишет всех отставших подписчиков в журнал кластера. Пример вывода. Этот пример показывает, что написано в журнал
кластера после выполнения Дополнительно. [N/A] 9800 Описание. УСТАРЕВШИЙ.
В NDB 7.3 и 7.4 это вызывает сбой узла данных, если Пример вывода. Дополнительно. [N/A] 9801 Описание. УСТАРЕВШИЙ.
Выводит страницу счетчиков для ID таблицы, файла, страницы и битов. В NDB 7.3
и 7.4 это вызывает сбой узла данных, если Пример вывода. Дополнительно. [N/A] 9988 Описание. Блокирует передачу в обозначенный узел данных. 9989 Описание. Разблокирует передачу в обозначенный узел данных. 10000 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 10001 Описание. [Unknown] Пример вывода. Дополнительно.
Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433). 10002 Описание. [Unknown] Пример вывода. Дополнительно.
Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433). 10003 Описание. [Unknown] Пример вывода. Дополнительно.
Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433). 11000 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 12001 Описание. [Unknown] Пример вывода. Дополнительно. [N/A] 12002 Описание. [Unknown] Пример вывода. Дополнительно. [N/A] 12009 Описание. Уничтожает узел данных. Пример вывода. Дополнительно. [N/A] 103003 Описание. Посылает команду node_id ID узла, на котором команда дается (как обычно).
other_node_id ID узла, где команда на самом деле выполняется.
dump_cmd_no номер команды Пример вывода.
Вывод зависит от команды, которую посылают. Дополнительно. Эта команда особенно полезна, потому что она может
использоваться, чтобы послать Добавлено в NDB 8.0.18. 103004 Описание. Регистрирует отправку сигнала
Аргументы описаны в следующем списке: node_id: ID узла, где команда выполняется. to_id: ID узла места назначения сигнала. from_id: ID узла происхождения сигнала. padding: дополнение размера. frag_size: размер фрагмента. sections: количество секций. length1[, length2][, ...]: длины каждой из секций. Пример вывода. Дополнительно. Добавлено в NDB 8.0.18. 103005 Описание. Посылает Аргументы описаны в следующем списке: node_id: ID узла, где команда выполняется. to_id: ID узла места назначения сигнала. from_id: ID узла происхождения сигнала. padding: дополнение размера. frag_size: размер фрагмента. sections: количество секций. length1[, length2][, ...]: длины каждой из секций. Пример вывода. Дополнительно. Добавлено в NDB 8.0.18. 13000 Описание. Печатает в журнал кластера счетчик резервных копий. Пример вывода. Дополнительно. [N/A] 130001 Описание. Информация о сжатых резервных копиях в журнал кластера. Пример вывода. Дополнительно. [N/A] 13002 Описание. Пишет информацию о сжатых местных контрольных
точках в журнал кластера. Пример вывода. Дополнительно. [N/A] 13003 Описание. Устанавливает резервную ошибку к указанному значению. Пример вывода. Дополнительно. [N/A] 14000 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 14001 Описание. Перечисляет таблицы в информационной базе данных
Пример вывода. Дополнительно. [N/A] 14002 Описание. Пишет список всех колонок всех таблиц
Таблица 2.10. Тип столбца DUMP 14002 Пример вывода. Дополнительно. [N/A] 14003 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 30000 Описание. Восстановить процесс, чтобы напечатать резюме работы. Пример вывода. Дополнительно. [N/A] 100000 Описание. Статус продолжающейся резервной копии. Эквивалент
Пример вывода. Дополнительно. [N/A] 100001 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 100002 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 100003 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 100004 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 100005 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 100006 Описание. Устанавливает
Пример вывода. Дополнительно. [N/A] 100007 Описание. В отладочных сборках отключает параметр узла данных
Пример вывода. Дополнительно. Добавлено в NDB 8.0.22. Не имеет никакого эффекта,
если 100999 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 101000 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 101999 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 102000 Описание. Пишет отчет в журнал кластера о статусе
инициализации файла журнала. Пример вывода. Дополнительно. [N/A] 102999 Описание. Определено, но пока не применяется. Пример вывода. Дополнительно. [N/A] 103000 Описание. Устанавливает параметр
Пример вывода. Дополнительно. [N/A] 103001 Описание. Позволяет уровень отладки в журнале узла. Пример вывода. Дополнительно. Эквивалентно
103002 Описание.
...
Пример вывода. Дополнительно. Эквивалентно
104000 Описание. Дополнительно. Добавлено в NDB 8.0.20. 104001 Описание. Дополнительно. Добавлено в NDB 8.0.20. 104002 Описание. Устанавливает, используя Это означает что overhead = 0 дает результат в
в 1.3 единицы процессорного времени, и что значение по умолчанию overhead =
70 дает результат в 1.3 + 70/100 = 2 единицы процессорного времени. В большинстве случаев вместо того, чтобы напрямую установить
Дополнительно. Добавлено в NDB 8.0.20. 104003 Описание. Дополнительно. Добавлено в NDB 8.0.20. 104004 Описание. Предоставление возможности адаптивной ротации означает, что параметры
настройки таймеров проверяются только чтобы видеть, установлен ли таймер в 0.
Установка таймера вращения к 0 (использованием
Адаптивная ротация начинается без ротации и проверок на ротацию
после 60 микросекунд, увеличивается, уменьшается или отключается таймер
для каждого потока блока независимо от любых других. В большинстве случаев вместо того, чтобы позволить или отключить
адаптивную ротацию непосредственно, используя команду
Дополнительно. Добавлено в NDB 8.0.20.
Глава 2. Команды DUMP клиента
управления NDB Cluster
DUMP
могут использоваться в
клиенте управления NDB
(ndb_mgm),
чтобы получить отладочную информацию. Они описаны здесь, а не в
MySQL Manual по следующим причинам:DUMP
взаимодействуют с памятью, они могут заставить управление NDB Cluster
работать со сбоями или даже полностью повиснуть, когда используются.DUMP
не предназначены для использования в производственной
среде конечными пользователями.
ndb_mgm> node_id DUMP code [arguments]
NDB
на узле с ID
node_id.
Затронутые регистры определяются значением
code. Некоторые (но не все) команды
DUMP
принимают дополнительные
параметры, они отмечены и описаны,
когда это применимо.DUMP
перечисляются по их
значению code ниже.NDB
ядерный блок
(см. главу 4).DUMP
, где определен, если
не определен, это обозначается используя тройную черту:
---
.DUMP
вызвана как показано здесь:
ndb_mgm>
2 DUMP code
DUMP
, показана. Иначе ее отсутствие обозначается
с помощью [N/A].DUMP
не обязательно определяются последовательно. Например, коды с
2
по 12
в настоящее время не определены и не перечислены.
Однако, индивидуальные коды DUMP
подвержены изменениям, и нет никакой гарантии, что данное кодовое обозначение
продолжит определяться для той же самой цели (или определяться
вообще) со временем.DUMP
, даже если в настоящее время не определен,
не будет иметь серьезных последствий, когда используется при
управлении NDB Cluster.DUMP
в следующих диапазонах в настоящее время не использованы и таким
образом не поддержаны:2.1. DUMP 1
---
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: creadyDistCom = 1, cpresident = 5
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: cpresidentAlive = 1, cpresidentCand = 5 (gci: 254325)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: ctoStatus = 0
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 1: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 2: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 3: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 4: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 5: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 6: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 7: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 8: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 9: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 10: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 11: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 12: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 13: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 14: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 15: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 16: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 17: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 18: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 19: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 20: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 21: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 22: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 23: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 24: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 25: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 26: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 27: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 28: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 29: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 30: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 31: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 32: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 33: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 34: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 35: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 36: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 37: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 38: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 39: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 40: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 41: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 42: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 43: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 44: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 45: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 46: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 47: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 48: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: creadyDistCom = 1, cpresident = 5
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: cpresidentAlive = 0, cpresidentCand = 5 (gci: 254325)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: ctoStatus = 0
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 1: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 2: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 3: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 4: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 5: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 6: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 7: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 8: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 9: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 10: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 11: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 12: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 13: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 14: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 15: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 16: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 17: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 18: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 19: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 20: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 21: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 22: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 23: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 24: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 25: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 26: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 27: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 28: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 29: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 30: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 31: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 32: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 33: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 34: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 35: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 36: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 37: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 38: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 39: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 40: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 41: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 42: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 43: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 44: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 45: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 46: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 47: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 48: ZAPI_INACTIVE(7)
2.2. DUMP 13
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 5: Cntr: cstartPhase = 9, cinternalStartphase = 8, block = 0
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 5: Cntr: cmasterNodeId = 5
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 6: Cntr: cstartPhase = 9, cinternalStartphase = 8, block = 0
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 6: Cntr: cmasterNodeId = 5
2.3. DUMP 14
commitAckMarkerPool
.
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 5: LQH: m_commitAckMarkerPool: 36094 free size: 36094
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 6: LQH: m_commitAckMarkerPool: 36094 free size: 36094
2.4. DUMP 15
commitAckMarkerPool
.
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 5: LQH: m_commitAckMarkerPool: 36094 free size: 36094
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 6: LQH: m_commitAckMarkerPool: 36094 free size: 36094
2.5. DUMP 16
DihDumpNodeRestartInfo
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: c_nodeStartMaster.blockGcp = 0, c_nodeStartMaster.wait = 0
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: [ 0 : cfirstVerifyQueue = 0 clastVerifyQueue = 0 sz: 8193]
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: cgcpOrderBlocked = 0
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: c_nodeStartMaster.blockGcp = 0, c_nodeStartMaster.wait = 0
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: [ 0 : cfirstVerifyQueue = 0 clastVerifyQueue = 0 sz: 8193]
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: cgcpOrderBlocked = 0
2.6. DUMP 17
DihDumpNodeStatusInfo
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Printing nodeStatus of all nodes
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Node = 5 has status = 1
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Node = 6 has status = 1
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Printing nodeStatus of all nodes
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Node = 5 has status = 1
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Node = 6 has status = 1
Значение Имя 0 NOT_IN_CLUSTER
1 ALIVE
2 STARTING
3 DIED_NOW
4 DYING
5 DEAD
2.7. DUMP 18
DihPrintFragmentation
ALL DUMP 18
.
Node 5: Printing nodegroups --
Node 5: NG 0(0) ref: 4 [ cnt: 2 : 5 6 4294967040 4294967040 ]
Node 5: Printing fragmentation of all tables --
Node 5:Table 2 Fragment 0(1) LP: 0 - 5 6
Node 5:Table 2 Fragment 1(1) LP: 0 - 6 5
Node 5:Table 3 Fragment 0(2) LP: 1 - 5 6
Node 5:Table 3 Fragment 1(2) LP: 1 - 6 5
Node 6: Printing nodegroups --
Node 6: NG 0(0) ref: 4 [ cnt: 2 : 5 6 4294967040 4294967040 ]
Node 6: Printing fragmentation of all tables --
Node 6:Table 2 Fragment 0(1) LP: 0 - 5 6
Node 6:Table 2 Fragment 1(1) LP: 0 - 6 5
Node 6:Table 3 Fragment 0(2) LP: 1 - 5 6
Node 6:Table 3 Fragment 1(2) LP: 1 - 6 5
2.8. DUMP 19
DihPrintOneFragmentation
2.9. DUMP 20
---
BackupDataBufferSize
,
BackupLogBufferSize
,
BackupWriteSize
и
BackupMaxWriteSize
.
2014-10-13 21:04:13 [MgmtSrvr] INFO -- Node 5: Backup: data: 17039872 log: 17039872 min: 262144 max: 1048576
2014-10-13 21:04:13 [MgmtSrvr] INFO -- Node 6: Backup: data: 17039872 log: 17039872 min: 262144 max: 1048576
ndb_mgm>
ALL DUMP 20 3 3 64 512
ALL DUMP 20 3 3 64 512
Sending dump signal with data:
0x00000014 0x00000003 0x00000003 0x00000040
0x00000200
Sending dump signal with data:
0x00000014 0x00000003 0x00000003 0x00000040
0x00000200
2014-10-13 21:05:52 [MgmtSrvr] INFO -- Node 5: Backup: data: 3145728 log: 3145728 min: 65536 max: 524288
2014-10-13 21:05:52 [MgmtSrvr] INFO -- Node 6: Backup: data: 3145728 log: 3145728 min: 65536 max: 524288
START BACKUP
обвалит кластер.2.10. DUMP 21
---
GSN_BACKUP_REQ
узлу, заставив
этот узел начать резервную копию.
Node 2: Backup 1 started from node 2
Node 2: Backup 1 started from node 2 completed
StartGCP: 158515 StopGCP: 158518
#Records: 2061 #LogRecords: 0
Data: 35664 bytes Log: 0 bytes
2.11. DUMP 22
---
GSN_FSREMOVEREQ
.
Это должно удалить резервную копию, имеющую резервный ID backup_id
из резервного каталога, но пока это на самом деле
заставляет узел повиснуть.
...
DUMP 22
заставляет узел
или узлы падать.2.12. DUMP 23
---
BackupRecord
показано как
0
):
Node 2: BackupRecord 0: BackupId: 5 MasterRef: f70002 ClientRef: 0
Node 2:State: 2
Node 2:file 0: type: 3 flags: H'0
BackupRecord
=
1
):
Node 2: BackupRecord 1: BackupId: 8 MasterRef: f40002 ClientRef: 80010001
Node 2:State: 1
Node 2:file 3: type: 3 flags: H'1
Node 2:file 2: type: 2 flags: H'1
Node 2:file 0: type: 1 flags: H'9
Node 2: BackupRecord 0: BackupId: 110 MasterRef: f70002 ClientRef: 0
Node 2:State: 2
Node 2:file 0: type: 3 flags: H'0
State
показывают в следующей таблице:Значение
State Описание 0
INITIAL
... 1 DEFINING
Определение резервного содержания и параметров. 2 DEFINED
Сигнал DEFINE_BACKUP_CONF
послан точной
копией фрагмента, полученной с разбивкой по источникам.3 STARTED
Создание триггеров. 4 SCANNING
Просмотр фрагментов. 5 STOPPING
Закрытие файлов. 6 CLEANING
Освобождение ресурсов. 7 ABORTING
Прерывание резервной копии. Значение Имя 1 CTL_FILE
2 LOG_FILE
3 DATA_FILE
4 LCP_FILE
Значение Имя 0x01
BF_OPEN
0x02
BF_OPENING
0x04
BF_CLOSING
0x08
BF_FILE_THREAD
0x10
BF_SCAN_THREAD
0x20
BF_LCP_META
2.13. DUMP 24
---
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: Backup - dump pool sizes
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: BackupPool: 2 BackupFilePool: 4 TablePool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: AttrPool: 2 TriggerPool: 4 FragmentPool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: PagePool: 1579
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: Backup - dump pool sizes
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: BackupPool: 2 BackupFilePool: 4 TablePool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: AttrPool: 2 TriggerPool: 4 FragmentPool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: PagePool: 1579
2424
передается как аргумент (например,
2 DUMP 24 2424
), это вызывает LCP.2.14. DUMP 25
NdbcntrTestStopOnError
...
2.15. DUMP 70
NdbcntrStopNodes
...
2.16. DUMP 400
NdbfsDumpFileStat-
NDB
.
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5: NDBFS: Files: 28 Open files: 10
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Idle files: 18 Max opened files: 12
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Bound Threads: 28 (active 10) Unbound threads: 2
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Max files: 0
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Requests: 256
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6: NDBFS: Files: 28 Open files: 10
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Idle files: 18 Max opened files: 12
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Bound Threads: 28 (active 10) Unbound threads: 2
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Max files: 0
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Requests: 256
2.17. DUMP 401
NdbfsDumpAllFiles
NDB
и статусы (OPEN
или CLOSED
).
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: NDBFS: Dump all files: 28
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:0 (0x7f5aec0029f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:1 (0x7f5aec0100f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:2 (0x7f5aec01d780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:3 (0x7f5aec02add0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:4 (0x7f5aec0387f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:5 (0x7f5aec045e40): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:6 (0x7f5aec053490): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:7 (0x7f5aec060ae0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:8 (0x7f5aec06e130): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:9 (0x7f5aec07b780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 10 (0x7f5aec088dd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 11 (0x7f5aec0969f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 12 (0x7f5aec0a4040): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 13 (0x7f5aec0b1690): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 14 (0x7f5aec0bece0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 15 (0x7f5aec0cc330): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 16 (0x7f5aec0d9980): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 17 (0x7f5aec0e6fd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 18 (0x7f5aec0f4620): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 19 (0x7f5aec101c70): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 20 (0x7f5aec10f2c0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 21 (0x7f5aec11c910): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 22 (0x7f5aec129f60): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 23 (0x7f5aec1375b0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 24 (0x7f5aec144c00): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 25 (0x7f5aec152250): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 26 (0x7f5aec15f8a0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 27 (0x7f5aec16cef0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: NDBFS: Dump all files: 28
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:0 (0x7fa0300029f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:1 (0x7fa0300100f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:2 (0x7fa03001d780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:3 (0x7fa03002add0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:4 (0x7fa0300387f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:5 (0x7fa030045e40): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:6 (0x7fa030053490): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:7 (0x7fa030060ae0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:8 (0x7fa03006e130): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:9 (0x7fa03007b780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 10 (0x7fa030088dd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 11 (0x7fa0300969f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 12 (0x7fa0300a4040): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 13 (0x7fa0300b1690): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 14 (0x7fa0300bece0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 15 (0x7fa0300cc330): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 16 (0x7fa0300d9980): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 17 (0x7fa0300e6fd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 18 (0x7fa0300f4620): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 19 (0x7fa030101c70): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 20 (0x7fa03010f2c0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 21 (0x7fa03011c910): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 22 (0x7fa030129f60): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 23 (0x7fa0301375b0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 24 (0x7fa030144c00): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 25 (0x7fa030152250): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 26 (0x7fa03015f8a0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 27 (0x7fa03016cef0): OPEN
2.18. DUMP 402
NdbfsDumpOpenFiles
NDB
.
Node 2: NDBFS: Dump open files: 10
Node 2:0 (0x8792f70): /usr/local/mysql/cluster/ndb_2_fs/D1/DBDIH/P0.sysfile
Node 2:1 (0x8794590): /usr/local/mysql/cluster/ndb_2_fs/D2/DBDIH/P0.sysfile
Node 2:2 (0x878ed10): /usr/local/mysql/cluster/ndb_2_fs/D8/DBLQH/S0.FragLog
Node 2:3 (0x8790330): /usr/local/mysql/cluster/ndb_2_fs/D9/DBLQH/S0.FragLog
Node 2:4 (0x8791950): /usr/local/mysql/cluster/ndb_2_fs/D10/DBLQH/S0.FragLog
Node 2:5 (0x8795da0): /usr/local/mysql/cluster/ndb_2_fs/D11/DBLQH/S0.FragLog
Node 2:6 (0x8797358): /usr/local/mysql/cluster/ndb_2_fs/D8/DBLQH/S1.FragLog
Node 2:7 (0x8798978): /usr/local/mysql/cluster/ndb_2_fs/D9/DBLQH/S1.FragLog
Node 2:8 (0x8799f98): /usr/local/mysql/cluster/ndb_2_fs/D10/DBLQH/S1.FragLog
Node 2:9 (0x879b5b8): /usr/local/mysql/cluster/ndb_2_fs/D11/DBLQH/S1.FragLog
2.19. DUMP 403
NdbfsDumpIdleFiles
NDB
.
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: NDBFS: Dump idle files: 18
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:0 (0x7f5aec0029f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:1 (0x7f5aec0100f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:2 (0x7f5aec01d780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:3 (0x7f5aec02add0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:4 (0x7f5aec0387f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:5 (0x7f5aec045e40): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:6 (0x7f5aec053490): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:7 (0x7f5aec060ae0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:8 (0x7f5aec06e130): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:9 (0x7f5aec07b780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 10 (0x7f5aec088dd0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 11 (0x7f5aec0969f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 12 (0x7f5aec0a4040): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 13 (0x7f5aec0b1690): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 14 (0x7f5aec0bece0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 15 (0x7f5aec0cc330): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 16 (0x7f5aec0d9980): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 17 (0x7f5aec0e6fd0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: NDBFS: Dump idle files: 18
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:0 (0x7fa0300029f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:1 (0x7fa0300100f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:2 (0x7fa03001d780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:3 (0x7fa03002add0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:4 (0x7fa0300387f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:5 (0x7fa030045e40): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:6 (0x7fa030053490): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:7 (0x7fa030060ae0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:8 (0x7fa03006e130): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:9 (0x7fa03007b780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 10 (0x7fa030088dd0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 11 (0x7fa0300969f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 12 (0x7fa0300a4040): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 13 (0x7fa0300b1690): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 14 (0x7fa0300bece0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 15 (0x7fa0300cc330): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 16 (0x7fa0300d9980): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 17 (0x7fa0300e6fd0): CLOSED
2.20. DUMP 406
NdbfsDumpRequests
NDBFS
в LCP и GCP
написанные в журналы узла данных.
2019-01-31 18:40:31 [ndbd] INFO -- NDBFS: Dump requests: 0
2.21. DUMP 502
CmvmiSchedulerExecutionTimer
SchedulerExecutionTimer
.
.....
2.22. DUMP 503
CmvmiRealtimeScheduler
RealtimeScheduler
.
.....
2.23. DUMP 504
CmvmiExecuteLockCPU
LockExecuteThreadToCPU
.
.....
2.24. DUMP 505
CmvmiMaintLockCPU
LockMaintThreadsToCPU
.
.....
2.25. DUMP 506
CmvmiSchedulerSpinTimer
SchedulerSpinTimer
.
.....
2.26. DUMP 908
HeartbeatOrder
.
HB: pres:5 own:5 dyn:1-0 mxdyn:2 hb:6->5->6 node:dyn-hi,cfg: 5:1-0,0 6:2-0,0
2.27. DUMP 935
QmgrErr935
2.28. DUMP 1000
ACC
и
TUP
), сколько страниц данных и
какой процент использования
DataMemory
и
IndexMemory
.
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Data usage is 0%(10 32K pages of total 65529)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Index usage is 0%(7 32K pages of total 65526)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource global total: 75741 used: 3956
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource reserved total: 70516 used: 3600
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource shared total: 5225 used: 357 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 1 min: 0 max: 0 curr: 357 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 3 min: 65536 max: 65536 curr: 17 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 4 min: 724 max: 724 curr: 130 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 5 min: 1152 max: 1152 curr: 1088 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 6 min: 800 max: 1000 curr: 123 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 7 min: 2240 max: 2240 curr: 2240 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 9 min: 64 max: 0 curr: 1 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Data usage is 0%(10 32K pages of total 65529)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Index usage is 0%(7 32K pages of total 65526)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource global total: 75741 used: 3954
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource reserved total: 70516 used: 3597
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource shared total: 5225 used: 358 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 1 min: 0 max: 0 curr: 358 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 3 min: 65536 max: 65536 curr: 17 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 4 min: 724 max: 724 curr: 120 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 5 min: 1152 max: 1152 curr: 1088 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 6 min: 800 max: 1000 curr: 130 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 7 min: 2240 max: 2240 curr: 2240 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 9 min: 64 max: 0 curr: 1 spare: 0
ALL DUMP 1000
,
эта команда сообщает об использовании памяти для каждого узла данных
отдельно в свою очередь.REPORT MEMORYUSAGE
или запросить таблицу
ndbinfo.memoryusage
.2.29. DUMP 1001
DumpPageMemoryOnFail
.....
2.30. DUMP 1223
---
...
2.31. DUMP 1224
---
...
2.32. DUMP 1225
---
...
2.33. DUMP 1226
---
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_obj_pool: 1332 1319
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_opRecordPool: 256 256
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_rope_pool: 146785 146615
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_obj_pool: 1332 1319
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_opRecordPool: 256 256
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_rope_pool: 146785 146615
2.34. DUMP 1228
DictLockQueue
NDB
в журнал кластера.
2014-10-15 12:14:08 [MgmtSrvr] INFO -- Node 5: DICT : c_sub_startstop _outstanding 0 _lock 0000000000000000
2014-10-15 12:14:08 [MgmtSrvr] INFO -- Node 6: DICT : c_sub_startstop _outstanding 0 _lock 0000000000000000
2.35. DUMP 1229
DictDumpGetTabInfoQueue
GETTABINFOREQ
.
ndb_mgm>
ALL DUMP 1229
Sending dump signal with data:
0x000004cd
Sending dump signal with data:
0x000004cd
DictTrace
>= 2 и
соответствующие узлы API с
ApiVerbose
>= 2.
См. описания этих параметров для получения дополнительной информации.2.36. DUMP 1332
LqhDumpAllDefinedTabs
LQH
), в журнал кластера.
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 2 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 3 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 4 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 5 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 6 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 7 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 8 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 9 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 10 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 11 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 2 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 3 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 4 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 5 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 6 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 7 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 8 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 9 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 10 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 11 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2.37. DUMP 1333
LqhDumpNoLogPages
2014-10-15 12:16:05 [MgmtSrvr] INFO -- Node 5: LQH: Log pages : 1024 Free: 960
2014-10-15 12:16:05 [MgmtSrvr] INFO -- Node 6: LQH: Log pages : 1024 Free: 960
2.38. DUMP 2300
LqhDumpOneScanRec
DUMP 2300 recordno
.
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:apiBref=0x2f40005, scanAccPtr=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:copyptr=-256, ailen=6, complOps=0, concurrOps=16
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:errCnt=0, schV=1
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:stpid=0, flag=2, lhold=0, lmode=0, num=134
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:relCount=16, TCwait=0, TCRec=3, KIflag=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:LcpScan=1RowId(0:0)
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:apiBref=0x2f40006, scanAccPtr=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:copyptr=-256, ailen=6, complOps=0, concurrOps=16
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=1
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=2, lhold=0, lmode=0, num=134
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:relCount=16, TCwait=0, TCRec=2, KIflag=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:LcpScan=1RowId(0:0)
2.39. DUMP 2301
LqhDumpAllScanRec
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: LQH: Dump all ScanRecords - size: 514
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x2f40006, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=-256, ailen=6, complOps=0, concurrOps=16
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=1
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=2, lhold=0, lmode=0, num=134
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=16, TCwait=0, TCRec=2, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=1RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[2]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[3]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[4]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[5]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[6]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[7]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[8]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
...
DUMP
должен использоваться экономно, если вообще применяться на рабочем NDB
Cluster, так как сотни или даже тысячи отчетов просмотра могут быть созданы
на даже относительно маленьком кластере, который не находится под нагрузкой.
Поэтому часто предпочтительно напечатать единственный отчет просмотра с
помощью DUMP 2300
.2.40. DUMP 2302
LqhDumpAllActiveScanRec
2014-10-15 12:59:27 [MgmtSrvr] INFO -- Node 5: LQH: Dump active ScanRecord - size: 514
2014-10-15 12:59:27 [MgmtSrvr] INFO -- Node 6: LQH: Dump active ScanRecord - size: 514
...
2.41. DUMP 2303
LqhDumpLcpState
2014-10-15 13:01:37 [MgmtSrvr] INFO -- Node 5: Local checkpoint 173 started. Keep GCI = 270929 oldest restorable GCI = 270929
2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 5: LDM instance 1: Completed LCP, num fragments = 16 num records = 2061, num bytes = 67912
2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 6: LDM instance 1: Completed LCP, num fragments = 16 num records = 2061, num bytes = 67912
2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 5: Local checkpoint 173 completed
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: == LQH LCP STATE ==
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:clcpCompletedState=0, c_lcpId=173, cnoOfFragsCheckpointed=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:lcpState=0 lastFragmentFlag=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: currentFragment.fragPtrI=15
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: currentFragment.lcpFragOrd.tableId=10
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:numFragLcpsQueued=0 reportEmpty=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:m_EMPTY_LCP_REQ=0000000000000000
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: == LQH LCP STATE ==
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:clcpCompletedState=0, c_lcpId=173, cnoOfFragsCheckpointed=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:lcpState=0 lastFragmentFlag=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: currentFragment.fragPtrI=15
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: currentFragment.lcpFragOrd.tableId=10
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:numFragLcpsQueued=0 reportEmpty=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:m_EMPTY_LCP_REQ=0000000000000000
2.42. DUMP 2304
---
5
, это было бы
ndb_5_out.log
). Количеством фрагментов файлов
журнала управляет параметр конфигурации узла данных
NoOfFragmentLogFiles
.ndb_5_out.log
в кластере
NDB, имеющем 2 узла данных:
LP 0 blockInstance: 1 partNo: 0 state: 0 WW_Gci: 1 gcprec: -256
flq: 4294967040 4294967040 currfile: 0 tailFileNo: 0 logTailMbyte: 2
cnoOfLogPages: 1016 problems: 0x0
file 0(0)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 75
file 1(1)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(2)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(3)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(4)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(5)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(6)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(7)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(8)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(9)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(10)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(11)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(12)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(13)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(14)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(15)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
LP 1 blockInstance: 1 partNo: 1 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 16 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0
file 0(16)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69
file 1(17)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(18)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(19)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(20)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(21)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(22)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(23)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(24)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(25)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(26)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(27)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(28)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(29)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(30)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(31)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
LP 2 blockInstance: 1 partNo: 2 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 32 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0
file 0(32)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69
file 1(33)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(34)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(35)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(36)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(37)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(38)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(39)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(40)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(41)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(42)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(43)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(44)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(45)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(46)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(47)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
LP 3 blockInstance: 1 partNo: 3 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 48 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0
file 0(48)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69
file 1(49)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(50)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(51)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(52)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(53)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(54)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(55)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(56)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(57)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(58)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(59)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(60)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(61)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(62)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(63)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
Коды
FileChangeState
Значение
Статус изменения файла 0 Строка содержания 1, столбец 21 NOT_ONGOING
2 BOTH_WRITES_ONGOING
3 LAST_WRITE_ONGOING
4 WRITE_PAGE_ZERO_ONGOING
Коды
LogFileStatus
Значение
Статус файла журнала
Описание 0
LFS_IDLE
Отчет файла журнала не в использовании 1
CLOSED
Файл журнала закрывается. 2
OPENING_INIT
---
3
OPEN_SR_FRONTPAGE
Файл журнала открыт как часть системного перезапуска, открыт файл 0,
чтобы найти первую страницу части регистрации. 4
OPEN_SR_LAST_FILE
Открытие последнего файла журнала, который был написан
перед системным перезапуском. 5
OPEN_SR_NEXT_FILE
Открытие файла журнала, который был 16 файлов назад (чтобы найти затем
доступную информацию о GCP). 6
OPEN_EXEC_SR_START
Файл журнала открыт, выполняя регистрацию во
время системного перезапуска. 7
OPEN_EXEC_SR_NEW_MBYTE
---
8
OPEN_SR_FOURTH_PHASE
---
9
OPEN_SR_FOURTH_NEXT
---
10
OPEN_SR_FOURTH_ZERO
---
11
OPENING_WRITE_LOG
Файл журнала открыт, записывая
регистрацию (нормальное функционирование). 12
OPEN_EXEC_LOG
---
13
CLOSING_INIT
---
14
CLOSING_SR
Файл журнала закрыт как часть системного перезапуска.
В настоящее время пытается найти, где начать выполнять регистрацию. 15
CLOSING_EXEC_SR
Файл журнала закрыт как часть выполнения регистрации во
время системного перезапуска. 16
CLOSING_EXEC_SR_COMPLETED
---
17
CLOSING_WRITE_LOG
Файл журнала закрыт как часть написания регистрации во
время нормального функционирования. 18
CLOSING_EXEC_LOG
---
19
OPEN_INIT
---
20
OPEN
Открытый файл журнала. 21
OPEN_SR_READ_INVALIDATE_PAGES
---
22
CLOSE_SR_READ_INVALIDATE_PAGES
---
23
OPEN_SR_WRITE_INVALIDATE_PAGES
---
24
CLOSE_SR_WRITE_INVALIDATE_PAGES
---
25
OPEN_SR_READ_INVALIDATE_SEARCH_FILES
---
26
CLOSE_SR_READ_INVALIDATE_SEARCH_FILES
---
27
CLOSE_SR_READ_INVALIDATE_SEARCH_LAST_FILE
---
28
OPEN_EXEC_LOG_CACHED
---
29
CLOSING_EXEC_LOG_CACHED
---
storage/ndb/src/kernel/blocks/dblqh/Dblqh.hpp
.
См. также раздел 2.43.2.43. DUMP 2305
---
...
2.44. DUMP 2308
---
...
2.45. DUMP 2315
LqhErrorInsert5042
2.46. DUMP 2350
---
---
ndb_mgm>
2 DUMP 2350 1 5
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of operations
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: OP[470]:
Tab: 4 frag: 0 TC: 3 API: 5(0x8035)transid: 0x31c 0x3500500 op: SCAN state: InQueue
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of operation dump
Значение Фильтр 0 ID таблицы 1 ID узла API 2 2 ID транзакций, определяя диапазон транзакций 3 ID узла координатора транзакций Prepared
:
Операционный координатор не работает, ожидая API, чтобы продолжить.Running
: Операционный координатор
в настоящее время готовит операции.Committing
,
Prepare to commit
,
Commit sent
:
Операционный координатор передает.Completing
:
Операционный координатор заканчивает передачу (после того, как
передаст, некоторая очистка необходима).Aborting
:
Операционный координатор прерывает транзакцию.Scanning
:
Операционный координатор просматривает.WaitNextScan
:
Просмотр не работает, ожидая API.InQueue
:
Просмотр еще не начался, но ждет в очереди окончания других просмотров.
In lock queue
:
Операция ждет на блокировке.Running
: Операция готовится.Prepared
: Операция подготовлена, держит
соответствующую блокировку и ожидает передачи или отмены.
DUMP 2350
к определенным потокам или
объектам Ndb
.
Сначала предположите, что вы сбрасываете в дамп все операции на узле данных 2
от узла API 5, используя таблицу 4:
ndb_mgm>
2 DUMP 2350 1 5 0 4
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of operations
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: OP[470]:
Tab: 4 frag: 0 TC: 3 API: 5(0x8035)transid: 0x31c 0x3500500 op: SCAN state: InQueue
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of operation dump
Ndb
с именем
MyNdb
, которому эта операция принадлежит.
Вы видите, что дело обстоит так, вызывая метод
getReference()
объекта
Ndb
:
printf("MyNdb.getReference(): 0x%x\n", MyNdb.getReference());
MyNdb.getReference(): 0x80350005
OP
в команде
DUMP
(8035). Для подробностей об
этом методе посмотрите
Ndb::getReference().2.47. DUMP 2352
---
---
DUMP 2350
, чтобы получить дамп всех операций
на узле данных 5 от узла API 100:
2014-10-15 13:36:26 [MgmtSrvr] INFO -- Node 100: Event buffer status: used=1025KB(100%) alloc=1025KB(0%) max=0B apply_epoch=273419/1 latest_epoch=273419/1
3
. Чтобы получить ID
транзакции и первичный ключ для операции, имеющей 3 как ее ID, мы используем
ID узла и ID операции с DUMP 2352
:
ndb_mgm>
5 DUMP 2352 3
2014-10-15 13:45:20 [MgmtSrvr] INFO -- Node 5: OP[3]: transid: 0xf 0x806400 key: 0x2
DUMP 2350
, чтобы получить ID операции. Посмотрите пример, показанный ранее.2.48. DUMP 2353
LqhDumpPoolLevels
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 5: LQH : TcConnection (operation) records in use/total 0/36194 (328 bytes each)
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 5: LQH : ScanRecord (Fragment) pool in use/total 3/514 (232 bytes each)
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 6: LQH : TcConnection (operation) records in use/total 0/36194 (328 bytes each)
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 6: LQH : ScanRecord (Fragment) pool in use/total 3/514 (232 bytes each)
2.49. DUMP 2354
LqhReportCopyInfo
DUMP 2354 recordno instanceno
instanceno
номер экземпляра.
2014-10-13 16:30:57 [MgmtSrvr] INFO -- Node 5: LDM instance 1: CopyFrag complete. 0 frags, +0/-0 rows, 0 bytes/29362776 ms 0 bytes/s.
2014-10-13 16:30:57 [MgmtSrvr] INFO -- Node 6: LDM instance 1: CopyFrag complete. 0 frags, +0/-0 rows, 0 bytes/29362818 ms 0 bytes/s.
DUMP
добавлен в NDB 7.4.1.2.50. DUMP 2355
LqhKillAndSendToDead
2.51. DUMP 2356
LqhSetTransientPoolMaxSize
node_id DUMP 2356 pool_index new_size
.2.52. DUMP 2357
LqhResetTransientPoolMaxSize
node_id DUMP 2357
pool_index
.2.53. DUMP 2398
---
ndb_6_out.log
:
REDO part: 0 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
REDO part: 1 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
REDO part: 2 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
REDO part: 3 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
REDO part: part_no HEAD: file: start_file_no mbyte: start_pos
TAIL: file: end_file_no mbyte: end_pos total: total_space free: free_space (mb)
D8
, D9
,
D10
и D11
с частью 0 журнала отката, сохраненной в D8
,
частью 1 в D9
и т.д. (см.
раздел 1.1.2
). В рамках каждого каталога можно найти подкаталог
DBLQH
, содержащий файлы
NoOfFragmentLogFiles
.
Значение по умолчанию для NoOfFragmentLogFiles
16. Размер по умолчанию каждого из этих файлов составляет 16 МБ, это может
быть изменено, установив параметр
FragmentLogFileSize
.D8/DBLQH/S6.FragLog
.D8/DBLQH/S6.FragLog
.NoOfFragmentLogFiles *
FragmentLogFileSize
, по умолчанию это 16 раз по 16 МБ или 256 МБ.
free_space показывает остающуюся сумму. Таким образом, используемая сумма
равна total_space - free_space
в этом примере это 256 - 254 = 2 MB.DUMP 2398
в то время, как происходит перезапуск узла данных.2.54. DUMP 2399
---
DUMP 2398
, эта команда сбрасывает
информацию о свободном пространстве в файлах части регистрации для узла
данных с ID узла node_id. В отличие от случая с
DUMP 2398
, дамп записан в журнал кластера и
включает число процентов свободного пространства,
остающегося в журнале отката.
ndb_mgm>
6 DUMP 2399
Sending dump signal with data:
0x0000095f
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 0 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 1 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 2 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 3 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 0 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 1 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 2 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 3 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
timestamp [MgmtSrvr] INFO -- Node node_id: Logpart: part_no head=[file: start_file_no mbyte: start_pos]
tail=[file: end_file_no mbyte: end_pos] total mb: total_space free mb: free_space free%: free_pct
D8
,
D9
, D10
и
D11
, часть 0 журнала отката сохранена в
D8
, часть 1 в D9
и т.д. В рамках каждого из этих четырех каталогов есть подкаталог
DBLQH
, содержащий
NoOfFragmentLogFiles
фрагмент файлов журнала. Значение по умолчанию для
NoOfFragmentLogFiles
16.
Размер по умолчанию каждого из этих файлов составляет 16 МБ, это может быть
изменено, установив параметр
FragmentLogFileSize
(см.
раздел 1.1.2.D8/DBLQH/S6.FragLog
.D8/DBLQH/S6.FragLog
.NoOfFragmentLogFiles *
FragmentLogFileSize
, по умолчанию это 16 раз по 16 МБ или 256 МБ.
free_space показывает остающуюся сумму. Используемая сумма равна
total_space - free_space
,
в этом примере это 256 - 254 = 2 МБ. free_pct показывает отношение free_space
к total_space, выраженное как процент от целого числа. В примере это равно
100 * (254 / 256), что-то около 99%.2.55. DUMP 2400
AccDumpOneScanRec
ALL DUMP 2400 1
следующий вывод написан в журнал кластера:
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0)
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0)
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2.56. DUMP 2401
AccDumpAllScanRec
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: ACC: Dump all ScanRec - size: 514
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[2]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=3 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[3]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=4 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
.
.
.
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[511]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=512 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[512]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=513 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[513]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=-256 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2.57. DUMP 2402
AccDumpAllActiveScanRec
2.58. DUMP 2403
AccDumpOneOperationRec
ALL
) не требуются.ALL DUMP 2403 1
:)
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: Dbacc::operationrec[1]: transid(0x0, 0x306400)
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: elementIsforward=1, elementPage=131095, elementPointer=118
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: fid=0, fragptr=8
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: hashValue=-946144765
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: nextLockOwnerOp=-256, nextOp=-256, nextParallelQue=2
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: nextSerialQue=-256, prevOp=0
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: prevLockOwnerOp=-256, prevParallelQue=2
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: prevSerialQue=-256, scanRecPtr=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: m_op_bits=0xffffffff, scanBits=0, reducedHashValue=ebe8
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: Dbacc::operationrec[1]: transid(0xf, 0x806400)
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: elementIsforward=1, elementPage=131078, elementPointer=1350
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: fid=1, fragptr=17
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: hashValue=-498516881
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: nextLockOwnerOp=-256, nextOp=-256, nextParallelQue=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: nextSerialQue=-256, prevOp=0
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: prevLockOwnerOp=4, prevParallelQue=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: prevSerialQue=-256, scanRecPtr=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: m_op_bits=0xffffffff, scanBits=0, reducedHashValue=a4f1
2.59. DUMP 2404
AccDumpNumOpRecs
2014-10-15 13:59:27 [MgmtSrvr] INFO -- Node 5: Dbacc::OperationRecords: num=167764, free=131670
2014-10-15 13:59:27 [MgmtSrvr] INFO -- Node 6: Dbacc::OperationRecords: num=167764, free=131670
MaxNoOfConcurrentOperations
.2.60. DUMP 2405
AccDumpFreeOpRecs
---
2 DUMP 2405 1
:)
Time: Sunday 01 November 2015 - 18:33:54
Status: Temporary error, restart node
Message: Job buffer congestion (Internal error, programming error or
missing error message, please report a bug)
Error: 2334
Error data: Job Buffer Full
Error object: APZJobBuffer.C
Program: ./libexec/ndbd
Pid: 27670
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8
2.61. DUMP 2406
AccDumpNotFreeOpRecs
2 DUMP 2406 1
:)
Time: Sunday 01 November 2015 - 18:39:16
Status: Temporary error, restart node
Message: Job buffer congestion (Internal error, programming error or
missing error message, please report a bug)
Error: 2334
Error data: Job Buffer Full
Error object: APZJobBuffer.C
Program: ./libexec/ndbd
Pid: 27956
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8
2.62. DUMP 2500
DUMP
печатает ряд записей фрагмента просмотра в журнал кластера.TcDumpSetOfScanFragRec
DUMP
использует синтаксис, показанный здесь:
DUMP 2500 recordno numrecords dbtcinst [activeonly]
DBTC
, начиная с записи, имеющей номер recno. Последний аргумент
дополнительный, все другие показанные обязательны. activeonly это boolean,
которое определяет, напечатать ли только активные записи. Если установлено в
1 (на самом деле в любое ненулевое значение), только активные записи
печатаются и игнорируются любые свободные записи, не используемые в настоящий
момент. 0 включает все записи. По умолчанию 1.
Ц─┌Ц─┌Ц─┌
DUMP
имел иной символ и функцию, как описано ниже.TcDumpAllScanFragRec
Time: Sunday 01 November 2015 - 13:37:11
Status: Temporary error, restart node
Message: Assertion (Internal error, programming error or missing error
message, please report a bug)
Error: 2301
Error data: ArrayPool<T>::getPtr
Error object: ../../../../../storage/ndb/src/kernel/vm/ArrayPool.hpp line: 345
(block: CMVMI)
Program: ./libexec/ndbd
Pid: 13237
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.21-ndb-7.3.7
2.63. DUMP 2501
TcDumpOneScanFragRec
2 DUMP 2501 1
:)
Time: Sunday 01 November 2015 - 18:41:41
Status: Temporary error, restart node
Message: Assertion (Internal error, programming error or missing error
message, please report a bug)
Error: 2301
Error data: ArrayPool<T>::getPtr
Error object: ../../../../../storage/ndb/src/kernel/vm/ArrayPool.hpp line: 345
(block: DBTC)
Program: ./libexec/ndbd
Pid: 28239
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8
2.64. DUMP 2502
DBTC
в журнал кластера.TcDumpAllScanRec
DUMP 2502 recordno numrecords dbtcinst [activeonly]
DBTC
номер dbtcinst, начиная с записи
номер recno. Последний аргумент дополнительный, все другие требуются.
activeonly это boolean, который определяет, напечатать ли только активные
отчеты. Если установлено в 1 (на самом деле в любое ненулевое значение),
только активные отчеты печатаются и игнорируются любые свободные отчеты,
которые сейчас не используются. 0 включает все записи. По умолчанию 1.TcDumpAllScanRec
Node 2: TC: Dump all ScanRecord - size: 256
Node 2: Dbtc::ScanRecord[1]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=2
Node 2: Dbtc::ScanRecord[2]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=3
Node 2: Dbtc::ScanRecord[3]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=4
.
.
.
Node 2: Dbtc::ScanRecord[254]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=255
Node 2: Dbtc::ScanRecord[255]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=-256
Node 2: Dbtc::ScanRecord[255]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=-256
2.65. DUMP 2503 (УСТАРЕВШИЙ)
DUMP
не
поддерживается в NDB 7.4 и позже.TcDumpAllActiveScanRec
Node 2: TC: Dump active ScanRecord - size: 256
2.66. DUMP 2504
TcDumpOneScanRec
2 DUMP 2504 1
:)
Node 2: Dbtc::ScanRecord[1]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=2
ScanState
в Dbtc.hpp
):Значение Статус 0 IDLE
1 WAIT_SCAN_TAB_INFO
2 WAIT_AI
3 WAIT_FRAGMENT_COUNT
4 RUNNING
5 CLOSING_SCAN
nextfrag
: ID следующего фрагмента,
который будет просмотрен. Используется процессом просмотра фрагмента, когда
это готово к следующему фрагменту.nofrag
:
Общее количество фрагментов в просматриваемой таблице.ailen
:
Длина ожидаемой информации атрибута.para
:
Количество процессов просмотра фрагментов,
принадлежащих этому просмотру.receivedop
:
Количество операций получения.noOprePperFrag
:
Максимальное количество байтов в пакете.schv
:
Версия схемы, которая используется этим просмотром.tab
:
Индекс или таблица, которая просматривается.sproc
:
Индекс хранимой процедуры, принадлежащей этому просмотру.apiRec
: Ссылка на
ApiConnectRecord
.next
: Индекс следующих
ScanRecord
в свободном списке.2.67. DUMP 2505
TcDumpOneApiConnectRec
DUMP 2505 recordno instanceno
...
2.68. DUMP 2506 (УСТАРЕВШИЙ)
DUMP
не поддерживается в NDB 7.4 и выше.TcDumpAllApiConnectRec
Node 2: TC: Dump all ApiConnectRecord - size: 12288
Node 2: Dbtc::ApiConnectRecord[1]: state=0, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256
Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
Node 2: Dbtc::ApiConnectRecord[2]: state=0, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256
Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
Node 2: Dbtc::ApiConnectRecord[3]: state=0, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256
Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
.
.
.
Node 2: Dbtc::ApiConnectRecord[12287]: state=7, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0xffffffff, scanRec=-256
Node 2:ctcTimer=36308, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
Node 2: Dbtc::ApiConnectRecord[12287]: state=7, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0xffffffff, scanRec=-256
Node 2:ctcTimer=36308, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
2.69. DUMP 2507
TcSetTransactionTimeout
TransactionDeadlockDetectionTimeout
.
...
2.70. DUMP 2508
TcSetApplTransactionTimeout
TransactionInactiveTimeout
.
...
2.71. DUMP 2512
TcStartDumpIndexOpCount
MaxNoOfConcurrentIndexOperations
и текущее использование ресурсов в непрерывном цикле. Время
delay между отчетами может быть произвольно определено (в секундах) с
умолчанием 1 и максимальным значением 25 (значения
больше 25 тихо заменены на 25).
Node 2: IndexOpCount: pool: 8192 free: 8192
MaxNoOfConcurrentIndexOperations
после того, как эта команда запущена, кроме перезапуска узла данных.
Может быть предпочтительно использовать
DUMP 2513
(см. раздел 2.72).2.72. DUMP 2513
TcDumpIndexOpCount
MaxNoOfConcurrentIndexOperations
и текущее использование ресурсов.
Node 2: IndexOpCount: pool: 8192 free: 8192
DUMP 2512
, проверка выполнена только однажды.2.73. DUMP 2514
TcDumpApiConnectRecSummary
DUMP 2514 [instanceno]
DBTC
(instanceno) как дополнительный
аргумент, если не определен, по умолчанию 0. instanceno не нужен, если есть
только один экземпляр DBTC
.
Start of ApiConnectRec summary (6144 total allocated)
Api node 10 connect records seized : 0 stateless : 0 stateful : 0 scan : 0
Api node 11 connect records seized : 2 stateless : 0 stateful : 0 scan : 0
Api node 12 connect records seized : 1 stateless : 0 stateful : 0 scan : 0
MaxNoOfConcurrentTransactions
задает верхний предел. См. описание этого параметра для
получения дополнительной информации.2.74. DUMP 2515
TcDumpSetOfApiConnectRec
DUMP 2515 recordno numrecords instanceno
DUMP
в нагруженном кластере.
...
2.75. DUMP 2516
TcDumpOneTcConnectRec
DUMP 2516 recordno instanceno
DUMP 2517
.
...
2.76. DUMP 2517
TcDumpSetOfTcConnectRec
DUMP 2517 recordno numrecords instanceno
DUMP 2517
на нагруженном кластере.
...
2.77. DUMP 2550
---
---
ndb_mgm>
2 DUMP 2550 4 30
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of transactions
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: TRX[123]: API: 5(0x8035) transid: 0x31c 0x3500500 inactive: 42s state:
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of transaction dump
Значение Filter 1 ID узла API. 2 2 ID транзакций, определяя диапазон. 4 Сколько времени транзакции бездействуют (в секундах).
2.78. DUMP 2553
TcResourceSnapshot
DBTC
.
.....
2.79. DUMP 2554
TcResourceCheckLeak
DUMP 2553
.
.....
2.80. DUMP 2555
TcDumpPoolLevels
ndb_mgm>
ALL DUMP 2555
Sending dump signal with data:
0x000009fb
Sending dump signal with data:
0x000009fb
DUMP TcDumpPoolLevels : Bad signal length : 1
ndb_mgm>
ALL DUMP 2555 2
Sending dump signal with data:
0x000009fb 0x00000002
Sending dump signal with data:
0x000009fb 0x00000002
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC: instance: 0, Print pool levels
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Concurrent operations in use/total : 0/42769 (152 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Concurrent scans in use/total : 0/256 (120 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Scan Frag records in use/total : 0/511 (64 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC: instance: 0, Print pool levels
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Concurrent operations in use/total : 0/42769 (152 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Concurrent scans in use/total : 0/256 (120 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Scan Frag records in use/total : 0/511 (64 bytes each)
2.81. DUMP 2556
TcSetTransientPoolMaxSize
.....
storage/ndb/src/kernel/blocks/dbtc/DbtcMain.cpp
.2.82. DUMP 2557
TcResetTransientPoolMaxSize
.....
storage/ndb/src/kernel/blocks/dbtc/DbtcMain.cpp
и
DUMP 2556
.2.83. DUMP 2600
CmvmiDumpConnections
Node 3: Connection to 1 (MGM) is connected
Node 3: Connection to 2 (MGM) is trying to connect
Node 3: Connection to 3 (DB) does nothing
Node 3: Connection to 4 (DB) is connected
Node 3: Connection to 7 (API) is connected
Node 3: Connection to 8 (API) is connected
Node 3: Connection to 9 (API) is trying to connect
Node 3: Connection to 10 (API) is trying to connect
Node 3: Connection to 11 (API) is trying to connect
Node 4: Connection to 1 (MGM) is connected
Node 4: Connection to 2 (MGM) is trying to connect
Node 4: Connection to 3 (DB) is connected
Node 4: Connection to 4 (DB) does nothing
Node 4: Connection to 7 (API) is connected
Node 4: Connection to 8 (API) is connected
Node 4: Connection to 9 (API) is trying to connect
Node 4: Connection to 10 (API) is trying to connect
Node 4: Connection to 11 (API) is trying to connect
is trying to
connect
на самом деле значит, что рассматриваемый узел не был
запущен. Это может также быть замечено, когда там не использованы разделы
[api]
или [mysql]
в
файле настройки узлов config.ini
то есть, когда есть свободные слоты для узлов API или SQL.2.84. DUMP 2601
CmvmiDumpLongSignalMemory
Node 2: Cmvmi: g_sectionSegmentPool size: 4096 free: 4096
2.85. DUMP 2602
CmvmiSetRestartOnErrorInsert
RestartOnErrorInsert
.
...
2.86. DUMP 2603
CmvmiTestLongSigWithDelay
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
...
2.87. DUMP 2604
CmvmiDumpSubscriptions
ndb_node_id_out.log
на каждом узле данных, а не в журнал кластера на сервере управления.
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- List subscriptions:
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Subscription: 0, nodeId: 1, ref: 0x80000001
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 0 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 1 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 2 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 3 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 4 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 5 Level 8
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 6 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 7 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 8 Level 15
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 9 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 10 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 11 Level 15
Subscription
:
Внутренний ID подписки.nodeID
: ID подписывающегося узла.ref
: Ссылка блока, состоящая из ID блока
от storage/ndb/include/kernel/BlockNumbers.h
,
сдвинутый налево на 4 шестнадцатеричные цифры (16 битов), сопровождаемый
шестнадцатеричным номером узла с 4 цифрами. Id блока
0x8000
заполнитель, это определяется как
MIN_API_BLOCK_NO
с частью номера узла 1.Category
:
Категория группы регистрации, как перечислено в
Event Reports Generated in NDB Cluster (см. также файл
storage/ndb/include/mgmapi/mgmapi_config_parameters.h
).Level
: Уровень событий
(диапазон от 0 до 15).2.88. DUMP 2605
CmvmiTestLongSig
.....
2.89. DUMP 2606
DumpEventLog
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Символ, также используется в
storage/ndb/src/mgmsrv/Services.cpp
.
.....
2.90. DUMP 2607
CmvmiLongSignalMemorySnapshotStart
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
.....
2.91. DUMP 2608
CmvmiLongSignalMemorySnapshot
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
.....
2.92. DUMP 2609
CmvmiLongSignalMemorySnapshotCheck
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
.....
2.93. DUMP 2610
CmvmiSetKillerWatchdog
--core-file
, дамп ядра
также произведен, когда это происходит.DUMP 2610 [value]
.
Используйте 1 для value или пропустите value, чтобы активировать,
используйте 0, чтобы дезактивировать.
ndb_mgm>
ALL DUMP 2610 1
Sending dump signal with data:
0x00000a32 0x00000001
Sending dump signal with data:
0x00000a32 0x00000001
Sending dump signal with data:
0x00000a32 0x00000001
Sending dump signal with data:
0x00000a32 0x00000001
ndb_mgm> ALL DUMP 2610 0
Sending dump signal with data:
0x00000a32 0x00000000
Sending dump signal with data:
0x00000a32 0x00000000
Sending dump signal with data:
0x00000a32 0x00000000
Sending dump signal with data:
0x00000a32 0x00000000
2017-08-29 13:49:02 [ndbd] INFO -- Watchdog KillSwitch on.
2017-08-29 13:49:15 [ndbd] INFO -- Watchdog KillSwitch off.
2.94. DUMP 2611
CmvmiLongSignalMemorySnapshotCheck2
storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp
.
Используется в тестировании использования ресурсов внешнего
ключа и перезапусков узла.
.....
2.95. DUMP 2612
CmvmiShowLongSignalOwnership
NDB
должен быть собран, используя
NDB_DEBUG_RES_OWNERSHIP
и
WITH_NDB_DEBUG
.
CMVMI :: ShowLongSignalOwnership. Not compiled with NDB_DEBUG_RES_OWNERSHIP.
2.96. DUMP 4000
.....
2.97. DUMP 4001
DUMP 4000
.
.....
2.98. DUMP 5900
LCPContinue
NDB
должен быть собран с полной отладкой и включенной вставкой ошибок.
...
2.99. DUMP 7000
---
Node 2: ctimer = 299072, cgcpParticipantState = 0, cgcpStatus = 0
Node 2: coldGcpStatus = 0, coldGcpId = 436, cmasterState = 1
Node 2: cmasterTakeOverNode = 65535, ctcCounter = 299072
2.100. DUMP 7001
---
Node 2: c_lcpState.keepGci = 1
Node 2: c_lcpState.lcpStatus = 0, clcpStopGcp = 1
Node 2: cgcpStartCounter = 7, cimmediateLcpStart = 0
2.101. DUMP 7002
---
Node 2: cnoOfActiveTables = 4, cgcpDelay = 2000
Node 2: cdictblockref = 16384002, cfailurenr = 1
Node 2: con_lineNodes = 2, reference() = 16121858, creceivedfrag = 0
2.102. DUMP 7003
---
Node 2: cfirstAliveNode = 2, cgckptflag = 0
Node 2: clocallqhblockref = 16187394, clocaltcblockref = 16056322, cgcpOrderBlocked = 0
Node 2: cstarttype = 0, csystemnodes = 2, currentgcp = 438
2.103. DUMP 7004
---
Node 2: cmasterdihref = 16121858, cownNodeId = 2, cnewgcp = 438
Node 2: cndbStartReqBlockref = 16449538, cremainingfrags = 1268
Node 2: cntrlblockref = 16449538, cgcpSameCounter = 16, coldgcp = 437
2.104. DUMP 7005
---
2019-07-31 11:24:55 [MgmtSrvr] INFO -- Node 5: crestartGci = 43780
2019-07-31 11:24:55 [MgmtSrvr] INFO -- Node 6: crestartGci = 43780
2.105. DUMP 7006
---
Node 2: clcpDelay = 20, cgcpMasterTakeOverState = 0
Node 2: cmasterNodeId = 2
Node 2: cnoHotSpare = 0, c_nodeStartMaster.startNode = -256, c_nodeStartMaster.wait = 0
2.106. DUMP 7007
---
Node 2: c_nodeStartMaster.failNr = 1
Node 2: c_nodeStartMaster.startInfoErrorCode = -202116109
Node 2: c_nodeStartMaster.blockLcp = 0, c_nodeStartMaster.blockGcp = 0
2.107. DUMP 7008
---
Node 2: cfirstDeadNode = -256, cstartPhase = 7, cnoReplicas = 2
Node 2: cwaitLcpSr = 0
2.108. DUMP 7009
---
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 5: ccalcOldestRestorableGci = 43773, cnoOfNodeGroups = 1
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 5: crestartGci = 43780
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 6: ccalcOldestRestorableGci = 0, cnoOfNodeGroups = 1
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 6: crestartGci = 43780
2.109. DUMP 7010
---
Node 2: cminHotSpareNodes = 0, c_lcpState.lcpStatusUpdatedPlace = 9843, cLcpStart = 1
Node 2: c_blockCommit = 0, c_blockCommitNo = 0
2.110. DUMP 7011
---
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_COPY_GCIREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_COPY_TABREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_UPDATE_FRAG_STATEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_DIH_SWITCH_REPLICA_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_EMPTY_LCP_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_COMMIT_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_PREPARE_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_SAVEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_SUB_GCP_COMPLETE_REP_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_INCL_NODEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_MASTER_GCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_MASTER_LCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_START_INFOREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_START_RECREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_STOP_ME_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_TC_CLOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_TCGETOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_COPY_GCIREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_COPY_TABREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_UPDATE_FRAG_STATEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_DIH_SWITCH_REPLICA_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_EMPTY_LCP_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_COMMIT_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_PREPARE_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_SAVEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_SUB_GCP_COMPLETE_REP_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_INCL_NODEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_MASTER_GCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_MASTER_LCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_START_INFOREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_START_RECREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_STOP_ME_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_TC_CLOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_TCGETOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2.111. DUMP 7012
---
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: ParticipatingDIH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: ParticipatingLQH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_Counter_DIH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_Counter_LQH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_lastLCP_COMPLETE_REP_id = 12
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_lastLCP_COMPLETE_REP_ref = f60005
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: noOfLcpFragRepOutstanding: 0
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LAST_LCP_FRAG_ORD = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_From_Master_Received = 0
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: ParticipatingDIH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: ParticipatingLQH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_Counter_DIH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_Counter_LQH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_lastLCP_COMPLETE_REP_id = 12
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_lastLCP_COMPLETE_REP_ref = f60005
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: noOfLcpFragRepOutstanding: 0
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LAST_LCP_FRAG_ORD = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_From_Master_Received = 1
2.112. DUMP 7013
DihDumpLCPState
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP STATE --
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: lcpStatus = 0 (update place = 20271)
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: lcpStart = 1 lcpStopGcp = 43780 keepGci = 43773 oldestRestorable = 43773
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: immediateLcpStart = 0 masterLcpNodeId = 5
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 0 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 1 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 2 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 3 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 4 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 5 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 6 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 7 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 8 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 9 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP STATE --
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP STATE --
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: lcpStatus = 0 (update place = 22131)
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: lcpStart = 0 lcpStopGcp = 43780 keepGci = 0 oldestRestorable = 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: immediateLcpStart = 0 masterLcpNodeId = 5
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 0 : status: 10 place: 21724
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 1 : status: 9 place: 21236
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 2 : status: 2 place: 18414
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 3 : status: 6 place: 18230
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 4 : status: 5 place: 844
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 5 : status: 0 place: 1767
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 6 : status: 0 place: 23722
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 7 : status: 0 place: 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 8 : status: 0 place: 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 9 : status: 0 place: 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP STATE --
2.113. DUMP 7014
DihDumpLCPMasterTakeOver
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP MASTER TAKE OVER STATE --
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: c_lcpMasterTakeOverState.state = 0 updatePlace = 23717 failedNodeId = 0
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: c_lcpMasterTakeOverState.minTableId = 0 minFragId = 0
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP MASTER TAKE OVER STATE --
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP MASTER TAKE OVER STATE --
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: c_lcpMasterTakeOverState.state = 0 updatePlace = 23717 failedNodeId = 0
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: c_lcpMasterTakeOverState.minTableId = 0 minFragId = 0
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP MASTER TAKE OVER STATE --
2.114. DUMP 7015
---
NDB
в журнал кластера в порядке их табличных ID.
Стартовый ID таблицы может быть определен произвольно, в этом случае таблицы,
имеющие более низкие ID, пропущены, иначе выводится информация о статусе для
всех таблиц NDB
.
ndb_mgm>
ALL DUMP 7015 5
Sending dump signal with data:
0x00001b67 0x00000005
Sending dump signal with data:
0x00001b67 0x00000005
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 5: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 6: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 7: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 8: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 9: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 11: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 12: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 5: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 6: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 7: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 8: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 9: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 11: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 12: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
DUMP 7015
совпадает с обеспеченным
DUMP 7021
за исключением того, что последний
включает только единственную таблицу, определенную по ID.
Для более подробной информации об областях, включенных в этот вывод,
посмотрите раздел 2.120.2.115. DUMP 7016
DihAllAllowNodeStart
...
2.116. DUMP 7017
DihMinTimeBetweenLCP
ndb_mgm>
ALL DUMP 7017 100
Sending dump signal with data:
0x00001b69 0x0000000a
Sending dump signal with data:
0x00001b69 0x0000000a
2019-07-31 14:03:08 [ndbd] INFO -- Reset time between LCP to 200
TimeBetweenLocalCheckpoints
.2.117. DUMP 7018
DihMaxTimeBetweenLCP
ndb_mgm>
ALL DUMP 7018
Sending dump signal with data:
0x00001b6a 0x000000fa
Sending dump signal with data:
0x00001b6a 0x000000fa
2019-07-31 14:07:58 [ndbd] INFO -- Set time between LCP to max value
TimeBetweenLocalCheckpoints
.2.118. DUMP 7019
ALL DUMP 7019
FailedNodeId
.
ndb_mgm>
ALL DUMP 7019 5
Sending dump signal with data:
0x00001b6b 0x00000005
Sending dump signal with data:
0x00001b6b 0x00000005
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:DBTC: capiConnectClosing[5]: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 5: NF Node 5 tc: 1 lqh: 1 dih: 1 dict: 1 recNODE_FAILREP: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 5:m_NF_COMPLETE_REP: [SignalCounter: m_count=0 0000000000000000] m_nodefailSteps: 00000000
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:Suma 7019 5 line: 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_connected_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_failedApiNodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_subscriber_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_subscriber_per_node[5]: 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:DBTC: capiConnectClosing[5]: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 6: NF Node 5 tc: 1 lqh: 1 dih: 1 dict: 1 recNODE_FAILREP: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 6:m_NF_COMPLETE_REP: [SignalCounter: m_count=0 0000000000000000] m_nodefailSteps: 00000000
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:Suma 7019 5 line: 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_connected_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_failedApiNodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_subscriber_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_subscriber_per_node[5]: 0
2.119. DUMP 7020
---
...
2.120. DUMP 7021
---
NDB
в журнал кластера.
DUMP 7015
аналог этой команды, за исключением того, что DUMP
7015
пишет информацию для многих (или всех) таблиц
NDB
.
shell>
ndb_show_tables
idtype statelogging database schema name
29OrderedIndex Online NosysdefPRIMARY
1 IndexTrigger Online - NDB$INDEX_11_CUSTOM
3 IndexTrigger Online - NDB$INDEX_15_CUSTOM
8 UserTableOnline Yes mysqldefNDB$BLOB_7_3
5 IndexTrigger Online - NDB$INDEX_28_CUSTOM
13OrderedIndex Online NosysdefPRIMARY
10UserTableOnline Yes test defn1
27UserTableOnline Yes cdeft1
...
n1
, найденный заранее в выводе
ndb_show_tables
, вызов этой команды мог бы быть похожим на это, выполняя
ndb_mgm
в системной оболочке:
shell>
ndb_mgm -e 'ALL DUMP 7021 10'
Connected to Management Server at: localhost:1186
Sending dump signal with data:
0x00001b67 0x0000000a
Sending dump signal with data:
0x00001b67 0x0000000a
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
DUMP 7021
в журнал кластера,
показывают в следующих нескольких параграфах. Перечисления определяются как
свойства структуры TabRecord
в файле
storage/ndb/src/kernel/blocks/dbdih/Dbdih.hpp
.TabCopyStatus
(статус копии таблицы)
берет одно из следующих значений: 0: CS_IDLE
, 1:
CS_SR_PHASE1_READ_PAGES
, 2:
CS_SR_PHASE2_READ_TABLE
, 3:
CS_SR_PHASE3_COPY_TABLE
, 4:
CS_REMOVE_NODE
, 5:
CS_LCP_READ_TABLE
, 6:
CS_COPY_TAB_REQ
, 7:
CS_COPY_NODE_STATE
, 8:
CS_ADD_TABLE_MASTER
, 9:
CS_ADD_TABLE_SLAVE
, 10:
CS_INVALIDATE_NODE_LCP
, 11:
CS_ALTER_TABLE
, 12:
CS_COPY_TO_SAVE
, 13:
CS_GET_TABINFO
.TabUpdateStatus
(статус обновления таблицы)
берет одно из следующих значений: 0: US_IDLE
, 1:
US_LOCAL_CHECKPOINT
, 2:
US_LOCAL_CHECKPOINT_QUEUED
, 3:
US_REMOVE_NODE
, 4:
US_COPY_TAB_REQ
, 5:
US_ADD_TABLE_MASTER
, 6:
US_ADD_TABLE_SLAVE
, 7:
US_INVALIDATE_NODE_LCP
, 8:
US_CALLBACK
.TabLcpStatus
(статус локальной контрольной
точки таблицы) берет одно из следующих значений: 1:
TLS_ACTIVE
, 2:
TLS_WRITING_TO_FILE
, 3:
TLS_COMPLETED
.
Node 5:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
noLcpReplicas
представляет количество точных
копий фрагмента, остающихся для обработки любым продолжающимся процессом LCP.
Остаток строки имеет такой формат:
replica_id(on node_id)=lcp_id(status)
Idle
или
Ongoing
.2.121. DUMP 7022
---
.....
2.122. DUMP 7023
---
ndb_mgm>
ALL DUMP 7023 1
Sending dump signal with data:
0x00001b6f 0x00000001
Sending dump signal with data:
0x00001b6f 0x00000001
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: TakeOverPtr(1) starting: 4294967040 flags: 0x0 ref: 0x0, data: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: slaveState: 0 masterState: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: restorableGci: 0 startGci: 0 tab: 4294967040 frag: 4294967040 src: 4294967040 max: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: TakeOverPtr(1) starting: 4294967040 flags: 0x0 ref: 0x0, data: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: slaveState: 0 masterState: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: restorableGci: 0 startGci: 0 tab: 4294967040 frag: 4294967040 src: 4294967040 max: 0
2.123. DUMP 7024
---
...
2.124. DUMP 7026
DihSetGcpStopVals
ndb_mgm>
ALL DUMP 7026 1 10000
Sending dump signal with data:
0x00001b72 0x00000001 0x00002710
Sending dump signal with data:
0x00001b72 0x00000001 0x00002710
2019-07-31 17:04:40 [ndbd] INFO -- Changing GCP_SAVE max_lag_millis from 0 to 10000
2.125. DUMP 7027
DihStallLcpStart
91919191
для активации. Например, чтобы начать
остановку LCP на всех узлах, выполните:
ALL DUMP 7027 91919191
DUMP 7027
с любым аргументом
кроме 91919191 (или даже без
дополнительного аргумента вообще).2.126. DUMP 7032
DihDumpPageRecInfo
MAX_CONCURRENT_LCP_TAB_DEF_FLUSHES 4
MAX_CONCURRENT_DIH_TAB_DEF_OPS 6
MAX_CRASHED_REPLICAS 8
MAX_LCP_STORED 3
MAX_REPLICAS 4
MAX_NDB_PARTITIONS 2048
PACK_REPLICAS_WORDS 32
PACK_FRAGMENT_WORDS 262
PACK_TABLE_WORDS 536586
PACK_TABLE_PAGE_WORDS 2016
PACK_TABLE_PAGES 267
ZPAGEREC 1602
Total bytes : 13129992
LCP Tab def write ops inUse 0 queued 0
Pages in use 0/1602
2.127. DUMP 7033
DihFragmentsPerNode
ALL DUMP 7033
на
NDB Cluster с двумя узлами данных и
NoOfReplicas=2
:
2014-10-13 19:07:44 [MgmtSrvr] INFO -- Node 5: Fragments per node = 1
2014-10-13 19:07:44 [MgmtSrvr] INFO -- Node 6: Fragments per node = 1
2.128. DUMP 7034
DihDisplayPauseState
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: Pause LCP ref: f60005, is_lcp_paused 0, c_dequeue_lcp_rep_ongoing 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_pause_lcp_master_state: 0, c_old_node_waiting_for_lcp_end: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_queued_lcp_complete_rep: 0, c_lcp_id_paused: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_last_id_lcp_complete_rep: 12 c_lcp_runs_with_pause_support: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_lcp_id_while_copy_meta_data: 4294967040, c_pause_lcp_start_node: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_PAUSE_LCP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_FLUSH_LCP_REP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_lcpState.m_participatingLQH: 0000000000000000
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_pause_participants: 0000000000000000
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: Pause LCP ref: f60005, is_lcp_paused 0, c_dequeue_lcp_rep_ongoing 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_pause_lcp_master_state: 0, c_old_node_waiting_for_lcp_end: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_queued_lcp_complete_rep: 0, c_lcp_id_paused: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_last_id_lcp_complete_rep: 12 c_lcp_runs_with_pause_support: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_lcp_id_while_copy_meta_data: 4294967040, c_pause_lcp_start_node: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_PAUSE_LCP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_FLUSH_LCP_REP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
2.129. DUMP 7080
2019-07-31 17:48:43 [MgmtSrvr] INFO -- Node 5: Local checkpoint 13 started. Keep GCI = 43780 oldest restorable GCI = 43780
2019-07-31 17:48:45 [MgmtSrvr] INFO -- Node 5: LDM(1): Completed LCP, #frags = 18 #records = 0, #bytes = 0
2019-07-31 17:48:47 [MgmtSrvr] INFO -- Node 6: LDM(1): Completed LCP, #frags = 18 #records = 0, #bytes = 0
2019-07-31 17:48:47 [MgmtSrvr] INFO -- Node 5: Local checkpoint 13 completed
2.130. DUMP 7090
DihSetTimeBetweenGcp
TimeBetweenGlobalCheckpoints
(по умолчанию 2000 миллисекунд).
ndb_mgm>
ALL DUMP 7090
Sending dump signal with data:
0x00001bb2
Sending dump signal with data:
0x00001bb2
2019-07-31 18:03:36 [ndbd] INFO -- Setting time between gcp : 2000
ndb_mgm>
ALL DUMP 7090 10000
Sending dump signal with data:
0x00001bb2 0x00002710
Sending dump signal with data:
0x00001bb2 0x00002710
2019-07-31 18:08:01 [ndbd] INFO -- Setting time between gcp : 10000
2.131. DUMP 7099
DihStartLcpImmediately
Node 2: Local checkpoint 7 started. Keep GCI = 1003 oldest restorable GCI = 947
Node 2: Local checkpoint 7 completed
CLUSTERLOG
в
ndb_mgm,
чтобы иметь завершение контрольной точки, о котором сообщают,
как показано здесь:
ndb_mgmgt;
ALL CLUSTERLOG CHECKPOINT=8
2.132. DUMP 8004
---
Node 2: Suma: c_subscriberPoolsize: 260 free: 258
Node 2: Suma: c_tablePoolsize: 130 free: 128
Node 2: Suma: c_subscriptionPoolsize: 130 free: 128
Node 2: Suma: c_syncPoolsize: 2 free: 2
Node 2: Suma: c_dataBufferPoolsize: 1009 free: 1005
Node 2: Suma: c_metaSubscribers count: 0
Node 2: Suma: c_removeDataSubscribers count: 0
subscriberPool ... free
остается очень низким относительно
subscriberPool ... size
, часто хорошая идея увеличить значение
MaxNoOfTables
(subscriberPool
= 2 *
MaxNoOfTables
). Но могла также
быть проблема с узлами API, не высвобождающими ресурсы правильно, когда они
закрываются. DUMP 8004
обеспечивает способ
контролировать эти значения.2.133. DUMP 8005
---
Node 2: Bucket 0 10-0 switch gci: 0 max_acked_gci: 2961 max_gci: 0 tail: -256 head: -256
Node 2: Bucket 1 00-0 switch gci: 0 max_acked_gci: 2961 max_gci: 0 tail: -256 head: -256
2.134. DUMP 8010
---
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 2: c_subscriber_nodes: 0000000000000000000000000000000000000000000000000000000000000030
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 2: c_connected_nodes: 0000000000000000000000000000000000000000000000000000000000000032
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 3: c_subscriber_nodes: 0000000000000000000000000000000000000000000000000000000000000030
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 3: c_connected_nodes: 0000000000000000000000000000000000000000000000000000000000000032
DUMP
печатает два шестнадцатеричных числа. Это представления битовых полей,
имеющих один бит на ID узла, начиная с узла ID 0 для самого правого бита
(0x01
).c_subscriber_nodes
)
имеет значительные шестнадцатеричные цифры 30
(decimal 48) или двоичные 110000
, что
равняется узлам 4 и 5. Связанная битовая маска узлов
(c_connected_nodes
)
имеет значительные шестнадцатеричные цифры 32
(decimal 50). Двоичное представление этого числа
110010
, которое имеет
1
для второй, пятой и шестой цифр (считая
справа) и относится к узлам 1, 4, и 5 как связанным узлам.2.135. DUMP 8011
---
DUMP 8011
включает следующую информацию:
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: -- Starting dump of subscribers --
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 2 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80010004 24 0 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 3 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80010004 28 1 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 4 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80020004 24 2 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: -- Ending dump of subscribers --
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: -- Starting dump of subscribers --
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 2 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80010004 24 0 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 3 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80010004 28 1 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 4 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80020004 24 2 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: -- Ending dump of subscribers --
2.136. DUMP 8013
---
ALL DUMP 8013
на кластере с 4 узлами:
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: Highest epoch 1632087572485, oldest epoch 1632087572485
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: -- End dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: Reenable event buffer
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: Highest epoch 1632087572486, oldest epoch 1632087572486
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: -- End dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: Highest epoch 1632087572486, oldest epoch 1632087572486
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: -- End dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: Highest epoch 1632087572486, oldest epoch 1632087572486
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: -- End dump of pending subscribers --
2.137. DUMP 9800
DumpTsman
VM_TRACE
позволен при сборке. Удален в NDB 7.5.
.....
2.138. DUMP 9801
[TsMan + 1]
VM_TRACE
включен при сборке. Удалено в NDB 7.5.
.....
2.139. DUMP 9988
---
2.140. DUMP 9989
---
2.141. DUMP 10000
DumpLgman
...
2.142. DUMP 10001
LgmanDumpUndoStateClusterLog
...
2.143. DUMP 10002
LgmanDumpUndoStateLocalLog
...
2.144. DUMP 10003
LgmanCheckCallbacksClear
...
2.145. DUMP 11000
DumpPgman
---
...
2.146. DUMP 12001
TuxLogToFile
...
2.147. DUMP 12002
TuxSetLogFlags
...
2.148. DUMP 12009
TuxMetaDataJunk
Time: Sunday 01 November 2015 - 19:49:59
Status: Temporary error, restart node
Message: Error OS signal received (Internal error, programming error or
missing error message, please report a bug)
Error: 6000
Error data: Signal 6 received; Aborted
Error object: main.cpp
Program: ./libexec/ndbd
Pid: 13784
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8
2.149. DUMP 103003
CmvmiRelayDumpStateOrd
DUMP
,
используя другой узел. Синтаксис показывают здесь и
объясняют в следующем параграфа:
node_id DUMP 103003 other_node_id dump_cmd_no [args]
DUMP
, которая будет
выполнена на другом узле, args представляет любые дополнительные аргументы,
требуемые этой командой DUMP
.DUMP
узлу API, так как узлы API связаны только с узлами данных, а
не с сервером управления.2.150. DUMP 103004
CmvmiDummy
CmvmiSendDummySignal
с использованием
DUMP 103005
в регистратор событий. Включает информацию о размере сигнала,
числе и размере секций сигнала и узле, который послал его.
Синтаксис показывают здесь:
node_id DUMP 103004 to_id from_id padding frag_size sections length1 [length2 ...]
...
2.151. DUMP 103005
CmvmiSendDummy
CmvmiSendDummySignal
данного размера и секций к указанному узлу. Это используется, чтобы
проверить, что сообщения с определенными размерами сигнала и секциями можно
послать и получить, это также зарегистрировано регистратором событий.
Получающаяся запись в журнале должна соответствовать произведенному, получая
DUMP 103004
. Синтаксис:
node_id DUMP 103005 to_id from_id padding frag_size sections length1 [length2 ...]
...
2.152. DUMP 13000
DumpBackup
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 5: Compressed Backup: 0
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 5: Compressed LCP: 0
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 6: Compressed Backup: 0
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 6: Compressed LCP: 0
2.153. DUMP 130001
DumpBackupSetCompressed
2019-08-01 14:12:43 [MgmtSrvr] INFO -- Node 5: Compressed Backup: 113871480
2019-08-01 14:12:43 [MgmtSrvr] INFO -- Node 6: Compressed Backup: 16121861
2.154. DUMP 13002
DumpBackupSetCompressedLCP
2019-08-01 14:15:39 [MgmtSrvr] INFO -- Node 5: Compressed LCP: 498009319
2019-08-01 14:15:39 [MgmtSrvr] INFO -- Node 6: Compressed LCP: 535883936
2.155. DUMP 13003
BackupErrorInsert
ndb_mgm> ALL DUMP 13003 32 1
Sending dump signal with data:
0x000032cb 0x00000020 0x00000001
Sending dump signal with data:
0x000032cb 0x00000020 0x00000001
BACKUP: setting error 32, 1
2.156. DUMP 14000
DumpDbinfo
.....
2.157. DUMP 14001
DbinfoListTables
ndbinfo
. Пишет в журнал узла
данных. Каждая таблица перечисляется в формате
table_id, table_name
.
--- BEGIN NDB$INFO.TABLES ---
0,tables
1,columns
2,test
3,pools
4,transporters
5,logspaces
6,logbuffers
7,resources
8,counters
9,nodes
10,diskpagebuffer
11,threadblocks
12,threadstat
13,transactions
14,operations
15,membership
16,dict_obj_info
17,frag_mem_use
18,disk_write_speed_base
19,disk_write_speed_aggregate
20,frag_operations
21,restart_info
22,tc_time_track_stats
23,config_values
24,threads
25,cpustat_50ms
26,cpustat_1sec
27,cpustat_20sec
28,cpustat
29,frag_locks
30,acc_operations
31,table_distribution_status
32,table_fragments
33,table_replicas
34,table_distribution_status_all
35,table_fragments_all
36,table_replicas_all
37,stored_tables
38,processes
39,config_nodes
--- END NDB$INFO.TABLES ---
2.158. DUMP 14002
DbinfoListColumns
ndbinfo
в журнал узла данных.
Каждая колонка перечисляется в формате table_id,
column_id, column_name, column_typecode
. ID таблиц получены из
ALL DUMP
14001
. Коды типов столбцов показывают в следующей таблице:Code
Тип 1
String 2
Integer 3
Decimal
--- BEGIN NDB$INFO.COLUMNS ---
0,0,table_id,2
0,1,table_name,1
0,2,comment,1
1,0,table_id,2
1,1,column_id,2
1,2,column_name,1
1,3,column_type,2
1,4,comment,1
2,0,node_id,2
2,1,block_number,2
2,2,block_instance,2
2,3,counter,2
2,4,counter2,3
3,0,node_id,2
3,1,block_number,2
3,2,block_instance,2
3,3,pool_name,1
3,4,used,3
3,5,total,3
3,6,high,3
3,7,entry_size,3
3,8,config_param1,2
3,9,config_param2,2
3,10,config_param3,2
3,11,config_param4,2
3,12,resource_id,2
3,13,type_id,2
4,0,node_id,2
4,1,remote_node_id,2
4,2,connection_status,2
4,3,remote_address,1
4,4,bytes_sent,3
4,5,bytes_received,3
4,6,connect_count,2
4,7,overloaded,2
4,8,overload_count,2
4,9,slowdown,2
4,10,slowdown_count,2
5,0,node_id,2
5,1,log_type,2
5,2,log_id,2
5,3,log_part,2
5,4,total,3
5,5,used,3
5,6,high,3
6,0,node_id,2
6,1,log_type,2
6,2,log_id,2
6,3,log_part,2
6,4,total,3
6,5,used,3
6,6,high,3
7,0,node_id,2
7,1,resource_id,2
7,2,reserved,2
7,3,used,2
7,4,max,2
7,5,high,2
7,6,spare,2
8,0,node_id,2
8,1,block_number,2
8,2,block_instance,2
8,3,counter_id,2
8,4,val,3
9,0,node_id,2
9,1,uptime,3
9,2,status,2
9,3,start_phase,2
9,4,config_generation,2
10,0,node_id,2
10,1,block_instance,2
10,2,pages_written,3
10,3,pages_written_lcp,3
10,4,pages_read,3
10,5,log_waits,3
10,6,page_requests_direct_return,3
10,7,page_requests_wait_queue,3
10,8,page_requests_wait_io,3
11,0,node_id,2
11,1,thr_no,2
11,2,block_number,2
11,3,block_instance,2
12,0,node_id,2
12,1,thr_no,2
12,2,thr_nm,1
12,3,c_loop,3
12,4,c_exec,3
12,5,c_wait,3
12,6,c_l_sent_prioa,3
12,7,c_l_sent_priob,3
12,8,c_r_sent_prioa,3
12,9,c_r_sent_priob,3
12,10,os_tid,3
12,11,os_now,3
12,12,os_ru_utime,3
12,13,os_ru_stime,3
12,14,os_ru_minflt,3
12,15,os_ru_majflt,3
12,16,os_ru_nvcsw,3
12,17,os_ru_nivcsw,3
13,0,node_id,2
13,1,block_instance,2
13,2,objid,2
13,3,apiref,2
13,4,transid0,2
13,5,transid1,2
13,6,state,2
13,7,flags,2
13,8,c_ops,2
13,9,outstanding,2
13,10,timer,2
14,0,node_id,2
14,1,block_instance,2
14,2,objid,2
14,3,tcref,2
14,4,apiref,2
14,5,transid0,2
14,6,transid1,2
14,7,tableid,2
14,8,fragmentid,2
14,9,op,2
14,10,state,2
14,11,flags,2
15,0,node_id,2
15,1,group_id,2
15,2,left_node,2
15,3,right_node,2
15,4,president,2
15,5,successor,2
15,6,dynamic_id,2
15,7,arbitrator,2
15,8,arb_ticket,1
15,9,arb_state,2
15,10,arb_connected,2
15,11,conn_rank1_arbs,1
15,12,conn_rank2_arbs,1
16,0,type,2
16,1,id,2
16,2,version,2
16,3,state,2
16,4,parent_obj_type,2
16,5,parent_obj_id,2
16,6,fq_name,1
17,0,node_id,2
17,1,block_instance,2
17,2,table_id,2
17,3,fragment_num,2
17,4,rows,3
17,5,fixed_elem_alloc_bytes,3
17,6,fixed_elem_free_bytes,3
17,7,fixed_elem_count,3
17,8,fixed_elem_size_bytes,2
17,9,var_elem_alloc_bytes,3
17,10,var_elem_free_bytes,3
17,11,var_elem_count,3
17,12,tuple_l2pmap_alloc_bytes,3
17,13,hash_index_l2pmap_alloc_bytes,3
17,14,hash_index_alloc_bytes,3
18,0,node_id,2
18,1,thr_no,2
18,2,millis_ago,3
18,3,millis_passed,3
18,4,backup_lcp_bytes_written,3
18,5,redo_bytes_written,3
18,6,target_disk_write_speed,3
19,0,node_id,2
19,1,thr_no,2
19,2,backup_lcp_speed_last_sec,3
19,3,redo_speed_last_sec,3
19,4,backup_lcp_speed_last_10sec,3
19,5,redo_speed_last_10sec,3
19,6,std_dev_backup_lcp_speed_last_10sec,3
19,7,std_dev_redo_speed_last_10sec,3
19,8,backup_lcp_speed_last_60sec,3
19,9,redo_speed_last_60sec,3
19,10,std_dev_backup_lcp_speed_last_60sec,3
19,11,std_dev_redo_speed_last_60sec,3
19,12,slowdowns_due_to_io_lag,3
19,13,slowdowns_due_to_high_cpu,3
19,14,disk_write_speed_set_to_min,3
19,15,current_target_disk_write_speed,3
20,0,node_id,2
20,1,block_instance,2
20,2,table_id,2
20,3,fragment_num,2
20,4,tot_key_reads,3
20,5,tot_key_inserts,3
20,6,tot_key_updates,3
20,7,tot_key_writes,3
20,8,tot_key_deletes,3
20,9,tot_key_refs,3
20,10,tot_key_attrinfo_bytes,3
20,11,tot_key_keyinfo_bytes,3
20,12,tot_key_prog_bytes,3
20,13,tot_key_inst_exec,3
20,14,tot_key_bytes_returned,3
20,15,tot_frag_scans,3
20,16,tot_scan_rows_examined,3
20,17,tot_scan_rows_returned,3
20,18,tot_scan_bytes_returned,3
20,19,tot_scan_prog_bytes,3
20,20,tot_scan_bound_bytes,3
20,21,tot_scan_inst_exec,3
20,22,tot_qd_frag_scans,3
20,23,conc_frag_scans,2
20,24,conc_qd_plain_frag_scans,2
20,25,conc_qd_tup_frag_scans,2
20,26,conc_qd_acc_frag_scans,2
20,27,tot_commits,3
21,0,node_id,2
21,1,node_restart_status,1
21,2,node_restart_status_int,2
21,3,secs_to_complete_node_failure,2
21,4,secs_to_allocate_node_id,2
21,5,secs_to_include_in_heartbeat_protocol,2
21,6,secs_until_wait_for_ndbcntr_master,2
21,7,secs_wait_for_ndbcntr_master,2
21,8,secs_to_get_start_permitted,2
21,9,secs_to_wait_for_lcp_for_copy_meta_data,2
21,10,secs_to_copy_meta_data,2
21,11,secs_to_include_node,2
21,12,secs_starting_node_to_request_local_recovery,2
21,13,secs_for_local_recovery,2
21,14,secs_restore_fragments,2
21,15,secs_undo_disk_data,2
21,16,secs_exec_redo_log,2
21,17,secs_index_rebuild,2
21,18,secs_to_synchronize_starting_node,2
21,19,secs_wait_lcp_for_restart,2
21,20,secs_wait_subscription_handover,2
21,21,total_restart_secs,2
22,0,node_id,2
22,1,block_number,2
22,2,block_instance,2
22,3,comm_node_id,2
22,4,upper_bound,3
22,5,scans,3
22,6,scan_errors,3
22,7,scan_fragments,3
22,8,scan_fragment_errors,3
22,9,transactions,3
22,10,transaction_errors,3
22,11,read_key_ops,3
22,12,write_key_ops,3
22,13,index_key_ops,3
22,14,key_op_errors,3
23,0,node_id,2
23,1,config_param,2
23,2,config_value,1
24,0,node_id,2
24,1,thr_no,2
24,2,thread_name,1
24,3,thread_description,1
25,0,node_id,2
25,1,thr_no,2
25,2,OS_user_time,2
25,3,OS_system_time,2
25,4,OS_idle_time,2
25,5,exec_time,2
25,6,sleep_time,2
25,7,spin_time,2
25,8,send_time,2
25,9,buffer_full_time,2
25,10,elapsed_time,2
26,0,node_id,2
26,1,thr_no,2
26,2,OS_user_time,2
26,3,OS_system_time,2
26,4,OS_idle_time,2
26,5,exec_time,2
26,6,sleep_time,2
26,7,spin_time,2
26,8,send_time,2
26,9,buffer_full_time,2
26,10,elapsed_time,2
27,0,node_id,2
27,1,thr_no,2
27,2,OS_user_time,2
27,3,OS_system_time,2
27,4,OS_idle_time,2
27,5,exec_time,2
27,6,sleep_time,2
27,7,spin_time,2
27,8,send_time,2
27,9,buffer_full_time,2
27,10,elapsed_time,2
28,0,node_id,2
28,1,thr_no,2
28,2,OS_user,2
28,3,OS_system,2
28,4,OS_idle,2
28,5,thread_exec,2
28,6,thread_sleeping,2
28,7,thread_spinning,2
28,8,thread_send,2
28,9,thread_buffer_full,2
28,10,elapsed_time,2
29,0,node_id,2
29,1,block_instance,2
29,2,table_id,2
29,3,fragment_num,2
29,4,ex_req,3
29,5,ex_imm_ok,3
29,6,ex_wait_ok,3
29,7,ex_wait_fail,3
29,8,sh_req,3
29,9,sh_imm_ok,3
29,10,sh_wait_ok,3
29,11,sh_wait_fail,3
29,12,wait_ok_millis,3
29,13,wait_fail_millis,3
30,0,node_id,2
30,1,block_instance,2
30,2,tableid,2
30,3,fragmentid,2
30,4,rowid,3
30,5,transid0,2
30,6,transid1,2
30,7,acc_op_id,2
30,8,op_flags,2
30,9,prev_serial_op_id,2
30,10,next_serial_op_id,2
30,11,prev_parallel_op_id,2
30,12,next_parallel_op_id,2
30,13,duration_millis,2
30,14,user_ptr,2
31,0,node_id,2
31,1,table_id,2
31,2,tab_copy_status,2
31,3,tab_update_status,2
31,4,tab_lcp_status,2
31,5,tab_status,2
31,6,tab_storage,2
31,7,tab_type,2
31,8,tab_partitions,2
31,9,tab_fragments,2
31,10,current_scan_count,2
31,11,scan_count_wait,2
31,12,is_reorg_ongoing,2
32,0,node_id,2
32,1,table_id,2
32,2,partition_id,2
32,3,fragment_id,2
32,4,partition_order,2
32,5,log_part_id,2
32,6,no_of_replicas,2
32,7,current_primary,2
32,8,preferred_primary,2
32,9,current_first_backup,2
32,10,current_second_backup,2
32,11,current_third_backup,2
32,12,num_alive_replicas,2
32,13,num_dead_replicas,2
32,14,num_lcp_replicas,2
33,0,node_id,2
33,1,table_id,2
33,2,fragment_id,2
33,3,initial_gci,2
33,4,replica_node_id,2
33,5,is_lcp_ongoing,2
33,6,num_crashed_replicas,2
33,7,last_max_gci_started,2
33,8,last_max_gci_completed,2
33,9,last_lcp_id,2
33,10,prev_lcp_id,2
33,11,prev_max_gci_started,2
33,12,prev_max_gci_completed,2
33,13,last_create_gci,2
33,14,last_replica_gci,2
33,15,is_replica_alive,2
34,0,node_id,2
34,1,table_id,2
34,2,tab_copy_status,2
34,3,tab_update_status,2
34,4,tab_lcp_status,2
34,5,tab_status,2
34,6,tab_storage,2
34,7,tab_type,2
34,8,tab_partitions,2
34,9,tab_fragments,2
34,10,current_scan_count,2
34,11,scan_count_wait,2
34,12,is_reorg_ongoing,2
35,0,node_id,2
35,1,table_id,2
35,2,partition_id,2
35,3,fragment_id,2
35,4,partition_order,2
35,5,log_part_id,2
35,6,no_of_replicas,2
35,7,current_primary,2
35,8,preferred_primary,2
35,9,current_first_backup,2
35,10,current_second_backup,2
35,11,current_third_backup,2
35,12,num_alive_replicas,2
35,13,num_dead_replicas,2
35,14,num_lcp_replicas,2
36,0,node_id,2
36,1,table_id,2
36,2,fragment_id,2
36,3,initial_gci,2
36,4,replica_node_id,2
36,5,is_lcp_ongoing,2
36,6,num_crashed_replicas,2
36,7,last_max_gci_started,2
36,8,last_max_gci_completed,2
36,9,last_lcp_id,2
36,10,prev_lcp_id,2
36,11,prev_max_gci_started,2
36,12,prev_max_gci_completed,2
36,13,last_create_gci,2
36,14,last_replica_gci,2
36,15,is_replica_alive,2
37,0,node_id,2
37,1,table_id,2
37,2,logged_table,2
37,3,row_contains_gci,2
37,4,row_contains_checksum,2
37,5,temporary_table,2
37,6,force_var_part,2
37,7,read_backup,2
37,8,fully_replicated,2
37,9,extra_row_gci,2
37,10,extra_row_author,2
37,11,storage_type,2
37,12,hashmap_id,2
37,13,hashmap_version,2
37,14,table_version,2
37,15,fragment_type,2
37,16,partition_balance,2
37,17,create_gci,2
37,18,backup_locked,2
37,19,single_user_mode,2
38,0,reporting_node_id,2
38,1,node_id,2
38,2,node_type,2
38,3,node_version,1
38,4,process_id,2
38,5,angel_process_id,2
38,6,process_name,1
38,7,service_URI,1
39,0,reporting_node_id,2
39,1,node_id,2
39,2,node_type,2
39,3,node_hostname,1
--- END NDB$INFO.COLUMNS ---
2.159. DUMP 14003
DbinfoScanTable
.....
2.160. DUMP 30000
RestoreRates
.....
2.161. DUMP 100000
BackupStatus
REPORT BackupStatus
.
.....
2.162. DUMP 100001
BackupMinWriteSpeed32
MinDiskWriteSpeed
.
.....
2.163. DUMP 100002
BackupMaxWriteSpeed32
MaxDiskWriteSpeed
.
.....
2.164. DUMP 100003
BackupMaxWriteSpeedOtherNodeRestart32
MaxDiskWriteSpeedOtherNodeRestart
.
.....
2.165. DUMP 100004
BackupMinWriteSpeed64
MinDiskWriteSpeed
,
передавая младшие значащие байты.
.....
2.166. DUMP 100005
BackupMaxWriteSpeed64
MaxDiskWriteSpeed
,
передавая младшие значащие байты.
.....
2.167. DUMP 100006
BackupMaxWriteSpeedOtherNodeRestart64
MaxDiskWriteSpeedOtherNodeRestart
, передавая младшие значащие байты.
.....
2.168. DUMP 100007
DumpStateOrd::BackupEncryptionRequired
RequireEncryptedBackup
.
shell>
ndb_mgm -e 'ALL DUMP 100007 0'
Sending dump signal with data:
0x000186a7 0x00000000
Sending dump signal with data:
0x000186a7 0x00000000
NDB
не был собран, используя
WITH_DEBUG
.2.169. DUMP 100999
_BackupMax
.....
2.170. DUMP 101000
_TCMin
.....
2.171. DUMP 101999
_TCMax
.....
2.172. DUMP 102000
LQHLogFileInitStatus
2019-08-01 23:10:24 [MgmtSrvr] INFO -- Node 5: Node 5: Log file initializtion completed
2019-08-01 23:10:24 [MgmtSrvr] INFO -- Node 6: Node 6: Log file initializtion completed
2.173. DUMP 102999
_LQHMax
.....
2.174. DUMP 103000
SetSchedulerResponsiveness
SchedulerResponsiveness
в
значение от 0 до 10 включительно.
ndb_mgm>
ALL DUMP 103000
Sending dump signal with data:
0x00019258
Sending dump signal with data:
0x00019258
dump 103000 X, where X is between 0 and 10 to set transactional priority
ndb_mgm>
ALL DUMP 103000 50
Sending dump signal with data:
0x00019258 0x00000032
Sending dump signal with data:
0x00019258 0x00000032
Trying to set SchedulerResponsiveness outside 0-10
ndb_mgm>
ALL DUMP 103000 5
Sending dump signal with data:
0x00019258 0x00000005
Sending dump signal with data:
0x00019258 0x00000005
Setting SchedulerResponsiveness to 5
2.175. DUMP 103001
EnableEventLoggerDebug
2019-08-02 07:32:46 [ndbd] INFO -- Enable Debug level in node log
node_id NODELOG DEBUG ON
.2.176. DUMP 103002
DisableEventLoggerDebug
.....
node_id NODELOG DEBUG OFF
.2.177. DUMP 104000
SetSchedulerSpinTimerAll
DUMP 104000 spintime
устанавливает время ротации для всех потоков в spintime микросекунд.2.178. DUMP 104001
SetSchedulerSpinTimerThread
DUMP 104001 thread spintime
устанавливает время ротации для потока номер thread в spintime микросекунд.2.179. DUMP 104002
SetAllowedSpinOverhead
DUMP
104002 overhead
, где overhead в диапазоне от 0 до 10000 включительно.
Это используется, чтобы решить, какое число единиц процессорного времени
позволило получать 1 единицу времени ожидания, согласно
формуле, показанной здесь:
[time allowed] = 1.3 + (overhead / 100)
SetAllowedSpinOverhead
, используется эта команда
DUMP
, достаточно позволить ее значению быть
определенным одним из предопределенных значений для параметра
SpinMethod
узлав данных.2.180. DUMP 104003
SetSpintimePerCall
DUMP 104003 timepercall
устанавливает время для ротации в timepercall наносекунд с диапазоном
300-8000 включительно. Значение по умолчанию
составляет 1000 наносекунд (1 микросекунда).2.181. DUMP 104004
EnableAdaptiveSpinning
DUMP 104004 enable
, где
enable 1 или 0. Использование 0 отключает адаптивную ротацию,
то есть, это вызывает ротацию, не проверяя использование ресурсов CPU,
которая является той же самой статической ротацией, используемой
NDB
в прошлом.SchedulerSpinTimer
или
компонента spintime
для
ThreadConfig
)
значит, что ротация дезактивирована полностью.DUMP
, достаточно (и более удобно) сделать
это, устанавливая параметр настройки узла данных
SpinMethod
в файле
config.ini
.
Найди своих коллег! |
Вы можете направить письмо администратору этой странички, Алексею Паутову.