RussianLDP Рейтинг@Mail.ru
WebMoney: 
WMZ Z294115950220 
WMR R409981405661 
WME E134003968233 
Visa 
4274 3200 2453 6495 

Глава 2. Команды DUMP клиента управления NDB Cluster

Никогда не используйте эти команды на рабочем NDB Cluster, кроме как под специальным руководством технической поддержки MySQL. Oracle НЕ будет считаться ответственной за неблагоприятные результаты, являющиеся результатом их использования ни при каких других обстоятельствах!

Команды DUMP могут использоваться в клиенте управления NDB (ndb_mgm), чтобы получить отладочную информацию. Они описаны здесь, а не в MySQL Manual по следующим причинам:

  • Они предназначаются только для использования при поиске неисправностей, отладке и подобных действиях разработчиками MySQL, QA и персоналом поддержки.

  • Из-за пути, которым команды DUMP взаимодействуют с памятью, они могут заставить управление NDB Cluster работать со сбоями или даже полностью повиснуть, когда используются.

  • Форматы, аргументы и даже доступность этих команд не будут стабильны. Вся эта информация подвержена изменениям в любое время без предшествующего уведомления.

  • По предыдущим причинам команды DUMP не предназначены для использования в производственной среде конечными пользователями.

Общий синтаксис:

ndb_mgm> node_id DUMP code [arguments]

Это вызывает сброс в журнал содержания одного или больше регистров NDB на узле с ID node_id. Затронутые регистры определяются значением code. Некоторые (но не все) команды DUMP принимают дополнительные параметры, они отмечены и описаны, когда это применимо.

Отдельные команды DUMP перечисляются по их значению code ниже.

Каждый листинг включает следующую информацию:

  • Значение code.

  • Соответствующий NDB ядерный блок (см. главу 4).

  • Кодовый символ DUMP, где определен, если не определен, это обозначается используя тройную черту: ---.

  • Типовой вывод, если не указано иное, предполагается что каждая команда DUMP вызвана как показано здесь:

    ndb_mgm> 2 DUMP code
    

    Обычно это от журнала кластера, в некоторых случаях, где вывод может быть произведен в журнал узла вместо него, это обозначается. Где команда DUMP производит ошибки, вывод обычно берется из журнала ошибок.

  • Где применимо, дополнительная информация, такая как возможные дополнительные параметры, предупреждения, статус или другие значения, возвращенные DUMP, показана. Иначе ее отсутствие обозначается с помощью [N/A].

Коды команд DUMP не обязательно определяются последовательно. Например, коды с 2 по 12 в настоящее время не определены и не перечислены. Однако, индивидуальные коды DUMP подвержены изменениям, и нет никакой гарантии, что данное кодовое обозначение продолжит определяться для той же самой цели (или определяться вообще) со временем.

Нет также никакой гарантии что данный код DUMP, даже если в настоящее время не определен, не будет иметь серьезных последствий, когда используется при управлении NDB Cluster.

Для получения информации относительно других команд клиента ndb_mgm посмотрите Commands in the NDB Cluster Management Client.

Коды DUMP в следующих диапазонах в настоящее время не использованы и таким образом не поддержаны:

  • 3000 - 5000

  • 6000 - 7000

  • 13000 и выше.

2.1. DUMP 1

Code

1

Символ

---

Ядерный блок

QMGR

Описание. Информация о переменных фазы 1 запуска (см. раздел 5.4).

Пример вывода.

2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: creadyDistCom = 1, cpresident = 5
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: cpresidentAlive = 1, cpresidentCand = 5 (gci: 254325)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: ctoStatus = 0
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 1: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 2: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 3: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 4: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 5: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 6: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 7: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 8: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 9: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 10: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 11: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 12: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 13: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 14: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 15: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 16: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 17: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 18: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 19: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 20: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 21: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 22: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 23: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 24: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 25: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 26: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 27: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 28: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 29: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 30: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 31: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 32: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 33: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 34: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 35: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 36: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 37: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 38: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 39: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 40: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 41: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 42: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 43: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 44: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 45: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 46: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 47: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 5: Node 48: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: creadyDistCom = 1, cpresident = 5
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: cpresidentAlive = 0, cpresidentCand = 5 (gci: 254325)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: ctoStatus = 0
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 1: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 2: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 3: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 4: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 5: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 6: ZRUNNING(3)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 7: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 8: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 9: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 10: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 11: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 12: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 13: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 14: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 15: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 16: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 17: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 18: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 19: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 20: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 21: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 22: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 23: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 24: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 25: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 26: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 27: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 28: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 29: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 30: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 31: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 32: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 33: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 34: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 35: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 36: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 37: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 38: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 39: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 40: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 41: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 42: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 43: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 44: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 45: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 46: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 47: ZAPI_INACTIVE(7)
2014-10-13 20:54:29 [MgmtSrvr] INFO -- Node 6: Node 48: ZAPI_INACTIVE(7)

Дополнительно. [N/A]

2.2. DUMP 13

Code

13

Символ

---

Ядерный блок

CMVMI, NDBCNTR

Описание. Сбрасывает счетчик сигналов и информацию фазы запуска.

Пример вывода.

2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 5: Cntr: cstartPhase = 9, cinternalStartphase = 8, block = 0
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 5: Cntr: cmasterNodeId = 5
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 6: Cntr: cstartPhase = 9, cinternalStartphase = 8, block = 0
2014-10-13 20:56:33 [MgmtSrvr] INFO -- Node 6: Cntr: cmasterNodeId = 5

Дополнительно. [N/A]

2.3. DUMP 14

Code

14

Символ

CommitAckMarkersSize

Ядерный блок

DBLQH, DBTC

Описание. Пишет свободное место в commitAckMarkerPool.

Пример вывода.

2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 5: LQH: m_commitAckMarkerPool: 36094 free size: 36094
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 6: LQH: m_commitAckMarkerPool: 36094 free size: 36094

Дополнительно. [N/A]

2.4. DUMP 15

Code

15

Символ

CommitAckMarkersDump

Ядерный блок

DBLQH, DBTC

Описание. Пишет данные из commitAckMarkerPool.

Пример вывода.

2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 5: LQH: m_commitAckMarkerPool: 36094 free size: 36094
2014-10-13 20:58:11 [MgmtSrvr] INFO -- Node 6: LQH: m_commitAckMarkerPool: 36094 free size: 36094

Дополнительно. [N/A]

2.5. DUMP 16

Code

16

Символ

DihDumpNodeRestartInfo

Ядерный блок

DBDIH

Описание. Предоставляет информацию о перезапуске узла.

Пример вывода.

2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: c_nodeStartMaster.blockGcp = 0, c_nodeStartMaster.wait = 0
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: [ 0 : cfirstVerifyQueue = 0 clastVerifyQueue = 0 sz: 8193]
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 5: cgcpOrderBlocked = 0
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: c_nodeStartMaster.blockGcp = 0, c_nodeStartMaster.wait = 0
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: [ 0 : cfirstVerifyQueue = 0 clastVerifyQueue = 0 sz: 8193]
2014-10-13 21:01:19 [MgmtSrvr] INFO -- Node 6: cgcpOrderBlocked = 0

Дополнительно. [N/A]

2.6. DUMP 17

Code

17

Символ

DihDumpNodeStatusInfo

Ядерный блок

DBDIH

Описание. Пишет статус узла.

Пример вывода.

2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Printing nodeStatus of all nodes
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Node = 5 has status = 1
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 5: Node = 6 has status = 1
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Printing nodeStatus of all nodes
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Node = 5 has status = 1
2014-10-13 21:02:28 [MgmtSrvr] INFO -- Node 6: Node = 6 has status = 1

Дополнительно. Возможные значения статуса узла показывают в следующей таблице:

Таблица 2.1. Значения статуса узла и имена

ЗначениеИмя
0NOT_IN_CLUSTER
1ALIVE
2STARTING
3DIED_NOW
4DYING
5DEAD

2.7. DUMP 18

Code

18

Символ

DihPrintFragmentation

Ядерный блок

DBDIH

Описание. Печатает одну запись на фрагмент таблицы: перечисляет номер таблицы, номер фрагмента, ID части журнала и ID узлов, обращающихся с основными и вторичными фрагментами точной копии этого фрагмента. Должен быть вызван как ALL DUMP 18.

Пример вывода.

Node 5: Printing nodegroups --
Node 5: NG 0(0) ref: 4 [ cnt: 2 : 5 6 4294967040 4294967040 ]
Node 5: Printing fragmentation of all tables --
Node 5:Table 2 Fragment 0(1) LP: 0 - 5 6
Node 5:Table 2 Fragment 1(1) LP: 0 - 6 5
Node 5:Table 3 Fragment 0(2) LP: 1 - 5 6
Node 5:Table 3 Fragment 1(2) LP: 1 - 6 5
Node 6: Printing nodegroups --
Node 6: NG 0(0) ref: 4 [ cnt: 2 : 5 6 4294967040 4294967040 ]
Node 6: Printing fragmentation of all tables --
Node 6:Table 2 Fragment 0(1) LP: 0 - 5 6
Node 6:Table 2 Fragment 1(1) LP: 0 - 6 5
Node 6:Table 3 Fragment 0(2) LP: 1 - 5 6
Node 6:Table 3 Fragment 1(2) LP: 1 - 6 5

Дополнительно. [N/A]

2.8. DUMP 19

Code

19

Символ

DihPrintOneFragmentation

Ядерный блок

DBDIH

Описание. Должен напечатать информацию об одном фрагменте, но на самом деле вызывает сбой узла.

2.9. DUMP 20

Code

20

Символ

---

Ядерный блок

BACKUP

Описание. Печатает значения BackupDataBufferSize, BackupLogBufferSize, BackupWriteSize и BackupMaxWriteSize.

Пример вывода.

2014-10-13 21:04:13 [MgmtSrvr] INFO -- Node 5: Backup: data: 17039872 log: 17039872 min: 262144 max: 1048576
2014-10-13 21:04:13 [MgmtSrvr] INFO -- Node 6: Backup: data: 17039872 log: 17039872 min: 262144 max: 1048576

Дополнительно. Эта команда может также использоваться, чтобы установить эти параметры, как в этом примере:

ndb_mgm> ALL DUMP 20 3 3 64 512
ALL DUMP 20 3 3 64 512
Sending dump signal with data:
0x00000014 0x00000003 0x00000003 0x00000040
0x00000200
Sending dump signal with data:
0x00000014 0x00000003 0x00000003 0x00000040
0x00000200

...

2014-10-13 21:05:52 [MgmtSrvr] INFO -- Node 5: Backup: data: 3145728 log: 3145728 min: 65536 max: 524288
2014-10-13 21:05:52 [MgmtSrvr] INFO -- Node 6: Backup: data: 3145728 log: 3145728 min: 65536 max: 524288

Необходимо установить каждый из этих параметров к тому же самому значению на всех узлах, иначе последующий вызов START BACKUP обвалит кластер.

2.10. DUMP 21

Code

21

Символ

---

Ядерный блок

BACKUP

Описание. Посылает сигнал GSN_BACKUP_REQ узлу, заставив этот узел начать резервную копию.

Пример вывода.

Node 2: Backup 1 started from node 2
Node 2: Backup 1 started from node 2 completed
StartGCP: 158515 StopGCP: 158518
#Records: 2061 #LogRecords: 0
Data: 35664 bytes Log: 0 bytes

Дополнительно. [N/A]

2.11. DUMP 22

Code

22 backup_id

Символ

---

Ядерный блок

BACKUP

Описание. Посылает узлу сигнал GSN_FSREMOVEREQ. Это должно удалить резервную копию, имеющую резервный ID backup_id из резервного каталога, но пока это на самом деле заставляет узел повиснуть.

Пример вывода.

...

Дополнительно. Кажется, что любой вызов DUMP 22 заставляет узел или узлы падать.

2.12. DUMP 23

Code

23

Символ

---

Ядерный блок

BACKUP

Описание. Сбрасывает в дамп все резервные отчеты и записи файла, принадлежащие тем отчетам.

Пример показывает только единственный отчет с единственным файлом, но могут быть многочисленные отчеты и многократные файлы в рамках каждого отчета.

Пример вывода. Без происходящей резервной копии (BackupRecord показано как 0):

Node 2: BackupRecord 0: BackupId: 5 MasterRef: f70002 ClientRef: 0
Node 2:State: 2
Node 2:file 0: type: 3 flags: H'0

В то время, как резервная копия происходит (BackupRecord = 1):

Node 2: BackupRecord 1: BackupId: 8 MasterRef: f40002 ClientRef: 80010001
Node 2:State: 1
Node 2:file 3: type: 3 flags: H'1
Node 2:file 2: type: 2 flags: H'1
Node 2:file 0: type: 1 flags: H'9
Node 2: BackupRecord 0: BackupId: 110 MasterRef: f70002 ClientRef: 0
Node 2:State: 2
Node 2:file 0: type: 3 flags: H'0

Дополнительно. Возможные значения State показывают в следующей таблице:

Таблица 2.2. Значения State и описание каждого статуса.

Значение StateОписание
0 INITIAL...
1DEFINING Определение резервного содержания и параметров.
2DEFINED Сигнал DEFINE_BACKUP_CONF послан точной копией фрагмента, полученной с разбивкой по источникам.
3STARTED Создание триггеров.
4SCANNING Просмотр фрагментов.
5STOPPING Закрытие файлов.
6CLEANING Освобождение ресурсов.
7ABORTING Прерывание резервной копии.

Типы показывают в следующей таблице:

Таблица 2.3. Значения типа файла и имена

ЗначениеИмя
1CTL_FILE
2LOG_FILE
3DATA_FILE
4LCP_FILE

Флаги показывают в следующей таблице:

Таблица 2.4. Флаговые значения и имена

ЗначениеИмя
0x01 BF_OPEN
0x02 BF_OPENING
0x04 BF_CLOSING
0x08 BF_FILE_THREAD
0x10 BF_SCAN_THREAD
0x20 BF_LCP_META

2.13. DUMP 24

Code

24

Символ

---

Ядерный блок

BACKUP

Описание. Печатает информацию пула резервных записей.

Пример вывода.

2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: Backup - dump pool sizes
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: BackupPool: 2 BackupFilePool: 4 TablePool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: AttrPool: 2 TriggerPool: 4 FragmentPool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 5: PagePool: 1579
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: Backup - dump pool sizes
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: BackupPool: 2 BackupFilePool: 4 TablePool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: AttrPool: 2 TriggerPool: 4 FragmentPool: 323
2014-10-13 21:11:31 [MgmtSrvr] INFO -- Node 6: PagePool: 1579

Дополнительно. Если 2424 передается как аргумент (например, 2 DUMP 24 2424), это вызывает LCP.

2.14. DUMP 25

Code

25

Символ

NdbcntrTestStopOnError

Ядерный блок

NDBCNTR

Описание. Уничтожает узел данных или узлы.

Пример вывода.

...

Дополнительно. [N/A]

2.15. DUMP 70

Code

70

Символ

NdbcntrStopNodes

Ядерный блок

NDBCNTR

Описание. Закрытие узла данных принудительно.

Пример вывода.

...

Дополнительно. [N/A]

2.16. DUMP 400

Code

400

Символ

NdbfsDumpFileStat-

Ядерный блок

NDBFS

Описание. Обеспечивает статистику файловой системы NDB.

Пример вывода.

2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5: NDBFS: Files: 28 Open files: 10
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Idle files: 18 Max opened files: 12
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Bound Threads: 28 (active 10) Unbound threads: 2
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Max files: 0
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 5:Requests: 256
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6: NDBFS: Files: 28 Open files: 10
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Idle files: 18 Max opened files: 12
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Bound Threads: 28 (active 10) Unbound threads: 2
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Max files: 0
2014-10-13 21:16:26 [MgmtSrvr] INFO -- Node 6:Requests: 256

Дополнительно. [N/A]

2.17. DUMP 401

Code

401

Символ

NdbfsDumpAllFiles

Ядерный блок

NDBFS

Описание. Печатает дескрипторы файлов файловой системы NDB и статусы (OPEN или CLOSED).

Пример вывода.

2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: NDBFS: Dump all files: 28
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:0 (0x7f5aec0029f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:1 (0x7f5aec0100f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:2 (0x7f5aec01d780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:3 (0x7f5aec02add0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:4 (0x7f5aec0387f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:5 (0x7f5aec045e40): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:6 (0x7f5aec053490): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:7 (0x7f5aec060ae0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:8 (0x7f5aec06e130): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5:9 (0x7f5aec07b780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 10 (0x7f5aec088dd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 11 (0x7f5aec0969f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 12 (0x7f5aec0a4040): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 13 (0x7f5aec0b1690): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 14 (0x7f5aec0bece0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 15 (0x7f5aec0cc330): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 16 (0x7f5aec0d9980): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 17 (0x7f5aec0e6fd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 18 (0x7f5aec0f4620): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 19 (0x7f5aec101c70): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 20 (0x7f5aec10f2c0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 21 (0x7f5aec11c910): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 22 (0x7f5aec129f60): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 23 (0x7f5aec1375b0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 24 (0x7f5aec144c00): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 25 (0x7f5aec152250): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 26 (0x7f5aec15f8a0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 5: 27 (0x7f5aec16cef0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: NDBFS: Dump all files: 28
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:0 (0x7fa0300029f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:1 (0x7fa0300100f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:2 (0x7fa03001d780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:3 (0x7fa03002add0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:4 (0x7fa0300387f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:5 (0x7fa030045e40): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:6 (0x7fa030053490): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:7 (0x7fa030060ae0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:8 (0x7fa03006e130): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6:9 (0x7fa03007b780): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 10 (0x7fa030088dd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 11 (0x7fa0300969f0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 12 (0x7fa0300a4040): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 13 (0x7fa0300b1690): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 14 (0x7fa0300bece0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 15 (0x7fa0300cc330): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 16 (0x7fa0300d9980): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 17 (0x7fa0300e6fd0): CLOSED
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 18 (0x7fa0300f4620): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 19 (0x7fa030101c70): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 20 (0x7fa03010f2c0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 21 (0x7fa03011c910): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 22 (0x7fa030129f60): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 23 (0x7fa0301375b0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 24 (0x7fa030144c00): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 25 (0x7fa030152250): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 26 (0x7fa03015f8a0): OPEN
2014-10-13 21:17:37 [MgmtSrvr] INFO -- Node 6: 27 (0x7fa03016cef0): OPEN

Дополнительно. [N/A]

2.18. DUMP 402

Code

402

Символ

NdbfsDumpOpenFiles

Ядерный блок

NDBFS

Описание. Список открытых файлов файловой системы NDB.

Пример вывода.

Node 2: NDBFS: Dump open files: 10
Node 2:0 (0x8792f70): /usr/local/mysql/cluster/ndb_2_fs/D1/DBDIH/P0.sysfile
Node 2:1 (0x8794590): /usr/local/mysql/cluster/ndb_2_fs/D2/DBDIH/P0.sysfile
Node 2:2 (0x878ed10): /usr/local/mysql/cluster/ndb_2_fs/D8/DBLQH/S0.FragLog
Node 2:3 (0x8790330): /usr/local/mysql/cluster/ndb_2_fs/D9/DBLQH/S0.FragLog
Node 2:4 (0x8791950): /usr/local/mysql/cluster/ndb_2_fs/D10/DBLQH/S0.FragLog
Node 2:5 (0x8795da0): /usr/local/mysql/cluster/ndb_2_fs/D11/DBLQH/S0.FragLog
Node 2:6 (0x8797358): /usr/local/mysql/cluster/ndb_2_fs/D8/DBLQH/S1.FragLog
Node 2:7 (0x8798978): /usr/local/mysql/cluster/ndb_2_fs/D9/DBLQH/S1.FragLog
Node 2:8 (0x8799f98): /usr/local/mysql/cluster/ndb_2_fs/D10/DBLQH/S1.FragLog
Node 2:9 (0x879b5b8): /usr/local/mysql/cluster/ndb_2_fs/D11/DBLQH/S1.FragLog

Дополнительно. [N/A]

2.19. DUMP 403

Code

403

Символ

NdbfsDumpIdleFiles

Ядерный блок

NDBFS

Описание. Список простаивающих дескрипторов файлов файловой системы NDB.

Пример вывода.

2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: NDBFS: Dump idle files: 18
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:0 (0x7f5aec0029f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:1 (0x7f5aec0100f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:2 (0x7f5aec01d780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:3 (0x7f5aec02add0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:4 (0x7f5aec0387f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:5 (0x7f5aec045e40): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:6 (0x7f5aec053490): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:7 (0x7f5aec060ae0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:8 (0x7f5aec06e130): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5:9 (0x7f5aec07b780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 10 (0x7f5aec088dd0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 11 (0x7f5aec0969f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 12 (0x7f5aec0a4040): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 13 (0x7f5aec0b1690): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 14 (0x7f5aec0bece0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 15 (0x7f5aec0cc330): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 16 (0x7f5aec0d9980): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 5: 17 (0x7f5aec0e6fd0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: NDBFS: Dump idle files: 18
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:0 (0x7fa0300029f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:1 (0x7fa0300100f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:2 (0x7fa03001d780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:3 (0x7fa03002add0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:4 (0x7fa0300387f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:5 (0x7fa030045e40): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:6 (0x7fa030053490): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:7 (0x7fa030060ae0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:8 (0x7fa03006e130): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6:9 (0x7fa03007b780): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 10 (0x7fa030088dd0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 11 (0x7fa0300969f0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 12 (0x7fa0300a4040): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 13 (0x7fa0300b1690): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 14 (0x7fa0300bece0): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 15 (0x7fa0300cc330): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 16 (0x7fa0300d9980): CLOSED
2014-10-13 21:18:48 [MgmtSrvr] INFO -- Node 6: 17 (0x7fa0300e6fd0): CLOSED

Дополнительно. [N/A]

2.20. DUMP 406

Code

406

Символ

NdbfsDumpRequests

Ядерный блок

NDBFS

Описание. Включает информацию NDBFS в LCP и GCP написанные в журналы узла данных.

Пример вывода.

2019-01-31 18:40:31 [ndbd] INFO -- NDBFS: Dump requests: 0

Дополнительно. Добавлено в NDB 7.5.14, 7.6.10 и 8.0.16 (Bug #28922609).

2.21. DUMP 502

Code

502

Символ

CmvmiSchedulerExecutionTimer

Ядерный блок

CMVMI

Описание. Устанавливает SchedulerExecutionTimer.

Пример вывода.

.....

Дополнительно. [N/A]

2.22. DUMP 503

Code

503

Символ

CmvmiRealtimeScheduler

Ядерный блок

CMVMI.

Описание. Устанавливает Устанавливает RealtimeScheduler.

Пример вывода.

.....

Дополнительно. [N/A]

2.23. DUMP 504

Code

504

Символ

CmvmiExecuteLockCPU

Ядерный блок

CMVMI.

Описание. Устанавливает LockExecuteThreadToCPU.

Пример вывода.

.....

Дополнительно. [N/A]

2.24. DUMP 505

Code

505

Символ

CmvmiMaintLockCPU

Ядерный блок

CMVMI

Описание. Устанавливает LockMaintThreadsToCPU.

Пример вывода.

.....

Дополнительно. [N/A]

2.25. DUMP 506

Code

506

Символ

CmvmiSchedulerSpinTimer

Ядерный блок

CMVMI.

Описание. Устанавливает SchedulerSpinTimer.

Пример вывода.

.....

Дополнительно. [N/A]

2.26. DUMP 908

Code

908

Символ

---

Ядерный блок

DBDIH, QMGR

Описание. Пишет информацию о синхронизациях в журналы узла данных. Полезно вместе с параметром HeartbeatOrder.

Пример вывода.

HB: pres:5 own:5 dyn:1-0 mxdyn:2 hb:6->5->6 node:dyn-hi,cfg: 5:1-0,0 6:2-0,0

Дополнительно. [N/A]

2.27. DUMP 935

Code

935

Символ

QmgrErr935

Ядерный блок

QMGR

Описание. Unknown.

Пример вывода. ...

Дополнительно. [N/A]

2.28. DUMP 1000

Code

1000

Символ

DumpPageMemory

Ядерный блок

DBACC, DBTUP

Описание. Печатает использование памяти узла данных ( ACC и TUP), сколько страниц данных и какой процент использования DataMemory и IndexMemory.

Пример вывода.

2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Data usage is 0%(10 32K pages of total 65529)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Index usage is 0%(7 32K pages of total 65526)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource global total: 75741 used: 3956
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource reserved total: 70516 used: 3600
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource shared total: 5225 used: 357 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 1 min: 0 max: 0 curr: 357 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 3 min: 65536 max: 65536 curr: 17 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 4 min: 724 max: 724 curr: 130 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 5 min: 1152 max: 1152 curr: 1088 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 6 min: 800 max: 1000 curr: 123 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 7 min: 2240 max: 2240 curr: 2240 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 5: Resource 9 min: 64 max: 0 curr: 1 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Data usage is 0%(10 32K pages of total 65529)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Index usage is 0%(7 32K pages of total 65526)
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource global total: 75741 used: 3954
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource reserved total: 70516 used: 3597
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource shared total: 5225 used: 358 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 1 min: 0 max: 0 curr: 358 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 3 min: 65536 max: 65536 curr: 17 spare: 1
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 4 min: 724 max: 724 curr: 120 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 5 min: 1152 max: 1152 curr: 1088 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 6 min: 800 max: 1000 curr: 130 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 7 min: 2240 max: 2240 curr: 2240 spare: 0
2019-07-30 22:00:56 [MgmtSrvr] INFO -- Node 6: Resource 9 min: 64 max: 0 curr: 1 spare: 0

Когда вызвано как ALL DUMP 1000, эта команда сообщает об использовании памяти для каждого узла данных отдельно в свою очередь.

Дополнительно. Можно также использовать в ndb_mgm клиентскую команду REPORT MEMORYUSAGE или запросить таблицу ndbinfo.memoryusage.

2.29. DUMP 1001

Code

1001

Символ

DumpPageMemoryOnFail

Ядерный блок

CMVMI

Описание. Когда установлено, пишет дамп использования ресурсов при отказе ассигновать требуемые ресурсы. Начиная с NDB 7.6.15 и NDB 8.0.21, это также распечатывает внутреннее состояние менеджера страничной памяти узла данных.

Пример вывода.

.....

Дополнительно. [N/A]

2.30. DUMP 1223

Code

1223

Символ

---

Ядерный блок

DBDICT

Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже это не имеет никакого эффекта.

Пример вывода.

...

Дополнительно. [N/A]

2.31. DUMP 1224

Code

1224

Символ

---

Ядерный блок

DBDICT

Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже это не имеет никакого эффекта.

Пример вывода.

...

Дополнительно. [N/A]

2.32. DUMP 1225

Code

1225

Символ

---

Ядерный блок

DBDICT

Описание. Раньше это вешало узел. В NDB Cluster 7.4 и позже это не имеет никакого эффекта.

Пример вывода.

...

Дополнительно. [N/A]

2.33. DUMP 1226

Code

1226

Символ

---

Ядерный блок

DBDICT

Описание. Печатает пул объектов в журнал кластера.

Пример вывода.

2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_obj_pool: 1332 1319
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_opRecordPool: 256 256
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 5: c_rope_pool: 146785 146615
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_obj_pool: 1332 1319
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_opRecordPool: 256 256
2014-10-15 12:13:22 [MgmtSrvr] INFO -- Node 6: c_rope_pool: 146785 146615

Дополнительно. [N/A]

2.34. DUMP 1228

Code

1228

Символ

DictLockQueue

Ядерный блок

DBDICT

Описание. Сбрасывает в дамп содержание внутреннего словаря очереди блокировок NDB в журнал кластера.

Пример вывода.

2014-10-15 12:14:08 [MgmtSrvr] INFO -- Node 5: DICT : c_sub_startstop _outstanding 0 _lock 0000000000000000
2014-10-15 12:14:08 [MgmtSrvr] INFO -- Node 6: DICT : c_sub_startstop _outstanding 0 _lock 0000000000000000

Дополнительно. [N/A]

2.35. DUMP 1229

Code

1229

Символ

DictDumpGetTabInfoQueue

Ядерный блок

DBDICT

Описание. Показывает статус очереди GETTABINFOREQ.

Пример вывода.

ndb_mgm> ALL DUMP 1229
Sending dump signal with data:
0x000004cd
Sending dump signal with data:
0x000004cd

Дополнительно. Полная отладочная информация требует, чтобы соответствующие узлы данных формировались с DictTrace >= 2 и соответствующие узлы API с ApiVerbose >= 2. См. описания этих параметров для получения дополнительной информации.

Добавлено в NDB 7.4.12 и NDB 7.5.2 (Bug #20368450).

2.36. DUMP 1332

Code

1332

Символ

LqhDumpAllDefinedTabs

Ядерный блок

DBACC

Описание. Печатает статус всех таблиц, известных обработчику локального запроса ( LQH), в журнал кластера.

Пример вывода.

2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 2 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 3 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 4 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 5 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 6 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 7 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 8 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 9 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 10 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: Table 11 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 5: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 2 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 3 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 4 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 5 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 6 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 7 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 8 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 9 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 10 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: Table 11 Status: 0 Usage: [ r: 0 w: 0 ]
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 0 distKey: 0
2014-10-15 12:15:07 [MgmtSrvr] INFO -- Node 6: frag: 1 distKey: 0

Дополнительно. [N/A]

2.37. DUMP 1333

Code

1333

Символ

LqhDumpNoLogPages

Ядерный блок

DBACC

Описание. Сообщает использование буферов журнала отката.

Пример вывода.

2014-10-15 12:16:05 [MgmtSrvr] INFO -- Node 5: LQH: Log pages : 1024 Free: 960
2014-10-15 12:16:05 [MgmtSrvr] INFO -- Node 6: LQH: Log pages : 1024 Free: 960

Дополнительно. Буфер журнала отката измерен в страницах по 32 КБ, таким образом, типовой вывод может интерпретироваться следующим образом:

  • Общий размер буфера журнала отката. 1024 * 32K = 32MB

  • Свободный буфер журнала отката. 960 * 32KB = ~31,457KB = ~30MB

  • Буфер журнала отката используется. (1024 - 960) * 32K = 2,097KB = ~2MB

2.38. DUMP 2300

Code

2300

Символ

LqhDumpOneScanRec

Ядерный блок

DBLQH

Описание. Печатает указанный отчет просмотра. Синтаксис: DUMP 2300 recordno.

Пример вывода.

2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:apiBref=0x2f40005, scanAccPtr=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:copyptr=-256, ailen=6, complOps=0, concurrOps=16
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:errCnt=0, schV=1
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:stpid=0, flag=2, lhold=0, lmode=0, num=134
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:relCount=16, TCwait=0, TCRec=3, KIflag=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 5:LcpScan=1RowId(0:0)
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:apiBref=0x2f40006, scanAccPtr=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:copyptr=-256, ailen=6, complOps=0, concurrOps=16
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=1
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=2, lhold=0, lmode=0, num=134
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:relCount=16, TCwait=0, TCRec=2, KIflag=0
2014-10-15 12:33:35 [MgmtSrvr] INFO -- Node 6:LcpScan=1RowId(0:0)

Дополнительно. [N/A]

2.39. DUMP 2301

Code

2301

Символ

LqhDumpAllScanRec

Ядерный блок

DBLQH

Описание. Сбрасывает дамп всех записей просмотра в журнал кластера.

Пример вывода. Только первые несколько отчетов просмотра, напечатанных для единственного узла данных, показаны здесь.

2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: LQH: Dump all ScanRecords - size: 514
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[1]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x2f40006, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=-256, ailen=6, complOps=0, concurrOps=16
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=1
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=2, lhold=0, lmode=0, num=134
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=16, TCwait=0, TCRec=2, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=1RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[2]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[3]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[4]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[5]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[6]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[7]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6: Dblqh::ScanRecord[8]: state=0, type=0, complStatus=0, scanNodeId=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:apiBref=0x0, scanAccPtr=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:copyptr=0, ailen=0, complOps=0, concurrOps=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:errCnt=0, schV=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:stpid=0, flag=0, lhold=0, lmode=0, num=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:relCount=0, TCwait=0, TCRec=0, KIflag=0
2014-10-15 12:40:00 [MgmtSrvr] INFO -- Node 6:LcpScan=0RowId(0:0)
...

Дополнительно. Этот код DUMP должен использоваться экономно, если вообще применяться на рабочем NDB Cluster, так как сотни или даже тысячи отчетов просмотра могут быть созданы на даже относительно маленьком кластере, который не находится под нагрузкой. Поэтому часто предпочтительно напечатать единственный отчет просмотра с помощью DUMP 2300 .

Первая строка обеспечивает общее количество отчетов просмотра для этого узла данных.

2.40. DUMP 2302

Code

2302

Символ

LqhDumpAllActiveScanRec

Ядерный блок

DBLQH

Описание. Только активный просмотр делает запись с этого узла.

Пример вывода.

2014-10-15 12:59:27 [MgmtSrvr] INFO -- Node 5: LQH: Dump active ScanRecord - size: 514
2014-10-15 12:59:27 [MgmtSrvr] INFO -- Node 6: LQH: Dump active ScanRecord - size: 514
...

Дополнительно. Первая строка в каждом блоке вывода содержит общее количество (активных и бездействующих) отчетов просмотра. Если ничто иное не написано в журнал, то никакие отчеты просмотра в настоящее время не активны.

2.41. DUMP 2303

Code

2303

Символ

LqhDumpLcpState

Ядерный блок

DBLQH

Описание. Статус местной контрольной точки с точки зрения экземпляра блока DBLQH.

Эта команда также выводит статус записи просмотра единственного фрагмента, зарезервированного для этого LCP.

Пример вывода.

2014-10-15 13:01:37 [MgmtSrvr] INFO -- Node 5: Local checkpoint 173 started. Keep GCI = 270929 oldest restorable GCI = 270929
2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 5: LDM instance 1: Completed LCP, num fragments = 16 num records = 2061, num bytes = 67912
2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 6: LDM instance 1: Completed LCP, num fragments = 16 num records = 2061, num bytes = 67912
2014-10-15 13:01:38 [MgmtSrvr] INFO -- Node 5: Local checkpoint 173 completed
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: == LQH LCP STATE ==
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:clcpCompletedState=0, c_lcpId=173, cnoOfFragsCheckpointed=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:lcpState=0 lastFragmentFlag=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: currentFragment.fragPtrI=15
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5: currentFragment.lcpFragOrd.tableId=10
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:numFragLcpsQueued=0 reportEmpty=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 5:m_EMPTY_LCP_REQ=0000000000000000
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: == LQH LCP STATE ==
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:clcpCompletedState=0, c_lcpId=173, cnoOfFragsCheckpointed=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:lcpState=0 lastFragmentFlag=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: currentFragment.fragPtrI=15
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6: currentFragment.lcpFragOrd.tableId=10
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:numFragLcpsQueued=0 reportEmpty=0
2014-10-15 13:02:04 [MgmtSrvr] INFO -- Node 6:m_EMPTY_LCP_REQ=0000000000000000

Дополнительно. [N/A]

2.42. DUMP 2304

Code

2304

Символ

---

Ядерный блок

DBLQH

Описание. Эта команда заставляет все фрагменты файлов журнала и их статусы быть написанными в файл узла данных (в случае узла данных, имеющего ID узла 5, это было бы ndb_5_out.log). Количеством фрагментов файлов журнала управляет параметр конфигурации узла данных NoOfFragmentLogFiles.

Пример вывода. Следующее взято из ndb_5_out.log в кластере NDB, имеющем 2 узла данных:

LP 0 blockInstance: 1 partNo: 0 state: 0 WW_Gci: 1 gcprec: -256
flq: 4294967040 4294967040 currfile: 0 tailFileNo: 0 logTailMbyte: 2
cnoOfLogPages: 1016 problems: 0x0
file 0(0)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 75
file 1(1)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(2)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(3)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(4)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(5)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(6)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(7)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(8)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(9)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(10)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(11)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(12)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(13)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(14)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(15)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
LP 1 blockInstance: 1 partNo: 1 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 16 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0
file 0(16)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69
file 1(17)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(18)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(19)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(20)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(21)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(22)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(23)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(24)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(25)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(26)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(27)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(28)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(29)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(30)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(31)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
LP 2 blockInstance: 1 partNo: 2 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 32 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0
file 0(32)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69
file 1(33)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(34)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(35)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(36)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(37)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(38)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(39)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(40)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(41)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(42)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(43)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(44)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(45)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(46)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(47)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
LP 3 blockInstance: 1 partNo: 3 state: 0 WW_Gci: 1 gcprec: -256 flq: 4294967040 4294967040 currfile: 48 tailFileNo: 0 logTailMbyte: 2 cnoOfLogPages: 1016 problems: 0x0
file 0(48)FileChangeState: 0logFileStatus: 20currentMbyte: 2currentFilepage 69
file 1(49)FileChangeState: 0logFileStatus: 20currentMbyte: 0currentFilepage 0
file 2(50)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 3(51)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 4(52)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 5(53)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 6(54)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 7(55)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 8(56)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 9(57)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 10(58)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 11(59)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 12(60)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 13(61)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 14(62)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0
file 15(63)FileChangeState: 0logFileStatus: 1currentMbyte: 0currentFilepage 0

Дополнительно. Следующие 2 таблицы предоставляют информацию о кодах состояния изменения файла и кодах статусов файла журнала, как показано в предыдущем примере.

Коды FileChangeState

Таблица 2.5. Коды FileChangeState

Строка содержания 1, столбец 2
Значение Статус изменения файла
0
1NOT_ONGOING
2BOTH_WRITES_ONGOING
3LAST_WRITE_ONGOING
4WRITE_PAGE_ZERO_ONGOING

Коды LogFileStatus

Таблица 2.6. Коды LogFileStatus со статусом файла журнала и описаниями

Значение Статус файла журнала Описание
0 LFS_IDLE Отчет файла журнала не в использовании
1 CLOSED Файл журнала закрывается.
2 OPENING_INIT ---
3 OPEN_SR_FRONTPAGE Файл журнала открыт как часть системного перезапуска, открыт файл 0, чтобы найти первую страницу части регистрации.
4 OPEN_SR_LAST_FILE Открытие последнего файла журнала, который был написан перед системным перезапуском.
5 OPEN_SR_NEXT_FILE Открытие файла журнала, который был 16 файлов назад (чтобы найти затем доступную информацию о GCP).
6 OPEN_EXEC_SR_START Файл журнала открыт, выполняя регистрацию во время системного перезапуска.
7 OPEN_EXEC_SR_NEW_MBYTE ---
8 OPEN_SR_FOURTH_PHASE ---
9 OPEN_SR_FOURTH_NEXT ---
10 OPEN_SR_FOURTH_ZERO ---
11 OPENING_WRITE_LOG Файл журнала открыт, записывая регистрацию (нормальное функционирование).
12 OPEN_EXEC_LOG ---
13 CLOSING_INIT ---
14 CLOSING_SR Файл журнала закрыт как часть системного перезапуска. В настоящее время пытается найти, где начать выполнять регистрацию.
15 CLOSING_EXEC_SR Файл журнала закрыт как часть выполнения регистрации во время системного перезапуска.
16 CLOSING_EXEC_SR_COMPLETED ---
17 CLOSING_WRITE_LOG Файл журнала закрыт как часть написания регистрации во время нормального функционирования.
18 CLOSING_EXEC_LOG ---
19 OPEN_INIT ---
20 OPEN Открытый файл журнала.
21 OPEN_SR_READ_INVALIDATE_PAGES ---
22 CLOSE_SR_READ_INVALIDATE_PAGES ---
23 OPEN_SR_WRITE_INVALIDATE_PAGES ---
24 CLOSE_SR_WRITE_INVALIDATE_PAGES ---
25 OPEN_SR_READ_INVALIDATE_SEARCH_FILES ---
26 CLOSE_SR_READ_INVALIDATE_SEARCH_FILES ---
27 CLOSE_SR_READ_INVALIDATE_SEARCH_LAST_FILE ---
28 OPEN_EXEC_LOG_CACHED ---
29 CLOSING_EXEC_LOG_CACHED ---

Больше информации о том, как эти коды определяются, может быть найдено в исходном файле storage/ndb/src/kernel/blocks/dblqh/Dblqh.hpp. См. также раздел 2.43.

2.43. DUMP 2305

Code

2305

Символ

---

Ядерный блок

DBLQH

Описание. Показывает состояния всех файлов журнала фрагмента (см. раздел 2.42), затем падает узел.

Пример вывода.

...

Дополнительно. [N/A]

2.44. DUMP 2308

Code

2308

Символ

---

Ядерный блок

DBLQH

Описание. Уничтожает узел.

Пример вывода.

...

Дополнительно. [N/A]

2.45. DUMP 2315

Code

2315

Символ

LqhErrorInsert5042

Ядерный блок

DBLQH

Описание. [Unknown]

Пример вывода. [N/A]

Дополнительно. [N/A]

2.46. DUMP 2350

Code

data_node_id 2350 operation_filters

Символ

---

Ядерный блок

---

Описание. Определяются все операции на узле данных, согласно типу и другим параметрам, определенным операционным фильтром.

Пример вывода. Показать все операции на узле данных 2 от узла API 5:

ndb_mgm> 2 DUMP 2350 1 5
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of operations
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: OP[470]:
Tab: 4 frag: 0 TC: 3 API: 5(0x8035)transid: 0x31c 0x3500500 op: SCAN state: InQueue
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of operation dump

Дополнительно. Информация об операционном фильтре и операционных значениях состояния следует.

Операционные значения фильтра. Операционный фильтр (или фильтры) могут взять следующие значения:

Таблица 2.7. Значения фильтра

ЗначениеФильтр
0ID таблицы
1ID узла API
22 ID транзакций, определяя диапазон транзакций
3ID узла координатора транзакций

В каждом случае ID определенного объекта следует за спецификатором. Посмотрите типовой вывод для примеров.

Операционные состояния. Нормальные состояния, которые могут появиться в выводе этой команды, перечисляются здесь:

  • Transactions:

    • Prepared: Операционный координатор не работает, ожидая API, чтобы продолжить.

    • Running: Операционный координатор в настоящее время готовит операции.

    • Committing, Prepare to commit, Commit sent: Операционный координатор передает.

    • Completing: Операционный координатор заканчивает передачу (после того, как передаст, некоторая очистка необходима).

    • Aborting: Операционный координатор прерывает транзакцию.

    • Scanning: Операционный координатор просматривает.

  • Scan operations:

    • WaitNextScan: Просмотр не работает, ожидая API.

    • InQueue: Просмотр еще не начался, но ждет в очереди окончания других просмотров.

  • Primary key operations:

    • In lock queue: Операция ждет на блокировке.

    • Running: Операция готовится.

    • Prepared: Операция подготовлена, держит соответствующую блокировку и ожидает передачи или отмены.

Отношение к NDB API. Возможно соответствовать выводу DUMP 2350 к определенным потокам или объектам Ndb. Сначала предположите, что вы сбрасываете в дамп все операции на узле данных 2 от узла API 5, используя таблицу 4:

ndb_mgm> 2 DUMP 2350 1 5 0 4
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of operations
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: OP[470]:
Tab: 4 frag: 0 TC: 3 API: 5(0x8035)transid: 0x31c 0x3500500 op: SCAN state: InQueue
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of operation dump

Предположим, что вы работаете с экземпляром Ndb с именем MyNdb, которому эта операция принадлежит. Вы видите, что дело обстоит так, вызывая метод getReference() объекта Ndb:

printf("MyNdb.getReference(): 0x%x\n", MyNdb.getReference());

Вывод от предыдущей строки кода:

MyNdb.getReference(): 0x80350005

Верхние 16 битов показанного значения соответствуют числу в круглых скобках от строки OP в команде DUMP (8035). Для подробностей об этом методе посмотрите Ndb::getReference().

2.47. DUMP 2352

Code

node_id 2352 operation_id

Символ

---

Ядерный блок

---

Описание. Получает информацию об операции с данным ID.

Пример вывода. Во-первых, получите дамп операций. Здесь мы используем DUMP 2350, чтобы получить дамп всех операций на узле данных 5 от узла API 100:

2014-10-15 13:36:26 [MgmtSrvr] INFO -- Node 100: Event buffer status: used=1025KB(100%) alloc=1025KB(0%) max=0B apply_epoch=273419/1 latest_epoch=273419/1

В этом случае есть единственная операция, о которой сообщают относительно узла 2, чей ID = 3. Чтобы получить ID транзакции и первичный ключ для операции, имеющей 3 как ее ID, мы используем ID узла и ID операции с DUMP 2352:

ndb_mgm> 5 DUMP 2352 3

Следующее написано в журнал кластера:

2014-10-15 13:45:20 [MgmtSrvr] INFO -- Node 5: OP[3]: transid: 0xf 0x806400 key: 0x2

Дополнительно. Надо использовать DUMP 2350 , чтобы получить ID операции. Посмотрите пример, показанный ранее.

2.48. DUMP 2353

Code

2353

Символ

LqhDumpPoolLevels

Ядерный блок

DBLQH

Описание. Пишет информацию об использовании пула LQH.

Пример вывода.

2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 5: LQH : TcConnection (operation) records in use/total 0/36194 (328 bytes each)
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 5: LQH : ScanRecord (Fragment) pool in use/total 3/514 (232 bytes each)
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 6: LQH : TcConnection (operation) records in use/total 0/36194 (328 bytes each)
2019-07-30 22:36:55 [MgmtSrvr] INFO -- Node 6: LQH : ScanRecord (Fragment) pool in use/total 3/514 (232 bytes each)

Дополнительно. [N/A]

2.49. DUMP 2354

Code

2354

Символ

LqhReportCopyInfo

Ядерный блок

DBLQH

Описание. Пишет данный фрагмент просмотра от указанного экземпляра. Синтаксис:

DUMP 2354 recordno instanceno

Здесь recordno номер записи фрагмента просмотра, instanceno номер экземпляра.

Пример вывода.

2014-10-13 16:30:57 [MgmtSrvr] INFO -- Node 5: LDM instance 1: CopyFrag complete. 0 frags, +0/-0 rows, 0 bytes/29362776 ms 0 bytes/s.
2014-10-13 16:30:57 [MgmtSrvr] INFO -- Node 6: LDM instance 1: CopyFrag complete. 0 frags, +0/-0 rows, 0 bytes/29362818 ms 0 bytes/s.

Дополнительно. Этот код DUMP добавлен в NDB 7.4.1.

2.50. DUMP 2355

Code

2355

Символ

LqhKillAndSendToDead

Ядерный блок

DBLQH

Описание. Используемый, чтобы проверить чистое отключение сигнала при сбое узла.

2.51. DUMP 2356

Code

2356

Символ

LqhSetTransientPoolMaxSize

Ядерный блок

DBLQH

Описание. Используемый, чтобы установить максимальный размер для определяемого переходного пула памяти. Синтаксис: node_id DUMP 2356 pool_index new_size.

Дополнительно. Добавлено в NDB 8.0.19 (Bug #30265415, Bug #96757).

2.52. DUMP 2357

Code

2357

Символ

LqhResetTransientPoolMaxSize

Ядерный блок

DBLQH

Описание. Переустанавливает данный пул памяти к его размеру по умолчанию. Синтаксис: node_id DUMP 2357 pool_index.

Дополнительно. Добавлено в NDB 8.0.19 (Bug #30265415, Bug #96757).

2.53. DUMP 2398

Code

node_id 2398

Символ

---

Ядерный блок

DBLQH

Описание. Информация о свободном пространстве в файлах части регистрации для узла данных с ID узла node_id. Дамп написан в журнал узла данных, а не кластера.

Пример вывода. Как написано в ndb_6_out.log:

REDO part: 0 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
REDO part: 1 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
REDO part: 2 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)
REDO part: 3 HEAD: file: 0 mbyte: 2 TAIL: file: 0 mbyte: 2 total: 256 free: 256 (mb)

Дополнительно. Каждая строка вывода имеет следующий формат (показанный здесь разделен на две строки для читаемости):

REDO part: part_no HEAD: file: start_file_no mbyte: start_pos
TAIL: file: end_file_no mbyte: end_pos total: total_space free: free_space (mb)

Журнал отката узла данных разделен на четыре части; таким образом, part_no всегда число между 0 и 3 включительно. Части сохранены в файловой системе узла данных как каталоги D8, D9, D10 и D11 с частью 0 журнала отката, сохраненной в D8, частью 1 в D9 и т.д. (см. раздел 1.1.2 ). В рамках каждого каталога можно найти подкаталог DBLQH, содержащий файлы NoOfFragmentLogFiles. Значение по умолчанию для NoOfFragmentLogFiles 16. Размер по умолчанию каждого из этих файлов составляет 16 МБ, это может быть изменено, установив параметр FragmentLogFileSize.

start_file_no указывает на номер файла, start_pos это пункт в этом файле, в котором начинается журнал отката, для примера, part_no = 0 означает, что журнал отката начинается на уровне приблизительно 12 МБ с конца файла D8/DBLQH/S6.FragLog.

Точно так же end_file_no соответствует номеру файла, а end_pos это пункту в том файле, где журнал отката заканчивается. Таким образом, в предыдущем примере, конечная точка журнала отката это приблизительно 10 МБ от конца D8/DBLQH/S6.FragLog.

total_space показывает общую сумму места, зарезервированного для части part_no журнала отката. Это равно NoOfFragmentLogFiles * FragmentLogFileSize, по умолчанию это 16 раз по 16 МБ или 256 МБ. free_space показывает остающуюся сумму. Таким образом, используемая сумма равна total_space - free_space в этом примере это 256 - 254 = 2 MB.

Не рекомендуется выполнять DUMP 2398 в то время, как происходит перезапуск узла данных.

2.54. DUMP 2399

Code

node_id 2399

Символ

---

Ядерный блок

DBLQH

Описание. Так же, как DUMP 2398, эта команда сбрасывает информацию о свободном пространстве в файлах части регистрации для узла данных с ID узла node_id. В отличие от случая с DUMP 2398, дамп записан в журнал кластера и включает число процентов свободного пространства, остающегося в журнале отката.

Пример вывода.

ndb_mgm> 6 DUMP 2399
Sending dump signal with data:
0x0000095f

Записано в журнал кластера:

2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 0 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 1 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 2 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 5: Logpart: 3 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 0 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 1 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 2 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100
2014-10-15 13:39:50 [MgmtSrvr] INFO -- Node 6: Logpart: 3 head=[ file: 0 mbyte: 2 ] tail=[ file: 0 mbyte: 2 ] total mb: 256 free mb: 256 free%: 100

Дополнительно. Каждая строка вывода использует следующий формат:

timestamp [MgmtSrvr] INFO -- Node node_id: Logpart: part_no head=[file: start_file_no mbyte: start_pos]
tail=[file: end_file_no mbyte: end_pos] total mb: total_space free mb: free_space free%: free_pct

timestamp показывает, когда команда была выполнена узлом данных node_id. Журнал отката узла данных разделен на четыре части. Часть обозначается как part_no (всегда содержит число между 0 и 3). Части сохранены в каталогах файловой системы узла данных, названных D8, D9, D10 и D11, часть 0 журнала отката сохранена в D8, часть 1 в D9 и т.д. В рамках каждого из этих четырех каталогов есть подкаталог DBLQH, содержащий NoOfFragmentLogFiles фрагмент файлов журнала. Значение по умолчанию для NoOfFragmentLogFiles 16. Размер по умолчанию каждого из этих файлов составляет 16 МБ, это может быть изменено, установив параметр FragmentLogFileSize (см. раздел 1.1.2.

start_file_no указывает на номер файла, start_pos это пункт в этом файле, в котором начинается журнал отката, для примера, part_no = 0 означает, что журнал отката начинается на уровне приблизительно 12 МБ от конца файла D8/DBLQH/S6.FragLog.

Точно так же end_file_no соответствует номеру файла, а end_pos это пункт в том файле, где журнал отката заканчивается. Таким образом, в предыдущем примере конечная точка журнала отката находится приблизительно в 10 МБ от конца D8/DBLQH/S6.FragLog.

total_space показывает общую сумму места, зарезервированного для части part_no журнала отката. Это равно NoOfFragmentLogFiles * FragmentLogFileSize, по умолчанию это 16 раз по 16 МБ или 256 МБ. free_space показывает остающуюся сумму. Используемая сумма равна total_space - free_space, в этом примере это 256 - 254 = 2 МБ. free_pct показывает отношение free_space к total_space, выраженное как процент от целого числа. В примере это равно 100 * (254 / 256), что-то около 99%.

2.55. DUMP 2400

Code

2400 record_id

Символ

AccDumpOneScanRec

Ядерный блок

DBACC

Описание. Выводит отчет просмотра, имеющий ID записи record_id.

Пример вывода. После ALL DUMP 2400 1 следующий вывод написан в журнал кластера:

2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0)
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0)
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:49:50 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0

Дополнительно. Для дампа всех отчетов просмотра посмотрите раздел 2.56.

2.56. DUMP 2401

Code

2401

Символ

AccDumpAllScanRec

Ядерный блок

DBACC

Описание. Дампа всех записей просмотра для определенного узла.

Пример вывода.

2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: ACC: Dump all ScanRec - size: 514
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[1]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=2 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[2]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=3 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5: Dbacc::ScanRec[3]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanNextfreerec=4 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 5:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0

.
.
.

2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[511]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=512 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[512]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=513 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6: Dbacc::ScanRec[513]: state=1, transid(0x0, 0x0)
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:activeLocalFrag=0, nextBucketIndex=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanNextfreerec=-256 firstActOp=0 firstLockedOp=0, scanLastLockedOp=0 firstQOp=0 lastQOp=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanUserP=0, startNoBuck=0, minBucketIndexToRescan=0, maxBucketIndexToRescan=0
2014-10-15 13:52:06 [MgmtSrvr] INFO -- Node 6:scanBucketState=0, scanLockHeld=0, userBlockRef=0, scanMask=0 scanLockMode=0

Дополнительно. Используйте эту команду с осторожностью, поскольку может быть очень много просмотров. Если вы хотите сдампить единственную запись просмотра, учитывая ее ID, см. раздел 2.55, для дампа всех активных записей просмотра посмотрите раздел 2.57.

2.57. DUMP 2402

Code

2402

Символ

AccDumpAllActiveScanRec

Ядерный блок

DBACC

Описание. Выводит все активные записи просмотра.

Пример вывода. Подобно выводу для DUMP 2400 и DUMP 2401. См. раздел 2.56.

Дополнительно. Чтобы вывести все записи просмотра (активные или нет), посмотрите раздел 2.56.

2.58. DUMP 2403

Code

2403 record_id

Символ

AccDumpOneOperationRec

Ядерный блок

DBACC

Описание. Выводит данный операционный отчет, учитывая его ID. Никакие аргументы кроме этого (ID узла или ALL) не требуются.

Пример вывода. (For ALL DUMP 2403 1:)

2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: Dbacc::operationrec[1]: transid(0x0, 0x306400)
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: elementIsforward=1, elementPage=131095, elementPointer=118
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: fid=0, fragptr=8
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: hashValue=-946144765
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: nextLockOwnerOp=-256, nextOp=-256, nextParallelQue=2
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: nextSerialQue=-256, prevOp=0
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: prevLockOwnerOp=-256, prevParallelQue=2
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: prevSerialQue=-256, scanRecPtr=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 5: m_op_bits=0xffffffff, scanBits=0, reducedHashValue=ebe8
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: Dbacc::operationrec[1]: transid(0xf, 0x806400)
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: elementIsforward=1, elementPage=131078, elementPointer=1350
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: fid=1, fragptr=17
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: hashValue=-498516881
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: nextLockOwnerOp=-256, nextOp=-256, nextParallelQue=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: nextSerialQue=-256, prevOp=0
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: prevLockOwnerOp=4, prevParallelQue=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: prevSerialQue=-256, scanRecPtr=-256
2014-10-15 13:56:26 [MgmtSrvr] INFO -- Node 6: m_op_bits=0xffffffff, scanBits=0, reducedHashValue=a4f1

Дополнительно. [N/A]

2.59. DUMP 2404

Code

2404

Символ

AccDumpNumOpRecs

Ядерный блок

DBACC

Описание. Выводит количество операционных отчетов (общее и свободное количество в журнал кластера.

Пример вывода.

2014-10-15 13:59:27 [MgmtSrvr] INFO -- Node 5: Dbacc::OperationRecords: num=167764, free=131670
2014-10-15 13:59:27 [MgmtSrvr] INFO -- Node 6: Dbacc::OperationRecords: num=167764, free=131670

Дополнительно. Общее количество операционных отчетов определяется набором значений для параметра MaxNoOfConcurrentOperations .

2.60. DUMP 2405

Code

2405

Символ

AccDumpFreeOpRecs

Ядерный блок

---

Описание. Вывод отсутствует, если эту команду вызывают без дополнительных аргументов, если дополнительный аргумент используется, эта команда роняет узел данных.

Пример вывода. (для 2 DUMP 2405 1:)

Time: Sunday 01 November 2015 - 18:33:54
Status: Temporary error, restart node
Message: Job buffer congestion (Internal error, programming error or
missing error message, please report a bug)
Error: 2334
Error data: Job Buffer Full
Error object: APZJobBuffer.C
Program: ./libexec/ndbd
Pid: 27670
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8

Дополнительно. [N/A]

2.61. DUMP 2406

Code

2406

Символ

AccDumpNotFreeOpRecs

Ядерный блок

DBACC

Описание. Вывод отсутствует, если эту команду вызывают без дополнительных аргументов, если дополнительный аргумент используется, эта команда роняет узел данных.

Пример вывода. (для 2 DUMP 2406 1:)

Time: Sunday 01 November 2015 - 18:39:16
Status: Temporary error, restart node
Message: Job buffer congestion (Internal error, programming error or
missing error message, please report a bug)
Error: 2334
Error data: Job Buffer Full
Error object: APZJobBuffer.C
Program: ./libexec/ndbd
Pid: 27956
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8

Дополнительно. [N/A]

2.62. DUMP 2500

В NDB Cluster 7.4 и позже этот код DUMP печатает ряд записей фрагмента просмотра в журнал кластера.

Code

2500

Символ

TcDumpSetOfScanFragRec

Ядерный блок

DBTC

Описание. Этот код DUMP использует синтаксис, показанный здесь:

DUMP 2500 recordno numrecords dbtcinst [activeonly]

Это печатает numrecords записей из dbtcinst, экземпляра DBTC, начиная с записи, имеющей номер recno. Последний аргумент дополнительный, все другие показанные обязательны. activeonly это boolean, которое определяет, напечатать ли только активные записи. Если установлено в 1 (на самом деле в любое ненулевое значение), только активные записи печатаются и игнорируются любые свободные записи, не используемые в настоящий момент. 0 включает все записи. По умолчанию 1.

Пример вывода.

Ц─┌Ц─┌Ц─┌

Дополнительно. [N/A]

До NDB Cluster 7.4 этот код DUMP имел иной символ и функцию, как описано ниже.

Code

2500

Символ

TcDumpAllScanFragRec

Ядерный блок

DBTC

Описание. Уничтожает узел данных.

Пример вывода.

Time: Sunday 01 November 2015 - 13:37:11
Status: Temporary error, restart node
Message: Assertion (Internal error, programming error or missing error
message, please report a bug)
Error: 2301
Error data: ArrayPool<T>::getPtr
Error object: ../../../../../storage/ndb/src/kernel/vm/ArrayPool.hpp line: 345
(block: CMVMI)
Program: ./libexec/ndbd
Pid: 13237
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.21-ndb-7.3.7

2.63. DUMP 2501

Code

2501

Символ

TcDumpOneScanFragRec

Ядерный блок

DBTC

Описание. Вывод отсутствует, если эту команду вызывают без дополнительных аргументов, если дополнительный аргумент используется, эта команда роняет узел данных.

Пример вывода. (для 2 DUMP 2501 1:)

Time: Sunday 01 November 2015 - 18:41:41
Status: Temporary error, restart node
Message: Assertion (Internal error, programming error or missing error
message, please report a bug)
Error: 2301
Error data: ArrayPool<T>::getPtr
Error object: ../../../../../storage/ndb/src/kernel/vm/ArrayPool.hpp line: 345
(block: DBTC)
Program: ./libexec/ndbd
Pid: 28239
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8

Дополнительно. [N/A]

2.64. DUMP 2502

В NDB Cluster 7.4 и позже этот код может использоваться, чтобы напечатать ряд отчетов просмотра для данного экземпляра блока DBTC в журнал кластера.

Code

2502

Символ

TcDumpAllScanRec

Ядерный блок

DBTC

Описание. Синтаксис команды:

DUMP 2502 recordno numrecords dbtcinst [activeonly]

Это печатает numrecords записей просмотра из экземпляра DBTC номер dbtcinst, начиная с записи номер recno. Последний аргумент дополнительный, все другие требуются. activeonly это boolean, который определяет, напечатать ли только активные отчеты. Если установлено в 1 (на самом деле в любое ненулевое значение), только активные отчеты печатаются и игнорируются любые свободные отчеты, которые сейчас не используются. 0 включает все записи. По умолчанию 1.

NDB Cluster 7.3 и ранее:

Code

2502

Символ

TcDumpAllScanRec

Ядерный блок

DBTC

Описание. Выводит все отчеты просмотра, хранимые блоками TC.

Пример вывода.

Node 2: TC: Dump all ScanRecord - size: 256
Node 2: Dbtc::ScanRecord[1]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=2
Node 2: Dbtc::ScanRecord[2]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=3
Node 2: Dbtc::ScanRecord[3]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=4

.
.
.

Node 2: Dbtc::ScanRecord[254]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=255
Node 2: Dbtc::ScanRecord[255]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=-256
Node 2: Dbtc::ScanRecord[255]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=-256

Дополнительно. [N/A]

2.65. DUMP 2503 (УСТАРЕВШИЙ)

Эта команда DUMP не поддерживается в NDB 7.4 и позже.

Code

2503

Символ

TcDumpAllActiveScanRec

Ядерный блок

DBTC

Описание. Дамп всех активных записей просмотра.

Пример вывода.

Node 2: TC: Dump active ScanRecord - size: 256

Дополнительно. [N/A]

2.66. DUMP 2504

Code

2504 record_id

Символ

TcDumpOneScanRec

Ядерный блок

DBTC

Описание. Выводит единственный отчет просмотра, имеющий ID record_id. Для дампинга всех отчетов просмотра посмотрите раздел 2.64.

Пример вывода. (для 2 DUMP 2504 1:)

Node 2: Dbtc::ScanRecord[1]: state=0nextfrag=0, nofrag=0
Node 2:ailen=0, para=0, receivedop=0, noOprePperFrag=0
Node 2:schv=0, tab=0, sproc=0
Node 2:apiRec=-256, next=2

Дополнительно. Признаки в выводе этой команды описаны следующим образом:

  • ScanRecord. Номер слота отчета просмотра (то же самое, как record_id).

  • state. Одно из значений (ScanState в Dbtc.hpp):

    Таблица 2.8. Значение ScanState

    ЗначениеСтатус
    0IDLE
    1WAIT_SCAN_TAB_INFO
    2WAIT_AI
    3WAIT_FRAGMENT_COUNT
    4RUNNING
    5CLOSING_SCAN
  • nextfrag: ID следующего фрагмента, который будет просмотрен. Используется процессом просмотра фрагмента, когда это готово к следующему фрагменту.

  • nofrag: Общее количество фрагментов в просматриваемой таблице.

  • ailen: Длина ожидаемой информации атрибута.

  • para: Количество процессов просмотра фрагментов, принадлежащих этому просмотру.

  • receivedop: Количество операций получения.

  • noOprePperFrag: Максимальное количество байтов в пакете.

  • schv: Версия схемы, которая используется этим просмотром.

  • tab: Индекс или таблица, которая просматривается.

  • sproc: Индекс хранимой процедуры, принадлежащей этому просмотру.

  • apiRec: Ссылка на ApiConnectRecord.

  • next: Индекс следующих ScanRecord в свободном списке.

2.67. DUMP 2505

Code

2505

Символ

TcDumpOneApiConnectRec

Ядерный блок

DBTC

Описание. Печатает запись связи API recordno из экземпляра instanceno с использованием синтаксиса, показанного здесь:

DUMP 2505 recordno instanceno

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.4.1.

2.68. DUMP 2506 (УСТАРЕВШИЙ)

Эта команда DUMP не поддерживается в NDB 7.4 и выше.

Code

2506

Символ

TcDumpAllApiConnectRec

Ядерный блок

DBTC

Описание. [Unknown]

Пример вывода.

Node 2: TC: Dump all ApiConnectRecord - size: 12288
Node 2: Dbtc::ApiConnectRecord[1]: state=0, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256
Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
Node 2: Dbtc::ApiConnectRecord[2]: state=0, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256
Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
Node 2: Dbtc::ApiConnectRecord[3]: state=0, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0x1000002, scanRec=-256
Node 2:ctcTimer=36057, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256

.
.
.

Node 2: Dbtc::ApiConnectRecord[12287]: state=7, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0xffffffff, scanRec=-256
Node 2:ctcTimer=36308, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256
Node 2: Dbtc::ApiConnectRecord[12287]: state=7, abortState=0, apiFailState=0
Node 2:transid(0x0, 0x0), apiBref=0xffffffff, scanRec=-256
Node 2:ctcTimer=36308, apiTimer=0, counter=0, retcode=0, retsig=0
Node 2:lqhkeyconfrec=0, lqhkeyreqrec=0, tckeyrec=0
Node 2:next=-256

Дополнительно. Если настройки по умолчанию будут использоваться, вывод этой команды, вероятно, превысит максимальный размер файла журнала.

2.69. DUMP 2507

Code

2507

Символ

TcSetTransactionTimeout

Ядерный блок

DBTC

Описание. Устанавливает TransactionDeadlockDetectionTimeout .

Пример вывода.

...

Дополнительно. [N/A]

2.70. DUMP 2508

Code

2508

Символ

TcSetApplTransactionTimeout

Ядерный блок

DBTC

Описание. Устанавливает TransactionInactiveTimeout.

Пример вывода.

...

Дополнительно. [N/A]

2.71. DUMP 2512

Code

2512 delay

Символ

TcStartDumpIndexOpCount

Ядерный блок

DBTC

Описание. Выводит значение MaxNoOfConcurrentIndexOperations и текущее использование ресурсов в непрерывном цикле. Время delay между отчетами может быть произвольно определено (в секундах) с умолчанием 1 и максимальным значением 25 (значения больше 25 тихо заменены на 25).

Пример вывода. (Один отчет:)

Node 2: IndexOpCount: pool: 8192 free: 8192

Дополнительно. Кажется, нет никакого способа отключить повторную проверку MaxNoOfConcurrentIndexOperations после того, как эта команда запущена, кроме перезапуска узла данных. Может быть предпочтительно использовать DUMP 2513 (см. раздел 2.72).

2.72. DUMP 2513

Code

2513

Символ

TcDumpIndexOpCount

Ядерный блок

DBTC

Описание. Выводит значение MaxNoOfConcurrentIndexOperations и текущее использование ресурсов.

Пример вывода.

Node 2: IndexOpCount: pool: 8192 free: 8192

Дополнительно. В отличие от непрерывной проверки, сделанной DUMP 2512 , проверка выполнена только однажды.

2.73. DUMP 2514

Code

2514

Символ

TcDumpApiConnectRecSummary

Ядерный блок

DBTC

Описание. Предоставляет информационные счетчики для каждого узла API.

Синтаксис для этой команды показывают здесь:

DUMP 2514 [instanceno]

Эта команда берет номер экземпляра DBTC (instanceno) как дополнительный аргумент, если не определен, по умолчанию 0. instanceno не нужен, если есть только один экземпляр DBTC.

Пример вывода.

Start of ApiConnectRec summary (6144 total allocated)
Api node 10 connect records seized : 0 stateless : 0 stateful : 0 scan : 0
Api node 11 connect records seized : 2 stateless : 0 stateful : 0 scan : 0
Api node 12 connect records seized : 1 stateless : 0 stateful : 0 scan : 0

Общее количество ассигнованных отчетов зависит от количества транзакций и многих других факторов, значение MaxNoOfConcurrentTransactions задает верхний предел. См. описание этого параметра для получения дополнительной информации.

Дополнительно. Есть два возможных статуса для каждого отчета, перечисленные здесь:

  1. Available: В пуле узла данных, не захваченном любым узлом API.

  2. Seized: Зарезервирован из пула узла данных конкретным API.

Захваченные узлы далее быть разделены на многие категории или подстатусы, как показано в следующем списке:

  • Ready: Захваченный, готовый к употреблению, может быть вычислен для API как #seized - (#stateless + #stateful + #scan).

  • Stateless: Запись в последний раз использовалась для транзакции 'stateless' и эффективно готова.

  • Stateful: Запись используется транзакцией.

  • Scan: Запись используется для просмотра (таблица или упорядоченный индекс).

2.74. DUMP 2515

Code

2515

Символ

TcDumpSetOfApiConnectRec

Ядерный блок

DBTC

Описание. Выводит диапазон записей связи API. Синтаксис как показано здесь, где recordno номер первой записи, numrecords число записей, instanceno номер экземпляра блока:

DUMP 2515 recordno numrecords instanceno

Рекомендуется не напечатать больше 10 записей за раз, используя этот код DUMP в нагруженном кластере.

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.4.1.

2.75. DUMP 2516

Code

2516

Символ

TcDumpOneTcConnectRec

Ядерный блок

DBTC

Описание. Печатает запись связи TC recordno экземпляра instanceno с помоью синтаксиса:

DUMP 2516 recordno instanceno

Чтобы напечатать ряд таких записей, надо использовать DUMP 2517.

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.4.1.

2.76. DUMP 2517

Code

2517

Символ

TcDumpSetOfTcConnectRec

Ядерный блок

DBTC

Описание. Печатает диапазон отчетов связи TC. Синтаксис как показан здесь, где recordno номер первого отчета, numrecords количество выводимых записей, instanceno номер экземпляра блока:

DUMP 2517 recordno numrecords instanceno

Рекомендуется не печатать больше 10 отчетов за раз, используя using DUMP 2517 на нагруженном кластере.

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.4.1.

2.77. DUMP 2550

Code

data_node_id 2550 transaction_filters

Символ

---

Ядерный блок

---

Описание. Дамп всех транзакций узла данных data_node_id, удовлетворяющих условиям, установленным операционным фильтром или фильтрами.

Пример вывода. Дамп всех транзакций узла 2, которые были бездействующими в течение 30 секунд или дольше:

ndb_mgm> 2 DUMP 2550 4 30
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: Starting dump of transactions
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: TRX[123]: API: 5(0x8035) transid: 0x31c 0x3500500 inactive: 42s state:
2011-11-01 13:16:49 [MgmSrvr] INFO -- Node 2: End of transaction dump

Дополнительно. Следующие значения могут использоваться для операционных фильтров. Значение filter должно сопровождаться одним или более ID узлов или в случае последней записи в таблице временем в секундах, которое транзакции были бездействующими:

Таблица 2.9. Значения filter с описаниями

ЗначениеFilter
1ID узла API.
22 ID транзакций, определяя диапазон.
4Сколько времени транзакции бездействуют (в секундах).

2.78. DUMP 2553

Code

2553

Символ

TcResourceSnapshot

Ядерный блок

DBTC

Описание. Сохраняет снимок от DBTC.

Пример вывода.

.....

Дополнительно. [N/A]

2.79. DUMP 2554

Code

2554

Символ

TcResourceCheckLeak

Ядерный блок

DBTC

Описание. Проверяет снимок, взятый DUMP 2553.

Пример вывода.

.....

Дополнительно. [N/A]

2.80. DUMP 2555

Code

2555

Символ

TcDumpPoolLevels

Ядерный блок

DBTC

Описание. Печатает уровни пула в журнал кластера.

Пример вывода.

ndb_mgm> ALL DUMP 2555
Sending dump signal with data:
0x000009fb
Sending dump signal with data:
0x000009fb
DUMP TcDumpPoolLevels : Bad signal length : 1
ndb_mgm> ALL DUMP 2555 2
Sending dump signal with data:
0x000009fb 0x00000002
Sending dump signal with data:
0x000009fb 0x00000002
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC: instance: 0, Print pool levels
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Concurrent operations in use/total : 0/42769 (152 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Concurrent scans in use/total : 0/256 (120 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 5: TC : Scan Frag records in use/total : 0/511 (64 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC: instance: 0, Print pool levels
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Concurrent operations in use/total : 0/42769 (152 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Concurrent scans in use/total : 0/256 (120 bytes each)
2019-07-31 08:14:14 [MgmtSrvr] INFO -- Node 6: TC : Scan Frag records in use/total : 0/511 (64 bytes each)

Дополнительно. Добавлено в NDB 7.4.1.

2.81. DUMP 2556

Code

2556

Символ

TcSetTransientPoolMaxSize

Ядерный блок

DBTC

Описание. Задает максимальный размер для пула процесса координатора транзакций.

Пример вывода.

.....

Дополнительно. См. storage/ndb/src/kernel/blocks/dbtc/DbtcMain.cpp.

2.82. DUMP 2557

Code

2557

Символ

TcResetTransientPoolMaxSize

Ядерный блок

DBTC

Описание. Сбрасывает максимальный размер для пула процесса координатора транзакций.

Пример вывода.

.....

Дополнительно. См. storage/ndb/src/kernel/blocks/dbtc/DbtcMain.cpp и DUMP 2556.

2.83. DUMP 2600

Code

2600

Символ

CmvmiDumpConnections

Ядерный блок

CMVMI

Описание. Показывает статус связей между всеми узлами. Когда кластер работает обычно, у каждой связи есть тот же самый статус.

Пример вывода.

Node 3: Connection to 1 (MGM) is connected
Node 3: Connection to 2 (MGM) is trying to connect
Node 3: Connection to 3 (DB) does nothing
Node 3: Connection to 4 (DB) is connected
Node 3: Connection to 7 (API) is connected
Node 3: Connection to 8 (API) is connected
Node 3: Connection to 9 (API) is trying to connect
Node 3: Connection to 10 (API) is trying to connect
Node 3: Connection to 11 (API) is trying to connect
Node 4: Connection to 1 (MGM) is connected
Node 4: Connection to 2 (MGM) is trying to connect
Node 4: Connection to 3 (DB) is connected
Node 4: Connection to 4 (DB) does nothing
Node 4: Connection to 7 (API) is connected
Node 4: Connection to 8 (API) is connected
Node 4: Connection to 9 (API) is trying to connect
Node 4: Connection to 10 (API) is trying to connect
Node 4: Connection to 11 (API) is trying to connect

Дополнительно. Сообщение is trying to connect на самом деле значит, что рассматриваемый узел не был запущен. Это может также быть замечено, когда там не использованы разделы [api] или [mysql] в файле настройки узлов config.ini то есть, когда есть свободные слоты для узлов API или SQL.

2.84. DUMP 2601

Code

2601

Символ

CmvmiDumpLongSignalMemory

Ядерный блок

CMVMI

Описание. [Unknown]

Пример вывода.

Node 2: Cmvmi: g_sectionSegmentPool size: 4096 free: 4096

Дополнительно. [N/A]

2.85. DUMP 2602

Code

2602

Символ

CmvmiSetRestartOnErrorInsert

Ядерный блок

CMVMI

Описание. Устанавливает RestartOnErrorInsert.

Пример вывода.

...

Дополнительно. См. описание параметра узла данных для возможных значений.

2.86. DUMP 2603

Code

2603 test_type no_of_loops

Символ

CmvmiTestLongSigWithDelay

Ядерный блок

CMVMI

Описание. Используемый в тестировании, посмотрите storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp.

Пример вывода.

...

Дополнительно. [N/A]

2.87. DUMP 2604

Code

2604

Символ

CmvmiDumpSubscriptions

Ядерный блок

CMVMI

Описание. Подписки текущего события. Вывод написан в ndb_node_id_out.log на каждом узле данных, а не в журнал кластера на сервере управления.

Пример вывода.

Sunday 01 November 2015 17:10:54 [ndbd] INFO -- List subscriptions:
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Subscription: 0, nodeId: 1, ref: 0x80000001
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 0 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 1 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 2 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 3 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 4 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 5 Level 8
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 6 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 7 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 8 Level 15
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 9 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 10 Level 7
Sunday 01 November 2015 17:10:54 [ndbd] INFO -- Category 11 Level 15

Дополнительно. Вывод перечисляет все подписки событий, для каждой подписки печатаются строка заголовка и список категорий с их текущими уровнями регистрации. Следующая информация включена:

  • Subscription: Внутренний ID подписки.

  • nodeID: ID подписывающегося узла.

  • ref: Ссылка блока, состоящая из ID блока от storage/ndb/include/kernel/BlockNumbers.h, сдвинутый налево на 4 шестнадцатеричные цифры (16 битов), сопровождаемый шестнадцатеричным номером узла с 4 цифрами. Id блока 0x8000 заполнитель, это определяется как MIN_API_BLOCK_NO с частью номера узла 1.

  • Category: Категория группы регистрации, как перечислено в Event Reports Generated in NDB Cluster (см. также файл storage/ndb/include/mgmapi/mgmapi_config_parameters.h ).

  • Level: Уровень событий (диапазон от 0 до 15).

2.88. DUMP 2605

Code

2605

Символ

CmvmiTestLongSig

Ядерный блок

CMVMI

Описание. Долго сигнализирует, тестируя триггер.

Пример вывода.

.....

Дополнительно. [N/A]

2.89. DUMP 2606

Code

2606

Символ

DumpEventLog

Ядерный блок

CMVMI

Описание. См. storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp. Символ, также используется в storage/ndb/src/mgmsrv/Services.cpp.

Пример вывода.

.....

Дополнительно. Вызов этой команды с недействительными аргументами может заставить все узлы данных закрыться.

2.90. DUMP 2607

Code

2607

Символ

CmvmiLongSignalMemorySnapshotStart

Ядерный блок

CMVMI

Описание. См. storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp. Используется в тестировании использования ресурсов внешнего ключа и перезапусков узла.

Пример вывода.

.....

Дополнительно. [N/A]

2.91. DUMP 2608

Code

2608

Символ

CmvmiLongSignalMemorySnapshot

Ядерный блок

CMVMI

Описание. См. storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp. Используется в тестировании использования ресурсов внешнего ключа и перезапусков узла.

Пример вывода.

.....

Дополнительно. [N/A]

2.92. DUMP 2609

Code

2609

Символ

CmvmiLongSignalMemorySnapshotCheck

Ядерный блок

CMVMI

Описание. См. storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp. Используется в тестировании использования ресурсов внешнего ключа и перезапусков узла.

Пример вывода.

.....

Дополнительно. [N/A]

2.93. DUMP 2610

Code

2610

Символ

CmvmiSetKillerWatchdog

Ядерный блок

CMVMI

Описание. Активирует или дезактивирует контрольный модуль, который на следующем предупреждении после активации закрывает узел данных. Это обеспечивает регистрацию трассировки, которая включает трассировки сигнала, если процесс узла был начат с опцией --core-file, дамп ядра также произведен, когда это происходит.

Синтаксис: DUMP 2610 [value]. Используйте 1 для value или пропустите value, чтобы активировать, используйте 0, чтобы дезактивировать.

Пример вывода. Client:

ndb_mgm> ALL DUMP 2610 1
Sending dump signal with data:
0x00000a32 0x00000001
Sending dump signal with data:
0x00000a32 0x00000001
Sending dump signal with data:
0x00000a32 0x00000001
Sending dump signal with data:
0x00000a32 0x00000001

ndb_mgm> ALL DUMP 2610 0
Sending dump signal with data:
0x00000a32 0x00000000
Sending dump signal with data:
0x00000a32 0x00000000
Sending dump signal with data:
0x00000a32 0x00000000
Sending dump signal with data:
0x00000a32 0x00000000

Журнал узла:

2017-08-29 13:49:02 [ndbd] INFO -- Watchdog KillSwitch on.
2017-08-29 13:49:15 [ndbd] INFO -- Watchdog KillSwitch off.

Дополнительно. Добавлено в NDB 7.3.7 (Bug #18703922).

2.94. DUMP 2611

Code

2611

Символ

CmvmiLongSignalMemorySnapshotCheck2

Ядерный блок

CMVMI

Описание. См. storage/ndb/src/kernel/blocks/cmvmi/Cmvmi.cpp. Используется в тестировании использования ресурсов внешнего ключа и перезапусков узла.

Пример вывода.

.....

Дополнительно. [N/A]

2.95. DUMP 2612

Code

2612

Символ

CmvmiShowLongSignalOwnership

Ядерный блок

CMVMI

Описание. Пишет список владельцев памяти сигналов в журнал узла данных. NDB должен быть собран, используя NDB_DEBUG_RES_OWNERSHIP и WITH_NDB_DEBUG.

Пример вывода.

CMVMI :: ShowLongSignalOwnership. Not compiled with NDB_DEBUG_RES_OWNERSHIP.

Дополнительно. [N/A]

2.96. DUMP 4000

Code

4000

Символ

SchemaResourceSnapshot

Ядерный блок

DBDICT, DBDIH, DBLQH, DBTUP, DBTUX, TRIX

Описание. Сохраняет потребление ресурсов.

Пример вывода.

.....

Дополнительно. [N/A]

2.97. DUMP 4001

Code

4001

Символ

SchemaResourceCheckLeak

Ядерный блок

DBDICT, DBDIH, DBLQH, DBTUP, DBTUX, TRIX

Описание. Проверка, совпадает ли текущее потребление ресурсов с сохраненным в DUMP 4000.

Пример вывода.

.....

Дополнительно. [N/A]

2.98. DUMP 5900

Code

5900

Символ

LCPContinue

Ядерный блок

DBLQH

Описание. Пытается продолжить местную контрольную точку, которая потерпела неудачу из-за ошибки. NDB должен быть собран с полной отладкой и включенной вставкой ошибок.

Пример вывода.

...

Дополнительно. [N/A]

2.99. DUMP 7000

Code

7000

Символ

---

Ядерный блок

DBDIH

Описание. Информация о состоянии глобальной контрольной точки.

Пример вывода.

Node 2: ctimer = 299072, cgcpParticipantState = 0, cgcpStatus = 0
Node 2: coldGcpStatus = 0, coldGcpId = 436, cmasterState = 1
Node 2: cmasterTakeOverNode = 65535, ctcCounter = 299072

Дополнительно. [N/A]

2.100. DUMP 7001

Code

7001

Символ

---

Ядерный блок

DBDIH

Описание. Информация о состоянии локальной контрольной точки.

Пример вывода.

Node 2: c_lcpState.keepGci = 1
Node 2: c_lcpState.lcpStatus = 0, clcpStopGcp = 1
Node 2: cgcpStartCounter = 7, cimmediateLcpStart = 0

Дополнительно. [N/A]

2.101. DUMP 7002

Code

7002

Символ

---

Ядерный блок

DBDIH

Описание. Показывает таблицу состояний во время глобальной контрольной точки.

Пример вывода.

Node 2: cnoOfActiveTables = 4, cgcpDelay = 2000
Node 2: cdictblockref = 16384002, cfailurenr = 1
Node 2: con_lineNodes = 2, reference() = 16121858, creceivedfrag = 0

Дополнительно. [N/A]

2.102. DUMP 7003

Code

7003

Символ

---

Ядерный блок

DBDIH

Описание. Показывает состояние первого живого узла после поглощения узла во время глобальной контрольной точки.

Пример вывода.

Node 2: cfirstAliveNode = 2, cgckptflag = 0
Node 2: clocallqhblockref = 16187394, clocaltcblockref = 16056322, cgcpOrderBlocked = 0
Node 2: cstarttype = 0, csystemnodes = 2, currentgcp = 438

Дополнительно. [N/A]

2.103. DUMP 7004

Code

7004

Символ

---

Ядерный блок

DBDIH

Описание. Показывает состояние ведущего во время глобальной контрольной точки.

Пример вывода.

Node 2: cmasterdihref = 16121858, cownNodeId = 2, cnewgcp = 438
Node 2: cndbStartReqBlockref = 16449538, cremainingfrags = 1268
Node 2: cntrlblockref = 16449538, cgcpSameCounter = 16, coldgcp = 437

Дополнительно. [N/A]

2.104. DUMP 7005

Code

7005

Символ

---

Ядерный блок

DBDIH

Описание. Получает глобальные положения начала контрольной точки для одного или более узлов данных.

Пример вывода.

2019-07-31 11:24:55 [MgmtSrvr] INFO -- Node 5: crestartGci = 43780
2019-07-31 11:24:55 [MgmtSrvr] INFO -- Node 6: crestartGci = 43780

Дополнительно. [N/A]

2.105. DUMP 7006

Code

7006

Символ

---

Ядерный блок

DBDIH

Описание. Выводит начальную информацию ведущего для поглощения узла.

Пример вывода.

Node 2: clcpDelay = 20, cgcpMasterTakeOverState = 0
Node 2: cmasterNodeId = 2
Node 2: cnoHotSpare = 0, c_nodeStartMaster.startNode = -256, c_nodeStartMaster.wait = 0

Дополнительно. [N/A]

2.106. DUMP 7007

Code

7007

Символ

---

Ядерный блок

DBDIH

Описание. Получает информацию для неудавшегося главного узла во время поглощения узла.

Пример вывода.

Node 2: c_nodeStartMaster.failNr = 1
Node 2: c_nodeStartMaster.startInfoErrorCode = -202116109
Node 2: c_nodeStartMaster.blockLcp = 0, c_nodeStartMaster.blockGcp = 0

Дополнительно. [N/A]

2.107. DUMP 7008

Code

7008

Символ

---

Ядерный блок

DBDIH

Описание. Информация о неудавшихся узлах во время поглощения.

Пример вывода.

Node 2: cfirstDeadNode = -256, cstartPhase = 7, cnoReplicas = 2
Node 2: cwaitLcpSr = 0

Дополнительно. [N/A]

2.108. DUMP 7009

Code

7009

Символ

---

Ядерный блок

DBDIH

Описание. Получает информацию о последней восстанавливаемой глобальной контрольной точке.

Пример вывода.

2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 5: ccalcOldestRestorableGci = 43773, cnoOfNodeGroups = 1
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 5: crestartGci = 43780
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 6: ccalcOldestRestorableGci = 0, cnoOfNodeGroups = 1
2019-07-31 11:35:08 [MgmtSrvr] INFO -- Node 6: crestartGci = 43780

Дополнительно. [N/A]

2.109. DUMP 7010

Code

7010

Символ

---

Ядерный блок

DBDIH

Описание. Передает информацию о блоке.

Пример вывода.

Node 2: cminHotSpareNodes = 0, c_lcpState.lcpStatusUpdatedPlace = 9843, cLcpStart = 1
Node 2: c_blockCommit = 0, c_blockCommitNo = 0

Дополнительно. [N/A]

2.110. DUMP 7011

Code

7011

Символ

---

Ядерный блок

DBDIH

Описание. Вывод информации о контрольной точке и других сообщений.

Пример вывода.

2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_COPY_GCIREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_COPY_TABREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_UPDATE_FRAG_STATEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_DIH_SWITCH_REPLICA_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_EMPTY_LCP_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_COMMIT_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_PREPARE_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_GCP_SAVEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_SUB_GCP_COMPLETE_REP_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_INCL_NODEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_MASTER_GCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_MASTER_LCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_START_INFOREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_START_RECREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_STOP_ME_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_TC_CLOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 5: c_TCGETOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_COPY_GCIREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_COPY_TABREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_UPDATE_FRAG_STATEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_DIH_SWITCH_REPLICA_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_EMPTY_LCP_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_COMMIT_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_PREPARE_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_GCP_SAVEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_SUB_GCP_COMPLETE_REP_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_INCL_NODEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_MASTER_GCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_MASTER_LCPREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_START_INFOREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_START_RECREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_STOP_ME_REQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_TC_CLOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:45:53 [MgmtSrvr] INFO -- Node 6: c_TCGETOPSIZEREQ_Counter = [SignalCounter: m_count=0 0000000000000000]

Дополнительно. [N/A]

2.111. DUMP 7012

Code

7012

Символ

---

Ядерный блок

DBDIH

Описание. Пишет местную диагностику контрольной точки в журнал кластера.

Пример вывода.

2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: ParticipatingDIH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: ParticipatingLQH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_Counter_DIH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_Counter_LQH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_lastLCP_COMPLETE_REP_id = 12
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_lastLCP_COMPLETE_REP_ref = f60005
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: noOfLcpFragRepOutstanding: 0
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LAST_LCP_FRAG_ORD = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 5: m_LCP_COMPLETE_REP_From_Master_Received = 0
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: ParticipatingDIH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: ParticipatingLQH = 0000000000000000
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_Counter_DIH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_Counter_LQH = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_lastLCP_COMPLETE_REP_id = 12
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_lastLCP_COMPLETE_REP_ref = f60005
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: noOfLcpFragRepOutstanding: 0
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LAST_LCP_FRAG_ORD = [SignalCounter: m_count=0 0000000000000000]
2019-07-31 11:39:29 [MgmtSrvr] INFO -- Node 6: m_LCP_COMPLETE_REP_From_Master_Received = 1

Дополнительно. [N/A]

2.112. DUMP 7013

Code

7013

Символ

DihDumpLCPState

Ядерный блок

DBDIH

Описание. Предоставляет основную диагностическую информацию относительно состояния местной контрольной точки.

Пример вывода.

2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP STATE --
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: lcpStatus = 0 (update place = 20271)
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: lcpStart = 1 lcpStopGcp = 43780 keepGci = 43773 oldestRestorable = 43773
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: immediateLcpStart = 0 masterLcpNodeId = 5
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 0 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 1 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 2 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 3 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 4 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 5 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 6 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 7 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 8 : status: 1 place: 20191
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: 9 : status: 0 place: 20271
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP STATE --
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP STATE --
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: lcpStatus = 0 (update place = 22131)
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: lcpStart = 0 lcpStopGcp = 43780 keepGci = 0 oldestRestorable = 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: immediateLcpStart = 0 masterLcpNodeId = 5
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 0 : status: 10 place: 21724
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 1 : status: 9 place: 21236
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 2 : status: 2 place: 18414
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 3 : status: 6 place: 18230
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 4 : status: 5 place: 844
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 5 : status: 0 place: 1767
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 6 : status: 0 place: 23722
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 7 : status: 0 place: 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 8 : status: 0 place: 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: 9 : status: 0 place: 0
2019-07-31 11:42:44 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP STATE --

Дополнительно. [N/A]

2.113. DUMP 7014

Code

7014

Символ

DihDumpLCPMasterTakeOver

Ядерный блок

DBDIH

Описание. Предоставляет информацию о состоянии поглощения владельца локальной контрольной точки.

Пример вывода.

2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP MASTER TAKE OVER STATE --
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: c_lcpMasterTakeOverState.state = 0 updatePlace = 23717 failedNodeId = 0
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: c_lcpMasterTakeOverState.minTableId = 0 minFragId = 0
2019-07-31 11:43:59 [MgmtSrvr] INFO -- Node 5: -- Node 5 LCP MASTER TAKE OVER STATE --
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP MASTER TAKE OVER STATE --
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: c_lcpMasterTakeOverState.state = 0 updatePlace = 23717 failedNodeId = 0
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: c_lcpMasterTakeOverState.minTableId = 0 minFragId = 0
2019-07-31 11:44:00 [MgmtSrvr] INFO -- Node 6: -- Node 6 LCP MASTER TAKE OVER STATE --

Дополнительно. [N/A]

2.114. DUMP 7015

Code

7015

Символ

---

Ядерный блок

DBDIH

Описание. Пишет вывод статуса фрагмента таблицы для таблиц NDB в журнал кластера в порядке их табличных ID. Стартовый ID таблицы может быть определен произвольно, в этом случае таблицы, имеющие более низкие ID, пропущены, иначе выводится информация о статусе для всех таблиц NDB.

Типовой вызов/вывод. Вызов этой команды, используя необязательный аргумент ID таблицы, дает следующий вывод в клиенте управления:

ndb_mgm> ALL DUMP 7015 5
Sending dump signal with data:
0x00001b67 0x00000005
Sending dump signal with data:
0x00001b67 0x00000005

Это заставляет пропустить таблицы с 1 по 5 в выводе, написанном в журнал кластера, как показано здесь:

2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 5: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 6: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 7: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 8: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 9: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 11: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5: Table 12: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 5: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 6: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 7: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 8: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 9: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 11: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=12(Idle) 1(on 6)=12(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6: Table 12: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)
2019-07-31 11:47:29 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 5)=0(Idle) 1(on 6)=0(Idle)

Дополнительно. Вывод DUMP 7015 совпадает с обеспеченным DUMP 7021 за исключением того, что последний включает только единственную таблицу, определенную по ID. Для более подробной информации об областях, включенных в этот вывод, посмотрите раздел 2.120.

2.115. DUMP 7016

Code

7016

Символ

DihAllAllowNodeStart

Ядерный блок

DBDIH

Описание. [Unknown]

Пример вывода.

...

Дополнительно. [N/A]

2.116. DUMP 7017

Code

7017

Символ

DihMinTimeBetweenLCP

Ядерный блок

DBDIH

Описание. Устанавливает промежуток между местными контрольными точками как количество 4-байтовых слов.

Пример вывода.

ndb_mgm> ALL DUMP 7017 100
Sending dump signal with data:
0x00001b69 0x0000000a
Sending dump signal with data:
0x00001b69 0x0000000a
2019-07-31 14:03:08 [ndbd] INFO -- Reset time between LCP to 200

Дополнительно. См. описание параметра узла данных TimeBetweenLocalCheckpoints .

2.117. DUMP 7018

Code

7018

Символ

DihMaxTimeBetweenLCP

Ядерный блок

DBDIH

Описание. Устанавливает время, позволенное между местными контрольными точками, в его максимальное значение (31).

Пример вывода.

ndb_mgm> ALL DUMP 7018
Sending dump signal with data:
0x00001b6a 0x000000fa
Sending dump signal with data:
0x00001b6a 0x000000fa
2019-07-31 14:07:58 [ndbd] INFO -- Set time between LCP to max value

Дополнительно. См. описание параметра узла данных TimeBetweenLocalCheckpoints .

2.118. DUMP 7019

Code

7019

Символ

DihTcSumaNodeFailCompleted

Ядерный блок

DBDIH, DBTC, SUMA

Описание. Пишет представление распределенного блока данных об обработке неудачи узла для неудавшегося узла (данного его ID узла) в журнал кластера. Выполните как ALL DUMP 7019 FailedNodeId.

Пример вывода.

ndb_mgm> ALL DUMP 7019 5
Sending dump signal with data:
0x00001b6b 0x00000005
Sending dump signal with data:
0x00001b6b 0x00000005
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:DBTC: capiConnectClosing[5]: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 5: NF Node 5 tc: 1 lqh: 1 dih: 1 dict: 1 recNODE_FAILREP: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 5:m_NF_COMPLETE_REP: [SignalCounter: m_count=0 0000000000000000] m_nodefailSteps: 00000000
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:Suma 7019 5 line: 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_connected_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_failedApiNodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_subscriber_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 5:c_subscriber_per_node[5]: 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:DBTC: capiConnectClosing[5]: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 6: NF Node 5 tc: 1 lqh: 1 dih: 1 dict: 1 recNODE_FAILREP: 0
2019-07-31 14:15:43 [MgmtSrvr] INFO -- Node 6:m_NF_COMPLETE_REP: [SignalCounter: m_count=0 0000000000000000] m_nodefailSteps: 00000000
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:Suma 7019 5 line: 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_connected_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_failedApiNodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_subscriber_nodes.get(): 0
2019-07-31 14:15:43 [MgmtSrvr] WARNING-- Node 6:c_subscriber_per_node[5]: 0

Дополнительно. [N/A]

2.119. DUMP 7020

Code

7020

Символ

---

Ядерный блок

DBDIH

Описание. Эта команда обеспечивает общую функциональность инъекции сигнала. Два дополнительных аргумента всегда требуются:

  1. Номер сигнала, который пошлют.

  2. Номер блока, в который нужно послать сигнал.

Кроме того, некоторые сигналы разрешают или требуют, чтобы дополнительные данные были посланы.

Пример вывода.

...

Дополнительно. [N/A]

2.120. DUMP 7021

Code

7021

Символ

---

Ядерный блок

DBDIH

Описание. Пишет информацию о статусе фрагмента таблицы для одной таблицы NDB в журнал кластера. DUMP 7015 аналог этой команды, за исключением того, что DUMP 7015 пишет информацию для многих (или всех) таблиц NDB.

Таблица, чтобы получить информацию, определяется ID таблицы. Можно найти ID для данной таблицы в выводе ndb_show_tables :

shell> ndb_show_tables
idtype statelogging database schema name
29OrderedIndex Online NosysdefPRIMARY
1 IndexTrigger Online - NDB$INDEX_11_CUSTOM
3 IndexTrigger Online - NDB$INDEX_15_CUSTOM
8 UserTableOnline Yes mysqldefNDB$BLOB_7_3
5 IndexTrigger Online - NDB$INDEX_28_CUSTOM
13OrderedIndex Online NosysdefPRIMARY
10UserTableOnline Yes test defn1
27UserTableOnline Yes cdeft1
...

Пример вызова и вывода. Используя ID для таблицы n1, найденный заранее в выводе ndb_show_tables , вызов этой команды мог бы быть похожим на это, выполняя ndb_mgm в системной оболочке:

shell> ndb_mgm -e 'ALL DUMP 7021 10'
Connected to Management Server at: localhost:1186
Sending dump signal with data:
0x00001b67 0x0000000a
Sending dump signal with data:
0x00001b67 0x0000000a

Это пишет следующий вывод в журнал кластера:

2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 5:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 6:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 7:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8: Table 10: TabCopyStatus: 0 TabUpdateStatus: 0 TabLcpStatus: 3
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)
2016-07-21 12:12:11 [MgmtSrvr] INFO -- Node 8:Fragment 1: noLcpReplicas==00(on 6)=59(Idle) 1(on 5)=59(Idle)

Дополнительно. Больше информации о каждой из областей, написанных DUMP 7021 в журнал кластера, показывают в следующих нескольких параграфах. Перечисления определяются как свойства структуры TabRecord в файле storage/ndb/src/kernel/blocks/dbdih/Dbdih.hpp.

TabCopyStatus (статус копии таблицы) берет одно из следующих значений: 0: CS_IDLE, 1: CS_SR_PHASE1_READ_PAGES, 2: CS_SR_PHASE2_READ_TABLE, 3: CS_SR_PHASE3_COPY_TABLE, 4: CS_REMOVE_NODE, 5: CS_LCP_READ_TABLE, 6: CS_COPY_TAB_REQ, 7: CS_COPY_NODE_STATE, 8: CS_ADD_TABLE_MASTER, 9: CS_ADD_TABLE_SLAVE, 10: CS_INVALIDATE_NODE_LCP, 11: CS_ALTER_TABLE, 12: CS_COPY_TO_SAVE, 13: CS_GET_TABINFO.

TabUpdateStatus (статус обновления таблицы) берет одно из следующих значений: 0: US_IDLE, 1: US_LOCAL_CHECKPOINT, 2: US_LOCAL_CHECKPOINT_QUEUED, 3: US_REMOVE_NODE, 4: US_COPY_TAB_REQ, 5: US_ADD_TABLE_MASTER, 6: US_ADD_TABLE_SLAVE, 7: US_INVALIDATE_NODE_LCP, 8: US_CALLBACK.

TabLcpStatus (статус локальной контрольной точки таблицы) берет одно из следующих значений: 1: TLS_ACTIVE, 2: TLS_WRITING_TO_FILE, 3: TLS_COMPLETED.

Информация о фрагменте таблицы также предоставляется для каждого узла. Это подобно тому, что показано здесь:

Node 5:Fragment 0: noLcpReplicas==00(on 5)=59(Idle) 1(on 6)=59(Idle)

Узел и фрагмент определяются по их ID. noLcpReplicas представляет количество точных копий фрагмента, остающихся для обработки любым продолжающимся процессом LCP. Остаток строки имеет такой формат:

replica_id(on node_id)=lcp_id(status)

replica_id, node_id и lcp_id это ID, соответственно, точной копии фрагмента, узла и местной контрольной точки. status всегда одно из Idle или Ongoing.

2.121. DUMP 7022

Code

7022

Символ

---

Ядерный блок

DBDIH

Описание. Закрытие кластера в случае остановки GCP.

Пример вывода.

.....

Дополнительно. [N/A]

2.122. DUMP 7023

Code

7023

Символ

---

Ядерный блок

DBDIH

Описание. Выводит все активные поглощения.

Пример вывода.

ndb_mgm> ALL DUMP 7023 1
Sending dump signal with data:
0x00001b6f 0x00000001
Sending dump signal with data:
0x00001b6f 0x00000001
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: TakeOverPtr(1) starting: 4294967040 flags: 0x0 ref: 0x0, data: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: slaveState: 0 masterState: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 5: restorableGci: 0 startGci: 0 tab: 4294967040 frag: 4294967040 src: 4294967040 max: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: TakeOverPtr(1) starting: 4294967040 flags: 0x0 ref: 0x0, data: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: slaveState: 0 masterState: 0
2019-07-31 16:56:23 [MgmtSrvr] INFO -- Node 6: restorableGci: 0 startGci: 0 tab: 4294967040 frag: 4294967040 src: 4294967040 max: 0

Дополнительно. [N/A]

2.123. DUMP 7024

Code

7024

Символ

---

Ядерный блок

DBDIH

Описание. Проверяет, была ли очищена добавленная неудача фрагмента. Может вызвать сбой узла, поэтому сильно не рекомендуемуется для использования в производстве.

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.3.6 (Bug #18550318).

2.124. DUMP 7026

Code

7026

Символ

DihSetGcpStopVals

Ядерный блок

DBDIH

Описание. Позволяет устанавливать порог остановки GCP.

Пример вывода.

ndb_mgm> ALL DUMP 7026 1 10000
Sending dump signal with data:
0x00001b72 0x00000001 0x00002710
Sending dump signal with data:
0x00001b72 0x00000001 0x00002710
2019-07-31 17:04:40 [ndbd] INFO -- Changing GCP_SAVE max_lag_millis from 0 to 10000

Дополнительно. [N/A]

2.125. DUMP 7027

Code

7027

Символ

DihStallLcpStart

Ядерный блок

DBDIH

Описание. Местная контрольная точка, чтобы остановиться. Используемый для тестирования проблем LCP.

Использование. Эта команда требует дополнительного аргумента 91919191 для активации. Например, чтобы начать остановку LCP на всех узлах, выполните:

ALL DUMP 7027 91919191

Чтобы очистить остановку и возобновить нормальное функционирование, вызовите DUMP 7027 с любым аргументом кроме 91919191 (или даже без дополнительного аргумента вообще).

Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26661468).

2.126. DUMP 7032

Code

7032

Символ

DihDumpPageRecInfo

Ядерный блок

DBDIH

Описание. Дамп всей информации страничных записей.

Пример вывода.

MAX_CONCURRENT_LCP_TAB_DEF_FLUSHES 4
MAX_CONCURRENT_DIH_TAB_DEF_OPS 6
MAX_CRASHED_REPLICAS 8
MAX_LCP_STORED 3
MAX_REPLICAS 4
MAX_NDB_PARTITIONS 2048
PACK_REPLICAS_WORDS 32
PACK_FRAGMENT_WORDS 262
PACK_TABLE_WORDS 536586
PACK_TABLE_PAGE_WORDS 2016
PACK_TABLE_PAGES 267
ZPAGEREC 1602
Total bytes : 13129992
LCP Tab def write ops inUse 0 queued 0
Pages in use 0/1602

Дополнительно. [N/A]

2.127. DUMP 7033

Code

7033

Символ

DihFragmentsPerNode

Ядерный блок

DBDIH

Описание. Выводит количество фрагментов на одном или более узлах данных. Никакие аргументы кроме ID узла не используются.

Пример вывода. Вывод ALL DUMP 7033 на NDB Cluster с двумя узлами данных и NoOfReplicas=2:

2014-10-13 19:07:44 [MgmtSrvr] INFO -- Node 5: Fragments per node = 1
2014-10-13 19:07:44 [MgmtSrvr] INFO -- Node 6: Fragments per node = 1

Дополнительно. Добавлено в NDB 7.4.1.

2.128. DUMP 7034

Code

7034

Символ

DihDisplayPauseState

Ядерный блок

DBDIH

Описание. Пишет информацию о любой поставленной на паузу местной контрольной точке в журнал кластера.

Пример вывода.

2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: Pause LCP ref: f60005, is_lcp_paused 0, c_dequeue_lcp_rep_ongoing 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_pause_lcp_master_state: 0, c_old_node_waiting_for_lcp_end: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_queued_lcp_complete_rep: 0, c_lcp_id_paused: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_last_id_lcp_complete_rep: 12 c_lcp_runs_with_pause_support: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_lcp_id_while_copy_meta_data: 4294967040, c_pause_lcp_start_node: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_PAUSE_LCP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_FLUSH_LCP_REP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_lcpState.m_participatingLQH: 0000000000000000
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 5: c_pause_participants: 0000000000000000
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: Pause LCP ref: f60005, is_lcp_paused 0, c_dequeue_lcp_rep_ongoing 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_pause_lcp_master_state: 0, c_old_node_waiting_for_lcp_end: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_queued_lcp_complete_rep: 0, c_lcp_id_paused: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_last_id_lcp_complete_rep: 12 c_lcp_runs_with_pause_support: 0
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_lcp_id_while_copy_meta_data: 4294967040, c_pause_lcp_start_node: 4294967040
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_PAUSE_LCP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]
2019-07-31 17:40:13 [MgmtSrvr] INFO -- Node 6: c_FLUSH_LCP_REP_REQ_Counter: [SignalCounter: m_count=0 0000000000000000]

Дополнительно. [N/A]

2.129. DUMP 7080

Code

7080

Символ

EnableUndoDelayDataWrite

Ядерный блок

DBACC, DBDIH, DBTUP

Описание. Местная контрольная точка, которая будет выполнена.

Пример вывода.

2019-07-31 17:48:43 [MgmtSrvr] INFO -- Node 5: Local checkpoint 13 started. Keep GCI = 43780 oldest restorable GCI = 43780
2019-07-31 17:48:45 [MgmtSrvr] INFO -- Node 5: LDM(1): Completed LCP, #frags = 18 #records = 0, #bytes = 0
2019-07-31 17:48:47 [MgmtSrvr] INFO -- Node 6: LDM(1): Completed LCP, #frags = 18 #records = 0, #bytes = 0
2019-07-31 17:48:47 [MgmtSrvr] INFO -- Node 5: Local checkpoint 13 completed

Дополнительно. [N/A]

2.130. DUMP 7090

Code

7090

Символ

DihSetTimeBetweenGcp

Ядерный блок

DBDIH

Описание. Устанавливает время между глобальными контрольными точками к конкретному количеству миллисекунд. Без аргумента устанавливает этот интервал в значение TimeBetweenGlobalCheckpoints (по умолчанию 2000 миллисекунд).

Пример вывода.

ndb_mgm> ALL DUMP 7090
Sending dump signal with data:
0x00001bb2
Sending dump signal with data:
0x00001bb2
2019-07-31 18:03:36 [ndbd] INFO -- Setting time between gcp : 2000
ndb_mgm> ALL DUMP 7090 10000
Sending dump signal with data:
0x00001bb2 0x00002710
Sending dump signal with data:
0x00001bb2 0x00002710
2019-07-31 18:08:01 [ndbd] INFO -- Setting time between gcp : 10000

Дополнительно. [N/A]

2.131. DUMP 7099

Code

7099

Символ

DihStartLcpImmediately

Ядерный блок

DBDIH

Описание. Может использоваться, чтобы вызвать LCP вручную.

Пример вывода. В этом примере узел 2 является главным узлом и управляет синхронизацией LCP/GCP для группы. Независимо от node_id только главный узел отвечает:

Node 2: Local checkpoint 7 started. Keep GCI = 1003 oldest restorable GCI = 947
Node 2: Local checkpoint 7 completed

Дополнительно. Вы, возможно, должны позволить более высокий уровень регистрации, используя клиентскую команду CLUSTERLOG в ndb_mgm, чтобы иметь завершение контрольной точки, о котором сообщают, как показано здесь:

ndb_mgmgt; ALL CLUSTERLOG CHECKPOINT=8

2.132. DUMP 8004

Code

8004

Символ

---

Ядерный блок

SUMA

Описание. Информация о подписных ресурсах.

Пример вывода.

Node 2: Suma: c_subscriberPoolsize: 260 free: 258
Node 2: Suma: c_tablePoolsize: 130 free: 128
Node 2: Suma: c_subscriptionPoolsize: 130 free: 128
Node 2: Suma: c_syncPoolsize: 2 free: 2
Node 2: Suma: c_dataBufferPoolsize: 1009 free: 1005
Node 2: Suma: c_metaSubscribers count: 0
Node 2: Suma: c_removeDataSubscribers count: 0

Дополнительно. Когда subscriberPool ... free остается очень низким относительно subscriberPool ... size, часто хорошая идея увеличить значение MaxNoOfTables (subscriberPool = 2 * MaxNoOfTables). Но могла также быть проблема с узлами API, не высвобождающими ресурсы правильно, когда они закрываются. DUMP 8004 обеспечивает способ контролировать эти значения.

2.133. DUMP 8005

Code

8005

Символ

---

Ядерный блок

SUMA

Описание. [Unknown]

Пример вывода.

Node 2: Bucket 0 10-0 switch gci: 0 max_acked_gci: 2961 max_gci: 0 tail: -256 head: -256
Node 2: Bucket 1 00-0 switch gci: 0 max_acked_gci: 2961 max_gci: 0 tail: -256 head: -256

Дополнительно. [N/A]

2.134. DUMP 8010

Code

8010

Символ

---

Ядерный блок

SUMA

Описание. Пишет информацию обо всех подписчиках и связанных узлах в журнал кластера.

Пример вывода. В этом примере узел 1 является узлом управления, узлы 2 и 3 являются узлами данных, узлы 4 и 5 являются узлами SQL (оба работают как источники репликации).

2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 2: c_subscriber_nodes: 0000000000000000000000000000000000000000000000000000000000000030
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 2: c_connected_nodes: 0000000000000000000000000000000000000000000000000000000000000032
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 3: c_subscriber_nodes: 0000000000000000000000000000000000000000000000000000000000000030
2010-10-15 10:08:33 [MgmtSrvr] INFO -- Node 3: c_connected_nodes: 0000000000000000000000000000000000000000000000000000000000000032

Для каждого узла данных эта команда DUMP печатает два шестнадцатеричных числа. Это представления битовых полей, имеющих один бит на ID узла, начиная с узла ID 0 для самого правого бита (0x01).

Битовая маска узлов подписчика (c_subscriber_nodes) имеет значительные шестнадцатеричные цифры 30 (decimal 48) или двоичные 110000, что равняется узлам 4 и 5. Связанная битовая маска узлов (c_connected_nodes) имеет значительные шестнадцатеричные цифры 32 (decimal 50). Двоичное представление этого числа 110010, которое имеет 1 для второй, пятой и шестой цифр (считая справа) и относится к узлам 1, 4, и 5 как связанным узлам.

2.135. DUMP 8011

Code

8011

Символ

---

Ядерный блок

SUMA

Описание. Пишет информацию обо всех подписчиках в кластере. Используя эту информацию, необходимо иметь в виду, что у таблицы может быть много подписок, а у подписки может быть больше, чем один подписчик. Вывод DUMP 8011 включает следующую информацию:

  • Для каждой таблицы: ID таблицы, версия и общее количество подписчиков.

  • Для каждой подписки на данную таблицу : ID подписки.

  • Для каждого подписчика, принадлежащего данной подписке: ID подписчика, ссылка на отправителя, данные отправителя и ID подписки.

Пример вывода. (Из журнала кластера:)

Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: -- Starting dump of subscribers --
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 2 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80010004 24 0 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 3 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80010004 28 1 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: Table: 4 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1:[ 80020004 24 2 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 1: -- Ending dump of subscribers --
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: -- Starting dump of subscribers --
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 2 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80010004 24 0 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 3 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80010004 28 1 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: Table: 4 ver: 4294967040 #n: 1 (ref,data,subscription)
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2:[ 80020004 24 2 ]
Sunday 01 November 2015 13:17:31 [MgmSrvr] INFO -- Node 2: -- Ending dump of subscribers --

2.136. DUMP 8013

Code

8013

Символ

---

Ядерный блок

SUMA

Описание. Пишет всех отставших подписчиков в журнал кластера.

Пример вывода. Этот пример показывает, что написано в журнал кластера после выполнения ALL DUMP 8013 на кластере с 4 узлами:

2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: Highest epoch 1632087572485, oldest epoch 1632087572485
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: -- End dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 5: Reenable event buffer
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: Highest epoch 1632087572486, oldest epoch 1632087572486
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 6: -- End dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: Highest epoch 1632087572486, oldest epoch 1632087572486
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 7: -- End dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: -- Starting dump of pending subscribers --
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: Highest epoch 1632087572486, oldest epoch 1632087572486
2013-05-27 13:59:02 [MgmtSrvr] INFO -- Node 8: -- End dump of pending subscribers --

Дополнительно. [N/A]

2.137. DUMP 9800

Code

9800

Символ

DumpTsman

Ядерный блок

TSMAN

Описание. УСТАРЕВШИЙ. В NDB 7.3 и 7.4 это вызывает сбой узла данных, если VM_TRACE позволен при сборке. Удален в NDB 7.5.

Пример вывода.

.....

Дополнительно. [N/A]

2.138. DUMP 9801

Code

9801

Символ

[TsMan + 1]

Ядерный блок

TSMAN

Описание. УСТАРЕВШИЙ. Выводит страницу счетчиков для ID таблицы, файла, страницы и битов. В NDB 7.3 и 7.4 это вызывает сбой узла данных, если VM_TRACE включен при сборке. Удалено в NDB 7.5.

Пример вывода.

.....

Дополнительно. [N/A]

2.139. DUMP 9988

Code

9988

Символ

---

Ядерный блок

TRPMAN

Описание. Блокирует передачу в обозначенный узел данных.

2.140. DUMP 9989

Code

9989

Символ

---

Ядерный блок

TRPMAN

Описание. Разблокирует передачу в обозначенный узел данных.

2.141. DUMP 10000

Code

10000

Символ

DumpLgman

Ядерный блок

LGMAN

Описание. Определено, но пока не применяется.

Пример вывода.

...

Дополнительно. [N/A]

2.142. DUMP 10001

Code

10001

Символ

LgmanDumpUndoStateClusterLog

Ядерный блок

LGMAN

Описание. [Unknown]

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433).

2.143. DUMP 10002

Code

10002

Символ

LgmanDumpUndoStateLocalLog

Ядерный блок

LGMAN

Описание. [Unknown]

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433).

2.144. DUMP 10003

Code

10003

Символ

LgmanCheckCallbacksClear

Ядерный блок

LGMAN

Описание. [Unknown]

Пример вывода.

...

Дополнительно. Добавлено в NDB 7.3.19, 7.4.17, 7.5.8 и 7.6.4 (Bug #26365433).

2.145. DUMP 11000

Code

11000

Символ

DumpPgman

Ядерный блок

---

Описание. Определено, но пока не применяется.

Пример вывода.

...

Дополнительно. [N/A]

2.146. DUMP 12001

Code

12001

Символ

TuxLogToFile

Ядерный блок

DBTUX

Описание. [Unknown]

Пример вывода.

...

Дополнительно. [N/A]

2.147. DUMP 12002

Code

12002

Символ

TuxSetLogFlags

Ядерный блок

DBTUX

Описание. [Unknown]

Пример вывода.

...

Дополнительно. [N/A]

2.148. DUMP 12009

Code

12009

Символ

TuxMetaDataJunk

Ядерный блок

DBTUX

Описание. Уничтожает узел данных.

Пример вывода.

Time: Sunday 01 November 2015 - 19:49:59
Status: Temporary error, restart node
Message: Error OS signal received (Internal error, programming error or
missing error message, please report a bug)
Error: 6000
Error data: Signal 6 received; Aborted
Error object: main.cpp
Program: ./libexec/ndbd
Pid: 13784
Trace: /usr/local/mysql/cluster/ndb_2_trace.log.1
Version: Version 5.6.27-ndb-7.4.8

Дополнительно. [N/A]

2.149. DUMP 103003

Code

103003

Символ

CmvmiRelayDumpStateOrd

Ядерный блок

CMVMI

Описание. Посылает команду DUMP, используя другой узел. Синтаксис показывают здесь и объясняют в следующем параграфа:

node_id DUMP 103003 other_node_id dump_cmd_no [args]

node_id ID узла, на котором команда дается (как обычно). other_node_id ID узла, где команда на самом деле выполняется. dump_cmd_no номер команды DUMP, которая будет выполнена на другом узле, args представляет любые дополнительные аргументы, требуемые этой командой DUMP.

Пример вывода. Вывод зависит от команды, которую посылают.

Дополнительно. Эта команда особенно полезна, потому что она может использоваться, чтобы послать DUMP узлу API, так как узлы API связаны только с узлами данных, а не с сервером управления.

Добавлено в NDB 8.0.18.

2.150. DUMP 103004

Code

103004

Символ

CmvmiDummy

Ядерный блок

CMVMI

Описание. Регистрирует отправку сигнала CmvmiSendDummySignal с использованием DUMP 103005 в регистратор событий. Включает информацию о размере сигнала, числе и размере секций сигнала и узле, который послал его. Синтаксис показывают здесь:

node_id DUMP 103004 to_id from_id padding frag_size sections length1 [length2 ...]

Аргументы описаны в следующем списке:

  • node_id: ID узла, где команда выполняется.

  • to_id: ID узла места назначения сигнала.

  • from_id: ID узла происхождения сигнала.

  • padding: дополнение размера.

  • frag_size: размер фрагмента.

  • sections: количество секций.

  • length1[, length2][, ...]: длины каждой из секций.

Пример вывода.

...

Дополнительно. Добавлено в NDB 8.0.18.

2.151. DUMP 103005

Code

103005

Символ

CmvmiSendDummy

Ядерный блок

CMVMI

Описание. Посылает CmvmiSendDummySignal данного размера и секций к указанному узлу. Это используется, чтобы проверить, что сообщения с определенными размерами сигнала и секциями можно послать и получить, это также зарегистрировано регистратором событий. Получающаяся запись в журнале должна соответствовать произведенному, получая DUMP 103004 . Синтаксис:

node_id DUMP 103005 to_id from_id padding frag_size sections length1 [length2 ...]

Аргументы описаны в следующем списке:

  • node_id: ID узла, где команда выполняется.

  • to_id: ID узла места назначения сигнала.

  • from_id: ID узла происхождения сигнала.

  • padding: дополнение размера.

  • frag_size: размер фрагмента.

  • sections: количество секций.

  • length1[, length2][, ...]: длины каждой из секций.

Пример вывода.

...

Дополнительно. Добавлено в NDB 8.0.18.

2.152. DUMP 13000

Code

13000

Символ

DumpBackup

Ядерный блок

BACKUP

Описание. Печатает в журнал кластера счетчик резервных копий.

Пример вывода.

2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 5: Compressed Backup: 0
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 5: Compressed LCP: 0
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 6: Compressed Backup: 0
2019-08-01 14:10:02 [MgmtSrvr] INFO -- Node 6: Compressed LCP: 0

Дополнительно. [N/A]

2.153. DUMP 130001

Code

130001

Символ

DumpBackupSetCompressed

Ядерный блок

BACKUP

Описание. Информация о сжатых резервных копиях в журнал кластера.

Пример вывода.

2019-08-01 14:12:43 [MgmtSrvr] INFO -- Node 5: Compressed Backup: 113871480
2019-08-01 14:12:43 [MgmtSrvr] INFO -- Node 6: Compressed Backup: 16121861

Дополнительно. [N/A]

2.154. DUMP 13002

Code

13002

Символ

DumpBackupSetCompressedLCP

Ядерный блок

BACKUP

Описание. Пишет информацию о сжатых местных контрольных точках в журнал кластера.

Пример вывода.

2019-08-01 14:15:39 [MgmtSrvr] INFO -- Node 5: Compressed LCP: 498009319
2019-08-01 14:15:39 [MgmtSrvr] INFO -- Node 6: Compressed LCP: 535883936

Дополнительно. [N/A]

2.155. DUMP 13003

Code

13003

Символ

BackupErrorInsert

Ядерный блок

BACKUP

Описание. Устанавливает резервную ошибку к указанному значению.

Пример вывода.

ndb_mgm> ALL DUMP 13003 32 1
Sending dump signal with data:
0x000032cb 0x00000020 0x00000001
Sending dump signal with data:
0x000032cb 0x00000020 0x00000001
BACKUP: setting error 32, 1

Дополнительно. [N/A]

2.156. DUMP 14000

Code

14000

Символ

DumpDbinfo

Ядерный блок

DBINFO

Описание. Определено, но пока не применяется.

Пример вывода.

.....

Дополнительно. [N/A]

2.157. DUMP 14001

Code

14001

Символ

DbinfoListTables

Ядерный блок

DBINFO

Описание. Перечисляет таблицы в информационной базе данных ndbinfo. Пишет в журнал узла данных. Каждая таблица перечисляется в формате table_id, table_name.

Пример вывода.

--- BEGIN NDB$INFO.TABLES ---
0,tables
1,columns
2,test
3,pools
4,transporters
5,logspaces
6,logbuffers
7,resources
8,counters
9,nodes
10,diskpagebuffer
11,threadblocks
12,threadstat
13,transactions
14,operations
15,membership
16,dict_obj_info
17,frag_mem_use
18,disk_write_speed_base
19,disk_write_speed_aggregate
20,frag_operations
21,restart_info
22,tc_time_track_stats
23,config_values
24,threads
25,cpustat_50ms
26,cpustat_1sec
27,cpustat_20sec
28,cpustat
29,frag_locks
30,acc_operations
31,table_distribution_status
32,table_fragments
33,table_replicas
34,table_distribution_status_all
35,table_fragments_all
36,table_replicas_all
37,stored_tables
38,processes
39,config_nodes
--- END NDB$INFO.TABLES ---

Дополнительно. [N/A]

2.158. DUMP 14002

Code

14002

Символ

DbinfoListColumns

Ядерный блок

DBINFO

Описание. Пишет список всех колонок всех таблиц ndbinfo в журнал узла данных. Каждая колонка перечисляется в формате table_id, column_id, column_name, column_typecode. ID таблиц получены из ALL DUMP 14001. Коды типов столбцов показывают в следующей таблице:

Таблица 2.10. Тип столбца DUMP 14002

Code Тип
1String
2Integer
3 Decimal

Пример вывода.

--- BEGIN NDB$INFO.COLUMNS ---
0,0,table_id,2
0,1,table_name,1
0,2,comment,1
1,0,table_id,2
1,1,column_id,2
1,2,column_name,1
1,3,column_type,2
1,4,comment,1
2,0,node_id,2
2,1,block_number,2
2,2,block_instance,2
2,3,counter,2
2,4,counter2,3
3,0,node_id,2
3,1,block_number,2
3,2,block_instance,2
3,3,pool_name,1
3,4,used,3
3,5,total,3
3,6,high,3
3,7,entry_size,3
3,8,config_param1,2
3,9,config_param2,2
3,10,config_param3,2
3,11,config_param4,2
3,12,resource_id,2
3,13,type_id,2
4,0,node_id,2
4,1,remote_node_id,2
4,2,connection_status,2
4,3,remote_address,1
4,4,bytes_sent,3
4,5,bytes_received,3
4,6,connect_count,2
4,7,overloaded,2
4,8,overload_count,2
4,9,slowdown,2
4,10,slowdown_count,2
5,0,node_id,2
5,1,log_type,2
5,2,log_id,2
5,3,log_part,2
5,4,total,3
5,5,used,3
5,6,high,3
6,0,node_id,2
6,1,log_type,2
6,2,log_id,2
6,3,log_part,2
6,4,total,3
6,5,used,3
6,6,high,3
7,0,node_id,2
7,1,resource_id,2
7,2,reserved,2
7,3,used,2
7,4,max,2
7,5,high,2
7,6,spare,2
8,0,node_id,2
8,1,block_number,2
8,2,block_instance,2
8,3,counter_id,2
8,4,val,3
9,0,node_id,2
9,1,uptime,3
9,2,status,2
9,3,start_phase,2
9,4,config_generation,2
10,0,node_id,2
10,1,block_instance,2
10,2,pages_written,3
10,3,pages_written_lcp,3
10,4,pages_read,3
10,5,log_waits,3
10,6,page_requests_direct_return,3
10,7,page_requests_wait_queue,3
10,8,page_requests_wait_io,3
11,0,node_id,2
11,1,thr_no,2
11,2,block_number,2
11,3,block_instance,2
12,0,node_id,2
12,1,thr_no,2
12,2,thr_nm,1
12,3,c_loop,3
12,4,c_exec,3
12,5,c_wait,3
12,6,c_l_sent_prioa,3
12,7,c_l_sent_priob,3
12,8,c_r_sent_prioa,3
12,9,c_r_sent_priob,3
12,10,os_tid,3
12,11,os_now,3
12,12,os_ru_utime,3
12,13,os_ru_stime,3
12,14,os_ru_minflt,3
12,15,os_ru_majflt,3
12,16,os_ru_nvcsw,3
12,17,os_ru_nivcsw,3
13,0,node_id,2
13,1,block_instance,2
13,2,objid,2
13,3,apiref,2
13,4,transid0,2
13,5,transid1,2
13,6,state,2
13,7,flags,2
13,8,c_ops,2
13,9,outstanding,2
13,10,timer,2
14,0,node_id,2
14,1,block_instance,2
14,2,objid,2
14,3,tcref,2
14,4,apiref,2
14,5,transid0,2
14,6,transid1,2
14,7,tableid,2
14,8,fragmentid,2
14,9,op,2
14,10,state,2
14,11,flags,2
15,0,node_id,2
15,1,group_id,2
15,2,left_node,2
15,3,right_node,2
15,4,president,2
15,5,successor,2
15,6,dynamic_id,2
15,7,arbitrator,2
15,8,arb_ticket,1
15,9,arb_state,2
15,10,arb_connected,2
15,11,conn_rank1_arbs,1
15,12,conn_rank2_arbs,1
16,0,type,2
16,1,id,2
16,2,version,2
16,3,state,2
16,4,parent_obj_type,2
16,5,parent_obj_id,2
16,6,fq_name,1
17,0,node_id,2
17,1,block_instance,2
17,2,table_id,2
17,3,fragment_num,2
17,4,rows,3
17,5,fixed_elem_alloc_bytes,3
17,6,fixed_elem_free_bytes,3
17,7,fixed_elem_count,3
17,8,fixed_elem_size_bytes,2
17,9,var_elem_alloc_bytes,3
17,10,var_elem_free_bytes,3
17,11,var_elem_count,3
17,12,tuple_l2pmap_alloc_bytes,3
17,13,hash_index_l2pmap_alloc_bytes,3
17,14,hash_index_alloc_bytes,3
18,0,node_id,2
18,1,thr_no,2
18,2,millis_ago,3
18,3,millis_passed,3
18,4,backup_lcp_bytes_written,3
18,5,redo_bytes_written,3
18,6,target_disk_write_speed,3
19,0,node_id,2
19,1,thr_no,2
19,2,backup_lcp_speed_last_sec,3
19,3,redo_speed_last_sec,3
19,4,backup_lcp_speed_last_10sec,3
19,5,redo_speed_last_10sec,3
19,6,std_dev_backup_lcp_speed_last_10sec,3
19,7,std_dev_redo_speed_last_10sec,3
19,8,backup_lcp_speed_last_60sec,3
19,9,redo_speed_last_60sec,3
19,10,std_dev_backup_lcp_speed_last_60sec,3
19,11,std_dev_redo_speed_last_60sec,3
19,12,slowdowns_due_to_io_lag,3
19,13,slowdowns_due_to_high_cpu,3
19,14,disk_write_speed_set_to_min,3
19,15,current_target_disk_write_speed,3
20,0,node_id,2
20,1,block_instance,2
20,2,table_id,2
20,3,fragment_num,2
20,4,tot_key_reads,3
20,5,tot_key_inserts,3
20,6,tot_key_updates,3
20,7,tot_key_writes,3
20,8,tot_key_deletes,3
20,9,tot_key_refs,3
20,10,tot_key_attrinfo_bytes,3
20,11,tot_key_keyinfo_bytes,3
20,12,tot_key_prog_bytes,3
20,13,tot_key_inst_exec,3
20,14,tot_key_bytes_returned,3
20,15,tot_frag_scans,3
20,16,tot_scan_rows_examined,3
20,17,tot_scan_rows_returned,3
20,18,tot_scan_bytes_returned,3
20,19,tot_scan_prog_bytes,3
20,20,tot_scan_bound_bytes,3
20,21,tot_scan_inst_exec,3
20,22,tot_qd_frag_scans,3
20,23,conc_frag_scans,2
20,24,conc_qd_plain_frag_scans,2
20,25,conc_qd_tup_frag_scans,2
20,26,conc_qd_acc_frag_scans,2
20,27,tot_commits,3
21,0,node_id,2
21,1,node_restart_status,1
21,2,node_restart_status_int,2
21,3,secs_to_complete_node_failure,2
21,4,secs_to_allocate_node_id,2
21,5,secs_to_include_in_heartbeat_protocol,2
21,6,secs_until_wait_for_ndbcntr_master,2
21,7,secs_wait_for_ndbcntr_master,2
21,8,secs_to_get_start_permitted,2
21,9,secs_to_wait_for_lcp_for_copy_meta_data,2
21,10,secs_to_copy_meta_data,2
21,11,secs_to_include_node,2
21,12,secs_starting_node_to_request_local_recovery,2
21,13,secs_for_local_recovery,2
21,14,secs_restore_fragments,2
21,15,secs_undo_disk_data,2
21,16,secs_exec_redo_log,2
21,17,secs_index_rebuild,2
21,18,secs_to_synchronize_starting_node,2
21,19,secs_wait_lcp_for_restart,2
21,20,secs_wait_subscription_handover,2
21,21,total_restart_secs,2
22,0,node_id,2
22,1,block_number,2
22,2,block_instance,2
22,3,comm_node_id,2
22,4,upper_bound,3
22,5,scans,3
22,6,scan_errors,3
22,7,scan_fragments,3
22,8,scan_fragment_errors,3
22,9,transactions,3
22,10,transaction_errors,3
22,11,read_key_ops,3
22,12,write_key_ops,3
22,13,index_key_ops,3
22,14,key_op_errors,3
23,0,node_id,2
23,1,config_param,2
23,2,config_value,1
24,0,node_id,2
24,1,thr_no,2
24,2,thread_name,1
24,3,thread_description,1
25,0,node_id,2
25,1,thr_no,2
25,2,OS_user_time,2
25,3,OS_system_time,2
25,4,OS_idle_time,2
25,5,exec_time,2
25,6,sleep_time,2
25,7,spin_time,2
25,8,send_time,2
25,9,buffer_full_time,2
25,10,elapsed_time,2
26,0,node_id,2
26,1,thr_no,2
26,2,OS_user_time,2
26,3,OS_system_time,2
26,4,OS_idle_time,2
26,5,exec_time,2
26,6,sleep_time,2
26,7,spin_time,2
26,8,send_time,2
26,9,buffer_full_time,2
26,10,elapsed_time,2
27,0,node_id,2
27,1,thr_no,2
27,2,OS_user_time,2
27,3,OS_system_time,2
27,4,OS_idle_time,2
27,5,exec_time,2
27,6,sleep_time,2
27,7,spin_time,2
27,8,send_time,2
27,9,buffer_full_time,2
27,10,elapsed_time,2
28,0,node_id,2
28,1,thr_no,2
28,2,OS_user,2
28,3,OS_system,2
28,4,OS_idle,2
28,5,thread_exec,2
28,6,thread_sleeping,2
28,7,thread_spinning,2
28,8,thread_send,2
28,9,thread_buffer_full,2
28,10,elapsed_time,2
29,0,node_id,2
29,1,block_instance,2
29,2,table_id,2
29,3,fragment_num,2
29,4,ex_req,3
29,5,ex_imm_ok,3
29,6,ex_wait_ok,3
29,7,ex_wait_fail,3
29,8,sh_req,3
29,9,sh_imm_ok,3
29,10,sh_wait_ok,3
29,11,sh_wait_fail,3
29,12,wait_ok_millis,3
29,13,wait_fail_millis,3
30,0,node_id,2
30,1,block_instance,2
30,2,tableid,2
30,3,fragmentid,2
30,4,rowid,3
30,5,transid0,2
30,6,transid1,2
30,7,acc_op_id,2
30,8,op_flags,2
30,9,prev_serial_op_id,2
30,10,next_serial_op_id,2
30,11,prev_parallel_op_id,2
30,12,next_parallel_op_id,2
30,13,duration_millis,2
30,14,user_ptr,2
31,0,node_id,2
31,1,table_id,2
31,2,tab_copy_status,2
31,3,tab_update_status,2
31,4,tab_lcp_status,2
31,5,tab_status,2
31,6,tab_storage,2
31,7,tab_type,2
31,8,tab_partitions,2
31,9,tab_fragments,2
31,10,current_scan_count,2
31,11,scan_count_wait,2
31,12,is_reorg_ongoing,2
32,0,node_id,2
32,1,table_id,2
32,2,partition_id,2
32,3,fragment_id,2
32,4,partition_order,2
32,5,log_part_id,2
32,6,no_of_replicas,2
32,7,current_primary,2
32,8,preferred_primary,2
32,9,current_first_backup,2
32,10,current_second_backup,2
32,11,current_third_backup,2
32,12,num_alive_replicas,2
32,13,num_dead_replicas,2
32,14,num_lcp_replicas,2
33,0,node_id,2
33,1,table_id,2
33,2,fragment_id,2
33,3,initial_gci,2
33,4,replica_node_id,2
33,5,is_lcp_ongoing,2
33,6,num_crashed_replicas,2
33,7,last_max_gci_started,2
33,8,last_max_gci_completed,2
33,9,last_lcp_id,2
33,10,prev_lcp_id,2
33,11,prev_max_gci_started,2
33,12,prev_max_gci_completed,2
33,13,last_create_gci,2
33,14,last_replica_gci,2
33,15,is_replica_alive,2
34,0,node_id,2
34,1,table_id,2
34,2,tab_copy_status,2
34,3,tab_update_status,2
34,4,tab_lcp_status,2
34,5,tab_status,2
34,6,tab_storage,2
34,7,tab_type,2
34,8,tab_partitions,2
34,9,tab_fragments,2
34,10,current_scan_count,2
34,11,scan_count_wait,2
34,12,is_reorg_ongoing,2
35,0,node_id,2
35,1,table_id,2
35,2,partition_id,2
35,3,fragment_id,2
35,4,partition_order,2
35,5,log_part_id,2
35,6,no_of_replicas,2
35,7,current_primary,2
35,8,preferred_primary,2
35,9,current_first_backup,2
35,10,current_second_backup,2
35,11,current_third_backup,2
35,12,num_alive_replicas,2
35,13,num_dead_replicas,2
35,14,num_lcp_replicas,2
36,0,node_id,2
36,1,table_id,2
36,2,fragment_id,2
36,3,initial_gci,2
36,4,replica_node_id,2
36,5,is_lcp_ongoing,2
36,6,num_crashed_replicas,2
36,7,last_max_gci_started,2
36,8,last_max_gci_completed,2
36,9,last_lcp_id,2
36,10,prev_lcp_id,2
36,11,prev_max_gci_started,2
36,12,prev_max_gci_completed,2
36,13,last_create_gci,2
36,14,last_replica_gci,2
36,15,is_replica_alive,2
37,0,node_id,2
37,1,table_id,2
37,2,logged_table,2
37,3,row_contains_gci,2
37,4,row_contains_checksum,2
37,5,temporary_table,2
37,6,force_var_part,2
37,7,read_backup,2
37,8,fully_replicated,2
37,9,extra_row_gci,2
37,10,extra_row_author,2
37,11,storage_type,2
37,12,hashmap_id,2
37,13,hashmap_version,2
37,14,table_version,2
37,15,fragment_type,2
37,16,partition_balance,2
37,17,create_gci,2
37,18,backup_locked,2
37,19,single_user_mode,2
38,0,reporting_node_id,2
38,1,node_id,2
38,2,node_type,2
38,3,node_version,1
38,4,process_id,2
38,5,angel_process_id,2
38,6,process_name,1
38,7,service_URI,1
39,0,reporting_node_id,2
39,1,node_id,2
39,2,node_type,2
39,3,node_hostname,1
--- END NDB$INFO.COLUMNS ---

Дополнительно. [N/A]

2.159. DUMP 14003

Code

14003

Символ

DbinfoScanTable

Ядерный блок

DBINFO

Описание. Определено, но пока не применяется.

Пример вывода.

.....

Дополнительно. [N/A]

2.160. DUMP 30000

Code

30000

Символ

RestoreRates

Ядерный блок

RESTORE

Описание. Восстановить процесс, чтобы напечатать резюме работы.

Пример вывода.

.....

Дополнительно. [N/A]

2.161. DUMP 100000

Code

100000

Символ

BackupStatus

Ядерный блок

BACKUP

Описание. Статус продолжающейся резервной копии. Эквивалент REPORT BackupStatus.

Пример вывода.

.....

Дополнительно. [N/A]

2.162. DUMP 100001

Code

100001

Символ

BackupMinWriteSpeed32

Ядерный блок

BACKUP

Описание. Устанавливает MinDiskWriteSpeed.

Пример вывода.

.....

Дополнительно. [N/A]

2.163. DUMP 100002

Code

100002

Символ

BackupMaxWriteSpeed32

Ядерный блок

BACKUP

Описание. Устанавливает MaxDiskWriteSpeed.

Пример вывода.

.....

Дополнительно. [N/A]

2.164. DUMP 100003

Code

100003

Символ

BackupMaxWriteSpeedOtherNodeRestart32

Ядерный блок

BACKUP

Описание. Устанавливает MaxDiskWriteSpeedOtherNodeRestart .

Пример вывода.

.....

Дополнительно. [N/A]

2.165. DUMP 100004

Code

100004

Символ

BackupMinWriteSpeed64

Ядерный блок

BACKUP

Описание. Устанавливает MinDiskWriteSpeed, передавая младшие значащие байты.

Пример вывода.

.....

Дополнительно. [N/A]

2.166. DUMP 100005

Code

100005

Символ

BackupMaxWriteSpeed64

Ядерный блок

BACKUP

Описание. Устанавливает MaxDiskWriteSpeed, передавая младшие значащие байты.

Пример вывода.

.....

Дополнительно. [N/A]

2.167. DUMP 100006

Code

100006

Символ

BackupMaxWriteSpeedOtherNodeRestart64

Ядерный блок

BACKUP

Описание. Устанавливает MaxDiskWriteSpeedOtherNodeRestart , передавая младшие значащие байты.

Пример вывода.

.....

Дополнительно. [N/A]

2.168. DUMP 100007

Code

100007

Символ

DumpStateOrd::BackupEncryptionRequired

Ядерный блок

BACKUP

Описание. В отладочных сборках отключает параметр узла данных RequireEncryptedBackup.

Пример вывода.

shell> ndb_mgm -e 'ALL DUMP 100007 0'
Sending dump signal with data:
0x000186a7 0x00000000
Sending dump signal with data:
0x000186a7 0x00000000

Дополнительно. Добавлено в NDB 8.0.22. Не имеет никакого эффекта, если NDB не был собран, используя WITH_DEBUG.

2.169. DUMP 100999

Code

100999

Символ

_BackupMax

Ядерный блок

BACKUP

Описание. Определено, но пока не применяется.

Пример вывода.

.....

Дополнительно. [N/A]

2.170. DUMP 101000

Code

101000

Символ

_TCMin

Ядерный блок

BACKUP

Описание. Определено, но пока не применяется.

Пример вывода.

.....

Дополнительно. [N/A]

2.171. DUMP 101999

Code

101999

Символ

_TCMax

Ядерный блок

BACKUP

Описание. Определено, но пока не применяется.

Пример вывода.

.....

Дополнительно. [N/A]

2.172. DUMP 102000

Code

102000

Символ

LQHLogFileInitStatus

Ядерный блок

DBLQH

Описание. Пишет отчет в журнал кластера о статусе инициализации файла журнала.

Пример вывода.

2019-08-01 23:10:24 [MgmtSrvr] INFO -- Node 5: Node 5: Log file initializtion completed
2019-08-01 23:10:24 [MgmtSrvr] INFO -- Node 6: Node 6: Log file initializtion completed

Дополнительно. [N/A]

2.173. DUMP 102999

Code

102999

Символ

_LQHMax

Ядерный блок

DBLQH

Описание. Определено, но пока не применяется.

Пример вывода.

.....

Дополнительно. [N/A]

2.174. DUMP 103000

Code

103000

Символ

SetSchedulerResponsiveness

Ядерный блок

CMVMI

Описание. Устанавливает параметр SchedulerResponsiveness в значение от 0 до 10 включительно.

Пример вывода.

ndb_mgm> ALL DUMP 103000
Sending dump signal with data:
0x00019258
Sending dump signal with data:
0x00019258
dump 103000 X, where X is between 0 and 10 to set transactional priority
ndb_mgm> ALL DUMP 103000 50
Sending dump signal with data:
0x00019258 0x00000032
Sending dump signal with data:
0x00019258 0x00000032
Trying to set SchedulerResponsiveness outside 0-10
ndb_mgm> ALL DUMP 103000 5
Sending dump signal with data:
0x00019258 0x00000005
Sending dump signal with data:
0x00019258 0x00000005
Setting SchedulerResponsiveness to 5

Дополнительно. [N/A]

2.175. DUMP 103001

Code

103001

Символ

EnableEventLoggerDebug

Ядерный блок

CMVMI

Описание. Позволяет уровень отладки в журнале узла.

Пример вывода.

2019-08-02 07:32:46 [ndbd] INFO -- Enable Debug level in node log

Дополнительно. Эквивалентно node_id NODELOG DEBUG ON.

2.176. DUMP 103002

Code

103002

Символ

DisableEventLoggerDebug

Ядерный блок

CMVMI

Описание. ...

Пример вывода.

.....

Дополнительно. Эквивалентно node_id NODELOG DEBUG OFF.

2.177. DUMP 104000

Code

104000

Символ

SetSchedulerSpinTimerAll

Ядерный блок

THRMAN

Описание. DUMP 104000 spintime устанавливает время ротации для всех потоков в spintime микросекунд.

Дополнительно. Добавлено в NDB 8.0.20.

2.178. DUMP 104001

Code

104001

Символ

SetSchedulerSpinTimerThread

Ядерный блок

THRMAN

Описание. DUMP 104001 thread spintime устанавливает время ротации для потока номер thread в spintime микросекунд.

Дополнительно. Добавлено в NDB 8.0.20.

2.179. DUMP 104002

Code

104002

Символ

SetAllowedSpinOverhead

Ядерный блок

THRMAN

Описание. Устанавливает, используя DUMP 104002 overhead, где overhead в диапазоне от 0 до 10000 включительно. Это используется, чтобы решить, какое число единиц процессорного времени позволило получать 1 единицу времени ожидания, согласно формуле, показанной здесь:

[time allowed] = 1.3 + (overhead / 100)

Это означает что overhead = 0 дает результат в в 1.3 единицы процессорного времени, и что значение по умолчанию overhead = 70 дает результат в 1.3 + 70/100 = 2 единицы процессорного времени.

В большинстве случаев вместо того, чтобы напрямую установить SetAllowedSpinOverhead, используется эта команда DUMP, достаточно позволить ее значению быть определенным одним из предопределенных значений для параметра SpinMethod узлав данных.

Дополнительно. Добавлено в NDB 8.0.20.

2.180. DUMP 104003

Code

104003

Символ

SetSpintimePerCall

Ядерный блок

THRMAN

Описание. DUMP 104003 timepercall устанавливает время для ротации в timepercall наносекунд с диапазоном 300-8000 включительно. Значение по умолчанию составляет 1000 наносекунд (1 микросекунда).

Дополнительно. Добавлено в NDB 8.0.20.

2.181. DUMP 104004

Code

104004

Символ

EnableAdaptiveSpinning

Ядерный блок

THRMAN

Описание. DUMP 104004 enable, где enable 1 или 0. Использование 0 отключает адаптивную ротацию, то есть, это вызывает ротацию, не проверяя использование ресурсов CPU, которая является той же самой статической ротацией, используемой NDB в прошлом.

Предоставление возможности адаптивной ротации означает, что параметры настройки таймеров проверяются только чтобы видеть, установлен ли таймер в 0. Установка таймера вращения к 0 (использованием SchedulerSpinTimer или компонента spintime для ThreadConfig) значит, что ротация дезактивирована полностью.

Адаптивная ротация начинается без ротации и проверок на ротацию после 60 микросекунд, увеличивается, уменьшается или отключается таймер для каждого потока блока независимо от любых других.

В большинстве случаев вместо того, чтобы позволить или отключить адаптивную ротацию непосредственно, используя команду DUMP, достаточно (и более удобно) сделать это, устанавливая параметр настройки узла данных SpinMethod в файле config.ini.

Дополнительно. Добавлено в NDB 8.0.20.

Поиск

 

Найди своих коллег!

Вы можете направить письмо администратору этой странички, Алексею Паутову. mailto:alexey.v.pautov@mail.ru