Konfiguration für die Verarbeitung von Datenpartitionen
Dieses Kapitel zeigt Beispiele, die erklären, wie Optim™ High Performance Unload in Abhängigkeit von den in der Konfigurationsdatei eingestellten Parametern ablaufen würde
Beim vorliegenden Anwendungsfall handelt es sich um die datenpartitionierte Tabelle MYTABLE, die 50 Datenpartitionen aus Backup-Images einer DPF-Datenbank mit Namen MYDB enthält, die wiederum zwei Datenbankpartitionen auf einer eindeutigen Maschine mit vier CPUs einschließt.
Die zugehörige Steuerdatei, die absichtlich keine Klausel für die Verarbeitung von Datenpartitionen enthält, sieht wie folgt aus:
GLOBAL CONNECT TO MYDB
USING BACKUP CATALOG MYDB FROM “/backups”;
;
UNLOAD TABLESPACE PART(1,2)
DB2 NO USING BACKUP DATABASE MYDB FROM “/backups”;
SELECT * FROM MYTABLE;
OUTFILE(“outfile”)
FORMAT DEL; Scenario
1: leaving the configuration file db2hpu.cfg file without a shared_datapart_processing
parameter or adding this parameter set to noDie Datenpartitionen werden separat verarbeitet. Optim High Performance Unload wird 50 Verarbeitungseinheiten für die Zeilen der ersten Datenbankpartition starten, eine pro Datenpartition, um ihre Zeilen zu verarbeiten, um zu vermeiden, dass die Sicherung dieser Datenbankpartition mehrmals gelesen wird. Die Anzahl Verarbeitungseinheiten ist bereits größer als die Anzahl CPUs. Optim High Performance Unload die Verarbeitung der zweiten Datenbankpartition beginnt erst, wenn die Verarbeitung der ersten abgeschlossen ist. Als Folge davon werden die Datenbankpartitionen seriell verarbeitet.
Scenario 2: adding a shared_datapart_processing parameter set to yes in the db2hpu.cfg file
Die Datenpartitionen werden von Einheiten verarbeitet, die den Verarbeitungsprozess gemeinsam nutzen. Optim High Performance Unload wird 4 Verarbeitungseinheiten für die Zeilen der ersten Datenbankpartition starten, so viele wie es CPUs auf dem Computer gibt, wobei sich diese parallelen Einheiten die Verarbeitung der Zeilen aller 50 Datenpartitionen teilen. Die Anzahl Verarbeitungseinheiten entspricht bereits der Anzahl CPUs. Optim High Performance Unload die Verarbeitung der zweiten Datenbankpartition mit 4 neuen Einheiten beginnt erst, wenn die Verarbeitung der ersten Datenbankpartition abgeschlossen ist. Als Folge davon werden die Datenbankpartitionen seriell verarbeitet.
Scenario 3: adding a shared_datapart_processing parameter set to yes and the maxthreads parameter set to 2 in the db2hpu.cfg file
Die Datenpartitionen werden von Einheiten verarbeitet, die ihre Verarbeitung gemeinsam nutzen, wobei die Anzahl der Einheiten für eine bestimmte Datenbankpartition auf 2 begrenzt ist. Optim High Performance Unload wird 2 Verarbeitungseinheiten für die Zeilen der ersten Datenbankpartition und 2 weitere für die Zeilen der zweiten Datenbankpartition starten, also 4 Einheiten (so viele wie CPUs auf dem Computer vorhanden sind). Diese zwei Sets von jeweils zwei parallelen Einheiten nutzen den Verarbeitungsprozess für die Zeilen aller 50 Datenpartitionen in jeder Datenbankpartition jeweils gemeinsam. Als Folge davon werden die zwei Datenbankpartitionen parallel verarbeitet.