Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
dnbd3_fuse_cow [2022/09/08 16:40 CEST] – [Installation cow_merger_service] Überschr. angeglichen chrdnbd3_fuse_cow [2022/11/24 15:36 CET] (aktuell) – [cow_merger_service] bißchen verfl. chr
Zeile 124: Zeile 124:
 </code> </code>
  
-Erzeugte Dateien (Serverprogramm und Konfigurationsdatei) werden in cow_merger_service/publish/ abgelegt. Kopieren Sie die ausführbare Datei cow_merger_service und die Konfiguration appsettings.json an einen geeigneten Ort, beispielsweise in ein eigenes Verzeichnis hinter /opt.+Erzeugte Dateien (Serverprogramm und Konfigurationsdatei) werden in cow_merger_service/publish/ abgelegt. Kopieren Sie die ausführbare Datei cow_merger_service und die Konfiguration appsettings.json an einen geeigneten Ort, beispielsweise in ein eigenes Verzeichnis hinter /opt. Hier wird angenommen, daß die beiden Datein in ein Verzeichnis /opt/cow_merger_service kopiert wurden.
  
 === Autostart === === Autostart ===
Zeile 173: Zeile 173:
  
 ^Schlüssel              ^ Wert ^ Beschreibung                                                                                                                                      ^Schlüssel              ^ Wert ^ Beschreibung                                                                                                                                     
-|WorkingDirectory       | Pfad| Order in dem der Server die aktiven Images zur Bearbeitung zwischen speichert                              +|WorkingDirectory       | Pfad| Order zur Zwischenspeicherung und Bearbeitung aktiver Images. | 
-|OriginalImageDirectory | Pfad | Ordner der die Originalen Image Dateien enthält. |+|OriginalImageDirectory | Pfad | Ordnerder die originalen Imagedateien enthält. |
 |DestinationDirectory | Pfad | In diesen Ordner werden die fertigen Images kopiert.| |DestinationDirectory | Pfad | In diesen Ordner werden die fertigen Images kopiert.|
-|Urls                 | url:port,..,url:port| Url Liste auf die der Server hören soll.|+|Urls                 | url:port,..,url:port| URL-Listeauf die der Server hören soll.|
  
-Sämtliche genannten Werte aus der Tabelle **müssen** konfiguriert werden. Sollten sich die Serverprozesse cow_merger_service und der dnbd3-server auf dem selben System befinden, macht es Sinn, dass **OriginalImageDirectory** auf den gleichen Ordner wie der **basePath** des dnbd3 Servers zeigt.+Die genannten Werte müssen konfiguriert werden. Sollten sich die Serverprozesse cow_merger_service und der dnbd3-server auf dem selben System befinden, ergibt es Sinn, als OriginalImageDirectory das entsprechende Verzeichnis des dnbd3-Servers (basePath) zu verwenden.
  
 === Serverstart === === Serverstart ===
Zeile 217: Zeile 217:
  
 Der Random Test führt zufällige Schreibvorgänge und Größenänderungen durch. Diese werden sowohl auf dem gemounteten Image als auch auf einer im Dateisystem befindlichen Kopie desselben durchgeführt. Beide Abbilder werden zum Abschluss auf Gleichheit getestet. Der Random Test führt zufällige Schreibvorgänge und Größenänderungen durch. Diese werden sowohl auf dem gemounteten Image als auch auf einer im Dateisystem befindlichen Kopie desselben durchgeführt. Beide Abbilder werden zum Abschluss auf Gleichheit getestet.
 +
 +Folgende Pfade werden bei den Tests verwendet:
 +
 +  * **mountPfad** Beliebiger Pfad an dem das Image gemounted wird, wichtig der Ordner muss leer sein.
 +  * **tmpCowPfad** Beliebiger  Pfad an dem die CoW Extension die CoW Session Data und die Status Datei speichert.
 +  * **Pfad im lokalen Dateisystem** Beliebiger  Pfad im lokalen Dateisystem an dem eine Kopie des Test Images abgespeichert werden kann. Dies wird im Random Test als "Ground Truth" verwendet.
  
 ==== Allgemeine Testvorbereitungen ==== ==== Allgemeine Testvorbereitungen ====
Zeile 374: Zeile 380:
 (4033085440 mod COW_L2_STORAGE_CAPACITY) / COW_METADATA_STORAGE_CAPACITY = 5 (4033085440 mod COW_L2_STORAGE_CAPACITY) / COW_METADATA_STORAGE_CAPACITY = 5
 </code> </code>
-<note warning>To do</note>+ 
 +===Leseanfrage=== 
 +Wird eine Lese anfrage gestellt werden alle benötigten "cow_block_metadata_t" berechnet. In den bitfields wird dann geschaut ob die benötigten dnbd3 Blöcke Daten enthalten, also ob das bitfield an der stelle 1 ist. 
 +Falls ja werden die daten aus der Daten Datei geladen. Das Offset ist dabei das cow_block_metadata_t Offset plus 4096 * blocknummer im Cow Block. 
 +Falls das bit im bitfield jedoch 0 ist, gibt es zwei Fälle. Ist das offset kleiner als die Origial Image Größe werden die Daten mit 0 aufegfüllt (die Origial Image Größe Variable kann bei einem truncate die kleiner ist als das uhrprünglich Image weiter reuziert werden). 
 +Abdernfalls werden die Daten von dem dnbd3 server geladen. 
 +Da die Leseanfragen an den dnbd3 server asyncron ausgeführt werden, gibt es eine workCounter variable, die Anzahl der Parallelen anfragen plus der einzelnen lokalen enthält. 
 +Erst wenn diese Variable 0 ist, wird die Fuse-Anfrage beendet. 
 + 
 +===Schreibanfrage=== 
 +Wenn bei einer Schreibanfrage der Anfang oder das Ende nicht mit einem Vielfachen von 4096 übereinstimmt, muss der Anfangs- und/oder Endblock aufgefüllt werden. 
 +Das liegt daran, dass jeder 4096-Byte-Block vollständige Daten benötigt, denn wenn das Bit im Bitfeld für diesen Block gesetzt ist, werden alle Daten lokal gelesen. 
 +Um den Block aufzufüllen, werden die fehlenden Bytes vom dnbd3-Server angefordert, wenn er sich noch im Bereich der ursprünglichen Imagegröße befindet. 
 +Liegt er außerhalb der ursprünglichen Imagegröße (weil z.B. das Image größer geworden ist), werden die fehlenden Bytes mit 0 aufgefüllt. 
 +Die Schreibanfrage errechnet aus dem Offset die entsprechenden cow_block_metadata_t. 
 +Wenn die entsprechende cow_block_metadata_t noch nicht existiert, wird sie angelegt. 
 +Die Daten werden in die Datendatei geschrieben, und zwar an den in cow_block_metadata_t gespeicherten Offset. 
 +Dann wird das entsprechende Bit in den Bitfeldern gesetzt und die timeChanged aktualisiert. 
 +Wenn mehr Daten zu schreiben sind, wird die nächste cow_block_metadata_t berechnet und die obigen Schritte werden wiederholt. 
 +Die Variable workCounter wird auch hier verwendet, um sicherzustellen, dass das Auffüllen der Daten erfolgt, bevor die Fuse-Anfrage bendet wird. 
 + 
 +===Block-Upload=== 
 +Für das Hochladen von Blöcken gibt es einen Hintergrund-Thread, der periodisch eine Schleife über alle Cow-Blöcke zieht und prüft, 
 +ob timeChanged ungleich 0 ist und die Zeitdifferenz zwischen now und timeChanged größer als COW_MIN_UPLOAD_DELAY ist. 
 +Ist dies der Fall, wird der Block hochgeladen. Die timeChanged Variable vor dem Upload wird zwischengespeichert. 
 +Nach dem Hochladen wird timeChanged auf 0 gesetzt, wenn es noch die gleiche Zeit wie die zwischengespeicherte hat (wenn nicht, gab es eine Änderung während des Hochladens und es muss erneut hochgeladen werden). 
 +Sobald das Image ausgehängt ist, wird COW_MIN_UPLOAD_DELAY ignoriert und alle Blöcke, die eine andere Zeit als 0 haben, werden hochgeladen. 
 +Das Hochladen erfolgt über einen REST-Request. Es gibt zwei verschiedene Limits für die Anzahl der parallelen Uploads, diese können in der config.h konfiguriert werden. 
 + 
 +===Dateien=== 
 +Wenn eine neue CoW-Sitzung gestartet wird, werden eine neue Meta-, Daten- und, falls in den Befehlszeilenargumenten festgelegt, eine status.txt-Datei erstellt. 
 + 
 +==status.txt== 
 +Die Datei status.txt kann mit dem Kommandozeilenparameter --cowStatFile aktiviert werden. 
 + 
 +Die Datei enthält die folgende Informationen: 
 +<code> 
 +uuid=<uuid> 
 +state=backgroundUpload 
 +inQueue=0 
 +modifiedBlocks=0 
 +idleBlocks=0 
 +totalBlocksUploaded=0 
 +activeUploads:
 +ulspeed=0.00 
 +</code> 
 + 
 +  * Die **uuid** ist die Sitzungs-Uuid, die vom Cow-Server zur Identifizierung der Sitzung verwendet wird. 
 + 
 +  * Der **Status** ist **backgroundUpload**, wenn das Image noch eingehängt ist und die Cow- Blöcke im Hintergrund hochgeladen werden. Er ist **uploading**, wenn das Image ausgehängt wurde und alle noch nicht hochgeladenen Blöcke hochgeladen werden. Es ist **done**, wenn das Image ausgehängt wurde und alle Blöcke hochgeladen wurden. 
 + 
 +  * **Queue** sind die CoW Blöcke, die gerade hochgeladen werden oder auf einen freien Slot warten. 
 + 
 +  * **ModifiedBlocks** sind CoW Blöcke, die Änderungen aufweisen, die noch nicht auf den Server hochgeladen wurden, weil die Änderungen zu aktuell sind. 
 + 
 +  * **totalBlocksUploaded** die Gesamtanzahl der CoW Blöcke, die seit dem Einhängen des Images hochgeladen wurden. 
 + 
 +  * **activeUploads** ist die Anzahl der Blöcke, die gerade hochgeladen werden. 
 + 
 +  * **ulspeed** die aktuelle Upload-Geschwindigkeit in kb/s. 
 + 
 +Sobald alle Blöcke hochgeladen wurden, wird der Status auf erledigt gesetzt. Wenn Sie COW_DUMP_BLOCK_UPLOADS festlegen (in config.h), wird eine Liste aller Blöcke, sortiert nach der Anzahl der Uploads, in die Datei status.txt kopiert, nachdem der Block-Upload abgeschlossen ist. 
 + 
 +Mit dem Kommandozeilenparameter --cowStatStdout wird die gleiche Ausgabe der Statistikdatei in stdout ausgegeben. 
 + 
 +==meta== 
 +Die Metadatei enthält die folgenden Header: 
 +<code> 
 +// cowfile.h 
 +typedef struct cowfile_metadata_header 
 +
 +    uint64_t magicValue;                    // 8byte 
 +    atomic_uint_least64_t imageSize;        // 8byte 
 +    int32_t version;                        // 4byte 
 +    int32_t blocksize;                      // 4byte 
 +    uint64_t originalImageSize;             // 8byte 
 +    uint64_t metaDataStart;                 // 8byte 
 +    int32_t bitfieldSize;                   // 4byte 
 +    int32_t nextL2;                         // 4byte 
 +    atomic_uint_least64_t metadataFileSize; // 8byte 
 +    atomic_uint_least64_t dataFileSize;     // 8byte 
 +    uint64_t maxImageSize;                  // 8byte 
 +    uint64_t creationTime;                  // 8byte 
 +    char uuid[40];                          // 40byte 
 +    char imageName[200];                    // 200byte 
 +} cowfile_metadata_header_t; 
 +</code> 
 +Nach diesem Header beginnt bei Byte 8192 die oben erwähnte l1- und dann die l2-Datenstruktur. 
 +==data== 
 +Die Datendatei enthält den magicValue und am Offset 40 * 8 * 4096 (Kapazität eines cowfile_metadata_header_t) beginnt der erste Datenblock. 
 + 
 +==magic values in den Headern der Dateien== 
 +Die magic values in beiden Dateien werden verwendet, um sicherzustellen, dass eine geeignete Datei gelesen wird und dass der Rechner die richtige Endianness hat. 
 +<code> 
 +//config.h 
 +#define COW_FILE_META_MAGIC_VALUE ((uint64_t)0xEBE44D6E72F7825E) // Magic Value to recognize a Cow meta file 
 +#define COW_FILE_DATA_MAGIC_VALUE ((uint64_t)0xEBE44D6E72F7825F) // Magic Value to recognize a Cow data file 
 +</code> 
 + 
 +===Threads=== 
 +Diese Erweiterung verwendet zwei neue Threads: 
 +<code> 
 +tidCowUploader 
 +tidStatUpdater 
 +</code> 
 +  * **tidCowUploader** ist der Thread, der die Blöcke auf den Cow-Server hochlädt. 
 + 
 +  * **tidStatUpdater** aktualisiert die Statistiken in stdout oder die Statistikdateien (je nach Parametern). 
 + 
 +===Locks=== 
 +Diese Erweiterung verwendet einen neuen Lock cow.l2CreateLock. Er wird verwendet, wenn ein neues L2-Array zugewiesen wird. 
 + 
 + 
 +===Config Variablen ==== 
 +Die folgenden Konfigurationsvariablen wurden zu config.h hinzugefügt. Eine Änderung wird nur erfahrenen Nutzern empfohlen. 
 +<code> 
 +//config.h 
 +// +++++ COW +++++ 
 +#define COW_BITFIELD_SIZE 40 // NEVER CHANGE THIS OR THE WORLD WILL ALSO END! 
 +#define COW_FILE_META_MAGIC_VALUE ((uint64_t)0xEBE44D6E72F7825E) // Magic Value to recognize a Cow meta file 
 +#define COW_FILE_DATA_MAGIC_VALUE ((uint64_t)0xEBE44D6E72F7825F) // Magic Value to recognize a Cow data file 
 +#define COW_MIN_UPLOAD_DELAY 60 // in seconds 
 +#define COW_STATS_UPDATE_TIME 5 // time in seconds the cow status files gets updated (while uploading blocks) 
 +#define COW_MAX_PARALLEL_UPLOADS 10 // maximum number of parallel uploads 
 +#define COW_MAX_PARALLEL_BACKGROUND_UPLOADS 2 // maximum number of parallel uploads while the image is still mounted 
 +#define COW_URL_STRING_SIZE 500 // Max string size for an url 
 +#define COW_SHOW_UL_SPEED 1 // enable display of ul speed in cow status file 
 +#define COW_MAX_IMAGE_SIZE 1000LL * 1000LL * 1000LL * 1000LL; // Maximum size an image can have(tb*gb*mb*kb) 
 +// +++++ COW API Endpoints +++++ 
 +#define COW_API_CREATE "%s/api/File/Create" 
 +#define COW_API_UPDATE "%s/api/File/Update?guid=%s&BlockNumber=%lu" 
 +#define COW_API_START_MERGE "%s/api/File/StartMerge" 
 +</code> 
 + 
 +  * **COW_MIN_UPLOAD_DELAY** legt die Mindestzeit in Sekunden fest, die seit der letzten Änderung eines CoW Blocks verstrichen sein muss, bevor er hochgeladen wird. Ein größerer Wert verringert normalerweise das doppelte Hochladen von Blöcken. Ein kleinerer Wert verringert die Zeit für das abschließende Hochladen, nachdem das Image ausgehängt wurde. Wenn Sie COW_DUMP_BLOCK_UPLOADS setzen und den Kommandozeilenparameter --cowStatFile angeben, wird eine Liste aller Blöcke, sortiert nach der Anzahl der Uploads, in die Datei status.txt geschrieben, nachdem der Block-Upload abgeschlossen ist. Dies kann bei der Feinabstimmung von COW_MIN_UPLOAD_DELAY helfen. 
 + 
 +  * **COW_STATS_UPDATE_TIME** definiert die Aktualisierungsfrequenz der stdout-Ausgabe/Statistikdatei in Sekunden. Ein zu niedriger Wert könnte die Leistung beeinträchtigen, da eine Schleife über alle Blöcke läuft. 
 + 
 +  * **COW_MAX_PARALLEL_BACKGROUND_UPLOADS** definiert die maximale Anzahl der parallelen Block-Uploads. Diese Zahl wird verwendet, wenn das Image noch eingehängt ist und der Benutzer es noch nutzt. 
 + 
 +  * **COW_MAX_PARALLEL_UPLOADS** definiert die maximale Anzahl der parallelen Block-Uploads. Diese Zahl wird verwendet, sobald das Image ausgehängt wurde, um die restlichen geänderten Blöcke hochzuladen.
  
 ==== REST-API ==== ==== REST-API ====
  
-Die folgende REST API wird genutzt zur Komunikationund Datenübertragung mit dem cow_merger_service.+Die folgende REST API wird genutzt zur Komunikation und Datenübertragung mit dem cow_merger_service.
  
 === /api/File/Create === === /api/File/Create ===
Zeile 476: Zeile 622:
 | mergedBlocks | integer |  | Yes | | mergedBlocks | integer |  | Yes |
 | totalBlocks | integer |  | Yes | | totalBlocks | integer |  | Yes |
 +
 +==== Tests ====
 +
 +===Standard Test===
 +
 +==TestSingleBit==
 +Setzt das erste Bit des ersten dnbd3 Blocks auf 1 und das mittlere Bit des zweiten dnbd3 Blocks auf 1.
 +
 +==WriteOverTwoBlocks==
 +Dieser Test schreibt über zwei dnbd3 Blöcke.
 +
 +==WriteNotOnBlockBorder==
 +Dieser Test schreibt über drei Blöcke, jedoch beginnt er nicht an der Block grenze.
 +
 +==InterleavedTest==
 +Dieser Test schreibt mehrere dnbd3 Blöck mit verschiedenen Daten, jedoch lässt er Blöcke zwischendrin unbeschrieben.
 +
 +==WriteOverL2==
 +Dieser Test, testet das schreiben über eine L2 grenze.
 +
 +==MultipleWrites==
 +Dieser Test schreibt mehrmals auf dieselben Blöcke verschiedene Daten. Mit dem --delay Paramter kann die Wartezeit zwischen den Schreibvorgängen definiert werden. Dies ist nützlich, da je nach Delay die Blöcke zwischenzeitlich hochgeladen werden.
 +
 +==fileSizeChanges==
 +Testet Änderungen an der Dateigröße. Zuerst wird die Dateigröße um 2 * l2Capacity mit einem Truncate erhöht. Dann wird geprüft, ob alle Bits in dem neu zugewiesenen Speicherplatz auf 0 gesetzt sind. Dann werden Daten in die Datei geschrieben, um zu prüfen, ob ein Schreiben möglich ist. Danach wird die Datei wieder auf die ursprüngliche Größe zurückgeschnitten. Dann wird sie wieder auf die ursprüngliche Größe + 2 * l2Capacity verkleinert und geprüft, ob alle Bits im neu zugewiesenen Speicherbereich wieder 0 sind (so dass die zuvor geschriebenen Daten wieder auf 0 gesetzt werden).
 +
 +==LongNonAlignedPattern==
 +Dieser Test schreibt ein langes Muster über 3 l2-Blöcke. Das Muster wiederholt Zeichen von 0 bis 254, ist also kein Vielfaches von 4096, was dazu führt, dass alle Blöcke mit unterschiedlichen Daten gefüllt werden. Außerdem ist dieser Test nicht blockorientiert.
 +
 +===Random Test===
 +Dieser Test führt wie oben beschrieben zufällig Größenänderungen und Schreibvorgänge durch. Die Wahrscheinlichkeit für eine Größenänderung wird mit dem Macro RND_TRUNCATE_PROBABILITY definiert und ist standardmäßig 5 %.
 +Ansonsten wird ein Schreibvorgang ausgeführt. Des Weiteren gibt es noch das Macro RND_UNALIGNED_WRITE_PROBABILITY, dies definiert die Wahrscheinlichkeit, dass der Schreibvorgang nicht auf einer Blockgrenze beginnt und endet. Die maximale prozentuale Größenänderung wird mit den Startparametern minSizePercent und maxSizePercent wie oben beschrieben festgelegt.
  
  
Drucken/exportieren