GlusterFS in Version 3.8.7 freigegben

      Keine Kommentare zu GlusterFS in Version 3.8.7 freigegben

Neben dem stable Zweig 3.7.x des skalierbare Netzwerkfilesystems, GlusterFS, wurde  auch der aktuelle stable Zweig 3.8 als Bugfix Release in Version 3.8.7 freigegeben.

Neu mit diesem Release ist die CLI Option granualar-entry-heal. Diese ermöglicht es, wenn sie aktiviert wurde, was dem self-heal entspricht, nach granularen Hinweisen in den entry-changes zu schauen.  Wenn diese Hinweise nicht vorhanden sind, wird die granualare Heal Logik fehlschlagen und die Verzeichnisse werden nicht korrigiert. Damit dies nicht passiert ist diese Option hinzugekommen. Wenn  diese aktiviert wurde, kümmert sie sich um die Korrektur und berücksichtig auch Pending Heals oder den Ausfall von einem oder mehrerer Bricks.

Der Befehl lautet:

# gluster volume heal <VOL> granular-entry-heal {enable,disable}

Was bewirkt die Aktivierung?

  • wird ein Heal auf dem Volume benötigt
  • ist einer der Replicas down

In beiden Fällen wird der Befehl mit einem Fehler beendet und es werden keine Indizes / Hinweise zum Heal durch AFR unter .glusterfs/indices/xattrop und zum erstellen unter .glusterfs/indices/entry-changes erstellt. Self-Heal wird beendet und verhindert dadurch das teilweise korrigieren von fehlerhaften Einträgen.

Wer sollte es nutzen?

  • jeder will
  • in Fällen mit sehr vielen Dateien in einem Verzeichnis wie z.B. in VMs mit shard Dateien im Verzeichnis .shard

GlusterFS 3.8.7 Release Notes

Bugs addressed

A total of 16 patches have been merged, addressing 15 bugs:

  • #1395652: ganesha-ha.conf –status should validate if the VIPs are assigned to right nodes
  • #1397663: libgfapi core dumps
  • #1398501: [granular entry sh] – Provide a CLI to enable/disable the feature that checks that there are no heals pending before allowing the operation
  • #1399018: performance.read-ahead on results in processes on client stuck in IO wait
  • #1399088: geo-replica slave node goes faulty for non-root user session due to fail to locate gluster binary
  • #1399090: [geo-rep]: Worker crashes seen while renaming directories in loop
  • #1399130: SEEK_HOLE/ SEEK_DATA doesn’t return the correct offset
  • #1399635: Refresh config fails while exporting subdirectories within a volume
  • #1400459: [USS,SSL] .snaps directory is not reachable when I/O encryption (SSL) is enabled
  • #1400573: Ganesha services are not stopped when pacemaker quorum is lost
  • #1400802: glusterfs_ctx_defaults_init is re-initializing ctx->locks
  • #1400927: Memory leak when self healing daemon queue is full
  • #1402672: Getting the warning message while erasing the gluster „glusterfs-server“ package.
  • #1403192: Files remain unhealed forever if shd is disabled and re-enabled while healing is in progress.
  • #1403646: self-heal not happening, as self-heal info lists the same pending shards to be healed

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.