DRBD

Aus xinux.net
Version vom 13. Oktober 2010, 07:35 Uhr von Pascal (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „'''DRBD<sup>®</sup>''' (''Distributed Replicated Block Device'') ist eine freie Netzwerkspeicherlösungs-Software. Als Kernel…“)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

DRBD® (Distributed Replicated Block Device) ist eine freie Netzwerkspeicherlösungs-Software. Als Kernel-Modul zusammen mit einer Management-Applikation im Userspace und einem Skript dient es dazu, ein Blockgerät auf einem produktiven (primary) Server in Echtzeit auf einen anderen (secondary) Server zu spiegeln. Dieses Verfahren wird verwendet, um Hochverfügbarkeit (HA) im Linux-Umfeld zu realisieren und somit eine gute Verfügbarkeit verschiedener Dienste zu erreichen.

Funktionsweise

Es werden alle Schreibzugriffe über das Netzwerk an den zweiten Server übermittelt. Erst wenn der zweite Server den erfolgreichen Schreibvorgang an den ersten Server zurückgemeldet hat, meldet dieser der Applikation das Ende des Schreibvorgangs (diese Technik ist vergleichbar mit einem RAID 1 über TCP/IP). Falls der erste Server ausfällt, wird dieser als inaktiv gemeldet. Durch eine Serverüberwachungssoftware wie Heartbeat kann der zweite Server die Funktion des ersten Servers übernehmen und mit denselben Daten weiterarbeiten.

Jede DRBD-Komponente (lokal auch als Partition bezeichnet) besitzt einen Status, welcher entweder primär oder sekundär sein kann. Zwischen allen Systemen erzeugt DRBD eine Verbindung von der lokalen Partition zu einem virtuellen Gerät /dev/drbdX, welches nicht direkt angesprochen werden kann. Schreibzugriffe auf das primäre System werden über das Low-level-Blockgerät (die Partition) und gleichzeitig an das sekundäre System propagiert. Das sekundäre System übermittelt dann die Daten an sein eigenes lokales Low-level-Blockgerät. Alle Lesezugriffe werden stets lokal durchgeführt.

Sollte das primäre System ausfallen, versetzt ein Cluster-Management-Prozess das sekundäre System in den primären Systemzustand. Wenn das ehemals primäre System wieder verfügbar ist, wird dieses nach einer Resynchronisation der Gerätedaten normalerweise, um keine überflüssige Downtime zu erzeugen, als sekundäres System weiterlaufen, kann aber auch wieder in den primären Status versetzt werden. Der Algorithmus der DRBD-Synchronisation arbeitet dadurch effizient, dass nur während des Ausfalls geänderte Datenblöcke wieder resynchronisiert werden müssen, nicht das ganze Gerät.

In der im Januar 2007 erschienenen Version 8 wurde eine Unterstützung für Konfigurationen mit Lastverteilung eingeführt, welches beiden Systemen ermöglicht, einzelne DRBDs im Lese-/Schreib-Modus wie bei gemeinsam genutztem Speicher (shared storage) zu nutzen.<ref>Philipp Reisner: DRBD v8 - Replicated Storage with Shared Disk Semantics. In: Proceedings of the 12th International Linux System Technology Conference. 2005.</ref> Diese Art der Nutzung erfordert die Verwendung eines Sperrmechanismus, dem „distributed lock manager“.

Vorteile gegenüber gemeinsam genutztem Cluster-Speicher

Konventionelle Computer-Cluster-Systeme benutzen in der Regel eine Art gemeinsamen Speicher, der für die Clusterressourcen benutzt wird. Dieser Ansatz hat jedoch eine Reihe von Nachteilen, die DRBD umgeht.

  • Gemeinsam genutzte Speicher (shared storage) bringen typischerweise eine einzelne Fehlerstelle (Single Point of Failure) mit sich, da beide Clustersysteme vom gleichen gemeinsamen Speicher abhängig sind. Bei der Verwendung von DRBD besteht hier keine Gefahr, da die benötigten Clusterressourcen lokal repliziert werden und nicht auf einem eventuell wegfallenden gemeinsamen Speicher liegen.
  • Gemeinsam genutzter Speicher wird in der Regel über ein SAN oder ein NAS adressiert, was einen gewissen Mehraufwand beim Lesezugriff erfordert. Bei DRBD wird dieser Aufwand signifikant reduziert, da Lesezugriffe immer lokal stattfinden.

Anwendungen

DRBD arbeitet innerhalb des Linux-Kernels auf Blockebene und ist damit für darauf aufsetzende Schichten transparent. DRBD kann somit als Grundlage verwendet werden für:

  • konventionelle Dateisysteme
  • gemeinsam genutzte Cluster-Dateisysteme wie z.B. GFS oder OCFS2
  • ein weiteres logisches Blockgerät wie z.B. LVM
  • jede Applikation, die den direkten Zugriff auf ein Blockgerät unterstützt.

DRBD-basierende Cluster werden häufig eingesetzt, um Dateiserver und relationale Datenbanken (wie MySQL) um synchrone Replikation und Hochverfügbarkeit zu erweitern.

Aufnahme in den Linux-Kernel

Im Juli 2007 stellten die DRBD-Autoren die Software der Linux-Entwicklergemeinde für eine mögliche zukünftige Aufnahme von DRBD in den offiziellen Linux-Kernel zur Verfügung.<ref>Lars Ellenberg: DRBD wants to go mainline. Linux-kernel-Mailingliste. 21. Juli 2007.</ref> Im Kernel 2.6.33 wurde DRBD neu aufgenommen.<ref>DRBD schafft es in den Linux-Kernel</ref>

DRBD+ wird Open Source

Die kommerziell lizenzierte Version DRBD+ wurde in der ersten Hälfte des Dezember 2008 mit der Open-Source-Version zusammengeführt und unter der GNU General Public Licence freigegeben. Seit der daraus resultierenden Version 8.3 ist es möglich, den Datenbestand auf einen dritten Knoten zu spiegeln. Die Höchstgrenze von 4 TiByte pro Gerät ist auf 16 TiByte erhöht worden. <ref>heise.de: Hochverfügbarkeitslösung DRBD+ wird Open Source. 17. November 2008.</ref><ref>Ankündigung von DRBD 8.3 unter der GPL</ref>

Weblinks

Vorlage:Commons

Quellen

<references/>