Benutzer-Werkzeuge

Webseiten-Werkzeuge


it-wiki:linux:ceph

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
it-wiki:linux:ceph [2024/07/10 04:43] markoit-wiki:linux:ceph [2024/07/10 06:00] (aktuell) marko
Zeile 1: Zeile 1:
 ====== Hyperkonvergente Ceph-Cluster ====== ====== Hyperkonvergente Ceph-Cluster ======
 +  * [[.ceph:maintenance| Ceph maintenance]]
 +  * [[.ceph:crush_deviceclasses| Ceph CRUSH & device classes]]
 +
 +----
 Ceph ist ein verteilter Objektspeicher und Dateisystem, das für hervorragende Leistung, Zuverlässigkeit und Ceph ist ein verteilter Objektspeicher und Dateisystem, das für hervorragende Leistung, Zuverlässigkeit und
 Skalierbarkeit konzipiert ist. Skalierbarkeit konzipiert ist.
Zeile 6: Zeile 10:
   * Skalierbar auf Exabyte-Ebene   * Skalierbar auf Exabyte-Ebene
   * Bietet Block-, Dateisystem- und Objektspeicher   * Bietet Block-, Dateisystem- und Objektspeicher
-  * Einrichten von Pools mit unterschiedlichen Leistungs- und Redundanzmerkmalen+  * Einrichten von [[.ceph:pool|Pool]]s mit unterschiedlichen Leistungs- und Redundanzmerkmalen
   * Daten werden repliziert, wodurch sie fehlertolerant sind   * Daten werden repliziert, wodurch sie fehlertolerant sind
   * Läuft auf Standardhardware   * Läuft auf Standardhardware
Zeile 16: Zeile 20:
   *  [[.ceph:monitor|Ceph Monitor]] (ceph-mon, oder MON)   *  [[.ceph:monitor|Ceph Monitor]] (ceph-mon, oder MON)
   *  [[.ceph:manager|Ceph Manager]] (ceph-mgr, oder MGS)   *  [[.ceph:manager|Ceph Manager]] (ceph-mgr, oder MGS)
-  *  Ceph Metadata Service (ceph-mds, oder MDS)+  *  [[.ceph:metadata_service|Ceph Metadata Service]] (ceph-mds, oder MDS)
   * [[.ceph:osd|Ceph Object Storage Daemon]] (ceph-osd, oder OSD)   * [[.ceph:osd|Ceph Object Storage Daemon]] (ceph-osd, oder OSD)
  
Zeile 27: Zeile 31:
   * Intensive CPU-Auslastung, die von hohen CPU-Basisfrequenzen und mehreren Kernen profitiert. Mitglieder dieser Kategorie sind:   * Intensive CPU-Auslastung, die von hohen CPU-Basisfrequenzen und mehreren Kernen profitiert. Mitglieder dieser Kategorie sind:
     * **Object Storage Daemon ([[.ceph:osd|OSD]])-Dienste**     * **Object Storage Daemon ([[.ceph:osd|OSD]])-Dienste**
-    * Meta Data Service (MDS), der für CephFS verwendet wird+    * Meta Data Service (MDS), der für [[.ceph:cephfs|CephFS]] verwendet wird
   * Moderate CPU-Auslastung, die nicht mehrere CPU-Kerne benötigt. Dies sind:   * Moderate CPU-Auslastung, die nicht mehrere CPU-Kerne benötigt. Dies sind:
     * [[.ceph:monitor|Ceph Monitor]] (MON)-Dienste     * [[.ceph:monitor|Ceph Monitor]] (MON)-Dienste
Zeile 65: Zeile 69:
 Besonders bei kleinen Clustern kann die Wiederherstellung lange dauern. Es wird empfohlen, in kleinen Setups SSDs anstelle von HDDs zu verwenden, um die Wiederherstellungszeit zu verkürzen und die Wahrscheinlichkeit eines nachfolgenden Fehlerereignisses während der Wiederherstellung zu minimieren. Besonders bei kleinen Clustern kann die Wiederherstellung lange dauern. Es wird empfohlen, in kleinen Setups SSDs anstelle von HDDs zu verwenden, um die Wiederherstellungszeit zu verkürzen und die Wahrscheinlichkeit eines nachfolgenden Fehlerereignisses während der Wiederherstellung zu minimieren.
  
-Im Allgemeinen bieten SSDs mehr IOPS als rotierende Festplatten. In Anbetracht dessen kann es neben den höheren Kosten sinnvoll sein, eine klassenbasierte Trennung der Pools zu implementieren. Eine andere Möglichkeit, [[.ceph:osd|OSD]]s zu beschleunigen, besteht darin, eine schnellere Festplatte als Journal- oder DB/Write-Ahead-Log-Gerät zu verwenden. Wenn eine schnellere Festplatte für mehrere [[.ceph:osd|OSD]]s verwendet wird, muss ein angemessenes Gleichgewicht zwischen [[.ceph:osd|OSD]]- und WAL-/DB- (oder Journal-)Festplatte ausgewählt werden, da sonst die schnellere Festplatte zum Engpass für alle verknüpften [[.ceph:osd|OSD]]s wird.+Im Allgemeinen bieten SSDs mehr IOPS als rotierende Festplatten. In Anbetracht dessen kann es neben den höheren Kosten sinnvoll sein, eine klassenbasierte Trennung der [[.ceph:pool|Pool]]s zu implementieren. Eine andere Möglichkeit, [[.ceph:osd|OSD]]s zu beschleunigen, besteht darin, eine schnellere Festplatte als Journal- oder DB/Write-Ahead-Log-Gerät zu verwenden. Wenn eine schnellere Festplatte für mehrere [[.ceph:osd|OSD]]s verwendet wird, muss ein angemessenes Gleichgewicht zwischen [[.ceph:osd|OSD]]- und WAL-/DB- (oder Journal-)Festplatte ausgewählt werden, da sonst die schnellere Festplatte zum Engpass für alle verknüpften [[.ceph:osd|OSD]]s wird.
  
 Abgesehen vom Festplattentyp funktioniert Ceph am besten mit einer gleichmäßig großen und gleichmäßig verteilten Anzahl von Festplatten pro Knoten. Beispielsweise sind 4 x 500 GB-Festplatten in jedem Knoten besser als eine gemischte Konfiguration mit einer einzelnen 1 TB- und drei 250 GB-Festplatten. Abgesehen vom Festplattentyp funktioniert Ceph am besten mit einer gleichmäßig großen und gleichmäßig verteilten Anzahl von Festplatten pro Knoten. Beispielsweise sind 4 x 500 GB-Festplatten in jedem Knoten besser als eine gemischte Konfiguration mit einer einzelnen 1 TB- und drei 250 GB-Festplatten.
it-wiki/linux/ceph.1720586586.txt.gz · Zuletzt geändert: 2024/07/10 04:43 von marko