it-wiki:linux:ceph
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
it-wiki:linux:ceph [2024/07/10 04:43] – marko | it-wiki:linux:ceph [2024/07/10 06:00] (aktuell) – marko | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
====== Hyperkonvergente Ceph-Cluster ====== | ====== Hyperkonvergente Ceph-Cluster ====== | ||
+ | * [[.ceph: | ||
+ | * [[.ceph: | ||
+ | |||
+ | ---- | ||
Ceph ist ein verteilter Objektspeicher und Dateisystem, | Ceph ist ein verteilter Objektspeicher und Dateisystem, | ||
Skalierbarkeit konzipiert ist. | Skalierbarkeit konzipiert ist. | ||
Zeile 6: | Zeile 10: | ||
* Skalierbar auf Exabyte-Ebene | * Skalierbar auf Exabyte-Ebene | ||
* Bietet Block-, Dateisystem- und Objektspeicher | * Bietet Block-, Dateisystem- und Objektspeicher | ||
- | * Einrichten von Pools mit unterschiedlichen Leistungs- und Redundanzmerkmalen | + | * Einrichten von [[.ceph: |
* Daten werden repliziert, wodurch sie fehlertolerant sind | * Daten werden repliziert, wodurch sie fehlertolerant sind | ||
* Läuft auf Standardhardware | * Läuft auf Standardhardware | ||
Zeile 16: | Zeile 20: | ||
* [[.ceph: | * [[.ceph: | ||
* [[.ceph: | * [[.ceph: | ||
- | * Ceph Metadata Service (ceph-mds, oder MDS) | + | * |
* [[.ceph: | * [[.ceph: | ||
Zeile 27: | Zeile 31: | ||
* Intensive CPU-Auslastung, | * Intensive CPU-Auslastung, | ||
* **Object Storage Daemon ([[.ceph: | * **Object Storage Daemon ([[.ceph: | ||
- | * Meta Data Service (MDS), der für CephFS verwendet wird | + | * Meta Data Service (MDS), der für [[.ceph: |
* Moderate CPU-Auslastung, | * Moderate CPU-Auslastung, | ||
* [[.ceph: | * [[.ceph: | ||
Zeile 65: | Zeile 69: | ||
Besonders bei kleinen Clustern kann die Wiederherstellung lange dauern. Es wird empfohlen, in kleinen Setups SSDs anstelle von HDDs zu verwenden, um die Wiederherstellungszeit zu verkürzen und die Wahrscheinlichkeit eines nachfolgenden Fehlerereignisses während der Wiederherstellung zu minimieren. | Besonders bei kleinen Clustern kann die Wiederherstellung lange dauern. Es wird empfohlen, in kleinen Setups SSDs anstelle von HDDs zu verwenden, um die Wiederherstellungszeit zu verkürzen und die Wahrscheinlichkeit eines nachfolgenden Fehlerereignisses während der Wiederherstellung zu minimieren. | ||
- | Im Allgemeinen bieten SSDs mehr IOPS als rotierende Festplatten. In Anbetracht dessen kann es neben den höheren Kosten sinnvoll sein, eine klassenbasierte Trennung der Pools zu implementieren. Eine andere Möglichkeit, | + | Im Allgemeinen bieten SSDs mehr IOPS als rotierende Festplatten. In Anbetracht dessen kann es neben den höheren Kosten sinnvoll sein, eine klassenbasierte Trennung der [[.ceph: |
Abgesehen vom Festplattentyp funktioniert Ceph am besten mit einer gleichmäßig großen und gleichmäßig verteilten Anzahl von Festplatten pro Knoten. Beispielsweise sind 4 x 500 GB-Festplatten in jedem Knoten besser als eine gemischte Konfiguration mit einer einzelnen 1 TB- und drei 250 GB-Festplatten. | Abgesehen vom Festplattentyp funktioniert Ceph am besten mit einer gleichmäßig großen und gleichmäßig verteilten Anzahl von Festplatten pro Knoten. Beispielsweise sind 4 x 500 GB-Festplatten in jedem Knoten besser als eine gemischte Konfiguration mit einer einzelnen 1 TB- und drei 250 GB-Festplatten. |
it-wiki/linux/ceph.1720586586.txt.gz · Zuletzt geändert: 2024/07/10 04:43 von marko