it-wiki:proxmox:cephcluster
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
it-wiki:proxmox:cephcluster [2018/05/24 12:52] – marko | it-wiki:proxmox:cephcluster [2023/02/11 07:26] (aktuell) – [RBD Objekt Map] marko | ||
---|---|---|---|
Zeile 1: | Zeile 1: | ||
====== CEPH Cluster ====== | ====== CEPH Cluster ====== | ||
+ | ===== CEPH OSD Volume neu anlegen ===== | ||
+ | Über das Webinterface das OSD Volume in den out Modus schicken damit die Daten kopiert werden. Danach: | ||
+ | <code bash> | ||
+ | systemctl stop ceph-osd@< | ||
+ | umount / | ||
+ | rm -r / | ||
+ | ceph osd crush reweight osd.< | ||
+ | ceph osd crush remove osd.< | ||
+ | ceph auth del osd.< | ||
+ | ceph osd rm <id> | ||
+ | ceph-volume lvm create --data /dev/sdXX | ||
+ | </ | ||
+ | \\ | ||
+ | \\ | ||
===== PROXMOX/ | ===== PROXMOX/ | ||
Zeile 12: | Zeile 26: | ||
Tatsächlich ist eine solche Installation machbar, auch wenn sowohl CEPH als auch Proxmox den einen oder anderen Stein in den Weg legen: | Tatsächlich ist eine solche Installation machbar, auch wenn sowohl CEPH als auch Proxmox den einen oder anderen Stein in den Weg legen: | ||
- | Partition CEPH-OSD-tauglich machen. Beispiel: Freier Platz auf /dev/sda soll für ein CEPH-OSD auf /dev/sda3 verwendet werden: | + | Partition CEPH-OSD-tauglich machen. Beispiel: Freier Platz auf /dev/sda soll für ein CEPH-OSD auf /dev/sda3 verwendet werden:\\ |
- | cfdisk /dev/sda | + | cfdisk /dev/sda\\ |
Partition sda3 anlegen und Type auf CEPH OSD stellen | Partition sda3 anlegen und Type auf CEPH OSD stellen | ||
Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei / | Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei / | ||
- | < | + | < |
$devname =~ s|/dev/||; | $devname =~ s|/dev/||; | ||
</ | </ | ||
und kommentieren diese und die folgenden Zeilen bis und mit | und kommentieren diese und die folgenden Zeilen bis und mit | ||
- | < | + | < |
my $devpath = $diskinfo-> | my $devpath = $diskinfo-> | ||
</ | </ | ||
aus. Die letztere ergänzen Sie um | aus. Die letztere ergänzen Sie um | ||
- | < | + | < |
my $devpath = $devname; | my $devpath = $devname; | ||
</ | </ | ||
Nun suchen Sie nach der Zeile | Nun suchen Sie nach der Zeile | ||
- | < | + | < |
my $cmd = [' | my $cmd = [' | ||
</ | </ | ||
und entfernen das Argument --zap-disk, so dass die Zeile so aussieht: | und entfernen das Argument --zap-disk, so dass die Zeile so aussieht: | ||
- | < | + | < |
my $cmd = [' | my $cmd = [' | ||
</ | </ | ||
Zeile 39: | Zeile 53: | ||
Nach Neustart des pvedaemon können Sie nun mit | Nach Neustart des pvedaemon können Sie nun mit | ||
- | pveceph | + | pveceph |
- | ceph-disk activate /dev/sda3 | + | ceph-disk activate /dev/sda4\\ |
Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen. | Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen. | ||
+ | \\ | ||
+ | \\ | ||
+ | ===== Ceph: manually repair object ===== | ||
+ | === Find the PG === | ||
+ | A simple command can give use the PG: | ||
+ | |||
+ | ceph health detail | ||
+ | <code bash> | ||
+ | root@n1-pve-cluster: | ||
+ | HEALTH_ERR 2 scrub errors; Possible data damage: 2 pgs inconsistent | ||
+ | OSD_SCRUB_ERRORS 2 scrub errors | ||
+ | PG_DAMAGED Possible data damage: 2 pgs inconsistent | ||
+ | pg 15.10 is active+clean+inconsistent, | ||
+ | pg 34.61 is active+clean+inconsistent, | ||
+ | </ | ||
+ | |||
+ | ceph pg repair 15.10 | ||
+ | <code bash> | ||
+ | root@n1-pve-cluster: | ||
+ | instructing pg 15.10 on osd.1 to repair | ||
+ | root@n1-pve-cluster: | ||
+ | instructing pg 34.61 on osd.1 to repair | ||
+ | </ | ||
+ | |||
+ | ===== CEPH Meldungen archivieren ===== | ||
+ | ceph crash archive-all | ||
+ | ceph crash --help | ||
+ | |||
+ | ====== Administration von CEPH ===== | ||
+ | ===== Liste aller Images auf einem Pool ===== | ||
+ | <code bash> | ||
+ | rbd list pool3 | ||
+ | </ | ||
+ | |||
+ | ===== Snappshots eines Images anzeigen ===== | ||
+ | <code bash> | ||
+ | rbd snap ls pool3/ | ||
+ | </ | ||
+ | oder | ||
+ | <code bash> | ||
+ | rbd snap list pool1/ | ||
+ | </ | ||
+ | ===== RBD Snapshot löschen ===== | ||
+ | <code bash> | ||
+ | rbd snap rm pool1/ | ||
+ | </ | ||
+ | oder | ||
+ | <code bash> | ||
+ | rbd snap rm pool3/ | ||
+ | </ | ||
+ | ===== RBD Objekt Map ===== | ||
+ | <code bash> | ||
+ | rbd object-map check pool2/ | ||
+ | </ | ||
+ | Bei Fehlern rebuild machen | ||
+ | <code bash> | ||
+ | rbd object-map rebuild pool2/ | ||
+ | </ | ||
+ | |||
+ | \\ | ||
+ | \\ | ||
+ | \\ | ||
+ | --- // |
it-wiki/proxmox/cephcluster.1527166368.txt.gz · Zuletzt geändert: 2018/05/24 12:52 von marko