Benutzer-Werkzeuge

Webseiten-Werkzeuge


it-wiki:proxmox:cephcluster

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
it-wiki:proxmox:cephcluster [2018/05/24 12:52] markoit-wiki:proxmox:cephcluster [2023/02/11 07:26] (aktuell) – [RBD Objekt Map] marko
Zeile 1: Zeile 1:
 ====== CEPH Cluster ====== ====== CEPH Cluster ======
 +===== CEPH OSD Volume neu anlegen =====
 +Über das Webinterface das OSD Volume in den out Modus schicken damit die Daten kopiert werden. Danach:
 +<code bash>
 +systemctl stop ceph-osd@<id>
 +umount /var/lib/ceph/osd/ceph-<id>
 +rm -r /var/lib/ceph/osd/ceph-<id>
 +ceph osd crush reweight osd.<id> 0.0
 +ceph osd crush remove osd.<id>
 +ceph auth del osd.<id>
 +ceph osd rm <id>
 +ceph-volume lvm create --data /dev/sdXX
 +</code>
 +\\
 +\\
 ===== PROXMOX/CEPH: CEPH-OSD AUF PARTITION ODER HW-RAID-VOLUME ===== ===== PROXMOX/CEPH: CEPH-OSD AUF PARTITION ODER HW-RAID-VOLUME =====
  
Zeile 12: Zeile 26:
 Tatsächlich ist eine solche Installation machbar, auch wenn sowohl CEPH als auch Proxmox den einen oder anderen Stein in den Weg legen: Tatsächlich ist eine solche Installation machbar, auch wenn sowohl CEPH als auch Proxmox den einen oder anderen Stein in den Weg legen:
  
-Partition CEPH-OSD-tauglich machen. Beispiel: Freier Platz auf /dev/sda soll für ein CEPH-OSD auf /dev/sda3 verwendet werden: +Partition CEPH-OSD-tauglich machen. Beispiel: Freier Platz auf /dev/sda soll für ein CEPH-OSD auf /dev/sda3 verwendet werden:\\ 
-cfdisk /dev/sda+cfdisk /dev/sda\\
 Partition sda3 anlegen und Type auf CEPH OSD stellen Partition sda3 anlegen und Type auf CEPH OSD stellen
  
 Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei /usr/share/perl5/PVE/API2/Ceph.pm. Suchen Sie nach der Zeile Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei /usr/share/perl5/PVE/API2/Ceph.pm. Suchen Sie nach der Zeile
-<code>+<code perl>
 $devname =~ s|/dev/||; $devname =~ s|/dev/||;
 </code> </code>
 und kommentieren diese und die folgenden Zeilen bis und mit  und kommentieren diese und die folgenden Zeilen bis und mit 
-<code>+<code perl>
 my $devpath = $diskinfo->{devpath}; my $devpath = $diskinfo->{devpath};
 </code> </code>
 aus. Die letztere ergänzen Sie um aus. Die letztere ergänzen Sie um
-<code>+<code perl>
 my $devpath = $devname; my $devpath = $devname;
 </code> </code>
 Nun suchen Sie nach der Zeile Nun suchen Sie nach der Zeile
-<code>+<code perl>
 my $cmd = ['ceph-disk', 'prepare', '--zap-disk', my $cmd = ['ceph-disk', 'prepare', '--zap-disk',
 </code> </code>
 und entfernen das Argument --zap-disk, so dass die Zeile so aussieht: und entfernen das Argument --zap-disk, so dass die Zeile so aussieht:
-<code>+<code perl>
 my $cmd = ['ceph-disk', 'prepare', ... my $cmd = ['ceph-disk', 'prepare', ...
 </code> </code>
Zeile 39: Zeile 53:
 Nach Neustart des pvedaemon können Sie nun mit Nach Neustart des pvedaemon können Sie nun mit
  
-pveceph create-osd /dev/sda3 +pveceph createosd /dev/sda4 --bluestore 0\\ 
-ceph-disk activate /dev/sda3+ceph-disk activate /dev/sda4\\
 Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen. Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen.
 +\\
 +\\
 +===== Ceph: manually repair object =====
 +=== Find the PG ===
 +A simple command can give use the PG:
 +
 +ceph health detail
 +<code bash>
 +root@n1-pve-cluster:~# ceph health detail
 +HEALTH_ERR 2 scrub errors; Possible data damage: 2 pgs inconsistent
 +OSD_SCRUB_ERRORS 2 scrub errors
 +PG_DAMAGED Possible data damage: 2 pgs inconsistent
 +    pg 15.10 is active+clean+inconsistent, acting [1,0,2]
 +    pg 34.61 is active+clean+inconsistent, acting [1,0,4]
 +</code>
 +
 +ceph pg repair 15.10
 +<code bash>
 +root@n1-pve-cluster:~# ceph pg repair 15.10
 +instructing pg 15.10 on osd.1 to repair
 +root@n1-pve-cluster:~# ceph pg repair 34.61
 +instructing pg 34.61 on osd.1 to repair
 +</code>
 +
 +===== CEPH Meldungen archivieren =====
 +ceph crash archive-all
 +ceph crash --help
 +
 +====== Administration von CEPH =====
 +===== Liste aller Images auf einem Pool =====
 +<code bash>
 +rbd list pool3
 +</code>
 +
 +===== Snappshots eines Images anzeigen =====
 +<code bash>
 +rbd snap ls pool3/vm-205-disk-0
 +</code>
 +oder
 +<code bash>
 +rbd snap list pool1/vm-213-disk-0
 +</code>
 +===== RBD Snapshot löschen =====
 +<code bash>
 +rbd snap rm pool1/vm-213-disk-0@vzdump
 +</code>
 +oder
 +<code bash>
 +rbd snap rm pool3/vm-205-disk-1@mailmanWebinterfaceReady
 +</code>
 +===== RBD Objekt Map =====
 +<code bash>
 +rbd object-map check pool2/vm-213-disk-1
 +</code>
 +Bei Fehlern rebuild machen
 +<code bash>
 +rbd object-map rebuild pool2/vm-213-disk-1
 +</code>
 +
 +\\
 +\\
 +\\
 + --- //[[marko.oldenburg@cooltux.net|Marko Oldenburg]] 2023/02/11 08:26//
it-wiki/proxmox/cephcluster.1527166368.txt.gz · Zuletzt geändert: 2018/05/24 12:52 von marko