Benutzer-Werkzeuge

Webseiten-Werkzeuge


it-wiki:proxmox:cephcluster

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
it-wiki:proxmox:cephcluster [2019/07/23 05:23] – [CEPH OSD Volume neu anlegen] markoit-wiki:proxmox:cephcluster [2023/02/11 07:26] (aktuell) – [RBD Objekt Map] marko
Zeile 1: Zeile 1:
 ====== CEPH Cluster ====== ====== CEPH Cluster ======
 +===== CEPH OSD Volume neu anlegen =====
 +Über das Webinterface das OSD Volume in den out Modus schicken damit die Daten kopiert werden. Danach:
 +<code bash>
 +systemctl stop ceph-osd@<id>
 +umount /var/lib/ceph/osd/ceph-<id>
 +rm -r /var/lib/ceph/osd/ceph-<id>
 +ceph osd crush reweight osd.<id> 0.0
 +ceph osd crush remove osd.<id>
 +ceph auth del osd.<id>
 +ceph osd rm <id>
 +ceph-volume lvm create --data /dev/sdXX
 +</code>
 +\\
 +\\
 ===== PROXMOX/CEPH: CEPH-OSD AUF PARTITION ODER HW-RAID-VOLUME ===== ===== PROXMOX/CEPH: CEPH-OSD AUF PARTITION ODER HW-RAID-VOLUME =====
  
Zeile 17: Zeile 31:
  
 Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei /usr/share/perl5/PVE/API2/Ceph.pm. Suchen Sie nach der Zeile Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei /usr/share/perl5/PVE/API2/Ceph.pm. Suchen Sie nach der Zeile
-<code bash>+<code perl>
 $devname =~ s|/dev/||; $devname =~ s|/dev/||;
 </code> </code>
 und kommentieren diese und die folgenden Zeilen bis und mit  und kommentieren diese und die folgenden Zeilen bis und mit 
-<code bash>+<code perl>
 my $devpath = $diskinfo->{devpath}; my $devpath = $diskinfo->{devpath};
 </code> </code>
 aus. Die letztere ergänzen Sie um aus. Die letztere ergänzen Sie um
-<code bash>+<code perl>
 my $devpath = $devname; my $devpath = $devname;
 </code> </code>
 Nun suchen Sie nach der Zeile Nun suchen Sie nach der Zeile
-<code bash>+<code perl>
 my $cmd = ['ceph-disk', 'prepare', '--zap-disk', my $cmd = ['ceph-disk', 'prepare', '--zap-disk',
 </code> </code>
 und entfernen das Argument --zap-disk, so dass die Zeile so aussieht: und entfernen das Argument --zap-disk, so dass die Zeile so aussieht:
-<code bash>+<code perl>
 my $cmd = ['ceph-disk', 'prepare', ... my $cmd = ['ceph-disk', 'prepare', ...
 </code> </code>
Zeile 42: Zeile 56:
 ceph-disk activate /dev/sda4\\ ceph-disk activate /dev/sda4\\
 Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen. Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen.
 +\\
 +\\
 +===== Ceph: manually repair object =====
 +=== Find the PG ===
 +A simple command can give use the PG:
  
-===== CEPH OSD Volume neu anlegen ===== +ceph health detail
-Über das Webinterface das OSD Volume in den out Modus schicken damit die Daten kopiert werden. Danach:+
 <code bash> <code bash>
-systemctl stop ceph-osd@<id+root@n1-pve-cluster:~# ceph health detail 
-umount /var/lib/ceph/osd/ceph-<id+HEALTH_ERR 2 scrub errors; Possible data damage: 2 pgs inconsistent 
-rm -r /var/lib/ceph/osd/ceph-<id+OSD_SCRUB_ERRORS 2 scrub errors 
-ceph osd crush reweight osd.<id> 0.0 +PG_DAMAGED Possible data damage: 2 pgs inconsistent 
-ceph osd crush remove osd.<id+    pg 15.10 is active+clean+inconsistent, acting [1,0,2] 
-ceph auth del osd.<id+    pg 34.61 is active+clean+inconsistent, acting [1,0,4] 
-ceph osd rm <id+</code> 
-ceph-volume lvm create --data /dev/sdXX+ 
 +ceph pg repair 15.10 
 +<code bash> 
 +root@n1-pve-cluster:~# ceph pg repair 15.10 
 +instructing pg 15.10 on osd.1 to repair 
 +root@n1-pve-cluster:~# ceph pg repair 34.61 
 +instructing pg 34.61 on osd.1 to repair 
 +</code
 + 
 +===== CEPH Meldungen archivieren ===== 
 +ceph crash archive-all 
 +ceph crash --help 
 + 
 +====== Administration von CEPH ===== 
 +===== Liste aller Images auf einem Pool ===== 
 +<code bash
 +rbd list pool3 
 +</code> 
 + 
 +===== Snappshots eines Images anzeigen ===== 
 +<code bash> 
 +rbd snap ls pool3/vm-205-disk-0 
 +</code> 
 +oder 
 +<code bash> 
 +rbd snap list pool1/vm-213-disk-0 
 +</code
 +===== RBD Snapshot löschen ===== 
 +<code bash> 
 +rbd snap rm pool1/vm-213-disk-0@vzdump 
 +</code
 +oder 
 +<code bash
 +rbd snap rm pool3/vm-205-disk-1@mailmanWebinterfaceReady 
 +</code
 +===== RBD Objekt Map ===== 
 +<code bash> 
 +rbd object-map check pool2/vm-213-disk-1 
 +</code> 
 +Bei Fehlern rebuild machen 
 +<code bash> 
 +rbd object-map rebuild pool2/vm-213-disk-1
 </code> </code>
  
 +\\
 +\\
 +\\
 + --- //[[marko.oldenburg@cooltux.net|Marko Oldenburg]] 2023/02/11 08:26//
it-wiki/proxmox/cephcluster.1563859438.txt.gz · Zuletzt geändert: 2019/07/23 05:23 von marko