Benutzer-Werkzeuge

Webseiten-Werkzeuge


it-wiki:proxmox:cephcluster

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
it-wiki:proxmox:cephcluster [2018/05/29 21:09] – [PROXMOX/CEPH: CEPH-OSD AUF PARTITION ODER HW-RAID-VOLUME] markoit-wiki:proxmox:cephcluster [2023/02/11 07:26] (aktuell) – [RBD Objekt Map] marko
Zeile 1: Zeile 1:
 ====== CEPH Cluster ====== ====== CEPH Cluster ======
 +===== CEPH OSD Volume neu anlegen =====
 +Über das Webinterface das OSD Volume in den out Modus schicken damit die Daten kopiert werden. Danach:
 +<code bash>
 +systemctl stop ceph-osd@<id>
 +umount /var/lib/ceph/osd/ceph-<id>
 +rm -r /var/lib/ceph/osd/ceph-<id>
 +ceph osd crush reweight osd.<id> 0.0
 +ceph osd crush remove osd.<id>
 +ceph auth del osd.<id>
 +ceph osd rm <id>
 +ceph-volume lvm create --data /dev/sdXX
 +</code>
 +\\
 +\\
 ===== PROXMOX/CEPH: CEPH-OSD AUF PARTITION ODER HW-RAID-VOLUME ===== ===== PROXMOX/CEPH: CEPH-OSD AUF PARTITION ODER HW-RAID-VOLUME =====
  
Zeile 17: Zeile 31:
  
 Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei /usr/share/perl5/PVE/API2/Ceph.pm. Suchen Sie nach der Zeile Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Damit dies möglich wird, editieren Sie die Datei /usr/share/perl5/PVE/API2/Ceph.pm. Suchen Sie nach der Zeile
-<code bash>+<code perl>
 $devname =~ s|/dev/||; $devname =~ s|/dev/||;
 </code> </code>
 und kommentieren diese und die folgenden Zeilen bis und mit  und kommentieren diese und die folgenden Zeilen bis und mit 
-<code bash>+<code perl>
 my $devpath = $diskinfo->{devpath}; my $devpath = $diskinfo->{devpath};
 </code> </code>
 aus. Die letztere ergänzen Sie um aus. Die letztere ergänzen Sie um
-<code bash>+<code perl>
 my $devpath = $devname; my $devpath = $devname;
 </code> </code>
 Nun suchen Sie nach der Zeile Nun suchen Sie nach der Zeile
-<code bash>+<code perl>
 my $cmd = ['ceph-disk', 'prepare', '--zap-disk', my $cmd = ['ceph-disk', 'prepare', '--zap-disk',
 </code> </code>
 und entfernen das Argument --zap-disk, so dass die Zeile so aussieht: und entfernen das Argument --zap-disk, so dass die Zeile so aussieht:
-<code bash>+<code perl>
 my $cmd = ['ceph-disk', 'prepare', ... my $cmd = ['ceph-disk', 'prepare', ...
 </code> </code>
Zeile 42: Zeile 56:
 ceph-disk activate /dev/sda4\\ ceph-disk activate /dev/sda4\\
 Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen. Die Partition auf die gewohnte Weise als CEPH OSD hinzufügen.
 +\\
 +\\
 +===== Ceph: manually repair object =====
 +=== Find the PG ===
 +A simple command can give use the PG:
 +
 +ceph health detail
 +<code bash>
 +root@n1-pve-cluster:~# ceph health detail
 +HEALTH_ERR 2 scrub errors; Possible data damage: 2 pgs inconsistent
 +OSD_SCRUB_ERRORS 2 scrub errors
 +PG_DAMAGED Possible data damage: 2 pgs inconsistent
 +    pg 15.10 is active+clean+inconsistent, acting [1,0,2]
 +    pg 34.61 is active+clean+inconsistent, acting [1,0,4]
 +</code>
 +
 +ceph pg repair 15.10
 +<code bash>
 +root@n1-pve-cluster:~# ceph pg repair 15.10
 +instructing pg 15.10 on osd.1 to repair
 +root@n1-pve-cluster:~# ceph pg repair 34.61
 +instructing pg 34.61 on osd.1 to repair
 +</code>
 +
 +===== CEPH Meldungen archivieren =====
 +ceph crash archive-all
 +ceph crash --help
 +
 +====== Administration von CEPH =====
 +===== Liste aller Images auf einem Pool =====
 +<code bash>
 +rbd list pool3
 +</code>
 +
 +===== Snappshots eines Images anzeigen =====
 +<code bash>
 +rbd snap ls pool3/vm-205-disk-0
 +</code>
 +oder
 +<code bash>
 +rbd snap list pool1/vm-213-disk-0
 +</code>
 +===== RBD Snapshot löschen =====
 +<code bash>
 +rbd snap rm pool1/vm-213-disk-0@vzdump
 +</code>
 +oder
 +<code bash>
 +rbd snap rm pool3/vm-205-disk-1@mailmanWebinterfaceReady
 +</code>
 +===== RBD Objekt Map =====
 +<code bash>
 +rbd object-map check pool2/vm-213-disk-1
 +</code>
 +Bei Fehlern rebuild machen
 +<code bash>
 +rbd object-map rebuild pool2/vm-213-disk-1
 +</code>
 +
 +\\
 +\\
 +\\
 + --- //[[marko.oldenburg@cooltux.net|Marko Oldenburg]] 2023/02/11 08:26//
it-wiki/proxmox/cephcluster.1527628172.txt.gz · Zuletzt geändert: 2018/05/29 21:09 von marko