Benutzer-Werkzeuge

Webseiten-Werkzeuge


it-wiki:proxmox:proxmoxinstall

Unterschiede

Hier werden die Unterschiede zwischen zwei Versionen angezeigt.

Link zu dieser Vergleichsansicht

Beide Seiten der vorigen RevisionVorhergehende Überarbeitung
Nächste Überarbeitung
Vorhergehende Überarbeitung
it-wiki:proxmox:proxmoxinstall [2018/05/29 20:23] – [Proxmox auf den Nodes einrichten] markoit-wiki:proxmox:proxmoxinstall [2023/02/11 07:26] (aktuell) – [HA Service Probleme] marko
Zeile 2: Zeile 2:
  
 ==== Admin Guide als PDF ==== ==== Admin Guide als PDF ====
-  * {{test|coming soon}}+  * {{pve-admin-guide.pdf|Proxmox Admin Guide RELEASE 6.0}}
 ===== Proxmox auf den Nodes installieren ===== ===== Proxmox auf den Nodes installieren =====
 Bei der Festplattenzuweisung darauf achten das man bei der Festplatte an sich nicht alles angibt sondern nur soviel wie man für swap und root (samt iso files bei N1) benötigt. Bei der Festplattenzuweisung darauf achten das man bei der Festplatte an sich nicht alles angibt sondern nur soviel wie man für swap und root (samt iso files bei N1) benötigt.
Zeile 43: Zeile 43:
 auto eno1.321 auto eno1.321
 iface eno1.321 inet static iface eno1.321 inet static
-        address 10.32.1.5+        address 192.168.1.5
         netmask 255.255.255.0         netmask 255.255.255.0
  
Zeile 51: Zeile 51:
 auto eno1.322 auto eno1.322
 iface eno1.322 inet static iface eno1.322 inet static
-        address 10.32.2.5+        address 192.168.2.5
         netmask 255.255.255.0         netmask 255.255.255.0
 </code> </code>
Zeile 74: Zeile 74:
  
 # corosync cluster network # corosync cluster network
-10.32.1.5 n1-corosync-cluster.tuxnet.local n1-corosync-cluster +192.168.1.5 n1-corosync-cluster.tuxnet.local n1-corosync-cluster 
-10.32.1.6 n2-corosync-cluster.tuxnet.local n2-corosync-cluster +192.168.1.6 n2-corosync-cluster.tuxnet.local n2-corosync-cluster 
-10.32.1.7 n3-corosync-cluster.tuxnet.local n3-corosync-cluster +192.168.1.7 n3-corosync-cluster.tuxnet.local n3-corosync-cluster 
-10.32.1.8 n4-corosync-cluster.tuxnet.local n4-corosync-cluster +192.168.1.8 n4-corosync-cluster.tuxnet.local n4-corosync-cluster 
-10.32.1.9 n5-corosync-cluster.tuxnet.local n5-corosync-cluster+192.168.1.9 n5-corosync-cluster.tuxnet.local n5-corosync-cluster
  
  
  
 # ceph storage cluster network # ceph storage cluster network
-10.32.2.5 n1-ceph-cluster.tuxnet.local n1-ceph-cluster +192.168.2.5 n1-ceph-cluster.tuxnet.local n1-ceph-cluster 
-10.32.2.6 n2-ceph-cluster.tuxnet.local n2-ceph-cluster +192.168.2.6 n2-ceph-cluster.tuxnet.local n2-ceph-cluster 
-10.32.2.7 n3-ceph-cluster.tuxnet.local n3-ceph-cluster +192.168.2.7 n3-ceph-cluster.tuxnet.local n3-ceph-cluster 
-10.32.2.8 n4-ceph-cluster.tuxnet.local n4-ceph-cluster +192.168.2.8 n4-ceph-cluster.tuxnet.local n4-ceph-cluster 
-10.32.2.9 n5-ceph-cluster.tuxnet.local n5-ceph-cluster+192.168.2.9 n5-ceph-cluster.tuxnet.local n5-ceph-cluster
  
  
Zeile 99: Zeile 99:
 ff02::2 ip6-allrouters ff02::2 ip6-allrouters
 ff02::3 ip6-allhosts ff02::3 ip6-allhosts
-</code> +</code> 
- +
-Den noch freien Speicherplatz der SSD auf allen Nodes einer Partition zuordnen. +
-Partitionstype ist +
  
  
-Cluster auf erster Clusternode initialisieren +Cluster auf erster Clusternode initialisieren\\ 
-pvecm create <clustername> -bindnet0_addr ip-node -ring0_addr fqdn-coro-cluster   # wie in der /etc/hosts steht+pvecm create <clustername> -bindnet0_addr ip-node -ring0_addr hostname-coro-cluster   # wie in der /etc/hosts steht\\
 pvecm create PVE01-CLUSTER -bindnet0_addr 10.32.1.5 -ring0_addr n1-corosync-cluster pvecm create PVE01-CLUSTER -bindnet0_addr 10.32.1.5 -ring0_addr n1-corosync-cluster
  
Zeile 121: Zeile 118:
 Dann auf allen anderen Nodes die Nodes dem Cluster hinzufügen Dann auf allen anderen Nodes die Nodes dem Cluster hinzufügen
 <code bash> <code bash>
-pvecm add 10.32.1.5 -ring0_addr n2-corosync-cluster   # n2-corosync-cluster wie in der lokalen /etc/hosts für den localen Namen steht +pvecm add 192.168.1.5 -ring0_addr n2-corosync-cluster   # n2-corosync-cluster wie in der lokalen /etc/hosts für den localen Namen steht 
-10.32.1.5 = ip eines Clustermembers+192.168.1.5 = ip eines Clustermembers
 </code> </code>
  
 === CEPH Cluster einrichten === === CEPH Cluster einrichten ===
 +Den noch freien Speicherplatz der SSD auf allen Nodes einer Partition zuordnen.
 +Partitionstype ist ceph-osd.
 +
 Packete auf jeder Node installieren von der luminous Version Packete auf jeder Node installieren von der luminous Version
 <code bash> <code bash>
Zeile 131: Zeile 131:
 </code> </code>
 <code bash> <code bash>
-pveceph init --network 10.32.2.0/24+pveceph init --network 192.168.2.0/24
 </code>  </code> 
 auf der ersten Node ausführen. auf der ersten Node ausführen.
Zeile 140: Zeile 140:
 </code> </code>
 Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Wie man es dennoch entsprechend einrichten kann erklärt [[cephcluster|dieser Artikel]] Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Wie man es dennoch entsprechend einrichten kann erklärt [[cephcluster|dieser Artikel]]
 +\\
 +\\
 +===== Eigenes Server Zertifikat einspielen =====
 +Erstelle ein Serverzertifikat und zeichne es gegen das rootCA gegen. Danach das Server und RootCA Zertifikat und die Keys exportieren und per ssh auf den Server nach /tmp/ kopieren.
 +Im Anschluss per cp die Dateien austauschen.
 +<code bash>
 +cp -v /tmp/proxmoxClusternodes.key /etc/pve/local/pveproxy-ssl.key
 +cp -v /tmp/proxmoxClusternodes.key /etc/pve/local/pve-ssl.key
 +cp -v /tmp/proxmoxClusternodes.crt /etc/pve/local/pveproxy-ssl.pem
 +cp -v /tmp/proxmoxClusternodes.crt /etc/pve/local/pve-ssl.pem
 +cp -v /tmp/tuxnetIntermediateCA.crt /etc/pve/pve-root-ca.pem
 +cp -v /tmp/tuxnetIntermediateCA.key /etc/pve/pve-root-ca.key
 +cp -v /tmp/tuxnetIntermediateCA.crt /etc/pve/pve-root-ca.pem
 +</code>
 +
 +**Ganz wichtig aber ist das pve-www.key nicht gelöscht werden darf, da sonst keine Anmeldung mehr über das Frontend möglich ist.**
 +
 +===== Root Partition erweitern =====
 +Unter
 +<code bash>
 +/var/lib/ceph/osd/
 +</code>
 +läuft der Ceph monitor und hält die Monitor Daten bereit. Diese Daten werden im laufe der Zeit umfangreicher und nehmen entsprechend Platz ein. Die Partition sollte entsprechend groß sein.
 +Hier am Beispiel wird die SWAP Partition verkleinert und root vergrößert. Das geht weil beie Logical Volumes in der Volume Group pve sind.
 +<code bash>
 +swapoff /dev/pve/swap
 +lvreduce --size 3G /dev/pve/swap
 +mkswap /dev/pve/swap
 +swapon /dev/pve/swap
 +lvextend -l +100%FREE /dev/pve/root
 +resize2fs -p /dev/pve/root
 +</code>
 +
 +===== Proxmox Fehlerbearbeitung =====
 +==== HA Service Probleme ====
 +Bei Problemen mit dem HA Service pve-hr-*
 +<code>
 +# on all nodes:
 +systemctl stop pve-ha-crm
 +# on a single node
 +rm /etc/pve/ha/manager_status
 +# again on all nodes
 +systemctl start pve-ha-crm
 +</code>
 +
 +\\
 +\\
 +\\
 + --- //[[marko.oldenburg@cooltux.net|Marko Oldenburg]] 2023/02/11 08:26//
it-wiki/proxmox/proxmoxinstall.1527625423.txt.gz · Zuletzt geändert: 2018/05/29 20:23 von marko