it-wiki:proxmox:proxmoxinstall
Unterschiede
Hier werden die Unterschiede zwischen zwei Versionen angezeigt.
Beide Seiten der vorigen RevisionVorhergehende ÜberarbeitungNächste Überarbeitung | Vorhergehende Überarbeitung | ||
it-wiki:proxmox:proxmoxinstall [2018/05/29 17:47] – [Proxmox auf den Nodes einrichten] marko | it-wiki:proxmox:proxmoxinstall [2023/02/11 07:26] (aktuell) – [HA Service Probleme] marko | ||
---|---|---|---|
Zeile 2: | Zeile 2: | ||
==== Admin Guide als PDF ==== | ==== Admin Guide als PDF ==== | ||
- | * {{test|coming soon}} | + | * {{pve-admin-guide.pdf|Proxmox Admin Guide RELEASE 6.0}} |
===== Proxmox auf den Nodes installieren ===== | ===== Proxmox auf den Nodes installieren ===== | ||
Bei der Festplattenzuweisung darauf achten das man bei der Festplatte an sich nicht alles angibt sondern nur soviel wie man für swap und root (samt iso files bei N1) benötigt. | Bei der Festplattenzuweisung darauf achten das man bei der Festplatte an sich nicht alles angibt sondern nur soviel wie man für swap und root (samt iso files bei N1) benötigt. | ||
Zeile 43: | Zeile 43: | ||
auto eno1.321 | auto eno1.321 | ||
iface eno1.321 inet static | iface eno1.321 inet static | ||
- | address | + | address |
netmask 255.255.255.0 | netmask 255.255.255.0 | ||
Zeile 51: | Zeile 51: | ||
auto eno1.322 | auto eno1.322 | ||
iface eno1.322 inet static | iface eno1.322 inet static | ||
- | address | + | address |
netmask 255.255.255.0 | netmask 255.255.255.0 | ||
</ | </ | ||
Zeile 64: | Zeile 64: | ||
/etc/hosts auf jeder Node anpassen so das alle Nodes drin stehen. | /etc/hosts auf jeder Node anpassen so das alle Nodes drin stehen. | ||
<code bash> | <code bash> | ||
- | ... | + | 127.0.0.1 localhost.localdomain localhost |
192.168.179.5 n1-pve-cluster.tuxnet.local n1-pve-cluster pvelocalhost | 192.168.179.5 n1-pve-cluster.tuxnet.local n1-pve-cluster pvelocalhost | ||
192.168.179.6 n2-pve-cluster.tuxnet.local n2-pve-cluster | 192.168.179.6 n2-pve-cluster.tuxnet.local n2-pve-cluster | ||
Zeile 74: | Zeile 74: | ||
# corosync cluster network | # corosync cluster network | ||
- | 10.32.1.5 n1-corosyn-cluster.tuxnet.local n1-corosyn-cluster | + | 192.168.1.5 n1-corosync-cluster.tuxnet.local n1-corosync-cluster |
- | 10.32.1.6 n2-corosyn-cluster.tuxnet.local n2-corosyn-cluster | + | 192.168.1.6 n2-corosync-cluster.tuxnet.local n2-corosync-cluster |
- | 10.32.1.7 n3-corosyn-cluster.tuxnet.local n3-corosyn-cluster | + | 192.168.1.7 n3-corosync-cluster.tuxnet.local n3-corosync-cluster |
- | 10.32.1.8 n4-corosyn-cluster.tuxnet.local n4-corosyn-cluster | + | 192.168.1.8 n4-corosync-cluster.tuxnet.local n4-corosync-cluster |
- | 10.32.1.9 n5-corosyn-cluster.tuxnet.local n5-corosyn-cluster | + | 192.168.1.9 n5-corosync-cluster.tuxnet.local n5-corosync-cluster |
# ceph storage cluster network | # ceph storage cluster network | ||
- | 10.32.2.5 n1-ceph-cluster.tuxnet.local n1-ceph-cluster | + | 192.168.2.5 n1-ceph-cluster.tuxnet.local n1-ceph-cluster |
- | 10.32.2.6 n2-ceph-cluster.tuxnet.local n2-ceph-cluster | + | 192.168.2.6 n2-ceph-cluster.tuxnet.local n2-ceph-cluster |
- | 10.32.2.7 n3-ceph-cluster.tuxnet.local n3-ceph-cluster | + | 192.168.2.7 n3-ceph-cluster.tuxnet.local n3-ceph-cluster |
- | 10.32.2.8 n4-ceph-cluster.tuxnet.local n4-ceph-cluster | + | 192.168.2.8 n4-ceph-cluster.tuxnet.local n4-ceph-cluster |
- | 10.32.2.9 n5-ceph-cluster.tuxnet.local n5-ceph-cluster | + | 192.168.2.9 n5-ceph-cluster.tuxnet.local n5-ceph-cluster |
- | ... | + | |
- | </ | + | |
- | Den noch freien Speicherplatz der SSD auf allen Nodes einer Partition zuordnen. | ||
- | Partitionstype ist | ||
- | Cluster auf erster Clusternode initialisieren | + | # The following lines are desirable for IPv6 capable hosts |
- | pvecm create PVE-CLUSTER01 | + | |
+ | ::1 | ||
+ | fe00::0 ip6-localnet | ||
+ | ff00::0 ip6-mcastprefix | ||
+ | ff02::1 ip6-allnodes | ||
+ | ff02::2 ip6-allrouters | ||
+ | ff02::3 ip6-allhosts | ||
+ | </ | ||
+ | |||
+ | |||
+ | Cluster auf erster Clusternode initialisieren\\ | ||
+ | pvecm create < | ||
+ | pvecm create PVE01-CLUSTER -bindnet0_addr 10.32.1.5 -ring0_addr n1-corosync-cluster | ||
+ | |||
+ | Dienste neu starten | ||
+ | <code bash> | ||
+ | root@n1-pve-cluster: | ||
+ | root@n1-pve-cluster: | ||
+ | root@n1-pve-cluster: | ||
+ | root@n1-pve-cluster: | ||
+ | </ | ||
Danach schauen ob alles ok ist | Danach schauen ob alles ok ist | ||
pvecm status | pvecm status | ||
Dann auf allen anderen Nodes die Nodes dem Cluster hinzufügen | Dann auf allen anderen Nodes die Nodes dem Cluster hinzufügen | ||
- | pvecm add 192.168.179.6 (IP einer Cluster Node) | + | <code bash> |
+ | pvecm add 192.168.1.5 -ring0_addr n2-corosync-cluster | ||
+ | 192.168.1.5 = ip eines Clustermembers | ||
+ | </ | ||
=== CEPH Cluster einrichten === | === CEPH Cluster einrichten === | ||
+ | Den noch freien Speicherplatz der SSD auf allen Nodes einer Partition zuordnen. | ||
+ | Partitionstype ist ceph-osd. | ||
+ | |||
Packete auf jeder Node installieren von der luminous Version | Packete auf jeder Node installieren von der luminous Version | ||
+ | <code bash> | ||
pveceph install --version luminous | pveceph install --version luminous | ||
+ | </ | ||
+ | <code bash> | ||
+ | pveceph init --network 192.168.2.0/ | ||
+ | </ | ||
+ | auf der ersten Node ausführen. | ||
- | pveceph init auf der ersten Node ausführen | + | Danach |
- | + | <code bash> | |
- | Danach | + | |
pveceph createmon | pveceph createmon | ||
+ | </ | ||
Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Wie man es dennoch entsprechend einrichten kann erklärt [[cephcluster|dieser Artikel]] | Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Wie man es dennoch entsprechend einrichten kann erklärt [[cephcluster|dieser Artikel]] | ||
+ | \\ | ||
+ | \\ | ||
+ | ===== Eigenes Server Zertifikat einspielen ===== | ||
+ | Erstelle ein Serverzertifikat und zeichne es gegen das rootCA gegen. Danach das Server und RootCA Zertifikat und die Keys exportieren und per ssh auf den Server nach /tmp/ kopieren. | ||
+ | Im Anschluss per cp die Dateien austauschen. | ||
+ | <code bash> | ||
+ | cp -v / | ||
+ | cp -v / | ||
+ | cp -v / | ||
+ | cp -v / | ||
+ | cp -v / | ||
+ | cp -v / | ||
+ | cp -v / | ||
+ | </ | ||
+ | |||
+ | **Ganz wichtig aber ist das pve-www.key nicht gelöscht werden darf, da sonst keine Anmeldung mehr über das Frontend möglich ist.** | ||
+ | |||
+ | ===== Root Partition erweitern ===== | ||
+ | Unter | ||
+ | <code bash> | ||
+ | / | ||
+ | </ | ||
+ | läuft der Ceph monitor und hält die Monitor Daten bereit. Diese Daten werden im laufe der Zeit umfangreicher und nehmen entsprechend Platz ein. Die Partition sollte entsprechend groß sein. | ||
+ | Hier am Beispiel wird die SWAP Partition verkleinert und root vergrößert. Das geht weil beie Logical Volumes in der Volume Group pve sind. | ||
+ | <code bash> | ||
+ | swapoff / | ||
+ | lvreduce --size 3G / | ||
+ | mkswap / | ||
+ | swapon / | ||
+ | lvextend -l +100%FREE / | ||
+ | resize2fs -p / | ||
+ | </ | ||
+ | |||
+ | ===== Proxmox Fehlerbearbeitung ===== | ||
+ | ==== HA Service Probleme ==== | ||
+ | Bei Problemen mit dem HA Service pve-hr-* | ||
+ | < | ||
+ | # on all nodes: | ||
+ | systemctl stop pve-ha-crm | ||
+ | # on a single node | ||
+ | rm / | ||
+ | # again on all nodes | ||
+ | systemctl start pve-ha-crm | ||
+ | </ | ||
+ | |||
+ | \\ | ||
+ | \\ | ||
+ | \\ | ||
+ | --- // |
it-wiki/proxmox/proxmoxinstall.1527616056.txt.gz · Zuletzt geändert: 2018/05/29 17:47 von marko