Benutzer-Werkzeuge

Webseiten-Werkzeuge


it-wiki:proxmox:proxmoxinstall

Dies ist eine alte Version des Dokuments!


Proxmox Installation mit Cluster und CEPH

Admin Guide als PDF

Proxmox auf den Nodes installieren

Bei der Festplattenzuweisung darauf achten das man bei der Festplatte an sich nicht alles angibt sondern nur soviel wie man für swap und root (samt iso files bei N1) benötigt. Für die Nodes ohne die ISO Platte sind das 18GB, die mit der Iso Platte bekommt 48GB

System (root) N1 und N5 40GB
System (root) 10GB
minimal N1 und N5 2Gb
minimal 1GB
Ram 8GB
Data 0GB

n1-pve-cluster.tuxnet.local 192.168.179.5
n2-pve-cluster.tuxnet.local 192.168.179.6
n3-pve-cluster.tuxnet.local 192.168.179.7
n4-pve-cluster.tuxnet.local 192.168.179.8
n5-pve-cluster.tuxnet.local 192.168.179.9

Beispiel für Netzwerk

Konfiguration für Proxmox Cluster Netzwerk, Ceph Clusternetzwerk und normales Bridgenetzwerk. /etc/network/interfaces

auto lo
iface lo inet loopback
 
iface eno1 inet manual
 
auto vmbr0
iface vmbr0 inet static
        address 192.168.179.6
        netmask 255.255.255.0
        gateway 192.168.179.1
        bridge_ports eno1
        bridge_stp off
        bridge_fd 0
 
 
 
# corosync cluster network
auto eno1.321
iface eno1.321 inet static
        address 10.32.1.5
        netmask 255.255.255.0
 
 
 
# ceph storage cluster network
auto eno1.322
iface eno1.322 inet static
        address 10.32.2.5
        netmask 255.255.255.0

Proxmox auf den Nodes einrichten

apt-get update
apt-get dist-upgrade
apt-get install vim

/etc/hosts auf jeder Node anpassen so das alle Nodes drin stehen.

...
192.168.179.5 n1-pve-cluster.tuxnet.local n1-pve-cluster pvelocalhost
192.168.179.6 n2-pve-cluster.tuxnet.local n2-pve-cluster
192.168.179.7 n3-pve-cluster.tuxnet.local n3-pve-cluster
192.168.179.8 n4-pve-cluster.tuxnet.local n4-pve-cluster
192.168.179.9 n5-pve-cluster.tuxnet.local n5-pve-cluster
 
 
 
# corosync cluster network
10.32.1.5 n1-corosyn-cluster.tuxnet.local n1-corosyn-cluster
10.32.1.6 n2-corosyn-cluster.tuxnet.local n2-corosyn-cluster
10.32.1.7 n3-corosyn-cluster.tuxnet.local n3-corosyn-cluster
10.32.1.8 n4-corosyn-cluster.tuxnet.local n4-corosyn-cluster
10.32.1.9 n5-corosyn-cluster.tuxnet.local n5-corosyn-cluster
 
 
 
# ceph storage cluster network
10.32.2.5 n1-ceph-cluster.tuxnet.local n1-ceph-cluster
10.32.2.6 n2-ceph-cluster.tuxnet.local n2-ceph-cluster
10.32.2.7 n3-ceph-cluster.tuxnet.local n3-ceph-cluster
10.32.2.8 n4-ceph-cluster.tuxnet.local n4-ceph-cluster
10.32.2.9 n5-ceph-cluster.tuxnet.local n5-ceph-cluster
...

Den noch freien Speicherplatz der SSD auf allen Nodes einer Partition zuordnen. Partitionstype ist

Cluster auf erster Clusternode initialisieren pvecm create <clustername> -bindnet0_addr ip-node -ring0_addr fqdn-coro-cluster # wie in der /etc/hosts steht pvecm create PVE01-CLUSTER -bindnet0_addr 10.32.1.5 -ring0_addr n1-corosync-cluster

Dienste neu starten

root@n1-pve-cluster:~# systemctl restart corosync.service
root@n1-pve-cluster:~# systemctl restart pve-cluster.service
root@n1-pve-cluster:~# systemctl restart pvedaemon.service 
root@n1-pve-cluster:~# systemctl restart pveproxy.service

Danach schauen ob alles ok ist pvecm status

Dann auf allen anderen Nodes die Nodes dem Cluster hinzufügen

pvecm add 10.32.1.5 -ring0_addr n2-corosync-cluster   # n2-corosync-cluster wie in der lokalen /etc/hosts für den localen Namen steht
10.32.1.5 = ip eines Clustermembers

CEPH Cluster einrichten

Packete auf jeder Node installieren von der luminous Version pveceph install –version luminous

pveceph init auf der ersten Node ausführen

Danach werden auf jeder Node der Monitor erstellt pveceph createmon

Proxmox erlaubt normalerweise nicht die Angabe einer Partitionsnummer für OSD. Wie man es dennoch entsprechend einrichten kann erklärt dieser Artikel

it-wiki/proxmox/proxmoxinstall.1527617894.txt.gz · Zuletzt geändert: von marko