Mate (Server): Unterschied zwischen den Versionen
K (update) |
K (Mate läuft wieder) |
||
Zeile 1: | Zeile 1: | ||
{{ProjektInfoBox | {{ProjektInfoBox | ||
|name = Mate (Server) | |name = Mate (Server) | ||
Zeile 27: | Zeile 25: | ||
|- | |- | ||
|RAM | |RAM | ||
| | |1x 8GB Transcend DDR3 1333MHz PC3-10666 CL9 DIMM sowie 1x 4GB | ||
|- | |- | ||
|HDDs | |HDDs |
Version vom 11. Februar 2013, 00:24 Uhr
Mate (Server) Release status: experimental [box doku] | |
---|---|
Beschreibung | |
Autor(en) | NOC-Team |
Hostname | mate.rzl |
Mate ist ein Server, der als Ersatz der Blackbox und Datengrab dient.
Technische Daten
Produkt | HP Proliant MicroServer N40L |
CPU | AMD Turion II Neo N40L 2x 1.5 GHz |
RAM | 1x 8GB Transcend DDR3 1333MHz PC3-10666 CL9 DIMM sowie 1x 4GB |
HDDs | 5x1TB (Hitachi HDS721010DLE630) RAID5 über alle Platten, 4TB nutzbar, LVM, Platten werden über smartd gemonitort und an netzwerk (ät) rzl dot de im Fehlerfalle geschickt |
USB | 1x Onboard, 4x Front, 2x Hinten |
Verbrauch | 60W aktiv / 35W idle (Messung mit einem schlechten Messgerät) |
Virtualisierung | libvirt/KVM |
Dienste
Die Infrastruktur befindet sich noch im Aufbau. Aktuell können noch keine Mitglieder VMs erstellt werden, da folgendes noch fehlt:
- Backups
Neue Debian-VM ohne GUI, nur mittels shell installieren (serielle console)
Vor der Installation neues, leeres Image anlegen (Images liegen unter /srv/vm):
export VMNAME=foobar
fallocate -l 40G /srv/vm/$VMNAME.img
Dann Netzinstallation starten:
virt-install --connect qemu:///system --name=$VMNAME --ram=256 --vcpus=1 \ --disk path=/srv/vm/$VMNAME.img,format=raw,cache=none,bus=virtio --os-type linux \ --os-variant debianwheezy --network=bridge=br0,model=virtio --nographics \ --location http://ftp.de.debian.org/debian/dists/wheezy/main/installer-amd64/ \ --extra-args="console=tty0 console=ttyS0,115200n8" -v
Besondere Einstellungen auf dem Hypervisor
Die Default-Linux-Einstellungen (bzw die von Debian) sind etwas ungünstig für Performance. Folgendes sollte geändert werden:
- Default-Scheduler von cfq auf deadline (Kernel-Parameter elevator=deadline <ref name="KER-PAR-01">Dokumentation zum Kernel-Parameter elevator </ref> in /etc/default/grub setzen, danach update-grub2 ausführen)
- Hugepages erlauben (in /etc/rc.local) <ref name=KVM-TUN-01">KVM Memory Tuning</ref>:
- echo 1 > /sys/kernel/mm/transparent_hugepage/khugepaged/defrag
- echo always > /sys/kernel/mm/transparent_hugepage/enabled
- echo never > /sys/kernel/mm/transparent_hugepage/defrag
- Prüfen, ob das Modul vhost_net geladen ist
Besondere Einstellungen auf den virtuellen Maschinen
In der Config für die VM
- Das Platten-Image muß raw und pre-allokiert sein. qcow2 und dynamische Allokierung ist wirklich langsam.
- Der Modus des Festplatten-Controllers muß virtio sein (Achtung: Die Platten in den VMs sind dann vda, vdb etc anstatt sda, sdb etc)
- Das Plattenimage muß den Cache-Modus auf none gesetzt haben (<driver name='qemu' type='raw' cache='none'/>)
- Der Typ des Netzwerkinterfaces muß virtio sein (<model type='virtio'/>)
In der VM selbst
- Default-Scheduler von cfq auf noop (Kernel-Parameter elevator=noop <ref name="KER-PAR-01">Dokumentation zum Kernel-Parameter elevator </ref> in /etc/default/grub setzen, danach update-grub2 ausführen)
- Tickless Kernel aktivieren (Kernel-Parameter nohz=on <ref name="KER-PAR-02">Dokumentation zum Kernel-Parameter nohz </ref> in /etc/default/grub setzen, danach update-grub2 ausführen)
- Prüfen, ob die Module virtio-blk und virtio-net geladen sind
- Serielle Konsole in /etc/inittab aktivieren: T0:23:respawn:/sbin/getty -L ttyS0 115200 vt102
- Serielle Konsole zusätzlich zur normalen Konsole aktivieren (in /etc/default/grub), wenn man schon dabei ist, kann man auch grub serial beibringen:
GRUB_TERMINAL=serial GRUB_SERIAL_COMMAND="serial --unit=0 --speed=115200 --word=8 --parity=no --stop=1"
sowieconsole=ttyS0,115200n8 console=tty0
Für die faulen Hunde, wie ich einer bin, hier nochmal der komplette GRUB_CMDLINE-Kram:
GRUB_CMDLINE_LINUX_DEFAULT="elevator=noop nohz=on transparent_hugepage=always console=ttyS0,115200n8 console=tty0"
<blink>DON'T FORGET THE MAGIC update-grub2</blink>
Puppet
Um eine VM unter die Kontrolle von Puppet zu bekommen, ist folgendes zu erledigen:
- mate.rzl:/etc/puppet/manifests/nodes.pp: die Node eintragen
- <neuevm>.rzl:
- Puppet installieren
- Deamon Autostart in /etc/default/puppet aktivieren
- puppet agent --test ausführen
- mate.rzl:
#Liste der neuen Zertifikate: puppet cert list #Zertifikat signieren: puppet cert sign <neuevm.rzl>
- <neuevm.rzl>: Nochmal puppet agent --test ausführen
Wenn alles geklappt hat, so wird puppet zumindest mal alle fehlenden Pakete nachinstallieren.
Zabbix
Um eine VM zu monitoren:
- Ändere in der Datei /etc/zabbix/zabbix_agentd.conf den Parameter "Server" auf "172.22.36.251" und den Parameter "Hostname" auf den hostnamen inkl. .rzl-Domain
- Füge den Server in Zabbix hinzu (Configuration->Hosts->Create), linke die Templates Template_Linux sowie Template_Puppet_Agent
TODO
- Backups fertig einrichten
- Automatisches Discovery von VMs in Zabbix?
- Die grub2-settings der VMs über Puppet deployen
Unterseiten
<splist />
Einzelnachweise
<references />