Mate (Server): Unterschied zwischen den Versionen
K (Kategorie:Hardware) |
(Infos zur Puppetkonfiguration) |
||
Zeile 91: | Zeile 91: | ||
<blink>'''DON'T FORGET THE MAGIC update-grub2'''</blink> | <blink>'''DON'T FORGET THE MAGIC update-grub2'''</blink> | ||
== Puppet == | |||
* Um eine VM unter die Kontrolle von Puppet zu bekommen, ist folgendes zu erledigen: | |||
** '''mate.rzl''':/etc/puppet/manifests/nodes.pp: die Node eintragen | |||
** '''<neuevm>.rzl''': | |||
*** Puppet installieren und folgende Sektion eintragen: <pre>[agent] server=puppet.rzl</pre> | |||
*** Deamon Autostart in /etc/default/puppet aktivieren | |||
*** puppet agent --test ausführen | |||
** '''mate.rzl''': <pre>#Liste der neuen Zertifikate: puppet cert list #Zertifikat signieren: puppet cert sign <neuevm.rzl></pre> | |||
** '''<neuevm.rzl>''': Nochmal puppet agent --test ausführen | |||
Wenn alles geklappt hat, so wird puppet zumindest mal alle fehlenden Pakete nachinstallieren. | |||
== TODO == | == TODO == |
Version vom 3. Dezember 2012, 05:30 Uhr
Mate (Server) Release status: experimental [box doku] | |
---|---|
Beschreibung | |
Autor(en) | NOC-Team |
Hostname | mate.rzl |
Mate ist ein Server, der als Ersatz der Blackbox und Datengrab dient.
Technische Daten
CPU | AMD Turion II Neo N40L 2x 1.5 GHz |
RAM | 2x 8GB Transcend DDR3 1333MHz PC3-10666 CL9 DIMM |
HDDs | 5x1TB (Hitachi HDS721010DLE630) RAID5 über alle Platten, 4TB nutzbar, LVM, Platten werden über smartd gemonitort und an netzwerk (ät) rzl dot de im Fehlerfalle geschickt |
USB | 1x Onboard, 4x Front, 2x Hinten |
Verbrauch | 60W aktiv / 35W idle (Messung mit einem schlechten Messgerät) |
Virtualisierung | libvirt/KVM |
Dienste
Die Infrastruktur befindet sich noch im Aufbau. Aktuell können noch keine Mitglieder VMs erstellt werden.
Neue Debian-VM ohne GUI, nur mittels shell installieren (serielle console)
Vor der Installation neues, leeres Image anlegen (Images liegen unter /srv/vm):
fallocate -l 40G /srv/vm/<vmname>.img
Dann Netzinstallation starten:
virt-install --connect qemu:///system --name=<vmname> --ram=<raminmb> --vcpus=1 \ --disk path=/srv/vm/<vmname>.img,format=raw,cache=none,bus=virtio --os-type linux \ --os-variant debianwheezy --network=bridge=br0,model=virtio --nographics \ --location http://ftp.de.debian.org/debian/dists/wheezy/main/installer-amd64/ \ --extra-args="console=tty0 console=ttyS0,115200n8" -v
Besondere Einstellungen auf dem Hypervisor
Die Default-Linux-Einstellungen (bzw die von Debian) sind etwas ungünstig für Performance. Folgendes sollte geändert werden:
- Default-Scheduler von cfq auf deadline (Kernel-Parameter elevator=deadline <ref name="KER-PAR-01">Dokumentation zum Kernel-Parameter elevator </ref> in /etc/default/grub setzen, danach update-grub2 ausführen)
- Hugepages erlauben (in /etc/rc.local) <ref name=KVM-TUN-01">KVM Memory Tuning</ref>:
- echo 1 > /sys/kernel/mm/transparent_hugepage/khugepaged/defrag
- echo always > /sys/kernel/mm/transparent_hugepage/enabled
- echo never > /sys/kernel/mm/transparent_hugepage/defrag
- Prüfen, ob das Modul vhost_net geladen ist
Besondere Einstellungen auf den virtuellen Maschinen
In der Config für die VM
- Das Platten-Image muß raw und pre-allokiert sein. qcow2 und dynamische Allokierung ist wirklich langsam.
- Der Modus des Festplatten-Controllers muß virtio sein (Achtung: Die Platten in den VMs sind dann vda, vdb etc anstatt sda, sdb etc)
- Das Plattenimage muß den Cache-Modus auf none gesetzt haben (<driver name='qemu' type='raw' cache='none'/>)
- Der Typ des Netzwerkinterfaces muß virtio sein (<model type='virtio'/>)
In der VM selbst
- Default-Scheduler von cfq auf noop (Kernel-Parameter elevator=noop <ref name="KER-PAR-01">Dokumentation zum Kernel-Parameter elevator </ref> in /etc/default/grub setzen, danach update-grub2 ausführen)
- Tickless Kernel aktivieren (Kernel-Parameter nohz=on <ref name="KER-PAR-02">Dokumentation zum Kernel-Parameter nohz </ref> in /etc/default/grub setzen, danach update-grub2 ausführen)
- Prüfen, ob die Module virtio-blk und virtio-net geladen sind
- Serielle Konsole in /etc/inittab aktivieren: T0:23:respawn:/sbin/getty -L ttyS0 115200 vt102
- Serielle Konsole zusätzlich zur normalen Konsole aktivieren (in /etc/default/grub), wenn man schon dabei ist, kann man auch grub serial beibringen:
GRUB_TERMINAL=serial GRUB_SERIAL_COMMAND="serial --unit=0 --speed=115200 --word=8 --parity=no --stop=1"
sowieconsole=ttyS0,115200n8 console=tty0
Für die faulen Hunde, wie ich einer bin, hier nochmal der komplette GRUB_CMDLINE-Kram:
GRUB_CMDLINE_LINUX_DEFAULT="elevator=noop nohz=on transparent_hugepage=always console=ttyS0,115200n8 console=tty0"
<blink>DON'T FORGET THE MAGIC update-grub2</blink>
Puppet
- Um eine VM unter die Kontrolle von Puppet zu bekommen, ist folgendes zu erledigen:
- mate.rzl:/etc/puppet/manifests/nodes.pp: die Node eintragen
- <neuevm>.rzl:
- Puppet installieren und folgende Sektion eintragen:
[agent] server=puppet.rzl
- Deamon Autostart in /etc/default/puppet aktivieren
- puppet agent --test ausführen
- Puppet installieren und folgende Sektion eintragen:
- mate.rzl:
#Liste der neuen Zertifikate: puppet cert list #Zertifikat signieren: puppet cert sign <neuevm.rzl>
- <neuevm.rzl>: Nochmal puppet agent --test ausführen
Wenn alles geklappt hat, so wird puppet zumindest mal alle fehlenden Pakete nachinstallieren.
TODO
- Backups einrichten
- Puppet aufsetzen
- Automatisches Discovery von VMs in Zabbix
Unterseiten
<splist />
Einzelnachweise
<references />