Mate (Server): Unterschied zwischen den Versionen

Aus RaumZeitLabor Wiki
(Updated VM list)
K (Schützte „Mate (Server)“: archiv ([Bearbeiten=Nur Administratoren erlauben] (unbeschränkt) [Verschieben=Nur Administratoren erlauben] (unbeschränkt)))
 
(135 dazwischenliegende Versionen von 8 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
{{Archiv|title=RZL-Historie|msg=Diese Seite wurde archiviert, um RaumZeitLabor Historie zu erhalten}}
{{ProjektInfoBox
{{ProjektInfoBox
|name        = Mate (Server)
|name        = Mate (Server)
|status      = beta
|status      = broken
|image      = RaumZeitLabor - Logo - Schwarz.svg
|image      = RaumZeitLabor - Logo - Schwarz.svg
|description =  
|description = RIP  :'(
|category    = Infrastruktur
|subcategory = Netz
|author      = [[NOC Team|NOC-Team]]
|author      = [[NOC Team|NOC-Team]]
|username    =  
|username    =  
Zeile 14: Zeile 18:
}}
}}


'''Mate''' ist ein Server, der als Ersatz der [[Blackbox]] und [[Datengrab]] dient.
'''Mate''' war ein Server, der als Ersatz der [[Blackbox]] und [[Datengrab]] diente. Er wurde über unsere [[USV]] geschützt. Inzwischen ist er leider von uns gegangen.


==Technische Daten 2==
==Technische Daten ==
{| class="wikitable"  valign = "top"
{| class="wikitable va-top"
|Produkt
|Produkt
|[http://www8.hp.com/de/de/products/proliant-servers/product-detail.html?oid=5379860#!tab=features HP Proliant MicroServer Gen8]
|[http://www8.hp.com/de/de/products/proliant-servers/product-detail.html?oid=5379860#!tab=features HP Proliant MicroServer Gen8]
Zeile 40: Zeile 44:
|}
|}


==Technische Daten==
 
{| class="wikitable"  valign = "top"
== Unterseiten ==
|Produkt
Auf allen Kern-VMs läuft _möglichst_ nur pakettierte Software (Debian). Möchtest Du etwas auf den Systemen installiert haben, dann paketiere es bitte. Auf den Mitglieder-VMs kann alles so installiert werden, wie gewünscht.
|[http://h10010.www1.hp.com/wwpc/at/de/sm/WF06b/15351-15351-4237916-4237917-4237917-4248009-5163346.html?dnr=1 HP Proliant MicroServer N40L]
 
== Reboot Fest / Zabbix Agent ==
(stand 12-2019)
 
Rebootfest gibt an, ob die Dienste innerhalb der VM nach einem Reboot der VM von alleine sauber hoch kommen. Rebootfest sagt nicht zwingend, dass die VM einen Reboot von Mate sauber übersteht.
 
{| class="wikitable"  valign="top"
! VM
! Rebootfest
! Anmerkungen
! Monitoring Agent
! Monitoring Anmerkung
|-
|-
|CPU
| [[Mate (Server)/0xb4dc0d3d.vm.rzl]]
|[http://www.cpu-world.com/CPUs/K10/AMD-Turion%20II%20Neo%20N40L%20-%20TEN40LGAV23GME.html AMD Turion II Neo N40L] 2x 1.5 GHz
| unbekannt
|
| Ja
|
|-
|-
|RAM
| [[Mate (Server)/abrock.vm.rzl]]
|1x 8GB Transcend DDR3 1333MHz PC3-10666 CL9 DIMM sowie 1x 4GB
| unbekannt
| verliert beim Host-Reboot vermutlich das USB-Device zum Stromzähler
| Ja
|
|-
|-
|HDDs
| [[Mate (Server)/cashdesk.rzl]]
|3x3TB (WD30EFRX)<br/>RAID5 über alle Platten, 6TB nutzbar, LVM, Platten werden über smartd gemonitort und an netzwerk (ät) rzl dot de im Fehlerfalle geschickt
| ja
|
| Nein
|
|-
|-
|USB
| [[Mate (Server)/datengrab.rzl]]
|1x Onboard, 4x Front, 2x Hinten
| nein
|
| Nein
|  
|-
|-
|Verbrauch
| [[Mate (Server)/db.rzl]]
|60W aktiv / 35W idle (Messung mit einem schlechten Messgerät)
| ja
|
| Nein
|
|-
|-
|Virtualisierung
| [[Mate (Server)/freeswitch.vm.rzl]]
|libvirt/KVM
| ja
|}
|
 
| Nein
== Dienste ==
|
 
== Neue Debian-VM ohne GUI, nur mittels shell installieren (serielle console) ==
 
Vor der Installation neues, leeres Image anlegen (Images liegen unter '''/srv/vm'''):
 
<pre>
export VMNAME=foobar
export VMSIZE=20G
export VMMEM=256
export VMOSTYPE=linux
export VMOSVARIANT=debianwheezy
export VMINSTALLER=http://ftp.de.debian.org/debian/dists/wheezy/main/installer-amd64/
</pre>
 
<pre>
fallocate -l $VMSIZE /srv/vm/$VMNAME.img
</pre>
 
Dann Netzinstallation starten:
 
<pre>
virt-install --connect qemu:///system --name=$VMNAME --ram=$VMMEM --vcpus=1 \
--disk path=/srv/vm/$VMNAME.img,format=raw,cache=none,bus=virtio --os-type $VMOSTYPE \
--os-variant $VMOSVARIANT  --network=bridge=br0,model=virtio --nographics \
--location $VMINSTALLER \
--extra-args="console=tty0 console=ttyS0,115200n8" -v
</pre>
 
== Besondere Einstellungen auf dem Hypervisor ==
 
Die Default-Linux-Einstellungen (bzw die von Debian) sind etwas ungünstig für Performance. Folgendes sollte geändert werden:
 
* '''Default-Scheduler von cfq auf deadline''' (Kernel-Parameter elevator=deadline <ref name="KER-PAR-01">[http://www.mjmwired.net/kernel/Documentation/kernel-parameters.txt#796 Dokumentation zum Kernel-Parameter elevator] </ref> in '''/etc/default/grub''' setzen, danach '''update-grub2''' ausführen)
* '''Hugepages''' erlauben (in '''/etc/rc.local''') <ref name=KVM-TUN-01">[http://sheepdog.taobao.org/people/zituan/kvm_tuning.html#sec-1-2 KVM Memory Tuning]</ref>:
** '''echo 1 > /sys/kernel/mm/transparent_hugepage/khugepaged/defrag'''
** '''echo always > /sys/kernel/mm/transparent_hugepage/enabled'''
** '''echo never > /sys/kernel/mm/transparent_hugepage/defrag'''
* Prüfen, ob das Modul '''vhost_net''' geladen ist
 
== Besondere Einstellungen auf den virtuellen Maschinen ==
 
=== In der Config für die VM ===
* Das '''Platten-Image''' muß '''raw''' und '''pre-allokiert''' sein. qcow2 und dynamische Allokierung ist wirklich langsam.
* Der Modus des Festplatten-Controllers muß '''virtio''' sein (Achtung: Die Platten in den VMs sind dann '''vda, vdb etc''' anstatt '''sda, sdb etc''')
* Das '''Plattenimage''' muß den '''Cache-Modus''' auf '''none''' gesetzt haben ('''<driver name='qemu' type='raw' cache='none'/>''')
* Der Typ des '''Netzwerkinterfaces''' muß '''virtio''' sein ('''<model type='virtio'/>''')
=== In der VM selbst ===
* '''Default-Scheduler von cfq auf noop''' (Kernel-Parameter elevator=noop <ref name="KER-PAR-01">[http://www.mjmwired.net/kernel/Documentation/kernel-parameters.txt#796 Dokumentation zum Kernel-Parameter elevator] </ref> in '''/etc/default/grub''' setzen, danach '''update-grub2''' ausführen)
* '''Tickless Kernel aktivieren''' (Kernel-Parameter nohz=on <ref name="KER-PAR-02">[http://www.mjmwired.net/kernel/Documentation/kernel-parameters.txt#1855 Dokumentation zum Kernel-Parameter nohz] </ref> in '''/etc/default/grub''' setzen, danach '''update-grub2''' ausführen)
* Prüfen, ob die Module '''virtio-blk''' und '''virtio-net''' geladen sind
* Serielle Konsole in '''/etc/inittab''' aktivieren: '''T0:23:respawn:/sbin/getty -L ttyS0 115200 vt102'''
* Serielle Konsole zusätzlich zur normalen Konsole aktivieren (in '''/etc/default/grub'''), wenn man schon dabei ist, kann man auch grub serial beibringen: <pre>GRUB_TERMINAL=serial&#10;GRUB_SERIAL_COMMAND="serial --unit=0 --speed=115200 --word=8 --parity=no --stop=1"</pre> sowie <pre>console=ttyS0,115200n8 console=tty0</pre>
 
Für die faulen Hunde, wie ich einer bin, hier nochmal der komplette GRUB_CMDLINE-Kram:
 
<pre>
GRUB_CMDLINE_LINUX_DEFAULT="elevator=noop nohz=on transparent_hugepage=always console=ttyS0,115200n8 console=tty0"
</pre>
 
<blink>'''DON'T FORGET THE MAGIC update-grub2'''</blink>
 
== Puppet ==
Um eine VM unter die Kontrolle von Puppet zu bekommen, ist folgendes zu erledigen:
* '''mate.rzl''':/etc/puppet/manifests/nodes.pp: die Node eintragen
* '''<neuevm>.rzl''':
** Puppet installieren
** Deamon Autostart in /etc/default/puppet aktivieren
** puppet agent --test ausführen
* '''mate.rzl''': <pre>#Liste der neuen Zertifikate:&#10;puppet cert list&#10;&#10;#Zertifikat signieren:&#10;puppet cert sign <neuevm.rzl></pre>
* '''<neuevm.rzl>''': Nochmal puppet agent --test ausführen
 
Wenn alles geklappt hat, so wird puppet zumindest mal alle fehlenden Pakete nachinstallieren.
 
== Zabbix ==
 
Um eine VM zu monitoren:
 
* Ändere in der Datei '''/etc/zabbix/zabbix_agentd.conf''' den Parameter "Server" auf "172.22.36.251" und den Parameter "Hostname" auf den hostnamen inkl. .rzl-Domain
* Füge den Server in Zabbix hinzu (Configuration->Hosts->Create), linke die Templates Template_Linux sowie Template_Puppet_Agent
 
== Bacula backups ==
 
* Config-Änderungen auf mate:
** in /etc/bacula/clients die jeweilige Config umkopieren und die Namen sowie das Director-Passwort ändern
** die leeren files in /etc/bacula/clients/includes sowie excludes erzeugen
** in /etc/bacula/bacula-dir.conf das neue config file includen
** bacula neustarten
** Das file /etc/puppet/templates/bacula-fd_conf.erb in die VM kopieren und die Variablen ersetzen
 
* In der VM:
** /etc/init.d/bacula-fd restart
** prüfen, ob bacula-fd auf 0.0.0.0:9102 lauscht (bei Fehlern lauscht er nur auf localhost)
 
Schließlich über bconsole, danach run den entsprechende Job auswählen und testweise laufen lassen.
== TODO ==
* Automatisches Discovery von VMs in Zabbix?
 
== Unterseiten ==
Auf allen Kern-VMs läuft _möglichst_ nur pakettierte Software (Debian). Möchtest Du etwas auf den Systemen installiert haben, dann paketiere es bitte. Auf den Mitglieder-VMs kann alles so installiert werden, wie gewünscht.
 
<splist />
 
{|
! VM
! Arbeitsspeicher
! Plattenplatz
|-
|-
| [[Mate (Server)/slowpoke]]  
| [[Mate (Server)/infra.rzl]]
|128MB
| nein
|8 GB
| verliert beim Host-Reboot vermutlich das USB-Device zu den [[Funksteckdosen]]. verliert beim Reboot sein IOT-Device
| Nein
|  
|-
|-
| [[Mate (Server)/blabber.vm.rzl]]  
| [[Mate (Server)/kunterbunt.vm.rzl]]
|128MB
| nein
|10 GB
| MQTT -> Graphite-Bridge muss manuell gestartet werden
| Ja
|  
|-
|-
| [[Mate (Server)/db.rzl]]  
| [[Mate (Server)/lutoma.vm.rzl]]
|512MB
| unbekannt
|30 GB
|
| Nein
|
|-
|-
| [[Mate (Server)/labelprint]]  
| [[Mate (Server)/partkeepr.rzl]]
|1465MB
| ja
|20 GB
|
| Nein
|
|-
|-
| [[Mate (Server)/partkeepr]]  
| [[Mate (Server)/qrgo.vm.rzl]]
|512MB
| unbekannt
|30 GB
|
| Nein
|  
|-
|-
| [[Mate (Server)/unifi]]  
| [[Mate (Server)/rami.vm.rzl]]
|750MB
| unbekannt
|20 GB
|
| Nein
|  
|-
|-
| [[Mate (Server)/yate]]  
| [[Mate (Server)/ranlvor.vm.rzl]]
|512MB
| ja
|15 GB
|
| Nein
|
|-
|-
| [[Mate (Server)/bernd.vm.rzl]]  
| [[Mate (Server)/s1lvester.vm.rzl]]
|750MB
| unbekannt
|10 GB
|
| Ja
|
|-
|-
| [[Mate (Server)/qrgo.vm]]  
| [[Mate (Server)/unifi.vm.rzl]]
|256MB
| ja
|10 GB
| Braucht zum Start große Mengen Zufall. Geduld oder ping -f 172.22.36.238 hilft.
| Nein
|
|}
[[Benutzer:Lordeis|Lordeis]] ([[Benutzer Diskussion:Lordeis|Diskussion]]) 19:16, 29. Dez. 2019 (CET)
 
== VMs ==
{| class="wikitable"  valign="top"
! VM
! Arbeitsspeicher
! Plattenplatz
|-
|-
| [[Mate (Server)/infra]]  
| [[Mate (Server)/cashdesk.rzl]]
|512MB
| 512 MB
|30 GB
| 20 GB
|-
|-
| [[Mate (Server)/datengrab.rzl]]  
| [[Mate (Server)/db.rzl]]
|256MB
| 512 MB
|2510 GB
| 30 GB
|-
|-
| [[Mate (Server)/monitoring]]  
| [[Mate (Server)/hax404.vm]]
|750MB
| 2048 MB
|40 GB
| 20 GB
|-
|-
| [[Mate (Server)/tiefpunkt]]  
| [[Mate (Server)/infra.rzl]]
|256MB
| 3072 MB
|10 GB
| 40 GB
|-
|-
| [[Mate (Server)/abrock.vm.rzl]]  
| [[Mate (Server)/ranlvor.vm.rzl]]
|1000MB
| 256 MB
|30 GB
| 10 GB
|-
|-
| [[Mate (Server)/lutoma.vm.rzl]]  
| [[Mate (Server)/unifi.vm.rzl]]
|256MB
| 750 MB
|20 GB
| 20 GB
|-
|-
| '''Gesamt'''
| '''Gesamt'''
| '''8043 MB / 12001 MB'''
| '''7150 MB / 12001 MB (59.58% belegt)'''
| '''2793 GB / 5.4TB'''
| '''0.1 TB / 5.3 TB (2.59% belegt)'''
|}
|}


== Einzelnachweise ==
Automatisch geupdatet von [[Benutzer:Matebot]] am: 2021-09-24 00:00:01
<references />
 
== Unterseiten ==
<splist />


[[Kategorie:Hardware]]
[[Kategorie:Hardware]]
[[Kategorie:Infrastruktur]]

Aktuelle Version vom 4. November 2023, 20:50 Uhr

Archiv ARCHIV: RZL-Historie Archiv
Diese Seite wurde archiviert, um RaumZeitLabor Historie zu erhalten
       
Mate (Server)

Release status: broken [box doku]

Beschreibung RIP  :'(
Kategorie  Infrastruktur / Netz
Autor(en)  NOC-Team
Hostname  mate.rzl

Mate war ein Server, der als Ersatz der Blackbox und Datengrab diente. Er wurde über unsere USV geschützt. Inzwischen ist er leider von uns gegangen.

Technische Daten

Produkt HP Proliant MicroServer Gen8
CPU Xeon E3 1230v2 4x 3.3GHz + Hyperthreading
RAM 1x 8GB Kingston DDR3 ECC sowie 1x 4GB Original HP DDR3 ECC
HDDs 3x3TB (WD30EFRX)
RAID5 über alle Platten, 6TB nutzbar, LVM, Platten werden über smartd gemonitort und an netzwerk (ät) rzl dot de im Fehlerfalle geschickt
1x 64GB SSD
USB 1x Onboard, 2x USB 2.0 hinten, 2x USB 3.0 hinten, 2x USB 2.0 vorne
Verbrauch 60W Volllast / 31W idle (Messung mit einem schlechten Messgerät, jeweils ohne Platten)
jede Platte: 4.1W aktiv, 3W idle (laut Datenblatt)
Insgesamt Idle: 40W
Insgesamt Volllast: 72.3W
Virtualisierung libvirt/KVM


Unterseiten

Auf allen Kern-VMs läuft _möglichst_ nur pakettierte Software (Debian). Möchtest Du etwas auf den Systemen installiert haben, dann paketiere es bitte. Auf den Mitglieder-VMs kann alles so installiert werden, wie gewünscht.

Reboot Fest / Zabbix Agent

(stand 12-2019)

Rebootfest gibt an, ob die Dienste innerhalb der VM nach einem Reboot der VM von alleine sauber hoch kommen. Rebootfest sagt nicht zwingend, dass die VM einen Reboot von Mate sauber übersteht.

VM Rebootfest Anmerkungen Monitoring Agent Monitoring Anmerkung
Mate (Server)/0xb4dc0d3d.vm.rzl unbekannt Ja
Mate (Server)/abrock.vm.rzl unbekannt verliert beim Host-Reboot vermutlich das USB-Device zum Stromzähler Ja
Mate (Server)/cashdesk.rzl ja Nein
Mate (Server)/datengrab.rzl nein Nein
Mate (Server)/db.rzl ja Nein
Mate (Server)/freeswitch.vm.rzl ja Nein
Mate (Server)/infra.rzl nein verliert beim Host-Reboot vermutlich das USB-Device zu den Funksteckdosen. verliert beim Reboot sein IOT-Device Nein
Mate (Server)/kunterbunt.vm.rzl nein MQTT -> Graphite-Bridge muss manuell gestartet werden Ja
Mate (Server)/lutoma.vm.rzl unbekannt Nein
Mate (Server)/partkeepr.rzl ja Nein
Mate (Server)/qrgo.vm.rzl unbekannt Nein
Mate (Server)/rami.vm.rzl unbekannt Nein
Mate (Server)/ranlvor.vm.rzl ja Nein
Mate (Server)/s1lvester.vm.rzl unbekannt Ja
Mate (Server)/unifi.vm.rzl ja Braucht zum Start große Mengen Zufall. Geduld oder ping -f 172.22.36.238 hilft. Nein

Lordeis (Diskussion) 19:16, 29. Dez. 2019 (CET)

VMs

VM Arbeitsspeicher Plattenplatz
Mate (Server)/cashdesk.rzl 512 MB 20 GB
Mate (Server)/db.rzl 512 MB 30 GB
Mate (Server)/hax404.vm 2048 MB 20 GB
Mate (Server)/infra.rzl 3072 MB 40 GB
Mate (Server)/ranlvor.vm.rzl 256 MB 10 GB
Mate (Server)/unifi.vm.rzl 750 MB 20 GB
Gesamt 7150 MB / 12001 MB (59.58% belegt) 0.1 TB / 5.3 TB (2.59% belegt)

Automatisch geupdatet von Benutzer:Matebot am: 2021-09-24 00:00:01

Unterseiten

<splist />