Assistenzsysteme in der Fabrik – richtig informieren und anzeigen

Das Bereitstellen dieser Informationen ermöglichen Assistenzsysteme. Doch benötigen sie dafür ein oder mehrere Kommunikationsmittel zur Anzeige. Es gilt, für jeden Fall das richtige Medium auszuwählen.
Im folgenden Artikel werden solche Kommunikationsmittel in einem Prozessszenario von einem fiktiven Planer „Herrn Weber“ für eine ausländische Produktionsstätte bewertet, ausgewählt und geplant. Es werden unterschiedliche Anzeigemöglichkeiten gegeneinander abgewogen, um den Werker möglichst gut durch den Arbeitsprozess zu leiten und das Prozessergebnis sicher herzustellen.

Herausforderungen bei der Arbeitsplatzgestaltung

Als Produktionsplaner eines Automobilzulieferers stand Herr Weber bereits vor vielen Herausforderungen. Die Arbeitsplatzgestaltung im interkulturellen Umfeld stand bis jetzt nicht auf seiner Agenda. Doch soll die Produktion eines neuen Produktes ins Ausland verlagert werden. Herr Weber ist sich sicher, dass vor allem die richtige Führung der Werker eine große Rolle spielen wird, da die Mitarbeiter im neuen Werk häufig ihren Arbeitsplatz wechseln und meist auch nicht so qualifiziert sein werden.

Er weiß, dass hoch qualifizierte Facharbeiter auch bei schlechter Dokumentation in der Lage sind, Arbeitsprozesse korrekt durchzuführen. Sie denken mit. Doch kann er sich bei einer wechselnden Belegschaft im Ausland darauf verlassen? Wie wird er die Prozesssicherheit sicherstellen?

Meist führt fehlendes Prozesswissen oder Unaufmerksamkeit dazu, dass Mitarbeiter Fehler machen. Die Bereitstellung der jeweils richtigen Prozessinformationen trägt dazu bei, diesen vorzubeugen. Doch wann sind welche Informationen in welchem Umfang sinnvoll? Und behindern nicht zu viele Erläuterungen den Arbeitsfluss? Grundsätzlich will er nur so viele Informationen wie unbedingt nötig bereitstellen. Das ist Herrn Weber klar.

In der laufenden Produktion werden unterschiedliche Anzeigemöglichkeiten an das verwendete Assistenzsystem angebunden. Deshalb hat er sich eine Tabelle erstellt und wägt die einzelnen Anzeigen gegeneinander ab.

Vergleich: Gegenüberstellung einzelner Anzeigesysteme und ihrer Einsatzgebiete sowie Vor- und Nachteile in der Anwendung. Es wird ein Fazit gezogen.

Anzeigesysteme Eigenschaft Vorteil Nachteil Fazit
Signalsäulen Zustandsanzeige durch Lichtsignale in Ampelform
  • Schnelle und intuitive Aufnahme von zusätzlichen Informationen
  • Preiswert
  • Beschränkte Anzahl von Informationen, da nur rot, gelb, grün sinnvoll
Anwendung zur schnellen Übersicht über Zustände
Pick to Light Visualisierung des Eingriffsorts durch Aktivierung einer Lampe
  • Schneller Überblick
  • Schnelle Navigation
  • Verringerte Suchzeit
  • Direkte Rückmeldung durch Quittieren/Sensor
  • Nimmt dem Mitarbeiter das Denken ab
  • Beschränkung auf einen Auftrag pro Zone
Anwendung, wenn Teile leicht zu verwechseln sind
Touchscreen-Monitor mit Rechner Textbasierte Beschreibung
  • Darstellung auch komplexer Zusammenhänge
  • Hohe Dauer der Informationsaufnahme bei der ersten Aufnahme
Eignet sich vor allem für geübte Mitarbeiter
Bildbasierte Visualisierung
  • Schnelle und sprachunabhängige Vermittlung
  • Dokumentenansicht
  • Ansicht von 3D-CAD-Zeichnungen möglich
  • Aufwendige Erstellung
Sinnvolle Ergänzung von Text
Videobasierte Visualisierung
  • Zusammenhang an Informationen leicht aufnehmen
  • Abspieles des Videos verlangsamt die Produktion stark
  • Aufwendige Erstellung
Eignet sich eher für Anlernzwecke
Datenbrille Anzeigen von Bild, Test und Video
  • Ortsunabhängig
  • Hände sind frei
  • Anzeige zusätzlich zur Realität
  • Scannen möglich
  • Anzeige ist zum Teil irritierend
  • Geringe Akkuleistung
  • Können leicht abhandenkommen
Mobile Zusatzanzeige für beispielsweise Kommissionierung
Tablet Anzeigen von Bild, Test und Video
  • Ortsunabhängig
  • Scannen möglich
  • Aufnahme von Bildern möglich
  • Können behindernd wirken
  • Können leicht abhandenkommen
Mobile Anzeige für Dokumente und Daten, zum Dokumentieren
Handdaten-terminal (HDT) Anzeigen von Bild, Test und Video
  • Ortsunabhängig
  • Scannen möglich
  • Aufnahme von Bildern möglich
  • Können behindernd wirken
  • Können leicht abhandenkommen
Mobile Anzeige zum großräumigen Abarbeiten von Arbeitsaufträgen
Laser- oder Lichtprojektor Projektion auf Flächen wie Arbeitsplatz, Werkstück oder Hand
  • Put to Light wird möglich
  • Schnelle Navigation
  • Verringerte Suchzeit
  • Gefahr der Verdeckung
  • Verhältnismäßig hohe Kosten
Anwendung zur unmittelbaren Abbildung von Prozessdaten auf einer Fläche

Unterschiedliche Anzeigesysteme im Einsatz

Das Ampelsystem verschafft einen schnellen und intuitiven Überblick über den Zustand von Produkten oder Arbeitsstationen. So bedeutet ein rotes Licht an einem manuellen Montagearbeitsplatz zum Beispiel Produktionsstillstand. Grün gekennzeichnete Produkte sind IO und bedürfen keiner Nacharbeit.

Beim Entnehmen von leicht zu verwechselnden Teilen kann eine Hilfestellung durch Pick to Light erfolgen. Ein optisches Signal leuchtet am Ort der Entnahme auf. Mit zusätzlichen Sensoren lassen sich Eingriffe in einen Behälter detektieren. Auch hier kommen farbige Lichtsignale zum Tragen, durch ein rotes Lichtsignal bei Falschentnahme und ein grünes bei der richtigen.

Über das große Display eines Touchscreens mit LAN-Anbindung lassen sich stationär am Arbeitsplatz Prozessschritte text-, bildbasiert oder über ein Video darstellen und interaktiv quittieren. Mobil können Datenbrille, Tablet oder Handdatenterminal (HDT) verwendet werden. Alle mobilen Endgeräte verfügen über eine WLAN-Schnittstelle, so dass Arbeitsaufträge fabrikweit vernetzt angezeigt und abgearbeitet werden können. Ein integrierter Scanner oder Kamera erleichtert das Identifizieren und Dokumentieren entnommener oder geprüfter Teile.

Auch Lichtzeiger oder Beschriftungen auf dem Arbeitsplatz können sehr gute Unterstützungen bieten. Doch wann muss was angezeigt werden?

Es muss ein Kontext hergestellt werden

Funktionsweise Assistenzsystem
Funktionsweise Assistenzsystem

Wann welches Signal an eine der möglichen Anzeigen gesendet wird und wann was als Information zurückerwartet wird, das kann über ein Assistenzsystem mit Netzanbindung geregelt werden. Dieser Kontext ist wichtig. Verbunden mit dem Netzwerk des Unternehmens kann über ein ERP-System oder einen Scan ein Auftrag ausgelöst werden. Das Assistenzsystem erstellt daraufhin eine Arbeitsfolge, die abgearbeitet werden soll. Informationen über das Produkt und seine Variante entnimmt das System aus einer SQL-Datenbank. Je nach Arbeitsschritt wird ein Signal oder eine Nachricht ausgelöst oder erwartet. Auf diese Weise können unterschiedliche Anzeigemöglichkeiten eingebunden werden.

Es ist ein schmaler Grat zwischen Informieren und Informationsflut

Herr Weber leitet für seine Planung ab, dass sich die Anforderungen an die Prozessführung mit dem Übungsgrad des Werkers verändern. Basierend auf seinen Erfahrungen in der Produktion hat Herr Weber den Nutzen der Visualisierungsform für den Produktivitätsgrad dem Übungsgrad des Werkers gegenübergestellt.

Nutzen
Erzielter Nutzen für die Prozessausführung

Bei einer hohen Prozesskenntnis reicht das Anzeigen einer Zustandsinformation über Lichtsignale meist aus. Eine textbasierte Beschreibung von Arbeitsprozessen kann dann ebenfalls ausreichend sein. Sie setzt aber voraus, dass die Mitarbeiter diese aufnehmen können und die Beschreibungen nicht zu lang sind. Mit der Erweiterung der Darstellung um Bilder können Zusammenhänge schnell auch von niedrig qualifizierten Mitarbeitern aufgenommen werden. Für die erste Lernphase zur Eingangsqualifizierung eignen sich Videos, um den personellen Einsatz von Einweisern zu reduzieren. Sie zeigen jedoch nicht den erforderlichen Zusammenhang zum Auftrag. Herr Weber findet sie für die laufende Produktion als ungeeignet.

Er will mit dem Einarbeitungsgrad auch die Art der Informationsbereitstellung anpassen. Um die Lernkurve der Mitarbeiter zu berücksichtigen, benötigt Herr Weber flexible Anzeigemittel, mit denen er viele Visualisierungsformen darstellen kann.

Lernkurvenbezogener Einsatz bei Monitoranzeigen

Herr Weber entscheidet sich für die Darstellung von Arbeitsanweisungen für einen Monitor mit Touchscreen. Durch den Einsatz eines Touchscreens kann direkt auf dem Bildschirm quittiert werden. Maus und Tastatur werden nicht benötigt. Er verzichtet auch auf mobile Endgeräte, da diese leicht abhanden gehen können und zum Teil kurze Akkuzeiten haben.

Herr Weber möchte schnell und individuell auf Lernerfolge reagieren. Am Anfang der Qualifizierung will er Lernvideos einsetzen. Mit steigendem Übungsgrad schaltet er auf Anzeigen mit vielen Bildern um. Bei Qualitätsproblemen kann er die Visualisierungen jederzeit anpassen und aktuell halten. Weitere Reduktion der Anzeigemöglichkeit erfolgt dann mit einem hohen Übungsgrad, bis schlussendlich das Anzeigen von Dokumenten genügen könnte.

Der Vorteil von digitalen Assistenzsystemen ist, dass neben der bild- und textbasierten Visualisierung von Arbeitsprozessen auch einzelnen Arbeitsschritten Dokumente zugewiesen werden können, die in aktueller Form auf dem Server liegen. Dies erleichtert die Pflege von Prozessdaten. So kann auch die Sprache schnell umgeschaltet und auf die Landessprache eingerichtet werden.

Vollbildanzeige
Vollbildanzeige
Dokumentenanzeige
Dokumentenanzeige

Absicherung der Teileentnahme

Den Qualifikationsgrad der zukünftigen Mitarbeiter schätzt Herr Weber als niedrig bis mittel ein. Aus diesem Grund möchte er die Prozesse überwachen und sicherstellen, dass die richtigen Bauteile entnommen und vor allem nicht vergessen werden. Er entscheidet sich für den Einsatz von Pick to Light in Kombination mit dem bereits ausgewählten Touchscreen-Monitor. Durch das Quittieren über Taste oder einen Sensor erhält er Rückmeldung über die Entnahme eines Bauteils. Darüber hinaus werden auch Suchzeiten reduziert.

Geräteplan
Geräteplan für die Anwendung

Durch das selbstständige Konfigurieren unabhängig bleiben

Zusammenfassend stellt Herr Weber fest, dass er die Situation am Zielort noch nicht abschließend einschätzen kann und somit ein System braucht, das leicht zu konfigurieren ist und bei Bedarf jederzeit erweitert werden kann.

Sollte er später eine Rückverfolgbarkeit der Prozesse benötigen, so kann er seinen Aufbau um einen Server erweitern. Um unabhängig zu bleiben, legt er besonderen Wert auf eine gute Dokumentation des Systems. Mit grafischen Anleitungen, sogenannten „Quicksteps“, sind seine Mitarbeiter in der Lage, das System selbstständig aufzubauen und einzurichten. Wenn er nicht weiterkommt, benötigt er weltweiten Zugriff auf Techniker, die er auch über eine 24-Stunden Hotline kontaktieren kann.

Damit gelingt es Herrn Weber, seine Mitarbeiter auch im ausländischen Werk gut zu informieren und sicher durch den Prozess zu leiten.

Wegweiser durch den Technologiedschungel: NFC

Im vorangegangenen Teil dieser Reihe wurden Charakteristika, Einsatzgebiete sowie Vor- und Nachteile des industriellen Kommunikationsurgesteins, der RFID Technologie, vorgestellt.
Verglichen mit dem starken Industriefokus des ersten Artikels, behandeln wir in diesem Abschnitt eine Kommunikationstechnologien mit Konsumentenbezug: NFC. Near-Field-Communcation ist wie RFID ein wesentlicher Treiber des Internet der Dinge und liese sich im Idealfall sogar gezielt mit UHF RFID kombinieren. Wie dieser Hybrid aussieht und welche Chancen sich dabei ergeben, erfahren Sie etwas später.

Teil 2: Near Field Communication (NFC)

Durch die Ausstattung von EC-Karten und Smartphones hat NFC mittlerweile den Massenmarkt erreicht. Doch was steckt dahinter? Near Field Communication, kurz NFC, ist eine drahtlose Übertragungstechnologie, die wie der Name es vermuten lässt, zum sicheren Datenaustausch mit nur wenigen Zentimetern Abstand dient. NFC basiert dabei auf der RFID-Technik, unterscheidet sich abgesehen von der geringeren Reichweite aber vor allem darin, dass immer nur zwei Kommunikationsteilnehmer miteinander verbunden sind. Gerade bei UHF RFID reden wir im Vergleich dazu von hunderten parallelen „Verbindungen“.

Ähnlich wie bei RFID wird aber auch bei NFC zwischen einem aktiven und passiven Modus unterschieden. Im passiven Modus erzeugt ein aktives Gerät, sagen wir ein Bezahlterminal an der Supermarkt Kasse, ein elektromagnetisches Feld und an die Stelle des zweiten Geräts tritt ein Datenträger wie beispielsweise eine EC-Karte. Das Terminal liest die Informationen der EC-Karte aus und bucht einen Geldbetrag von der Karte ab. Im aktiven Modus erzeugen beide Geräte ein elektromagnetisches Feld. Anders als beim passiven Modus ist hier ein wechselseitiger Datenaustausch zwischen den Geräten möglich, sprich es können beide Parteien Informationen senden und empfangen. Zu Unrecht wird NFC oft nur auf ersteres, sprich auf das mobile Bezahlen reduziert, allerdings ergeben sich auch abseits davon Anwendungsgebiete. So eröffnen sich für Hersteller unterschiedlichster Branchen mit NFC-getaggten Produkten neue Interaktionsmöglichkeiten mit ihren Kunden. Vom Markenschutz, der Diebstahlsicherung, dem Self-Checkout im Retail über den gezielten Qualitätsnachweis bis hin zum Beschwerdemanagement sind die Möglichkeiten unbegrenzt. Darüber hinaus könnten Mitarbeiter in der Logistik ihre Smartphones als Lesegeräte nutzen, anstatt auf teure Infrastruktur zurückzugreifen. Aus ökonomischer Sicht ist durch die weite Verbreitung von NFC-Lesegeräten in Form von Smartphones ein verhältnismäßig geringes Investment, abhängig von der Anzahl der NFC-Tags nötig. Pauschal bewegen sich die Kosten für den Tag mittlerweile im Cent-Bereich, wobei im Handel andere Tags zum Einsatz kommen als in raueren Umgebungen. Ein spannendes Thema in diesem Zusammenhang stellen die seit diesem Jahr erhältlichen Hybrid-Transponder bestehend aus einer UHF-RFID und NFC Antenne dar, die sich einen Chip und infolgedessen eine eindeutige Identifizierungsnummer teilen. 7iD Technologies erprobt derzeit verschiedene Lösungen in Form von Pilotprojekten, bei denen die erzeugten Produkte über die gesamte Wertschöpfungskette per Ultrahochfrequenz RFID Technologie identifiziert und prozessgesteuert werden und dem Konsumenten bzw. Lagermitarbeitern darüber hinaus interaktive und individuelle Interaktionsmöglichkeiten mit den Produkten auf die Nahdistanz angeboten werden. 

In den nächsten Teilen dieser Reihe werden weitere Kommunikationstechnologien mit stärkerem Konsumentenfokus Bluetooth und WIFI sowie IoT Softwareplattformen als Dreh- und Innovationstreiber des „Internet of Things“ vorgestellt und genauer beleuchtet. Softwareplattformen wie jene von 7iD, werden in Zukunft eine immer größere Bedeutung zukommen, da sie den Einstieg in die Technologie erleichtern, System-Komplexität reduzieren und Zeit und Nerven vor, während und nach bei der Umsetzung sparen.

Teil 1 des Beitrags finden Sie hier.

 

Fault Domains für Cluster

Um sich zum Beispiel Informationen zu bereits erstellten Fault Domains anzeigen zu lassen, verwenden Sie:

Get-ClusterFaultDomain

Get-ClusterFaultDomain -Type Rack

Get-ClusterFaultDomain -Name „server01.contoso.com

Sie können also auch mit verschiedenen Typen arbeiten. Um eigene Fault Domains zu erstellen, stehen zum Beispiel folgende Befehle zur Verfügung:

New-ClusterFaultDomain -Type Chassis -Name „Chassis 007“

New-ClusterFaultDomain -Type Rack -Name „Rack A“

New-ClusterFaultDomain -Type Site -Name „Shanghai“

Sie können Fault Domains auch miteinander verknüpfen, oder Fault Domains anderen Fault Domains unterordnen:

Set-ClusterFaultDomain -Name „server01.contoso.com” -Parent „Rack A“

Set-ClusterFaultDomain -Name „Rack A“, „Rack B“, „Rack C“, „Rack D“ -Parent „Shanghai“

Ausfallsicherheit in Storage Spaces Direct

S2D ist also durchaus hochverfügbar. Microsoft bezeichnet das allgemein auch als „Resiliency“. Standardmäßig wird beim Erstellen eines Storage Pools in einer S2D-Umgebung bereits mit der Hochverfügbarkeit gearbeitet. Hier spielt auch die Option „FaultDomainAwarenessDefault“ und deren Standardwer „StorageScaleUnit“ eine wichtige Rolle. Sie können sich den Wert für den jeweiligen Storage Pool jederzeit anzeigen lassen. Dazu verwenden Sie die PowerShell und den Befehl:

Get-StoragePool -FriendlyName <PoolName> | FL FriendlyName, Size, FaultDomainAwarenessDefault

Virtuelle Festplatten, also die Storage Spaces, erben die Hochverfügbarkeit vom Storage-Pool aus dem sie erstellt werden. Sie können sich den Wert von Storage Spaces bezüglich der Hochverfügbarkeit ebenfalls in der PowerShell anzeigen lassen:

Get-VirtualDisk -FriendlyName <VirtualDiskName>| FL FriendlyName, Size, FaultDomainAwareness, ResiliencySettingName 

Da die virtuellen Festplatten, auch Storage Spaces genannt, schlussendlich das Medium sind, welches Dateiserver, auch der Scale-Out-File-Server, für die Datenspeicherung nutzen, sollten Administratoren die Speicherung der Daten grundlegend verstehen.

Eine virtuelle Festplatte besteht aus Extents mit einer Größe von 1GB. Eine Festplatte mit 100 GB besteht also aus 100 Extends. Erstellen Sie eine virtuelle Festplatte mit der Hochverfügbarkeitseinstellung „Mirrored“, also gespiegelt, werden die einzelnen Extents der virtuellen Festplatte kopiert und auf verschiedenen Clusterknoten gespeichert. Abhängig von der eingesetzten Anzahl an Knoten lassen sich zwei oder drei Kopien von Extents auf die Datenspeicher der verschiedenen Clusterknoten verteilen. Sichern Sie also eine 100 GB große, virtuelle Festplatte durch dreifache Kopien ab, dann braucht diese Festplatte 300 Extents. Dabei versucht Windows Server 2016 die Extents möglichst gleichmäßig zu verteilen. Beispiel: Der Extent A wird auf den Knoten 1, 2 und 3 gespeichert. Der Extent B, auf der gleichen virtuellen Festplatte positioniert, wird auf den Knoten 1, 3 und 4 kopiert. Eine virtuelle Festplatte und deren Daten/Extents ist also im kompletten Cluster auf allen Knoten verteilt.

Mit Lsof nach offenen Dateien fahnden – Teil 2

Lässt sich z. B. eine virtuelle Maschine nicht starten, kann das daran liegen, dass für die betreffende VM Files-Locks existieren. Warum?

Beim Einschalten einer virtuellen Maschine werden so genannten Lock-Files generiert. Das Verfahren gewährleistet die Konsistenz der virtuellen Disks. Würde eine VM keine File-Locks verwenden, könnten mehrere Prozesse gleichzeitig auf der gleichen vDisk zu lesen und schreiben versuchen. Lock-Dateien werden stets im gleichen Verzeichnis angelegt, in dem auch die die eigentliche VMDK-Datei liegt. Beim Ausschalten der VM, werden Lock-Files im Normalfall wieder aufgelöst.

Stale Lock Files

Kann eine VM die eigenen Lock-Files beim Ausschalten allerdings nicht entfernen, bleibt ein Stale-Lock-File zurück, das die vorhandene VMDK-Datei schützt. Das kann z. B. passieren, wenn der ESXi-Host abstürzt und die VM keine Chance hat, das Lock-File ordnungsgemäß zu entfernen.

Lock-Files gibt es nicht nur zum Schutz der VMDK-Datei einer virtuellen Maschine, sondern auch für anderen VM-Files. Sind aber eine oder mehrere-VM-Files gesperrt, lässt sich die betreffende VM eben nicht mehr neu einschalten.

Wer ist Schuld ?

In einem Cluster-Szenario mit Shared Storage muss man für das Auflösen eines solches Zustandes zunächst herausfinden, welche ESXI-Host für die Locks verantwortlich ist. Ist man per ESX-Shell oder SSH auf dem betreffenden Host, klappt das klappt z. B. mit Hilfe des CLI-Tools vmkfstools.

vmkfstools -D /vmfs/volumes/Shared/<Name-der-VM>/<Name-der-VM>-flat.vmdk

Mit

lsof | grep <Name der gelockten Datei>

könnte man dann ermitteln, welcher Prozess für das Lock verantwortlich ist und dieses dann auf der Kommnadozeile mit killen, z. B. mit …

esxcli vm process list
esxcli vm process kill –w <wold-id>

Red Hat Virtualization 4

Bislang hörte Red Hats Enterprise Virtualisierungs-Suite für Server UND Desktops bekanntlich auf dem Namen Red Hat Enterprise Virtualization. Je nach Sichtweise war RHEV neben VMware vSphere, Hyper-V und Citrix Xen Server die dritte oder vierte Kraft im Markt für Virtualisierungssoftware für Unternehmen.

RHEV (und auch RHV) besteht neben dem eigentlichen KVM-Hypervisor, den Red Hat 2008 der Community übergeben hatte und der heute standardmäßig im Linux-Kernel enthalten ist, aus einer Virtualisierungsmanagement-Komponente und dem SPICE-Protokoll, das insbesondere im VDI-Part von RHEV eine zentrale Rolle spielt.

RHV und oVirt

In Red Hat Enterprise Virtualization hört der für den Betrieb als Hypervisor optimierte Kernel mit minimalem Footprint auf die Bezeichnung Red Hat Virtualization Host (RHV-H) und das Management-System samt Ressourcen-Manager und Managementoberfläche auf den Namen Red Hat Virtualization Manager (RHV-M).

Im Unterschied zu VMware und Hyper-V sind sämtliche Komponenten von Red Hats Enterprise Virtualisierung in Form des  oVirt-Projektes Red-Hat-typisch auch als freie Software verfügbar. Die oVirt-Entwickler haben inzwischen Version 4.02 veröffentlicht.

Neuer Name, neues Programm

Mit der Umbenennung der neuen Version  Red Hat Virtualization 4 will das Unternehmen signalisieren, dass RHV sowohl traditionelle Workloads virtualisiert, als auch Container-basierten Workloads in hybriden Clouds als Fundament für Sicherheit und Skalierbarkeit dient.

REV, RHEL und OpenStack

RHEV oder RHV haben zwar nominell weniger Marktanteile als VMware & Co, schaut man nur auf die Anzahl von Unternehmen, die mit Red Hats Lösung in die traditionelle Virtualisierung einsteigen, man darf aber nicht übersehen, dass RHEV (oder allgemein Linux mit KVM) fast immer die Basis von OpenStack-Clouds bilden, auch wenn OpenStack alle marktrelevanten Hypervisor unterstützt.

Darüber hinaus ist RHEV Basis aller Cloud-Produkte von Red Hat oder Red Hats Container-Plattform, wenn man auseinanderdividiert, dass der RHEV-Hyperivsor wiederum auf einer abgespeckten Version von Red Hat Enterprise Linux basiert. I

nsofern ist RHEV-H/RHV-H auch ein echter Typ1-Hypervisor, weil er bare-metal installiert wird und nur dem Einsatz als Hypervisor dient. Ein klassisches Linux-System mit KVM kann je nach Kontext (mit Virt Manager) auch als Typ-2-Hypervisor betrachtet und genutzt werden.

Neu in Version 4

In Version 4 verbessert Red Hat daher neben den eigentlichen Virtualisierungsfunktionen vor allem den Support für OpenStack und Linux-Container. Neu ist auch, dass sich RHV4 jetzt mit dem Anaconda-Installer von Red Hat Enterprise Linux aufsetzen lässt.

Ferner sorgt eine neue freie API für eine bessere Unterstützung externer Netzwerke von Drittanbietern. Dadurch wird eine Zentralisierung und Vereinfachung des Netzwerkmanagements möglich. So kann der Red Hat Virtualization Manager mit externen Systemen kommunizieren, um Netzwerkeinstellungen zu definieren, die auf virtuelle Maschinen angewendet werden können.

Zudem hat Red Hat einen Browser-basierten Storage Image Uploader eingeführt, der KVM-Images direkt oder per URL hochladen kann. Darüber hinaus hat der Hersteller das System-Dashboard erweitert, um Probleme schneller erkennen zu können.

Erhöhte Sicherheit

Bei der Absicherung des Zugangs setzt RHV 4 auf  sVirt, das Mandatory Access Control (MAC) auf Basis von SELinux anwendet. Das sorgt für eine höhere Sicherheit bei VMs und Hypervisor, da physische und virtuelle Umgebung vor Schwachstellen geschützt werden, die als Angriffsvektor gegen den Host oder andere VMs genutzt werden könnten.

OpenStack und Linux-Container

Darüber hinaus unterstützt Red Hat Virtualization 4 sowohl Linux-Container-basierte Workloads als auch Private- und Hybrid-Cloud-Umgebungen mit OpenStack. Im Hinblick auf Container unterstützt Red Hat Virtualization 4 den Red Hat Enterprise Linux Atomic Host als konfigurierbares Gastsystem und ermöglicht Gast-Agenten als Container auf der Atomic Host VM zu laufen.

Zudem bietet Red Hat Virtualization 4 native Unterstützung für den Red Hat OpenStack Platform Neutron Open vSwitch (OVS). Für Unternehmen vereinfacht sich dadurch die Nutzung von Shared Services. Außerdem wird der operativen Footprint minimiert, indem Services nahtloser zwischen traditionellen und Cloud-Workloads bereitgestellt werden können.

Verfügbarkeit

Die neue Version von RHV wird sowohl als eigenständiges Paket, als auch als Teil der Red Hat Cloud Suite angeboten, die unter anderem Red Hat OpenStack Platform, Openshift, Red Hat CloudForms, Red Hat Satellite und Red Hat Ceph Storage enthält.

Krankheitsbedingte Fehlzeiten verringern

Der Arbeitsschutz in Deutschland feiert dieses Jahr Jubiläum – vor genau 20 Jahren ist das Arbeitsschutzgesetz in Kraft getreten. Wie wichtig wirksamer betrieblicher Arbeitsschutz ist, belegen aktuelle Zahlen der Krankenkasse DAK: Danach gab es im ersten Halbjahr 2016 so viele Krankschreibungen wie seit Ende der 1990er Jahre nicht.

Gemäß § 84 Abs. 2 SGB IX müssen Arbeitgeber ein betriebliches Eingliederungsmanagement (BEM) durchführen, wenn Beschäftigte innerhalb eines Jahres länger als sechs Wochen ununterbrochen oder wiederholt arbeitsunfähig sind. Neben der Reduzierung der Fehltage kranker Mitarbeiter kann das BEM in aussichtslosen Fällen auch eine personenbedingte Kündigung erleichtern.

Welche Maßnahmen beugen erneuter Arbeitsunfähigkeit vor?

Das BEM ist ein Suchprozess, mit dem geprüft wird, wie die Arbeitsunfähigkeit eines Mitarbeiters möglichst überwunden und mit welchen Maßnahmen einer erneuten Arbeitsunfähigkeit vorgebeugt sowie der Arbeitsplatz erhalten werden kann. Welche konkreten Vorkehrungen dafür zu ergreifen sind, gibt das Gesetz nicht vor. In Betracht kommen alle Maßnahmen, die dem Arbeitgeber zumutbar sind, bevor er eine personenbedingte Kündigung aussprechen darf. Beispiele sind die Anpassung der Arbeitsaufgabe, die Veränderung der Arbeitsbedingungen und die Inanspruchnahme gesetzlich vorgesehener Leistungen der Rehabilitationsträger. Genießt der erkrankte Mitarbeiter zugleich den besonderen Schutz schwerbehinderter Arbeitnehmer, müssen auch Möglichkeiten einer leidensgerechten Beschäftigung ausgelotet werden. Ergebnis eines BEM ist häufig eine stufenweise Wiedereingliederung oder andere Maßnahme der Rehabilitation.

Wer ist am BEM zu beteiligen?

Während der Arbeitgeber verpflichtet ist, ein BEM anzubieten, kann der betroffene Mitarbeiter es ablehnen. Es ist freiwillig und wird nur mit Zustimmung des Mitarbeiters durchgeführt. Dieser ist „Herr des Verfahrens“. Er entscheidet auch, ob der ggf. vorhandene Betriebsrat und/oder Betriebsarzt daran zu beteiligen ist. Weitere mögliche Beteiligte sind die örtlichen gemeinsamen Servicestellen oder bei schwerbehinderten Beschäftigten das Integrationsamt sowie die Schwerbehindertenvertretung.

Wie leitet der Arbeitgeber ein BEM ein?

Der Arbeitgeber sollte den betroffenen Mitarbeiter nach dessen Bereitschaft fragen, an einem BEM teilzunehmen. Dabei hat er ihn auf die Ziele des BEM sowie auf Art und Umfang der hierfür erhobenen und verwendeten Daten hinzuweisen. Im Angebot des Arbeitgebers sollte klar werden, dass es sich um ein ergebnisoffenes Verfahren handelt. Nicht fehlen sollte jedoch der Hinweis an den Arbeitnehmer, dass seine Weigerung, sich am BEM zu beteiligen, zu einer Kündigung führen könnte. Stimmt der Mitarbeiter zu, ist der Arbeitgeber verpflichtet, die gesetzlich vorgesehenen Stellen und Personen einzubinden. Die Beteiligten sollten in einem gemeinsamen Gespräch Anpassungs- und Änderungsmöglichkeiten erörtern. Der Arbeitgeber selbst muss keine eigenen Vorschläge machen.

Welche Vorteile bietet ein BEM?

Ein erfolgreiches BEM kann eine deutliche Verringerung der krankheitsbezogenen Fehlzeiten des betreffenden Mitarbeiters zur Folge haben. Für den Arbeitgeber führt das zu einer höheren Planungssicherheit und geringen Personalkosten. Doch auch wenn ein BEM erfolglos bleibt oder mangels Zustimmung des Mitarbeiters nicht durchgeführt wurde, kann das für den Arbeitgeber von Vorteil sein. Im Falle einer krankheitsbedingten Kündigung des Arbeitsverhältnisses sind die Chancen der Arbeitgeberseite im Kündigungsschutzprozess regelmäßig erheblich besser, als wenn dem gekündigten Mitarbeiter zuvor kein BEM angeboten wurde. Der Arbeitgeber müsste ggf. beweisen, dass eine Kündigung auch dann unvermeidbar gewesen wäre, wenn er ein BEM ordnungsgemäß durchgeführt hätte. Ein vorausschauender Arbeitgeber sollte daher dieses Mittel der betrieblichen Gesundheitsprävention schon im eigenen Interesse nutzen.

*Karsten Kujath ist Fachanwalt für Arbeitsrecht bei der Wirtschaftskanzlei GvW Graf von Westphalen in Frankfurt

Pressearbeit at its worst

Es gibt zahllose Pressestellen von B2B-Unternehmen in Deutschland, die eine hervorragende Arbeit machen. Medienanfragen werden möglichst rasch und kompetent beantwortet, Pressemitteilungen haben einen hohen Nachrichtenwert etc. Ein kleiner Mittelständler in Neu-Ulm gehört definitiv noch nicht zu diesem erlesenen Kreis . Er steht vielmehr exemplarisch für kleine und mittlere Betriebe (KMU), die noch immer nicht wissen, wie man mit Medien professionell umgeht. 

Kein Ansprechpartner unter „Presse“

Was war passiert? Eine Fachzeitschrift wollte bei jenem Mittelständler im Vorfeld einer Fachmesse aktuelle Informationen erfragen. Denn die Firma aus Neu-Ulm war als Aussteller auf besagter Messe registriert. Die erste Hürde für die Redaktion stellte bereits die Website dar. Es war zum einen ärgerlich, dass die Seite nicht für Smartphones oder Tablets optimiert war (responsive Design). Viel schlimmer war aber die Tatsache, dass unter dem Menü-Unterpunkt „Pressekontakt“ kein  Ansprechpartner namentlich benannt wurde (bei ganz kleinen Firmen übernimmt häufig der Geschäftsführer diese Funktion oder der Marketingverantwortliche ). Da kein Name angegeben war, war es nur konsequent, lediglich die zentrale Telefonnummer sowie die allgemeine E-Mail-Adresse anzuführen.

Für Journalisten steht hinter solch einer – im KMU-Umfeld nicht seltene – Konstellation folgende klare Botschaft des Unternehmens:

  1. Wir wollen mit Medien nichts zu tun haben.
  2. Wenn Medien dennoch etwas von uns wollen, haben wir einfach keinen Ansprechpartner.
  3. Sollten Journalisten diesen Umstände zum Trotz zum Hörer greifen und die angegebene Telefonzentrale anwählen, dürfen sie sich auf eine individuelle Version des Buchbinders Wanninger freuen.

Redaktion mit Redaktionsbüro verwechselt?

Doch zurück zum konkreten Fall: Die Redakteurin der renommierten Fachzeitschrift wählte bei ihrer Suche nach aktuellen Informationen über das Neu-Ulmer Unternehmen dessen Telefonzentrale an und wurde mit der Assistentin der Marketingverantwortlichen verbunden. Auf die Frage der Journalistin, ob die Firma bereits eine Presseinformation über ihren anstehenden Messeauftritt ausgearbeitet habe, kam diese überraschende Antwort: Man habe bereits jemanden, der Pressemitteilungen schreibe und bräuchte die Dienste der Redaktion nicht. Aufgelegt!

Da seitens des Mittelständlers ganz offensichtlich Redaktion mit Redaktionsbüro verwechselt wurde, fasste sich die Journalistin ein Herz und wählte die Nummer erneut. Wieder wurde sie – trotz entsprechender Bitten – nicht mit der Marketingverantwortlichen verbunden, sondern blieb bei deren Assistentin hängen. Geduldig brachte die Redakteurin ihre Bitte um eine Messeinformation ein zweites Mal vor. Zur Antwort erhielt sie die Aufforderung, ihre Bitte schriftlich an die Firma zu richten. Welche Mail-Adresse? Natürlich die allgemeine Unternehmensadresse. Wie angesichts der Vorgeschichte fast zu erwarten war, wartet die Redakteurin noch immer vergeblich auf eine Antwort. 

So vergrätzt man Medien

Das Besondere an diesem Fall: Es ging nicht um Medien, die einen Skandal aufdecken oder sonstige kritische Fragen stellen wollten – was natürlich auch völlig legitim gewesen wäre. Es ging um ein Fachmedium, das wohlwollendes Interesse an dem hatte, was das KMU auf der Messe ausstellen wollte. Ein professioneller Umgang mit diesem Ansinnen hätte wahrlich anders ausgesehen. So wird der Mittelständler wohl ohne redaktionelle Begleitung im Fachmagazin auf die Messe gehen müssen. Andererseits gibt er mit seinem Verhalten ein Paradebeispiel dafür ab, wie man mit einer unprofessionellen Pressestelle genau jene Ziel- bzw. Anspruchsgruppe vergrätzen kann, für die diese Stelle eigentlich geschaffen wurde. Das ist des Pudels Kern.

Mit Lsof nach offenen Dateien fahnden – Teil 1

Während die Version 2 noch auf allen möglichen Unix-Varianten lief, ist Lsof v3 Linux-Systemen vorbehalten. Lsof steht für „LiSt Open Files“, war für Windows-Nutzer vielleicht auf dem ersten Blick nicht sonderlich spannend klingt.

Everything a File

Unix und Linux jedoch sind Betriebssysteme, deren Konzeption und Aufbau maßgeblich auf dem Datei-Konzept basiert, d. h. neben Text- und Binärdateien gibt es zahlreichen andere Datei-Typen, die wichtige Dateisystemfunktionalitäten wie Prozesse, Pipes oder Sockets auf Dateien abbilden. Durch Abfragen, Auslesen oder Weiterverarbeiten solcher Dateien gewinnen iX-Administratoren wichtige Erkenntnisse oder steuern wichtige Funktionen.

Getreu dem Unix-Motto „everything a file“ im Folgenden ein paar auch heute noch nützliche Szenarien, bei denen Lsof wertvolle Dienste leistet:

1. Folgender Befehl findet alle offenen Files im angegeben Verzeichnis, samt Unterverzeichnissen:

lsof +D /var/log

2. Um einfach nur heraus zu finden, welcher Prozess Dateien geöffnet hat, genügt der Aufruf ohne Optionen im angegebenen Verzeichnis:

lsof /var/log/syslog

3. Möchte man wissen, welcher Prozess den angegeben Port nutzt, gibt man Folgendes ein:

lsof -i:139

4. Das Kommando lässt sich noch einmal nach TCP und UDP aufschlüsseln

nur TCP: lsof -i tcp:137
nur UDP: lsof -i udp:137

Interessanter ist es meist herausfinden zu können, für welche momentan geöffneten Dateien ein bestimmtes laufendes Programm verantwortlich ist, z. B.

lsof -c nginx

Auch die geöffneten Dateien eines bestimmten Nutzers lassen sich einfach ermitteln:

lsof -u drilling

Natürlich lässt sich lsof Unix-typisch in vielfältiger Weise mit Filtern verknüpfen. Suchkriterien werden standardmäßig OR-vernüpft. Wer Kriterien mit UND verknüpfen will, verwenden dazu die Option „-a“:
Mit dem Caret-Zeichen („^“) können Filter wie PID, UID, Benutzer- oder Prozess-Namen einfach negiert werden. ^
So zeigt beispielsweise

lsof -u ^1

sämtliche offenen Dateien aller User mit Ausnahme derjenigen des Benutzers mit der PID 1 (root).

Sämtliche möglichen Optionen findet man wie üblich auf der Man-Page.

VDI mit MultiPoint Services in Windows Server 2016

 

Sie sollten die VDI-Option nur dann verwenden, wenn auf dem Server die herkömmlichen Desktops auf Basis von Windows 10 nicht ausreichen.

Damit Sie virtuelle Desktops mit eigenen Betriebssystemen auf Basis von Windows 10 Enterprise zur Verfügung stellen können, müssen Sie verschiedene Aktionen durchführen. Zunächst müssen Sie die Funktion generell auf der Registerkarte „Virtuelle Desktops“ im MultiPoint Manager aktivieren. Danach müssen Sie eine Vorlage erstellen, also das Image eines virtuellen Computers mit Windows 10 Enterprise auf Basis von Hyper-V in Windows Server 2016. Liegt Ihnen bereits ein Image vor, können Sie dieses an dieser Stelle auch importieren. Dazu müssen Sie die Image-Datei auf den MultiPoint-Server kopieren.

Um die Vorlage zu erstellen, kopieren Sie die ISO-Datei von Windows 10 auf die lokale Festplatte des MultiPoint Servers. Danach erstellen Sie die Vorlage mit Hilfe der zur Verfügung stehenden Optionen auf der Registerkarte „Virtuelle Deskops“ im MultiPoint Manager. Sobald die Vorlage erstellt und von Ihnen angepasst wurde, erstellen Sie neue virtuelle Desktops. Das Anpassen der Vorlage erfolgt durch Verbindung über Hyper-V VM-Connect, so wie bei herkömmlichen VDI-Umgebungen in Windows Server 2016, auf Basis von Hyper-V und den Remotedesktopdiensten.

Damit Sie virtuelle Desktops erstellen können, verwenden Sie wieder die Einstellungsmöglichkeiten auf der Registerkarte „Virtuelle Desktops“. Zuvor müssen Sie aber auf der Registerkarte „Start“ des MultiPoint Managers den Konsolenmodus aktivieren.