Suse-Distribution für ARM-Server

Die neue Distribution für ARM-Server mit 64-Bit-ARM-v8-A-Architektur ist das Ergebnis der bereits im vergangenen Jahr angekündigten Zusammenarbeit mit verschiedenen Partnern.

Das primäre Ziel war, SUSE Enterprise Storage auch für Rechner mit 64-Bit ARM-Technologie verfügbar zu machen. Somit stellt SUSE Linux Enterprise Server for ARM für Suse einen wichtigen Schritt Richtung Software Defined Storage dar.

Rein technisch ist das neue Produkt zunächst eine ARM-Version von SUSE Linux Enterprise Server (SLES). Dieser soll bis Ende des 4. Quartals erscheinen und 64-Bit-ARM-Unterstützung für SUSE Enterprise Storage sowie passende Support-Angebote beinhalten.

Cavium ThunderX

Der auf ARM- und MIPS-SoCs spezialisierte Halbleiter-Hersteller Cavium bietet bereits erste Speicherlösungen an, etwa Prozessoren der ThunderX-Baureihen CN88xx und CN87xx mit acht bis zu 96 ARMv8-Prozessorkernen.

Cavium arbeitet allerdings nicht nur mit Suse zusammen, um ARM-Lösungen im Server-Bereich zu etablieren, sondern auch mit Oracle, Fedora und Xen. Für Suse zielt die Technologiepartnerschaft mit Cavium vor allem auf den Bereich Infrastruktur. So entwickelt Suse z. B. Tools zum Kompilieren, Paketieren und Ausrollen der entwickelten Lösungen auf der ARMv8-A-Architektur.

Weitere Informationen zum neuen Produkt finden sich in einem von Suse bereitgestellten Produkt-Flyer.

vSphere Tipp: HTML5-Web-Client

VSphere 6.5 soll lauf VMware noch im 4. Quartal 2016 erscheinen und wird nach Aussage von VMware nun endgültig keinen Windows-Client mehr enthalten. Wer sich bisher nicht umgewöhnen wollte, wird also spätestens ab nächstem Jahr nicht umhinkommen, dies zu tun.

Der bisherige Web Client hat es dem erfahrenen vSphere Admin mit seinen Altlasten und Abhängigkeiten von Flash und Java aber auch nicht leicht gemacht. Unverzichtbar für viele erweiterte Features war er aber/ist er aber, weil der native vSphere Client für Windows seit der Version 5.0 keine neuen Features mehr bekommt.

Tipp: Der reine Host-Client (auch dazu konnte man den nativen C#-Client einsetzen) ist übrigens seit gut einem ½ Jahr unter der Bezeichnung „Embedded Host Client“ offiziell in vSphere enthalten und steht nach Installation des vib-Pakets auf dem betreffenden ESXi-Host unter https://<esxi>/ui zur Verfügung.

Flingssalabim

In den VMware-Labs (Flings) steht aber schon seit einigen Wochen auch eine Vorabversion des HTML5-Clients als virtuelle Appliance im OVA-Format zur Verfügung, die VMware Portfolio an Linux-basierten Appliances um eine weitere Variante bereichert, wie bei VMware üblich mit Suse Linux Enterprise SP3 unter der Haube.

Tipp: Mit der seit Langem zu beobachtenden Favorisierung der Linux-basierten vCenter-Appliance nebst der Integration von Autodeploy, SSO (OpenLDAP), Syslog & Co sowie der mit Version 6.5 versprochenen Integration des Update-Managers löst sich VMware endgültig von der zwingenden Notwendigkeit, für das Management von vSphere-Umgebungen Windows Server, Workstations und/oder Datenbanken (SQL-Server) vorhalten zu müssen.

Deployment

VSphere 6.5 soll lauf VMware noch im 4. Quartal 2016 erscheinen und wird nach Aussage von VMware nun endgültig keinen Windows-Client mehr enthalten. Wer sich bisher nicht umgewöhnen wollte, wird also spätestens ab nächstem Jahr nicht umhinkommen, dies zu tun.
Der bisherige Web Client hat es dem erfahrenen vSphere Admin mit seinen Altlasten und Abhängigkeiten von Flash und Java aber auch nicht leicht gemacht. Unverzichtbar für viele erweiterte Features war er aber auch jetzt schon, weil der native vSphere Client für Windows seit der Version 5.0 keine neuen Features mehr bekommt. Der reine Host-Client (auch dazu konnte man den nativen C#-Client einsetzen) ist übrigens seit gut einem ½ Jahr unter der Bezeichnung „Embeddes Host Client“ offiziell in vSpher enthalten und steht nach Installation des vib-Pakets auf dem betreffenden ESXi-Host unter https://<esxi>/ui zur Verfügung.

Flingssalabim

In den VMware-Labs (Flings) steht aber schon seit einigen Wochen auch eine Vorabversion des HTML5-Clients als virtuelle Appliance im OVA-Format zur Verfügung, die VMware Portfolio an Linux-basierten Appliances um eine weitere Variante bereichert, wie bei VMware üblich mit Suse Linux Enterprise SP3 unter der Haube.

Tipp: Mit der seit Langem zu beobachtenden Favorisierung der Linux-basierten vCenter-Appliance nebst der Integration von Autodeploy, SSO (OpenLDAP), Syslog & Co sowie der mit Version 6.5 versprochenen Integration des Update-Manager löst sich VMware endgültig von der zwingenden Notwendigkeit, für das Management von vSphere-Umgebungnm Windows Server, Workstations und/oder Datenbanken (SQL-Server) vorhalten zu müssen.

Doch zurück zum HTML5-Client

Deployment

Das Deployment ist gegenüber den früheren Versionen deutlich komfortabler geworden und macht in der aktuellen Version vom grafischen „Fling Appliance Management Interface“ (FAMI) Gebrauch. Lediglich wer bereits eine frühere Version des HTML5-Clients installiert hat, kann von der zugehörigen Projektseite auch eine Update-Variante in Form einer bsx-Datei herunterladen.

Der Gebrauch, die Kompatibilität zwischen verschiedenen vSphere-Versionen und Versionen des HTML-Clients, die CLI-basierende Installation und die grafische Installation der aktuellen Version beschreibt das ebenfalls hier bereit stehende PDF.

Im Folgenden wird die Inbetriebnahme der aktuellen Version „h5ngcVA-2.11.0.0-4553575“ auf Basis von vSphere 6.0 U2 (Releasebuild-4192238) und der vCenter-Standard-Version in Form der virtuellen vCenzer-Applianc3e (VCSA) 6.0.0.20000 mit eingebettetem Platform Sevices Controller (PSC) beschrieben.

Dazu geht man wie folgt vor:

  1. Herunterladen des OVA-Images „h5ngcVA-2.11.0.0-4553575_OVF10.ova“ von der o. g. Webseite und Ausrollen des OVAs wahlweise über den vorhanden Web-Client oder den vSphere-Client. Dabei kann es hilfreich und nützlich sein, zuvor IP-Adess-Pools einzurichten, es sei denn, der Nutzer wählt im Verlauf des OVA-Deployments die manuelle IP-Konfiguration. IP-Pools werden bei markierten DataCenter-Object im Tab „Network Protocol Profiles“ eingerichtet.
  2. Ist die kleine VM mit 4GB RAM und 10GB Harddisk ausgerollt und gestartet, schaltet sich der Nutzer zunächst auf die FAMI-Oberfläche unter https://192.168.0.70:5480, überprüft oder ändert ggf. die Netzwerk-Einstellungen und spielt etwaige Updates ein. Das root-Passort lautet „demova“.
  3. Ist das erledigt muss das System gegen das vCenter, bzw. SSO registriert und der Webserver gestartet werden. Dies erledigt der Administrator nun im grafischen Dashboard unter https://192.168.0.70:5490/dashboard . Hier klickt man zunächst auf „Edit“ und trägt dort bei „SSO-Server“ den Namen oder die IP-Adresse des vCenters ein.
  4. Bei „Username“ und „Passwort“ ist nicht der SSO-Administrator gemeint, sondern der root-Account der HMTL5-Client-Appliance nebst Passwort (demova). Hat man dann noch einen NTP-Server eingetragen, klickt man auf „Configure“, worauf man im rechten Teil des Fensters bei Logs die zugehörigen Startskripte beobachten kann.
  5. So lange das dauert erscheint oben links neben Web Server „Configuring“. Bei Erfolg erscheint anschließend darunter „https://<html5-appliance>/ui Running“. Ab jetzt ist der neue Client unter angegebenen Adresse verfügbar, nicht aber mehr der aktuelle Flash-Client. Möchte man diesen wieder nutzen, klickt man im Dashbord einfach oben rechts auf „Stop Server“.

Dies wird auch nötig ein, weil der neue Client noch längst nicht alles Features implementiert hat. Es fehlen unter anderem noch sämtliche administrativen Einstellungen. Das Orchestrieren von VMs, Server, Netzwerken und Datastores funktioniert aber bereits.

 

Separate Kompilierung von C++-Templates

C++-Templates sind ihrem Wesen nach so konzipiert, dass sie am besten funktionieren, wenn jeder Client das gesamte Template sieht – einschließlich der Prozedurrümpfe. Die Idee dahinter ist die, dass der Compiler entscheidet, welche Instanziierungen erfolgen müssen. Genau so werden die STL-Templates verwendet. Das kann jedoch eine hohe Last für den Compiler bedeuten, und die Kompilierung in bestimmten Situationen verlangsamen. Deshalb ist es mitunter von Vorteil, Template-Deklarationen und -Definitionen so zu organisieren, dass ihre separate Kompilierung möglich ist.

Bei GrammaTech begegnet uns diese Situation bei der Analyse von Maschinencode in unserem TSL-System. Für jede Architektur (z. B. IA32, PPC) generieren wir eine Template-Klasse, die Methoden enthält, die die Semantik dieser Architektur beschreiben. Diese Templates werden mit Analysespezifikationen instanziiert (z. B. use-def-Analyse, affine-relations-Analyse), um Implementierungen von use-def-Analysen für IA32, use-def-Analysen für PPC, affine-relations-Analysen für IA32, usw. zu erhalten. Wie Sie sich vorstellen können, sind diese Template-Klassen sehr umfangreich und enthalten ihrerseits sehr umfangreiche Methoden. Zudem müssen Analysen in der Lage sein, per Template-Spezialisierung einen Teil der Semantikklassenmethoden zu spezialisieren. Aus dem Wesen dieser Template ergeben sich zwei große Probleme:

(1) Wurden die großen KIassenmethoden-Definitionen in eine Header-Datei eingeschlossen, die jeder sieht, dauerte die Kompilierung sehr lange (hin und wieder ist es uns gelungen, den Compiler zu überlasten).

(2) Weil die Template-Spezialisierung eine schwierige Kunst ist, machten wir oft den Fehler, die Deklarationen nicht an die richtige Stelle zu setzen – ein Problem, das noch durch den Umstand verschärft wird, dass Compiler sich nicht beschweren, wenn Sie hier nicht sauber arbeitet, und dass unterschiedliche Compiler unterschiedlich reagieren, wenn man passiert, mitunter bizarr und unerwartet.

Zur Optimierung dieses Codes entwickelten wir ein Template (wenn man so will), um derartige Templates in einer Kollektion mit Header-Dateien zu organisieren. Das stellt  Abbildung 1 mit Pfeilen auf #include-Anweisungen dar. Zu beachten ist, dass es eine Regel gibt, die das Einschließen (#include) von cpp-Dateien untersagt – wenn also etwas von einer anderen Datei einzuschließen ist, auch wenn es wie eine cpp-Datei aussieht, muss es die Namenserweiterung „hpp“ erhalten. Diese Regel bedeutet auch, dass ausschließlich cpp-Dateien eine Kompilierungseinheit bilden.

Grammatech
Grammatech

Dieses Layout ist für den Fall vorgesehen, dass Methodenrümpfe (C) groß sind – etwa, wenn  die Anzahl der Kompilierungseinheiten, die diese sehen, minimiert werden soll – und für den Fall, dass es relativ wenige Instanziierungen (F) gibt. Bei diesem Layout werden die großen Methodenrümpfe in (C) nur einmal pro Instanziierung (F) kompiliert. Bei Templates im STL-Stil beispielsweise, wo die Anzahl der Instanziierungen in der Regel beliebig groß ist, würde dieses Layout nicht gut funktionieren, weil es die Erzeugung einer instantiator.cpp-Datei für jede Instanziierung erfordert (z. B. eine für set<int>, eine für set<unsigned int>, eine für set<foo>, … eine für jede Verwendung von „set“ im betreffenden Projekt).

Wichtig ist auch, dass gegebenenfalls mehrere Kopien von (C) und (F) möglich sind. Bei GrammaTech könnte Foo beispielsweise IA32Semantics sein, durch dessen viele große Methodenrümpfe die Kompilierung jedes Instantiators (F) ziemlich langsam erfolgt. Man  könnte (C) stattdessen in mehrere Dateien aufsplitten (z. B. eine pro Methode), und (F) entsprechend auch in mehrere Dateien aufteilen. Das Splitten von (F) könnte ein bisschen beschwerlich werden, weil die Template-Methoden einzeln instanziiert werden müssen. Es ist ein möglicher Kompromiss, um die Kompilierungszeiten zu verbessern.

Diese Gestaltung schließt Unterstützung für die Methodenspezialisierung (E) ein. Ihre Verwendung ist jedoch an Vorbehalte geknüpft. Wenn beispielsweise der Rumpf von func2 in (C) func1 aufruft, kann es erforderlich sein, dass (F) (E) einschließt, bevor (C) eingeschlossen wird – d. h., beim Kompilieren von func2 muss die Spezialisierung von func1 in (E) deklariert worden sein. In diesem Fall ist Folgendes zu berücksichtigen: Es bedeutet, dass die Inline-Methoden in (B) u. U. keine spezialisierten Methoden aufrufen – und der Template Designer ((A), (B), (C)) vorher nicht weiß, welche Methoden spezialisiert werden könnten. Um dem Rechnung zu tragen, könnte man das Bild durch Aufsplitten von (B) in zwei Dateien verfeinern – oder der Einfachheit halber Inline-Methoden einfach verbieten.

Leider lässt sich der sachgemäße Einsatz dieses „Templates“ nicht einfach mit einem Tool erzwingen oder validieren – das setzt Disziplin, profundes Wissen und Unfehlbarkeit voraus – Attribute, die – das müssen selbst die besten Programmierer einräumen – nicht zu garantieren sind. Dennoch hoffe ich, dass andere dieses Template hilfreich finden. Indes warte auf stabile Implementierungen der externen Templates von C++11, auch wenn ich nicht glaube, dass diese Gestaltung dadurch überflüssig wird.

Neue VM-Version mit der PowerShell steuern

Diese Version hat nichts mit der Generation zu tun, also Generation 1 oder Generation 2, sondern sagt lediglich aus mit welchem Virtualisierungs-Host die entsprechende VM kompatibel ist.

Auch wenn Sie einen Server zu Windows Server 2016 aktualisieren, oder in einer Livemigrations-Umgebung zur neuen Serverversion verschieben, wird die Hyper-V-Version nicht aktualisiert. Sie müssen diesen Vorgang manuell durchführen.

VMs, die Sie nicht aktualisieren, können Sie jederzeit wieder zu Servern mit Windows Server 2012 R2 zurück verschieben. Allerdings können Sie mit der alten Version nicht die neuen Funktionen von Windows Server 2016 nutzen. Die alte Version in Windows Server 2012 R2 trägt die Bezeichnung Version 5.0, VMs in Windows Server 2016 haben die Version 8.x.

Die Version von VMs lassen Sie mit „Get-VM * | Format-Table Name, Version“ anzeigen. Um eine VM auf Version 8.x zu aktualisieren, verwenden Sie den Befehl „Update-Vmversion <Name der VM>“.  Die Änderung muss bestätigt werden. Außerdem ist die Änderung nur möglich, wenn die VM ausgeschaltet ist.

iSCSI-Ziele sicher zur Verfügung stellen

Es gibt mehrere Dinge die Sie tun können, um unberechtigten Zugang auf ein iSCSI-Volume zu verhindern, das gilt vor allem dann, wenn Sie ein iSCSI-Ziel auch als Cluster Shared Volume (CSV) einsetzen. Das erste was Sie tun sollten, ist sicherzustellen, dass die Sicherheitseinstellungen für die iSCSI-Ziele aktiviert sind. Wenn Sie ein Windows Server-basiertes iSCSI-Ziel einsetzen, bietet Microsoft vor allem zwei Optionen für die Verbesserung der Sicherheit: CHAP (Challenge Handshake Authentication Protocol) oder Reverse-CHAP. Microsoft empfiehlt, dass Sie CHAP verwenden. Bei CHAP werden Verbindungen von iSCSI-Initiatoren zum iSCSI-Ziel authentifiziert. Reverse-Chap wiederum authentifiziert das iSCSI-Ziel über den iSCSI-Initiator.

Die dazu notwendige Konfiguration nehmen Sie im Assistenten zum Erstellen von iSCSI-Zielen vor. Die Einstellungen dazu können Sie aber jederzeit anpassen.

Sie können auch die Namen der iSCSI-Initiatoren auf den iSCSI-Zielen festlegen. So lassen sich Einstellungen vornehmen, in denen iSCSI-Zugriffe nur von den Servern aus erlaubt sind, die auf dem Server eingetragen sind. Zusätzlich sollen Sie den Namen der Initiator-IDs anpassen. Auf Windows-Servern folgen die Initiatoren immer einer standardmäßigen Namenskonvention, die auf dem vollqualifizierten Domänennamen des Servers basiert. Durch das Anpassen der Initiator-Namen können Sie diesen weniger vorhersehbar machen und verhindern, dass unerlaubte Verbindungen aufgebaut werden können.

Neue digitale Geschäftsmodelle: warum das Gartner-Modell der „bimodalen IT“ falsch ist

Der Digitalisierung kann sich kein Unternehmen auf Dauer entziehen. Es geht nicht nur darum, die bestehenden Geschäftsprozesse zu digitalisieren, sondern vielmehr darum, durchgängige digitale Geschäftsmodelle zu entwerfen und umzusetzen. Von der IT wird erwartet, dass sie innovativ, schnell und flexibel die dafür notwendigen Projekte realisiert. Gleichzeitig müssen aber die bestehenden IT-Strukturen und -Abläufe in bewährter Manier aufrechterhalten werden. Es entstehen also zwei völlig unterschiedliche IT-Welten. Gartner hat dafür den Begriff bimodale IT geprägt. Dabei sorgt die eine IT-Welt, die klassische IT, für Servicekontinuität, Effizienz und Kostenoptimierung. Die andere, genannt agile IT, ist für Innovation, Flexibilität und schnelles Time-to-Market zuständig.

Auch wenn das Modell der bimodalen IT seit seiner Entstehung sehr populär geworden ist, greift es zu kurz. Denn die zwei IT-Welten sollen nicht unabhängig nebeneinander und auch nicht gegeneinander arbeiten, sondern miteinander und mit einem gemeinsamen Ziel: das Unternehmen in der digitalisierten Geschäftswelt zum Erfolg führen.

Klar ist, dass die Umwälzungen, die mit der Digitalisierung der Geschäftswelt einhergehen, auch um die IT-Abteilung keinen Bogen machen. Allerdings gibt es kein Standardrezept für die notwendigen Veränderungen. Jedes Unternehmen wird den für sich besten Weg und die sinnvollste Veränderungsgeschwindigkeit wählen. Dabei auch Strategien zu berücksichtigen, die als Bindeglieder zwischen den verschiedenen IT-Welten fungieren können, ist vorteilhafter, als starr dem Konzept der Bimodalität zu folgen.

OpenStack-Präsident: die IT wird noch diverser
Auf den Punkt gebracht hat es Jonathan Bryce, Präsident der OpenStack Foundation: „IT-Umgebungen werden diverser, nicht einheitlicher. Strategien wie OpenStack ermöglichen, die Vorteile aus der Diversität zu ziehen.“ Und genau darum geht es: Nicht um die sture Durchsetzung und Einzementierung des einen oder anderen Organisationsmodells, sondern darum, die richtigen Strategien und Mittel dafür einzusetzen, dass auch die IT erfolgreich im digitalen Zeitalter ankommt. Dabei einen Blick auf das auch von OpenStack verfolgte Open Source-Denkmodell zu werfen und zu überlegen, ob es nicht als Brückenmodell zwischen den beiden IT-Welten fungieren kann, ist mit Sicherheit kein Fehler.

Open Source schlägt Brücke zwischen IT-Welten
Denn im klassischen Teil der IT sind Open Source-Lösungen längst in die IT-Landschaft der meisten Unternehmen nahtlos integrierte Bestandteile. Ihre Vorteile, die Flexibilität und Skalierbarkeit, die niedrigeren Kosten, die offenen Standards und damit die Herstellerunabhängigkeit sowie die hohe Qualität der Lösungen, tragen zur Zielerreichung maßgeblich bei. Genau diese Vorteile könnte sich auch der agile Teil der IT zunutze machen. Open Source-Lösungen sind auch in einem schnellen, innovativen Umfeld performant. Die Open Source-Welt bietet viele Technologieteile bzw. -module, die flexibel kombinierbar sind und so ideal unter sich rasch verändernden Voraussetzungen eingesetzt werden können. Die Open Source Community ist selbst höchst innovativ und entwickelt in schnellem Takt neue Lösungen. Open Source ist also das ideale Brückenglied zwischen den beiden IT-Modi.

Erinnern wir uns: Open Source war auch einmal ein revolutionärer Ansatz. Das ist längst passé, auch wenn auch heute kaum ein Unternehmen rein auf Open Source-Lösungen setzt. Die meisten Organisationen haben die alte und neue Welt verknüpft – und damit auch ohne Gartner-Konzept erkannt, worauf es ankommt. Die IT in zwei Bereiche trennen zu wollen, mutet vor diesem Hintergrund schon fast seltsam an. Bei der Bewältigung der digitalen Transformation werden diejenigen IT-Verantwortlichen die besten Aussichten auf Erfolg haben, denen es gelingt, die für ihr Unternehmen passenden Modelle und Module aus allen Welten zu kombinieren. Open Source-Lösungen sind jedenfalls ein erfolgversprechender Hebel für diese Kombination.

Teil 1: Warum Industrie 4.0 bei Ihnen auch nicht funktionieren wird

Haben die gebetsmühlenartig wiederholten Ausblicke auf eine vom Fortschritt abgehängte deutsche Industrie sie schon in Alarmstimmung versetzt?  Haben sie schon ein Industrie 4.0-Vorzeigeprojekt in ihrer Produktion gestartet? Nein – und sie sind trotzdem sicher mit ihrem Unternehmen auf dem richtigen Weg zu sein? Da kann man sie nur beglückwünschen. Es tut selten gut, überhastet Modetrends zu folgen. Wichtig ist allerdings, zu verstehen, was die zugrundeliegenden Annahmen und Trends für einen Hype wie Industrie 4.0 sind. Damit versetzen sie sich in die Lage, selbst zu entscheiden, ob und gegebenenfalls wie sie ihre Unternehmensplanung adaptieren müssen.

Bei dem Ausdruck Industrie 4.0 ist immer unklar, welche Bereiche der unternehmerischen Tätigkeit darin eingeschlossen sind. Es ist aber eine große Gefahr der aktuellen Diskussion, dass der Begriff zu eng gefasst wird und man meint, mit der Vernetzung einiger Produktionsmaschinen oder einer volldigitalen Steuerung eines Teilbereichs der Produktion wäre die Wettbewerbsfähigkeit schon gesichert. Damit kann man sich auf einschlägigen Kongressen feiern lassen – aber interessiert das ihre Kunden? In diesem Artikel wird der eindeutigere Begriff Digitalisierung verwendet, der umfassender ist als Industrie 4.0.

Es ist nun eindeutig, dass im Konsumenten- und im geschäftlichen Bereich eine fortschreitende Digitalisierung stattfindet – und das schon sehr lange, zuletzt aber in zunehmender Geschwindigkeit. Aus Unternehmenssicht wirkt die Digitalisierung in drei Bereichen:

  1. Es entstehen neue Kundenbedürfnisse.
  2. Es werden neue Produkte und Services möglich.
  3. Es gibt neue Möglichkeiten, die Leistungserbringung im Unternehmen zu organisieren.

 

Industrie 4.0 im engeren Sinne umfasst somit nur einen Teilbereich des dritten Punkts. Für die Erarbeitung einer erfolgreichen Unternehmensstrategie müssen aber alle drei Bereiche beachtet werden.

Die umfassende Ausrichtung eines Unternehmens auf die beschleunigte Digitalisierung ist eine permanente Managementaufgabe, die man nicht an externe Berater delegieren kann. Das bedeutet, dass man unternehmensintern eine breite Kenntnis der grundlegenden Aspekte von Digitalisierung haben muss. Weiterhin sollte man die inhärenten Widersprüche verstehen, weil gerade die Bereiche, wo es kein eindeutiges richtig oder falsch gibt, für die erfolgreiche Umsetzung im eigenen Unternehmen von großer Wichtigkeit sind.

Lesen Sie nächsten Dienstag in Teil 2, welches die drei größten Spannungsfelder sind, die Sie beachten müssen.

Teleservicelösung zur Qualitätssteigerung und Kostenreduzierung am Beispiel von Betonpumpen

Sowohl die Hersteller von Betonpumpen, Baggern, Fräsen, Gabelstaplern oder Arbeitsbühnen als auch deren Kunden oder Vermieter profitieren von einem adäquaten Teleservicesystem.

Wie jede Branche hat auch das Betongeschäft seine eigenen Herausforderungen. Es besteht der Anspruch, dass die Maschinen immer größer aber gleichzeitig leichter werden. Das heißt für die Entwicklung, dass es der genauen Kenntnis über die Lastkollektive bedarf. Um eine Gewichtsoptimierung umsetzen zu können, müssen zuvor kontinuierlich relevante Daten gesammelt und ausgewertet werden. Vor allem das Tagesgeschäft der Betonbranche lässt sich durch smarte Datenerfassung und -verarbeitung optimieren. Für den Hersteller, den Service oder die Werkstätten kann ein geeignetes Teleservicesystem sowohl die Analyse als auch die Fernwartung von Betonpumpen leisten. Für den Betreiber Übernimmt es die Baustellendokumentation, die Disposition oder die automatisierte Abrechnung.

Anforderungen an ein zeitgemäßes Teleservicesystem

Die Basis zur Unterstützung von Serviceeinsätzen und Diagnosen aus der Ferne, automatischer Alarmierung im Fehlerfall, vorausschauender Wartung und Instandhaltung oder zeitübergreifender Ursachenanalyse bildet eine robuste Hardware in Kombination mit anwendungsorientierter Software. Dabei gehen die kontinuierliche Überwachung, die verlustfreie Langzeitaufzeichnung, die sichere Verschlüsselung und die intelligente Verarbeitung von großen Datenmengen Hand in Hand. Teleservicesysteme waren in der Vergangenheit oft zu groß, zu teuer, weniger leistungsstark und aufwendig zu bedienen und zu integrieren. Die neueste Generation weist dagegen ein hohes Speichervolumen auf, ermöglicht eine einfache und schnelle Parametrierung und ist zudem preisgünstig. Die Übertragung per LTE zusammen mit einer Cloudanbindung und einer benutzerfreundlichen Software stellen das bestmögliche Datenmanagement sicher. Moderne Systeme schrecken auch nicht vor der zeitrichtigen Erfassung dynamischer Daten, wie Druck- oder Kraftverläufen zurück. Sie sind nicht nur „ready to measure“, sondern liefern relevante Daten auch direkt an die Abrechnungssysteme ihrer Betreiber.

Analyse und Fernwartung von Betonpumpen und Hybridmischern mittels des Teleservicesystems smartPRO und smartMINI

Die Zoomlion CIFA Deutschland GmbH in Urbach ist Hersteller von Betonmaschinen wie Mischern, Mischwerken, Betonpumpen oder Tunnelspritzmaschinen. „optiMEAS hatte im Vergleich zum Wettbewerb quasi bereits die fertige Lösung für unser Anliegen“, so Martin Worch, Leiter Service, Forschung und Entwicklung bei CIFA Deutschland. Mithilfe der Teleservicesysteme von optiMEAS werden etliche Daten der Betonmaschinen aufgezeichnet: Etwa zur Abstützgeometrie, d.h. in welchem Moment der Mast in welcher Orientierung steht, außerdem der Kippmoment des Mastes, Drücke in der Pumpeinheit, die Öltemperatur, offene oder geschlossene Endschalter sowie angesprochene Sensoren. Tritt eine Störung in einer mit einem Teleservicesystem ausgestatteten Maschine auf, kann der Servicetechniker aus der Ferne Diagnosen stellen, Reparaturen durchführen oder die Fahrer vor Ort entsprechend anleiten. Bei einem dünnen Servicenetz spart die Wartung mittels Teleservice an diesen komplexen Maschinen Zeit und Kosten und realisiert gleichzeitig eine hohe Verfügbarkeit, Qualität und Sicherheit. Zudem ermöglicht das System über die Langzeitaufzeichnung großer Datenmengen und deren intelligenter Verarbeitung umfassende Analysen, die auch für die Maschinenentwicklung wertvoll sein können.

Teleservice bietet vielfältige Einsatzmöglichkeiten

Ein Service-Logbuch kann beispielsweise automatisch an anstehende Mastprüfungen erinnern oder eine Ölalterungsanalyse mittels Sensoren der Verschleißvorbeugung dienen. Für die ideale Betonbeschaffenheit spielen Temperatur, Charge und Verweildauer im Mischer eine Rolle. Mit einem eingeschränkten Zeitfenster von 1,5 Stunden bis zur Verdickung z.B. wäre es hilfreich und sinnvoll sämtliche Daten bis hin zu Verkehrsmeldungen zu berücksichtigen, um den idealen Zeitpunkt des Mischens und Losfahrens zu berechnen. 

Selbstverständlich können moderne Teleservicesysteme auch Routineaufgaben wie die Fahrzeugortung, die Baustellendokumentation oder die Anbindung an ein Abrechnungssystem vollständig erfüllen. Über die Anbindung an die Flotten-Management-Schnittstelle (FMS, SAE J1939) des Zugfahrzeuges können darüber hinaus ohne weitere Zusatzhardware, Fahrstrecken, Lenkzeiten, Betriebszeiten etc. verfolgt und übertragen werden. 

Latenzfreie Übertragung von Feldbussen übers Internet

Um sprichwörtlich vom Schreibtisch aus auf die Steuerung der Maschine im Feld zugreifen und Parameter verändern zu können, hat optiMEAS ein Patent angemeldet: für die latenzfreie Übertragung von Feldbussen übers Internet. Damit zum Beispiel ein Diagnosegerät direkt auf ein entfernt stehendes Steuergerät aufgeschaltet werden. Ebenfalls möglich ist ein Zugriff über Smartphone oder Tablet, bis hin zum Update der gesamten Steuergerätesoftware.

Neuestes Produkt für Teleservice, Diagnose und Monitoring ist das optiMEAS smartMINI

Das smartMINI ist eine komprimierte Ergänzung zum bewährten smartPRO. Das smartMINI zeichnet sich vor allem durch seine Robustheit, seine Leistungsstärke und seine Modularität aus. Temperaturen von -40° bis + 70° stellen kein Problem dar und es ist ausfallsicher aufgrund von Watchdog und Powercontroller. Als preiswertes Teleservicesystem eignet es sich hervorragend für die Ausrüstung ganzer Flotten. Das smartMINI verfügt über GPS, LTE, 2 CAN-Schnittstellen, eine serielle Schnittstelle, digitale Ein- und Ausgänge, Ethernet, USB, SD-Karte und vieles mehr. Wie alle optiMEAS Produkte ist es darüber hinaus vielseitig erweiterbar. Das Basissystem ist bereits ein vollständiger Rechner und kann unabhängig betrieben oder einfach in bestehende Anlagen integriert werden. Um schnell und zielgerichtet auf Kundenwünsche reagieren zu können, kommt eine auf die spezielle Anwendung zugeschnittene App zur Basissoftware.

Teleservice von Morgen

Geschwindigkeit, Volumen und Verarbeitung von Daten werden weiter perfektioniert. Dabei gilt es stets die Sicherheit und den angestrebten Mehrwert im Auge zu behalten. Wer die wesentlichen Faktoren im Rahmen der internetbasierten Mess- und Steuerungstechnik berücksichtigt, spart Geld, Zeit, erhöht die Zuverlässigkeit und schafft umfassende Lösungen.

Mehr zu Lösungen für IoT und Industrie 4.0 unter www.optimeas.de.

Nethogs misst Bandbreite von Prozessen

Die Auswahl an Netzwerk-Monitoring-Tools unter Linux ist groß, um mit ifconfig oder netstat nur die Prominentesten zu nennen.

Beide zeigen Statistiken zur Nutzung der einzelnen Netzwerk-Interfaces, differenzieren aber in der Regel maximal zwischen IP-Adressen oder Ports auf Server- und Client-Seite.

Mit dem Nethogs hingegen lässt sich auch herausfinden, welche Prozesse welche Bandbreite verbrauchen. Die Software ist auf Github zu finden, ist inzwischen aber auch in den Standard-Paketquellen vieler Distributionen enthalten.
Die Software kommt mit IPv4 und IPv6 zurecht, analysiert bisher aber nur TCP und kein UDP.

Aufgerufen wird Nethog einfach unter Angabe des zu überwachenden Interfaces. Leider gibt es keine Loggin-Funktion oder einen Batch-Modus, sodass man mit Nethogs den Bandbreitenverbrauch einzelner Prozesse derzeit nur in Echtzeit anschauen kann.

Windows Server 2016 aktivieren

Über den Befehl slui 3 wird ein Dialogfeld geöffnet, um einen neuen Produktschlüssel einzugeben. Starten Sie das Tool über die Suchfunktion der Startseite mit Administratorrechten über das Kontextmenü. In diesem Bereich aktivieren Sie Windows Server 2016 dann mit dem neuen Key. Die Startseite öffnen Sie entweder mit der Windows-Taste auf der Tastatur oder indem Sie mit der Maus in die linke untere Ecke fahren.

Der Befehl slui 4 öffnet die Auswahl der Aktivierungshotlines. Wollen Sie sich die aktuelle Windows Server 2016-Edition anzeigen lassen, die auf dem Computer installiert ist, öffnen Sie eine Eingabeaufforderung mit Administratorrechten und geben den Befehl dism /online /Get-CurrentEdition ein. Sie erhalten daraufhin die Edition und weitere Information zur Installation angezeigt.

Wollen Sie anzeigen, zu welchen Editionen Sie die installierte Version aktualisieren können, verwenden Sie den Befehl dism /online /Get-TargetEditions.

Für die Verwaltung und die Abfrage von Lizenzinformationen auf Windows Server 2016-Computern stellt Microsoft das Skript slmgr.vbs zur Verfügung, welches Sie über die Eingabeaufforderung oder das Dialogfeld Ausführen aufrufen. Dieses starten Sie mit der Tastenkombination (Windows)+(R). Das Tool kennt verschiedene Optionen:

  • /ato — Windows online aktivieren
  • /dli — Zeigt die aktuellen Lizenzinformationen an
  • /dlv — Zeigt noch mehr Lizenzdetails an
  • /dlv all — Zeigt detaillierte Infos für alle installierten Lizenzen an

Möchten Sie den Status der Aktivierung von Windows Server 2016 anzeigen, geben Sie in der Befehlszeile den Befehl slmgr.vbs /dli ein, und führen diesen aus. Anschließend werden der Name und die Beschreibung des Betriebssystems, aber auch ein Teil des Product Key und der Lizenzstatus angezeigt.

Haben Sie den Produktschlüssel eingetragen, fügen Sie die Aktivierung über die beschriebenen Wege durch. Verfügt der Computer über eine Internetverbindung, führt der Assistent die Aktivierung automatisch aus, sobald der korrekte Product Key eingegeben wurde. Sie können den Status der Aktivierung anschließend direkt einsehen, indem Sie auf der Startseite slui eingeben. Hier wird auch das Datum der Aktivierung angezeigt.

Sie können den Product Key einer Windows Server 2016-Installation anpassen. Über diesen Weg aktivieren Sie Windows Server 2016 auch auf einem Core-Server:

  1. Geben Sie zum Löschen des alten Product Key in der Eingabeaufforderung den Befehl slmgr /upk Zwar ersetzen die nächsten Punkte den vorhandenen Product Key. Allerdings funktioniert das nicht immer, wenn nicht zuvor die alte Nummer gelöscht wurde.
  2. Bestätigen Sie das Löschen.
  3. Den neuen Product Key geben Sie dann mit slmgr/ipk xxxxx-xxxxx-xxxxx-xxxxx-xxxxx
  4. Mit slmgr /ato aktivieren Sie Windows Server 2016.

Da ein Core-Server über keine grafische Oberfläche verfügt, müssen Sie einen solchen Server über die Eingabeaufforderung aktivieren. Verwenden Sie zur lokalen Aktivierung des Servers den Befehl slmgr.vbs -ato.

Nach Eingabe des Befehls wird die Aktivierung durchgeführt. Sie können Windows Server 2016 auch remote über das Netzwerk aktivieren. Verwenden Sie dazu den Befehl slmgr.vbs <ServerName> <Benutzername> <Kennwort> -ato.

Um einen Server lokal über das Telefon zu aktivieren, verwenden Sie den Befehl slmgr -dti. Notieren Sie sich die ID, die generiert wird, und rufen Sie die Aktivierungsnummer von Microsoft an. Geben Sie über die Telefontasten die ID ein und Sie erhalten vom Telefoncomputer eine Aktivierungs-ID. Diese geben Sie mit dem Befehl slmgr -atp <Aktivierungs-ID> ein. Sie können die Edition eines Core-Servers auch aktualisieren, indem Sie in der Eingabeaufforderung Änderungen vornehmen:

  • Anzeigen der aktuell installierten Edition — dism /online /Get-CurrentEdition
  • Mögliche Editionen zur Aktualisierung — dism /online /Get-TargetEditions
  • Aktualisierung zur Zielversion durchführen — dism /online /Set-Edition:<edition ID> /ProductKey:<Seriennummer>