Container-Cluster XXL

Die Neuerungen in Kubernetes 1.6 betreffen vor allem Skalierung und Automatisierung. So unterstützt Kubernetes 1.6 nun bis zu 5.000 Knoten und insgesamt ca. 150.000 Pods. Diese enorme Erweiterung wird durch das von CoreOS stammende etcd v3 ermöglicht.

Weitere Neuerungen

Mit dem „Federeration“-Feature lassen sich nun mehrere Cluster über einen API-Endpunkt ansprechen, sogar dann, wenn sie in verschiedenen Rechenzentren stehen. Darüber hinaus haben die Entwickler in Kubernetes 1.6 die Ablaufplanung, um Pods besser abgestimmt bereitstellen zu können, optimiert. So können Nutzer nun Pods mit

Node affinity/anti-affinity

nur auf bestimmten, auf Labels basierenden Nodes, aufsetzen. Dabei können sie mit „taints and tolerations“ markieren, welche Nodes für Pods nicht bereit stehen.

Neu ist auch, dass der Scheduler nun Regeln beherrscht, um Pods in bestimmten Zonen, basierend auf einer vorgegebenen Fehlertoleranz oder auf Nodes eines bestimmten Nutzers zu starten. Nutzer können aber auch eigene Scheduler erstellen. Darüber hinaus haben die Entwickler das Runtime-Interface, den etcd v3 (s. o) und die Daemon-Sets aktualisiert.

Storage-Bereitstellung

Ferner hat das Entwickler-Team die automatisierte Bereitstellung von Storage verbessert. So sind in Version 1.6 nun StorageClass und die dynamische Volume-Provisionierung als stabil gekennzeichnet. Damit können Nutzer jetzt Storage nach Bedarf erzeugen, so dass die bisher erforderliche Vorprovisionierung nicht mehr nötig ist. Per Default installiert Kubernetes 1.6 die StorageClass-Objekte für AWS, Azure, GCP, OpenStack und VMware vSphere, unterstützt aber zusätzlich auch ScaleIO (Plugin), Portworx (Plugin) und NFSv3, NFSv4 sowie GlusterFS (mit den COS Node Image).

Alpha und Beta

Neu eingeführt wurden einige Funktionen im Alpha-Stadium wie „Out-of-tree cloud provider“, „Per-pod-eviction“, die „Pod Injection Policy“ und „Custom metrics“. Dafür haben einige ältere Alpha-Features jetzt Beta-Status erlangt wie z. B. Das CLI-Tool „kubefed“. Es kann jetzt „kube-dns“ automatisch konfigurieren.

Ebenfalls neu im Beta-Stadium ist die rollenbasierte Zugriffskontrolle (RBAC). Administratoren damit nun fein granular bestimmen, welche Nutzer welche Komponenten eines Kubernetes-Clusters kontrollieren können. Dabei wird auch das ebenfalls als Beta-Version gekennzeichnete CLI-Tool kubeadm unterstützt.

Kubernetes ist unter der Apache License 2.0 veröffentlich und kann von Github heruntergeladen werden.

Cloud Foundry Foundation startet Zertifikationsprogramm

Entwickler, die in der Lage sind Cloud-Anwendungen zu schreiben sind derzeit hoch gefragt aber kaum verfügbar. Die Non-Profit-Organisation Cloud Foundry Foundation will die Lage nun mit einem neuen Zertifizierungsprogramm verbessern.

Cloud Foundry ist eine quelloffene Platform-as-a-Service (PaaS), die im Wesentlichen von der Cloud Foundry Foundation getragen wird. Die zugrunde liegende Software wurde ursprünglich von VMware entwickelt und später an Pivotal Software übergeben, ein Joint Venture mit der Konzernmutter EMC und General Electric. Im Jahr 2015 wurde das Projekt von Pivotal geöffnet und in die Cloud Foundry Foundation, eine unabhängige Non-Profit-Organisation überführt, die als kollaboratives Projekt unter dem Dach der Linux Foundation beheimatet ist, von dieser aber weitgehend unabhängig agiert.

Cloud Foundry versteht sich im Hinblick auf den Open-Source-Kern gern als das PaaS-Pendant zu OpenStack (IaaS).

Cloud Foundry Certified Developer

Da laut Aussage der Cloud Foundry Foundation ein eklatanter Mangels an fähigen Cloud-Entwicklern herrscht, startet die Stiftung nun unter dem Titel Cloud Foundry Certified Developer eine Initiative zur Zertifizierung von Entwicklern von Cloud-Anwendungen.

Das Programm soll aber gemeinsam mit der Linux Foundation angeboten werden. Ein genauer Starttermin ist noch nicht bekannt; er soll aber auf dem im kommenden Juni stattfindenden Cloud Foundry Summit Silicon Valley 2017 bekannt gegeben.

Die neue Cloud Foundry-Zertifizierung soll Distributions-unabhängig sein und erfolgreichen Absolventen als Nachweis über Praxiserfahrung mit Cloud-Foundry-Implementationen dienen. Kurse zur Cloud Foundry-Zertifizierung für Entwickler sollen online angeboten werden, damit Schulung und Zertifizierung standortunabhängig überall auf der Welt möglich ist.

Das Paket

Das Paket besteht aus einem kostenlosen Einführungskurs auf der edX-Plattform, einem E-Learning-Kurs „Cloud Foundry für Entwickler“« zum Selbststudium, sowie einem Schulungspartnerprogramm, einschließlich lizenziertem Material für Präsenz-Cloud-Foundry-Kurse für Entwickler. Dieses wird von den Mitgliedsunternehmen Dell EMC, EngineerBetter, IBM, Pivotal, Resilient Scale, SAP, Stark and Wayne und Swisscom angeboten.

Teilnehmer, die eine erfolgsabhängige Prüfung bestehen erhalten die „Cloud Foundry Certified Developer“-Zertifizierung.
Die Anmeldung zum kostenlosen Einführungskurs auf edx.org soll ab Anfang Mai möglich sein. Der E-Learning-Kurs „Cloud Foundry for Developers“ zum Selbststudium soll ab dem 13. Juni für 500 US-Dollar erhältlich sein.

Die bis zu vier Stunden dauernde Zertifizierungsprüfung kann ebenfalls online zu einem Preis von 300 Dollar abgelegt werden oder direkt auf dem vom 13. bis 15. Juni 2017 stattfindenden Cloud Foundry Summit Silicon Valley.

Windows Server 2012 R2/2016

Gehen Sie bei einem solchen Problem folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie files ein, um zu file maintenance zu gelangen.
  5. Geben Sie integrity ein, um einen Integritätstest der Datenbank durchzuführen. Wenn dieser Test eine Fehlermeldung anzeigt, können Sie versuchen, die Datenbank in Ntdsutil zu retten.
  6. Verlassen Sie mit quit die file maintenance, aber bleiben Sie in der Oberfläche von Ntdsutil.
  7. Geben Sie den Befehl semantic database analysis
  8. Geben Sie zunächst den Befehl verbose on ein, damit Sie detaillierte Informationen erhalten.
  9. Geben Sie als nächstes den Befehl go fixup
  10. Das Tool beginnt daraufhin mit der kompletten Diagnose der Active Directory-Datenbank und versucht eine Reparatur durchzuführen.
  11. Verlassen Sie im Anschluss Ntdsutil und starten Sie den Domänencontroller neu. Überprüfen Sie, ob die Active Directory-Datenbank wieder funktioniert. Sollten noch immer Schwierigkeiten auftreten, stellen Sie die Datenbank aus einer Datensicherung wieder her und überprüfen Sie im Anschluss, ob Active Directory bei diesem Stand noch konsistent war. Sie sollten so lange Backups zurückspielen, bis sichergestellt ist, dass die Datenbank wieder konsistent ist.

Windows Server 2012 R2/2016

Bevor Sie eine Offlinedefragmentation durchführen, sollten Sie eine Sicherung des Systemstatus Ihres Active Directory durchführen. Wie bei der Offlinedefragmentation von Exchange wird zunächst die Datenbank kopiert, dann offline defragmentiert und anschließend zurückkopiert. Stellen Sie daher sicher, dass sich auf dem Datenträger, auf dem Sie die Offlinedefragmentation durchführen, genügend Speicherplatz frei ist. Um eine Offlinedefragmentation durchzuführen, gehen Sie folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus. 

    Da Active Directory als Systemdienst läuft, kann dieser für die Defragmentation auch beendet werden. In diesem Fall muss der Server nicht im Verzeichnisdienst-Wiederherstellungsmodus gestartet werden, sodass andere Dienste auf dem Server weiter von den Anwendern verwendet werden können.

  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie den Befehl files ein, um zur file maintenance zu gelangen.
  5. Geben Sie den Befehl compact to <Laufwerk:\Ordner> Wählen Sie als Verzeichnis einen beliebigen Ordner auf der Festplatte aus. Ntdsutil kopiert die Datenbankdatei in diesen Ordner und defragmentiert sie.
  6. Wenn keine Fehlermeldungen während der Offlinedefragmentation auftreten, können Sie die Datei dit aus dem Ordner, in welchen sie defragmentiert wurde, zurück in den Datenbankpfad der produktiven Datenbank kopieren. Diesen Vorgang führt Ntdsutil nicht automatisch aus, Sie müssen die Datei manuell kopieren. Sichern Sie die alte Version der ntds.dit aus dem produktiven Datenbankordner. Verschieben Sie die defragmentierte Datei in den produktiven Ordner der Datenbank und überschreiben Sie die alte Version.
  7. Geben Sie in der file maintenance von Ntdsutil den Befehl integrity ein, um die Integrität der Datenbank festzustellen.

Wenn die Integrität der neuen Datenbank sichergestellt ist, können Sie den Domänencontroller ganz normal neu starten. Sollten Fehler auftreten, kopieren Sie die zuvor gesicherte Originalversion zurück und führen Sie einen erneuten Integritätstest durch. Ist der Test diesmal erfolgreich abgeschlossen, versuchen Sie erneut eine Offlinedefragmentation und starten Sie den Test erneut. Sie sollten den Domänencontroller erst in den normalen Modus starten, wenn sichergestellt ist, dass die Datenbank auch konsistent ist.

Die Bremskraft der Industrie

Als Unternehmer und Gründer eines Startups ist es ehrlich gesagt, frustrierend zu sehen, dass Industrie 4.0 bereits Realität sein könnte, wenn Startups nicht ständig Steine in den Weg gelegt werden würden. Bereits 2015 erschien auf welt.de ein Artikel von Jens Kohrs und Michael Posch[1] mit dem Titel „Misstrauen bremst die intelligente Fabrik aus“ zum Thema Industrie 4.0. Darin beschrieben die Autoren das Auseinanderklaffen der technologischen Möglichkeit und deren Anwendung. Ein Viertel der befragten Manager konnte demnach noch nicht einmal etwas mit dem Begriff Industrie 4.0 anfangen, obwohl mit dieser bzw. mit der vernetzten Produktion hohe wirtschaftliche Chancen verbunden sind. Einer der angeführten Gründe war das mit der neuen Technik verbundene Misstrauen. Wobei ich einmal in Frage stelle, ob es sich hier nicht eher um die Angst vor dem Neuen handeln könnte.

Startups versus etablierte Unternehmen

 

Industrie 4.0 ist nur ein Beispiel für technologischen Fortschritt, der durch etablierte Unternehmen ausgebremst wird. In der Regel sind Startups innovativer, agiler, flexibler, schneller und motivierter in der Umsetzung ihrer Projekte. Sie haben (noch) keine starren Unternehmensstrukturen ausgebildet, wodurch sie auch kurzfristig den Kurs wechseln und einen neuen Weg der Problemlösung einschlagen können. Das macht sie vor allem in technologieaffinen Branchen erfolgreich.

Ein gutes Produkt muss allerdings noch lange nicht zum erhofften Erfolg führen. Ein mir bekanntes Startup brachte 2016 ein Produkt auf den Markt, das zwar mehreren Unternehmen angeboten wurde, das aber letztendlich nie verkauft wurde. Eines der damals angefragten Unternehmen entwickelte jedoch kurz darauf ein ähnliches Produkt, das allerdings wesentlich komplizierter in der Anwendung war und nur zu einem Drittel die Funktionen des Originals besaß. Anstatt sich also auf das Neue ein- und möglicherweisen Veränderung zuzulassen, wurden hier Ressourcen darauf verschwendet eine gute Idee minderwertig umzusetzen.

Kooperation statt Widerstand

 

Der steigende Konkurrenzdruck zwingt auch etablierte Unternehmen vermehrt dazu, sich auf neues Terrain zu wagen. Eine Zusammenarbeit zwischen Startups und etablierten Unternehmen kann dabei Vorteile für beide Seiten haben. Während Startups alle oben genannten Fähigkeiten besitzen, sind Unternehmen effizienter. Sie können auf Bestehendes zurückgreifen, denn eine Unternehmensstruktur bedeutet nicht nur Starre, sondern auch Stabilität. Neue Ideen könnten durch eine Zusammenarbeit wesentlich schneller implementiert und umgesetzt werden. Eine wirkliche Kooperation zwischen Unternehmen und Startup kann jedoch nur funktionieren, wenn sich die Partner dabei auf Augenhöhe begegnen und nicht, aus Angst von den Emporkömmlingen überholt zu werden, mauern. Startups sind aber keine Bittsteller, sondern beide Seiten wollen etwas, dass der andere hat. Fragt sich nur, wie lange es dauern wird, bis der Groschen fällt.

 

Infokasten:           

Rachid Touzani ist CEO von CargoSteps, einem Logistik-Startup aus Frankfurt. Das unabhängige und neutrale Tracking-System von CargoSteps erlaubt es Unternehmen, firmenübergreifend, auch international, in einer Lösung zusammenzuarbeiten. Für mehr Informationen besuchen Sie www.cargosteps.com.

[1] Siehe: https://www.welt.de/sonderthemen/mittelstand/it/article139313724/Misstrauen-bremst-die-intelligente-Fabrik-aus.html.

Datengesteuerte Produktion mit dem Internet der Dinge

In der verarbeitenden Industrie gehören industrielle Mess- und Regeltechnik, hochvernetzte Systeme und Automatisierung seit Jahrzehnten zur Standardausrüstung, mit der Unternehmen die verfügbaren Daten verwerten können. Durch kontinuierliche Prozessoptimierung entstanden völlig neue Fachrichtungen und Anwendungen. Grenzen wurden vor allem durch den Stand der Technik definiert, während die potentiellen Kosten nur eine nachrangige Rolle spielten.

Mittlerweile sind die meisten Industrieunternehmen aber an die Grenzen des Machbaren gestoßen: Sie müssen nicht nur immer mehr, sondern auch zunehmend heterogene und unstrukturierte Daten von innerhalb und außerhalb des Produktionsprozesses verarbeiten. Zusätzlich bringt das industrielle Internet der Dinge (Industrial Internet of Things, IIoT) eine Unzahl an Maschinen und Sensoren ins Spiel, die mit ihren gewaltigen Datenströmen die Fertigungsbranche zu überfluten drohen.

Mit neuen Tools allein ist es nicht getan

Mit den bisher eingesetzten Werkzeugen sind diese Informationsflüsse nicht in den Griff zu bekommen. Zudem suchen die Unternehmen auch nach Wegen, die ausufernden Kosten wieder unter Kontrolle zu bekommen. Die Hersteller wollen ihre Innovationsfähigkeit stärken, im Wettbewerb mithalten und sich gleichzeitig differenzieren. Um verwertbare Erkenntnisse über Produkte, Kunden und Lieferketten zu erhalten, müssen sie ihre Strategie im Umgang mit Daten grundlegend ändern.

 

Einsatzgebiete in der Produktion

Die möglichen Anwendungsgebiete sind vielfältig und sehr heterogen. Es lassen sich aber drei Bereiche herausfiltern, die das größte Potential bieten:

  • Vernetzung in der Produktion: Durch das Internet der Dinge können Hersteller zu jedem Zeitpunkt eine umfassende Übersicht darüber erhalten, was gerade im Fertigungsprozess passiert. Anpassungen können in Echtzeit erfolgen, um die störungsfreie Fertigstellung von Produkten zu gewährleisten und Mängel zu vermeiden. Eine Datenmanagementplattform ermöglicht es Unternehmen, Daten aus Produktionsprozessen und IoT-Sensoren zu sammeln, zu speichern, zu analysieren und daraus verwertbare Erkenntnisse zu gewinnen.
  • Optimierung von Lieferkette und Beständen: Mittels eines ausgeklügelten Systems an Voraussage- und Logistikmodellen lässt sich ein Hub für Unternehmensdaten als Echtzeit-Liefernetzwerk (Supply Network) nutzen, um Vorlaufzeiten mit Nachfragesignalen, ERP- und MES-Daten, Warenbeständen, Lagerkapazitäten und Lieferantendurchsatz für einen reibungslosen Betrieb abzugleichen.
  • Proaktive Qualitätssicherung: Ein Problem nach der Produktion zu beheben, kostet hundertmal mehr, als es bereits vor der Produktion aus der Welt zu schaffen. Durch eine einzige Datenplattform lassen sich Entwicklungszeiten um bis zu 50 Prozent verkürzen, während auf Leistungsprobleme in Echtzeit reagiert und Mängel vor der Herstellung beseitigt werden können.

Hadoop – Datenmanagement für die Fertigungsbranche

Produktions- und IoT-Daten sind allerdings derart komplex, dass Unternehmen ihre Strategie zur Datenverwaltung anpassen müssen. Benötigt wird eine Plattform, die optimal auf die genannten Herausforderungen getrimmt ist und mit der Hersteller die Vorteile der Cloud wahrnehmen und gleichzeitig ihre bestehende Infrastruktur weiter nutzen können.

Führende Unternehmen aus der Fertigungsbranche setzen zunehmend auf das Apache Hadoop-Ökosystem als Basis für Datenmanagement- und -analyse. Mit Hadoop lassen sich Daten  praktisch ohne Limits speichern, verwalten, verarbeiten und vor allem analysieren. Daten aus Sensorablesungen, Anlagenproduktivität, Transaktionsdaten, Lieferantendaten und mehr lassen sich leicht und kostengünstig aus verschiedenen Quellen in einer einzigen, vereinheitlichten Plattform zusammenführen.

Da Hadoop darüber hinaus auf einem höchst skalierbaren und flexiblen Datensystem beruht, kann jede Art von Daten – sowohl strukturiert als auch unstrukturiert – ohne Änderung des Formats geladen werden, so dass sowohl die Integrität der Daten als auch die Flexibilität der Analyse gewährleistet sind. Daten, die von Maschinen und Sensoren generiert werden, darunter Zeitreihendaten sowie Anwendungs- und Weblog-Dateien, können in Echtzeit gesammelt und direkt in Hadoop eingespeist werden, anstatt in temporären Dateisystemen oder Data Marts bereitgestellt zu werden. Hadoop läuft auf branchenüblicher Standard-Hardware oder in der Cloud, wodurch die Kosten für Speicher und Rechenleistung pro Terabyte durchschnittlich ein Zehntel von denen eines herkömmlichen relationalen Data-Warehouse-Systems betragen.

Lösungen auf Basis von Apache Hadoop haben in der Verwaltung und Analyse von Produktionsdaten zu einem Paradigmenwechsel geführt. Organisationen können damit problemlos nahezu unbegrenzte Mengen und Arten von Sensor-, Prozess- und IoT-Daten  sammeln und speichern, leistungsfähige Verarbeitungs- und Analysewerkzeuge für Data in Motion und Data at Rest nutzen sowie sofortige Such-, Abfrage- und Visualisierungsoptionen von Daten im Petabytebereich zur Verfügung stellen, um mehr verwertbare Erkenntnisse zu gewinnen. Mit einer professionellen Hadoop-Distribution wie Cloudera Enterprise erhalten Unternehmen außerdem zahlreiche weitere Enterprise-Funktionen, Support, Training und vieles mehr.

Mit Digitalisierung und Automation zur Intralogistik 4.0

Robotik-Ingenieur soll einer der beliebtesten Berufe 2017 werden. Kein Wunder, denn laut der International Federation of Robotics (IFR) kommen in Deutschland auf 10.000 Beschäftige im produzierenden Gewerbe bereits 301 Roboter. Damit liegt Deutschland im weltweiten Robotereinsatz auf Rang 4. Bis 2019 sollen weltweit mehr als 1,4 Millionen der mechanischen Mitarbeiter neu installiert werden und die Gesamtzahl somit auf 2,6 Millionen steigen. Die Automatisierung der Industrie ist offenkundig in vollem Gange. Deren aktueller Status ist aber branchenabhängig. Während vor allem im Automobilbau die digitalisierte Konstruktion eine Vorreiterposition einnimmt, entwickeln sich Teile des Logistiksektors eher schleppend.

Ein Beispiel dafür ist die Intralogistik. Hier ist man häufig noch weit entfernt von automatisierten Prozessen. Denn in deutschen Werken fahren die Staplerfahrer meist noch auf Zuruf und Sicht. Eines wird hier schnell deutlich: Die fehlende Planung und Struktur sorgt für ineffiziente innerbetriebliche Transporte und unzufriedene Fahrer. Und auch fehlendes Material als Folge einer unproduktiven Intralogistik sorgt für Missmut in der Produktion und Verzögerungen in der Lieferung. Doch wie transportiert man die richtigen Materialien zur richtigen Zeit an den richtigen Ort, während gleichzeitig Effizienzdruck, Artikelvielfalt und Ansprüche an Schnelligkeit und Wirtschaftlichkeit in der Intralogistik steigen? Unsere 4 Tipps für eine digitale Intralogistik geben einen ersten Überblick.

Voraussetzung für eine Intralogistik 4.0 ist Datentransparenz

Eine der größten Schwachstellen der innerbetrieblichen Logistik gilt es zu beheben: Intransparenz. Die wenigsten Logistikleiter wissen in dem Moment, in dem sie es benötigen, wie viele Transporte ihre Fahrer fahren, in welchem Status sich die Transportaufträge befinden, wie viel Zeit für sie aufgewendet wird und wo welches Material verloren ging. Wenn alle diese Informationen an der richtigen Stelle fehlen oder nur mit Mühe zu evaluieren sind, ist eine adäquate Messbarkeit der Prozesse völlig undenkbar. Die Folge ist, dass kaum einzuschätzen ist, wie viele Transportmittel und Fahrer gegebenenfalls reduziert oder aufgestockt werden müssen.

Um eine vernetzte und automatisierte Supply Chain im Sinne einer Logistik 4.0 zu erreichen, ist diese Transparenz im Supply Chain Management jedoch unerlässlich. Und ist der Zugriff auf alle Daten geschaffen, gilt es, sie richtig zu nutzen. Denn in keinem Prozess entlang der Lieferkette, weder in der Materialwirtschaft, noch im innerbetrieblichen Transport, ist eine reine Datenverwaltung eine zukunftsfähige Vorgehensweise. Der häufig umfangreiche Datenschatz in einem Unternehmen – heute auch Big Data genannt – sollte hier für eine intelligente Entscheidungsfindung genutzt werden, dafür sind moderne Softwaresysteme nötig. Das zahlt sich aus, wenn Lagerhaltungs- und Transportkosten sinken, während die Termintreue steigt.

Mithilfe umfangreicher Analyse von Daten und deren effektiver Nutzung können zahlreiche Intralogistikprozesse digitalisiert und zugunsten der heutigen Marktansprüche und Wirtschaftlichkeitsfaktoren optimiert werden. Eine intelligente Optimierung ermöglicht zum Beispiel, dass alle Transportaufträge den Fahrern und Transportmitteln effizient zugeordnet werden können. Durch die Möglichkeit, Daten dabei mobil zu erfassen, können alle Transporte in einem System zentral abgebildet werden. Jeder Intralogistik-Mitarbeiter kann so jederzeit sehen, ob eine Verspätung droht oder Material geliefert bzw. abgeholt werden muss. Selbst bei kurzfristigen Änderungen können moderne Systeme in Echtzeit neu planen, da zukunftsfähiges Supply Chain Management durch Prognosen heute schon in vielen Branchen eingesetzt wird.  Statt Hektik und Chaos ziehen Ordnung und Effizienz in die Lagerhalle ein.

Die zunehmende Automatisierung hin zu einer Logistik 4.0 ist unausweichlich, um Wettbewerbsfähigkeit zu erlangen – und zu halten. Nicht nur für eine schnelle und marktgerechte Produktion zahlt sich der verstärkte Einsatz von Robotik aus. Auch im Bereich der Intralogistik bieten automatisierte und digitalisierte Prozesse für die Logistikleiter großes Potenzial, die innerbetrieblichen Transporte effizienter zu steuern und ihre freigewordenen Kapazitäten für andere Aufgaben nutzen können. Dies ist nur einer von vielen wichtigen Teilbereichen von Logistik und interner Supply Chain, die es in Zeiten der Digitalisierung zu reorganisieren gibt.

Sie möchten noch weiterführende Informationen zum Thema Digitalisierung in der Intralogistik? Downloaden sie in unser kostenloses Whitepaper „Der digitale Weg zur Intralogistik 4.0„.

Welche Chancen versprechen Sie sich von dem Einzug der Digitalisierung in die Intralogistik?

“Offen”-gelegt

Der Red Hat Product Security Risk Report für 2016 liegt jetzt vor und geht auf die Analyse von Red Hats eigenem Security-Team zurück. Der Report ist eine Auflistung der im jeweils zurückliegenden Jahr bekannt gewordenen und geschlossenen Sicherheitslücken für die wichtigsten Produkte. Der vollständige Bericht kann als PDF-Datei kostenfrei von Red Hat heruntergeladen werden.

Schadensklassen

Red Hat klassifiziert die gefundenen Sicherheitslücken dabei nach ihren potentiellen Auswirkungen in die Kategorien Low, Moderate, High und Critical.

Neben (wenigen) schwerwiegenden Lücken, die jeweils mit einem eigenen Namen versehen auch jenseits der Community für Aufmerksamkeit sorgen, sind die namenlosen kleineren Lücken in der Mehrzahl und betreffen z. B. Web-Browser und einige wenige Desktop-Anwendungen.

So gab es in 2016 in allen Versionen von Red Hat Enterprise Linux rund 50 kritische Sicherheitslücken die in 38 entsprechenden Sicherheitsmeldungen kumulierten. Alle betroffenen Pakete in Red Hat Enterprise Linux wurden von Red Hat noch am Tag der Bekanntgabe oder spätestens einen Tag danach aktualisiert; bei anderen Produkten ließ sich Red Hat dagegen etwas länger Zeit. Konkret erhielten hier 76% der Pakete ein Update am selben oder folgenden Tag. Spätestens nach einer Woche waren 98% der gemeldeten Sicherheitslücken behoben.

In Summe hat das Sicherheitsteam 2016 rund 1300 Sicherheitslücken bearbeitet und dazu 600 Sicherheitsmeldungen heraus gegeben. Untersucht wurden insgesamt sogar 2600 potentielle Sicherheitslücken, rund 600 mehr als 2015. Allerdings hatten die Hälfte davon keine Auswirkung, bzw. Bedeutung für Produkte von Red Hat.

Embargo

Red Hat wünscht sich, dass jede potenzielle Sicherheitslücke vor der allgemeinen Veröffentlichung den eigenen Entwicklern bekannt gemacht wird und spricht sich für vergleichsweise kurze Zeitspannen zwischen Mitteilung und Veröffentlichung aus. Dieses so genannten „Embargo“ solle nach den Vorstellungen von Red Hat möglichst kurz sein, damit die Lücke für potentielle Angreifer möglichst wenig „einbringt“.

Die Red-Hat-Entwickler sind allerdings 2016 nach eigener Aussage nur in 29% der Fälle in den Genuss eines Embargos gekommen. In nahezu alle anderen Fällen wurde Red Hat von der jeweiligen Veröffentlichung überrascht, sodass die eigenen Entwickler nur noch „reagieren“ konnten. Dabei bezog das Red-Hat-Team 65,5 Prozent aller Sicherheitslücken selbst aus Mailinglisten, 12,8 Prozent fanden über persönliche Beziehungen ihren Weg zu den Sicherheitsexperten von Red Hat und 10,6 Prozent wurden von Entwicklern bei Red Hat intern gemeldet, also Entwicklern, die bei Red Hat selbst beschäftigt sind oder von Red Hat bezahlt werden. Andere Quellen spielten kaum einer Rolle.

Die Neunte

Red Hat hat rund zehn Monate nach der letzten Aktualisierung Version 6.9 seiner Unternehmens-Distribution veröffentlicht.

Wie bei RHEL üblich ändert sich dabei die Hauptversion des Kernels – bei Red Hat Enterprise Linux 6.x ist das 2.6.32 – nicht. Red Hat implementiert dringend benötigte Aktualisierungen, wie die mit RHEL 6.9 großzügig erweiterte Hardware-Unterstützung, mit Hilfe von Backports.

Der verbesserte Hardware-Support erleichtert einen möglichst reibungslosen Wechsel auf RHEL 7 und bringt unter anderem Treiber für RealTek RTS5250S SD4.0 und Marwell 88SE9230-Controller mit. Neu in RHEL 6.0 ist auch das Tool cpuid.

Weitere Neuerungen

Neu in RHEL 6.9 sind zudem Verbesserungen bei den Virtualisierungsfunktionen und im Cluster-Bereich. Im Bereich Virtualisierung hat Red Hat z. B. die Geschwindigkeit des Hyper-V-Storage-Treibers verbessert. Ebenfalls neu ist, dass der Netzwerkmanager jetzt auch eine manuelle DNS-Konfiguration unterstützt.

Bei den Cluster-Funktionen ist erwähnenswert, dass die Pacemaker-Agents nun Oracle 11g unterstützen. Ferner hat Red Hat das Paket „clufter“ auf die Version 0.59.8 aktualisiert. Gleich mehrere Aktualisierungen hat zudem auch „luci“-Interface erhalten.

Neu ist auch, dass RHEL 6.9 Updates für TLS 1.2 erhalten hat, die im Prinzip gleich mehrere Bereiche innerhalb der Distribution betreffen. Verbessert wird dadurch unter anderem die sichere Kommunikation. Dabei bietet RHEl 6.9 nun auch Support für die aktuellen PCI-DSS-Standards. Außerdem ist es möglich, innerhalb der IdM- und Verzeichnisservern ältere Versionen von TLS verbieten.
Weitere Einzelheiten zu den Neuerungen lassen sich den Releae Notes entnehmen.

Endspurt

Anfang Mai wird RHEL 6 in so genannte Production Phase 3 übergehen. Das bedeutet, dass RHEL 6 zwar weiterhin Korrekturen erhält, Red Hat aber nicht mehr aktiv neue Server-Features oder Hardware-Treiber entwickelt. Das endgültige Support-Ende für RHEL 6 steht dann Ende 2020 an.

Wie bei Red Hat üblich kann RHEL 6.9 über Red Hats Content Delivery Network Red Hat Network (RHN) bezogen werden. Bestandskunden erhalten RHEL 6.9 im Verlauf des regulären Updates. Darüber hinaus gibt es ISO-Images, die ebenfalls nur mit einem gültigen RHN-Konto zugänglich sind. Die Distribution steht wahlweise in Form einer Minimal-CD oder als DVD-ISO bereit. Ergänzend gibt es eine Supplementary-DVD mit weiteren Paketen für erweiterte Funktionalität. RHEL 6.89 gibt es nur für die Architekturen x86_64 und i386.

Microservices – flexible und effiziente Architekturen für das Internet der Dinge

Sowohl Mitarbeiter als auch Kunden erwarten schnellere und agilere Abläufe, was eine leistungsfähige IT-Basis voraussetzt. Auch die Administrierbarkeit, Performance und Verfügbarkeit von Applikationen muss mit der zunehmenden Dynamik des Nutzerverhaltens Schritt halten. Silo-Architekturen, wie sie noch in vielen Unternehmen betrieben werden, sind hier nicht zielführend. Die isolierte Abarbeitung von Prozessen und Anwendungen innerhalb großer Einheiten führt zu starren, unflexiblen Strukturen. Dies wirkt sich auch auf Entwicklungsprozesse aus: Ändert sich nur ein kleiner Teil der Anwendung, ist es erforderlich, den Code der gesamten Anwendung anzufassen, anzupassen und zu testen, was einen langwierigen und verhältnismäßig zur Änderung hohen Aufwand verursacht.

Entkoppelung und Modularisierung von Anwendungen

Einen Ausweg bieten Microservices: Hierbei werden monolithische Applikationen in kleinere Komponenten zerlegt. Dienste werden voneinander entkoppelt und sie erhalten eine kleine Aufgabe. So bekommt die Anwendungssoftware eine modulare, flexible Struktur. Die Vorteile von Microservices sprechen für sich: Dank der Unabhängigkeit können sie autonom skaliert und isoliert entwickelt werden. Zudem reduzieren Microservices den Aufwand für Wartung und Administration: Sie sind klein und lassen sich flexibel durch eine Neuimplementierung ersetzen. Bei einem Problem muss nur der jeweilige Microservice gewartet werden, so dass nicht das komplette System betroffen ist.

Höhere Komplexität von Überwachung und Betrieb

Es gibt aber auch Nachteile: Beispielsweise erhöhen Microservice-Architekturen die Komplexität der Ende-zu-Ende-Überwachung von Anwendungen. Anders als in konventionellen Infrastrukturen müssen bei der Kommunikation von Microservices die Schnittstellen gesondert gemanagt werden. Zwar vereinfachen Container-Technologien wie etwa Docker die Verwaltung der Verteilung von Microservices. Eine Überwachung ist aber dennoch erforderlich, möchte man die komplette Supply Chain einer Anwendung berücksichtigen. Zudem wird das Betriebsmanagement komplizierter, da jede Benutzertransaktion viele verschiedene Dienste beansprucht. Überdies erfolgt die Administration von Microservice-Architekturen in der Regel durch diverse kleine Entwickler-Teams. Da diese häufiger neuen Code in der Produktionsumgebung implementieren, können laufende Prozesse beeinträchtigt werden. Und auch die User Experience kann bereits durch einen Fehler in einem einzigen Dienst empfindlich leiden.

Es stellt sich die Frage, wie Microservice-Architekturen trotz dieser Einschränkungen effizient betrieben werden können. Von entscheidender Bedeutung hierfür ist ein konsequentes Echtzeit-Monitoring des gesamten Applikations- und Transaktionsverhaltens. Dabei muss die Überwachung zahlreicher kleiner Instanzen im Kostenmodell berücksichtigt sein. Für einen fehlerfreien Betrieb ist sowohl eine asynchrone Transaktionsverfolgung als auch ein Screening der Komponenten erforderlich. Mit einer Application Performance Management (APM)-Software lassen sich diese Anforderungen problemlos abdecken. Damit können sämtliche Dienste kontinuierlich überwacht und verlässliche Aussagen in Echtzeit über die Performance des kompletten Systems getroffen werden.

Geblockte Threads schnell identifizieren

Wie sich mit APM-Lösungen typische Herausforderungen in Microservice-Architekturen optimieren lassen, soll folgendes Beispiel verdeutlichen: In entsprechenden hochskalierbaren Umgebungen greifen häufig zahlreiche Threads auf bestimmte Objekte zu, was zu einer so genannten Thread Contention führen kann. Diese entsteht, wenn mehrere Threads beim Objektzugriff zueinander in Konkurrenz treten. Das Ergebnis sind lästige Timeouts und verlangsamte Antwortzeiten. Abhilfe schafft eine APM-Software, mit der sich einfach und schnell durch eine Real Time Thread Contention Analyse die geblockten Threads und deren Abhängigkeit identifizieren lassen. Dadurch können die negativen Auswirkungen auf die Performance zeitnah erkannt und behoben werden. Informationen über die geblockte Zeit, das blockende Objekt sowie die blockende Codezeile beschleunigen den Prozess zusätzlich. Dank Thread-Contention-Analyse lassen sich Performance-Engpässe durch geblockte Threads also wesentlich schneller erkennen und eliminieren. Die Leistungsfähigkeit und Dynamik von Microservice-Umgebungen wird dadurch deutlich gesteigert.

Innovative APM-Lösungen verfügen auch über ein Feature namens Service-Endpoint-Analyse. Dieses erkennt automatisch, welche Services innerhalb welcher Business-Transaktionen verwendet werden und somit auf welche Nutzeraktion die jeweiligen Services einen Einfluss (positiv wie negativ) haben. Überdies erhält der Anwender einen Überblick über wichtige Key Performance Indikatoren (KPI) der Services wie Aufrufe pro Minute, durchschnittliche Antwortzeiten und Fehler pro Minute. Die Ursachen für eine unzureichende Performance bestimmter Services und deren Einfluss auf die jeweilige Business-Transaktion lassen sich damit rascher und präziser analysieren, bewerten sowie beheben. Zudem erhöht sich die Effizienz der Problemanalyse.

Fazit

Microservice-Architekturen setzen sich aufgrund ihrer vielen Vorteile mehr und mehr in der Unternehmens-IT durch. Für einen effizienten und stabilen Betrieb ist eine Ende-zu-Ende-Überwachung sowie Analyse aller Anwendungen, Transaktionen und Komponenten in Echtzeit unerlässlich. Hilfreich hierbei ist eine moderne Application Performance Management Software, mit der sich die aktuelle System-Performance jederzeit beobachten und die Geschwindigkeit von Microservice-Umgebungen deutlich erhöhen lässt. Erreicht wird dies unter anderem durch ausgefeilte Funktionen für das Screening von Business-Transaktionen, die Analyse von Performance-Schwächen sowie die Identifikation geblockter Threads.