Archiv der Kategorie: IOT – Industrie 4.0 und IIC

Gesunde IT-Systeme: Wie sich Fehler erkennen lassen

Mehr als jedes zweite Industrieunternehmen (52 Prozent) in Deutschland hat laut Unternehmensberatung Staufen in diesem Jahr Industrie-4.0-Initiativen in Einzelprojekten oder unternehmensübergreifend umgesetzt. Die Mehrheit verfolgte das Ziel, digitale Produktions-Prozesse und -Techniken (Smart Factory) einzuführen oder zu verbessern. In den kommenden drei bis fünf Jahren wollen Unternehmen in Deutschland vor allem weiter in Multi-Cloud-Umgebungen (37 Prozent) und IoT-Technologien (36 Prozent) im Rahmen ihrer IoT-Projekte investieren, so  Dell.

Multidisziplinärer Ansatz zur Fehler-Erkennung und -Behebung

Dreh- und Angelpunkt von Smart-Factory-Konzepten sind naturgemäß vor allem digitale, durchgängige Prozesse und intelligente Technologien. Hierbei beteiligt sind Anwendungen, Maschinen, Netzwerke, Infrastrukturen, Rechenzentrums-Dienste und schließlich der Endnutzer. In einer vernetzten Industrieumgebung müssen all diese Komponenten fehlerfrei und meist sogar unter Berücksichtigung sehr geringer Latenzzeiten zusammenarbeiten können. Dennoch ist gerade bei vernetzten Komponenten in einer hochverteilten Umgebung die Störanfälligkeit hoch. Wie können (Industrie-) Unternehmen also die Gesundheit ihrer digitalen Dienste und Systeme sicherstellen?

 

Empfehlen lässt sich ein multidisziplinärer Ansatz, der alle beteiligten Komponenten überwacht und Fehler schnell identifizierbar macht. Hierbei sollten Industrieunternehmen im ersten Schritt die Funktionen ihrer jeweiligen digitalen Dienste zerlegen. Ein Dienst lässt sich in diesem Zusammenhang als eine technische Einheit verstehen. Dieser bündelt zusammenhängende Funktionen und stellt diese zum Beispiel einem Nutzer per Schnittstelle zur Verfügung.

Digitale Dienste identifizieren

Der digitale Dienst sollte nun also in seine einzelnen Funktionen, wie den allgemeinen Dienstzustand, beteiligte Anwendungen und Diensteabhängigkeiten (Mapping) zerlegt werden. Außerdem sind die Parameter Reaktionszeiten des Endbenutzers, Sessions, forensische Diagnose, System- und Konnektivitäts-Zustand sowie die IT-Security zu berücksichtigen.

Auf Basis all dieser Kriterien kann der allgemeine Gesundheitszustand des jeweiligen Dienstes gemessen, quantifiziert und ausgewertet werden. Fehlerpotentiale lassen sich so identifizieren und Probleme in der Regel schneller beheben.

1. Allgemeinen Gesundheitszustand eines digitalen Dienstes definieren

In diesem Schritt empfiehlt es sich, eine sogenannte Baseline zu etablieren. Diese hilft zu verstehen, wie sich ein Dienst im Laufe der Zeit verändert oder wie er unter außergewöhnlichen Belastungen reagiert, etwa bei Produktionsspitzen. Dabei kann auch untersucht werden, ob sich der Dienst flexibel erweitert, wenn beispielsweise Cloud-basierte Komponenten dazu geschaltet werden. Sobald eine Baseline festgelegt wurde, kann diese mögliche Anomalien, die zu einer Verschlechterung des Services führen, aufzeigen. Die Baseline soll also den Normalzustand eines Dienstes definieren und als Ausgangszustand dienen, um einen Bezugspunkt für spätere Vergleichsanalysen zu haben.

2. Anwendungsfehler erkennen

Anwendungen werden in Testumgebungen unter meist optimalen Bedingungen erstellt und geprüft. In einer Produktionsumgebung muss die eingesetzte Anwendung jedoch mit anderen Komponenten fehlerlos interagieren – und wird somit zu einem System aus mehreren Variablen. Unternehmen sollten daher prüfen, ob sie nach Anwendungsimplementierung noch die Möglichkeit haben, Anwendungsfehler zu detektieren, die für die Anwendung selbst, den Anwendungsentwickler oder den Endbenutzer möglicherweise nicht erkennbar sind. Fehler können sich auch erst später bemerkbar machen, etwa in Form erhöhter Response-Zeiten.

Oft können sich Fehler auch in der Kommunikation zwischen den Komponenten eines Dienstes verbergen. Aus Redundanzaspekten haben Dienste mehrere Komponenten, die wiederum vielfältige Abhängigkeiten aufweisen, um den Dienst auszuführen, Benutzer zu authentifizieren und Informationen zwischen den Komponenten des Dienstes zu verteilen.

3. Dienstabhängigkeiten zuordnen: Service Dependency Mapping

Ein digitaler Dienst kann sich im Laufe der Zeit verändern, wenn etwa neue Komponenten zugeschaltet oder zusätzliche Aufgaben von ihm übernommen werden. Damit der Überblick nicht verloren geht, sollten Unternehmen definieren: Was macht einen Dienst aus, wie kommuniziert dieser und wovon ist er abhängig? Diese Übersicht (Logic Map) ist besonders hilfreich, wenn etwa eine System- oder Plattformmigration ansteht.

4. Antwortverhalten des Systems bezogen auf Endnutzer messen

Digitale Dienste werden neben Maschinen auch von Endanwendern, etwa Mitarbeitern, genutzt. Hierbei ist es ein wesentlicher Faktor, das Antwortzeitverhalten von Anwendungen (Response Time) zu messen, um die User Experience hoch und Produktivitätseinbußen gering zu halten. Sind diese Reaktionszeiten zu lang, sollten entweder eine Kapazitätserweiterung oder Fehlerbehebungsmaßnahmen eingeleitet werden. Haben Unternehmen keinen Überblick über die angesprochenen Diensteabhängigkeiten, gestaltet sich die Fehlersuche nach langen Reaktionszeiten jedoch oft zeit- und kostenintensiv.

5. Sessions: bestehende Verbindungen prüfen

Bei einem Dienst mit mehreren Komponenten besteht jede Interaktion zwischen den Komponenten aus mehreren Sessions. Jede Sitzung sollte überwacht und per Session Health Score bewertet werden. So ist es einfacher, fehlgeschlagene Sitzungen zu detektieren. Diese führen oft zu höheren Response-Zeiten und können auf mögliche Ressourcen-Engpässe hinweisen.

6. Forensik-Tools frühzeitig etablieren

Gibt es Probleme mit Ineffizienzen im System, müssen Unternehmen forensische Maßnahmen ergreifen. Damit ist es möglich, tiefergehende Ursachenforschung zu betreiben, um etwa Verbindungsprobleme innerhalb und zwischen den Diensten aufzudecken. Liegen jedoch zum Zeitpunkt der Fehlermeldung zu wenig forensische Daten vor, muss oft abgewartet werden, bis das Problem erneut auftritt. Ebenso verkürzen erst zu diesem Zeitpunkt eilig eingerichtete Forensik-Systeme die Zeit für die Fehlerbehebung nicht.

7. Systemmonitoring einbinden

Oft haben Unternehmen ein Systemmonitoring eingerichtet. Doch wie knüpft dieses an die oben genannten Themen an. Unternehmen müssen sich die Frage stellen, ob sie alle erwähnten Parameter mit einem gemeinsamen Datensatz verknüpfen können – oder ob alle Datensätze isoliert gesammelt werden, ohne dass sie miteinander in Beziehung gesetzt werden können.

8. IT-Sicherheit

Mit zunehmender Bedrohungslage ist auch der Aspekt IT-Sicherheit unbedingt zu berücksichtigen. So ist laut IT-Sicherheitsbericht 2018, den das BSI im Oktober veröffentlich hat, die Gefährdungslage im Bereich Cybersecurity in den vergangenen Monaten abermals vielschichtiger geworden. Gerade Distributed-Denial-of-Service (DDoS) -Attacken sind gefährlich. Bei einer DDoS-Attacke werden Server, Web-Dienste, IT-Komponenten oder die IT-Infrastruktur solange mit Datenverkehr überlastet, bis diese nicht mehr verfügbar sind. Laut Sicherheitsbericht von NETSCOUT Arbor gab es 2017 in der DACH-Region knapp 197.000 derartiger Cyber-Attacken. Organisationen und Unternehmen mussten also umgerechnet 22 DDoS-Angriffe pro Stunde abwehren.

Vor allem die Zahl von Multivektor-Angriffen wird künftig zunehmen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. Somit ist es also möglich, per DDoS-Attacke digitale Dienste zu schädigen oder lahmzulegen. Unternehmen sollten daher prüfen, wie sie ihre vernetzten Dienste mit geeigneten Security-Tools vor Ausfall und Datenabfluss schützen können.

Fazit

Gerade in der Smart Factory, aber auch anderen IIoT-Szenarien, in dem die hochgradige Vernetzung im Mittelpunkt steht, muss die eingesetzte Technologie reibungslos funktionieren. Geht es beispielsweise um vernetzte Maschinen, die schnell und selbstständig Entscheidungen treffen müssen, kann eine fehlerhafte Dienstkomponente gravierende Konsequenzen nach sich ziehen. So kann der Informationsaustausch zwischen Maschinen und Produkten beeinträchtigt werden und nachgelagerte Prozesse oder gar Produktionsschritte komplett zum Erliegen kommen. Digitale Dienste müssen also vielfältige Aufgaben übernehmen, steuern und dabei höchsten Anforderungen Rechnung tragen. Ein geeigneter, multidisziplinärer Ansatz, um Fehler und Störquellen im Vorfeld zu identifizieren, ist für Unternehmen daher erfolgskritisch.

Die Gewinner des digitalen Umbruchs sind etablierte Unternehmen

Unternehmen sehen sich einer Reihe von signifikanten Veränderungen gegenüber. Dazu gehört die digitale Transformation, die Organisationen von Grund auf verändert. Teil der digitalen Transformation ist die fortschreitende Vernetzung von Menschen, Geräten und Maschinen im Internet der Dinge (IoT) und seiner industriellen Ausrichtung, Industrie 4.0. Unternehmen wissen, dass am IoT kein Weg vorbei führt. Doch die Realisierung stellt viele Firmen vor signifikante Herausforderungen, denen sie sich häufig nicht gewachsen sehen. Damit die Vernetzung innerhalb des Internet der Dinge nicht nur ein Lippenbekenntnis bleibt, müssen Unternehmen allerdings umdenken. Doch nicht alle sind für diesen Wandel gerüstet. Auch wenn Start-ups oftmals technologisch im Vorteil sind: Beim Thema digitale Transformation haben etablierte Unternehmen die Nase vorn, so das Ergebnis einer aktuellen Infosys Studie. Grund dafür ist, dass sie sich bereits seit Jahren mit einer Reiher von Veränderungen hinsichtlich Technologien und Marktgegebenheiten auseinandersetzen müssen. Kontinuierlicher Wandel gehört damit für sie zur Normalität, während Start-ups dies zum ersten Mal erleben.

Der wahre Wandel beginnt im Kern eines Unternehmens

Die Studie teilt Firmen in drei Kategorien ein: Beobachter, Entdecker und Visionäre. Während sich Beobachter und Entdecker hauptsächlich auf neue Technologien wie künstliche Intelligenz (KI), Blockchain und 3D-Druck für ihre Initiativen der digitalen Transformationen fokussieren, haben Visionäre auch Technologien wie Mainframe- und ERP-Modernisierung im Blick. Denn sie sind der Meinung, dass es nicht ausreicht, einfach neue Technologien zu implementieren. Die Herausforderung, um die digitale Transformation zu realisieren, ist deutlich größer: Neue und bestehende Technologien müssen intelligent miteinander kombiniert werden, um einen Mehrwert für Unternehmen zu bieten. Darüber hinaus müssen Organisationen auch die Mitarbeiter entsprechend trainieren. Der momentane technologische Wandel kann sie überfordern. Entsprechende Schulungen und vor allem auch die Beteiligung der Unternehmensleitung können Teams abholen und entsprechen weiterbilden. Organisationen müssen sich daher von innen heraus wandeln – und dies auf allen Ebenen – um erfolgreich in der vernetzten IoT-Welt bestehen zu können. Denn ohne ein starkes Fundament können digitale Technologien ihr volles Potenzial nicht entfalten. Ein weiteres Ergebnis der Studie: das Engagement von Visionären, ihre Unternehmen von Grund auf zu modernisieren, führt zu höherer Produktivität und Effizienz.

Gleichzeitig werden Firmen auch flexibler und agiler – sie realisieren die Vorteile neuer Technologien wie künstliche Intelligenz und IoT schneller und integrieren sie ihn ihre Geschäftspläne und Lösungen. Damit sind sie schneller am Markt und ihren Wettbewerbern den entscheidenden Schritt voraus. Doch auch sie sehen Herausforderungen hinsichtlich der Realisierung ihrer Pläne.

Die größte Hürde – fehlende digitale Fähigkeiten

Die Frage nach Hindernissen auf dem Weg zur Digitalisierung beantwortete die Mehrheit der Befragten dahingehend, dass die größte Herausforderung darin besteht, digitale Kompetenzen aufzubauen. Dies unterstreicht den Mangel an verfügbaren digitalen Fähigkeiten. Der in Deutschland herrschende Fachkräftemangel ist sicherlich einer der Gründe, dass diese Fähigkeiten nicht ausreichend zur Verfügung stehen.

Der Wandel von einer risikoscheuen Organisation hin zu einem experimentierfreudigen Unternehmen (43 Prozent) sowie ein fehlendes Change Management (43 Prozent) folgten auf Platz zwei und drei. Sie unterstreichen die Unruhe und den Widerstand, die Veränderungen im Zusammenhang mit der digitalen Transformation hervorrufen. Unternehmen sollten sich Gedanken machen, wie sie die digitale Transformation, inklusive der Anforderungen des IoT, umsetzen können. Denn nur solche Organisationen, die in diesen Bereichen Fortschritte machen, werden künftig in einer immer vernetzteren Welt erfolgreich bestehen.

 

Realistische Erwartungen an das IIoT

Das Industrial Internet of Things (IIoT) ist für die meisten Unternehmen nach wie vor Neuland. Die Erwartungshaltung ist hoch, verspricht die umfassende Automatisierung, Konnektivität und Analytik doch ein Plus an Effizienz und damit Chancen auf Gewinnsteigerung und Kostenminimierung. Anwender, die zum ersten Mal in Richtung IIoT aufbrechen, erwarten dabei häufig ähnliche Vorteile und Verbesserungen wie durch Manufacturing Execution Systeme (MES). Die Wunschvorstellung: 100.000 im Sekundentakt erfasste Sensordaten und IIoT-Edge-Geräte, die über massive Skalierbarkeit und endlose Rechenleistung verfügen und die Daten in die Cloud übertragen.

Diese Vorstellung mag nicht ganz falsch sein, kann jedoch in einigen Fällen zu Enttäuschungen und Fehleinschätzungen führen. Nicht jedes Edge-Gerät bietet automatisch die nötige Bandbreite oder die Funktionen, um Daten wunschgemäß zu verarbeiten. Wie effizient und sinnvoll IIoT-Anwendungen tatsächlich sind, hängt immer von mehreren Faktoren ab und unterscheidet sich von Fall zu Fall. Selbst wenn die passende Edge-Hardware für ausreichend Konnektivität ausgewählt wurde, können trotzdem Einschränkungen in Bezug auf das Datenvolumen und Häufigkeit der Datenübermittlung auftreten.

Kostenfaktor und Sicherheit IIoT

Bei der Umsetzung eines industriellen IoT-Projekts ist es wichtig, genaue Informationen zu den betreffenden Edge-Geräten, Industrieprotokollen, Sensoren und Netzwerken vorliegen zu haben. Insbesondere betrifft das auch die Kosten jedes einzelnen IIoT-Bausteins. Edge-Geräte verfügen in der Regel über eine Vielzahl von Features, die mit unterschiedlichen Kosten verbunden sind. Dabei reicht die Spannweite von einigen Hundert bis zu Tausenden von Euros. Hinzu kommen hohe Netznutzungsentgelte – zum Beispiel für die Übertragung per Mobilfunk oder Satellit– sowie durch Kosten für die Datenspeicherung in der Cloud. Letztendlich ist das Ziel von IIoT-Projekten zwar die Optimierung der maximalen Wertschöpfung. Doch zunächst ist dabei immer auch mit Kosten zu rechnen.

Der Umgang mit den hohen Erwartungen ist ein wichtiger Aspekt eines jeden IIoT-Projekts. Ein mobiles Edge-Gerät mit niedrigem Stromverbrauch und geringen Onboard-Ressourcen ist schlichtweg nicht darauf ausgelegt, die Daten von 10.000 Sensoren in die Cloud zu übertragen. Realistischer ist es hier entweder das Datenvolumen auf 100 Sensordaten zu reduzieren oder ausreichende Ressourcen an der Schnittstelle zwischen Sensoren und Cloud zur Verfügung zu stellen, – einschließlich der nötigen Bandbreite für das Netzwerk.

Neben Kosten ist auch das Thema Sicherheit zu berücksichtigen. Eine absolute Garantie gibt es hier nicht, lediglich Best-in-Class Practices und bewährte Sicherheitsmaßnahmen. Sicheres IIoT kann als Kombination von zuverlässiger Hardware + Software + Installation + sicherer Kommunikationsprozesse verstanden werden. Sind in einem IIOT-Projekt diese Vorgaben erfüllt, lässt sich das Sicherheitsrisiko zumindest auf ein Mindestmaß reduzieren.

Die passende Anwendung

Grundlegendes Know-how in der Prozessinstrumentierung ist die Voraussetzung dafür, um die richtige Entscheidung bei der Auswahl der Geräte, Sensoren und Anwendungen treffen zu können. Dabei muss von vorherein klar definiert sein, welche Aufgaben durch den Einsatz von IIoT gelöst werden sollen. Klare Zielvorgaben erleichtern es, die passende Anwendung auszuwählen und gleichzeitig Anforderungen hinsichtlich des Prozessbetriebs, der Wartung und der IT-Teams im Unternehmen zu erfüllen. Nicht alle gesammelten Daten aus Edge-Geräten sind relevant für die geschäftlichen Anforderungen und rechtfertigen ein IIoT-Projekt.

IIoT-Anwendungen sind für komplexe Aufgaben konzipiert, um eine große Menge an Prozessdaten-Variablen und ihren Beziehungen untereinander zu verarbeiten und nutzbar zu machen. Gefragt sind Big Data Tools und hohe Rechenleistung. Es ist das Einsatzgebiet von Künstlicher Intelligenz, multivariater Analyse, Mustererkennung, Ereigniserkennung und maschinellem Lernen. Sämtliche Systeme und Anlagen für IIoT aufzurüsten, hilft Unternehmen nicht zum Durchbruch.

Vielmehr sollte die ausgewählte Lösung auf die spezifischen Anforderungen der Anlage und der Prozesse zugeschnitten sein (zum Beispiel kontinuierliche oder Batch). Soll beispielsweise ein Qualitätsproblem eines Assets behoben werden, sind mit hoher Wahrscheinlichkeit multivariate Analysetools notwendig. Handelt es sich um die Implementation von vorausschauender Wartung und Fehlerfrüherkennung mit dynamischen Modellen, empfiehlt sich eine Applikation für Maschinelles Lernen.

IIoT-Deployment

Auch in Sachen IIoT-Deployment gilt es, eine Vielzahl von Fragen zu beantworten: Soll die Anwendung cloudbasiert arbeiten oder On-Premise? Benötigt die Lösung High-Speed-Computing mit geringer Latenzzeit, um die Appplikation näher an das Edge-Gerät zu bringen? Und wie wirken sich die damit verbundenen Kosten auf das Return on Investment (ROI) aus?

Mit der Wahl der richtigen Konnektivität, der richtigen Sensoren und der richtigen Anwendung unter Berücksichtigung aller Kosten ist ein erster wichtiger Schritt in Richtung IIoT getan. Doch sollten Unternehmen sich bewusst sein, dass die Auswahl an Lösungen und Technologien in allen Bereichen von Tag zu Tag wächst. Umso wichtiger ist es, bei allen Vorteilen und Möglichkeiten des IIoTs realistische Erwartungen vorzugeben, die sich innerhalb der eigenen Unternehmensstrategie umsetzen lassen.

 

 

IoT braucht kein 5G

Laut einer Gartner-Studie wird das Internet der Dinge (IoT) bereits in zwei Jahren über 25 Milliarden Geräte umfassen. Vor allem Consumer Electronics wie Komponenten aus dem Heimnetz oder Smart Home gehören dazu. Aber auch immer mehr intelligente Maschinen, Autos, Smart Meter und ganze Smart Citys sorgen für eine steigende Vernetzungsrate. Nicht selten kommt dabei Mobilfunktechnologie zum Einsatz – allerdings mitnichten der derzeitige Topstandard 4G. Schließlich geht es bei den meisten IoT-Anwendungen nicht um hohe Bandbreiten wie etwa beim mobilen Internet für Endkunden, sondern um die verlässliche Übertragung von zumeist kleineren Datenpaketen. Auch der Energieverbrauch spielt eine Rolle.

In vielen Unternehmen mangelt es an IoT-Know-how

„Die Bandbreiten und Geschwindigkeiten von 3G, 2G oder auch GSM reichen in den meisten Fällen absolut aus, um etwa im Industrie 4.0-Umfeld Informationen zwischen Maschinen auszutauschen“, sagt Peter Matthes von Siwaltec. Das Unternehmen hat sich als Teil der TGE Gruppe auf SIM-Kartenlösungen spezialisiert. „4G oder gar das zukünftige 5G spielen dabei eine untergeordnete Rolle“, so Matthes. Der Trend, dass die Bandbreite immer höher werden müsse, treffe auf Mobilfunk-basierte IoT-Lösungen für Unternehmen eher nicht zu. „Hier kommt es vielmehr darauf an, stabile und verlässliche Übertragungen zu gewährleisten, die nicht zu viel Energie beanspruchen.“ Dass dennoch viele Unternehmen 5G entgegenfiebern, obwohl es für die meisten IoT-Anwendungen weitgehend irrelevant ist, zeigt laut Matthes, dass es in den Unternehmen weiterhin an entsprechendem Fachwissen mangelt. Statt willkürlich in neue Technologien zu investieren, sollten die Unternehmen sich zunächst auf die Grundlagen fokussieren und nötigenfalls externe Experten hinzuziehen.

Narrowband-IoT dringt bis in den Keller vor

Die Tatsache, dass 4G und 5G eher nicht die Lösung für derzeitige und wohl auch zukünftige IoT-Lösungen sind, bedeutet allerdings nicht, dass neuere Mobilfunkstandards komplett ignoriert werden sollten. Denn mit dem sogenannten Narrowband-IoT gibt es mittlerweile einen eigens fürs Internet der Dinge entwickelten Mobilfunkstandard – wie man schon am Namen erkennen kann.

Wie etwa GSM eignet sich Narrowband-IoT für Anwendungen, die geringe Datenraten benötigen. Batteriebetriebene Geräte wie Rauchmelder oder Stromzähler funktionieren so zuverlässig bis zu zehn Jahre, bevor die Batterien ausgetauscht werden müssen. Vor allem aber dringt Narrowband-IoT bis tief in Gebäude vor, sodass selbst Gerätschaften im Kellergeschoss per Mobilfunk mit dem Internet of Things verknüpft werden können.

Laut Oliver Wierichs, Principal Manager IoT Devices bei Vodafone, ergeben sich durch die reduzierte Datenrate im Vergleich zu 4G/LTE zudem deutliche Einsparungen bei der Hardware. „Man verwendet kleinere Prozessoren, weniger Speicher und auch das Funkmodul wurde vereinfacht, ohne dabei auf wichtige Eigenschaften des Mobilfunks, wie beispielsweise Sicherheit und Verschlüsselung, zu verzichten“, erklärte Oliver Wierichs kürzlich in einem Gespräch mit dem Verband der Internetwirtschaft, eco.

Laut der GSM Association (GSMA) gibt es auf internationaler Ebene bereits über 50 Narrowband-IoT-Netze. Allein auf Vodafone gehen dabei weltweit zehn kommerzielle Netze zurück. „Unsere Labors sind ausgebucht und wir testen mit Hunderten von Kunden weltweit“, berichtet Oliver Wierichs. „In Deutschland haben wir rund 90 Prozent der 4G-Basisstationen mit Narrowband-IoT ausgestattet.“ Insofern ist 4G dann doch wieder nützlich, um die Entwicklung des Internet of Things weiter voranzutreiben.

Cybersicherheit in der Industrie: Kein Zutritt für Trojaner, Viren und Co.

Hacker können im Zuge der Digitalisierung von Prozessen Sicherheitslücken leichter ausnutzen und Maschinen und Geräte infizieren. Laut einer aktuellen Bitkom-Studie hat die Anzahl von Cyberattacken in den vergangenen zwei Jahren für 84 Prozent der Industrieunternehmen zugenommen. Dadurch sind Angreifer in der Lage, die komplette IT-Landschaft eines Unternehmens lahmzulegen. Eine passende Firewall schafft Abhilfe. Sie schützt Unternehmen vor Cyberbedrohungen und erhöht die firmeninterne IT-Sicherheit. Doch worauf sollte man bei der Wahl einer passenden Firewall achten?

In der Industrie 4.0 verzahnen sich Prozesse mit modernster Informations- und Kommunikationstechnik. Maschinen und Produkte sind zunehmend softwaregesteuert und kommunizieren miteinander. Damit steigt auch die Flexibilität der Produktion. Die Vernetzung von Mensch, Maschine und industriellen Prozessen ist somit ein wichtiger Faktor für die Produktivität und verändert nachhaltig die Art und Weise, wie Unternehmen zukünftig produzieren und arbeiten. Gleichzeitig birgt die digitale Vernetzung jedoch ein großes Bedrohungspotenzial. Cyberangriffe auf industrielle Anlagen und kritische Infrastrukturen führen zu Imageschäden, stören den Geschäftsbetrieb, verursachen Datenverluste und können Menschen gefährden. Für einen unterbrechungsfreien Ablauf der industriellen Prozesse müssen die IT-Systeme deshalb umfassend abgesichert sein.

Firewall: Der „Tower“ hat alles im Blick

Eine Firewall schützt die gesamte IT-Landschaft, indem sie Cyberbedrohungen abwehrt. Sie ist daher ein unverzichtbarer Bestandteil der firmeninternen IT-Sicherheitsstrategie. Eine Firewall agiert längst nicht mehr nur wie ein Türsteher, der die Eingangstür zum Datenparadies mit essenziellen Unternehmensinformationen und zu Prozessen bewacht sowie unerwünschten Gästen wie Trojanern, Viren und anderen Schädlingen den Zutritt verwehrt. Inzwischen fungiert sie eher wie ein Tower am Flughafen. Dieser ermöglicht, über das ganze Informationssystem hinweg das Geschehen im Netzwerk zu kontrollieren und darüber hinaus potenzielle Bedrohungen zu beobachten und präventiv abzuwehren.

Firewall – worauf achten?

Zunächst sollten die Verantwortlichen die aktuellen und zukünftigen Sicherheits­anforderungen des Unternehmens identifizieren und vorausschauend planen: Bandbreite, auszulagernde Dienste, Zugang zu Netzwerkressourcen für Personen, die nicht physisch vor Ort sind und so weiter. Angesichts der fortschreitenden Digitalisierung und der sich immer schneller wandelnden Anforderungen ist es wichtig, auf flexible Technologien zu setzen, die sich an unterschiedliche Bedürfnisse wie beispielsweise die zunehmende Migration in die Cloud anpassen lassen. Zudem sollten IT-Verantwortliche auf offizielle Sicherheitsgütesiegel achten. In Europa prüfen zentrale Zertifizierungsstellen wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) oder in Frankreich die Nationale Agentur für Sicherheit der Informationssysteme (ANSSI) auf Antrag Dienstleister oder Produkte. Eine Produktzertifizierung bestätigt, dass das Produkt bestimmte funktionale und sicherheitsrelevante Eigenschaften erfüllt, die in Schutzprofilen, Sicherheitsvorgaben oder technischen Richtlinien festlegt sind. Eine Firewall sollte sich zudem leicht in die firmeninterne Landschaft integrieren lassen und für den Anwender einfach zu bedienen sein.

Die Aufgaben einer Firewall

  • Datenverkehr des Netzwerks filtern:
    Analyse und Kontrolle des gesamten Datenverkehrs
  • Einen sicheren Zugang bereitstellen:
    Gewährleistung eines sicheren Informationsaustauschs – sowohl On-Premises als auch in der Cloud
  • Potenzielle Gefahren erkennen:
    Erfassung und Blockierung von möglichen Bedrohungen
  • Netzwerkfehler korrigieren:
    Feststellung und Beseitigung von Schwachstellen im Netzwerk

Fazit

Das Konzept der Industrie 4.0 eröffnet vielen Unternehmen neue Wertschöpfungsmöglichkeiten. Gleichzeitig birgt es neue Gefahren durch gezielte Angriffe von Hackern. Der Schutz von sämtlichen firmeninternen IT-Systemen und -Prozessen sollte daher in Unternehmen höchste Priorität haben. Als Grundlage für umfassende Sicherheit ist eine passende Firewall ein unverzichtbarer Bestandteil des IT-Sicherheitskonzepts. Sie analysiert den gesamten Datenverkehr, verhindert Cyberattacken auf IT-Systeme und schützt das Netzwerk vor unbefugten Zugriffen.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.

 

IIoT-Plattformen im Überblick: die größten Anbieter und eine plattformunabhängige Anwendung

Es gibt eine Vielzahl von Anbietern am Markt – aktuell können Unternehmen aus 450 Plattformen wählen. Die bekanntesten im Bereich Industrial Internet of Things kommen von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister Elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch die unabhängige Lösung nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten diese Knotenpunkte für systemübergreifende Verknüpfungen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen bieten bereits ein großes und umfangreiches Set an Werkzeugen, welches den Start ins IIoT erleichtert.

Zum Überblick:

  • AWS: Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services (AWS). Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.
  • Azure: Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich. Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.
  • Google Cloud Platform: Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.
  • Dataface: Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden. Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-Case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things einsteigen.

 

Business Intelligence für die Fertigung

Der Grund ist naheliegend, denn produzierende Unternehmen gehen in beträchtlichem Umfang in Vorleistung: Sie verarbeiten hochwertiges Material, fertigen Produkte und geben Geld für Service, Qualitätssicherung und Produktzertifizierungen aus. Und das alles auf den teilweise weniger detaillierten Verdacht hin, dass ihre Erzeugnisse beim Kunden auf Gegenliebe stoßen. Eine gut integrierte Business-Intelligence-Lösung hilft da deutlich weiter als das bloße Bauchgefühl.

Sind Kundenbefragungen schon Schnee von gestern?

Unternehmen orientieren sich selbstverständlich an der aktuellen Kundennachfrage – soweit sie ihnen bekannt ist. Doch aus Umfragen, einfachen Verkaufsstatistiken und dem (oft durchaus richtigen) Bauchgefühl der Vertriebsmitarbeiter entsteht kein objektives, individuelles Bild über den gegenwärtigen Bedarf der Kunden – weder hinlänglich schnell, noch umfassend genug und auch nicht zu jeder gewünschten Zeit. Zudem sind fundierte Vorhersagen zu künftigen Bedürfnissen oder dem Kundenverhalten, wenn dieses oder jenes Ereignis eintritt, so kaum möglich. Auch ist der heutige Kunde digital und mobil. Er kann jederzeit und überall auf jegliche Informationen zugreifen. Und so erwartet er auch von einem Unternehmen einen Rundum-Service – optimale Betreuung zu jeder Zeit, an jedem Ort.

In den Kunden hineinblicken

Um die Kundenbeziehung bestmöglich zu gestalten, muss man seinen Kunden also zunächst erst einmal genau kennen. Welchen Bedarf hat er wirklich? Wann benötigt er welche Information? Was bestimmt seine Entscheidungen? Diese kundenspezifischen Daten sind zentral zu erfassen. Aus ihrer Analyse leiten sich dann passgenaue Maßnahmen ab, die das Verhältnis zum Kunden positiv beeinflussen. Glücklicherweise stehen den Unternehmen elektronische Helfer zur Seite, die die vorhandenen Kundendaten analysieren, sie mit Daten weiterer Systeme verknüpfen und dem Unternehmen zu jedem seiner Kunden, zu jeder Zeit, über jedes Produkt, zu jedem Standort und so weiter entsprechende Erkenntnisse liefern. Und sind die Analyseergebnisse noch so gut grafisch aufbereitet, dass sie auf einen Blick zu erfassen sind, dann kann man jedem Kunden in Echtzeit die für ihn optimale Betreuung angedeihen lassen und hinsichtlich Produktentwicklung, Service-Angeboten oder Marketingaktionen die richtigen Weichen stellen.

Das CRM-System – Die Basis für jedes Kundenverständnis

Der Nutzen eines umfassenden Customer Relationship Managements ist allgemein anerkannt. Dennoch verwenden laut einer aktuellen Nutzerstudie von Capterra nur rund ein Viertel der deutschen KMUs professionelle CRM-Software. Der überwiegende Teil greift bei der Kundenverwaltung und -pflege auf manuelle Tools wie Excel, E-Mail-Programme und Google Sheets zurück. Eine klare Mehrheit der deutschen KMUs, die derzeit kein CRM-System nutzen, ist allerdings daran interessiert, das zu ändern. Damit stehen sie nicht allein: Laut Gartner waren CRM-Systeme im vergangenen Jahr weltweit die umsatzstärkste Sparte im Software-Markt und es ist 2018 mit weiteren zweistelligen Zuwachsraten zu rechnen. Zu den international führenden Anbietern für CRM-Software zählt Microsoft mit seinem Microsoft Dynamics 365.

Die Produktvielfalt des Branchenprimus

Dynamics 365 lässt sich natürlich bestens mit anderen MS-Produkten kombinieren. Die Programme verstehen sich, sind quasi aus einem Guss. Möchte man das CRM-System beispielweise mit Outlook oder dem Berufs-Netzwerk von LinkedIn verzahnen, so ist das mit dieser Software möglich. Für den Nutzer besonders komfortabel: eine einheitliche Oberfläche aller Microsoft-Produkte. Außerdem verfügt die Software über eine leistungsstarke Vertriebsautomatisierung und verschiedene passende Business-Intelligence-Tools, mit denen sich die im CRM-System erfassten Daten auswerten lassen – auch in Verbindung mit Daten aus anderen Quellen. Eines dieser Tools ist Power BI.

Ein Bild sagt mehr als tausend Worte

Viele Menschen sind visuell orientiert. Grafiken eignen sich daher sehr gut, um Ergebnisse zu veranschaulichen. Ein besonders performantes System zur Visualisierung und zum Dashbording ist Power BI. Dahinter verbergen sich mehrere Daten-Analyse-Tools, mit denen sich beispielsweise KPIs anschaulich darstellen lassen. Der Anwender kann die Daten mit einem Mausklick filtern, das Ergebnis erscheint sofort als Grafik. Filter helfen dabei, neue Zusammenhänge zu finden und Trends abzulesen. Der Nutzer kann zudem seine eigene, intuitiv bedienbare Dashboard-Funktionalität erstellen, was sich positiv hinsichtlich Handling und Akzeptanz auswirkt. Einmal in die vorhandene IT-Landschaft integriert, sollte man die volle Leistungsfähigkeit des Tools ausschöpfen und Daten aus weiteren Quellen in die Analyse einbeziehen. Das könnten Daten aus PPS- und Geotracking-Systemen, physikalische Messwerte oder Informationen eines Analytic-Tools für die Webseite sein.

Einblicke für das Management

Im Produktionssektor kann beispielsweise eine Pareto-Analyse dem Management anzeigen, welches die häufigsten Ursachen für Probleme sind. Das quasi per Knopfdruck erzeugte Pareto-Diagramm macht sofort klar, wo der größte Engpass im Fertigungsprozess liegt. Dies lässt sich bei Bedarf auch unkompliziert und schnell auf einzelne Produkte, Standorte oder Kundenbranchen herunterbrechen. Ein weiteres, in Industrieunternehmen verbreitetes Einsatzgebiet ist das Qualitätsmanagement. Die Datenanalyse liefert im Handumdrehen umfassende Informationen über Kundenreklamationen – auf Wunsch aufgesplittet nach Abteilung oder Produkt. Mit diesem Wissen wird die Unternehmensleitung umgehend Gegenmaßnahmen in die Wege leiten, was letztlich im Interesse des Kunden ist. Überdies wird es der Kundenpflege in der Regel förderlich sein, den Kunden zeitnah zu informieren, sobald ein Qualitätsmangel abgestellt wurde, eventuell flankiert von geeigneten Vertriebsaktionen, etwa einem Rabattangebot.

Den Kunden nie aus den Augen verlieren

Seinen Kunden im Blick zu haben, ist gut. Seinen Kunden stets, mit möglichst geringem Aufwand und ganz genau im Blick zu haben, ist besser. Power BI erlaubt es, Kundendaten effektiv zu nutzen und zu analysieren. Die Ergebnisse dienen dazu, Prozesse, insbesondere beim Customer Engagement, zu steuern und sie sorgen dafür, dass ein Unternehmen im Hinblick auf die Kundenwünsche auf dem Laufenden bleibt und ihn optimal betreuen kann.

NGFW: Neue Dimensionen der Netzwerksicherheit

Unternehmen sind heute durch verteilte Organisationsstrukturen gekennzeichnet: Es gibt häufig viele verschiedene Standorte, Firmenangehörige sowie Freelancer arbeiten flexibel in unterschiedlichen Büros, im Home-Office oder mobil. Dafür muss eine hohe Netzwerk-Konnektivität gewährleistet werden. Auch Interaktive Software-as-a-Service (SaaS)-Applikationen wie beispielsweise Office 365 erfordern äußerst schnelle, performante Verbindungen mit geringen Latenzzeiten.

Auch Bedrohungen aus dem Cyberspace stellen immer neue Anforderungen an die Netzwerksicherheit. Ransomware und Spionage-Software, welche über Exploits Zugang zum Unternehmensnetzwerk erhalten, beeinträchtigen die Funktionsweise von Netzwerkdiensten. Eine noch höhere Gefahr geht von sogenannten Evasions aus. Dabei handelt es sich um getarnte Exploits, welche den Netzwerkverkehr verschleiern, so dass die Übertragungsprozesse nicht zweifelsfrei erkannt werden können. Angriffe durch bestehende Signaturen und andere grundlegende Funktionen lassen sich so nur schwer stoppen.

Traditionelle Netzwerk-Security-Lösungen helfen hier nicht mehr weiter. Sie sind nicht in der Lage, eine ausreichende Verfügbarkeit von Daten und Anwendungen über verschiedenste Geräte, Netze und Zugriffspunkte hinweg zu gewährleisten. Zudem sind sie extrem anfällig gegenüber modernen Angriffsvarianten und lassen sich kaum skalieren und damit nur schwer an die spezifischen Anforderungen im Unternehmen anpassen.

Um diese Herausforderungen erfolgreich zu stemmen, müssen die Firmennetzwerke hinsichtlich Konnektivität, Sicherheit sowie Web- und Cloud-Fähigkeit in ein ganzheitliches Gesamtkonzept eingebunden werden. Moderne Next-Generation-Firewall-Lösungen (NGFW) sind in der Lage, Tausende von Firewalls, IPSs, VPNs und SD-WANs in nur wenigen Minuten über eine zentrale Konsole zu installieren und in Betrieb zu nehmen. Dabei lässt sich das System bedarfsgerecht skalieren und individuell an das Wachstum der jeweiligen physischen und virtuellen Unternehmensnetzwerke anpassen. Dies ermöglicht das Management hocheffizienter Prozesse in verteilten Firmennetzwerken. So sind alle Daten und Anwendungen in der gesamten IT-Infrastruktur verlässlich geschützt – egal ob im Rechenzentrum, an den verschiedenen Firmenstandorten oder in der Cloud.

NGFW bietet Anwendern umfassende Transparenz und einen 360-Grad-Blick auf die gesamte Netzwerk-Architektur. Neben der Verringerung der Komplexität können die Netzwerkkosten gesenkt, Ausfallzeiten um bis zu 50 Prozent reduziert und IT-Risiken signifikant verringert werden.

P.S.: Zum Thema „Smarte Produktionsanlagen sicher betreiben“ findet bei uns ein kostenfreies Webinar statt. Hier geht’s zur Anmeldung.

Industrie 4.0 zum Anfassen

Seit der Firmengründung 2010 verzeichnet die Firma aus dem hessischen Limburg an der Lahn ein kontinuierliches Wachstum und mittlerweile sind die EMS-Experten auch im Joint Development Manufacturing (JDM) tätig. In dieser Funktion bauen sie für ihre Kunden aus Industrie, Automobilbranche sowie Medizin- und Sicherheitstechnik maßgeschneiderte Prototypen und übernehmen später auf Wunsch die Serienproduktion.

Das Unternehmen engagiert sich außerdem im Verein Smart Electronic Factory e.V. (SEF). Dort entstehende Konzepte und Szenarien werden im eigenen Unternehmen umgesetzt – unter anderem durch die Kombination intelligenter Technologien mit Lean-Management-Prozessen. Die ERP-Komplettlösung Proalpha kann hierbei als Schaltzentrale der intelligenten Fabrik fungieren.

Einheitliche Plattform für alle Prozesse

„Die Vorgänger-ERP-Lösung hielt den gestiegenen Anforderungen nicht stand und stieß immer mehr an ihre Grenzen”, erinnert sich Geschäftsführer Gerd Ohl. Deshalb wurde nach einer einheitlichen Plattform gesucht, die alle Prozesse entlang der gesamten Wertschöpfungskette steuern kann: vom Einkauf und der Materialwirtschaft über die Produktion und den Vertrieb bis hin zum Finanz- und Rechnungswesen. Gleichzeitig sollte das neue ERP-System das künftige Wachstum im In- und Ausland flexibel unterstützen.

Laut Georgios Giantsios, Geschäftsführer bei Limtronik, lassen sich mit dem neuen ERP-Komplettsystem heute sämtliche Geschäftsprozesse effizient aufeinander abstimmen und bedarfsgerecht steuern, automatisieren und kontrollieren. Dazu tragen unter anderem das integrierte Workflow Management und das Dokumenten Management System (DMS) bei.

In der Produktion stellt die Multiressourcenplanung Advanced Planning and Scheduling (APS) sicher, dass Material, Fertigungsanlagen und Personal optimal eingesetzt werden können. In den verschiedenen Unternehmensbereichen gewährleisten zudem die Business-Intelligence-Cockpits eine hohe Transparenz. „Dadurch haben wir jederzeit den kompletten Überblick über alle wichtigen Zahlen und können schnell die richtigen Entscheidungen treffen”, unterstreicht Gerd Ohl.

Lückenlose Traceability als Wettbewerbsvorteil

Ein ausschlaggebender Punkt bei der Entscheidung war auch die nahtlose Integration mit dem Manufacturing Execution System (MES) von Itac. Denn dieses bildet die Brücke zwischen Produktions- und Planungsebene und ermöglicht unter anderem die lückenlose Rückverfolgbarkeit der verwendeten Bauteile.

Diese Traceability ist eine der größten Herausforderungen für die EMS-Branche. Alle Produkte, alle verwendeten Leiterplatten und die darauf befindlichen Bauteile müssen umfassend rückverfolgt werden können. Wenn später Mängel auftreten, lässt sich die Fehlerquelle damit schnell eingrenzen.

In der Medizintechnik ist Rückverfolgbarkeit sogar gesetzlich vorgeschrieben. Andere Branchen – zum Beispiel die Automobilindustrie – wollen damit bei Reklamationen etwaige Rückrufaktionen nur für die wirklich betroffenen Fahrzeuge starten. „Wer eine lückenlose Traceability nachweisen kann, hat einen klaren Wettbewerbsvorteil”, so Giantsios.

Bei Limtronik werden deshalb sämtliche Zulieferteile beim Wareneingang über einen speziellen Wareneingangstisch gezogen. Dadurch gelangen die notwendigen Traceability-Daten zuerst in das Materialwirtschaftsmodul und dann automatisch in das MES. Pro Verpackungseinheit wird eine eindeutige Nummer erzeugt, die neben anderen Informationen auf einem Etikett steht. Das Etikett wird auf das Gebinde des Bauteils geklebt. In der Fertigung erfasst dann das MES, wo diese Komponenten genau verbaut wurden.

So ist die Lösung in der Lage, auf unterschiedliche Traceability-Anforderungen der Kunden zu reagieren, etwa mit eigenen Seriennummern, der Erfassung geometrischer Daten oder der Bündelung von Baugruppen. Zukünftig sollen im Zuge dieses Industrie-4.0-Konzepts die Auftraggeber mit Limtronik vernetzt werden. Über einen abgesicherten Zugang gelangen sie dann an die entsprechenden Daten im ERP-System. Bei Feldausfällen oder im Servicefall kann dann anhand der Seriennummer festgestellt werden, welche Fehler welche Ursache haben.

Mit Data Mining Fehler vorausschauend erkennen

Die häufigsten Fehler in der Leiterplattenbestückung sind Zinnschluss, ungenaue Positionierung, das Fehlen eines Bauteils und der berüchtigte Tombstone-Effekt. Dieser tritt beim sogenannten Reflow-Löten von elektronischen Bauteilen auf, die sich währenddessen auf der Leiterplatte einseitig aufstellen. Die nach oben stehende Seite ist dann nicht mehr elektrisch kontaktiert, das Bauteil wirkt wie ein Grabstein. Deshalb der englische Name „Tombstone“. Um hier wirksam gegensteuern zu können, plant das hessische Unternehmen als nächsten großen Schritt in Richtung Industrie 4.0 ein Datamining-Projekt. „Wir streben einen intelligenten Big-Data-Analytics-Regelkreis an, in dem Qualitäts-, Prozess- und Maschinendaten stetig analysiert werden“, erläutert Gerd Ohl. Damit sollen die Qualität weiter gesteigert und die Liefertreue verbessert werden. „Längerfristiges Ziel ist eine produktionsspezifische Vorhersage von Wartungsintervallen für unsere Fertigungsanlagen, die mithilfe eines Algorithmus gesteuert wird“, betont Ohl.

Denn mit dieser vorausschauenden Wartung (Predictive Maintenance) lässt sich sicherstellen, dass der laufende Produktionsvorgang möglichst wenig bis gar nicht unterbrochen werden muss. „Solche Industrie-4.0-Szenarien mit einem flexiblen ERP-System wie Proalpha umzusetzen“, so Gerd Ohl, „macht sich schnell bezahlt.“ Um etwa den Tombstone-Effekt nachträglich zu beheben, fallen Kosten von rund sechs Euro je Leiterplatte an. „In einer Vorserienfertigung kann das bereits Ausgaben von über 30.000 Euro bedeuten“, rechnet der Geschäftsführer vor. In bestimmten Fällen potenzieren sich die Kosten leicht auch auf das 10-Fache. Ziel muss daher sein, derartige Produktionsfehler von vornherein zu vermeiden, beziehungsweise zu minimieren.

Dieses Szenario zur Qualitätssteigerung in der Produktion stieß auch auf dem nationalen IT-Gipfel 2017 der Bundesregierung auf große Resonanz. „Es lässt sich einfach auf andere Branchen übertragen und kann im Idealfall durchaus als Standardanwendung für mittelständische Fertigungsbetriebe etabliert werden“, hofft Gerd Ohl.

Limtronik sei auf dem Weg zur Industrie 4.0 inzwischen bei der Version 3.8 angelangt und habe für die nächsten Jahre bereits eine Reihe weiterer Digitalisierungsprojekte definiert. „Am Ende werden in unserer Fabrik Maschinen stehen, die sich selbst steuern“, blickt der Geschäftsführer in die Zukunft.