Archiv der Kategorie: IOT – IoT-Praxis

Der Weg in die Cloud ist unumgänglich

Mittelständische Unternehmen sind Experten in ihrer Nische. Um spezifische Aufgaben zu lösen, nutzen sie oft sehr spezifische IT-Lösungen, die die Effizienz im jeweiligen Arbeitsumfeld erhöhen. Diese Teilspezifizierung der IT ist einerseits notwendig, steht aber andererseits häufig der Entwicklung und Umsetzung einer IT- und Digitalisierungsstrategie im Weg. Fehlt diese übergreifende Strategie, finden viele Prozesse, die man mittels Software optimieren könnte, zu wenig Beachtung. Unmengen an Daten und Systemen sind dann nicht in die IT-Systemlandschaft integriert. Zudem haben viele Mittelständler nicht genügend IT-Fachpersonal und laufen darum Gefahr, den Anschluss an die fortschrittlichere Konkurrenz zu verlieren. Die Lösung: eine zukunftsweisende IT-Strategie, die ein gut positionierter CIO zielstrebig verfolgt.

Strategische Beratung und Unterstützung

Zu den Hauptaufgaben eines CIO zählt es heute komplexe, zerklüftete und heterogene IT-Strukturen, die über die Jahre als Ergebnis lokal optimierter Einzellösungen entstanden sind, aufzulösen. Solch eine Integration stellt angesichts einer siloartigen IT-Architektur und der fehlenden Gesamt-Roadmap häufig eine große Herausforderung dar. In solch einem Fall empfiehlt sich die Zusammenarbeit mit einem professionellen IT-Dienstleister, der Unternehmen strategisch berät und begleitet. Er unterstützt und berät bei der Anpassung der Geschäftsmodelle, erarbeitet eine passende IT-Strategie und migriert die gewünschten Lösungen in die Cloud – im Sinne eines Smart-Shift. Diese Transformation, die alle Cloud-Ebenen (PaaS, IaaS, SaaS) berücksichtigt, sollte schrittweise, bedarfsorientiert und im laufenden Betrieb erfolgen. Ein Smart-Shift ist zugleich strukturiert und risikoarm, und er kann im individuellen Tempo des Mittelständlers geschehen.

Multi-Cloud-Ansatz ist empfehlenswert

Die größtmögliche Flexibilität bietet ein Multi-Cloud-Ansatz. Die Entscheidung, welche Lösungen man in der Private-Cloud eines deutschen Anbieters betreibt und welche Anwendungen und Systeme man in internationale Public-Clouds auslagert, ist nicht leicht. Ein IT-Dienstleister zeigt verschiedene Möglichkeiten auf, skizziert adäquate Szenarien und erarbeitet eine bedarfsgerechte Kombination von dedizierten IT-Lösungen und verschiedenen Clouds. Er lagert Applikationen und Systeme in die Private-Cloud aus, bindet Public-Clouds möglichst sicher an die IT-Infrastruktur an und sorgt dafür, dass sich bei Bedarf im Projektverlauf weitere Services aus der Public-Cloud einbinden lassen.

Agilität ist Trumpf

Die Modernisierung veralteter IT-Strukturen ist ein Aspekt. Viele Mittelständler wollen aber auch ebenso agil, flexibel und effizient arbeiten können wie Startups. Eine cloudbasierte IT-Infrastruktur ist eine wichtige Voraussetzung für Agilität. Entscheidend ist zudem der richtige Mix aus Standardisierung und Individualisierung: Die Software-Basis sollte möglichst homogen sein, während einzelne Lösungen funktional angepasst sein müssen. Eine agile Arbeitsweise kommt mittelständischen Unternehmen bei der eigenen Transformation und bei Kundenprojekten zugute. Um agil arbeiten zu können, müssen sich Mittelständler von etablierten, aber schwerfälligen Prozessen verabschieden. Es gilt, mutig zu sein und sich schnell zu entscheiden. Anstatt monatelang ein Pflichtenheft zu erarbeiten, braucht es kurze Sprints, in denen IT-Experten kleine Teilaufgaben umsetzen – und dann analysieren, ob Ergebnis und Herangehensweise sinnvoll sind. Ist das der Fall, bilden solche Quick-wins eine optimale Basis für das weitere agile Vorgehen. Entpuppt sich ein Ansatz als wenig erfolgsversprechend, sollten Unternehmen das Ergebnis verwerfen und einen neuen Versuch starten. Flexibilität ist auch bei der Projektarbeit gefordert. Es braucht ein Kern-Team, das ein Projekt über seine gesamte Dauer begleitet und für Stabilität sorgt. Daneben ist es sinnvoll, Mitarbeiter mit ergänzenden Fähigkeiten für spezielle Aufgaben ins Boot zu holen. Sie können unvoreingenommen an eine Herausforderung herangehen, sie mit anderen Augen sehen und kreative Lösungsansätze entwickeln.

Kleine Schritte – große Wirkung: Drei Grundsätze für eine erfolgreiche Digitalisierung

Schritt 1: Notwendigkeit erkennen

Anzeichen für die Notwendigkeit, über Digitalisierungsvorhaben dringend nachdenken zu müssen, gibt es viele und auf fast jeder Unternehmensebene. Doch es gilt, sie zu erkennen und ernst zu nehmen.

So ist etwa die Tatsache, sich bei weitreichenden Entscheidungen auf das Bauchgefühl statt auf valide Kennzahlen verlassen zu müssen, für viele Manager heute noch bittere Realität und sollte die Verantwortlichen aufhorchen lassen. Regelmäßig wird es vor Strategie-Meetings hektisch, und Mitarbeiter müssen für das Erstellen flüchtiger Reports Überstunden machen. In der Regel fehlt es anschließend auch noch an einer Vernetzung der Daten, um eine Aussage zu überprüfen oder um ‚hier‘ gewonnene Erkenntnisse ‚dort‘ nutzbringend zu verarbeiten.

Ein anderes Problem und sicheres Signal für notwendige Veränderungen sind die ‘ungeschliffenen Rohdiamanten‘ in der Produktion. Dort wird Telemetrie gerne noch mit dem Klemmbrett gleichgesetzt, statt vernetzte Mess- und Regelsysteme auch über große Entfernungen (IoT) anzusprechen und zu nutzen. Ein sicheres Alarmsignal ist schließlich, wenn Daten ‘immer wieder‘ statt ‘ständig‘ aufgenommen werden müssen und unvernetzte Steuerungsprozesse nicht die Ausnahme, sondern die Regel sind.

Schritt 2: Mut zur Technik

Sind die Notwendigkeit und die Stellschrauben, an denen gedreht werden muss, erkannt, gilt es die technologischen Optionen abzuklopfen. Denen sind heute kaum mehr Grenzen gesetzt. Aussagen wie „An der Maschine ist aber kein Netzanschluss möglich!“ oder „Die Datenbank ist in Ihrer Größe begrenzt!“ können und dürfen heute nicht mehr Gründe für einen mangelnden Fortschritt der Digitalisierung sein. Wer hier zögert, sollte einen Blick in den südamerikanischen Dschungel wagen. Hier liefern heute Telemetriedaten die Basis für die Beauftragung einer Wartungscrew, da die Leitstelle in Frankfurt am Main erkannt hat, dass der Druck einer Pipeline um 0,001 mbar abgesunken ist. Alles in Echtzeit und über vernetzte Systeme.

Schritt 3: Prozesswissen im eigenen Haus

Die Auftragslage für externe Berater in allen Bereichen war noch nie so gut wie heute. In fast jedem Projekt sind die Schlüsselrollen mit Business-Analysten der TOP-Beratungshäuser besetzt, die eigenen Leute übernehmen die kleinteilige Arbeit. Nie zuvor war das Risiko höher, sich in eine andauernde und zudem teure Abhängigkeit zu begeben wie im Rahmen eines Digitalisierungsvorhabens, welches nicht hinreichendes, internes Wissen/Kompetenz aufweisen kann. Schritt drei heißt also, einen eigenen Chief Digital Officer als kreativen Kopf des Vorhabens einzusetzen und die Schlüsselrollen durch interne Experten zu besetzen. Auch wenn der Know-how-Aufbau ein Digitalisierungsvorhaben zunächst etwas verzögern mag, ist er der Schlüssel zur unabhängigen Nachhaltigkeit nach der Realisierung.

Kleine Schritte mit großer Wirkung

Natürlich ist es mit Schritt eins bis drei längst nicht getan. Auch Fragen etwa nach dem Budget oder dem Changeability-Potenzial eines Unternehmens spielen für den Erfolg von Digitalisierungsstrategien wichtige Rollen. Doch wem es gelingt, überhaupt Notwendigkeiten zu erkennen, eigene Teams aufzubauen und nicht an der technischen Umsetzung zu zweifeln, der schafft es auch, Budgetfragen realistisch zu bewerten und seine Mitarbeiter mit Empathie und Vertrauen mit auf die Reise zu nehmen.

*Volker Altwasser arbeitet bei der expertplace networks Group AG.

Digitale Transformation – agil einsteigen ins IIoT

Aktuell sucht sich die deutsche Wirtschaft ihren Weg in die Industrie 4.0. Allerdings hat der Mittelstand immer noch große Probleme, die richtigen Schritte zu machen. Das zeigt eine Studie der Unternehmensberatung McKinsey: Nur jeder zweite Mittelständler sieht in der Digitalisierung eine Chance. Dabei prognostiziert McKinsey eine zusätzliche Wertschöpfung von 126 Milliarden Euro für deutsche Unternehmen bis 2025 bei konsequenter Digitalisierung[1]. So können Unternehmen mit Innovationsfreude und Mut schnell Wettbewerbsvorteile erzielen, die anderen laufen Gefahr, abgehängt zu werden. Um dem aus dem Weg zu gehen und den Anschluss nicht zu verlieren, muss die Industrie jetzt erste Schritte planen und sich für neue Prozesse zur Integration des IIoT öffnen. Dabei ist es für Unternehmen entscheidend, inwieweit sie in der Lage sind, agile Strukturen aufzubauen und so – zumindest in Teilen – wieder zum Startup zu werden.

Agile Transformation erfordert Umdenken

Da beim Eintritt ins IIoT agile Strukturen besonders wichtig sind, müssen Unternehmen zunächst umdenken. Denn bei IIoT-Projekten sollte nicht der Return of Investment an erster Stelle stehen, sondern die Innovationsbereitschaft. Das heißt, es geht nicht um eine ausführliche und womöglich anstrengende Planung, sondern um den Entdeckergeist. Schritt für Schritt wird in einem kreativen Prozess das Geschäftsmodell entwickelt. Hierfür ist beispielsweise die Arbeitstechnik „Sprint“ hilfreich. Das vom Wagniskapital-Finanzierungsunternehmen Google Ventures entwickelte Verfahren soll Unternehmen helfen, in nur fünf Tagen selbst kritische Probleme zu lösen. Bevor die Herausforderung „Einstieg ins IIoT“ angegangen werden kann, muss zunächst ein flexibles Team gebildet werden, das erste Schritte plant und kleine Ziele erarbeitet, die im Anschluss überprüft werden. So wird zu Anfang ein vorläufiger Prototyp entwickelt, der als zusätzlicher Ideengeber dienen soll. Danach beginnt die „Serienfertigung“ – so zumindest die Theorie.

Allerdings sieht es in der Praxis oftmals anders aus: Anstelle eines agilen Prozesses, welcher Richtungswechsel erlaubt, ja diese sogar ausdrücklich wünscht, werden einmal eingeschlagene Wege sehr selten wieder verlassen. So besteht die Gefahr, sich zu früh an eine Vorgehensweise und damit an einen Partner oder auch an eine bestimmte IIoT-Plattform zu binden. Die IIoT-Entwicklung zeichnet sich jedoch gerade dadurch aus, dass sich Modelle immer wieder verändern. Entscheidet man sich beispielsweise zu schnell für eine Plattform und legt sich auf diese fest, könnte es sich herausstellen, dass die gewählte Technologie weniger zukunftsfähig ist als zunächst gedacht. Dadurch werden Prozesse schnell statisch. Deshalb sollte man zu Beginn eher auf individuelle Lösungen setzen, etwa auf eine Microservice-Architektur, in welcher einzelne Services später ausgetauscht oder erweitert werden und so immer auf die aktuellen Bedürfnisse und Gegebenheiten angepasst werden können.

Agilität entlang der gesamten Wertschöpfungskette

Allerdings reicht es auch nicht mehr aus, für ein einzelnes Projekt agil zu sein. Letztendlich muss die gesamte Arbeitsweise innerhalb eines Unternehmens transformiert werden. Dadurch entsteht eine Geschwindigkeit, die die Wettbewerbsfähigkeit des Unternehmens hochhält. Nicht nur große Softwarefirmen wie Google und Amazon stehen vor diesen Herausforderungen, auch die Industrie muss diese Arbeitsweise annehmen und verinnerlichen, um kundenorientiert arbeiten zu können. Bisher wurden Projekte in der Industrie nach bestimmten Anforderungen geplant. Anschließend entwickelten die Techniker zwei bis drei Jahre lang, oftmals ohne sich zwischendurch umfassendes Feedback einzuholen und eventuelle Anpassungen vorzunehmen. Mittlerweile erwarten Kunden allerdings, dass ihr Feedback schnell aufgenommen und umgesetzt wird. Das bedeutet: Agilität wird auch immer mehr zur Anforderung an die Industrie, die sich dadurch entscheidende Wettbewerbsvorteile verschaffen kann.

 

Gesunde IT-Systeme: Wie sich Fehler erkennen lassen

Mehr als jedes zweite Industrieunternehmen (52 Prozent) in Deutschland hat laut Unternehmensberatung Staufen in diesem Jahr Industrie-4.0-Initiativen in Einzelprojekten oder unternehmensübergreifend umgesetzt. Die Mehrheit verfolgte das Ziel, digitale Produktions-Prozesse und -Techniken (Smart Factory) einzuführen oder zu verbessern. In den kommenden drei bis fünf Jahren wollen Unternehmen in Deutschland vor allem weiter in Multi-Cloud-Umgebungen (37 Prozent) und IoT-Technologien (36 Prozent) im Rahmen ihrer IoT-Projekte investieren, so  Dell.

Multidisziplinärer Ansatz zur Fehler-Erkennung und -Behebung

Dreh- und Angelpunkt von Smart-Factory-Konzepten sind naturgemäß vor allem digitale, durchgängige Prozesse und intelligente Technologien. Hierbei beteiligt sind Anwendungen, Maschinen, Netzwerke, Infrastrukturen, Rechenzentrums-Dienste und schließlich der Endnutzer. In einer vernetzten Industrieumgebung müssen all diese Komponenten fehlerfrei und meist sogar unter Berücksichtigung sehr geringer Latenzzeiten zusammenarbeiten können. Dennoch ist gerade bei vernetzten Komponenten in einer hochverteilten Umgebung die Störanfälligkeit hoch. Wie können (Industrie-) Unternehmen also die Gesundheit ihrer digitalen Dienste und Systeme sicherstellen?

 

Empfehlen lässt sich ein multidisziplinärer Ansatz, der alle beteiligten Komponenten überwacht und Fehler schnell identifizierbar macht. Hierbei sollten Industrieunternehmen im ersten Schritt die Funktionen ihrer jeweiligen digitalen Dienste zerlegen. Ein Dienst lässt sich in diesem Zusammenhang als eine technische Einheit verstehen. Dieser bündelt zusammenhängende Funktionen und stellt diese zum Beispiel einem Nutzer per Schnittstelle zur Verfügung.

Digitale Dienste identifizieren

Der digitale Dienst sollte nun also in seine einzelnen Funktionen, wie den allgemeinen Dienstzustand, beteiligte Anwendungen und Diensteabhängigkeiten (Mapping) zerlegt werden. Außerdem sind die Parameter Reaktionszeiten des Endbenutzers, Sessions, forensische Diagnose, System- und Konnektivitäts-Zustand sowie die IT-Security zu berücksichtigen.

Auf Basis all dieser Kriterien kann der allgemeine Gesundheitszustand des jeweiligen Dienstes gemessen, quantifiziert und ausgewertet werden. Fehlerpotentiale lassen sich so identifizieren und Probleme in der Regel schneller beheben.

1. Allgemeinen Gesundheitszustand eines digitalen Dienstes definieren

In diesem Schritt empfiehlt es sich, eine sogenannte Baseline zu etablieren. Diese hilft zu verstehen, wie sich ein Dienst im Laufe der Zeit verändert oder wie er unter außergewöhnlichen Belastungen reagiert, etwa bei Produktionsspitzen. Dabei kann auch untersucht werden, ob sich der Dienst flexibel erweitert, wenn beispielsweise Cloud-basierte Komponenten dazu geschaltet werden. Sobald eine Baseline festgelegt wurde, kann diese mögliche Anomalien, die zu einer Verschlechterung des Services führen, aufzeigen. Die Baseline soll also den Normalzustand eines Dienstes definieren und als Ausgangszustand dienen, um einen Bezugspunkt für spätere Vergleichsanalysen zu haben.

2. Anwendungsfehler erkennen

Anwendungen werden in Testumgebungen unter meist optimalen Bedingungen erstellt und geprüft. In einer Produktionsumgebung muss die eingesetzte Anwendung jedoch mit anderen Komponenten fehlerlos interagieren – und wird somit zu einem System aus mehreren Variablen. Unternehmen sollten daher prüfen, ob sie nach Anwendungsimplementierung noch die Möglichkeit haben, Anwendungsfehler zu detektieren, die für die Anwendung selbst, den Anwendungsentwickler oder den Endbenutzer möglicherweise nicht erkennbar sind. Fehler können sich auch erst später bemerkbar machen, etwa in Form erhöhter Response-Zeiten.

Oft können sich Fehler auch in der Kommunikation zwischen den Komponenten eines Dienstes verbergen. Aus Redundanzaspekten haben Dienste mehrere Komponenten, die wiederum vielfältige Abhängigkeiten aufweisen, um den Dienst auszuführen, Benutzer zu authentifizieren und Informationen zwischen den Komponenten des Dienstes zu verteilen.

3. Dienstabhängigkeiten zuordnen: Service Dependency Mapping

Ein digitaler Dienst kann sich im Laufe der Zeit verändern, wenn etwa neue Komponenten zugeschaltet oder zusätzliche Aufgaben von ihm übernommen werden. Damit der Überblick nicht verloren geht, sollten Unternehmen definieren: Was macht einen Dienst aus, wie kommuniziert dieser und wovon ist er abhängig? Diese Übersicht (Logic Map) ist besonders hilfreich, wenn etwa eine System- oder Plattformmigration ansteht.

4. Antwortverhalten des Systems bezogen auf Endnutzer messen

Digitale Dienste werden neben Maschinen auch von Endanwendern, etwa Mitarbeitern, genutzt. Hierbei ist es ein wesentlicher Faktor, das Antwortzeitverhalten von Anwendungen (Response Time) zu messen, um die User Experience hoch und Produktivitätseinbußen gering zu halten. Sind diese Reaktionszeiten zu lang, sollten entweder eine Kapazitätserweiterung oder Fehlerbehebungsmaßnahmen eingeleitet werden. Haben Unternehmen keinen Überblick über die angesprochenen Diensteabhängigkeiten, gestaltet sich die Fehlersuche nach langen Reaktionszeiten jedoch oft zeit- und kostenintensiv.

5. Sessions: bestehende Verbindungen prüfen

Bei einem Dienst mit mehreren Komponenten besteht jede Interaktion zwischen den Komponenten aus mehreren Sessions. Jede Sitzung sollte überwacht und per Session Health Score bewertet werden. So ist es einfacher, fehlgeschlagene Sitzungen zu detektieren. Diese führen oft zu höheren Response-Zeiten und können auf mögliche Ressourcen-Engpässe hinweisen.

6. Forensik-Tools frühzeitig etablieren

Gibt es Probleme mit Ineffizienzen im System, müssen Unternehmen forensische Maßnahmen ergreifen. Damit ist es möglich, tiefergehende Ursachenforschung zu betreiben, um etwa Verbindungsprobleme innerhalb und zwischen den Diensten aufzudecken. Liegen jedoch zum Zeitpunkt der Fehlermeldung zu wenig forensische Daten vor, muss oft abgewartet werden, bis das Problem erneut auftritt. Ebenso verkürzen erst zu diesem Zeitpunkt eilig eingerichtete Forensik-Systeme die Zeit für die Fehlerbehebung nicht.

7. Systemmonitoring einbinden

Oft haben Unternehmen ein Systemmonitoring eingerichtet. Doch wie knüpft dieses an die oben genannten Themen an. Unternehmen müssen sich die Frage stellen, ob sie alle erwähnten Parameter mit einem gemeinsamen Datensatz verknüpfen können – oder ob alle Datensätze isoliert gesammelt werden, ohne dass sie miteinander in Beziehung gesetzt werden können.

8. IT-Sicherheit

Mit zunehmender Bedrohungslage ist auch der Aspekt IT-Sicherheit unbedingt zu berücksichtigen. So ist laut IT-Sicherheitsbericht 2018, den das BSI im Oktober veröffentlich hat, die Gefährdungslage im Bereich Cybersecurity in den vergangenen Monaten abermals vielschichtiger geworden. Gerade Distributed-Denial-of-Service (DDoS) -Attacken sind gefährlich. Bei einer DDoS-Attacke werden Server, Web-Dienste, IT-Komponenten oder die IT-Infrastruktur solange mit Datenverkehr überlastet, bis diese nicht mehr verfügbar sind. Laut Sicherheitsbericht von NETSCOUT Arbor gab es 2017 in der DACH-Region knapp 197.000 derartiger Cyber-Attacken. Organisationen und Unternehmen mussten also umgerechnet 22 DDoS-Angriffe pro Stunde abwehren.

Vor allem die Zahl von Multivektor-Angriffen wird künftig zunehmen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. Somit ist es also möglich, per DDoS-Attacke digitale Dienste zu schädigen oder lahmzulegen. Unternehmen sollten daher prüfen, wie sie ihre vernetzten Dienste mit geeigneten Security-Tools vor Ausfall und Datenabfluss schützen können.

Fazit

Gerade in der Smart Factory, aber auch anderen IIoT-Szenarien, in dem die hochgradige Vernetzung im Mittelpunkt steht, muss die eingesetzte Technologie reibungslos funktionieren. Geht es beispielsweise um vernetzte Maschinen, die schnell und selbstständig Entscheidungen treffen müssen, kann eine fehlerhafte Dienstkomponente gravierende Konsequenzen nach sich ziehen. So kann der Informationsaustausch zwischen Maschinen und Produkten beeinträchtigt werden und nachgelagerte Prozesse oder gar Produktionsschritte komplett zum Erliegen kommen. Digitale Dienste müssen also vielfältige Aufgaben übernehmen, steuern und dabei höchsten Anforderungen Rechnung tragen. Ein geeigneter, multidisziplinärer Ansatz, um Fehler und Störquellen im Vorfeld zu identifizieren, ist für Unternehmen daher erfolgskritisch.

Schnelle Innovationen durch Hackathon

Im Zuge der umfassenden Digitalisierung und Vernetzung werden Unternehmen von vielen Themen geradezu überflutet. Die Herausforderung besteht oft darin zu entscheiden, welche dieser Themen aus fachlicher oder technischer Perspektive wichtig sind und in die eigenen Geschäftsziele einzahlen.

Entsprechend müssen für die identifizierten Themen und Problemstellungen Lösungsansätze und Innovationen entwickelt werden. Doch wie so oft gilt: Eine Idee bleibt eine Idee, bis man sie umsetzt. Wie können Projektteams also aus einer ersten Ideen-Phase hinauskommen und über konkrete Projekte greifbare Ergebnisse erzeugen?

Verschiedene Methoden für Innovation Management

Für das laufende Innovation Management stehen diverse Methoden zur Erzeugung und Bewertung von Ideen bereit, die aufeinander aufbauen oder auch getrennt voneinander durchgeführt werden können. Dazu gehören:

  • Innovation Workshops. Sie bringen Stakeholder aus verschiedenen Bereichen zusammen, um Ideen zu generieren, zu bewerten und einen kleinen Teil davon auszuwählen. Diese vielversprechenden Ideen werden anschließend aus unterschiedlichen Perspektiven analysiert, wobei jeder Stakeholder Quick Wins definiert. Diese Themen lassen sich dann umsetzen.
  • Design Thinking. Design Thinking ist eine moderne Methode, die einen längeren Prozess beschreibt. Dennoch lassen sich – gerade aus den ersten Phasen – wichtige Erkenntnisse ziehen. Es geht darum, ein Problem bestmöglich zu begreifen und zu beschreiben. Die Methode eignet sich somit am besten für ein konkretes Problem oder eine konkrete Idee. Dabei liegt der Fokus auf der Entwicklung von Lösungen, die aus Anwendersicht überzeugend sind. Hierzu sind die relevanten Personengruppen zu identifizieren und als „Personas“ zu beschreiben, um das Problem möglichst zielgenau auf den Punkt zu bringen.
  • Mini-Hackathon. Nach einer Präsentation des Themas werden Vorschläge gesammelt sowie die vielversprechendsten Ideen innerhalb weniger Stunden ausgearbeitet. Bei mehreren Teams sollten diese jeweils aus Personen mit verschiedenen Rollen aus unterschiedlichen Unternehmensbereichen bestehen. Fachliche Themen lassen sich in der Regel mit einem Pen & Paper Hackathon bearbeiten, technische Themen im Rahmen eines Proof-of-Concepts umsetzen. Ziel des Mini-Hackathon ist es, etwas Konkretes in der Hand zu haben, um es erleben zu können.

Wenn zum Beispiel die Verkäufe ohne erkennbaren Grund zurückgehen, lassen sich mit einem Innovation Workshop kreative Ideen für neue und veränderte Angebote generieren. Die Vielversprechendsten können mit Design Thinking an die Zielgruppen und Personas angepasst werden, woraufhin konkrete Lösungen anhand von Rapid Prototyping oder einem Mini-Hackathon entstehen. Ist das Problem bereits bekannt und gut beschrieben, kann man auch direkt mit einem Hackathon starten.

Beispiel für einen Hackathon

Ein Unternehmenskunde will Bots über einen agilen Ansatz entwickeln und einsetzen. Zunächst werden relevante Stakeholder identifiziert und die Zeitplanung festgelegt. In der Vorbereitung gilt es, die Vision zu definieren, technische Fragen zu klären, die SCRUM-Umgebung einzurichten und den Produkt-Backlog vorab zu befüllen. Das gemeinsame Team legt eine Woche vor dem Hackathon Vision, Umfang und weitere Kriterien fest.

Am ersten Tag erfolgt nur ein Sprint, der „Exploration Sprint“. Dieser dient zur Einrichtung der Backend-Dienste und ihrer Kommunikation. In den nächsten beiden Tagen werden jeweils zwei vierstündige Sprints mit Planung, Reviews und Retrospektive durchgeführt.

Der wichtigste Teil ist die Demo am letzten Tag, bei der die greifbaren Ergebnisse vor wichtigen Stakeholdern präsentiert werden. Teilnehmer sind beispielsweise der Leiter des Intranets, der Leiter des Web-Shops und die Leiter des weltweiten Service Centers. Diese geben abschließend wertvolles Feedback.

Fazit

Mit einem Mini-Hackathon werden ausgewählte Use Cases und Ideen schnell in die Praxis umgesetzt und ein erstes Minimal Viable Product erzeugt, das durch so viele relevante Personengruppen wie möglich bewertet wird. Dadurch lässt sich ohne hohe Kosten ein Thema schnell evaluieren und ein Projekt vorantreiben oder bei mangelnden Erfolgsaussichten beenden. So können Unternehmen das Thema besser bewerten und das Projekt effizienter bis zur Produktionsreife weiterentwickeln.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.

 

IIoT-Plattformen im Überblick: die größten Anbieter und eine plattformunabhängige Anwendung

Es gibt eine Vielzahl von Anbietern am Markt – aktuell können Unternehmen aus 450 Plattformen wählen. Die bekanntesten im Bereich Industrial Internet of Things kommen von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister Elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch die unabhängige Lösung nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten diese Knotenpunkte für systemübergreifende Verknüpfungen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen bieten bereits ein großes und umfangreiches Set an Werkzeugen, welches den Start ins IIoT erleichtert.

Zum Überblick:

  • AWS: Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services (AWS). Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.
  • Azure: Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich. Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.
  • Google Cloud Platform: Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.
  • Dataface: Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden. Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-Case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things einsteigen.

 

Industrie 4.0 zum Anfassen

Seit der Firmengründung 2010 verzeichnet die Firma aus dem hessischen Limburg an der Lahn ein kontinuierliches Wachstum und mittlerweile sind die EMS-Experten auch im Joint Development Manufacturing (JDM) tätig. In dieser Funktion bauen sie für ihre Kunden aus Industrie, Automobilbranche sowie Medizin- und Sicherheitstechnik maßgeschneiderte Prototypen und übernehmen später auf Wunsch die Serienproduktion.

Das Unternehmen engagiert sich außerdem im Verein Smart Electronic Factory e.V. (SEF). Dort entstehende Konzepte und Szenarien werden im eigenen Unternehmen umgesetzt – unter anderem durch die Kombination intelligenter Technologien mit Lean-Management-Prozessen. Die ERP-Komplettlösung Proalpha kann hierbei als Schaltzentrale der intelligenten Fabrik fungieren.

Einheitliche Plattform für alle Prozesse

„Die Vorgänger-ERP-Lösung hielt den gestiegenen Anforderungen nicht stand und stieß immer mehr an ihre Grenzen”, erinnert sich Geschäftsführer Gerd Ohl. Deshalb wurde nach einer einheitlichen Plattform gesucht, die alle Prozesse entlang der gesamten Wertschöpfungskette steuern kann: vom Einkauf und der Materialwirtschaft über die Produktion und den Vertrieb bis hin zum Finanz- und Rechnungswesen. Gleichzeitig sollte das neue ERP-System das künftige Wachstum im In- und Ausland flexibel unterstützen.

Laut Georgios Giantsios, Geschäftsführer bei Limtronik, lassen sich mit dem neuen ERP-Komplettsystem heute sämtliche Geschäftsprozesse effizient aufeinander abstimmen und bedarfsgerecht steuern, automatisieren und kontrollieren. Dazu tragen unter anderem das integrierte Workflow Management und das Dokumenten Management System (DMS) bei.

In der Produktion stellt die Multiressourcenplanung Advanced Planning and Scheduling (APS) sicher, dass Material, Fertigungsanlagen und Personal optimal eingesetzt werden können. In den verschiedenen Unternehmensbereichen gewährleisten zudem die Business-Intelligence-Cockpits eine hohe Transparenz. „Dadurch haben wir jederzeit den kompletten Überblick über alle wichtigen Zahlen und können schnell die richtigen Entscheidungen treffen”, unterstreicht Gerd Ohl.

Lückenlose Traceability als Wettbewerbsvorteil

Ein ausschlaggebender Punkt bei der Entscheidung war auch die nahtlose Integration mit dem Manufacturing Execution System (MES) von Itac. Denn dieses bildet die Brücke zwischen Produktions- und Planungsebene und ermöglicht unter anderem die lückenlose Rückverfolgbarkeit der verwendeten Bauteile.

Diese Traceability ist eine der größten Herausforderungen für die EMS-Branche. Alle Produkte, alle verwendeten Leiterplatten und die darauf befindlichen Bauteile müssen umfassend rückverfolgt werden können. Wenn später Mängel auftreten, lässt sich die Fehlerquelle damit schnell eingrenzen.

In der Medizintechnik ist Rückverfolgbarkeit sogar gesetzlich vorgeschrieben. Andere Branchen – zum Beispiel die Automobilindustrie – wollen damit bei Reklamationen etwaige Rückrufaktionen nur für die wirklich betroffenen Fahrzeuge starten. „Wer eine lückenlose Traceability nachweisen kann, hat einen klaren Wettbewerbsvorteil”, so Giantsios.

Bei Limtronik werden deshalb sämtliche Zulieferteile beim Wareneingang über einen speziellen Wareneingangstisch gezogen. Dadurch gelangen die notwendigen Traceability-Daten zuerst in das Materialwirtschaftsmodul und dann automatisch in das MES. Pro Verpackungseinheit wird eine eindeutige Nummer erzeugt, die neben anderen Informationen auf einem Etikett steht. Das Etikett wird auf das Gebinde des Bauteils geklebt. In der Fertigung erfasst dann das MES, wo diese Komponenten genau verbaut wurden.

So ist die Lösung in der Lage, auf unterschiedliche Traceability-Anforderungen der Kunden zu reagieren, etwa mit eigenen Seriennummern, der Erfassung geometrischer Daten oder der Bündelung von Baugruppen. Zukünftig sollen im Zuge dieses Industrie-4.0-Konzepts die Auftraggeber mit Limtronik vernetzt werden. Über einen abgesicherten Zugang gelangen sie dann an die entsprechenden Daten im ERP-System. Bei Feldausfällen oder im Servicefall kann dann anhand der Seriennummer festgestellt werden, welche Fehler welche Ursache haben.

Mit Data Mining Fehler vorausschauend erkennen

Die häufigsten Fehler in der Leiterplattenbestückung sind Zinnschluss, ungenaue Positionierung, das Fehlen eines Bauteils und der berüchtigte Tombstone-Effekt. Dieser tritt beim sogenannten Reflow-Löten von elektronischen Bauteilen auf, die sich währenddessen auf der Leiterplatte einseitig aufstellen. Die nach oben stehende Seite ist dann nicht mehr elektrisch kontaktiert, das Bauteil wirkt wie ein Grabstein. Deshalb der englische Name „Tombstone“. Um hier wirksam gegensteuern zu können, plant das hessische Unternehmen als nächsten großen Schritt in Richtung Industrie 4.0 ein Datamining-Projekt. „Wir streben einen intelligenten Big-Data-Analytics-Regelkreis an, in dem Qualitäts-, Prozess- und Maschinendaten stetig analysiert werden“, erläutert Gerd Ohl. Damit sollen die Qualität weiter gesteigert und die Liefertreue verbessert werden. „Längerfristiges Ziel ist eine produktionsspezifische Vorhersage von Wartungsintervallen für unsere Fertigungsanlagen, die mithilfe eines Algorithmus gesteuert wird“, betont Ohl.

Denn mit dieser vorausschauenden Wartung (Predictive Maintenance) lässt sich sicherstellen, dass der laufende Produktionsvorgang möglichst wenig bis gar nicht unterbrochen werden muss. „Solche Industrie-4.0-Szenarien mit einem flexiblen ERP-System wie Proalpha umzusetzen“, so Gerd Ohl, „macht sich schnell bezahlt.“ Um etwa den Tombstone-Effekt nachträglich zu beheben, fallen Kosten von rund sechs Euro je Leiterplatte an. „In einer Vorserienfertigung kann das bereits Ausgaben von über 30.000 Euro bedeuten“, rechnet der Geschäftsführer vor. In bestimmten Fällen potenzieren sich die Kosten leicht auch auf das 10-Fache. Ziel muss daher sein, derartige Produktionsfehler von vornherein zu vermeiden, beziehungsweise zu minimieren.

Dieses Szenario zur Qualitätssteigerung in der Produktion stieß auch auf dem nationalen IT-Gipfel 2017 der Bundesregierung auf große Resonanz. „Es lässt sich einfach auf andere Branchen übertragen und kann im Idealfall durchaus als Standardanwendung für mittelständische Fertigungsbetriebe etabliert werden“, hofft Gerd Ohl.

Limtronik sei auf dem Weg zur Industrie 4.0 inzwischen bei der Version 3.8 angelangt und habe für die nächsten Jahre bereits eine Reihe weiterer Digitalisierungsprojekte definiert. „Am Ende werden in unserer Fabrik Maschinen stehen, die sich selbst steuern“, blickt der Geschäftsführer in die Zukunft.

 

Smart Cities – Urbane Probleme in den Griff bekommen

Sinnvoll angewendet kann Big Data hier wirksam unterstützen. Daten sammeln allein reicht nicht aus, die Flut an Informationen muss auch nutzenbringend ausgewertet werden.

Denn Ballungsräume kommen an ihre Grenzen, sei es durch den zunehmenden Verkehr, die Luftverschmutzung oder die Bevölkerungsdichte – bei gleichbleibender innerstädtischer Fläche. Derzeit lebt ungefähr 50 Prozent der Weltbevölkerung in Städten, Prognosen für 2050 sprechen sogar von rund 70 Prozent. Dies bringt besonders für die Stadtplanung erhebliche Herausforderungen mit sich. Die Erfassung, Analyse und Nutzung von Daten spielt bei der urbanen Problemlösung eine große Rolle. Doch wie lassen sich Städte mit Hilfe dieser Daten zu lebenswerteren Räumen gestalten? Und wie werden die Daten gewonnen?

Am Beginn der Datengewinnung steht die Sammlung von Informationen, beispielsweiser mittels verschiedener optischer und nicht-visueller Sensoren. Dies geschieht personenunabhängig, also anonymisiert. Im nächsten Schritt werden die neu erworbenen mit historischen Daten aus den unterschiedlichsten Bereichen gebündelt und vernetzt. Dieser Datenpool wird dann als Grundlage für Analysen verwendet. Die Daten eines einzelnen Menschen sind für sich genommen nicht relevant, erst in der Masse werden sie für die Stadtverwaltung und -entwicklung interessant und finden bereits Anwendung für verschiedenste Bereiche in der intelligenten Stadt.

Ein besonders wichtiger Sensor für die Datengewinnung und -verarbeitung ist die Netzwerk-Kamera. Zu den Möglichkeiten der digitalen Technologie einige Beispiele:

Intelligente Verkehrsplanung

So erfassen und analysieren Kameras heute mittels Sensoren und Software beispielsweise den Verkehrsfluss. Besonders an Verkehrsknotenpunkten oder zentralen Umschlagplätzen im öffentlichen Nahverkehr gilt es, durch Datenanalyse präventiv auf erhöhte Frequenzen zu reagieren.

Im Verkehr ist durch integrierte Sensoren beispielsweise das Zählen von Fahrzeugen, die Erfassung der Durchschnittsgeschwindigkeit und Fahrspurauslastung oder eine Fahrzeugklassifizierung möglich. Auch können Wetterfaktoren wie starke Regen- oder Schneefälle einbezogen werden. Die Stadtverwaltung kann sich somit früh auf Verkehrsstaus einstellen, die Situation anhand von Videoanalysen überprüfen, nötige Einsätze überwachen und Reaktionszeiten verkürzen.

Um den städtischen Verkehr zu optimieren, muss auch die Fahrzeuganzahl massiv gesenkt werden. Die intelligente Verwaltung von Parkmöglichkeiten und die Förderung von Car- und Bike-Sharing sind dabei wichtige Schritte – sie können ebenfalls über IP-Videotechnik realisiert werden. Durch Kameraerfassung und die gleichzeitige Vernetzung werden verfügbare Fahrzeuge oder Parkplätze in Echtzeit erkannt und sind sofort einsatzbereit.

Datenbasierter Umweltschutz

Netzwerk-Kameras mit speziellen Sensoren können Umweltparameter wie Luftqualität, Konzentration von Gasen wie CO2, Temperatur, Luftfeuchtigkeit oder Wasserqualität messen und diese mit der zugehörigen Software anschließend auch auswerten. Mit einer speziellen Technologie zur Niederschlagserkennung kann sogar die Intensität von Regentropfen oder Schnee mittels Echtzeitbildern gemessen werden. Die verschiedenen Datensätze liefern wichtige Informationen über die Luftbeschaffenheit, die Schadstoffbelastung oder Wetterverhältnisse und werden für eine effiziente Stadtentwicklung, Verkehrsplanung, Umweltschutz oder Präventionsmaßnahmen eingesetzt.

Auch der Müll nimmt in wachsenden Städten zu, wird mit Hilfe von intelligenten, vernetzten Sammelsystemen aber zumindest schneller entfernt. Transportwege für die Abfallentsorgungsbetriebe werden kürzer. Müllcontainer sind dafür beispielsweise mit Sensoren ausgestattet, die den Abfallentsorgungsunternehmen den Füllstand signalisieren. Das lässt eine Anpassung an aktuelle Bedürfnisse oder saisonale Abweichungen zu und ist effizient.

Zudem kann die Straßenbeleuchtung in intelligenten Städten auf den tatsächlichen Bedarf abgestimmt werden. Die Bewegungsanalyse in den Kameras erkennt, wann, ob und wie viele Personen oder Fahrzeuge sich in der zu beleuchtenden Gegend befinden und passt die Lichtverhältnisse von Straßen oder öffentlichen Plätzen dementsprechend an.

Höhere Sicherheit

In Städten geht mit wachsender Bevölkerungszahl oftmals auch eine Steigerung der Kriminalitätsrate einher. Um Sicherheit zu gewährleisten, ist das Zusammenspiel von Video, Audio und Analyse essentiell. Besonders bei großen Menschenansammlungen. Mittels Videoanalyse können die Anzahl der Personen in einer Menschenmenge erfasst, das Verhalten der Masse analysiert und dabei Abweichungen sofort erkannt werden. So können schwierige Situationen oder Probleme verhindert werden, noch bevor sie entstehen.

Die Stadt Tel Aviv nimmt eine Vorreiterrolle bei der datenbasierten Stadtverwaltung ein. Die Verantwortlichen haben nach einer neuen und effizienten Lösung gesucht, die Kriminalitätsrate zu senken und den Bewohnern ein nachhaltiges Gefühl von Sicherheit zu geben. Dabei sollen die Bewohner und ihr Eigentum einerseits bestmöglich geschützt, das Lebensgefühl und die Freiheit andererseits aber nicht eingeschränkt werden. Aktuell sind bereits hunderte Netzwerk-Kameras in Tel Aviv installiert, die mit einem offenen System von Axis in den Bereichen Sicherheit oder Verkehrsoptimierung arbeiten.

Avi David, Manager Control and Command Center bei der Stadt Tel Aviv, sagt: „Smart Cities sind die Zukunft, das steht außer Frage. Wir haben damit bereits den Grundstein für eine intelligente und vernetzte Stadt gelegt.“

Machine Learning im Edge mit dem Internet der Dinge

In der Praxis wollen Anwender ihre IoT-Dienste jedoch auch im Edge – außerhalb der Cloud – zum Beispiel in ihren Produktionsstätten einsetzen. Dafür bietet sich der Einsatz von Spezialsoftware an. Bei dieser handelt es sich um Anwendungen, mit denen auf sichere Weise lokale Datenverarbeitungs-, Messaging-, Caching- und Synchronisierungsvorgänge für verbundene Geräte im Edge durchgeführt werden können. Zu den Funktionen der Software zählt ein lokaler Message Broker, mit dem IoT-Geräte kommunizieren können – auch dann, wenn keine Internet-Verbindung besteht. Außerdem ist die Datenverarbeitung im Edge unabhängig von der Cloud. Auch die Event-basierte Ausführung von Code ist denkbar, ohne dass sich der Benutzer um die darunterliegende Infrastruktur kümmern muss.

Eine weitere Funktion, die die Arbeit im IoT Umfeld erleichtert: Maschinelle Lerninterferenzen können auf IoT-Edge-Geräte heruntergeladen und so auch ohne Cloud-Konnektivität ausgeführt werden. Damit kann Machine Learning nun auch im Edge und unabhängig von einer Internet-Verbindung verwendet werden. Die Machine-Learning-Modelle werden in der Cloud mit einer verwalteten Plattform von Entwicklern oder Datenwissenschaftlern erzeugt und können dann von dort direkt auf die Spezialsoftware heruntergeladen werden. So wird es möglich, weitere Dienste im Edge auszuführen, Voraussagen noch schneller zu treffen und an die eigenen Anforderungen angepasste Lösungen zu entwickeln, etwa zur Bilderkennung.

Ein Beispiel dafür liefert die japanische Firma Yanmar. Sie hat ein intelligentes Gewächshaus entwickelt, in dem die Spezialsoftware AWS Greengrass zum Einsatz kommt. Um bessere Erträge von Tomatenpflanzen zu erreichen, wird dabei die Gewächshausumgebung technologieunterstützt optimiert. Dazu werden in jedem Gewächshaus bis zu zwölf Kameras installiert und die Pflanzen regelmäßig fotografiert. Yanmar plant, Machine-Learning-Algorithmen zu verwenden, um die Pflanzenwachstumsphasen (nach Höhe, Anzahl der Blätter, Anzahl der Blüten und Früchte) automatisiert zu erkennen. Der Pflegebedarf der Pflanzen wird dadurch deutlich und Bewässerung sowie Temperatur können angepasst werden.