IoT braucht kein 5G

Laut einer Gartner-Studie wird das Internet der Dinge (IoT) bereits in zwei Jahren über 25 Milliarden Geräte umfassen. Vor allem Consumer Electronics wie Komponenten aus dem Heimnetz oder Smart Home gehören dazu. Aber auch immer mehr intelligente Maschinen, Autos, Smart Meter und ganze Smart Citys sorgen für eine steigende Vernetzungsrate. Nicht selten kommt dabei Mobilfunktechnologie zum Einsatz – allerdings mitnichten der derzeitige Topstandard 4G. Schließlich geht es bei den meisten IoT-Anwendungen nicht um hohe Bandbreiten wie etwa beim mobilen Internet für Endkunden, sondern um die verlässliche Übertragung von zumeist kleineren Datenpaketen. Auch der Energieverbrauch spielt eine Rolle.

In vielen Unternehmen mangelt es an IoT-Know-how

„Die Bandbreiten und Geschwindigkeiten von 3G, 2G oder auch GSM reichen in den meisten Fällen absolut aus, um etwa im Industrie 4.0-Umfeld Informationen zwischen Maschinen auszutauschen“, sagt Peter Matthes von Siwaltec. Das Unternehmen hat sich als Teil der TGE Gruppe auf SIM-Kartenlösungen spezialisiert. „4G oder gar das zukünftige 5G spielen dabei eine untergeordnete Rolle“, so Matthes. Der Trend, dass die Bandbreite immer höher werden müsse, treffe auf Mobilfunk-basierte IoT-Lösungen für Unternehmen eher nicht zu. „Hier kommt es vielmehr darauf an, stabile und verlässliche Übertragungen zu gewährleisten, die nicht zu viel Energie beanspruchen.“ Dass dennoch viele Unternehmen 5G entgegenfiebern, obwohl es für die meisten IoT-Anwendungen weitgehend irrelevant ist, zeigt laut Matthes, dass es in den Unternehmen weiterhin an entsprechendem Fachwissen mangelt. Statt willkürlich in neue Technologien zu investieren, sollten die Unternehmen sich zunächst auf die Grundlagen fokussieren und nötigenfalls externe Experten hinzuziehen.

Narrowband-IoT dringt bis in den Keller vor

Die Tatsache, dass 4G und 5G eher nicht die Lösung für derzeitige und wohl auch zukünftige IoT-Lösungen sind, bedeutet allerdings nicht, dass neuere Mobilfunkstandards komplett ignoriert werden sollten. Denn mit dem sogenannten Narrowband-IoT gibt es mittlerweile einen eigens fürs Internet der Dinge entwickelten Mobilfunkstandard – wie man schon am Namen erkennen kann.

Wie etwa GSM eignet sich Narrowband-IoT für Anwendungen, die geringe Datenraten benötigen. Batteriebetriebene Geräte wie Rauchmelder oder Stromzähler funktionieren so zuverlässig bis zu zehn Jahre, bevor die Batterien ausgetauscht werden müssen. Vor allem aber dringt Narrowband-IoT bis tief in Gebäude vor, sodass selbst Gerätschaften im Kellergeschoss per Mobilfunk mit dem Internet of Things verknüpft werden können.

Laut Oliver Wierichs, Principal Manager IoT Devices bei Vodafone, ergeben sich durch die reduzierte Datenrate im Vergleich zu 4G/LTE zudem deutliche Einsparungen bei der Hardware. „Man verwendet kleinere Prozessoren, weniger Speicher und auch das Funkmodul wurde vereinfacht, ohne dabei auf wichtige Eigenschaften des Mobilfunks, wie beispielsweise Sicherheit und Verschlüsselung, zu verzichten“, erklärte Oliver Wierichs kürzlich in einem Gespräch mit dem Verband der Internetwirtschaft, eco.

Laut der GSM Association (GSMA) gibt es auf internationaler Ebene bereits über 50 Narrowband-IoT-Netze. Allein auf Vodafone gehen dabei weltweit zehn kommerzielle Netze zurück. „Unsere Labors sind ausgebucht und wir testen mit Hunderten von Kunden weltweit“, berichtet Oliver Wierichs. „In Deutschland haben wir rund 90 Prozent der 4G-Basisstationen mit Narrowband-IoT ausgestattet.“ Insofern ist 4G dann doch wieder nützlich, um die Entwicklung des Internet of Things weiter voranzutreiben.

Cybersicherheit in der Industrie: Kein Zutritt für Trojaner, Viren und Co.

Hacker können im Zuge der Digitalisierung von Prozessen Sicherheitslücken leichter ausnutzen und Maschinen und Geräte infizieren. Laut einer aktuellen Bitkom-Studie hat die Anzahl von Cyberattacken in den vergangenen zwei Jahren für 84 Prozent der Industrieunternehmen zugenommen. Dadurch sind Angreifer in der Lage, die komplette IT-Landschaft eines Unternehmens lahmzulegen. Eine passende Firewall schafft Abhilfe. Sie schützt Unternehmen vor Cyberbedrohungen und erhöht die firmeninterne IT-Sicherheit. Doch worauf sollte man bei der Wahl einer passenden Firewall achten?

In der Industrie 4.0 verzahnen sich Prozesse mit modernster Informations- und Kommunikationstechnik. Maschinen und Produkte sind zunehmend softwaregesteuert und kommunizieren miteinander. Damit steigt auch die Flexibilität der Produktion. Die Vernetzung von Mensch, Maschine und industriellen Prozessen ist somit ein wichtiger Faktor für die Produktivität und verändert nachhaltig die Art und Weise, wie Unternehmen zukünftig produzieren und arbeiten. Gleichzeitig birgt die digitale Vernetzung jedoch ein großes Bedrohungspotenzial. Cyberangriffe auf industrielle Anlagen und kritische Infrastrukturen führen zu Imageschäden, stören den Geschäftsbetrieb, verursachen Datenverluste und können Menschen gefährden. Für einen unterbrechungsfreien Ablauf der industriellen Prozesse müssen die IT-Systeme deshalb umfassend abgesichert sein.

Firewall: Der „Tower“ hat alles im Blick

Eine Firewall schützt die gesamte IT-Landschaft, indem sie Cyberbedrohungen abwehrt. Sie ist daher ein unverzichtbarer Bestandteil der firmeninternen IT-Sicherheitsstrategie. Eine Firewall agiert längst nicht mehr nur wie ein Türsteher, der die Eingangstür zum Datenparadies mit essenziellen Unternehmensinformationen und zu Prozessen bewacht sowie unerwünschten Gästen wie Trojanern, Viren und anderen Schädlingen den Zutritt verwehrt. Inzwischen fungiert sie eher wie ein Tower am Flughafen. Dieser ermöglicht, über das ganze Informationssystem hinweg das Geschehen im Netzwerk zu kontrollieren und darüber hinaus potenzielle Bedrohungen zu beobachten und präventiv abzuwehren.

Firewall – worauf achten?

Zunächst sollten die Verantwortlichen die aktuellen und zukünftigen Sicherheits­anforderungen des Unternehmens identifizieren und vorausschauend planen: Bandbreite, auszulagernde Dienste, Zugang zu Netzwerkressourcen für Personen, die nicht physisch vor Ort sind und so weiter. Angesichts der fortschreitenden Digitalisierung und der sich immer schneller wandelnden Anforderungen ist es wichtig, auf flexible Technologien zu setzen, die sich an unterschiedliche Bedürfnisse wie beispielsweise die zunehmende Migration in die Cloud anpassen lassen. Zudem sollten IT-Verantwortliche auf offizielle Sicherheitsgütesiegel achten. In Europa prüfen zentrale Zertifizierungsstellen wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) oder in Frankreich die Nationale Agentur für Sicherheit der Informationssysteme (ANSSI) auf Antrag Dienstleister oder Produkte. Eine Produktzertifizierung bestätigt, dass das Produkt bestimmte funktionale und sicherheitsrelevante Eigenschaften erfüllt, die in Schutzprofilen, Sicherheitsvorgaben oder technischen Richtlinien festlegt sind. Eine Firewall sollte sich zudem leicht in die firmeninterne Landschaft integrieren lassen und für den Anwender einfach zu bedienen sein.

Die Aufgaben einer Firewall

  • Datenverkehr des Netzwerks filtern:
    Analyse und Kontrolle des gesamten Datenverkehrs
  • Einen sicheren Zugang bereitstellen:
    Gewährleistung eines sicheren Informationsaustauschs – sowohl On-Premises als auch in der Cloud
  • Potenzielle Gefahren erkennen:
    Erfassung und Blockierung von möglichen Bedrohungen
  • Netzwerkfehler korrigieren:
    Feststellung und Beseitigung von Schwachstellen im Netzwerk

Fazit

Das Konzept der Industrie 4.0 eröffnet vielen Unternehmen neue Wertschöpfungsmöglichkeiten. Gleichzeitig birgt es neue Gefahren durch gezielte Angriffe von Hackern. Der Schutz von sämtlichen firmeninternen IT-Systemen und -Prozessen sollte daher in Unternehmen höchste Priorität haben. Als Grundlage für umfassende Sicherheit ist eine passende Firewall ein unverzichtbarer Bestandteil des IT-Sicherheitskonzepts. Sie analysiert den gesamten Datenverkehr, verhindert Cyberattacken auf IT-Systeme und schützt das Netzwerk vor unbefugten Zugriffen.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.

 

Machine Learning in der Intralogistik – Einsatzmöglichkeiten und Chancen

Der Bereich Intralogistik bewegt sich langsam und schrittweise in Richtung Digitalisierung. Denn trotz Zögern – meist aus Scheu vor hohen Investitionskosten oder dem Entfernen von jahrelangen Routinen – bieten sich auch hier die anfallenden Datenmengen an, um das Potenzial von Technologien wie der Künstlichen Intelligenz (KI) auszuschöpfen. Viel brachliegendes Potenzial findet man in der innerbetrieblichen Logistik vor allem im Bereich der Transportoptimierung. Hier werden zwar bereits seit mehreren Jahrzehnten intelligente, mathematische Algorithmen eingesetzt, um beispielsweise Transportaufträgen so Ressourcen zuzuweisen, dass ein Effizienzoptimum  erreicht wird. Zusätzlich könnten jedoch Anwendungen Maschinellen Lernens wie Bild- und Mustererkennung die Prozesse und den Ressourceneinsatz deutlich verbessern.

Genauere Planungsdaten für eine genauere Optimierung

Mithilfe von Machine Learning können Systeme wichtige Planungsdaten wie Auflade-, Transport-, oder Abladedauer viel genauer prognostizieren. Zurzeit werden diese Planungsdaten meist einmal zur Systemeinführung durch grobe Messung, Durchschnittswerte oder auch nach dem Bauchgefühl der Mitarbeiter bestimmt. Diese Eingangsdaten für die Transportoptimierung können durch Maschinelles Lernen viel individueller bestimmt und somit realitätsnäher berücksichtigt werden.

Es gibt einige Beispiele aus der Intralogistik, die dies verdeutlichen. Beispielsweise dauert ein Palettentransport in einem Unternehmen Z durchschnittlich 30 Minuten. Dieser Wert wird hier für die Planung der innerbetrieblichen Transporte auch so gerechnet. Mit Machine Learning könnte jedoch identifiziert werden, dass ein Palettentransport von A nach B mit Material X immer 20 Minuten benötigt, während ein anderer Transport mit Material Y eine Stunde dauert. Anstatt solche Einzeldaten manuell von einem Mitarbeiter konfigurieren und im System einpflegen zu lassen, kann die Künstliche Intelligenz diese Aufgabe übernehmen.

Ein weiteres Beispiel: Ein regelmäßiger Transport an einem Mittwochnachmittag benötigt eine wesentlich kürzere Bearbeitungszeit als an einem Sonntagmorgen. Die unterschiedlichen Daten können unter anderem damit zusammenhängen, dass die Mitarbeiteranzahl an den Tagen variiert. Diese Information ist ein Planungsdetail, das in einer manuellen Planung der innerbetrieblichen Transporte zu komplex zu berücksichtigen wäre. Künstliche Intelligenz hingegen kann automatisch die Eintrittswahrscheinlichkeiten berechnen und Prozesse dementsprechend wesentlich effizienter organisieren und anderenfalls Engpässe vermeiden.

Das Erkennen von Mustern in den erfassten Daten ermöglicht außerdem, schnell zu identifizieren, welche Prozesse noch Optimierungspotenzial bieten. Ein Beispiel ist die Zwischenlagerung von Material. In der Intralogistik kann es vorkommen, dass Material zwischen einzelnen Transporten nur für eine kurze Zeit gelagert wird. Diese Zeitspanne kann sehr gering sein und ist daher in manchen Fällen nicht sinnvoll. Ein selbstlernendes System kann diese Transporte erkennen und sie gegebenenfalls direkt zum Endziel transportieren lassen.

Bei unerwarteten Störungen, etwa verspäteten Lieferungen, wäre es möglich, schneller oder auch automatisch in die Abläufe einzugreifen und entsprechende Gegenmaßnahmen einzuleiten. Folgeprozesse könnten dann rechtzeitig auf diese Verspätungen abgestimmt werden.

Vorausschauende Wartung für die Prozessoptimierung

Hinzu kommt die Möglichkeit die Ausfallzeiten der eingesetzten Fahrzeugflotte mit Hilfe des Predictive Maintenance zu optimieren. Hierzu werden im einfachsten Falle auf Grund von Betriebsstunden und Lastprofilen Ausfallzeiten prognostiziert. Genauer können per Sensorik zahlreiche Daten über die eingesetzten Fahrzeuge gesammelt und ausgewertet werden, um die Wartung und Instandhaltungstermine noch genauer zu bestimmen.

Durch eine solche genauere Prognose der Wartungszeitpunkte können Reparaturen und der Austausch von Teilen frühzeitig eingeplant und insgesamt die Produktivität der Ressourcen gesteigert werden.

Zusätzliche Chancen durch autonome Fahrzeuge

Die Paradedisziplin der künstlichen Intelligenz ist sicherlich der Einsatz fahrerloser Transportmittel. Die Transportmittel, ausgestattet mit Sensoren für die Lokalisierung, Navigation und Datenerfassung, könnten in Zukunft mithilfe selbstlernender Systeme auch untereinander automatisch Informationen austauschen und gezielt Folgeprozesse auslösen. Über eine Verknüpfung mit den vor- und nachgelagerten Prozessen, angefangen von der Materialanlieferung bis zum Versand, ist dann eine wahre Smart Factory denkbar.

Aktuell hält sich die Intelligenz und Selbständigkeit der fahrerlosen Transportsysteme noch in Grenzen und ist meist auf sehr homogene, immer gleiche Transporte beschränkt. Letztendlich wird das, was im automatischen Hochregallager begann, sukzessive auf immer mehr Transporte, wie heute bei Kommissionierabläufen oder bei Ein- und Auslagerungen in Lägern, ausgeweitet werden. Ein flächendeckender Ausbau auf alle Transporte in einer Fabrik ist dabei langfristig natürlich vorstellbar.

Transparente Prozesse dank Bilderkennung­

Insofern gilt es den Werksverkehr auch mit bemannten Transportmitteln weiter zu optimieren. Eine Kompetenz von Machine und Deep Learning ist neben den oben beschriebenen Prognoseverfahren auch die Bilderkennung. Damit wird es möglich heute notwendige Scan- und Erfassungsprozesse zu reduzieren beziehungsweise zu automatisieren. So kann die Künstliche Intelligenz Barcodes scannen, Material lokalisieren oder den Ort von Maschinen und Menschen erkennen, nicht nur um effizienter zu arbeiten, sondern auch um zum Beispiel Unfälle zu vermeiden. 

Im Ergebnis wird die Daten- und Prozessqualität gesteigert und eine effizientere und sichere Logistik etabliert.

Fazit

Mit Hilfe von Machine Learning kann die innerbetriebliche Logistik zunehmend automatisch und vorausschauend agieren. Künstliche Intelligenz wird die innerbetriebliche Logistik in Zukunft weiter optimieren und hier weitere Grundsteine für eine durchgehend transparente, automatisierte Supply Chain legen. Die Neugier, welche Anwendungen sich in der Praxis letztendlich durchsetzen und wie schnell sie umgesetzt werden, steigt.

Welche Praxisbeispiele kennen Sie bereits für den Einsatz Künstlicher Intelligenz in der innerbetrieblichen Logistik? Wo sehen Sie das größte Potenzial?

IIoT-Plattformen im Überblick: die größten Anbieter und eine plattformunabhängige Anwendung

Es gibt eine Vielzahl von Anbietern am Markt – aktuell können Unternehmen aus 450 Plattformen wählen. Die bekanntesten im Bereich Industrial Internet of Things kommen von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister Elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch die unabhängige Lösung nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten diese Knotenpunkte für systemübergreifende Verknüpfungen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen bieten bereits ein großes und umfangreiches Set an Werkzeugen, welches den Start ins IIoT erleichtert.

Zum Überblick:

  • AWS: Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services (AWS). Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.
  • Azure: Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich. Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.
  • Google Cloud Platform: Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.
  • Dataface: Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden. Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-Case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things einsteigen.

 

Fallstricke bei der Speicher-Virtualisierung und Software Defined Storage vermeiden

Setzen Unternehmen zum Beispiel zwei unterschiedliche Dateiserver ein, auf denen der Speicherplatz unterschiedlich verwendet wird und die über verschiedene Festplattentechnologien verfügen, lassen sich diese zu einem Pool zusammenfassen. Aus dem Pool heraus lassen sich einzelne Speicherbereiche virtualisiert zur Verfügung stellen, sodass Freigaben und Serverdienste genau den Speicherplatz erhalten, den sie auch benötigen. Verfügt Server A zum Beispiel über eine SSD mit etwa 500 GB Kapazität, bei der noch 20 GB frei sind, und Server B über eine 1 TB HDD mit noch 500 GB freien Speicherplatz, lässt sich hier der Speicher zu einer Gesamtkapazität von 1.5 TB zusammenfassen, bei der noch insgesamt 520 GB frei sind.

Ein Server analysiert in einem Storage Definied Network die gespeicherten Daten der Anwender, und legt häufiger verwendete auf den schnelleren Datenträgern ab. Alle anderen Daten werden automatisiert auf herkömmlichen HDD abgelegt. Es ist daher durchaus sinnvoll auf Servern mit Windows Server 2016/2019 auf Storage Pools zu setzen, vor allem dann, wenn Sie noch SSD im Einsatz haben.

In Windows Server 2016 kann ein solcher Speicher nicht nur mehrere Festplatten umfassen, sondern auch mehrere Server. Das erhöht die Flexibilität der Datenspeicherung noch weiter. Microsoft integriert in Windows Server 2016 darüber hinaus noch die Möglichkeit komplette Festplatten, auch innerhalb eines Storage Pools, auf andere Server zu replizieren. Diese Replikation erfolgt synchron und blockbasiert. Unternehmen erhalten auf diesem Weg die Möglichkeit Geo-Cluster aufzubauen. Die Technologie ist also sehr Zukunftssicher und auch in der nächsten Serverversion verfügbar.

MIT entwickelt eine KI, die Sprache wie Kinder erlernt

Beim maschinellen Lernen werden Sprachen durch Trainingssysteme an vom Menschen kommentierten Sätzen gelernt. Die Sätze beschreiben die Struktur und Bedeutung von Wörtern. Die Erfassung dieser Annotationsdaten kann zeitaufwendig sein und  ist für weniger gebräuchliche Sprachen sogar praktisch unmöglich. Annotationen spiegeln möglicherweise nicht genau wider, wie Menschen natürlich sprechen.

Wenn ein neuer Satz bereitgestellt wird, kann der neue Parser das Gelernte über die Sprachstruktur nutzen, um die Bedeutung eines Satzes ohne das zugehörige Video vorherzusagen.

Dieser Ansatz ist „schwach überwacht“, was bedeutet, dass er begrenzte Trainingsdaten erfordert. Nach Ansicht der Forscher könnte der Ansatz Datentypen erweitern und den Aufwand für die Schulung von Parsern reduzieren.

Die Forscher glauben auch, dass dieser Parser verwendet werden könnte, um die Interaktion zwischen Menschen und Robotern natürlicher zu gestalten. „Die Menschen sprechen miteinander in Teilsätzen, Laufgedanken und durcheinandergewürfelter Sprache. Sie wollen einen Roboter in Ihrem Haus, der sich an ihre besondere Art zu sprechen anpasst…. und trotzdem herausfindet, was sie bedeuten“, sagte Andrei Barbu, Mitautor der Arbeit und Forscher im Computer Science and Artificial Intelligence Laboratory (CSAIL) und im Center for Brains, Minds, and Machines (CBMM) innerhalb des MIT McGovern Institute.

In Zukunft wollen die Forscher die Modellierung von Interaktionen im Gegensatz zu rein passiven Beobachtungen untersuchen, erklärten die Forscher.

 

Business Intelligence für die Fertigung

Der Grund ist naheliegend, denn produzierende Unternehmen gehen in beträchtlichem Umfang in Vorleistung: Sie verarbeiten hochwertiges Material, fertigen Produkte und geben Geld für Service, Qualitätssicherung und Produktzertifizierungen aus. Und das alles auf den teilweise weniger detaillierten Verdacht hin, dass ihre Erzeugnisse beim Kunden auf Gegenliebe stoßen. Eine gut integrierte Business-Intelligence-Lösung hilft da deutlich weiter als das bloße Bauchgefühl.

Sind Kundenbefragungen schon Schnee von gestern?

Unternehmen orientieren sich selbstverständlich an der aktuellen Kundennachfrage – soweit sie ihnen bekannt ist. Doch aus Umfragen, einfachen Verkaufsstatistiken und dem (oft durchaus richtigen) Bauchgefühl der Vertriebsmitarbeiter entsteht kein objektives, individuelles Bild über den gegenwärtigen Bedarf der Kunden – weder hinlänglich schnell, noch umfassend genug und auch nicht zu jeder gewünschten Zeit. Zudem sind fundierte Vorhersagen zu künftigen Bedürfnissen oder dem Kundenverhalten, wenn dieses oder jenes Ereignis eintritt, so kaum möglich. Auch ist der heutige Kunde digital und mobil. Er kann jederzeit und überall auf jegliche Informationen zugreifen. Und so erwartet er auch von einem Unternehmen einen Rundum-Service – optimale Betreuung zu jeder Zeit, an jedem Ort.

In den Kunden hineinblicken

Um die Kundenbeziehung bestmöglich zu gestalten, muss man seinen Kunden also zunächst erst einmal genau kennen. Welchen Bedarf hat er wirklich? Wann benötigt er welche Information? Was bestimmt seine Entscheidungen? Diese kundenspezifischen Daten sind zentral zu erfassen. Aus ihrer Analyse leiten sich dann passgenaue Maßnahmen ab, die das Verhältnis zum Kunden positiv beeinflussen. Glücklicherweise stehen den Unternehmen elektronische Helfer zur Seite, die die vorhandenen Kundendaten analysieren, sie mit Daten weiterer Systeme verknüpfen und dem Unternehmen zu jedem seiner Kunden, zu jeder Zeit, über jedes Produkt, zu jedem Standort und so weiter entsprechende Erkenntnisse liefern. Und sind die Analyseergebnisse noch so gut grafisch aufbereitet, dass sie auf einen Blick zu erfassen sind, dann kann man jedem Kunden in Echtzeit die für ihn optimale Betreuung angedeihen lassen und hinsichtlich Produktentwicklung, Service-Angeboten oder Marketingaktionen die richtigen Weichen stellen.

Das CRM-System – Die Basis für jedes Kundenverständnis

Der Nutzen eines umfassenden Customer Relationship Managements ist allgemein anerkannt. Dennoch verwenden laut einer aktuellen Nutzerstudie von Capterra nur rund ein Viertel der deutschen KMUs professionelle CRM-Software. Der überwiegende Teil greift bei der Kundenverwaltung und -pflege auf manuelle Tools wie Excel, E-Mail-Programme und Google Sheets zurück. Eine klare Mehrheit der deutschen KMUs, die derzeit kein CRM-System nutzen, ist allerdings daran interessiert, das zu ändern. Damit stehen sie nicht allein: Laut Gartner waren CRM-Systeme im vergangenen Jahr weltweit die umsatzstärkste Sparte im Software-Markt und es ist 2018 mit weiteren zweistelligen Zuwachsraten zu rechnen. Zu den international führenden Anbietern für CRM-Software zählt Microsoft mit seinem Microsoft Dynamics 365.

Die Produktvielfalt des Branchenprimus

Dynamics 365 lässt sich natürlich bestens mit anderen MS-Produkten kombinieren. Die Programme verstehen sich, sind quasi aus einem Guss. Möchte man das CRM-System beispielweise mit Outlook oder dem Berufs-Netzwerk von LinkedIn verzahnen, so ist das mit dieser Software möglich. Für den Nutzer besonders komfortabel: eine einheitliche Oberfläche aller Microsoft-Produkte. Außerdem verfügt die Software über eine leistungsstarke Vertriebsautomatisierung und verschiedene passende Business-Intelligence-Tools, mit denen sich die im CRM-System erfassten Daten auswerten lassen – auch in Verbindung mit Daten aus anderen Quellen. Eines dieser Tools ist Power BI.

Ein Bild sagt mehr als tausend Worte

Viele Menschen sind visuell orientiert. Grafiken eignen sich daher sehr gut, um Ergebnisse zu veranschaulichen. Ein besonders performantes System zur Visualisierung und zum Dashbording ist Power BI. Dahinter verbergen sich mehrere Daten-Analyse-Tools, mit denen sich beispielsweise KPIs anschaulich darstellen lassen. Der Anwender kann die Daten mit einem Mausklick filtern, das Ergebnis erscheint sofort als Grafik. Filter helfen dabei, neue Zusammenhänge zu finden und Trends abzulesen. Der Nutzer kann zudem seine eigene, intuitiv bedienbare Dashboard-Funktionalität erstellen, was sich positiv hinsichtlich Handling und Akzeptanz auswirkt. Einmal in die vorhandene IT-Landschaft integriert, sollte man die volle Leistungsfähigkeit des Tools ausschöpfen und Daten aus weiteren Quellen in die Analyse einbeziehen. Das könnten Daten aus PPS- und Geotracking-Systemen, physikalische Messwerte oder Informationen eines Analytic-Tools für die Webseite sein.

Einblicke für das Management

Im Produktionssektor kann beispielsweise eine Pareto-Analyse dem Management anzeigen, welches die häufigsten Ursachen für Probleme sind. Das quasi per Knopfdruck erzeugte Pareto-Diagramm macht sofort klar, wo der größte Engpass im Fertigungsprozess liegt. Dies lässt sich bei Bedarf auch unkompliziert und schnell auf einzelne Produkte, Standorte oder Kundenbranchen herunterbrechen. Ein weiteres, in Industrieunternehmen verbreitetes Einsatzgebiet ist das Qualitätsmanagement. Die Datenanalyse liefert im Handumdrehen umfassende Informationen über Kundenreklamationen – auf Wunsch aufgesplittet nach Abteilung oder Produkt. Mit diesem Wissen wird die Unternehmensleitung umgehend Gegenmaßnahmen in die Wege leiten, was letztlich im Interesse des Kunden ist. Überdies wird es der Kundenpflege in der Regel förderlich sein, den Kunden zeitnah zu informieren, sobald ein Qualitätsmangel abgestellt wurde, eventuell flankiert von geeigneten Vertriebsaktionen, etwa einem Rabattangebot.

Den Kunden nie aus den Augen verlieren

Seinen Kunden im Blick zu haben, ist gut. Seinen Kunden stets, mit möglichst geringem Aufwand und ganz genau im Blick zu haben, ist besser. Power BI erlaubt es, Kundendaten effektiv zu nutzen und zu analysieren. Die Ergebnisse dienen dazu, Prozesse, insbesondere beim Customer Engagement, zu steuern und sie sorgen dafür, dass ein Unternehmen im Hinblick auf die Kundenwünsche auf dem Laufenden bleibt und ihn optimal betreuen kann.

NGFW: Neue Dimensionen der Netzwerksicherheit

Unternehmen sind heute durch verteilte Organisationsstrukturen gekennzeichnet: Es gibt häufig viele verschiedene Standorte, Firmenangehörige sowie Freelancer arbeiten flexibel in unterschiedlichen Büros, im Home-Office oder mobil. Dafür muss eine hohe Netzwerk-Konnektivität gewährleistet werden. Auch Interaktive Software-as-a-Service (SaaS)-Applikationen wie beispielsweise Office 365 erfordern äußerst schnelle, performante Verbindungen mit geringen Latenzzeiten.

Auch Bedrohungen aus dem Cyberspace stellen immer neue Anforderungen an die Netzwerksicherheit. Ransomware und Spionage-Software, welche über Exploits Zugang zum Unternehmensnetzwerk erhalten, beeinträchtigen die Funktionsweise von Netzwerkdiensten. Eine noch höhere Gefahr geht von sogenannten Evasions aus. Dabei handelt es sich um getarnte Exploits, welche den Netzwerkverkehr verschleiern, so dass die Übertragungsprozesse nicht zweifelsfrei erkannt werden können. Angriffe durch bestehende Signaturen und andere grundlegende Funktionen lassen sich so nur schwer stoppen.

Traditionelle Netzwerk-Security-Lösungen helfen hier nicht mehr weiter. Sie sind nicht in der Lage, eine ausreichende Verfügbarkeit von Daten und Anwendungen über verschiedenste Geräte, Netze und Zugriffspunkte hinweg zu gewährleisten. Zudem sind sie extrem anfällig gegenüber modernen Angriffsvarianten und lassen sich kaum skalieren und damit nur schwer an die spezifischen Anforderungen im Unternehmen anpassen.

Um diese Herausforderungen erfolgreich zu stemmen, müssen die Firmennetzwerke hinsichtlich Konnektivität, Sicherheit sowie Web- und Cloud-Fähigkeit in ein ganzheitliches Gesamtkonzept eingebunden werden. Moderne Next-Generation-Firewall-Lösungen (NGFW) sind in der Lage, Tausende von Firewalls, IPSs, VPNs und SD-WANs in nur wenigen Minuten über eine zentrale Konsole zu installieren und in Betrieb zu nehmen. Dabei lässt sich das System bedarfsgerecht skalieren und individuell an das Wachstum der jeweiligen physischen und virtuellen Unternehmensnetzwerke anpassen. Dies ermöglicht das Management hocheffizienter Prozesse in verteilten Firmennetzwerken. So sind alle Daten und Anwendungen in der gesamten IT-Infrastruktur verlässlich geschützt – egal ob im Rechenzentrum, an den verschiedenen Firmenstandorten oder in der Cloud.

NGFW bietet Anwendern umfassende Transparenz und einen 360-Grad-Blick auf die gesamte Netzwerk-Architektur. Neben der Verringerung der Komplexität können die Netzwerkkosten gesenkt, Ausfallzeiten um bis zu 50 Prozent reduziert und IT-Risiken signifikant verringert werden.

P.S.: Zum Thema „Smarte Produktionsanlagen sicher betreiben“ findet bei uns ein kostenfreies Webinar statt. Hier geht’s zur Anmeldung.

Veröffentlichen von Standortdaten

Wenn ein Standort für das Veröffentlichen in AD konfiguriert ist, können Clients über die Active Directory-Veröffentlichung gefunden werden. Dazu wird eine LDAP-Abfrage an einen globalen Katalogserver gestellt.

Sie müssen das Active Directory-Schema für System Center Configuration Manager in allen Gesamtstrukturen erweitern, in denen Sie Standortdaten veröffentlichen wollen.  Danach können Sie die Veröffentlichung durchführen:

  1. Klicken Sie in der Configuration Manager-Konsole auf „Verwaltung“.
  2. Erweitern Sie Standortkonfiguration, und klicken Sie auf „Standorte“.
  3. Wählen Sie den Standort aus, dessen Standortdaten veröffentlicht werden sollen.
  4. Klicken Sie auf der Registerkarte „Startseite“ in der Gruppe „Eigenschaften“ auf „Eigenschaften“.
  5. Wählen Sie auf der Registerkarte „Veröffentlichen“ die Gesamtstrukturen aus, in denen dieser Standort Standortdaten veröffentlichen soll.

 

Klicken Sie danach im Bereich „Verwaltung“ auf „Hierarchiekonfiguration\Active Directory-Gesamtstrukturen“. Wenn bereits eine Active Directory-Gesamtstrukturermittlung ausgeführt wurde, sind die Gesamtstrukturen hier zu sehen. Rufen Sie für die gefundene Gesamtstruktur die Eigenschaften auf.

Auf der Registerkarte „Allgemein“ können Sie einige Einstellungen vornehmen, zum Beispiel, ob die Standorte in Active Directory sowie die Subnetze erkannt werden sollen. Auch das zugreifende Benutzerkonto kann hier ausgewählt werden.

Auf der Registerkarte „Veröffentlichen“ wählen Sie die SCCM-Standorte aus, die in Active Directory veröffentlicht werden sollen.

 

BAM – CMS Blog