Archiv der Kategorie: IOT – IoT-Technologie

API? Bitte effizient und sicher!

Sicherheit von Anfang an

Merkwürdig bleibt die Erkenntnis, dass viele Unternehmen unabhängig von ihrer Branche bereits praktische Erfahrungen mit solchen negativen Auswirkungen gemacht haben – dennoch wird die IT-Sicherheit in der Entwicklung meist viel zu spät oder gar nicht betrachtet. Das ist nicht nur verwunderlich, sondern hat im Ernstfall fatale Folgen. Darum sollte das Thema „IT-Sicherheit“ in einem professionell geplanten „Secure Software Development Life Cycle“ (SSDLC) in jedem Schritt integriert sein. Insbesondere im boomenden Bereich der „Internet of Things“ (IoT) -Applikationen ist verstärkt darauf zu achten, dass eine ausreichende Sicherheitsbetrachtung bereits in der Design-Phase erfolgt. Kostspielige Anpassungen nachträglich sichtbar werdender Schwachstellen können so bereits im Vorfeld vermieden werden. Eine Korrektur ist in diesem frühen Zustand deutlich einfacher umzusetzen.

Auch in Industrieanlagen ist mit Blick auf I.40 Anwendungen ein starker Anstieg von APIs feststellbar. Der Vorteil, einen einfachen REST-API-Aufruf aufzubauen, abzuschicken und ggf. das Ergebnis zu verarbeiten, benötigt in den meisten Fällen nur wenig Rechenkapazität. Auch hier kann der fehlende Fokus auf die IT-Sicherheit die angedachten Vorteile einer digitalen Transformation des innerbetrieblichen Logistikwesens schnell neutralisieren.

Fünf Faktoren für sichere APIs

Um Schnittstellen (APIs) sicher entwickeln zu können, sollten stets diese fünf Faktoren beachtet werden:

  • Erster Schritt: Identifizierung & Authentifizierung. Zuerst muss klar sein, wer oder was auf die eigenen Ressourcen zugreifen möchte. Nur, wenn diese Daten vorliegen, sollte ein Zugriff erlaubt werden.
  • Zweiter Schritt: Autorisierung. Nach einer erfolgreichen Authentifizierung sollte eine separate Autorisierung erfolgen, um einen Zugriff / Nutzbarkeit entsprechend der Benutzerberechtigung bereitzustellen.
  • Dritter Schritt: Hiernach ist eine Überprüfung erforderlich, ob ein API-Aufruf  Informationen über die dahinter liegende Architektur preisgibt. Denn das darf in niemals der Fall sein.
  • Vierter Schritt: API Keys sind keine Secrets. Daher muss sicher gestellt sein, dass diese auch nicht als solche behandelt werden.
  • Fünfter Schritte: Nun können Input-, Data- und Plausibilitätskontrollen folgen.

Natürlich gibt es neben den fünf genannten Faktoren noch weitere, welche in der Entwicklung und im Lifecycle beachtet werden sollten.

Beispielarchitektur

Im Kontext der industriellen Nutzung von APIs und IoT-Geräten würde eine Architektur wie folgt aussehen (siehe Abbildung 1). Die Grafik veranschaulicht beispielhaft, wie Sensoren oder andere IoT- Geräte an Maschinen einer Produktion über eine (Micro-) API-Architektur angebunden werden könnten. Hierbei hat jede Maschine eigene IoT Geräte, welche jeweils eine andere Funktion erfüllen. Jene sind durch diverse Anwendungsfälle definiert, wie beispielsweise das Messen der Temperatur, Luftfeuchtigkeit, die Position der Produkte oder deren Abmessung. Dabei koordiniert ein API-Gateway die Schnittstellen, damit die IoT-Geräte die Anfragen an eine zentrale Stelle schicken. An dieser Stelle können dann entsprechende Sicherheitsmechanismen platziert werden. Das API- Gateway leitet die Anfragen an die einzelnen Endpunkte zu Verarbeitung weiter. Zusätzlich helfen Micro Gateways dabei, die Micro Services zu koordinieren und zu managen.

 

 

 

Realistische Erwartungen an das IIoT

Das Industrial Internet of Things (IIoT) ist für die meisten Unternehmen nach wie vor Neuland. Die Erwartungshaltung ist hoch, verspricht die umfassende Automatisierung, Konnektivität und Analytik doch ein Plus an Effizienz und damit Chancen auf Gewinnsteigerung und Kostenminimierung. Anwender, die zum ersten Mal in Richtung IIoT aufbrechen, erwarten dabei häufig ähnliche Vorteile und Verbesserungen wie durch Manufacturing Execution Systeme (MES). Die Wunschvorstellung: 100.000 im Sekundentakt erfasste Sensordaten und IIoT-Edge-Geräte, die über massive Skalierbarkeit und endlose Rechenleistung verfügen und die Daten in die Cloud übertragen.

Diese Vorstellung mag nicht ganz falsch sein, kann jedoch in einigen Fällen zu Enttäuschungen und Fehleinschätzungen führen. Nicht jedes Edge-Gerät bietet automatisch die nötige Bandbreite oder die Funktionen, um Daten wunschgemäß zu verarbeiten. Wie effizient und sinnvoll IIoT-Anwendungen tatsächlich sind, hängt immer von mehreren Faktoren ab und unterscheidet sich von Fall zu Fall. Selbst wenn die passende Edge-Hardware für ausreichend Konnektivität ausgewählt wurde, können trotzdem Einschränkungen in Bezug auf das Datenvolumen und Häufigkeit der Datenübermittlung auftreten.

Kostenfaktor und Sicherheit IIoT

Bei der Umsetzung eines industriellen IoT-Projekts ist es wichtig, genaue Informationen zu den betreffenden Edge-Geräten, Industrieprotokollen, Sensoren und Netzwerken vorliegen zu haben. Insbesondere betrifft das auch die Kosten jedes einzelnen IIoT-Bausteins. Edge-Geräte verfügen in der Regel über eine Vielzahl von Features, die mit unterschiedlichen Kosten verbunden sind. Dabei reicht die Spannweite von einigen Hundert bis zu Tausenden von Euros. Hinzu kommen hohe Netznutzungsentgelte – zum Beispiel für die Übertragung per Mobilfunk oder Satellit– sowie durch Kosten für die Datenspeicherung in der Cloud. Letztendlich ist das Ziel von IIoT-Projekten zwar die Optimierung der maximalen Wertschöpfung. Doch zunächst ist dabei immer auch mit Kosten zu rechnen.

Der Umgang mit den hohen Erwartungen ist ein wichtiger Aspekt eines jeden IIoT-Projekts. Ein mobiles Edge-Gerät mit niedrigem Stromverbrauch und geringen Onboard-Ressourcen ist schlichtweg nicht darauf ausgelegt, die Daten von 10.000 Sensoren in die Cloud zu übertragen. Realistischer ist es hier entweder das Datenvolumen auf 100 Sensordaten zu reduzieren oder ausreichende Ressourcen an der Schnittstelle zwischen Sensoren und Cloud zur Verfügung zu stellen, – einschließlich der nötigen Bandbreite für das Netzwerk.

Neben Kosten ist auch das Thema Sicherheit zu berücksichtigen. Eine absolute Garantie gibt es hier nicht, lediglich Best-in-Class Practices und bewährte Sicherheitsmaßnahmen. Sicheres IIoT kann als Kombination von zuverlässiger Hardware + Software + Installation + sicherer Kommunikationsprozesse verstanden werden. Sind in einem IIOT-Projekt diese Vorgaben erfüllt, lässt sich das Sicherheitsrisiko zumindest auf ein Mindestmaß reduzieren.

Die passende Anwendung

Grundlegendes Know-how in der Prozessinstrumentierung ist die Voraussetzung dafür, um die richtige Entscheidung bei der Auswahl der Geräte, Sensoren und Anwendungen treffen zu können. Dabei muss von vorherein klar definiert sein, welche Aufgaben durch den Einsatz von IIoT gelöst werden sollen. Klare Zielvorgaben erleichtern es, die passende Anwendung auszuwählen und gleichzeitig Anforderungen hinsichtlich des Prozessbetriebs, der Wartung und der IT-Teams im Unternehmen zu erfüllen. Nicht alle gesammelten Daten aus Edge-Geräten sind relevant für die geschäftlichen Anforderungen und rechtfertigen ein IIoT-Projekt.

IIoT-Anwendungen sind für komplexe Aufgaben konzipiert, um eine große Menge an Prozessdaten-Variablen und ihren Beziehungen untereinander zu verarbeiten und nutzbar zu machen. Gefragt sind Big Data Tools und hohe Rechenleistung. Es ist das Einsatzgebiet von Künstlicher Intelligenz, multivariater Analyse, Mustererkennung, Ereigniserkennung und maschinellem Lernen. Sämtliche Systeme und Anlagen für IIoT aufzurüsten, hilft Unternehmen nicht zum Durchbruch.

Vielmehr sollte die ausgewählte Lösung auf die spezifischen Anforderungen der Anlage und der Prozesse zugeschnitten sein (zum Beispiel kontinuierliche oder Batch). Soll beispielsweise ein Qualitätsproblem eines Assets behoben werden, sind mit hoher Wahrscheinlichkeit multivariate Analysetools notwendig. Handelt es sich um die Implementation von vorausschauender Wartung und Fehlerfrüherkennung mit dynamischen Modellen, empfiehlt sich eine Applikation für Maschinelles Lernen.

IIoT-Deployment

Auch in Sachen IIoT-Deployment gilt es, eine Vielzahl von Fragen zu beantworten: Soll die Anwendung cloudbasiert arbeiten oder On-Premise? Benötigt die Lösung High-Speed-Computing mit geringer Latenzzeit, um die Appplikation näher an das Edge-Gerät zu bringen? Und wie wirken sich die damit verbundenen Kosten auf das Return on Investment (ROI) aus?

Mit der Wahl der richtigen Konnektivität, der richtigen Sensoren und der richtigen Anwendung unter Berücksichtigung aller Kosten ist ein erster wichtiger Schritt in Richtung IIoT getan. Doch sollten Unternehmen sich bewusst sein, dass die Auswahl an Lösungen und Technologien in allen Bereichen von Tag zu Tag wächst. Umso wichtiger ist es, bei allen Vorteilen und Möglichkeiten des IIoTs realistische Erwartungen vorzugeben, die sich innerhalb der eigenen Unternehmensstrategie umsetzen lassen.

 

 

Mobile Arbeitskräfte im Zeitalter der Plattformwirtschaft

Es nicht noch nicht lange her, da ebnete das Brechen des Status quo den Weg zur Marktführerschaft. Jetzt ist diese Taktik nur noch ein Mittel zum Überleben. Mit dem Aufstieg der Platform-Economy nutzen nicht nur Uber und Amazon die digitale Transformation – jeder „bewegt sich schnell und zerschlägt die Dinge“, vor allem um Wettbewerb abzuwehren und im Geschäft zu bleiben.

Seit Beginn des 21. Jahrhunderts erleben wir technologische Innovationen. Wenn man jedoch der Meinung ist, dass die letzten 10 Jahre disruptiv waren, so steht der größte Wandel noch bevor – vor allem in Form der Mitarbeitermobilität. Verschiedene Studien zeigen, dass Mobilität die Zufriedenheit der Mitarbeiter steigert und in der Folge ihre Produktivität verbessert. Es wird geschätzt, dass bis zum Jahr 2022 42,5 Prozent der weltweiten Workforce mobil sein wird.

Die Mitarbeiter werden jederzeit und von überall arbeiten können und werden ihre smarten Geräte sowohl für die Arbeit als auch für die Freizeit nutzen. Sind das Phantastereien? Nun, es ist bereits Realität. Smartphones mit einer Netzwerkverbindung oder ein Gerät, das mit dem Internet der Dinge verbunden ist, sind für die „mobile-first“ Mitarbeiter eine unverzichtbare Komponente.

Doch wie werden diese mobilen Arbeitskräfte die neue digitale Plattformökonomie prägen?

Das Angebot befriedigt nicht die Nachfrage

Mobilität befreit die Mitarbeiter auf einen Schlag von ihrem physischen Arbeitsplatz. Unternehmen haben heute ihren eigenen Social Media Bereich, der Funktionalitäten wie Crowd-Sourcing und die Shared Economy nutzt, um neue Arbeitsformen zu schaffen.

Damit Unternehmen den Anforderungen dieser sich schnell mobilisierenden Mitarbeiter gerecht werden, müssen sich CIOs auf einen mobilen Plattformansatz konzentrieren, der den Zugriff auf eine Vielzahl von Unternehmensanwendungen in Echtzeit über das Handy ermöglicht – ganz unabhängig von Standort und Netzwerk.

Doch die Anbieter von Kommunikationsdiensten (CSPs) hinken hinterher. Obwohl es etwa 900 netzwerkbasierte mobile CSPs gibt, ist eine gewisse Zurückhaltung zu erkennen, Netzwerke und Dienste über Application Programming Interfaces (APIs) freizuschalten.

Es gibt einen Weg nach vorn

Der nächste Schritt ist der Übergang von vereinfachten mobilen Diensten, bei denen die Endbenutzer einfach eine Nachricht senden oder einen Anruf tätigen, zu einem wesentlich anspruchsvolleren Dienst.

Wenn Service Provider bereit sind, weiter fortgeschrittene Mobilfunkdienste anzubieten, dann ist es sowohl für Käufer als auch für Verkäufer eine Win-Win-Situation. Unternehmen werden eine deutliche Verbesserung dessen erleben, was über Mobiltelefone möglich ist – sei es durch umfangreichere Unified Communications und Collaboration-Lösungen, oder durch einfachen Zugriff auf Cloud-basierte Dienste. In der Folge können die neuen, dabei entstehenden Geschäftsmodelle und Dienstleistungen zu Wertschöpfung in Höhe von über einer Milliarden Dollar für die Mobilfunkindustrie führen.

Um dies zu erreichen, bedarf es eines Umdenkens. Arbeitgeber und Arbeitnehmer sollten Mobilität in der gleichen Weise wahrnehmen, wie sie heute das weltweite Netz oder die Cloud erleben. Alle Apps, Inhalte und Dienste sollten über das Mobilgerät zugänglich sein, unabhängig vom Standort und ohne die hohen Kosten des Datenroaming.

Auf dem Vormarsch in Richtung 5G werden wir sehen, wie neue Modelle von Mobilfunkanbietern übernommen werden. Mobile Dienste können so bereitgestellt werden, dass sie die Struktur des World Wide Web widerspiegeln und ein einheitliches, nahtloses Erlebnis auf globaler Basis bieten.

Die Zeit zum Liefern ist jetzt gekommen

Ericsson prognostiziert bis 2022 weltweit 6,8 Milliarden Smartphone-Teilnehmer und 29 Milliarden vernetzte Geräte.

Mobile Dienste sollten bereits jetzt mit der Versorgung dieses riesigen Marktes beginnen. Und CIOs sollten erkennen, dass sie sich auf programmierbare, grenzenlose mobile Dienste verlassen können, ohne dass sie auf Kosten, Sicherheit oder Zugangsbeschränkungen stoßen, denen sie heute noch gegenüberstehen.

Dem digitalen Kunden auf der Spur

Im digitalen Zeitalter ist es für Unternehmen wichtig, den Kunden in allen Phasen der Kundeninteraktion (Customer Journey) ein besonderes Erlebnis zu bieten. Dazu gehören schneller und reibungsloser Service, personalisierte Inhalte und eine konsistente Erfahrung über alle Kanäle hinweg. Gleichgültig, ob der Kunde über die mobile App, den Online-Shop, das Callcenter oder vor Ort in der Filiale mit dem Unternehmen in Kontakt tritt – die Angebote müssen aufeinander abgestimmt sein und eine durchgängige Erfahrung bieten.

Vier Phasen sind in der Customer Journey zu unterscheiden: Aufmerksamkeit, Interesse, Kauf und Service.

1. Aufmerksamkeit (Awareness)

Früher wurden Kunden vor allem durch Anzeigen in gedruckten Medien, TV-Werbung oder Plakate auf Produkte und Leistungen aufmerksam. Nun, da das Internet die Kommunikation prägt, ist es Ziel jeder Marketing-Abteilung, ein Top-Ranking bei den Anfragen in Suchmaschinen zu erreichen. Dazu kommt Online-Werbung, die sich am Besuchs- und Leseverhalten des Anwenders im Internet orientiert, oder Content-Marketing in Form von Texten, Bildern, Audio- oder Videomaterial mit personalisierten Inhalten. Weitere Impulse kommen über Empfehlungen aus sozialen Netzwerken wie Facebook, Pinterest oder Fancy, auf denen Anwender Produkte „liken“ können, die ihnen gefallen.

2. Interesse (Interest)

Ist das Interesse geweckt, so will sich der potentielle Kunde in der Regel eingehender informieren. Dazu blieb ihm früher nur der Weg in ein Ladengeschäft. Heute steht ein umfassendes Spektrum von Informationsmöglichkeiten zur Verfügung: Produkt-Videos auf YouTube, Meinungen und Bewertungen anderer Kunden in Online-Foren oder sozialen Netzwerken schaffen Transparenz und unterstützen den Kunden bei seiner Entscheidung. Die Käufer sind oft sogar besser informiert als die Verkäufer. Unternehmen müssen dabei berücksichtigen, dass sich die Kunden beim Kauf stärker an den Empfehlungen von Bekannten und Freunden aus ihren sozialen Netzwerken orientieren als an Vertriebs- und Marketing-Botschaften.

 3. Kauf (Purchase)

In Zeiten von Online-Shops und E-Commerce erwartet der Kunde, das Produkt direkt und unmittelbar kaufen zu können. Unternehmen müssen daher die Transaktionen möglichst einfach gestalten. Gelingt es, ihre potenziellen Kunden aus den sozialen Netzwerken und Online-Plattformen direkt auf ihre E-Commerce-Angebote zu leiten, erzielen sie einen klaren Wettbewerbsvorteil. Im Idealfall sind Online- und die Offline-Welt nahtlos miteinander verbunden. Will ein Kunde das Produkt nicht online kaufen, bieten innovative Unternehmen einen Termin beim nächstgelegenen Händler vor Ort an. Da der Händler mit dem Online-Shop vernetzt ist, kennen die Verkäufer die Historie und Bedürfnisse des Kunden – und können ihm passgenaue Zusatz- oder Sonderangebote vorschlagen.

4. Service

Auch die Fulfillment-Prozesse müssen in die digitale Prozesskette eingebunden und für den Kunden transparent sein. Kunden akzeptieren keine Lieferverzögerungen mehr. Mittlerweile gilt auch Self Service wieder als wichtiges Mittel, um die Kundenbindung zu erhöhen und gleichzeitig Kosten zu reduzieren. Mittlerweile geht der Trend zu virtuellen Beratern, die Natural Language Processing, Text Analytics und Predictive Analytics nutzen, um Kunden mit relevanten Vorschlägen bei der Lösung von Serviceanfragen zu unterstützen. Natürlich muss auch die persönliche Interaktion mit einem Berater möglich sein, der über das CRM-System die komplette Kundenhistorie kennt.

Eine konsistente, kanalunabhängige Customer Journey setzt eine leistungsfähige Hardware und Infrastruktur voraus. Hier bietet sich – abhängig vom individuellen Anwendungsfall und der Sensibilität der Daten – auch eine Cloud-Lösung an. Dadurch fallen Administrationsaufgaben weg und Unternehmen können sich auf die strategischen Fragen konzentrieren. Da sich Cloud-Systeme zudem einfach skalieren lassen, können sie auch die Basis für Big-Data- und Predictive-Analytics-Projekte bilden, mit denen Firmen im Rahmen statistischer Wahrscheinlichkeit das wahrscheinliche Kundenverhalten vorhersagen können. Mit Hilfe der Analytics-Systeme ist es auch möglich, die Kundenbedürfnisse in Echtzeit zu antizipieren und dem Kunden relevante Vorschläge anzubieten (Next Best Action).

Das Mapping einer Customer Journey, also die graphische Erfassung der relevanten Interaktionen, verschafft den Unternehmen zusätzlich Übersicht und erlaubt es, kritische Stellen im Prozess rechtzeitig zu identifizieren beziehungsweise die Erfahrung interaktiv zu optimieren.

Das Customer-Journey-Management lässt sich auch in CRM-Lösungen (Customer Relationship Management) integrieren. Sie ermöglichen nicht nur einen umfassenden Blick auf den Kunden und alle seine Interaktionen, sondern führen und unterstützen auch Benutzer wie Vertriebsmitarbeiter, Makler oder Kunden im Customer Self Service rollenbasiert im ganzen Service -und Vertriebsprozess. Auch Konzepte zur Prozess-Automatisierung wie Business Process Management (BPM), Dynamic Case Management (DCM) und Robotic Process Automation (RPA) lassen sich im Rahmen des Customer-Journey-Managements nutzen.

Angesichts der wachsenden Bedeutung mobiler Endgeräte, ist es unerlässlich, dass sich die betreffenden Lösungen auch mobil nutzen lassen, und dass mobile Anwendungen im Bereich CRM und Customer Journey wiederum eng mit den anderen Kanälen und Prozessen verknüpft sind. Eine reibungslose Customer Journey bedeutet auf Seiten des Kunden ein optimales Einkaufserlebnis und das ist die Basis für langfristige Kundenbindung und eine gute Position im Wettbewerb.

Zehn Punkte, die Unternehmen beachten sollten:

Für die digitale Customer Journey ergeben sich daraus zehn Punkte, die Unternehmen beachten sollten, um wettbewerbsfähig zu bleiben:

  • Always-Online-Kunden: Da viele Kunden heute permanent auf das Internet zugreifen können, ist eine rein transaktionsorientierte Beziehung zum Kunden heute wenig sinnvoll. Unternehmen müssen daher jederzeit und in Echtzeit über alle Kanäle hinweg mit dem Kunden interagieren.
  • Mobil: Die Verbraucher sind heute auch wegen mobiler Endgeräte wie Smartphones und Tablets nahezu immer online. Rund 50 Prozent des Internetverkehrs entsteht heute durch die mobilen Geräte.
  • Internet der Dinge: Das Internet der Dinge ist unaufhaltbar auf dem Vormarsch. Vernetzte Geräte aller Art werden dadurch zu einem weiteren, Kanal für Unternehmen, um Daten in ihrem CRM-System zu sammeln. Ein Beispiel sind Versicherer, die etwa für die Kfz-Versicherung Daten von vernetzten Autos sammeln.
  • Verständnis der Kundenbedürfnisse: Der Always-Online-Customer bietet für Unternehmen eine große Chance, da Kunden auf allen digitalen Kanälen und Touchpoints massenweise Daten hinterlassen. Aus der Analyse dieser Daten lassen sich Erkenntnisse über die tatsächlichen Kundenbedürfnisse gewinnen.
  • Personalisierung: Digitales Marketing nach dem Gießkannen-Prinzip ist nicht mehr gefragt. Die Analyse der Bedürfnisse der Kunden bildet die Basis für individuelle und personalisierte Angebote, die sich bei Bedarf auch in Echtzeit anpassen lassen. Unternehmen müssen daher umdenken und den Kunden nicht mehr als anonymen Teil einer Gruppe ansprechen, sondern als Individuum.
  • Kanalübergreifende Interaktionen: Kunden erwarten eine konsistente Erfahrung und Interaktion auf allen Kanälen, sei es die mobile App, der Online-Shop, das Callcenter oder die Filiale vor Ort. Die Angebote müssen aufeinander abgestimmt sein und eine durchgängige Erfahrung bieten. Dass das Callcenter nicht weiß, was der Kunde im Online-Shop bestellt hat, darf nicht vorkommen.
  • Vertrauen: Die Sicherheit der Kundendaten sowie Transparenz über deren Nutzung haben höchste Priorität. Verlieren Kunden das Vertrauen in die Sicherheit ihrer persönlichen Daten, werden sie zu einem anderen Anbieter wechseln.
  • Keep it simple: Self-Service-Angebote wie Mobile Apps, Web-Seiten sowie die Interaktion mit dem Kundendienst müssen einfach und intuitiv sein.
  • Neue digitale Prozesse: Viele Unternehmen machen den Fehler und konzentrieren sich auf die Optimierung und Digitalisierung der bekannten Prozesse. Stattdessen sollten sie über neue, digitale Prozesse nachdenken. Ein interessantes Beispiel ist die Nutzung von Twitter für Kundendienstanfragen durch Apple.
  • Digitalisierung ist Chefsache: Da Unternehmen im Rahmen der digitalen Transformation nicht nur bestehende Prozesse ändern, sondern oft auch ihre Organisationsstruktur verändern müssen, sollte der CEO das Projekt leiten oder zumindest den verantwortlichen Personen den Rücken stärken. In einigen Unternehmen wurde bereits mit dem Chief Digital Officer (CDO) eine eigene Position hierfür geschaffen.

IoT braucht kein 5G

Laut einer Gartner-Studie wird das Internet der Dinge (IoT) bereits in zwei Jahren über 25 Milliarden Geräte umfassen. Vor allem Consumer Electronics wie Komponenten aus dem Heimnetz oder Smart Home gehören dazu. Aber auch immer mehr intelligente Maschinen, Autos, Smart Meter und ganze Smart Citys sorgen für eine steigende Vernetzungsrate. Nicht selten kommt dabei Mobilfunktechnologie zum Einsatz – allerdings mitnichten der derzeitige Topstandard 4G. Schließlich geht es bei den meisten IoT-Anwendungen nicht um hohe Bandbreiten wie etwa beim mobilen Internet für Endkunden, sondern um die verlässliche Übertragung von zumeist kleineren Datenpaketen. Auch der Energieverbrauch spielt eine Rolle.

In vielen Unternehmen mangelt es an IoT-Know-how

„Die Bandbreiten und Geschwindigkeiten von 3G, 2G oder auch GSM reichen in den meisten Fällen absolut aus, um etwa im Industrie 4.0-Umfeld Informationen zwischen Maschinen auszutauschen“, sagt Peter Matthes von Siwaltec. Das Unternehmen hat sich als Teil der TGE Gruppe auf SIM-Kartenlösungen spezialisiert. „4G oder gar das zukünftige 5G spielen dabei eine untergeordnete Rolle“, so Matthes. Der Trend, dass die Bandbreite immer höher werden müsse, treffe auf Mobilfunk-basierte IoT-Lösungen für Unternehmen eher nicht zu. „Hier kommt es vielmehr darauf an, stabile und verlässliche Übertragungen zu gewährleisten, die nicht zu viel Energie beanspruchen.“ Dass dennoch viele Unternehmen 5G entgegenfiebern, obwohl es für die meisten IoT-Anwendungen weitgehend irrelevant ist, zeigt laut Matthes, dass es in den Unternehmen weiterhin an entsprechendem Fachwissen mangelt. Statt willkürlich in neue Technologien zu investieren, sollten die Unternehmen sich zunächst auf die Grundlagen fokussieren und nötigenfalls externe Experten hinzuziehen.

Narrowband-IoT dringt bis in den Keller vor

Die Tatsache, dass 4G und 5G eher nicht die Lösung für derzeitige und wohl auch zukünftige IoT-Lösungen sind, bedeutet allerdings nicht, dass neuere Mobilfunkstandards komplett ignoriert werden sollten. Denn mit dem sogenannten Narrowband-IoT gibt es mittlerweile einen eigens fürs Internet der Dinge entwickelten Mobilfunkstandard – wie man schon am Namen erkennen kann.

Wie etwa GSM eignet sich Narrowband-IoT für Anwendungen, die geringe Datenraten benötigen. Batteriebetriebene Geräte wie Rauchmelder oder Stromzähler funktionieren so zuverlässig bis zu zehn Jahre, bevor die Batterien ausgetauscht werden müssen. Vor allem aber dringt Narrowband-IoT bis tief in Gebäude vor, sodass selbst Gerätschaften im Kellergeschoss per Mobilfunk mit dem Internet of Things verknüpft werden können.

Laut Oliver Wierichs, Principal Manager IoT Devices bei Vodafone, ergeben sich durch die reduzierte Datenrate im Vergleich zu 4G/LTE zudem deutliche Einsparungen bei der Hardware. „Man verwendet kleinere Prozessoren, weniger Speicher und auch das Funkmodul wurde vereinfacht, ohne dabei auf wichtige Eigenschaften des Mobilfunks, wie beispielsweise Sicherheit und Verschlüsselung, zu verzichten“, erklärte Oliver Wierichs kürzlich in einem Gespräch mit dem Verband der Internetwirtschaft, eco.

Laut der GSM Association (GSMA) gibt es auf internationaler Ebene bereits über 50 Narrowband-IoT-Netze. Allein auf Vodafone gehen dabei weltweit zehn kommerzielle Netze zurück. „Unsere Labors sind ausgebucht und wir testen mit Hunderten von Kunden weltweit“, berichtet Oliver Wierichs. „In Deutschland haben wir rund 90 Prozent der 4G-Basisstationen mit Narrowband-IoT ausgestattet.“ Insofern ist 4G dann doch wieder nützlich, um die Entwicklung des Internet of Things weiter voranzutreiben.

DevOps: Im Wettlauf um die Digitalisierung

Laut Umfrage des Softwareunternehmens CA Technologies charakterisieren 88 Prozent der Unternehmen in Deutschland agile Methoden und DevOps-Praktiken, also die Synergie aus Development und Operations, als erfolgsentscheidend bei der Digitalen Transformation.

Vor allem die schnellere Entwicklungszeit von Software und Services stehen im Mittelpunkt von DevOps-Initiativen. Daneben verfolgen Unternehmen auch Ziele wie einen höheren Automatisierungsgrad, eine schnellere Marktreife und eine bessere Qualität von Services sowie geringere Investitions- und Betriebskosten. Dennoch haben bisherige DevOps-Projekte nicht den erhofften Erfolg gebracht. Laut Enterprise DevOps Survey 2017 geben acht von zehn CIOs an, dass ihre DevOps-Initiativen bislang gar nicht oder nur teilweise erfolgreich verliefen.

Unternehmen wollen hohes Innovationstempo erzielen

Mittels DevOps-Ansatz sollen Entwickler-Teams neue Funktionalitäten und somit neue Software-Releases in hoher Geschwindigkeit bei höchstmöglicher Qualität und ohne Ausfallzeiten produzieren (Continuous Delivery). Der Code wird vor der Implementierung erstellt, getestet und integriert. Möglich machen soll dies der Prozessverbesserungsansatz DevOps. Über diesen sollen einzelne Abläufe, genutzte Tools, Infrastrukturen und alle beteiligten Mitarbeiter optimal aufeinander abgestimmt werden.

Maximal optimiert, soll es der DevOps-Ansatz so möglich machen, mehrfach tagesaktuelle Software-Updates zu liefern. Entscheidend dabei ist, dass das Entwickler-Team Hand in Hand mit dem Operations-Team (Ops, IT-Betrieb) zusammenarbeitet. Denn bei der Auslieferung neuer Releases gibt es typischerweise Spannungen zwischen beiden Teams. Während Developer darauf bedacht sind, dem Endnutzer neue Funktionen so schnell wie möglich zur Verfügung zu stellen, ist das Ops-Team primär auf das Minimieren von möglichen Ausfallrisiken mit Blick auf das gesamte IT-System fokussiert. Doch das Tempo, in dem digitale Services entwickelt und vom Nutzer gefordert werden, hat sich um ein Vielfaches erhöht – und wird durch die zunehmende Automatisierung noch zusätzlich befeuert. Darüber hinaus verstärkt der Paradigmenwechsel des DevOps-Ansatzes dieses Chaos noch weiter: lautete die Prämisse früher, ausfallsichere Anwendungen bereitzustellen, ist heute primär eine „safe-to-fail“ Produktionsumgebung erforderlich. Sowohl die Tempoerhöhung im laufenden IT-Betrieb als auch der Paradigmenwechsel stellt IT-Operation-Teams vor große Herausforderungen – und führt folglich oft zu einem sprichwörtlich erhöhten Daten- und Verwaltungs-Chaos in Produktionsumgebungen.

Kulturelle Aspekte entscheiden über Erfolg oder Misserfolg

Eine enge Zusammenarbeit und Kommunikation zwischen den für die Service-Entwicklung und -Bereitstellung zuständigen IT-Teammitgliedern wird somit unerlässlich. Doch genau an dieser Stelle hapert es. So sind es vor allem kulturelle und kommunikative, weniger die technologischen Aspekte, warum DevOps-Ansätze scheitern. Bedenkt man zusätzlich, dass neben DevOps-Mitarbeitern auch SecOps, Quality-Assurance (QA), Systemarchitekten, DBAs, NetOps und Helpdesk beteiligt sind, erhöht sich das Potenzial für eine mögliche Fehlkommunikation weiter. Diesem Aspekt wird auch bei der Messung des Reifegrads von DevOps-Initiativen eine hohe Bedeutung beigemessen. Ähnlich den Prinzipien des Software Capability Maturity Model (SW-CMM) und des vom Software Engineering Institute (SEI) der Carnegie Mellon Universität eingeführten IDEAL-Modells wird die Reife von DevOps demnach durch zwei Schlüsselattribute beeinflusst. Beide sind für das reibungslose Funktionieren einer DevOps-Organisation entscheidend. Das erste Schlüsselattribut ist die kulturelle Dimension. Die Herausforderung besteht darin, dass jedes Team – ob IT-Betrieb, QA- oder Entwickler-Team – naturgemäß eigene, spezifische Zielsetzungen verfolgt. So fokussieren sich Developer meist auf die Anzahl der Releases, die kontinuierlich erstellt werden können. Das QA-Team testet hingegen Anwendungsszenarien, wobei die Ausfallsicherheit des gesamten IT-Betriebs für das Ops-Team die höchste Priorität hat. Ist also eine DevOps-Organisation noch nicht entsprechend zusammengewachsen, konzentrieren sich die jeweiligen Teams eher auf die Optimierung ihrer eigenen Bereiche und eingesetzten Technologien wie Versionskontrollmanagement, kontinuierliche Integration, automatisiertes Testen, Deployment und Konfigurationsmanagement. Das zweite Schlüsselattribut für den DevOps-Reifegrad ist der Grad der Transparenz innerhalb einer Organisation – und zwar darüber, welche Technologien eingesetzt werden.

Sichtbarkeit bei allen Beteiligten muss gewährleistet sein

Die Etablierung einer effektiven Feedback-Schleife, einer durchgängigen Sichtbarkeit und Transparenz innerhalb der DevOps-Organisation ist also absolut erfolgskritisch. Dies lässt sich an einem typischen Beispiel veranschaulichen: Entwickler schreiben Code und bauen diesen zusammen, danach folgt die Qualitätssicherung, in der der Code getestet wird. Anschließend überwacht der Release-Manager die Integration und die Auslieferung (Deployment). An diesem Punkt findet jedoch das Operations-Team ein Softwareproblem, das ab einer bestimmten Skalierung negative Auswirkungen hat. Das Entwicklerteam muss also den zugrundeliegenden Fehler schnell identifizieren können und neuen Code schreiben, der dann in der Produktionsumgebung korrekt funktioniert. Gibt es jedoch von Anfang an eine bessere Transparenz innerhalb der Prozesse und hat jeder Beteiligte Einsicht in das System, kann das Dev-Team bereits selbst mögliche Fehler erkennen. Diese müssten dann nicht erst im Nachhinein vom Ops-Team entdeckt werden. Somit könnte der gesamte Bereitstellungs- und Auslieferungs-Prozess weniger zeitintensiv und Feedbackschleifen wesentlich effektiver gestaltet werden.

Die Sichtbarkeit ist in diesem Fall also ein erfolgskritischer Teil des gesamten Prozesses und ermöglicht allen Beteiligten ein gemeinsames Bild der Lage. Doch weil Unternehmen, historisch gewachsen, oft eine Vielzahl von Netzwerk-, Infrastruktur- und Application-Performance-Management-Tools einsetzen, wird die Ansicht auf Systemebene über alle Schichten des Service-Stacks und deren Abhängigkeiten hinweg verschleiert. Um also den im Rahmen von DevOps-Initiativen benötigten Überblick zu erhalten, brauchen Unternehmen einen Einblick in alle Interdependenzen der Infrastruktur-Subsysteme und -Anwendungen. Hierbei können insbesondere intelligente Daten (Smart Data) eine wesentliche Rolle spielen. Intelligente Daten sind Metadaten. Sie sollen Auskunft darüber geben, wie Leitungsdaten (Wire Data), beispielsweise Netzwerk- und Leistungsinformationen, verwaltet und verarbeitet werden. Smarte Daten analysieren dabei jedes IP-Paket, das während eines Entwicklungszyklus über das Netzwerk läuft und helfen dabei, ein gemeinsames Lagebild für alle am Prozess beteiligten Mitarbeiter zu schaffen. Daraus lassen sich auch Erkenntnisse gewinnen, wie sich Anwendungen innerhalb ihres Netzwerks verhalten und optimiert werden können. Somit können DevOps-Teams Anomalien schneller erkennen und auf mögliche Sicherheits- und Performance-Probleme reagieren. Für 73 Prozent der IT-Entscheider hat daher das Monitoring – insbesondere für Anwendungen im Kundenkontakt – laut Analystenhaus Forrester eine hohe Bedeutung. Darüber hinaus rät das Analystenhaus einen „Single Point of Truth“ einzurichten und auf ein einzelnes Monitoring-Tool zu setzen.

DevOps-Initiativen wirken sich positiv auf IT-Performance aus

DevOps-Initiativen sind vor allem dann erfolgreich, wenn Organisationen es schaffen, Silodenken aufzulösen, allen Beteiligten eine gemeinsame Sicht auf Prozesse und Systeme zu ermöglichen – und vor allem eine Kultur der Zusammenarbeit und der kontinuierlichen Kommunikation zu etablieren. Werden diese Herausforderungen gemeistert, wirkt sich der DevOps-Ansatz laut des State of DevOps Report 2017 von Puppet sowohl finanziell positiv als auch leistungssteigernd aus. So müssen leistungsstarke DevOps-Organisationen 21 Prozent weniger Zeit für ungeplante Arbeiten und Nacharbeiten aufwenden – und haben 44 Prozent mehr Zeit für andere Arbeiten, um etwa neue Funktionen zu entwickeln oder Code zu erstellen.

 

IIoT-Plattformen im Überblick: die größten Anbieter und eine plattformunabhängige Anwendung

Es gibt eine Vielzahl von Anbietern am Markt – aktuell können Unternehmen aus 450 Plattformen wählen. Die bekanntesten im Bereich Industrial Internet of Things kommen von Amazon (AWS), Microsoft (Azure) und Google (Google Cloud Platform). Es gibt aber auch plattformunabhängige Anwendungen, wie der IIoT-Dienstleister Elunic mit Dataface zeigt. Bei der Entscheidung für eine Plattform sind Unternehmen relativ flexibel, da die großen Plattformen und auch die unabhängige Lösung nicht auf eine spezifische Branche ausgerichtet sind. Und auch die kleineren Plattformen, welche oftmals die Services der größeren im Hintergrund verwenden, können branchenunabhängig eingesetzt werden. Ein Beispiel für einen solchen Service ist die Datenhaltung. Neben diesem großen Vorteil gibt es allerdings auch einen Nachteil: Viele der großen Plattformen sind Cloud-Lösungen. Daher müssen Unternehmen in Kauf nehmen, dass sie dem Service-Provider ein gewisses Maß an Vertrauen bezüglich der Sicherheit ihrer Daten gegenüber bringen müssen, gerade wenn der Server nicht in Deutschland steht. Denn in diesen Rechenzentren werden die unternehmenskritischen Daten der Anwender gespeichert und verarbeitet.

Nicht auf Sand bauen – die richtige Plattform wählen

Die Wahl für oder gegen eine Plattform hängt von der jeweiligen Anwendung im Unternehmen und der zukünftig geplanten Ausbaustufe ab. Allgemein sollten diese Knotenpunkte für systemübergreifende Verknüpfungen für den benötigten Use-Case möglichst viele Werkzeuge mitbringen, beispielsweise eine spezielle Schnittstelle, Daten-Hygiene-Mechanismen oder Machine-Learning-Algorithmen. Dabei ist es wichtig, dass diese unabhängig voneinander betrieben werden können, um sie bei Bedarf auszutauschen. Des Weiteren sollten Plattformen skalierbar sein, um bei wachsenden Anforderungen schnell reagieren zu können. Im Optimalfall lassen sich zusätzliche Rechenkapazitäten und Datenspeicher auf Knopfdruck hinzuschalten. Die großen Cloud-Plattformen bieten bereits ein großes und umfangreiches Set an Werkzeugen, welches den Start ins IIoT erleichtert.

Zum Überblick:

  • AWS: Vorreiter auf dem Gebiet der cloudbasierten IIoT-Plattformen ist Amazon Web Services (AWS). Sie sticht vor allem durch ihre Skalierbarkeit und Zuverlässigkeit heraus. Weiterhin bietet sie eine Auswertung der Daten durch Machine-Learning-Algorithmen. Diese lernen anhand der Informationen unter anderem, welche Parameter einer Maschine als normal gelten; ungewöhnliche Werte weisen so auf einen bevorstehenden Defekt hin. Zudem können die Anwender der Cloud-Ressourcen von Amazon Web Services auch unabhängige Dienste von Drittanbietern nutzen. Diese Software-as-a-Service-Lösung läuft über die AWS-Infrastruktur der Plattform. Die Plattform kann durch kostengünstige Langzeitlizenzen genutzt werden.
  • Azure: Durch die bekannte Systemumgebung von Microsoft innerhalb seiner Cloud-Computing-Plattform Azure können Unternehmen die eigene Software mit einspielen. Hierbei werden die zur Verfügung gestellten Dienste auch aus deutschen Rechenzentren angeboten. Die Daten werden nicht nur in Deutschland verarbeitet, sondern auch von dem deutschen Unternehmen verwaltet. Weiterhin ist es möglich, dass die Daten entweder vollständig oder teilweise in einem eigenen Rechenzentrum abgespeichert werden. Liegen die Daten zum Teil im eigenen Rechenzentrum und zum Teil in der Cloud, ist die Kommunikation beider Datenspeicher nahtlos möglich. Das Enterprise-Agreement-Modell bietet dem Unternehmen, das auf Azure setzt, Wahlfreiheit: Es kann selbst entscheiden, ob die gewünschte Technologie als Online-Service oder als klassische Lizenz erworben wird.
  • Google Cloud Platform: Unternehmen, die auf die Plattform von Google setzen, können auf dieser Basis sowohl einfache Webseiten wie auch komplexe Applikationen erstellen. Die Plattform von Google bietet unter anderem ergänzende Cloud-Dienste für Big Data und Datensicherheit an. Weiterhin schafft die Plattform die Grundlage für zahlreiche Abschnitte des Gesamtworkflows im Bereich des maschinellen Lernens. Zudem garantiert Google Sicherheit, Zuverlässigkeit und Betriebsautonomie wie kein anderer Anbieter. Erwerbbar ist die Plattform im Rahmen eines On-demand-Preismodells.
  • Dataface: Der IIoT-Dienstleister elunic zeigt mit Dataface, wie eine plattformunabhängige Struktur aussehen kann und auch sollte. Die Anwendung ist autonom und kann in die Cloud-Systeme AWS, Azure und Google Cloud nahtlos integriert werden, da elunic zertifizierter Partner dieser Anbieter ist. Somit ist das Unternehmen bei der Basis für die Implementierung flexibel und kann schnell ins IIoT einsteigen. Die Anwendung setzt sich aus unterschiedlichen Bausteinen zusammen: Es gibt eine auf state-of-the-art Web-Technologien (Angular, NodeJS) basierende intuitive Oberfläche als zentralen Anlaufpunkt. Die Oberfläche ist responsiv und kann auf Smartphone und Tablet-Geräten dargestellt werden. Für Predictive Maintenance gibt es ein Tensorflow-Modul, welches Daten aus verschiedenen Quellen analysieren und verarbeiten kann. Das Haupteinsatzgebiet liegt in der Anlagen-Überwachung für die produzierende Industrie. Außerdem dient die Oberfläche als zentrale Anlaufstelle (Dashboard) und Ort des Austausches/ der Kommunikation für die verschiedenen Stakeholder einer Anlage oder eines ganzen Werks/Unternehmens. Die Daten werden innerhalb der Anwendung nach deutschen Datenschutzrichtlinien gespeichert und verarbeitet.

Die wichtigsten Spezialisierungen der einzelnen Anbieter in der Übersicht:

 

IIoT-Plattformen im Überblick

Bei der Wahl einer Plattform ist es wichtig, dass Unternehmen auf Basis ihrer aktuellen Anforderungen und anstehenden Einsatzfeldern entscheiden. Hierbei ist es sinnvoll, einzelne Komponenten von verschiedenen Plattformen nach Bedarf zu kombinieren, einzusetzen und in Use-Case-Lösungen zu investieren. Dadurch können Unternehmen häufig schneller und leichter ins Industrial Internet of Things einsteigen.

 

Business Intelligence für die Fertigung

Der Grund ist naheliegend, denn produzierende Unternehmen gehen in beträchtlichem Umfang in Vorleistung: Sie verarbeiten hochwertiges Material, fertigen Produkte und geben Geld für Service, Qualitätssicherung und Produktzertifizierungen aus. Und das alles auf den teilweise weniger detaillierten Verdacht hin, dass ihre Erzeugnisse beim Kunden auf Gegenliebe stoßen. Eine gut integrierte Business-Intelligence-Lösung hilft da deutlich weiter als das bloße Bauchgefühl.

Sind Kundenbefragungen schon Schnee von gestern?

Unternehmen orientieren sich selbstverständlich an der aktuellen Kundennachfrage – soweit sie ihnen bekannt ist. Doch aus Umfragen, einfachen Verkaufsstatistiken und dem (oft durchaus richtigen) Bauchgefühl der Vertriebsmitarbeiter entsteht kein objektives, individuelles Bild über den gegenwärtigen Bedarf der Kunden – weder hinlänglich schnell, noch umfassend genug und auch nicht zu jeder gewünschten Zeit. Zudem sind fundierte Vorhersagen zu künftigen Bedürfnissen oder dem Kundenverhalten, wenn dieses oder jenes Ereignis eintritt, so kaum möglich. Auch ist der heutige Kunde digital und mobil. Er kann jederzeit und überall auf jegliche Informationen zugreifen. Und so erwartet er auch von einem Unternehmen einen Rundum-Service – optimale Betreuung zu jeder Zeit, an jedem Ort.

In den Kunden hineinblicken

Um die Kundenbeziehung bestmöglich zu gestalten, muss man seinen Kunden also zunächst erst einmal genau kennen. Welchen Bedarf hat er wirklich? Wann benötigt er welche Information? Was bestimmt seine Entscheidungen? Diese kundenspezifischen Daten sind zentral zu erfassen. Aus ihrer Analyse leiten sich dann passgenaue Maßnahmen ab, die das Verhältnis zum Kunden positiv beeinflussen. Glücklicherweise stehen den Unternehmen elektronische Helfer zur Seite, die die vorhandenen Kundendaten analysieren, sie mit Daten weiterer Systeme verknüpfen und dem Unternehmen zu jedem seiner Kunden, zu jeder Zeit, über jedes Produkt, zu jedem Standort und so weiter entsprechende Erkenntnisse liefern. Und sind die Analyseergebnisse noch so gut grafisch aufbereitet, dass sie auf einen Blick zu erfassen sind, dann kann man jedem Kunden in Echtzeit die für ihn optimale Betreuung angedeihen lassen und hinsichtlich Produktentwicklung, Service-Angeboten oder Marketingaktionen die richtigen Weichen stellen.

Das CRM-System – Die Basis für jedes Kundenverständnis

Der Nutzen eines umfassenden Customer Relationship Managements ist allgemein anerkannt. Dennoch verwenden laut einer aktuellen Nutzerstudie von Capterra nur rund ein Viertel der deutschen KMUs professionelle CRM-Software. Der überwiegende Teil greift bei der Kundenverwaltung und -pflege auf manuelle Tools wie Excel, E-Mail-Programme und Google Sheets zurück. Eine klare Mehrheit der deutschen KMUs, die derzeit kein CRM-System nutzen, ist allerdings daran interessiert, das zu ändern. Damit stehen sie nicht allein: Laut Gartner waren CRM-Systeme im vergangenen Jahr weltweit die umsatzstärkste Sparte im Software-Markt und es ist 2018 mit weiteren zweistelligen Zuwachsraten zu rechnen. Zu den international führenden Anbietern für CRM-Software zählt Microsoft mit seinem Microsoft Dynamics 365.

Die Produktvielfalt des Branchenprimus

Dynamics 365 lässt sich natürlich bestens mit anderen MS-Produkten kombinieren. Die Programme verstehen sich, sind quasi aus einem Guss. Möchte man das CRM-System beispielweise mit Outlook oder dem Berufs-Netzwerk von LinkedIn verzahnen, so ist das mit dieser Software möglich. Für den Nutzer besonders komfortabel: eine einheitliche Oberfläche aller Microsoft-Produkte. Außerdem verfügt die Software über eine leistungsstarke Vertriebsautomatisierung und verschiedene passende Business-Intelligence-Tools, mit denen sich die im CRM-System erfassten Daten auswerten lassen – auch in Verbindung mit Daten aus anderen Quellen. Eines dieser Tools ist Power BI.

Ein Bild sagt mehr als tausend Worte

Viele Menschen sind visuell orientiert. Grafiken eignen sich daher sehr gut, um Ergebnisse zu veranschaulichen. Ein besonders performantes System zur Visualisierung und zum Dashbording ist Power BI. Dahinter verbergen sich mehrere Daten-Analyse-Tools, mit denen sich beispielsweise KPIs anschaulich darstellen lassen. Der Anwender kann die Daten mit einem Mausklick filtern, das Ergebnis erscheint sofort als Grafik. Filter helfen dabei, neue Zusammenhänge zu finden und Trends abzulesen. Der Nutzer kann zudem seine eigene, intuitiv bedienbare Dashboard-Funktionalität erstellen, was sich positiv hinsichtlich Handling und Akzeptanz auswirkt. Einmal in die vorhandene IT-Landschaft integriert, sollte man die volle Leistungsfähigkeit des Tools ausschöpfen und Daten aus weiteren Quellen in die Analyse einbeziehen. Das könnten Daten aus PPS- und Geotracking-Systemen, physikalische Messwerte oder Informationen eines Analytic-Tools für die Webseite sein.

Einblicke für das Management

Im Produktionssektor kann beispielsweise eine Pareto-Analyse dem Management anzeigen, welches die häufigsten Ursachen für Probleme sind. Das quasi per Knopfdruck erzeugte Pareto-Diagramm macht sofort klar, wo der größte Engpass im Fertigungsprozess liegt. Dies lässt sich bei Bedarf auch unkompliziert und schnell auf einzelne Produkte, Standorte oder Kundenbranchen herunterbrechen. Ein weiteres, in Industrieunternehmen verbreitetes Einsatzgebiet ist das Qualitätsmanagement. Die Datenanalyse liefert im Handumdrehen umfassende Informationen über Kundenreklamationen – auf Wunsch aufgesplittet nach Abteilung oder Produkt. Mit diesem Wissen wird die Unternehmensleitung umgehend Gegenmaßnahmen in die Wege leiten, was letztlich im Interesse des Kunden ist. Überdies wird es der Kundenpflege in der Regel förderlich sein, den Kunden zeitnah zu informieren, sobald ein Qualitätsmangel abgestellt wurde, eventuell flankiert von geeigneten Vertriebsaktionen, etwa einem Rabattangebot.

Den Kunden nie aus den Augen verlieren

Seinen Kunden im Blick zu haben, ist gut. Seinen Kunden stets, mit möglichst geringem Aufwand und ganz genau im Blick zu haben, ist besser. Power BI erlaubt es, Kundendaten effektiv zu nutzen und zu analysieren. Die Ergebnisse dienen dazu, Prozesse, insbesondere beim Customer Engagement, zu steuern und sie sorgen dafür, dass ein Unternehmen im Hinblick auf die Kundenwünsche auf dem Laufenden bleibt und ihn optimal betreuen kann.

NGFW: Neue Dimensionen der Netzwerksicherheit

Unternehmen sind heute durch verteilte Organisationsstrukturen gekennzeichnet: Es gibt häufig viele verschiedene Standorte, Firmenangehörige sowie Freelancer arbeiten flexibel in unterschiedlichen Büros, im Home-Office oder mobil. Dafür muss eine hohe Netzwerk-Konnektivität gewährleistet werden. Auch Interaktive Software-as-a-Service (SaaS)-Applikationen wie beispielsweise Office 365 erfordern äußerst schnelle, performante Verbindungen mit geringen Latenzzeiten.

Auch Bedrohungen aus dem Cyberspace stellen immer neue Anforderungen an die Netzwerksicherheit. Ransomware und Spionage-Software, welche über Exploits Zugang zum Unternehmensnetzwerk erhalten, beeinträchtigen die Funktionsweise von Netzwerkdiensten. Eine noch höhere Gefahr geht von sogenannten Evasions aus. Dabei handelt es sich um getarnte Exploits, welche den Netzwerkverkehr verschleiern, so dass die Übertragungsprozesse nicht zweifelsfrei erkannt werden können. Angriffe durch bestehende Signaturen und andere grundlegende Funktionen lassen sich so nur schwer stoppen.

Traditionelle Netzwerk-Security-Lösungen helfen hier nicht mehr weiter. Sie sind nicht in der Lage, eine ausreichende Verfügbarkeit von Daten und Anwendungen über verschiedenste Geräte, Netze und Zugriffspunkte hinweg zu gewährleisten. Zudem sind sie extrem anfällig gegenüber modernen Angriffsvarianten und lassen sich kaum skalieren und damit nur schwer an die spezifischen Anforderungen im Unternehmen anpassen.

Um diese Herausforderungen erfolgreich zu stemmen, müssen die Firmennetzwerke hinsichtlich Konnektivität, Sicherheit sowie Web- und Cloud-Fähigkeit in ein ganzheitliches Gesamtkonzept eingebunden werden. Moderne Next-Generation-Firewall-Lösungen (NGFW) sind in der Lage, Tausende von Firewalls, IPSs, VPNs und SD-WANs in nur wenigen Minuten über eine zentrale Konsole zu installieren und in Betrieb zu nehmen. Dabei lässt sich das System bedarfsgerecht skalieren und individuell an das Wachstum der jeweiligen physischen und virtuellen Unternehmensnetzwerke anpassen. Dies ermöglicht das Management hocheffizienter Prozesse in verteilten Firmennetzwerken. So sind alle Daten und Anwendungen in der gesamten IT-Infrastruktur verlässlich geschützt – egal ob im Rechenzentrum, an den verschiedenen Firmenstandorten oder in der Cloud.

NGFW bietet Anwendern umfassende Transparenz und einen 360-Grad-Blick auf die gesamte Netzwerk-Architektur. Neben der Verringerung der Komplexität können die Netzwerkkosten gesenkt, Ausfallzeiten um bis zu 50 Prozent reduziert und IT-Risiken signifikant verringert werden.

P.S.: Zum Thema „Smarte Produktionsanlagen sicher betreiben“ findet bei uns ein kostenfreies Webinar statt. Hier geht’s zur Anmeldung.

Smart Cities – Urbane Probleme in den Griff bekommen

Sinnvoll angewendet kann Big Data hier wirksam unterstützen. Daten sammeln allein reicht nicht aus, die Flut an Informationen muss auch nutzenbringend ausgewertet werden.

Denn Ballungsräume kommen an ihre Grenzen, sei es durch den zunehmenden Verkehr, die Luftverschmutzung oder die Bevölkerungsdichte – bei gleichbleibender innerstädtischer Fläche. Derzeit lebt ungefähr 50 Prozent der Weltbevölkerung in Städten, Prognosen für 2050 sprechen sogar von rund 70 Prozent. Dies bringt besonders für die Stadtplanung erhebliche Herausforderungen mit sich. Die Erfassung, Analyse und Nutzung von Daten spielt bei der urbanen Problemlösung eine große Rolle. Doch wie lassen sich Städte mit Hilfe dieser Daten zu lebenswerteren Räumen gestalten? Und wie werden die Daten gewonnen?

Am Beginn der Datengewinnung steht die Sammlung von Informationen, beispielsweiser mittels verschiedener optischer und nicht-visueller Sensoren. Dies geschieht personenunabhängig, also anonymisiert. Im nächsten Schritt werden die neu erworbenen mit historischen Daten aus den unterschiedlichsten Bereichen gebündelt und vernetzt. Dieser Datenpool wird dann als Grundlage für Analysen verwendet. Die Daten eines einzelnen Menschen sind für sich genommen nicht relevant, erst in der Masse werden sie für die Stadtverwaltung und -entwicklung interessant und finden bereits Anwendung für verschiedenste Bereiche in der intelligenten Stadt.

Ein besonders wichtiger Sensor für die Datengewinnung und -verarbeitung ist die Netzwerk-Kamera. Zu den Möglichkeiten der digitalen Technologie einige Beispiele:

Intelligente Verkehrsplanung

So erfassen und analysieren Kameras heute mittels Sensoren und Software beispielsweise den Verkehrsfluss. Besonders an Verkehrsknotenpunkten oder zentralen Umschlagplätzen im öffentlichen Nahverkehr gilt es, durch Datenanalyse präventiv auf erhöhte Frequenzen zu reagieren.

Im Verkehr ist durch integrierte Sensoren beispielsweise das Zählen von Fahrzeugen, die Erfassung der Durchschnittsgeschwindigkeit und Fahrspurauslastung oder eine Fahrzeugklassifizierung möglich. Auch können Wetterfaktoren wie starke Regen- oder Schneefälle einbezogen werden. Die Stadtverwaltung kann sich somit früh auf Verkehrsstaus einstellen, die Situation anhand von Videoanalysen überprüfen, nötige Einsätze überwachen und Reaktionszeiten verkürzen.

Um den städtischen Verkehr zu optimieren, muss auch die Fahrzeuganzahl massiv gesenkt werden. Die intelligente Verwaltung von Parkmöglichkeiten und die Förderung von Car- und Bike-Sharing sind dabei wichtige Schritte – sie können ebenfalls über IP-Videotechnik realisiert werden. Durch Kameraerfassung und die gleichzeitige Vernetzung werden verfügbare Fahrzeuge oder Parkplätze in Echtzeit erkannt und sind sofort einsatzbereit.

Datenbasierter Umweltschutz

Netzwerk-Kameras mit speziellen Sensoren können Umweltparameter wie Luftqualität, Konzentration von Gasen wie CO2, Temperatur, Luftfeuchtigkeit oder Wasserqualität messen und diese mit der zugehörigen Software anschließend auch auswerten. Mit einer speziellen Technologie zur Niederschlagserkennung kann sogar die Intensität von Regentropfen oder Schnee mittels Echtzeitbildern gemessen werden. Die verschiedenen Datensätze liefern wichtige Informationen über die Luftbeschaffenheit, die Schadstoffbelastung oder Wetterverhältnisse und werden für eine effiziente Stadtentwicklung, Verkehrsplanung, Umweltschutz oder Präventionsmaßnahmen eingesetzt.

Auch der Müll nimmt in wachsenden Städten zu, wird mit Hilfe von intelligenten, vernetzten Sammelsystemen aber zumindest schneller entfernt. Transportwege für die Abfallentsorgungsbetriebe werden kürzer. Müllcontainer sind dafür beispielsweise mit Sensoren ausgestattet, die den Abfallentsorgungsunternehmen den Füllstand signalisieren. Das lässt eine Anpassung an aktuelle Bedürfnisse oder saisonale Abweichungen zu und ist effizient.

Zudem kann die Straßenbeleuchtung in intelligenten Städten auf den tatsächlichen Bedarf abgestimmt werden. Die Bewegungsanalyse in den Kameras erkennt, wann, ob und wie viele Personen oder Fahrzeuge sich in der zu beleuchtenden Gegend befinden und passt die Lichtverhältnisse von Straßen oder öffentlichen Plätzen dementsprechend an.

Höhere Sicherheit

In Städten geht mit wachsender Bevölkerungszahl oftmals auch eine Steigerung der Kriminalitätsrate einher. Um Sicherheit zu gewährleisten, ist das Zusammenspiel von Video, Audio und Analyse essentiell. Besonders bei großen Menschenansammlungen. Mittels Videoanalyse können die Anzahl der Personen in einer Menschenmenge erfasst, das Verhalten der Masse analysiert und dabei Abweichungen sofort erkannt werden. So können schwierige Situationen oder Probleme verhindert werden, noch bevor sie entstehen.

Die Stadt Tel Aviv nimmt eine Vorreiterrolle bei der datenbasierten Stadtverwaltung ein. Die Verantwortlichen haben nach einer neuen und effizienten Lösung gesucht, die Kriminalitätsrate zu senken und den Bewohnern ein nachhaltiges Gefühl von Sicherheit zu geben. Dabei sollen die Bewohner und ihr Eigentum einerseits bestmöglich geschützt, das Lebensgefühl und die Freiheit andererseits aber nicht eingeschränkt werden. Aktuell sind bereits hunderte Netzwerk-Kameras in Tel Aviv installiert, die mit einem offenen System von Axis in den Bereichen Sicherheit oder Verkehrsoptimierung arbeiten.

Avi David, Manager Control and Command Center bei der Stadt Tel Aviv, sagt: „Smart Cities sind die Zukunft, das steht außer Frage. Wir haben damit bereits den Grundstein für eine intelligente und vernetzte Stadt gelegt.“