Standard- versus Individuallösung

Ein Großteil der deutschen Industrieunternehmen arbeitet bereits intensiv an smarten Produkten und ergänzenden digitalen Services wie zum Beispiel Condition Monitoring oder Predictive Maintenance. Die Chancen sind verlockend: zusätzliche Erlöse durch neue digitale Lösungen und innovative Geschäftsmodelle sowie attraktive Differenzierungsmöglichkeiten im härter werdenden Wettbewerb. Nichtstun ist keine Option: Zahlreiche neue Wettbewerber, oft mit rein digitalen Geschäftsmodellen, drängen in fast jede Branche, Wertschöpfungsketten erleben dramatische Umwälzungen, Branchengrenzen verwischen zunehmend und digitale Plattformen quetschen sich zwischen Anbieter und ihre Kunden.

Doch der Weg zum verheißungsvollen Geschäft rund um die Daten ist steinig. Zahlreiche Fallstricke lauern bei Konzeption und Umsetzung, Planungsfehler können enorme Zeitverzögerungen und Mehrkosten verursachen. Eine besonders weitreichende Entscheidung dabei ist die Auswahl einer IoT-Plattform – oder aber der Entschluss für die Eigenentwicklung einer solchen Plattform.

IoT-Plattformen vs. Plattform-Geschäftsmodelle

Zunächst einmal gilt es, im Wirrwarr der vielen Plattform-Buzzwords einen kühlen Kopf zu bewahren. Im Zusammenhang mit IoT/ Industrie 4.0 sind vor allem zwei Arten von Plattformen relevant:

  • IoT-Plattformen: Modular aufgebaute Softwareprodukte, welche die Entwicklung von IoT-Lösungen enorm vereinfachen, indem sie Standardfunktionen von IoT-Angeboten wie beispielsweise Geräte- und Datenverwaltung oder Authentifizierung bereits “von der Stange” bereitstellen.
  • Plattform-Geschäftsmodelle: Extrem skalierende digitale Marktplätze wie beispielsweise Uber, die zwei oder mehrere Parteien miteinander vernetzen. Ihr Erfolg hängt insbesondere von der Anzahl der Teilnehmer auf allen Seiten der Plattform (Netzwerkeffekt) sowie dem Nutzungserlebnis ab.

Auch Kombinationen sind möglich: So enthalten beispielsweise die IoT-Plattformen Axoom und Predix Marktplatzmechanismen in Form von App-Stores, in denen Softwareentwickler Anwendungen für die Nutzer dieser IoT-Plattformen bereitstellen können. Darüber hinaus wird umgangssprachlich oft auch von einer “Plattform” gesprochen, wenn ein Unternehmen seinen Kunden verschiedene IoT-Anwendungen (beispielsweise Condition Monitoring, Track & Trace oder Predictive Maintenance) in einem zentralen Online-Portal zur Verfügung stellen möchte.

Ob einfache IoT-Lösung, Plattform-Geschäftsmodell im Bereich IoT oder Online-Portal für IoT-Anwendungen – eine IoT-Plattform braucht fast jedes IoT-Vorhaben als technologische Basis.

IT-Architektur und IoT-Plattformen

Die IoT-Plattform ist gewissermaßen das “Herzstück” einer IoT-Lösung, welche die Daten der Geräte verarbeitet und den Anwendungen und Usern zur Verfügung stellt sowie deren Befehle zurück an die Geräte gibt. Aus strategischer Sicht ist eine IoT-Plattform trotz ihrer technologischen Komplexität “Commodity”, denn sie stellt im Wesentlichen Basisfunktionen zur Verfügung, die für die Differenzierung gegenüber den Kunden weniger kritisch sind.

Entscheidend aus Sicht der Nutzer bzw. Kunden einer IoT-Lösung ist vor allem deren Nutzungserlebnis, welches im Wesentlichen durch die Benutzerfreundlichkeit der Anwendungen und das darin enthaltene spezifische Prozess- bzw. Domänen-Know-how der Anbieter bestimmt wird. Im B2B-Bereich ist in vielen Fällen auch eine einfache Anbindung der Geräte, Maschinen und Anlagen im Feld an die IoT-Lösung ein wichtiger Aspekt in der Kaufentscheidung.

Moderne IoT-Plattformen bieten acht zentrale Gruppen von Funktionalitäten, welche die Entwicklung individueller IoT-Lösungen erheblich beschleunigen und vereinfachen, da sie bereits ca. 70-90 % der Lösung “von der Stange” bereitstellen:

  • Edge-Funktionalitäten – direkt auf den smarten Geräten/ Gateways ausführbare Funktionalitäten, die auch offline zur Verfügung stehen
  • Connectivity – Technologien, welche die Kommunikation der „Dinge“ bzw. Sensoren mit der Plattform unterstützen
  • Device Management – Standard-Funktionalitäten zur Verwaltung und Konfiguration der vernetzten „Dinge“
  • Data Infrastructure – Funktionalitäten und technische Möglichkeiten zur Datenspeicherung und -verwaltung
  • Basic Data Tools – Standard-Werkzeuge zur Verarbeitung und Visualisierung der gesammelten Daten
  • App Enablement – Entwickler-Unterstützung für die Programmierung individueller Anwendungen
  • Integration – Möglichkeiten zur Anbindung der IoT-Plattform an unternehmensinterne Systeme (v.a. ERP, MES, CRM und BI) sowie externe (SaaS)-Anwendungen
  • Security & Administration – Verwaltungs-Funktionalitäten und Sicherstellung von Cyber Security

Die Anbieter von IoT-Plattformen haben oft bereits Milliarden von Euro in deren Entwicklung gesteckt, insbesondere auch in die Kompatibilität mit Geräten und Systemen durch Protokolle, Schnittstellen (APIs), Software Development Kits (SDKs) und Konnektoren.

Make or buy?

Unternehmen sollten sich genau überlegen, ob es sich wirklich lohnt, eine eigene IoT-Plattform zu entwickeln. Für die allermeisten Business Cases ist es erfahrungsgemäß sinnvoller und kosteneffektiver, auf eine vorhandene IoT-Plattform-Lösung zurückzugreifen und diese den individuellen Vorstellungen anzupassen. Dennoch gibt es immer wieder Fälle, in denen Unternehmen eine eigene IoT-Plattform entwickeln, da sie sich davon Vorteile im Wettbewerb erhoffen. Was bei solch einer „Make“-Entscheidung zu beachten ist, beleuchtet unser nächster Fachbeitrag zum Thema.

Eclipse: Einmal IoT Standard bitte

Standards und Open Source sind eng miteinander verknüpft. Mit Open Source sind Sie immer auf dem neuesten Stand und können jederzeit die aktuellsten und innovativsten Technologien nutzen. Die Geschwindigkeit, mit der eine Open Source-Community innovative Software entwickelt, ist einmalig und kann von keinem Einzelunternehmen übertroffen werden. Ein wichtiger Grundsatz des Open Source-Konzepts ist, dass proprietäre Elemente vollständig ausgeschlossen werden.

Stattdessen dienen Standards und Architekturen als Richtlinien, mit denen sichergestellt wird, dass Open Source-Software integrierbar, austauschbar und gemeinsam nutzbar ist. Ein entscheidender Aspekt des Open Source-Konzepts ist daher die Definition dieser Standards und Architekturen.

Standards für IoT

„Das Gute an Standards ist, dass es eine so große Auswahl gibt“ – Andrew S. Tanenbaum. Standards finden sich in sämtlichen Bereichen unseres täglichen Lebens und das ist gut so. Sie erleichtern uns nicht nur unseren Alltag, sondern tragen außerdem dazu bei, dass Unternehmen wettbewerbsfähig bleiben. So muss ein Hersteller z. B. nicht länger individuelle Lösungen für einfache Probleme entwickeln, wenn er dabei kaum mit anderen Anbietern mithalten kann.

Komplettlösungen und End-to-End-Ansätze wie IoT vereinen eine Vielzahl verschiedener Elemente und Komponenten, die gegebenenfalls von unterschiedlichen Herstellern und Anbietern stammen. Und genau deshalb sind Standards – insbesondere offene Standards – so wichtig. Wenn verschiedene Systeme gemeinsam eingesetzt werden und Anbieter oder Partner in der Lage sein sollen, Lösungen aus unterschiedlichen Elementen zu erstellen, für die sie nicht über die entsprechenden Besitzrechte verfügen bzw. die sie nicht selbst entwickelt haben, dann lässt sich diese Flexibilität nur mithilfe offener Standards erzielen. Wie Andrew S. Tanenbaum bereits anmerkte, ist die Auswahl an verfügbaren Standards groß. Allein die Normungsorganisation IEEE-SA führt eine umfangreiche Liste von Standards, ebenso wie die Organisationen ETSI und IETF.

Eine Architektur für IoT

Die Konnektivität ist ein Aspekt von IoT, der bereits ziemlich genau definiert wurde. Ein bisher weniger präzise definierter Bereich ist die umfangreichere Architektur, in der die erfassten Daten der IoT-Geräte verarbeitet und für die Unternehmensmitarbeiter aufbereitet werden. Und diese Architektur ist ein entscheidendes Element. Denn letztendlich profitieren Unternehmen erst dann von ihren IoT-Investitionen, wenn sie sich die Daten der verbundenen Geräte zunutze machen und basierend auf den gewonnenen Erkenntnissen entsprechende Maßnahmen ergreifen. Indem Unternehmen diese Daten in den richtigen Kontext bringen und relevante Einblicke erhalten, können sie innovative Ideen umsetzen und sich von ihren Mitbewerbern abheben.

Um die vernetzten „Dinge“ in einer End-to-End-Lösung mit Unternehmensanwendungen zu verbinden, werden drei Komponenten benötigt. IoT-Gateways werden einerseits für die Endpunkt-Konnektivität eingesetzt und führen zusätzlich Verarbeitungs- und Analyseaufgaben am Netzwerk-Edge aus. Diese Gateways übergeben Daten an Integration Hubs, die eine bidirektionale Kommunikation zur Gerätesteuerung bieten und die Integration der Daten in das dritte und letzte Element ermöglichen: die Datenverwaltungs- und Analyseplattform. Durch die zentralisierte Implementierung von IoT-Datenverarbeitung, Analysen und Machine Learning gewinnen Unternehmen umfangreiche Einblicke, anhand deren sie umgehend wichtige Maßnahmen ergreifen können.

Open Source für IoT

Nun hat die Eclipse Foundation eine Arbeitsgruppe und Community mit dem Ziel ins Leben gerufen, den Open Source-Ansatz für IoT in die Praxis umzusetzen: Mit Eclipse IoT wird die erforderliche Technologie bereitgestellt, um Geräte, Gateways und Cloudplattformen für IoT zu entwickeln. Geleitet wird diese IoT-Arbeitsgruppe und -Community, deren Mitgliederliste sich wie das „Who is Who“ der IoT-Branche liest, von Bosch, Eurotech und Red Hat (allesamt Mitglieder des Führungsgremiums). Ihre Hauptaufgabe besteht darin, den gesamten Stack, die Architektur und Open Source-Projekte zu definieren, mit denen die Unternehmensanforderungen im Hinblick auf IoT erfüllt werden (von Operational Technology und Informationstechnologie bis hin zu Datenverwaltung und -analyse).

Die Vorteile liegen auf der Hand:

  • Offene und interoperable Komponenten sind die Grundlage für zukunftssichere Lösungen.
  • Eine modulare Implementierung verhindert die Abhängigkeit von einem einzigen Anbieter und ermöglicht die Nutzung vorhandener Investitionen.
  • Neue Funktionen können in die vorhandene Architektur integriert werden, sobald sie verfügbar oder ausreichend getestet und weiterentwickelt wurden. Unternehmen profitieren von schier unendlichen Erweiterungsmöglichkeiten.
  • Risiken und Komplexität werden durch eine vereinfachte Entwicklung, Implementierung und Integration gesenkt, was wiederum geringere Kosten zur Folge hat.
  • End-to-End-Lösungen für Analysen und Machine Learning liefern wertvolle Informationen und Einblicke, mit denen Unternehmen innovative Ideen umsetzen und sich einen Wettbewerbsvorteil verschaffen können.
  • Eine vollständige Datenkontrolle ermöglicht es Unternehmen, Datenschutzrichtlinien und andere gesetzliche Bestimmungen einzuhalten.
  • Durch End-to-End-Sicherheit für Geräte und Daten werden geschäftliche Risiken durch Betrug und Cyberkriminalität gesenkt.

Fazit

IoT bietet insgesamt ein Marktpotenzial von 200 Milliarden US-Dollar für Datendienste und Analysen. Die potenziellen Lösungen und Anwendungsfälle sind praktisch grenzenlos und reichen von vorbeugender Instandhaltung für Maschinen und Fahrzeuge über nutzungsbasierte Versicherungen bis hin zur Zustandsüberwachung in Echtzeit mit entsprechenden Empfehlungen. Eine Open Source-basierte End-to-End-Architektur für IoT trägt erheblich dazu bei, dass diese Implementierungen in kürzester Zeit wertvolle Informationen und Einblicke liefern. 

Nur noch eine Feldbustechnik für alles

Im Schwefelsäure-Verbund eines großen Chemie-Standortes ist als Feldbus Profibus-PA im Einsatz. Der Kunde hatte hier die Anforderung, in der Feldebene, neben den busfähigen Feldgeräten, auch die Standard-Signale wie NAMUR-Signale, digitale und analoge IO-Signale in den Profibus-PA einzubinden. Die bis jetzt am Markt verfügbaren technischen Lösungen waren hier nicht sehr anwenderfreundlich.

Die Aufgabe ließ sich mit unserem neuen PA-Multiplexer sehr einfach lösen. Mein Kunde hat nun im Feld nur noch eine durchgängige Bus-Technik à Profibus-PA. Eine zusätzliche Profibus-DP-Verkabelung für Remote-IOs entfällt.

Sie müssen sich gerade oder zukünftig einer ähnlichen Herausforderung stellen? Besuchen Sie uns auf der Achema (Halle 11.1, Stand A27) vom 11. – 15. Juni 2018 und erfahren Sie mehr über unser umfangreiches Leistungsspektrum.

 

Manfred Glebe, Prozess- und Verfahrenstechnik, Phoenix Contact

Überwachung von Bohrlöchern vereinfacht

In der türkischen Metropole Istanbul hatte ein privater Energieproduzent die Idee, aus Methan-Gas Strom zu erzeugen. Dabei wird das Methan-Gas aus einem Müllberg gewonnen. Das Gas wird in dem 90 ha großen Areal aus 520 Bohrlöchern gefördert und damit knapp 34 MW Strom erzeugt. An den Bohrlöchern werden Wasserstand und Gasdruck ständig durch einen Servicetechniker manuell überwacht. An 14 Bohrlöchern ist das nicht mehr notwendig, da das Funksystem Radioline mit 2,4 GHz die ermittelten Daten an eine bis zu 4 km entfernte Zentrale überträgt. Nun kann der Kunde jederzeit das Funksystem seinen Bedürfnissen anpassen und bei Bedarf die Daten von weiteren Bohrlöchern übertragen.

Dieses oder ähnliche Konzepte sind für Sie ebenfalls interessant? Besuchen Sie uns auf der Achema (Halle 11.1, Stand A27) vom 11. – 15. Juni 2018 und erfahren Sie mehr über unser umfangreiches Leistungsspektrum.

 

Mehmet Akcit, Produktmarketing Wireless Communication Interfaces, Phoenix Contact

Netzwerk-Optimierung schafft die Basis für neue Möglichkeiten

Bei einem führenden europäischen Hersteller für Desinfektion, Pflege- und Hautantiseptik bot das Produktionsnetzwerk historisch bedingt eine flache Struktur und war redundant als Ringstruktur aufgebaut. Diese Struktur barg das Risiko von gegenseitiger Beeinflussung und Angriffsfläche für Viren und sonstiger Malware. Im Hinblick auf freie IP-Adressen und die Wartbarkeit des Systems stieß es an seine Grenzen. Es war also Zeit zum Handeln!

Zusammen mit unserem Kunden haben wir das Industrienetzwerk in Subnetze segmentiert und in physikalische Ringstrukturen mit managebaren Switches aufgebaut. Durch die neue Netzwerkstruktur erreichten wir schnell eine höhere Stabilität und Verfügbarkeit mit klarer Verantwortlichkeit und kurzen Reaktionszeiten. Jetzt lassen sich zukünftige Erweiterungen bzw. Umstrukturierungen oder auch eine Absicherung von Anlagen bzw. Anlagenteile durch dezentral installierte Firewalls flexibel umsetzen. Die Basis für neue Möglichkeiten ist geschaffen.

Dieses oder ähnliche Konzepte sind für Sie ebenfalls interessant? Besuchen Sie uns auf der Achema (Halle 11.1, Stand A27) vom 11. – 15. Juni 2018 und erfahren Sie mehr über unser umfangreiches Leistungsspektrum.

Martin Hecker, Leitung Support & Test, Phoenix Contact

Saubere Autobahn-Toiletten dank IoT

Die bedarfsorientierte und nutzerfreundliche Reinigung und Instandhaltung der Toilettenanlagen an Rastplätzen von Autobahnen und Schnellstraßen sind eine wirtschaftlich-logistische Herausforderung. Die Anlagen werden je nach Tages-, Wochen- und Jahreszeit äußerst unterschiedlich frequentiert, sollen jedoch vom Nutzer jederzeit in einem tadellosen und sauberen Zustand vorgefunden werden. Gleichzeitig kann der Reinigungsdienst aus wirtschaftlichen Gründen nicht alle Anlagen nahezu ständig anfahren. Sowohl Betreiber wie auch Reinigungsdienstleister benötigen daher laufend Informationen von allen Anlagen über die jeweilige Nutzerfrequenz, um aus diesen Daten einen effizienten und intervallmäßig angepassten Reinigungsplan abzuleiten.  

Übersicht
Bild 1: Eine Übersicht der vernetzten Autobahn-Toilettenanlagen in Österreich. (Quelle: Schildknecht AG)

Höchste Verfügbarkeit und geringe Kosten

Für eine dauerhaft zuverlässige und zugleich wirtschaftliche Reinigung der Toilettenanlagen muss eine hohe Funktionsfähigkeit und Verfügbarkeit des gesamten Systems, vom Sensor und Funkmodul und die Mobilfunk-Übertragung bis zur Device Cloud und deren Software gesichert sein; und das an allen Rastplätzen des Autobahnnetzes, auch in entlegenen Gebieten ohne Internet-Verfügbarkeit. Und die Datenübertragung soll unabhängig von einer möglicherweise vorhandenen IT-Infrastruktur und natürlich zu möglichst geringen Kosten erfolgen. Schließlich soll auch noch die Zerstörung der Anlagen durch Vandalismus (z.B. durch Beschädigung  frei liegenden Kabelstrecken) weittestgehend ausgeschlossen werden.

Lösung über ein IoT-basiertes Nutzer-Zählsystem

Eine aus technischer und wirtschaftlicher Sicht attraktive Lösung für die geschilderte Aufgabe bietet ein bedarfsgesteuertes, funkbasiertes Nutzerzählsystem auf IoT-Basis, welches von der Österreichischen Betreibergesellschaft der Autobahnen, Asfinag, seit 2016 getestet und bei inzwischen ca. 20 Stationen implementiert wurde. 

Die zeitlich und nach den drei Nutzergruppen – Damen, Herren, Pissoir – aufgelöste Messung der Nutzerfrequenzen wird mittels an den Türen angebrachter Kontakt-Sensoren fortlaufend registriert und per Funkmodul (Bild 2) und Mobilfunk  an eine dafür eingerichtete Device Cloud übertragen. Diese Device-Cloud ist Teil eines hoch-sicheren Servers, in welchem die vom Modul bereits vorverarbeiteten Daten gespeichert, ausgewertet und benutzerfreundlich dargestellt werden. Nutzer sind in diesem Fall die Mitarbeiter des Reinigungsdienstes, welche per Mobilgerate von extern auf diese Daten zugreifen und daraus ihren nächsten Arbeitseinsatz planen können. Dieser Daten-und Informationstransport von den Sensoren an den Toilettentüren bis zum „Arbeitsauftrag“ auf einem Mobilgerät des Reinigungspersonals ist ein typisches IoT-basiertes Geschäftsmodell.

Funksender
Bild 2: In Zusammenarbeit mit Funk Fuchs GmbH & Co KG (österreichische Vertretung der Schildknecht AG) wurden die Funkmodule installiert. (Quelle: Schildknecht AG)

Datenübertragung mittels universeller eSIM-Karte und GSM-Netz

Für die Datenübertragung mittels Mobilfunk wurde ein Dataeagle-Funkmodul der Schildknecht AG in Verbindung mit dem GSM-Netz gewählt. Dieses stellt das weltweit dichteste Kommunikationsnetzwerk dar, welches dank der im Funkmodul „Dataeagle“ integrierten und für viele Hundert globale Netze gültigen eSIM-Karte über weite Entfernungen und zu niedrigen Kosten genutzt werden kann. Die Signale der drei an den Toilettentüren installierten Sensoren werden dem Funkmodul über drei digitale Eingänge zugeführt und von diesem – nach Datenkomprimierung – über Mobilfunk und Internet an das in einer Device-Cloud positionierte Portal zur graphischen Darstellung geleitet. Dort stehen die aufbereiteten Daten zum Abruf für alle internetfähigen Geräte der Asfinag bzw. des Reinigungsdienstleisters mit entsprechenden Zugriffsberechtigungen bereit.

Dashboard
Bild 3: Das Dashboard zeigt die Frequentierung einer Toilettenanlage. (Quelle: Schildknecht AG)

Ergebnis

Nach der Erstinstallation von 5 Systemen im Jahr 2015 sind mittlerweile mehr als 20 Systeme störungsfrei in Betrieb, weitere sind geplant. Dank der Datenkomprimierung sind die  monatlich übertragene Datenmengen gering und die Mobilfunk-Übertragungskosten unter 10 Euro je Rastplatz– und das bei maximal effizienter Personalbedarfsplanung.

Die hier realisierte Lösung ist nicht nur in der Personenzählung, sondern universell einsetzbar: Ein Sensorwert wird bei dezentraler Messung über Mobilfunk an die Cloud übertragen, dort in einem Portal anwendergerecht aufbereitet und dargestellt und vom berechtigten Anwender abgerufen und zu entsprechenden Maßnahmen genutzt.

Cybersicherheit: DDoS-Angriffe werden für Unternehmen immer gefährlicher

Ziel eines DDoS-Angriffs ist es, Internet-Services, IT-Komponenten oder die IT-Infrastruktur eines attackierten Unternehmens lahmzulegen. Dazu werden Server oder andere Komponenten solange mit Anfragen, also Datenverkehr, überlastet, bis diese nicht mehr verfügbar sind. 2017 gab es in der DACH-Region knapp 197.000 derartiger Cyberattacken. Organisationen und Unternehmen mussten also 22 DDoS-Angriffe pro Stunde abwehren. Und einen DDoS-Angriff zu starten, ist für Cyberkriminelle heutzutage so einfach wie nie zuvor. Ein entsprechendes Know-How ist nicht mehr notwendig und Angriffe lassen sich bereits für fünf Euro im Darknet erwerben.

Angriffe verursachen nicht nur finanzielle Schäden

Doch welche konkreten Risiken birgt ein DDoS-Angriff auf die Webseite oder das Netzwerk eines Unternehmens? Unbestritten ist wohl das Risiko eines finanziellen Schadens durch Umsatzeinbußen als direkte Folge des Angriffs. Außerdem fallen Kosten für die Behebung und eine eventuelle Entschädigung betroffener Kunden an. Pro Ausfall müssen Unternehmen mit einem Schaden von durchschnittlich 8.000 bis 80.000 Euro rechnen. Zum anderen stehen juristische Fragen im Raum, wenn vertrauliche, personenbezogene Daten kompromittiert werden. Und schließlich kommt es zu einem immateriellen Schaden durch den Reputationsverlust des Unternehmens oder seiner Marke, der sich erst mit der Zeit bemerkbar macht.

Die Folgen eines Angriffs können also durchaus schwerwiegend sein und werden laut der aktuellen WISR-Studie (Worldwide Infrastructure Security Report) von Netscout Arbor zunehmend gravierender. Die Zahl der befragten Unternehmen und Service Provider, bei denen es infolge von DDoS-Angriffen zu Umsatzeinbußen kam, hat sich von 2016 auf 2017 nahezu verdoppelt. Und 57 Prozent bezeichnen den Imageschaden für ihre Marke oder ihr Unternehmen als die schwerwiegendste Folge von DDoS-Attacken. Für fast jeden Zweiten (48 Prozent) ist zudem die Abwanderung von Kunden nach einem erfolgreichen Cyberangriff eines der zentralen Probleme.

Bewusstsein für Cybersicherheit auf Führungsebene steigt

Darüber hinaus haben aufsehenerregende DDoS-Angriffe, wie durch das Mirai-Botnet oder durch offene Memcached-Server, und die zunehmend gravierenden Angriffsfolgen zu einem Umdenken auf der Führungsebene geführt und das Bewusstsein für die wachsende Bedrohungslage geschärft. 2017 berichteten drei Viertel der Unternehmen, dass DDoS-Angriffe eine feste Größe bei ihrer Analyse der Unternehmens- und IT-Risiken darstellen. Dies ist ein positiver und ermutigender Trend. Er zeigt: Führungskräfte erkennen, dass DDoS-Schutz ein wichtiger Faktor beim Risikomanagement ist.

Denn Unternehmen wenden beträchtliche finanzielle Mittel und viel Know-How für die Analyse und Verwaltung ihrer Finanz-, Regulierungs-, Unternehmens- und Marktrisiken auf. Das Risikomanagement für Cybersicherheit sollte mit einem ebenso hohen Stellenwert angegangenen werden – zumal immer mehr Geschäftsprozesse online abgewickelt werden oder auf Netzwerke angewiesen sind, die mit dem öffentlichen Internet verbunden sind. Unternehmen müssen daher die Verfügbarkeit ihrer Dienste auf Dauer sicherstellen und sich gegen Finanz-, Rechts- und Reputationsrisiken wappnen, die DDoS-Angriffe mit sich bringen.

Durch Digitalisierung und IoT wächst auch die Anfälligkeit für Angriffe

Zudem investieren Unternehmen zunehmend in Technologien, mit denen Geschäftsanwendungen durch Automatisierung, Virtualisierung, Integration und Auslagerung in die Cloud effizienter werden. So entstehen vielerorts neue, digital geprägte Geschäftsmodelle, die ohne die Konvergenz dieser Technologien nicht möglich wären. Allerdings hält die IT-Sicherheitstechnologie, die im Unternehmen vorhanden ist, mit dieser Transformation oft nicht Schritt. Die Entwicklungsdynamik des Internets der Dinge (IoT) und der über das IoT vernetzten Anwendungen, Netzwerke und Geräte ist so hoch, dass alle Anstrengungen zu ihrem Schutz hinterherhinken. IoT-Geräte und ihre Komponenten werden so zu leichten Zielen für Angreifer wie das Mirai-Botnet und IoT-Reaper gezeigt haben. Die Kriminellen konnten nicht ausreichend gesicherte IoT-Geräte mit geringem Aufwand als Botnetze zusammenschließen. Doch je mehr Geräte Angreifer miteinander verbinden, um ein Ziel zu attackieren, desto höher ist auch das erreichte Angriffsvolumen und damit der Datenverkehr, der Unternehmen oder Service Provider überschwemmt. Somit erhöht das IoT die Anfälligkeit für Angriffe wesentlich und diese sind schwieriger zurückzuverfolgen.

Multivektor-Angriffe erhöhen Chancen der Cyberangreifer

DDoS-Attacken nehmen aber auch in ihrer Komplexität zu. Sie bestehen also längst nicht mehr aus einfachen SYN-Flood-Angriffen, die den Verbindungsaufbau zwischen Client und Server stören, sondern sind Multivektor-Attacken. Angreifer können verschiedene Angriffsmethoden kombinieren und sich unterschiedliche Angriffsvektoren zunutze machen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. In diesen mehrstufigen Angriffen lässt sich beispielsweise ein volumetrischer Angriff, der durch die bloße Datenflut zur Überlastung der Bandbreite führt, mit einer getarnten Attacke gegen einen bestimmten Aspekt einer Anwendung oder eines Diensts auf Layer-7 kombinieren. Dies ist die gefährlichste Art von Angriffen, da mit nur einem attackierten Gerät, das eine niedrige Datenrate generiert, ein sehr effizienter Angriff ausgeführt werden kann – wobei die niedrige Datenrate die proaktive Erkennung und Abwehr eines solchen Angriffs zusätzlich erschwert. Auch 2018 ist mit einer weiteren Zunahme der Anzahl und der Komplexität von DDoS-Angriffen zu rechnen, die sich gegen öffentliche und private Infrastrukturen richten.

Mehrstufige Angriffe erfordern eine mehrstufige Abwehr

Damit sich Unternehmen und Service Provider effektiv vor hochvolumigen und mehrstufigen Angriffen schützen können, muss die eingesetzte DDoS-Lösung Abwehrfunktionen für jegliche Art von Bedrohungen umfassen. Eine hybride DDoS-Lösung bei der On-Premise-Schutzkomponenten mit Cloud-basierten Abwehrmechanismen kombiniert werden, gilt allgemein als Best Practice. Die Vor-Ort-Komponente bietet Funktionen, mit denen ein Großteil der Angriffe erkannt und abgewehrt werden können, seien es Angriffe auf Applikationsebene oder Überlastungsangriffe (State-Exhaustion) gegen Firewalls, IPS-Geräte und andere Infrastruktur-Komponenten. Die Cloud-Komponente wird wiederum für die Abwehr gegen volumetrische Angriffe benötigt, die mittlerweile eine Größe von bis zu 1,7 Terabit pro Sekunde erreichen. Dieser Wert misst den Umfang einer Attacke, die versucht, die Linkkapazität auszulasten. Bei einer hybriden Lösung sind die beiden Komponenten über einen intelligenten Mechanismus so integriert, dass die Abwehr in der Cloud automatisch aktiviert wird, wenn die Größe eines Angriffs den vorgegebenen Schwellwert überschreitet. Mehr als ein Drittel der Unternehmen und Service Provider (36 Prozent) nutzt bisher Technologien für die automatisierte DDoS-Abwehr.

DDoS-Abwehrlösungen sind ein Muss für Unternehmen

Die Folgen von DDoS-Angriffen in Form von Umsatz-, Kunden- und Reputationsverlusten werden gravierender. Denn sind IT- und Web-Dienste nicht verfügbar, steigen Kosten für den Betriebsausfall und können hohe Folgeschäden nach sich ziehen. Die Investition in eine dedizierte Lösung für den DDoS-Schutz ist daher eine wirksame Absicherung gegen diese zentralen Unternehmensrisiken.

Könnten Sie heute für 12 Stunden auf das Internet verzichten?

Es ist beeindruckend zu sehen, wie rasch wir alle von schneller Internet-Konnektivität abhängig geworden sind. Als das Internet im Jahr 1995 in Schwung kam, gab es gerade einmal 16 Millionen Menschen, die dort online waren. In den folgenden 20 Jahren wuchs die Internetnutzung um das 100-fache auf über ein Drittel der Weltbevölkerung. Heute gibt es rund 3,5 Milliarden Internetanwender. Bis zum Jahr 2021 könnten noch einmal eine Milliarde dazu kommen. Das wären also insgesamt 4,6 Milliarden Menschen, die mit dem Internet verbunden sind – und bis zu 27 Milliarden vernetzte Geräte weltweit.

All diese Zahlen zeigen, wie tief das Internet in allen Aspekten unseres Lebens, der Geschäftswelt und der Gesellschaft bereits verwurzelt ist.

Große Abhängigkeit vom Internet

Vor rund vier Jahren wurde eine weltweite Umfrage in Auftrag gegeben, um die Abhängigkeit der Menschen vom Internet zu messen. Die Untersuchung hat ergeben, dass fast zwei Drittel (64 Prozent) eine Angst davor hat, ohne das Internet etwas zu verpassen. Es zeigte sich auch, dass Asiaten am stärksten vom Internet abhängig sind: So glaubt zum Beispiel nur etwa die Hälfte (48 Prozent) der Bevölkerung in Singapur, dass sie in der Lage sind, bis zu 12 Stunden ohne Internet auszukommen.

Ich bin mir sicher, dass diese Untersuchung in der heutigen Zeit noch höhere Werte ergeben würde. Des Weiteren ist es heute in vielen Branchen – von der Finanzindustrie über den Einzelhandel bis hin zu Produktion und Logistik – praktisch unmöglich, dass Mitarbeiter ihre Arbeit überhaupt ohne Konnektivität erledigen können. Unternehmen sind auf Cloud-basierte Anwendungen sowie auf Daten und Kommunikation angewiesen, die über globale Netzwerke, auf jedem Gerät, zu jeder Zeit und an jedem Ort, zugänglich sind. Und mit der zunehmenden Verbreitung verschiedener IoT- und KI-Anwendungen wird unsere Abhängigkeit an zuverlässige, sichere und extrem schnelle Netzwerkverbindungen noch zunehmen.

All dies hat zur Folge, dass die Technologie- und Telekommunikationsbranche dafür sorgen muss, dass die globale Internet-Infrastruktur in der Lage ist, den wachsenden Anforderungen unserer zunehmend digitalen Welt gerecht zu werden. Dazu müssen wir alle zusammenarbeiten und in den Ausbau bestehender sowie in den Aufbau neuer Netze investieren.

Verbindung zwischen Asien und Amerika

Aus diesem Grund hat Tata Communications zusammen mit Facebook, China Telecom Global, China Unicom und Telstra ein neues Unterwasserkabelsystem der nächsten Generation zwischen Hongkong, Taiwan und Kalifornien fertig gestellt.

Bislang wurden branchenweit fast alle Unterwasserkabelsysteme zwischen Asien und den USA über Japan geleitet, da es „nur“ 8.000 Kilometer von Kalifornien entfernt ist. Eine Herausforderung für die Region um Japan ist jedoch die Möglichkeit von Erdbeben, was zu Netzausfällen führen könnte. Mit einer neuen Technologie wurde es jetzt jedoch möglich, Hongkong und Kalifornien direkt miteinander über eine Entfernung von rund 13.000 Kilometern zu verbinden.

Das neue Unterwasserkabelsystem Hongkong-Amerika wird im Jahr 2020 fertiggestellt und an das globale Netzwerk angeschlossen, wodurch eine schnelle und zuverlässige Verbindung zwischen den Wirtschaftszentren in Asien und der USA ermöglicht werden soll.

Von Genius Wong, Chief Product Officer, Global Network, Cloud Infrastructure und Security Services bei Tata Communications

IIS 10 überwachen und Protokolldateien konfigurieren

Doppelklicken Sie im Internetinformationsdienste-Manager auf das Feature Ablaufverfolgungsregeln für Anforderungsfehler, können Sie Regeln erstellen, mit denen Sie die fehlerhaften Zugriffe auf den Server überwachen.

Neue Regeln lassen sich über das Kontextmenü oder den Aktionen-Bereich erstellen. Das Feature ist aber erst verfügbar, wenn Sie die Rollendienste Ablaufverfolgung und Anforderungsüberwachung bei Systemzustand und Diagnose installieren.

Die Protokolldateien sind standardmäßig im Ordner \inetpub\logs\FailedReqLogFiles gespeichert.

Neben der Ablaufverfolgung für fehlerhafte Anforderungen, können Sie auch den normalen Betrieb von IIS protokollieren. Dazu steht der Punkt Protokollierung auf der Startseite des Internetinformationsdienste-Managers zur Verfügung.

Die Protokollierung kann für einzelne Seiten und Anwendungen getrennt aktiviert oder deaktiviert werden. Auch dazu steht das Feature Protokollierung zur Verfügung, wenn Sie die entsprechende Seite oder Anwendung im IIS-Manager anklicken. Standardmäßig ist die Protokollierung für den Server an sich und für Webseiten aktiviert.

Über das Feature Arbeitsprozesse auf der Startseite des Internetinformationsdienste-Managers werden die laufenden Prozesse sowie deren Ressourcenverbrauch angezeigt. Anwendungspools können dabei auch mehrere Arbeitsprozesse, oft auch als Worker Processes bezeichnet, starten.

Varianten der Vertrauensstellungen in Active Directory

Externe Vertrauensstellungen zu einer anderen Struktur oder Domäne  lassen sich ebenfalls in diesem Snap-In einrichten.

Gesamtstruktur-übergreifende Vertrauensstellungen, um die Rootdomänen von zwei unterschiedlichen Gesamtstrukturen zu verbinden erlauben die Verbindung zwischen mehreren Gesamtstrukturen. Alle Domänen der beiden Gesamtstrukturen vertrauen sich anschließend automatisch transitiv.

Vertrauensstellungen zwischen untergeordneten Domänen verschiedener Strukturen, sogenannte Shortcut Trusts oder abkürzende Vertrauensstellungen, sind ebenfalls möglich. Diese Art der Vertrauensstellung wird häufig verwendet, um den Zugriff auf Ressourcen zwischen Domänen zu beschleunigen. In Active Directory vertrauen sich alle Domänen innerhalb einer Struktur.

Diese Einrichtung der transitiven Vertrauensstellungen erfolgt automatisch. Es werden allerdings keine Vertrauensstellungen zwischen untergeordneten Domänen verschiedener Strukturen eingerichtet, sondern nur zwischen den Rootdomänen der einzelnen Strukturen. Wenn Anwender auf Daten verschiedener untergeordneter Domänen zugreifen wollen, muss die Authentifizierung daher immer den Weg bis zur Rootdomäne der eigenen Struktur gehen, dann zur Rootdomäne der anderen Struktur und schließlich zur entsprechenden untergeordneten Domäne. Diese Authentifizierung kann durchaus einige Zeit dauern.

Wenn Sie eine Vertrauensstellung zu einer externen Domäne erstellen wollen, sollten Sie zunächst sicherstellen, dass die Namensauflösung zwischen den Domänen fehlerfrei funktioniert.

BAM – CMS Blog