Saubere Autobahn-Toiletten dank IoT

Die bedarfsorientierte und nutzerfreundliche Reinigung und Instandhaltung der Toilettenanlagen an Rastplätzen von Autobahnen und Schnellstraßen sind eine wirtschaftlich-logistische Herausforderung. Die Anlagen werden je nach Tages-, Wochen- und Jahreszeit äußerst unterschiedlich frequentiert, sollen jedoch vom Nutzer jederzeit in einem tadellosen und sauberen Zustand vorgefunden werden. Gleichzeitig kann der Reinigungsdienst aus wirtschaftlichen Gründen nicht alle Anlagen nahezu ständig anfahren. Sowohl Betreiber wie auch Reinigungsdienstleister benötigen daher laufend Informationen von allen Anlagen über die jeweilige Nutzerfrequenz, um aus diesen Daten einen effizienten und intervallmäßig angepassten Reinigungsplan abzuleiten.  

Übersicht
Bild 1: Eine Übersicht der vernetzten Autobahn-Toilettenanlagen in Österreich. (Quelle: Schildknecht AG)

Höchste Verfügbarkeit und geringe Kosten

Für eine dauerhaft zuverlässige und zugleich wirtschaftliche Reinigung der Toilettenanlagen muss eine hohe Funktionsfähigkeit und Verfügbarkeit des gesamten Systems, vom Sensor und Funkmodul und die Mobilfunk-Übertragung bis zur Device Cloud und deren Software gesichert sein; und das an allen Rastplätzen des Autobahnnetzes, auch in entlegenen Gebieten ohne Internet-Verfügbarkeit. Und die Datenübertragung soll unabhängig von einer möglicherweise vorhandenen IT-Infrastruktur und natürlich zu möglichst geringen Kosten erfolgen. Schließlich soll auch noch die Zerstörung der Anlagen durch Vandalismus (z.B. durch Beschädigung  frei liegenden Kabelstrecken) weittestgehend ausgeschlossen werden.

Lösung über ein IoT-basiertes Nutzer-Zählsystem

Eine aus technischer und wirtschaftlicher Sicht attraktive Lösung für die geschilderte Aufgabe bietet ein bedarfsgesteuertes, funkbasiertes Nutzerzählsystem auf IoT-Basis, welches von der Österreichischen Betreibergesellschaft der Autobahnen, Asfinag, seit 2016 getestet und bei inzwischen ca. 20 Stationen implementiert wurde. 

Die zeitlich und nach den drei Nutzergruppen – Damen, Herren, Pissoir – aufgelöste Messung der Nutzerfrequenzen wird mittels an den Türen angebrachter Kontakt-Sensoren fortlaufend registriert und per Funkmodul (Bild 2) und Mobilfunk  an eine dafür eingerichtete Device Cloud übertragen. Diese Device-Cloud ist Teil eines hoch-sicheren Servers, in welchem die vom Modul bereits vorverarbeiteten Daten gespeichert, ausgewertet und benutzerfreundlich dargestellt werden. Nutzer sind in diesem Fall die Mitarbeiter des Reinigungsdienstes, welche per Mobilgerate von extern auf diese Daten zugreifen und daraus ihren nächsten Arbeitseinsatz planen können. Dieser Daten-und Informationstransport von den Sensoren an den Toilettentüren bis zum „Arbeitsauftrag“ auf einem Mobilgerät des Reinigungspersonals ist ein typisches IoT-basiertes Geschäftsmodell.

Funksender
Bild 2: In Zusammenarbeit mit Funk Fuchs GmbH & Co KG (österreichische Vertretung der Schildknecht AG) wurden die Funkmodule installiert. (Quelle: Schildknecht AG)

Datenübertragung mittels universeller eSIM-Karte und GSM-Netz

Für die Datenübertragung mittels Mobilfunk wurde ein Dataeagle-Funkmodul der Schildknecht AG in Verbindung mit dem GSM-Netz gewählt. Dieses stellt das weltweit dichteste Kommunikationsnetzwerk dar, welches dank der im Funkmodul „Dataeagle“ integrierten und für viele Hundert globale Netze gültigen eSIM-Karte über weite Entfernungen und zu niedrigen Kosten genutzt werden kann. Die Signale der drei an den Toilettentüren installierten Sensoren werden dem Funkmodul über drei digitale Eingänge zugeführt und von diesem – nach Datenkomprimierung – über Mobilfunk und Internet an das in einer Device-Cloud positionierte Portal zur graphischen Darstellung geleitet. Dort stehen die aufbereiteten Daten zum Abruf für alle internetfähigen Geräte der Asfinag bzw. des Reinigungsdienstleisters mit entsprechenden Zugriffsberechtigungen bereit.

Dashboard
Bild 3: Das Dashboard zeigt die Frequentierung einer Toilettenanlage. (Quelle: Schildknecht AG)

Ergebnis

Nach der Erstinstallation von 5 Systemen im Jahr 2015 sind mittlerweile mehr als 20 Systeme störungsfrei in Betrieb, weitere sind geplant. Dank der Datenkomprimierung sind die  monatlich übertragene Datenmengen gering und die Mobilfunk-Übertragungskosten unter 10 Euro je Rastplatz– und das bei maximal effizienter Personalbedarfsplanung.

Die hier realisierte Lösung ist nicht nur in der Personenzählung, sondern universell einsetzbar: Ein Sensorwert wird bei dezentraler Messung über Mobilfunk an die Cloud übertragen, dort in einem Portal anwendergerecht aufbereitet und dargestellt und vom berechtigten Anwender abgerufen und zu entsprechenden Maßnahmen genutzt.

Cybersicherheit: DDoS-Angriffe werden für Unternehmen immer gefährlicher

Ziel eines DDoS-Angriffs ist es, Internet-Services, IT-Komponenten oder die IT-Infrastruktur eines attackierten Unternehmens lahmzulegen. Dazu werden Server oder andere Komponenten solange mit Anfragen, also Datenverkehr, überlastet, bis diese nicht mehr verfügbar sind. 2017 gab es in der DACH-Region knapp 197.000 derartiger Cyberattacken. Organisationen und Unternehmen mussten also 22 DDoS-Angriffe pro Stunde abwehren. Und einen DDoS-Angriff zu starten, ist für Cyberkriminelle heutzutage so einfach wie nie zuvor. Ein entsprechendes Know-How ist nicht mehr notwendig und Angriffe lassen sich bereits für fünf Euro im Darknet erwerben.

Angriffe verursachen nicht nur finanzielle Schäden

Doch welche konkreten Risiken birgt ein DDoS-Angriff auf die Webseite oder das Netzwerk eines Unternehmens? Unbestritten ist wohl das Risiko eines finanziellen Schadens durch Umsatzeinbußen als direkte Folge des Angriffs. Außerdem fallen Kosten für die Behebung und eine eventuelle Entschädigung betroffener Kunden an. Pro Ausfall müssen Unternehmen mit einem Schaden von durchschnittlich 8.000 bis 80.000 Euro rechnen. Zum anderen stehen juristische Fragen im Raum, wenn vertrauliche, personenbezogene Daten kompromittiert werden. Und schließlich kommt es zu einem immateriellen Schaden durch den Reputationsverlust des Unternehmens oder seiner Marke, der sich erst mit der Zeit bemerkbar macht.

Die Folgen eines Angriffs können also durchaus schwerwiegend sein und werden laut der aktuellen WISR-Studie (Worldwide Infrastructure Security Report) von Netscout Arbor zunehmend gravierender. Die Zahl der befragten Unternehmen und Service Provider, bei denen es infolge von DDoS-Angriffen zu Umsatzeinbußen kam, hat sich von 2016 auf 2017 nahezu verdoppelt. Und 57 Prozent bezeichnen den Imageschaden für ihre Marke oder ihr Unternehmen als die schwerwiegendste Folge von DDoS-Attacken. Für fast jeden Zweiten (48 Prozent) ist zudem die Abwanderung von Kunden nach einem erfolgreichen Cyberangriff eines der zentralen Probleme.

Bewusstsein für Cybersicherheit auf Führungsebene steigt

Darüber hinaus haben aufsehenerregende DDoS-Angriffe, wie durch das Mirai-Botnet oder durch offene Memcached-Server, und die zunehmend gravierenden Angriffsfolgen zu einem Umdenken auf der Führungsebene geführt und das Bewusstsein für die wachsende Bedrohungslage geschärft. 2017 berichteten drei Viertel der Unternehmen, dass DDoS-Angriffe eine feste Größe bei ihrer Analyse der Unternehmens- und IT-Risiken darstellen. Dies ist ein positiver und ermutigender Trend. Er zeigt: Führungskräfte erkennen, dass DDoS-Schutz ein wichtiger Faktor beim Risikomanagement ist.

Denn Unternehmen wenden beträchtliche finanzielle Mittel und viel Know-How für die Analyse und Verwaltung ihrer Finanz-, Regulierungs-, Unternehmens- und Marktrisiken auf. Das Risikomanagement für Cybersicherheit sollte mit einem ebenso hohen Stellenwert angegangenen werden – zumal immer mehr Geschäftsprozesse online abgewickelt werden oder auf Netzwerke angewiesen sind, die mit dem öffentlichen Internet verbunden sind. Unternehmen müssen daher die Verfügbarkeit ihrer Dienste auf Dauer sicherstellen und sich gegen Finanz-, Rechts- und Reputationsrisiken wappnen, die DDoS-Angriffe mit sich bringen.

Durch Digitalisierung und IoT wächst auch die Anfälligkeit für Angriffe

Zudem investieren Unternehmen zunehmend in Technologien, mit denen Geschäftsanwendungen durch Automatisierung, Virtualisierung, Integration und Auslagerung in die Cloud effizienter werden. So entstehen vielerorts neue, digital geprägte Geschäftsmodelle, die ohne die Konvergenz dieser Technologien nicht möglich wären. Allerdings hält die IT-Sicherheitstechnologie, die im Unternehmen vorhanden ist, mit dieser Transformation oft nicht Schritt. Die Entwicklungsdynamik des Internets der Dinge (IoT) und der über das IoT vernetzten Anwendungen, Netzwerke und Geräte ist so hoch, dass alle Anstrengungen zu ihrem Schutz hinterherhinken. IoT-Geräte und ihre Komponenten werden so zu leichten Zielen für Angreifer wie das Mirai-Botnet und IoT-Reaper gezeigt haben. Die Kriminellen konnten nicht ausreichend gesicherte IoT-Geräte mit geringem Aufwand als Botnetze zusammenschließen. Doch je mehr Geräte Angreifer miteinander verbinden, um ein Ziel zu attackieren, desto höher ist auch das erreichte Angriffsvolumen und damit der Datenverkehr, der Unternehmen oder Service Provider überschwemmt. Somit erhöht das IoT die Anfälligkeit für Angriffe wesentlich und diese sind schwieriger zurückzuverfolgen.

Multivektor-Angriffe erhöhen Chancen der Cyberangreifer

DDoS-Attacken nehmen aber auch in ihrer Komplexität zu. Sie bestehen also längst nicht mehr aus einfachen SYN-Flood-Angriffen, die den Verbindungsaufbau zwischen Client und Server stören, sondern sind Multivektor-Attacken. Angreifer können verschiedene Angriffsmethoden kombinieren und sich unterschiedliche Angriffsvektoren zunutze machen. Diese hochkomplexen Attacken richten sich gleichzeitig gegen die Verbindungsbandbreite, Applikationen, Infrastrukturen und Dienste. In diesen mehrstufigen Angriffen lässt sich beispielsweise ein volumetrischer Angriff, der durch die bloße Datenflut zur Überlastung der Bandbreite führt, mit einer getarnten Attacke gegen einen bestimmten Aspekt einer Anwendung oder eines Diensts auf Layer-7 kombinieren. Dies ist die gefährlichste Art von Angriffen, da mit nur einem attackierten Gerät, das eine niedrige Datenrate generiert, ein sehr effizienter Angriff ausgeführt werden kann – wobei die niedrige Datenrate die proaktive Erkennung und Abwehr eines solchen Angriffs zusätzlich erschwert. Auch 2018 ist mit einer weiteren Zunahme der Anzahl und der Komplexität von DDoS-Angriffen zu rechnen, die sich gegen öffentliche und private Infrastrukturen richten.

Mehrstufige Angriffe erfordern eine mehrstufige Abwehr

Damit sich Unternehmen und Service Provider effektiv vor hochvolumigen und mehrstufigen Angriffen schützen können, muss die eingesetzte DDoS-Lösung Abwehrfunktionen für jegliche Art von Bedrohungen umfassen. Eine hybride DDoS-Lösung bei der On-Premise-Schutzkomponenten mit Cloud-basierten Abwehrmechanismen kombiniert werden, gilt allgemein als Best Practice. Die Vor-Ort-Komponente bietet Funktionen, mit denen ein Großteil der Angriffe erkannt und abgewehrt werden können, seien es Angriffe auf Applikationsebene oder Überlastungsangriffe (State-Exhaustion) gegen Firewalls, IPS-Geräte und andere Infrastruktur-Komponenten. Die Cloud-Komponente wird wiederum für die Abwehr gegen volumetrische Angriffe benötigt, die mittlerweile eine Größe von bis zu 1,7 Terabit pro Sekunde erreichen. Dieser Wert misst den Umfang einer Attacke, die versucht, die Linkkapazität auszulasten. Bei einer hybriden Lösung sind die beiden Komponenten über einen intelligenten Mechanismus so integriert, dass die Abwehr in der Cloud automatisch aktiviert wird, wenn die Größe eines Angriffs den vorgegebenen Schwellwert überschreitet. Mehr als ein Drittel der Unternehmen und Service Provider (36 Prozent) nutzt bisher Technologien für die automatisierte DDoS-Abwehr.

DDoS-Abwehrlösungen sind ein Muss für Unternehmen

Die Folgen von DDoS-Angriffen in Form von Umsatz-, Kunden- und Reputationsverlusten werden gravierender. Denn sind IT- und Web-Dienste nicht verfügbar, steigen Kosten für den Betriebsausfall und können hohe Folgeschäden nach sich ziehen. Die Investition in eine dedizierte Lösung für den DDoS-Schutz ist daher eine wirksame Absicherung gegen diese zentralen Unternehmensrisiken.

Könnten Sie heute für 12 Stunden auf das Internet verzichten?

Es ist beeindruckend zu sehen, wie rasch wir alle von schneller Internet-Konnektivität abhängig geworden sind. Als das Internet im Jahr 1995 in Schwung kam, gab es gerade einmal 16 Millionen Menschen, die dort online waren. In den folgenden 20 Jahren wuchs die Internetnutzung um das 100-fache auf über ein Drittel der Weltbevölkerung. Heute gibt es rund 3,5 Milliarden Internetanwender. Bis zum Jahr 2021 könnten noch einmal eine Milliarde dazu kommen. Das wären also insgesamt 4,6 Milliarden Menschen, die mit dem Internet verbunden sind – und bis zu 27 Milliarden vernetzte Geräte weltweit.

All diese Zahlen zeigen, wie tief das Internet in allen Aspekten unseres Lebens, der Geschäftswelt und der Gesellschaft bereits verwurzelt ist.

Große Abhängigkeit vom Internet

Vor rund vier Jahren wurde eine weltweite Umfrage in Auftrag gegeben, um die Abhängigkeit der Menschen vom Internet zu messen. Die Untersuchung hat ergeben, dass fast zwei Drittel (64 Prozent) eine Angst davor hat, ohne das Internet etwas zu verpassen. Es zeigte sich auch, dass Asiaten am stärksten vom Internet abhängig sind: So glaubt zum Beispiel nur etwa die Hälfte (48 Prozent) der Bevölkerung in Singapur, dass sie in der Lage sind, bis zu 12 Stunden ohne Internet auszukommen.

Ich bin mir sicher, dass diese Untersuchung in der heutigen Zeit noch höhere Werte ergeben würde. Des Weiteren ist es heute in vielen Branchen – von der Finanzindustrie über den Einzelhandel bis hin zu Produktion und Logistik – praktisch unmöglich, dass Mitarbeiter ihre Arbeit überhaupt ohne Konnektivität erledigen können. Unternehmen sind auf Cloud-basierte Anwendungen sowie auf Daten und Kommunikation angewiesen, die über globale Netzwerke, auf jedem Gerät, zu jeder Zeit und an jedem Ort, zugänglich sind. Und mit der zunehmenden Verbreitung verschiedener IoT- und KI-Anwendungen wird unsere Abhängigkeit an zuverlässige, sichere und extrem schnelle Netzwerkverbindungen noch zunehmen.

All dies hat zur Folge, dass die Technologie- und Telekommunikationsbranche dafür sorgen muss, dass die globale Internet-Infrastruktur in der Lage ist, den wachsenden Anforderungen unserer zunehmend digitalen Welt gerecht zu werden. Dazu müssen wir alle zusammenarbeiten und in den Ausbau bestehender sowie in den Aufbau neuer Netze investieren.

Verbindung zwischen Asien und Amerika

Aus diesem Grund hat Tata Communications zusammen mit Facebook, China Telecom Global, China Unicom und Telstra ein neues Unterwasserkabelsystem der nächsten Generation zwischen Hongkong, Taiwan und Kalifornien fertig gestellt.

Bislang wurden branchenweit fast alle Unterwasserkabelsysteme zwischen Asien und den USA über Japan geleitet, da es „nur“ 8.000 Kilometer von Kalifornien entfernt ist. Eine Herausforderung für die Region um Japan ist jedoch die Möglichkeit von Erdbeben, was zu Netzausfällen führen könnte. Mit einer neuen Technologie wurde es jetzt jedoch möglich, Hongkong und Kalifornien direkt miteinander über eine Entfernung von rund 13.000 Kilometern zu verbinden.

Das neue Unterwasserkabelsystem Hongkong-Amerika wird im Jahr 2020 fertiggestellt und an das globale Netzwerk angeschlossen, wodurch eine schnelle und zuverlässige Verbindung zwischen den Wirtschaftszentren in Asien und der USA ermöglicht werden soll.

Von Genius Wong, Chief Product Officer, Global Network, Cloud Infrastructure und Security Services bei Tata Communications

IIS 10 überwachen und Protokolldateien konfigurieren

Doppelklicken Sie im Internetinformationsdienste-Manager auf das Feature Ablaufverfolgungsregeln für Anforderungsfehler, können Sie Regeln erstellen, mit denen Sie die fehlerhaften Zugriffe auf den Server überwachen.

Neue Regeln lassen sich über das Kontextmenü oder den Aktionen-Bereich erstellen. Das Feature ist aber erst verfügbar, wenn Sie die Rollendienste Ablaufverfolgung und Anforderungsüberwachung bei Systemzustand und Diagnose installieren.

Die Protokolldateien sind standardmäßig im Ordner \inetpub\logs\FailedReqLogFiles gespeichert.

Neben der Ablaufverfolgung für fehlerhafte Anforderungen, können Sie auch den normalen Betrieb von IIS protokollieren. Dazu steht der Punkt Protokollierung auf der Startseite des Internetinformationsdienste-Managers zur Verfügung.

Die Protokollierung kann für einzelne Seiten und Anwendungen getrennt aktiviert oder deaktiviert werden. Auch dazu steht das Feature Protokollierung zur Verfügung, wenn Sie die entsprechende Seite oder Anwendung im IIS-Manager anklicken. Standardmäßig ist die Protokollierung für den Server an sich und für Webseiten aktiviert.

Über das Feature Arbeitsprozesse auf der Startseite des Internetinformationsdienste-Managers werden die laufenden Prozesse sowie deren Ressourcenverbrauch angezeigt. Anwendungspools können dabei auch mehrere Arbeitsprozesse, oft auch als Worker Processes bezeichnet, starten.

Varianten der Vertrauensstellungen in Active Directory

Externe Vertrauensstellungen zu einer anderen Struktur oder Domäne  lassen sich ebenfalls in diesem Snap-In einrichten.

Gesamtstruktur-übergreifende Vertrauensstellungen, um die Rootdomänen von zwei unterschiedlichen Gesamtstrukturen zu verbinden erlauben die Verbindung zwischen mehreren Gesamtstrukturen. Alle Domänen der beiden Gesamtstrukturen vertrauen sich anschließend automatisch transitiv.

Vertrauensstellungen zwischen untergeordneten Domänen verschiedener Strukturen, sogenannte Shortcut Trusts oder abkürzende Vertrauensstellungen, sind ebenfalls möglich. Diese Art der Vertrauensstellung wird häufig verwendet, um den Zugriff auf Ressourcen zwischen Domänen zu beschleunigen. In Active Directory vertrauen sich alle Domänen innerhalb einer Struktur.

Diese Einrichtung der transitiven Vertrauensstellungen erfolgt automatisch. Es werden allerdings keine Vertrauensstellungen zwischen untergeordneten Domänen verschiedener Strukturen eingerichtet, sondern nur zwischen den Rootdomänen der einzelnen Strukturen. Wenn Anwender auf Daten verschiedener untergeordneter Domänen zugreifen wollen, muss die Authentifizierung daher immer den Weg bis zur Rootdomäne der eigenen Struktur gehen, dann zur Rootdomäne der anderen Struktur und schließlich zur entsprechenden untergeordneten Domäne. Diese Authentifizierung kann durchaus einige Zeit dauern.

Wenn Sie eine Vertrauensstellung zu einer externen Domäne erstellen wollen, sollten Sie zunächst sicherstellen, dass die Namensauflösung zwischen den Domänen fehlerfrei funktioniert.

Wie sicher ist Künstliche Intelligenz für Unternehmen?

Künstliche Intelligenz – in all ihren Formen – wird in unserer Gesellschaft bald nicht mehr wegzudenken sein. In diesem Fall sprechen wir vor allem über die Funktionen von persönlichen Assistenten, die von Nutzern über Sprachbefehle aktiviert werden. Solche Assistenten wie Siri oder Alexa können verschiedene unliebsame Aufgaben des Nutzers übernehmen, etwa nach Informationen recherchieren, Telefonnummern wählen oder Daten aufrufen.

Jeder, der häufig soziale Netzwerke nutzt, kennt die Memes und Witze über diese Geräte. Die meisten dieser Parodien zeigen Familien, die ganz unbekümmert mit ihren KI-Geräten interagieren und etwas sagen wie, „Hey Abhörgerät, such mir ein gutes Rezept für Kekse!“ oder „Nur weil du paranoid bist, heißt das nicht, dass sie nicht hinter dir her sind …“. Über diese Witze können wir eben nur lachen, weil sie auf eine mögliche Wahrheit anspielen.

Und die Wahrheit ist, dass KI-Geräte auch zu Abhörgeräten werden können. Es ist sogar erwiesen, dass es eine Möglichkeit gibt, ein Amazon Echo zu hacken. Allerdings sind die meisten Verbraucher nicht besorgt genug darüber, abgehört zu werden. Und viele verzichten nur ungern auf ihre persönlichen Assistenten.

Wie steht es mit Künstlicher Intelligenz im Büro?

Diese Form von Künstlicher Intelligenz wird am Arbeitsplatz in jedem Fall Fuß fassen. Amazon bietet beispielsweise seinen Sprachassistenten Alexa jetzt auch speziell für Unternehmen an – Alexa for Business.

Scheinbar endlos die Möglichkeiten, die diese Art von Künstlicher Intelligenz in Sachen Effizienz am Arbeitsplatz darstellen. Sie können komplizierte Umsatzdaten und Berichte des Ertragszyklus-Managements nachschlagen oder einen Kunden anrufen, ohne dabei die laufenden Tätigkeiten unterbrechen zu müssen. All diese Aufgaben können durch einfaches Fragen automatisch erledigt werden. Somit wird Zeit für Wichtigeres gespart.

Ein weiterer Vorteil von intelligenten Sprachassistenten? Viele Angestellte sind mit der Technologie bereits vertraut, da diese im Privatleben ähnliche Programme und Technolgien verwenden.

Privat siegt die Bequemlichkeit über das Risiko. Ist das auch auf Unternehmen übertragbar?

Cybersicherheitsrisiken für Unternehmen – zahlt sich Künstliche Intelligenz wirklich aus?

Ein deutlicher Vorteil von KI besteht darin, dass Mitarbeiter Aufgaben effizienter erledigen können. Die Kehrseite der Medaille ist jedoch das erhöhte Risiko bei der Verwendung dieser Art von Technologie.

Zum einen stellt sie eine weitere Angriffsmöglichkeit für Hacker dar, wobei die Auswirkungen eines Angriffs hier verheerend sein können. Sich den Zugang zu einem persönlichen KI-Assistenten zu erschleichen, würde bedeuten, dass Hacker jeden Sprachbefehl im Büro aufnehmen und Zugriff auf alle mit dem Gerät verbundenen Konten hätten. Dies könnte zu einer großen Datenschutzverletzung führen, die nur schwer aufzudecken ist. In einem weiteren möglichen Szenario sendet der Hacker hochfrequente Töne und Befehle an das Gerät aus, um etwa Dateien an einen bestimmten Standort zu senden oder eine Seite aufzurufen, die Malware direkt auf Geräte im Büro herunterlädt.

Während Privatnutzer keine Hackerangriffe dieser Art zu befürchten haben, kann ein Unternehmen nicht über das mögliche Risiko hinwegsehen. Wenn bei einem Angriff der Datenschutz gefährdet wird, könnte das rechtliche Folgen für ein Unternehmen haben und den Ruf zu einem erschreckenden Maß beeinträchtigen.

Mehr als 40 Prozent der Cyber-Angriffe sind auf kleinere Unternehmen gerichtet. Und Großunternehmen fallen regelmäßig Hacker-Angriffen zum Opfer. Erpressungstrojaner kosten Großunternehmen, Gesundheitseinrichtungen und sogar Privatpersonen jährlich Millionen von Dollar. Da viele Einrichtungen über keine gute Daten-Wiederherstellungsstrategie oder ordentliche Cybersicherheit verfügen, bezahlen sie letztlich die Erpressungsgelder. Sogar Polizeibehörden zählten bereits zu den Opfern.

Dies stellt ein großes Risiko für Unternehmen jeder Größe dar. Eine Mehrheit von 60 Prozent jener von Hacker-Angriffen betroffenen Unternehmen, müssen innerhalb eines Jahres ihr Geschäft aufgeben. Die Erpressungstrojaner und Cyber-Angriffe, mit denen Unternehmen bislang zu kämpfen hatten, haben sich noch nicht in diese Form der Künstlichen Intelligenz einschleusen können. Allerdings wird diese KI-Form erst jetzt richtig zugänglich. Es ist anzunehmen, dass Hacker die Schwächen dieser Geräte in Zukunft gezielt ausnutzen.

Geschäftsinteressen effektiv schützen

Künstliche Intelligenz hat längst in Form von persönlichen Assistenten die Berufswelt erobert und wurde unter anderem über Mitarbeiter eingeführt. Hacker können derzeit Angestellte in hochrangigen Positionen durch deren persönliche Assistenten-Geräte ins Visier nehmen. Der Technologie aus dem Weg zu gehen ist schlichtweg unmöglich.

Glücklicherweise ist extremes Misstrauen nicht völlig gerechtfertigt. Geräte, wie Smartphone oder Computer,  die Sprachanwendungen und Video-Chats unterstützen sind im täglichen Einsatz. Kein Grund also, sich direkt von einem Gerät zu trennen, das eventuell gefährdet sein könnte. Stattdessen muss sich das Bewusstsein für die Gefahren schärfen. Mitarbeiter sollten daher immer auf dem neuesten Stand sein um Gefahrensituationen erfolgreich abzuwehren. 

Welche verschiedenen Arten von Cyber-Attacken neue Technologien, wie die Sprachassistenten, mit sich bringen, ist schwer abzusehen. Die folgenden Methoden helfen dabei Unternehmen abzusichern:

  • Bieten Sie Schulungen für Mitarbeiter an. Eine enorme Menge an Daten wird missbraucht, weil sich Hacker Zugang durch nachlässige Mitarbeiter verschaffen. Dies kann passieren, wenn Kollegen keinen Passwortschutz haben, zu schwache Passwörter verwenden oder auf infizierte Links klicken. Gerade weil dies häufig unabsichtlich geschieht, können schon regelmäßige Aktualisierungen der Sicherheitsprotokolle helfen.
  • Bewerten und verbessern Sie die Sicherheit Ihrer eigenen Website. Hacker sind normalerweise keine Schurken-Genies, die allein durch Codes in das System einbrechen können. Sie verschaffen sich oft durch die reale Welt Zugang, so zum Beispiel durch den Computer eines Mitarbeiters, der nicht passwortgeschützt ist.
  • Haben Sie eine Strategie für jedes Szenario parat. Unternehmen sollten gemeinsam mit den IT-Teams einen Notfallplan entwickeln, um sicherzugehen, dass jeder Angriff so wenig Schaden wie möglich anrichtet.

Künstliche Intelligenz trägt einen großen Teil zur Verbesserung der Produktivität bei. Genau wie mit allen anderen neuen technischen Fortschritten, sollten Unternehmen die Initiative ergreifen und ihre Sicherheitslage überdenken.

Make or Buy: 5 Faktoren, um richtig zu entscheiden

Es wird zunehmend schwerer sich allein mit dem eigenen Produkt von der Konkurrenz abzuheben. Nicht nur deshalb sind weiterführende Dienste, die zusammen mit dem Produkt verkauft werden, im Trend. Auch attraktive Geschäftsmodelle, wie das bedarfsgerechte Warten und Beliefern mit Ersatzteilen führt zu einer besseren Kundenbindung und verlässlichen Einnahmen. Ganz zu schweigen von alternativen Abrechnungsmodellen, wie dem Bezahlen von Maschinen nach Nutzung.

Bei der Erweiterung der eigenen Geschäftsmodelle stellt sich dann die Frage, ob die Entwicklung komplett mit eigenen Ressourcen erfolgen kann, oder ob ein Zukauf von Komponenten, Know-how oder Entwicklungsressourcen der bessere Weg zum Ziel ist. Diese 5 Faktoren sollte man bei dieser Entscheidung beachten:

1. Faktor Zeit

Vorab zu sagen ist: Wer jetzt noch nicht angefangen hat, wird das Rennen mit den Mitbewerbern womöglich verlieren. Ein gutes Produkt zur Markreife zu bringen benötigt mehrere Jahre. Vor allem sollte vermieden werden die Fehler zu begehen, die andere schon gelöst haben.

2. Quality as a Service

Kaum ein digitales Produkt schafft es, höchste Qualität von Beginn an zu gewährleisten. Die gewissen Details, die ein technisches Produkt zu einem gern genutzten Service machen, entwickeln sich oft erst nach Jahren der Nutzung in der Praxis. Gerade die nicht funktionalen Anforderungen, wie Stabilität, Sicherheit und Wartbarkeit werden dabei oft unterschätzt.

3. Standardfunktionalität nicht unterschätzen

Wird der Entwicklungsumfang eines Projektes abgeschätzt, steht zunächst die Kernfunktionalität im Fokus der Betrachtung. Die vielen, wenn auch kleinen Funktionen, die darum herum benötigt werden, kosten oft ein Vielfaches der Zeit. So gehören zu einer komfortablen Datenanalyse selbstverständlich auch Funktionen, wie automatischer Report-Versand, Excel-Export, Korrekturmöglichkeiten, automatische Zeitzonenanpassung und vieles, vieles mehr.

4. Risiko minimieren

Umso mehr Ressourcen in die Entwicklung eines Produktes gesteckt werden, umso höher ist der Verlust, wenn der Erfolg ausbleibt. Allerdings lässt sich dieses Risiko erheblich reduzieren, indem eine bestehende IIoT-Lösung für die eigenen Bedürfnisse abgewandelt wird. So wird die Zeit zum Markteintritt reduziert der tatsächliche Kundennutzen kann günstig erprobt werden.

5. Fachkräftemangel omnipräsent

Kaum ein Beruf ist von der zunehmenden Spezialisierung betroffen, wie der eines Softwareentwicklers. Auf Cloud-Lösungen spezialisierte Fachkräfte mit jahrelanger Erfahrung sind am Markt kaum auffindbar. Wie in jeder Branche, ist auch nicht jeder Entwickler ein Spezialist seines Fachs. Warum also nicht dem vertrauen, der seine Expertise mit einem gut funktionierenden Produkt unter Beweis gestellt hat.

Fazit

In den meisten Fällen macht es keinen Sinn das Rad neu zu erfinden. Mit einer Standard-IoT-Plattform lassen sich fast alle Anwendungsfälle schneller, günstiger und sicherer abdecken. Bei der Wahl der richtigen Plattform ist vor allem auf dem bereits vorhandeneren Funktionsumfang und die kostengünstige Anpassungsfähigkeit zu achten. Anschließend müssen Unternehmen leidglich entscheiden wie exklusiv ihr eigenes Produkt sein soll – also wie sehr es sich von der der Standardlösung abheben soll.

Dieser Beitrag wurde verfasst von: Thomas Hepp (Mirasoft GmbH & Co. KG)

Die Getränkelogistik auf dem Prüfstand – Aktuelle Zahlen und Fakten

Die Getränkelogistik befindet sich im Wandel – sowohl auf Seiten der Hersteller als auch des (Groß-) Handels. Beide Akteure in der Getränke-Supply-Chain sehen sich veränderten Anforderungen gegenüber, sei es durch das Auf und Ab von Einwegverpackungen, einer zunehmenden Artikelvielfalt, gestiegener Display-Anforderungen oder auch vermehrter Exporttätigkeiten der Hersteller.

Aber nicht nur solche infrastrukturell–kapazitiven Veränderungen stellen die Branche vor große Herausforderungen, auch andere Themen wie die zunehmende Volatilität der Nachfrage an den Absatzmärkten oder der demographische Wandel erfordern innovative und nachhaltige Lösungen für die Zukunft.
Wie die Branche derzeit aufgestellt ist, was bereits getan wurde und welche Maßnahmen geplant sind, um zukünftigen Herausforderungen erfolgreich begegnen zu können – all dies sind Fragestellungen, die im Rahmen einer im Sommer 2017 durchgeführten Studie erstmals adressiert wurden.

Reaktive Strategien in der Getränkelogistik

Der deutsche Getränkemarkt ist nicht gerade durch deutliche Wachstumszahlen geprägt. Unternehmensindividuelles Wachstum erfolgt demzufolge durch Verdrängung von Wettbewerbern, was zu Preiskämpfen auf der einen und einem immer ausdifferenzierteren Sortiment und steigenden Werbemaßnahmen auf der anderen Seite führt. Dies spiegelt sich auch in den Treibern der Logistikprojekte aus Sicht der deutschen Studienteilnehmer wider. Deutsche Unternehmen der Getränkeindustrie kämpfen vor allen Dingen mit einer Verbreiterung ihres Sortiments durch die Zunahme der Artikelvielfalt und sehen diese als Haupttreiber ihrer Logistikprojekte.

Fokus auf Kostensenkung

Diese generelle unterschiedliche Markt- und Wettbewerbssituation spiegelt sich auch in vielen anderen Antworten im Rahmen der Studie wieder. So geht die Studie etwa der Frage nach, welche Ziele sowohl in der Vergangenheit als auch zukünftig mit strategischen, infrastrukturellen und operativen Projekten verfolgt wurden und zukünftig verfolgt werden sollen.

Anscheinend werden einige wichtige Instrumente zur Kostensenkung durch die deutsche Getränkeindustrie unterschätzt. So zielen zwar immer noch die meisten strategischen Projekte auf die Optimierung des Distributionsnetzwerkes ab, die Optimierung des Produktionsnetzwerkes (etwa die Frage, welche Artikel in welchen Mengen an welchem Standort abzufüllen sind) hingegen (als „Ursache“ der Distributionskosten) wird weitaus weniger betrieben. Dabei liegt gerade in der End-to-End Optimierung von Inbound über Produktion bis zur Kundenbelieferung der eigentliche Hebel zur Optimierung von Service und Kosten!

Getränkelogistik hat im Outsourcing Nachholbedarf

Generell kann festgestellt werden, dass die deutsche Getränkeindustrie im Thema Logistikoutsourcing anderen Segmenten aus Industrie und Handel deutlich nachhängt. Insbesondere die Lagerung von Fertigwaren ist bei deutschen Getränkeherstellern kaum outgesourct. So antworten mehr als 90 % der deutschen Studienteilnehmer, das Lager komplett oder überwiegend selbst zu betreiben (siehe auch Abbildung 1). Auch im Transport zeigen die Teilnehmer einen hohen Anteil von selbst wahrgenommenen Aufgaben. Lediglich bei der Sortierung zeigt sich eine höhere Quote, so haben die Unternehmen diesen Prozess zu 50-60 % outgesourct.

Outsourcinggrad nach Prozessen

Kaum Automatisierung in der Lagertechnik bei deutschen Unternehmen

Auf die Frage, welche Lagertechniken heute in der Getränkeindustrie in Deutschland im Einsatz sind, dominiert mit weitem Abstand das Blocklager, gefolgt vom Breitgang. Keiner der Teilnehmer in Deutschland gibt an, aktuell ein automatisches Hochregallager zu betreiben. Dies entspricht natürlich nicht ganz der Realität. Es gibt einige Hersteller, die bereits ein automatisches Hochregallager in Betrieb haben (z.B. Gerolsteiner, Erdinger, etc.) oder sich aktuell in der Planungsphase für ein solches befinden – allerdings ist die Anzahl dieser Unternehmen an der Grundgesamtheit der Hersteller noch relativ überschaubar und im Getränkefachgroßhandel ist die Verbreitung automatisierter Lagertechniken noch deutlich geringer.

Bezüglich der IT muss festgestellt werden, dass der derzeitige Durchdringungsgrad von IT-Lösungen in der deutschen Getränkelogistik im Vergleich zu anderen Industrien noch relativ gering ist. Lagerverwaltungssysteme (LVS bzgl. WMS) zeigen mit 58% die höchste Durchdringung, während sich andere abgefragte Systeme wie Rampensteuerungssystem, Staplerleitsystem oder Demand Planning & Forecasting deutlich seltener im Einsatz befinden.

Logistikperformance nicht gleich  Unternehmensperformance

In der Logistik geht man naturgemäß immer wieder gerne auch der Frage nach, welchen Wertbeitrag eine gute Logistikperformance darstellt. So untersuchen wir regelmäßig in verschiedenen Branchen den Zusammenhang zwischen Logistikperformance und Unternehmensperformance, mithin die Frage, ob eine gute Logistikperformance zu einer guten Unternehmensperformance beiträgt. Während wir z.B. in der 2016 durchgeführten Chemielogistik-Studie einen solchen direkten Zusammenhang zwischen Logistikperformance und Unternehmensperformance ableiten konnten, gelingt dies für die Getränkeindustrie nicht ohne weiteres.

Unternehmens- und Logistikperformance

Im Gegensatz zu anderen Industrien lässt sich für die Getränkeindustrie kein direkter Zusammenhang zwischen der Logistikperformance der Unternehmen und ihrer Unternehmensperformance ableiten. Unternehmen mit guter Unternehmensperformance weisen typischerweise auch eine gute Logistikperformance auf, allerdings ist eine gute Logistikperformance kein Garant für eine gute Unternehmensperformance wie aus Abbildung 2 deutlich wird. Offensichtlich definiert sich der wirtschaftliche Erfolg des Unternehmens mehr über Marke, Reichweite und Vertrieb als über Lieferservice, Verfügbarkeit und Logistikkosten. Insofern spielt die Logistik in der Getränkewirtschaft eher die Rolle eines Hygienefaktors denn eines Erfolgsfaktors.

SSL für Zertifikatdienste einrichten

Viele Optionen für den Webdienst der Zertifizierungsstelle funktionieren erst dann, wenn Sie SSL für die Webdienste aktivieren. Standardmäßig erreichen Sie den Webdienst über http://<Servername>/certsrv. Wenn Sie ein Zertifikat über diese URL abrufen wollen, erhalten Sie aber die Meldung, dass Sie erst SSL für den Webdienst aktivieren müssen. Dazu gehen Sie folgendermaßen vor:

  1. Klicken Sie im Internetinformationsdienste-Manager auf Sites/Default Web Site.
  2. Klicken Sie rechts auf Bindungen.
  3. Klicken Sie im neuen Fenster auf Hinzufügen und wählen Sie https
  4. Wählen Sie bei SSL-Zertifikatein Zertifikat aus. Sie können das Zertifikat jederzeit anpassen.
  5. Klicken Sie zweimal auf OK, um die Änderungen zu speichern.

Sobald Sie die Bindung definiert haben, können Sie bereits auf die Seite per SSL zugreifen. Es sind zwar noch Optimierungsarbeiten notwendig die wir in den nächsten Abschnitten behandeln, ein Zugriff ist aber per SSL bereits möglich. Dazu verwenden Sie den Link https://<Servername>/certsrv.

IoT: Warum sollte man Softwaretests automatisieren?

In Zeiten von IoT spielt die Sicherheit der Software eine immer wichtigere Rolle, und damit auch Tests um diese zu gewährleisten. Meistens werden Softwaretests aktualisiert, weil es der Mitbewerber auch macht. Weit verbreitet ist die Ansicht, die Automatisierung sei meistens die Kosten nicht wert. Natürlich sind bestimmte Arten von Software schwieriger und teurer zu testen als andere, so dass das Wertversprechen von der jeweiligen Anwendung und Branche abhängt. Insgesamt aber gibt es einen klaren Trend hin zur Testautomatisierung. Mit Testautomatisierung ist in diesem Beitrag die Testausführung gemeint, also das Ausführen der Tests und das Auswerten der Resultate ohne menschliches Zutun. Die automatisierte Ausführung ist Voraussetzung für einen modernen, flexiblen (und agilen) Testprozess.

Wann Testautomatisierung notwendig ist

Möchte man auf die Agile-, DevOps- und Continuous-Initiativen aufspringen, bleibt keine andere Wahl, denn ohne Automatisierung gerät man hier unweigerlich ins Hintertreffen.

Dies bestätigt Theresa Lanowitz, Analystin bei voke Research, in einem Gespräch. Als Marktforschungsunternehmen fokussiert Voke Spezialisten im Bereich Enterprise IT und Software seit 2006. Im Jahr 2016 stellte man zum ersten Mal in 10 Jahren fest, dass Unternehmen mehr über Qualität als über schnellere Releases besorgt sind. Trotzdem halten sich die Aktivitäten in punkto automatisiertes Testen sehr in Grenzen. Die manuellen Tests werden niemals aufhören, auch deren Notwendigkeit nicht. Aber um neue Releases schneller vorzustellen, ist die Testautomatisierung notwendig. Wenn die Benutzererfahrung besser werden soll, reicht es nicht nur schnell zu sein – sondern Schnelligkeit muss mit Qualität einhergehen.

Laut Theresa Lanowitz erfordert dies die ‚extreme Automation‘, was sie wie folgt erläutert: „Extreme Automatisierung ist genau das, wonach es klingt: Automatisierung von allem, was nur irgendwie geht und Eliminierung menschlicher Interaktionen, um sicherzustellen, dass die vor der Produktion gefundenen Defekte nicht bis in die Produktion gelangen. Es geht dabei nicht nur um das Automatisieren des Prüfprozesses, sondern um die Automatisierung von allem. Zu den Erkenntnissen, die wir gewonnen haben, gehört die Tatsache, dass die Entwickler keine automatisierten Modultests mögen. Einer der Befragten kommentierte dies mit den Worten: ‚Einige Dinge ändern sich eben nie‘.“

Um den erforderlichen hohen Automatisierungsgrad zu erreichen, ist es notwendig, jeden manuellen Arbeitsgang zu überdenken, und bei einigen Schritten unbedingt über den Tellerrand hinauszublicken. Die in das Ausarbeiten einer guten und stabilen Automatisierung investierte Zeit macht sich von selbst bezahlt – nicht nur durch eine unmittelbare Zeitersparnis, sondern indem coole Dinge wie Continuous Delivery möglich werden.

Schöne API-Welt

Wer noch mit altmodischen, monolithischen Desktop-Anwendungen arbeitet, der steht vor einem Berg an fragiler Arbeit, die mit einer Reihe gelegentlich wackeliger und häufig abartig teurer Tools erledigt werden muss. Um wieviel besser ist es dagegen in der neuen API-Welt! Denn die Benutzeroberfläche (User Interface – UI) ist die Ursache der meisten Probleme, mit denen Desktop-Apps zu kämpfen haben. APIs dagegen sind unempfindlich gegenüber dem Betriebssystem, der Bildschirmauflösung und den Eigenheiten der  Bildschirmkarte. Sie sind bestens definiert und eignen sich hervorragend für das automatisierte Testen.

Agile Entwicklung ermutigt zu Veränderungen. Wird mit kurzen Iterationen entwickelt, scheitern die automatisierten, UI-basierten Test Suites oft sobald es zu Änderungen kommt. Und dies passiert selbst wenn es nur um einfache Modifikationen am GUI-Layout oder um unerwartete Änderungen am Verhalten von Back-End-Services geht. Dies ist nicht bei allen Tools so, aber bei einem Großteil der traditionellen Lösungen.

Mit APIs dagegen ist das, was getestet wird, für die Ansteuerung durch einen Code anstatt durch Menschen ausgelegt. Der Testdatensatz lässt sich problemlos zusammenstellen und anschließend in einer Datei, einem Spreadsheet oder einer Datenbank hinterlegen. Der Treiber kann bestimmte Inputs vorgeben und weiß genau, welche Outputs zu erwarten sind. Ein solches Konzept auszuweiten, ist mit den richtigen Tools trivial.

Continuous Testing und Service Virtualisierung

Wie ist kontinuierliches Testen in den heutigen komplexen Umgebungen überhaupt möglich angesichts der Vielzahl von Abhängigkeiten? ING hat 150 Scrum-Teams und Pay Pal verfügt über 680 Scrum-Teams auf der ganzen Welt. Man stelle sich all die Abhängigkeiten vor! Niemand kann so etwas koordinieren, ohne sich im Gewirr dieser Abhängigkeiten zu verstricken.

Abhilfe kann hier nur die Simulation schaffen – beispielsweise, wenn kein Zugang zu einem Großcomputer existiert, der zum Testen notwendig ist, oder wenn gegen einen Third-Party-Service getestet wird. Die Service-Virtualisierung eröffnet hier die Möglichkeit zum kontinuierlichen Testen und Integrieren. Durch das Einbeziehen der Simulation in den Entwicklungsprozess arbeitet man von Anfang an mit Integrationstests.

Diese ebenso einfache wie bahnbrechende Idee findet in vielen anderen Branchen bereits Verwendung, nur in der Softwareindustrie noch nicht wirklich. Service-Virtualisierung ist vergleichbar mit einem Windkanal-Versuch: Das Flugzeug wird hineingestellt und durch das Simulieren aller denkbaren Umgebungsbedingungen getestet. Genau das ist erforderlich – und die Service-Virtualisierung ist das nötige Mittel dafür.

Den Einstieg bieten die Simulation zum Handling der Umgebung, ein Testdaten-Management-Tool zum Umgang mit den Inputs und den Ergebnissen und ein hervorragendes API-Test-Tool zum Erstellen und Ausführen der Tests. Mit diesen Werkzeugen gerüstet, lassen sich Dinge automatisieren, bei denen man das nie für möglich gehalten hätte. Eine solche Ausstattung macht nicht nur schneller, sondern verleiht auch die Flexibilität zum Testen jener Teile der Applikation, die normalerweise nicht besonders gut abgedeckt werden. Ohne die richtigen Tools lassen sich z.B. Exception Handling, fehlerhafte Inputs, Fehlerbedingungen und der Security-Komplex möglicherweise schwierig oder gar nicht testen.

Entwickler, die sich davon nicht überzeugen lassen und immer noch für das manuelle Testen plädieren – und die Erhebungen von Voke zeigen, dass die Chance dafür 50:50 steht – sind es sich selbst schuldig, einen Blick auf die neuesten Tools auf diesem Gebiet zu werfen, um zu sehen, wie sie ihre Softwaretests beschleunigen und verbessern können.