Neue Container Runtime und neuer Online-Markplatz für Cloud Foundry

Eine der interessantesten Ankündigungen auf dem  Cloud Foundry Summit Europe ist die neue, aus Kubo hervorgegangene Container-Laufzeitumgebung, die auf den Namen Cloud Foundry Container Runtime (CFCR) hört und mehr Auswahlmöglichkeiten bietet.

So können Nutzer jetzt wahlweise Kubernetes oder Application Runtime einsetzen, um ihre Container und Container-Cluster zu verwalten. Ferner unterstützt die neue Container Runtime nun auch Istio und bietet Persistenz in VMware vSphere, Google Cloud Platform (GCP) und Amazon Web Services (AWS).

Online Marktplatz

Außerdem hat die Foundation einen neuen Online-Marktplatz vorgestellt. Dieser erleichtert Nutzern das Finden von Software sowie von Services, Schulungen, Anbietern, Integratoren oder Consultants. Damit richtet sich der neue Marktplatz primär an Nutzer, für die die Cloud Foundry Plattform noch neu ist. Aktuell umfasst der Marktplatz mehr als 600 Lösungen.

 

Die Zukunft passiert jetzt

44 Prozent der deutschen Unternehmen sind in den letzten drei Jahren ausspioniert worden – gut dreimal so viele wie noch vor zwei Jahren. Befragt wurden 450 Geschäftsführer sowie Führungskräfte aus IT-Sicherheit und Datenschutz, darunter auch die Industrie 4.0.

Ganz egal, ob weltweit tätiger Großkonzern oder regional operierender Mittelständler – im Visier krimineller Hacker sind alle. Besonders gefährdet: Großunternehmen mit mehr als einer Milliarde Euro Umsatz. Von ihnen hat sogar jedes zweite (48 Prozent) bereits konkrete Attacken festgestellt. Das Fatale dabei ist, dass die Dunkelziffer noch höher sein dürfte, denn oft fliegen solche Angriffe nur zufällig auf.

Cybercrime nimmt also immer größere Ausmaße an. Trotzdem gehen die meisten immer noch viel zu sorglos mit der IT-Sicherheit um. Lediglich 18 Prozent der Befragten erkennen die Gefahr und sehen hier ein sehr hohes Risiko.

Bemerkenswerte acht von zehn Unternehmen halten ihren aktuellen Schutz gegen Datenklau und Spionage sogar für ausreichend. Erlaubt sei angesichts dessen die Frage, warum dann so viele Angriffe gelingen? Wurden doch erst im Mai und Juni etliche namhafte Unternehmen Opfer des Erpressungstrojaners WannaCry und der getarnten destruktiven Malware notPetya.

Viele Sicherheitsvorkehrungen sind konventionell: Mehr als drei von vier befragten Unternehmen setzen auf Firewalls, Antivirensoftware und starke Passwörter, um Cyber-Attacken abzuwehren. Diese Maßnahmen entlocken Hackern höchstens ein überlegenes Lächeln.

Strengere und umfassendere Vorkehrungen – die wirklich schützen – sind hingegen selten: Ein Intrusion-Detection- bzw. Prevention-System, das auf Eindringlinge hinweist, leistet sich gerade einmal jedes vierte Unternehmen.

Scheuklappen abnehmen

Immerhin dämmert vielen, dass die Bedrohung zunimmt: 46 Prozent der Manager rechnen mit einer deutlich wachsenden Bedeutung von Cyber-Angriffen für ihr Unternehmen, bei den großen mit mehr als einer Milliarde Euro Umsatz liegt der Anteil sogar bei 67 Prozent.

Viele Unternehmen bemerken durch unzureichende Sicherheitssysteme gar nichts – der Schaden fällt oft erst auf, wenn es zu spät ist. Dann sind die sensiblen Daten schon in falsche Hände gelangt. Eines der größten Risiken: Dass essentielle Systeme wie vernetzte Produktionsanlagen oder Webshops lahmgelegt werden und der Geschäftsbetrieb im schlimmsten Fall stoppt. Verhängnisvoll für die Industry of Things.

Wie sieht so eine Attacke aus? In drei von vier Fällen (74 Prozent) sind es Hackerangriffe auf die EDV-Systeme, in 16 Prozent werden IT-Systeme vorsätzlich blockiert. Auch Telefonate oder Emails werden ausgekundschaftet (9 Prozent).

Die Angreifer kommen von unterschiedlichen Seiten: Neben Geheimdiensten und Wettbewerbern ist es vor allem die Organisierte Kriminalität. Gut jede dritte Attacke erfolgt aus dieser Richtung. Doch wer hinter dem Datenklau steckt, wird bisher selten aufgeklärt. Aus Sicht der Manager geht die größte Gefahr von Russland aus: 45 Prozent blicken besorgt auf das Land, dahinter folgen China (40 Prozent) und die USA (27 Prozent).

Gewappnet sein

Unbestritten: In einer immer enger vernetzten Welt kann es völlige Sicherheit ohnehin nicht mehr geben. Jedoch sollte man es den Angreifern so schwer wie möglich machen. Und im Ernstfall versuchen, die Aufdeckungsrate zu verbessern. Das kann gelingen, indem man sich darauf vorbereitet, richtig zu reagieren.

Die Schäden können in die Millionen gehen – etwa bei Betriebsausfällen oder Schadensersatzforderungen. Um gewappnet zu sein, schließen immer mehr Versicherungen gegen Cyber-Risiken ab. Aktuell haben dies 27 Prozent der befragten Unternehmen getan. Ein solcher Schritt gehört zu einer guten IT-Sicherheitsstrategie – die allerdings weit mehr umfassen muss: etwa umfangreiche technische Vorkehrungen, eine bessere digitale Kompetenz der Mitarbeiter sowie die Sensibilisierung für IT-Risiken.

Digitale Technologien und Geschäftsmodelle sind gerade für die Industry of Things wesentlich, doch sie machen sie zugleich verwundbar. Wer seine Abläufe digitalisiert, bietet mehr Angriffsfläche. Wir diskutieren nicht über ein fernes Zukunftsszenario. Die Gefahr ist echt und gegenwärtiger denn je. Aber viele deutsche Unternehmen sind nicht ausreichend vorbereitet; sie reagieren eher als dass sie agieren. Soll die Industrie 4.0 erfolgreich Wirklichkeit werden, muss sich das schleunigst ändern.

Autoren: Dr. Stefan Heißner und Bodo Meseke (Experte für IT-Security & IT-Forensics, verantwortlich für Forensic Technology & Discovery Services EMEIA Central Zone bei EY)

Hier finden Sie die Studie in voller Länge.

VMware vSphere Management Assistant zur Überwachung verwenden

Sie laden sich die Appliance aus dem Downloadbereich über ihr VMware-Konto herunter (https://www.vmware.com/support/developer/vima/), und binden sie genauso an vCenter an, wie andere Appliances, zum Beispiel die vCenter-Appliance oder VMware Data Protection.

Sie können über die Appliance nicht nur Überwachung-Aufgaben durchführen, sondern die Umgebung auch verwalten. Sie haben zum Beispiel die Möglichkeit die beiden Tools „esxcfg“ und „esxcli“ zu verwenden.“. VMware stellt auch eine ausführliche Dokumentation als PDF-Datei für die Einrichtung und Verwendung zur Verfügung (https://code.vmware.com/web/dp/tool/vma/6.5).

Nachdem Sie sich über Putty an der Appliance angemeldet haben, können Sie über die Konsole Befehle zum Verwalten oder Anzeigen von Informationen anzeigen. Verwenden Sie zum Beispiel resxtop –server <Hostname>, können Sie sich die Auslastungsdaten eines Hosts anzeigen lassen. Dazu müssen Sie sich am entsprechenden Host anmelden. Das ist natürlich nur ein Beispiel von vielen.

Nachdem Sie die Appliance eingerichtet haben, müssen Sie zuerst die Authentifizierung konfigurieren, und die einzelnen Hosts im Netzwerk anbinden. Danach haben Sie die Möglichkeit direkt über den SSH-Client zentral über die Konsole auf alle einzelnen Hosts zugreifen zu können. Server binden Sie zum Beispiel mit vifp addserver <Servername> an. Mit vifp list servers zeigt die Konsole alle angebundenen Hosts an.

Alarme in vCenter definieren

Basierend auf dem Alarmzustand eines Objektes, ändert vCenter auch das Symbol in der Ansicht. Wenn zum Beispiel Warnungen für einen Host gibt, erhält dieser ein gelbes Warnschild. Sie sehen dadurch bereits beim Aufrufen des Web-Clients, ob es Probleme bei der Ausführung von Aufgaben oder dem Betrieb in der vSphere-Umgebung gibt.

Sie können an dieser Stelle die bereits vorhandenen Alarme bearbeiten, löschen, oder sich einen Überblick darüber verschaffen, wann vCenter Alarme für einzelne Objekte auslöst. Außerdem können Sie hier eigene Alarme definieren. Dadurch wird ein Assistent gestartet, über den Sie festlegen für welches Objekt Sie einen Alarm definieren wollen, welches unter Objekt Sie überwachen wollen, und was der Auslöser für die Alarmdefinitionen sein soll. Die Auslöser können Sie flexibel steuern.

Dadurch können Sie zum Beispiel festlegen, dass ein Alarm erscheinen soll, wenn die CPU-Last eines Hosts oder einer VM einen bestimmten Wert überschreitet. Sie können an dieser Stelle jedes Objekt in der Umgebung überwachen lassen. Wenn Sie einen Auslöser definieren, können Sie festlegen, dass die nachfolgenden Aktionen durchgeführt werden, wenn ein einzelner Auslöser aktiviert wird. Alternativ können Sie festlegen, dass alle Auslöser eintreffen müssen, bevor die Aktion durchgeführt wird.

Neben der Möglichkeit den Auslöser zu definieren, können Sie auch die Aktion festlegen, die beim Eintreten eines Alarms durchgeführt werden soll. Hier stehen verschiedene Funktionen zur Verfügung. Sie können sich entweder per E-Mail oder über das vCenter benachrichtigen lassen. Sie können vCenter so konfigurieren, dass eine bestimmte Aktion durchgeführt wird. So lassen sich zum Beispiel VMs starten, herunterfahren oder andere Aktionen mit der VM ausführen.

Die drei Stufen der IoT-Reife

Die Investitionsbereitschaft in das Internet der Dinge (IoT) steigt. So prognostiziert Gartner, dass Unternehmen im Jahr 2017 964 Milliarden US-Dollar für IoT ausgeben werden. In einer kürzlich von HCL Technologies & MIT veröffentlichten weltweiten Umfrage unter IT- und Entscheidungsträgern auf Unternehmensebene gaben 81 Prozent der Befragten an, dass sie ihre „IoT-Reise“ entweder bereits begonnen haben oder planen, dies in den kommenden zwölf Monaten zu tun. Viele glauben jedoch, dass sie schon jetzt hinterherhinken. Mehr als die Hälfte der Befragten gaben an, dass sie hinterherhinken, wenn es darum geht, die IoT-Fähigkeiten voll auszuschöpfen. 43 Prozent der Umfrageteilnehmen sind sich sicher, dass sich dies negativ auf die Kunden auswirken wird. 

Immer mehr Unternehmen treten ihre IoT-Reise an. Nach einer umfassenden Planung und Ideenfindung haben sie jedoch noch einen weiten Weg vor sich, bis sie Effizienzgewinne erzielen, von Wettbewerbsvorteilen profitieren und ihre Gewinne steigern. Bis Unternehmen die Erträge aus ihren IoT-Investitionen erzielen, müssen sie drei Phasen durchlaufen.

Stufe 1: IoT-Daten zur Prozessoptimierung nutzen

In der ersten Stufe können Unternehmen Informationen von angeschlossenen Geräten auf eine sehr einfache Art und Weise sammeln und dazu nutzen, die Abläufe innerhalb einzelner Teams direkt zu verbessern. Nehmen wir einen Fuhrparkbetreiber, der Sensoren in Fahrzeugen platziert, um mechanische Ausfälle zu erkennen. Ein solches IoT-fähige Gerät ist in der Lage, ein Problem während der Entwicklung zu verfolgen und zu reagieren, bevor eine Fehlfunktion auftritt. So muss ein Fahrzeug nicht längere Zeit in die Werkstatt, Endkunden sind nicht enttäuscht, weil sie ihr Auto nicht nutzen können und der Fuhrparkbetreiber vermeidet die vermutlich höheren Kosten, die entstanden wären, wenn der Fehler tatsächlich aufgetreten wäre. Das alles wirkt sich positiv auf die Kosten und die Kundenzufriedenheit aus.

Stufe 2: Schaffung neuer Einnahmequellen

Eine kürzlich durchgeführte McKinsey-Umfrage zeigt, dass 92 Prozent der Unternehmen davon ausgehen, dass das Internet der Dinge in den nächsten drei Jahren einen positiven Einfluss auf die Geschäftsabläufe haben wird, da neue Produkte mit eingebetteten Internet-Anwendungen entwickelt werden können. Daher müssen Rahmenbedingungen für die Monetarisierung von Investitionen geschaffen werden.

Dabei sollte stets berücksichtigt werden, dass Kunden bereit sind, für Lösungen zu bezahlen, die ihre Probleme lösen oder die Bedürfnisse decken. Die Vermögenswerte oder Produkte von produzierenden Unternehmen sind nur eine Möglichkeit, um dieses Ziel zu erreichen. Je besser die Lösung ist, umso höher ist der Preis, den ein Kunde bereit ist zu zahlen. Hier kann das Internet der Dinge Katalysator für den nächsten Schritt sein: Unternehmen können viele neue Services rund um ihre bestehenden Produkte oder Technologieplattformen entwickeln und ihr Vermögen besser monetarisieren. HCL hat beispielsweise gemeinsam mit einem Großkunden im Industriebereich ein besseres End-to-End-Service-Angebot rund um Fahrtreppen geschaffen. Dazu wurden die Fahrer- und Motoren-Bereiche zusammengeführt, was zu einer besseren prädiktiven Wartung der Systeme geführt und die Anzahl der erforderlichen Exkursionen deutlich reduziert hat.

Stufe 3: Datenbasierte Einblicke zur Transformation des Unternehmens

Diese dritte Stufe der IoT-Reife führt hin zu einem breiteren Geschäftsmodell. In dieser Stufe entwickeln sich Unternehmen von einer reinen Produkt-Verkaufsorganisation zu einer Firma mit einem breiteren Lösungsangebot. Wie die HCL-IoT-Umfrage zeigt, glauben 66 Prozent der Befragten, dass die wahrscheinlichsten Vorteile von IoT eine gesteigerte organisatorische Effizienz sind. 53 Prozent gaben an, dass eine bessere Nutzung der Daten zur Verbesserung der Einblicke am wahrscheinlichsten ist. Die gleiche Stimmung spiegelt sich auch in der McKinsey-Umfrage wider. Danach gehen 62 Prozent der Unternehmen davon aus, dass die Auswirkungen des Internet der Dinge sehr hoch oder transformativ sein werden.

Wie sieht das in der Praxis aus? Ein Beispiel dafür ist ein Fahrzeughersteller, der Daten aus Telematik-Geräten verwendet, um eine individuellere Versicherungspolice zu erstellen als es Versicherer bisher gewohnt sind. Durch einen solchen Ansatz entwickelt sich eine Organisation langfristig zu einem stabilen Dienstleister, der sein Angebot den umfassenden Marktveränderungen sowie den neuen Anforderungen seiner Kunden anpasst und diese als Chance für seine eigene Entwicklung wahrnimmt.

Eine Plattform für den Erfolg

Der Schlüssel zur Erschließung all dieser Probleme ist die richtige IoT-Plattform. Damit erhalten Unternehmen einen vollständigen Überblick über die Daten, die sensorfähige Assets erzeugen. Die Beleuchtung von ‚Dark Data’ und ‚Dark Assets’ ist ein Kernvorteil einer IoT-Plattform, die es Unternehmen ermöglicht, aus Systemen und Assets umsetzbare Erkenntnisse zu gewinnen. Nur wenn diese Daten vorhanden sind, können sie aus Forschung und Entwicklung, Produktion, Supply Chain und Remote Operations demokratisiert werden, damit mehrere Unternehmensbereiche profitieren. Diese Stellschrauben führen zu Produktivitätssteigerungen, höherer Kundenzufriedenheit und steigenden Umsätzen für das gesamte Unternehmen.

Schluss mit Stillstandszeiten

20 Mrd. US-Dollar – so hoch sind nach einer Studie von ARC Advisory Group die weltweit jährlichen Verluste in der Prozessindustrie, die durch ungeplante Stillstandszeiten entstehen. Die Unternehmen investieren massiv in entsprechende Lösungen. Das Problem ist jedoch grundsätzlich: Noch immer werden zwar verschleiß- und altersbedingte Betriebsstörungen behandelt, nicht jedoch prozessbedingte Betriebsstörungen, die über 80% der ungeplanten Stillstandszeiten verursachen und dann auftreten, wenn Anlagen weit über reguläre Sicherheits- und Auslegungsgrenzwerte betrieben werden. Hier fehlt vielen Betreibern noch der nötige Einblick in die Betriebsabläufe.

Predictive und Prescriptive Analytics

Eine neue Form des Asset Performance Management (APM) ist gefragt. Statt nur zu reagieren, müssen Betriebsabläufe vorausschauend geplant und durchgeführt werden. Denn was nützt ein hoher Grad an Optimierung in Industrieanlagen, wenn eine Anlage oder Maschine ausfällt, die Produktion unterbrochen wird, die Qualität beeinträchtigt ist und festgelegte Termine nicht eingehalten werden können. Instandhaltung und Zuverlässigkeit der Anlagen rücken daher immer stärker in den Mittelpunkt.

Richtig umgesetzt bietet APM einen umfassenden und ganzheitlichen Ansatz zur Optimierung von Produktionsanlagen während des gesamten Lebenszyklus – von der Anfangsinvestition über den laufenden Betrieb bis hin zur endgültigen Außerbetriebnahme. Dabei geht Anlagenoptimierung weit über die Prozessoptimierung hinaus und verbindet Anlagedaten, Grundprinzipien, empirische Modelle und Prozesskenntnisse für erweiterte Analysefunktionen. Unternehmen gewinnen so einen detaillierten Einblick in Prozesse, können Ausfälle vorhersagen (Predictive) und vorab Maßnahmen festlegen (Prescriptive), um Störungen zu vermeiden und deren Auswirkungen zu entschärfen. Das verschafft den Betreibern über den ganzen Lebenszyklus der Anlage hinweg einen nachhaltigen Wettbewerbsvorteil.

Machine Learning

Machine Learning spielt für die Früherkennung von Anlagenausfällen eine immer stärkere Rolle. Entsprechende Anwendungen laufen nahezu eigenständig ab und erlernen Verhaltensmuster, basierend auf den digitalen Daten, die von Sensoren in der Anlage und Maschinen erfasst und übermittelt werden. Diese fortschrittlichen Technologien lernen permanent und passen sich bei Änderungen der Betriebsbedingungen den neuen Signalmustern automatisch an – mit minimalem Ressourcenbedarf. Erlernte Fehlersignaturen wirken wie ein Impfstoff für die Maschinen, sodass derselbe Zustand nicht erneut auftritt. Außerdem werden die erlernten Signaturen auf ähnliche Maschinen übertragen, um zu verhindern, dass diese beeinträchtigt werden.

Wie Machine Learning in der Praxis bereits erfolgreich eingesetzt wird zeigt das Beispiel eines nordamerikanischen Energiekonzerns. Reparaturen und Umsatzausfälle aufgrund wiederholter Defekte bei Elektrotauchpumpen kosteten dem Unternehmen mehr als eine 1 Million US-Dollar. Um das Problem zu lösen, erlernte eine Anwendung mit Maschinenlernfunktion das Verhalten der 18 Pumpen. Die Software erkannte bei einer Pumpe eine frühzeitig eintretende Gehäuseundichtigkeit, die zu einem Zwischenfall mit Umweltschäden führte. Die Anwendung der Fehlersignatur auf die übrigen Pumpen ermöglichte eine frühzeitige Warnung, sodass rechtzeitig Maßnahmen eingeleitet und weitere Zwischenfälle verhindert werden konnten.

Das Industrial Internet of Things treibt die Anlagenoptimierung weiter voran. Cloud-Computing, anschauliche Visualisierungstools und ein hohes Maß an Mobilität vereinfachen es, die wachsende Menge an Anlage-, Betriebs- und Prozessdaten effektiv zu nutzen und so einen besseren und anlageübergreifenden Einblick in Betriebsabläufe zu gewinnen. Die Folge sind bessere und fundiertere Entscheidungen sowie eine vorausschauende und proaktive Planung des Anlagenbetriebs. Dabei hat eine konstante und langfristige Optimierung von Anlagen-Assets nicht nur Folgen für die Entwicklung, den Betrieb und die Instandhaltung, sondern kann in komplexen und kapitalintensiven Industriezweigen für das gesamte Unternehmen unerwartete Vorteile bergen.

Warum Netzwerksichtbarkeit jenseits der Firewall im IoT-Zeitalter unverzichtbar ist

Im Zeitalter der hybriden IT dreht sich alles um Komplexität. In der Tat berichten IT-Experten im letzten SolarWinds IT Trends Report 2017, dass die größte Herausforderung der hybriden IT in der erhöhten Komplexität der Infrastruktur liegt. Die zunehmende Komplexität ist aber nur eine der Herausforderungen, mit der sich die hybride IT auf IT-Abteilungen auswirkt. Das Internet der Dinge (Internet of Things, IoT) beispielsweise ist eine weitere unerwartet aufgekommene Technologie, mit der sich IT-Teams seit einiger Zeit befassen müssen.

In der Umfrage kommen die meisten befragten IT-Experten zu dem Schluss, dass die zweitgrößte Herausforderung der hybriden IT der Mangel an Kontrolle und Sichtbarkeit der Arbeitsweise von cloudbasierten Anwendungen und Cloud-Infrastruktur ist. Die meisten IoT-Geräte verbinden sich mit dem Back-End der Cloud oder mit Edge/Fog-verteilten Endgeräten anstatt mit herkömmlichen Rechenzentren. Verteilte Workloads bereiten Administratoren grundsätzlich Schwierigkeiten und die multiplikative Natur von IoT-Geräten verschärft die Herausforderung der Sichtbarkeit sogar noch. Aber das sind nicht nur schlechte Nachrichten. Um diese komplexen Infrastrukturen zu verwalten, muss man wissen wie sich IoT-Anwendungsfälle in verschiedenen Implementierungen verhalten. So können Lösungen für IT-Experten gefunden werden, um die hybride IT und IoT-Konvergenz besser zu verwalten.

IoT in der Praxis

Um zu verstehen wie man am besten komplexe Strukturen verwaltet und Sichtbarkeit über die Firewall hinaus im Zeitalter von IoT erlangt, sollten sich IT-Experten folgende IoT Szenarios in hybriden Unternehmen näher anschauen.

Cloudbasiertes IoT
In diesem Szenario befindet sich das Back-End der IoT-Infrastruktur in der Public Cloud. Möglicherweise senden Millionen von verteilten Geräten und mehrere geclusterte Workload-Systeme Daten zurück an die Cloud, weshalb die Überwachung der Cloud nicht unterschätzt werden sollte. IT-Experten, die diese cloudbasierten IoT-Implementierungen verwalten, müssen in der Lage sein, den gesamten Netzwerkpfad zu überblicken, um die Leistung für den Endanwender oder zumindest die synthetische Anwendungsleistung (wenn der Endanwender ein IoT-Bot ist) sicherzustellen. Dies kann sich als schwierig erweisen, weil der Datenverkehr komplett außerhalb der Firewall liegt. Der Schlüssel zur Fehlerbehebung ist, die End-user Experience für sich zu nutzen, während man gleichzeitig die Cloud-Infrastruktur und Cloud-Komponenten der Anwendungen überwachen muss.

Lokales IoT
Ein ausgezeichnetes Beispiel für dieses Szenario ist ein industrielles IoT, bei dem mehrere IoT-Geräte vorhanden sind, die Produktionsdaten aber im Rechenzentrum des Unternehmens erfasst werden. In diesem Fall erzeugen IoT-Geräte lokal riesige Datenmengen, wodurch die Komplexität der Analyse einer mehrstufigen Big-Data-Anwendung geschaffen wird. Es müssen riesige Datenmengen verarbeitet und gespeichert – vielleicht sind Hadoop® und MapReduce im Spiel – sowie Analysen und Transformationen laufend durchgeführt werden. Und es gibt natürlich Sicherheitsaspekte, Melde- oder rechtliche Vorschriften zu berücksichtigen, da IoT-Geräte mit dem Daten liefernden Netzwerk verbunden werden. Ziehen beispielsweise IT-Experten neue Protokolle wie MQ Telemetry Transport-Protokoll (MQTT) anstatt HTTP und Verwaltung des Transport Layer Security (TLS)-Datenverkehrs durch die Firewall in Erwägung?

All dies kann zu einer großen Belastung für den eingehenden Datenverkehr im lokalen Rechenzentrum werden – eine regelrechte Flutwelle von der externen Welt in die lokalen Systeme über die Firewalls. Knifflig ist außerdem der Einsatz von Open Source. Viele IoT-Lösungen und Basistechnologien basieren auf Open Source, öffentlich verfügbaren Projekten. Viel zu häufig laden Entwickler ein Paket ohne Sicherheitsüberprüfung von GitHub herunter, weil sie unter Zeitdruck stehen und von ihnen erwartet wird schnell ein marktfähiges Produkt bereitzustellen. IT-Experten und IT-Sicherheitsmanager müssen sicherstellen, dass diese neuen Delivery-Stack-Elemente der Anwendung kontrolliert werden und ihre Codebasis mit irgendeiner Methode überwacht wird, um den Code, der auf unsere Netzwerke zugreift, zu schützen.

Edge-basiertes IoT
Ebenfalls bekannt als Fog-basiertes IoT ist die Edge-basierte Datenverarbeitung. Hierbei destillieren verteilte Einrichtungen zur Datensammlung und -verarbeitung Daten vor Ort anstatt sie an lokale Repositorys oder Repositorys in der Cloud zu senden. Zum Beispiel kann eine Stadtverwaltung Sensoren installieren, die Verkehrsmuster zur Optimierung der Ampelschaltung aufzeichnen. Für sie ist die Verarbeitung von IoT-Daten vor Ort preiswerter, selbst wenn dafür verteilte Rechenressourcen erforderlich sind. Diese verteilten Elemente müssen jedoch immer noch verwaltet, ihr Netzwerkdatenverkehr gewährleistet und ihr Funktionieren überwacht werden, so als ob sie sicher im Quartier in einem Rack montiert wären, jedoch mit dem Problem des Remotezugriffs und der Latenz.

Best Practices für die Verwaltung von IoT-Komplexität und IoT-Sichtbarkeit

Gleichgültig ob eine IoT-Implementierung in der Cloud, lokal oder Edge-basiert erfolgt, es gibt gängige Strategien, die zur Beseitigung von Komplexitäts- und Sichtbarkeitsproblemen verfolgt werden sollten:

  1. Das wirksamste Tool für die hybride IT liefert eine zentrale Ansicht.
    Die Fehlerbehebung über die Grenzen von hybrider IT hinweg kann überaus positive Effekte auf die Produktivität haben. Am Ende des Tages erfordert die erfolgreiche IoT-Verwaltung eine bereichsübergreifende Sichtbarkeit.
  2. Schulungen und Kompetenzaufbau sollten fortlaufend erfolgen.
    IT-Abteilungen sollten mit der Geschäftsführung zusammenarbeiten, um sicherzustellen, dass ein Teil des Budgets für Schulungen, persönliche Entwicklung, Konferenzteilnahmen und Zertifizierungen für IT-Fachleute verwendet wird. Eine Investition in das IT-Team macht sich bezahlt, wenn dann die Komplexität besser beherrscht wird; insbesondere wenn man bedenkt, dass beinahe die Hälfte der IT-Experten aktuell angibt, dass neu eingestellte IT-Fachleute derzeit nicht die notwendigen Fähigkeiten mitbringen, hybride IT-Umgebungen zu verwalten. Diese Fähigkeiten müssen jetzt aktiv geschaffen werden, anstatt zu warten, dass sie in Zukunft von alleine entstehen.
  3. Sich Zeit zum Experimentieren nehmen.
    IT-Experten sollten überlegen, wie sie ihren inneren Datenwissenschaftler aus sich herauskitzeln können. Anstatt Daten nur hin und her zu schicken, müssen IT-Experten heutzutage operative und hybride Daten ins Labor mitnehmen und mit ihnen experimentieren. Dadurch entdecken sie wahrscheinlich neue Möglichkeiten für den Umgang mit Funktionsstörungen im IoT.

Es ist gut möglich, dass es eines Tages nur noch die Cloud geben wird – aber das ist ganz sicher nicht schon morgen. Die hybride IT wird – zumindest in den nächsten Jahren – lediglich immer komplexer und schwieriger zu verwalten sein. Zur Motivation kann ein wenig Beunruhigung nicht schaden, solange IT-Experten nicht entmutigt werden und weiterhin ihre Qualifikationen verbessern. IT-Experten, die heute die notwendigen Schritte für eine Verbesserung ihrer Umgebungen ergreifen, können – unabhängig vom IoT-Szenario – vielleicht bald von der vollen Sichtbarkeit über lokale, cloudbasierte und weitere Netzwerke hinweg immens profitieren – oder wo auch immer Workloads dann vorhanden sein mögen.

Aktueller Stand der Digitalisierung im Mittelstand

Erste Schritte im Digitalisierungsprozess – jetzt durchstarten!

Der Fortschritt der Digitalisierung ist je nach Branche und Unternehmensgröße unterschiedlich zu bewerten. Bereiche wie das Finanzsystem sind im hohen Grad digitalisiert. Und auch Prozesse wie bspw. das Bording am Flughafen beruhen auf automatischem Datenaustausch. In der Industrie entscheiden meist Budget und Mitarbeiterzahl darüber, ob und in welchem Umfang eine Digitalisierungsinitiative gestartet wird. Demzufolge experimentierten große Konzerne zuerst mit Technologien wie dem Internet der Dinge (IoT), Cloud-Computing oder Business Intelligence (BI). Für mittelständische Unternehmen wird die Einführung eines Digitalisierungsprozesses hingegen meist als Hürde wahrgenommen. Aktuelle Entwicklungen zeigen aber, dass diese Hürde dringend überwunden werden muss, um den Status „zukunftssicher“ auch im Mittelstand zu wahren.

Die ersten Schritte für Unternehmen im Digitalisierungsprozess sollten lauten:

  1. Implementieren: Bevor aus einer Digitalisierungsmaßnahme, der erwünschte Nutzen gezogen werden kann, müssen IoT- und CRM-System in den Prozess integriert und vor allem sinnvoll verknüpft werden.
  2. Beraten: Allen Projektbeteiligten muss klar sein, dass Insellösungen zu vermeiden sind und Silodenken dringend abgelegt werden muss. Es braucht eine offene Diskussion, die stets zum Ziel hat, den technischen Fortschritt im Unternehmen voranzutreiben. Zum Start ist eine Priorisierung von Unternehmensbereichen, Anlagen oder Produkten entscheidend, um einen klaren Maßnahmenplan ableiten zu können.

Worin liegen die Potenziale des digitalen Wandels aus Unternehmenssicht?

Unternehmenserfolg richtet sich immer stärker danach, wie Daten gesammelt, analysiert und in Prozesse umgewandelt werden. Nur so können Unternehmen unter aktuellen Maßstäben ihr Produktportfolio und Serviceangebot verbessern. Somit besitzen aufkeimende Technologien wie Business Intelligence (BI), Künstliche Intelligenz (KI) in Verbindung mit etablierten Anwendungen wie der M2M-Kommunikation ungeheures Potenzial, das sich allerdings nur voll entfalten kann, wenn diese auch untereinander verknüpft sind.

Die riesige Auswahl an Software, Sensoren und Komponenten bietet nie dagewesene Möglichkeiten, den digitalen Wandel zu gestalten, allerdings erhöht sich auch die Komplexität in zunehmendem Maße. Data Insights sind heute auf Knopfdruck verfügbar, was die Sprengkraft von Industrie 4.0 im Kern ausmacht. Jedoch braucht es ein System, das die relevanten Daten herausfiltert und übersichtlich darstellt, um auch einen Nutzen daraus ziehen zu können. Daten waren schon immer essentiell für den Unternehmenserfolg, doch erst Big Data ermöglicht es, Trends aufzudecken, Produkte gezielt nach Kundenanforderungen zu optimieren und neue Servicemodelle zu kreieren. Das macht Digitalisierungsinitiativen für die moderne Wirtschaft unerlässlich.

Größte Herausforderungen und Fallstricke bei der digitalen Transformation

Obwohl ein Großteil der Projektverantwortlichen in Unternehmen eine positive Meinung gegenüber Digitalisierungsinitiativen vertritt, scheitern Maßnahmen häufig oder die Effektivität von Optimierungsprozessen bleibt deutlich unter den gewünschten Erwartungen. Warum ist dem so? Hauptgrund dafür ist fehlendes vernetztes Denken, das eigentlich die Maxime des Digitalisierungsprozesses darstellt. Bereiche wie Kundenservice, Marketing und Vertrieb sind durch CRM und spezielle Software oft ausreichend digitalisiert und auch in der Produktion schreitet die Automatisierung kontinuierlich voran, doch was fehlt, ist eine Verknüpfung der Geschäftsbereiche. Betriebswirte und Techniker in der Produktion verfügen jeweils über digitalisierte Anwendungen, von denen außer ihnen jedoch niemand profitieren kann, da bspw. das häufig genutzte Microsoft Dynamics 365 im Vertrieb nicht mit der IoT-Applikation in der Produktion verknüpft ist. An dieser Schnittstelle verpufft derzeit das meiste Potenzial.

Das Problem der fehlenden Vernetzung zwischen verschiedenen Unternehmensbereichen verschärft sich zusätzlich, indem die Dateninfrastruktur häufig keine konsequente Filterung enthält. Dabei ist die Steuerung des Datenflusses essentiell, denn nur mit Hilfe von relevanten Daten können aus anschließenden Analysen hilfreiche Optimierungsvorschläge abgeleitet werden. Wenn ein Bereich im Unternehmen bereits mit der eigenen Menge an Daten überfordert ist, besitzt er auch nicht die Kapazitäten, Informationen von anderen Abteilungen entgegenzunehmen bzw. ihnen relevante Daten bereitzustellen.

Welche Hemmnisse, Herausforderungen bzw. Probleme für Entscheidungsträger von mittelständischen Unternehmen die größte Bedeutung haben, zeigt diese Auflistung:

  • Infrastruktur außerhalb von Ballungsräumen (42,86 %)
  • Fehlende Methoden und Vorgehensweisen bei der Umsetzung von Digitalisierungsinitiativen (34,69 %)
  • Keine klare Formulierung von Bedarfen / unzureichende Methoden zur Bedarfsanalyse (32,65 %)
  • Fehlendes technisches Wissen und Expertisen (28,75 %)
  • Keine Klarheit über Kosten-Nutzen-Relation von Digitalisierungsinitiativen (22,45 %)
  • Hoher Aufwand für Recherchen, Vorprojekte, Beschäftigen mit dem Thema Digitalisierung (20,41 %)
  • Beeinträchtigungen im Tagesgeschäft, bis es funktioniert (12,24 %)

Digitalisierung: Hype oder Evolution? Diese und viele weitere Fragen haben wir dem deutschen Mittelstand gestellt. Alle Ergebnisse der Studie „Digitalisierung im Mittelstand“ finden Sie auf der Website von NXTGN SOLUTIONS GmbH.

Berechtigungen für Benutzer und Gruppen verwalten

Ebenso lassen sich die Zugriffsberechtigungen einzelnen Benutzern entziehen, indem Sie diese aus der Gruppe entfernen.

Microsoft empfiehlt folgende Berechtigungsstruktur:

  1. Eine domänenlokale Gruppe erhält Berechtigung auf den Ordner und Freigabe.
  2. Globale Gruppen mit Benutzern werden in die lokale Gruppe aufgenommen.
  3. Benutzerkonten der Anwender sind Mitglieder der einzelnen globalen Gruppen.

Die Berechtigungen im Dateisystem speichert Windows in der Zugriffssteuerungsliste (Access Control List, ACL). Während der Anmeldung erstellt ein Domänencomputer für den Benutzer ein Zugriffstoken, das die Sicherheits-ID (Security ID, SID) des Benutzerkontos enthält, sowie die SIDs der Gruppen, in denen der Benutzer Mitglied ist. Beim Zugriff auf eine Freigabe vergleicht der Server die Einträge des Tokens mit der ACL und ermittelt daraus die Berechtigung. Dazu addiert Windows die Berechtigungen für jeden übereinstimmenden Eintrag. Ein Benutzer bekommt die Berechtigungen, die seinem Konto zugewiesen sind, sowie alle Berechtigungen, die den Gruppen zugewiesen sind, in denen er Mitglied ist.

Geben Sie einem Benutzerkonto die Berechtigung Lesen und bekommt zusätzlich eine Gruppe, in der dieser Benutzer Mitglied ist, die Berechtigung Schreiben zugewiesen, ergeben die effektiven Berechtigungen Lesen und Schreiben.

Erstellen manueller Routen für IPv6

Der Syntax zur Erstellung einer manuellen Route für IPv6 ist:

netsh interface ipv6 add route prefix=<IPv6-Adresse>/<Ganze Zahl> interface=<Zeichenfolge> nexthop=<IPv6-Adresse> siteprefixlength=<Ganze Zahl> metric=<Ganze Zahl> publish=<Wert> validlifetime=<Ganze Zahl>|infinite preferredlifetime=<Ganze Zahl> store=<Wert>

Die einzelnen Optionen dieses Befehls haben folgende Funktion:

prefix — Adresse oder Subnetzpräfix, für die oder das eine Route hinzugefügt wird

interface — Schnittstellenname oder -index

nexthop — Gatewayadresse, wenn das Präfix nicht auf Verbindung ist

siteprefixlength — Präfixlänge für die ganze Website, falls sie auf Verbindung ist

metric — Metrische Route

publish — Stellt einen der folgenden Werte dar: Wenn publish auf age festgelegt wird, enthält die Routenankündigung die verbleibende Gültigkeitsdauer bis zum Löschen. Wenn publish auf yes festgelegt wird, wird die Route niemals gelöscht, unabhängig vom Wert der Gültigkeitsdauer, und jede Routenankündigung enthält dieselbe angegebene Gültigkeitsdauer. Wenn publish auf no oder age festgelegt wird, wird die Route nach Ablauf der Gültigkeitsdauer gelöscht.

no — Nicht in Routenankündigungen angekündigt (Standard)

age — In Routenankündigungen angekündigt mit sinkender Gültigkeitsdauer

yes — In Routenankündigungen angekündigt mit unveränderter Gültigkeitsdauer

validlifetime — Die Gültigkeitsdauer einer Route in Tagen, Stunden, Minuten und Sekunden (z. B. 1d2h3m4s). Der Standardwert ist infinite.

preferredlifetime — Die bevorzugte Gültigkeitsdauer der Route. Standardmäßig entspricht dieser Wert der Gültigkeitsdauer.

store — Stellt einen der folgenden Werte dar:

active — Änderung wird nur bis zum nächsten Systemstart beibehalten

persistent — Änderung ist dauerhaft (Standard)

BAM – CMS Blog