Edge-Rechenzentren: Hype oder nachhaltiger Trend?

Als Edge-Computing wird meist das Verarbeiten von Daten möglichst nahe an ihrem Entstehungsort bezeichnet. Folgt man dieser Definition, dann sind Edge-Rechenzentren solche Rechenzentren, die nahe am Entstehungsort von Daten platziert werden. Entscheidend ist oft, dass die Datenmenge zu groß ist, um sie unverarbeitet in ein entferntes Rechenzentrum zu übertragen oder dass die Latenzzeit der Datenübertragung für die konkrete Anwendung zu lang ist.

So weit, so klar. Was dabei aber „nahe“ ist und wie ein solches Edge-Rechenzentrum genau aussieht, darüber gehen die Auffassungen auseinander. So wird von einem globalen IT-Dienstleister oft schon ein etwas kleineres Rechenzentrum mit nur einigen hundert Servern, dass lokal in einem Land oder einer Weltregion aufgebaut wird, als Edge-Rechenzentrum bezeichnet. Vielfach werden unter Edge-Rechenzentren aber auch sogenannte Mikro-Rechenzentren verstanden, also kleine Rechenzentren in der Größenordnung eines Racks, die insbesondere über eine eigene Unterbrechungsfreie Stromversorgung, eine Klimatisierung und eigene Management-Tools verfügen. Der Markt für solche Mikro-Rechenzentren wird sich nach Analysten-Meinungen sehr dynamisch entwickeln. Es werden Wachstumsraten von über 20% jährlich prognostiziert und ein weltweites Marktvolumen von ca. 15 Mrd. US-$ im Jahr 2025. Das Marktforschungsunternehmen Gartner geht davon aus, dass Edge Computing in kurzer Zeit bei der Datenverarbeitung die traditionellen Rechenzentren überholen wird: „Around 10% of enterprise-generated data is created and processed outside a traditional centralized data center or cloud. By 2025, Gartner predicts this figure will reach 75%

Doch was bedeutet das? Gemessen am gesamten Marktvolumen der Rechenzentren werden selbst bei sehr hohen Wachstumsraten Mikro-Rechenzentren auch im Jahr 2025 nur einen einstelligen Prozentanteil haben. Das Marktsegment wird zwar immer bedeutender, aber die Rechenzentrumslandschaft in den nächsten Jahren nicht revolutionieren.

Interessante Ergebnisse zum Thema Edge-Computing und Edge-Rechenzentren liefert auch die NeRZ-Befragung von Rechenzentrumsbetreibern. Bisher ist Edge-Computing für die meisten Betreiber noch kein Thema. Nur etwa 20% der Befragten haben bereits Edge-Rechenzentren oder beschäftigen sich intensiv mit dem Thema (Grafik).

Eine ergänzende Experten-Befragung kommt zu ähnlichen Ergebnissen: Edge-Rechenzentren sind heute noch eher die Ausnahme, werden aber in fünf bis zehn Jahren eine sehr hohe Relevanz bekommen. Vor allem die enormen Datenmengen durch Industrie 4.0-Lösungen oder durch Autonomes Fahren werden den Bedarf nach solchen Lösungen in die Höhe treiben.

Festzuhalten bleibt: Edge-Computing und Edge-Rechenzentren können die Rechenzentrumslandschaft nachhaltig verändern. Welche konkreten Auswirkungen sich ergeben, sollte man im Auge behalten – auch aus Sicht der Energieeffizienz!

Mehr Informationen: www.ne-rz.de

Daten aus OST-Dateien wiederherstellen

Während Outlook die PST-Dateien im Ordner Outlook-Dateien der Dokumenten-Bibliothek speichert, finden Sie OST-Dateien im Benutzerprofil (C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook).

Um Daten aus OST-Dateien wiederherzustellen, installieren Sie zunächst OST2PST und öffnen dann die OST-Datei im Ordner C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook. Kopieren Sie zuvor am besten die OST-Datei in einen anderen Ordner. Damit Sie den Ordner AppData sehen, müssen Sie im Explorer von Windows 8/8.1/10 zunächst auf der Registerkarte Ansicht die versteckten Dateien anzeigen lassen.

Während Outlook die PST-Dateien im Ordner Outlook-Dateien der Dokumenten-Bibliothek speichert, finden Sie OST-Dateien im Benutzerprofil (C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook).

Um Daten aus OST-Dateien wiederherzustellen, installieren Sie zunächst OST2PST und öffnen dann die OST-Datei im Ordner C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook. Kopieren Sie zuvor am besten die OST-Datei in einen anderen Ordner. Damit Sie den Ordner AppData sehen, müssen Sie im Explorer von Windows 8/8.1/10 zunächst auf der Registerkarte Ansicht die versteckten Dateien anzeigen lassen.

 

Freigaberichtlinien erstellen und verwalten

Erstellen von neuen Freigaberichtlinien

Öffnen Sie zur Erstellung von neuen Freigaberichtlinien die Exchange Admin Center, navigieren Sie zu Organisation/Individuelle Freigabe, und klicken Sie auf Hinzufügen. Standardmäßig legt Exchange bereits eine Standardrichtlinie an, die Sie anpassen und verwenden können.

Nachdem Sie die Freigaberichtlinie erstellt haben, können Sie in den Eigenschaften von Postfächern auf der Registerkarte Postfachfunktionen bei Freigaberichtlinie auswählen, welche Richtlinie der entsprechende Anwender nutzen soll.

Wählen Sie bei gedrückter (Strg)-Taste mit der Maus mehrere Postfächer aus, können Sie die Einstellungen auch für mehrere Benutzer gleichzeitig anpassen. Sie können Freigaberichtlinien aber auch in der Exchange Management Shell anpassen:

Set-Mailbox -Identity <Benutzer> -SharingPolicy <Richtlinie>

Im folgenden Beispiel werden für alle Benutzerpostfächer in der Marketing-Abteilung die Freigaberichtlinie Contoso Marketing verwendet:

Get-Mailbox -Filter {Department -eq „Marketing“} | Set-Mailbox -SharingPolicy „Contoso Marketing“

Im nächsten Beispiel lassen Sie alle Postfächer anzeigen, auf die die Freigaberichtlinie Contoso angewendet wird:

Get-Mailbox -ResultSize unlimited | Where {$_.SharingPolicy -eq „Contoso“ } | ft Alias, EmailAddresses

Um eine Freigaberichtlinie in der Exchange Management Shell zu erstellen, verwenden Sie das Cmdlet New-SharingPolicy.

Beispiele:

New-SharingPolicy -Name „Contoso“ -Domains contoso.com: CalendarSharingFreeBusyDetail, ContactsSharing

New-SharingPolicy -Name „Richtlinie01“ -Domains ‚contoso.com: CalendarSharingFreeBusySimple‘,’microsoft.com:CalendarSharingFreeBusyDetail,ContactsSharing‘ -Enabled $false

Schwinden die Standortvorteile für deutsche Rechenzentren?

Auch aktuell boomt der Rechenzentrumsmarkt in Deutschland weiter. Ein Grund dafür wird das hohe Niveau des Datenschutzes in Deutschland. Große internationale Cloud-Konzerne bauten und bauen immer noch aus diesem Grunde Rechenzentren in Deutschland auf. Eine NeRZ-Befragung von Rechenzentrumsbetreibern zeigt: Datenschutz und Rechtssicherheit sind gemeinsam mit einer zuverlässigen Stromversorgung und der Anbindung an das Internet die wichtigsten Standortfaktoren für Rechenzentren. Und Deutschland schneidet hier in der Bewertung im internationalen Vergleich auch hervorragend ab (Grafik). Bedeutet eine Angleichung des Datenschutzniveaus auf europäischer Ebene jetzt, dass dieser Standortvorteil verloren geht? Oder kann Deutschland auch weiterhin mit dem Argument der sicheren Daten punkten?

Eine erste Analyse nach Einführung der EU-DSGVO zeigt, dass es eine Reihe von Gründen dafür gibt, dass Deutschland auch künftig vom Standortvorteil Datenschutz bei Rechenzentren profitieren kann. Hier seien drei wichtige Punkte kurz aufgeführt:

  • Die EU-DSGVO basiert in vielen Punkten auf den schon bisher hohen Standard des Datenschutzes in Deutschland. Für inländische Unternehmen und insbesondere IT-Dienstleister waren viele der Regelungen also gar nicht neu und werden bereits seit Jahren umgesetzt. In anderen EU-Staaten muss man sich erst einmal auf viele der neuen Regelungen einstellen. Eine tatsächliche Angleichung des Niveaus des Datenschutzes innerhalb der EU wird also nicht von heute auf morgen passieren.
  • Außerdem sieht die EU-DSGVO mehr als 70 Öffnungsklauseln vor, die es den Mitgliedstaaten ermöglichen, bestehende Datenschutzregeln beizubehalten oder neue zu erlassen. Einige Fachleute – wie z.B. Rechtswissenschaftler der Uni Kassel – gehen daher davon aus, dass es kaum ein einheitliches Datenschutzniveau in Europa geben wird. So hat Österreich bereits ein Datenschutz-Deregulierungsgesetz verabschiedet.
  • Das gewichtigste Argument für den Datenschutz in deutschen Rechenzentren ist jedoch wohl, dass hier nicht nur ein hohes Niveau bei den rechtlichen Regelungen existiert, sondern auch in Behörden, Unternehmen und bei IT-Dienstleistern ein vergleichsweise hohes Datenschutzniveau gelebt wird. Deutschland ist dafür bekannt, dass die Einhaltung von gesetzlichen Regelungen auch überprüft wird. Und deutsche Unternehmen sind weltweit deutlich führend beim Datenschutz in der Cloud. Dies gilt sowohl für den vertrauensvollen Umgang mit sensiblen Daten als auch für Anwendung von Schutzmechanismen wie Verschlüsselung und Tokenisierung.

Fazit: Auch mit der EU-DSGVO wird Deutschland den Standortvorteil des hohen Datenschutzniveaus für Rechenzentren noch lange beibehalten.

Die nächste Evolutionsstufe für Produktions- und Engineering Services – Teil 2

Dabei liegt China bei der Einführung von Industrie 4.0 vorne. Im Vergleich mit anderen Märkten ist China ein Produktionsstandort mit relativ brachliegenden Industrien. Länder wie Indien und Brasilien, die kein langjähriges Industrievermächtnis haben, könnten Industrie 4.0 deshalb schneller einführen. Unter den Staaten mit großen Industriebrachen starteten insbesondere Unternehmen in Europa und Nordamerika ihre Transformation direkt großflächig.

Hierbei zeichnen sich neben dem neuen Mobilfunkstandard 5G und dem super schnellen Edge Computing ein paar weitere Schlüsseltechnologien ab.

  • SDN/NFV: SDN- und NFV-Anwendungen werden in der Netzwerkindustrie vermehrt zum Einsatz kommen und ersetzen schnell Hardware und integriertes Equipment. Mithilfe von kontinuierlichen Investitionen und Spezialisierungen konnten wir eine breite Palette Software Defined Networking (SDN)-Angeboten entwickeln.
  • Autonome Technologien:  In der Fertigung werden neben den traditionellen Industrierobotern immer mehr autonome Robotiktechnologien zum Einsatz kommen. So werden beispielsweise Autonomous Guided Vehicles (AGV) – sogenannte Bots – in gefährlichen und giftigen Umgebungen eingesetzt und ersetzen hier Menschen oder manuelle Arbeiten. Dieser Trend wird sich fortsetzen und immer weiter verbreiten, sodass Unternehmen sich in manchen Bereichen nicht mehr auf Menschen und Handarbeit verlassen müssen – dies wird die Effizienz erheblich steigern.
  • Digital Engineering: Digitale Zwillinge, fortschrittliche 3D-Modellierung, Simulationen und Tests von Designs werden zunehmend in der Fertigung eingesetzt. Der Designzyklus wird verkürzt, gleichzeitig durch eine erweiterte Simulationen die Validierung und Qualität verbessert. Ergänzt wird dies durch die Integration von Product Lifecycle Management (PLM), die bei der Nachverfolgbarkeit und Compliance hilft und vor allem Fehler bei der Produktherstellung reduziert.
  • Additive Fertigung: Diese Technologie stammt ursprünglich aus den Laboren und hat sich auch bei der großtechnischen Anwendung in der Industrie als kostengünstig für die Prototypen-Entwicklung erwiesen. Die metallbasierte additive Fertigung und die Polymer-basierte additive Fertigung verändern die Art und Weise, wie Dinge entworfen und hergestellt werden. Dies wird das Produktdesign revolutionieren und die Kosten senken.
  • KI-augmented Analytics: Die Technologie ermöglicht es Unternehmen, Szenarien zu kombinieren, das Verständnis zu verbessern und mithilfe von KI-basierten Analyse-Tools vorausschauende Entscheidungen in Echtzeit zu treffen.

Trotz Automatisierung: Ohne den versierten Softwarenutzer geht‘s nicht

Unternehmen, die diesen Trend erkennen, entscheiden sich verstärkt für spezielle Marketing-Automation-Lösungen; so beispielsweise auch eine  internationale Management- und Technologieberatung. Den dortigen Verantwortlichen war aber auchklar: Selbst die beste Software entfaltet ihr Potenzial nicht von allein. Es bedarf geschulter Anwender im Unternehmen, die den digitalen Helfer optimal einsetzen können. Man legte daher besonderen Wert darauf, die Software-Einführung mit zielgerichteten Mitarbeitertrainings zu flankieren. Hier kommen Customer-Engagement-Spezialisten ins Spiel.

Keine E-Mail verschwindet im Nirwana

Das internationale Consultingunternehmen unterhält Büros in über 20 Ländern und beschäftigt mehrere Tausend Mitarbeiter. Um den umfangreichen E-Mail- Verkehr im Marketing besser zu managen, führte es ein Marketing-Automation-Tool ein. Besonders wichtig war den Verantwortlichen, dass sämtliche Daten, die bei den automatisierten Marketing- Prozessen erfasst werden, dann automatisch im CRM zur Verfügung stehen. Denn so lassen sich alle Aussendungen überwachen und analysieren. Eine solche Lösung stellt für jede E-Mail fest, ob sie angekommen ist und gelesen oder gelöscht wurde. Die Software registriert jeden Klick auf Verlinkungen in der Mail. Damit sind die Absender genau im Bilde, ob der Empfänger auf der Website war und welche Seiten er dort besucht hat.

Generalprobe zunächst an nur einem Standort

Die Marketing-Mitarbeiter in einer der Niederlassungen in Europa waren die ersten, die Erfahrungen mit der neuen Software sammelten. Die Software diente ihnen dazu, den Versand von internen und externen Newslettern und Einladungen zu optimieren. In der Regel verschickt diese Marketingabteilung monatlich tausende Eventeinladungen. Ihr Tracking und der Informationsrückfluss ins CRM-System gibt Hinweise, wie mit laufenden Aktionen weiter zu verfahren ist und wofür sich die Kunden in Zukunft interessieren könnten. Ein Anwender wird eine Software jedoch nur dann vollumfänglich nutzen, wenn er sie richtig kennt und mit ihr umzugehen weiß. Das Beratungsunternehmen holte sich daher gleich zum Projektstart Unterstützung ins Haus: CRM-Spezialisten, die sich besonders auf CRM und Customer Engagement fokussiert haben. Von Beginn an waren auch zwei Manager des Kunden dabei, die standortübergreifend für das Gesamtunternehmen verantwortlich sind und ihren Sitz in verschiedenen europäischen Großstädten haben: ein IT-Advisor und der Manager IT-Applications. Letzterer erhielt als zuständiger IT-Administrator eine besonders detaillierte Schulung.

Test bestanden, nun wird weltweit geklickt

Die Ergebnisse der Testphase waren vielversprechend. Anfang letzten Jahres fiel daher die Entscheidung, die Spezialsoftware unternehmensweit in allen Niederlassungen zu implementieren. Im ersten Schritt ging es darum, die Software für einen optimalen Versand und zur Nachverfolgung von Newslettern, Veranstaltungseinladungen und informellen E-Mails zu nutzen – in den lokalen Marketing-Abteilungen, die die Unternehmensberatung derzeit in mehr als zehn Ländern unterhält. Schließlich müssen sowohl die Marketing-Leute als auch die IT-Spezialisten vor Ort das Programm wie ihre Westentasche kennen, um es bestmöglich einzusetzen. Entsprechend haben die Mitarbeiterschulungen sofort begonnen, nachdem die Entscheidung für das Tool gefallen war. Innerhalb weniger Monate fanden dann in acht europäischen Metropolen zweitägige Schulungen statt. Aktuell sind weitere Mitarbeiter-Trainings in Planung.

Die IT harmonisieren und dennoch lokale Besonderheiten zulassen

Teilweise unterscheiden sich die einzelnen Marketingprozesse von Land zu Land – so ist beispielsweise die Kontaktbeschaffung verschieden: Manche Niederlassungen greifen auf Excellisten mit Kontaktdaten zurück, die ihnen Partner zur Verfügung stellen, andere bevorzugen Events, um Neukontakte zu erhalten, wieder andere nutzen dafür eher Quellen im Netz, etwa Unternehmenswebsites. Eine Anpassung der Software-Features an die konkreten lokalen Bedingungen kann daher sehr sinnvoll sein. Gemeinsam mit den Spezialisten haben die IT-ler vor Ort diese Anpassungen vorgenommen. Als außenstehender Dienstleister war es dabei deren Aufgabe, die globale Betrachtungsweise beizubehalten und eine gute Balance zwischen unternehmensweit einheitlicher Software und lokalen Besonderheiten zu finden.

Alle unter einen Hut bringen

Aktuell hat die Unternehmensberatung mehr als 40 Marketingmitarbeiter. Sie alle sollen nicht nur die neue Automation-Software nutzbringend einsetzen, sondern auch gegenseitig von ihren Erfahrungen profitieren. Ein guter Anbieter hält diese darum stets auf dem Laufenden, genauso wie die weiteren involvierten Mitarbeiter, etwa Regionalleiter für die DACH-Region, IT-Mitarbeiter und das Unternehmensmanagement. Nahezu wöchentlich fanden Abstimmungen mit dem Manager IT-Applications und den Vor-Ort-Teams statt. Insgesamt haben die Customer-Engagement-Spezialistenwährend der Einführung der Software die Arbeit von rund 50 Personen koordiniert.

Man muss es auch können wollen

Wie gut eine Software im Unternehmen funktioniert, hängt entscheidend von der Mitarbeiter-Akzeptanz ab. „Da gab es bei unseren Nutzern überhaupt keine Schwierigkeiten“, zeigt man sich im Projekt- Team des Consultingunternehmens zufrieden. Geholfen hat sicher, dass die Nutzer frühzeitig in das Softwareprojekt eingebunden waren. Zudem haben die Schulungsexperten die Mitarbeiter mit der Anwendung bestens vertraut gemacht. Neben einem weltweit verbesserten Customer Relationship Management mit einheitlich hohen Qualitätsstandards zählt dazu auch die strikte Anwendung des Corporate Designs durch vorgefertigte Templates. Auch eine indirekte Kostenreduktion durch gestiegene Effizienz ist absehbar, denn die diversen IT-Abteilungen müssen sich nur noch mit einem Marketing-Automation-Tool auseinandersetzen, das überall gleich ist.

Newsletter sind nur der Anfang

Der erfolgreiche Rollout– und die dazugehörigen Trainings – werden weitergehen. Es ist zudem geplant, in weiteren Ländern nationale Marketing-Abteilungen aufzubauen. Auch diese Teams werden die Customer-Engagement-Spezialistendann in kürzester Zeit auf den Wissensstand ihrer Kollegen bringen. Weitere Möglichkeiten der Software werden bereits besprochen. Denkbar wären beispielsweise Funktionalitäten für das Subscription- und das Event-Management. Was auch immer für Module in Zukunft noch zum Einsatz kommen, eins steht für die Unternehmensberatung fest: nämlich, dass professionelles CRM nur möglich ist, wenn die Nutzer mit dem System auch professionell umgehen können. Menschen bleiben wichtig, gerade im CRM-Kontext.

 

IT-Dienstleister bauen Kapazitäten aus

Der aktuelle Boom beim Bau und bei der Erweiterung von Rechenzentren in Deutschland wird vor allem durch die IT-Dienstleister wie Colocation-Anbieter, Cloud- und Hosting-Anbieter oder Full-Service-Provider getragen. Bei mehr als 40% der von NeRZ befragten IT-Dienstleister stieg die IT-Fläche ihrer Rechenzentren in den vergangenen fünf Jahren um mehr als 20%. In den kommenden zwei Jahren möchten 70% der Befragten ihr Rechenzentrum noch erweitern. Damit ist die Investitionsbereitschaft bei IT-Dienstleistern deutlich höher als bei anderen Rechenzentren, bei denen knapp 50% der Befragten Erweiterungsinvestitionen für die kommenden zwei Jahre planen.

Auch für die mittelfristige Zukunft bis 2025 erwarten die meisten IT-Dienstleister, dass ihre Rechenzentren weiter wachsen. 53% gehen von wachsenden IT-Flächen aus, nur 9% vermuten, dass ihr Rechenzentrum kleiner wird (Grafik).

Auch hinsichtlich des Energiebedarfs ihres Rechenzentrums vermuten über 50% der Befragten, dass er bis zum Jahr 2025 weiter ansteigen wird. Nur 21% der IT-Dienstleister gehen von einem sinkenden Energiebedarf aus. Dabei bieten neue Technologien hohe Potenziale zur Senkung des Energiebedarfs der Rechenzentren. Das Umweltbundesamt beziffert im „Leitfaden zur umweltfreundlichen öffentlichen Beschaffung: Produkte und Dienstleistungen für Rechenzentren und Serverräume“ die Einsparmöglichkeiten für Bestandsrechenzentren auf bis zu 50%.

Mehr Informationen: www.ne-rz.de

Marktsegment des High Performance Computings wächst stark

Analysten sagen für die kommenden fünf Jahre Wachstumsraten im Bereich des HPC von jährlich 7% und mehr voraus. Für 2022 wird ein Marktvolumen von 45 Mrd. US-$ in diesem Marktsegment erwartet. Getragen wird das Wachstum vor allem durch immer neu hinzukommende Anwendungen im Industriebereich.

NeRZ hat sich in einer Marktuntersuchung ebenfalls mit dem Thema HPC befasst. Weltweit werden jährlich ca. 60 Mrd. US-$ in Serverhardware investiert. Der Anteil der Serversysteme, diefür  HPC genutzt werden, lag im Jahr 2017 mit ca. 12,5 Mrd. US-$ bei ca. 20 % der Serververkäufe. Für das Marktsegment der HPC-Server wird für die nächsten Jahre mit Wachstumsraten oberhalb von 10% gerechnet. Allein in Deutschland wurden 2017 ca. 700 Mio. € in HPC-Server investiert. Bis 2020 werden die Ausgaben für HPC-Server auf etwa 1 Mrd. € jährlich steigen. Insgesamt wird im High Performane Computing bis 2020 voraussichtlich ein jährliches Umsatzvolumen von 2,2 Mrd. € in Deutschland erreicht (Grafik).

Bei HPC-Computing bietet sich aufgrund der oft sehr hohen Leistungsdichten die Nutzung von wassergekühlten Systemen an. Wasserkühlung ist in der Lage, auch sehr hohe Wärmemengen effizient abzuführen und bietet den großen Vorteil, dass die Abwärme der Systeme sehr gut genutzt werden kann.

Mehr Informationen: www.ne-rz.de

Zahl der Hyperscale-Rechenzentren weltweit nimmt deutlich zu

Im Jahresrhythmus veröffentlicht Cisco sein White-Paper „Global Cloud Index“ mit interessanten Prognosen zur weltweiten Entwicklung der Rechenzentren. In der aktuellen Version aus dem Februar 2018 wird auch für die Jahre bis 2021 von einem sehr dynamischen Wachstum der Leistung der Rechenzentren ausgegangen. So wird die Zahl der Workloads aller Rechenzentren weltweit zwischen 2016 und 2021 um den Faktor 2,3 auf ca. 570 Millionen ansteigen. Unter einer Workload versteht Cisco ein virtuelles oder physikalisches Set von Computerressourcen, einschließlich Datenspeicher. Eine Workload kann ein physischer Server, ein virtueller Server oder ein Container sein.

Besonders interessant sind Ciscos Prognosen zur Struktur der Rechenzentren im Jahr 2021. Es wird davon ausgegangen, dass dann nur noch 6% der Workloads weltweit in traditionellen Rechenzentren und dafür 94% der Workloads in Cloud-Rechenzentren laufen. Die meisten Systeme werden in nur wenigen Hyperscale-Rechenzentren installiert sein – Cisco prognostiziert, dass 53% aller Server im Jahr 2021 in ca. 630 Hyperscale-Rechenzentren installiert sind (Grafik).

Tritt diese Entwicklung ein, kommt damit natürlich dem Thema Energieeffizienz solcher Hyperscale-Rechenzentren eine hohe Bedeutung zu. Fast noch wichtiger ist allerdings das Thema Abwärmenutzung. Wenn etwa 50% des gesamten Serverstroms weltweit an nur etwa 600 Orten in Wärme umgewandelt wird, dann sollte es doch möglich sein, für diese hohe Wärmemenge eine Weiternutzung zu realisieren.

Mehr Informationen: www.ne-rz.de

Thingbots nun größte Gefahr für das Internet

Schon im vergangenen Jahr haben wir in dieser Blog-Reihe festgestellt, dass die Gefahr durch angreifbare IoT-Geräte zunimmt. Dieser Trend hat sich laut einer aktuellen Studie deutlich bestätigt. Mehr noch: Attacken auf IoT-Geräte übertreffen zahlenmäßig inzwischen die Angriffe auf Web- und Anwendungsdienste sowie E-Mail-Server.

Gemäß der Studie „The Hunt for IoT“ wurden bereits in der ersten Hälfte des Jahres 2018 dreizehn neue Thingbots entdeckt. Zum Vergleich: Im ganzen Jahr 2017 waren es sechs und 2016 neun. Bei Thingbots handelt es sich um IoT-Geräte, die mit Malware kompromittiert sind.

Demnach wurde Spanien in den letzten 18 Monaten am häufigsten angegriffen. Weitere oft attackierte Länder waren Russland, Ungarn, die USA und Singapur. Die meisten Angriffe zwischen dem 1. Januar und dem 30. Juni 2018 stammten aus Brasilien (18%), gefolgt von China (15%), Japan (9%), Polen (7%), USA (7%) und Iran (6%). Die am häufigsten von Bots infizierten IoT-Geräte waren Small/Home Office-Router, IP-Kameras, digitale Videorekorder und Videoüberwachungsanlagen.

Auch Deutschland stark betroffen
In Deutschland ist die Gefahr ebenfalls sehr hoch, nicht zuletzt aufgrund zunehmend eingesetzter Industrie-4.0-Lösungen und der stark wachsenden Zahl an IoT-Geräten. Auch hier stellen derzeit die auf einfache Weise mit dem Internet verbundenen Geräte wie Smart TV, Gebäudesteuerung und Überwachungskameras sowie im Privatbereich Spielekonsolen, Videorekorder und Haushaltsgeräte das größte Risiko dar. Viele dieser Geräte werden nur selten auf Sicherheitslücken geprüft und aktualisiert sowie deren Standard-Passwort geändert.

Den meisten Unternehmen ist diese Gefahr durchaus bewusst. So besitzt das Thema Security eine hohe Priorität bei Projekten, die auf einer IoT-Infrastruktur basieren. Dau gehören zum Beispiel vernetzte Fahrzeuge, kritische Infrastrukturen oder intelligente Produktionssysteme. Doch vor allem Privatnutzer und Mitarbeiter sind häufig nachlässig und setzen weitgehend  bedenkenlos vernetzte Heimsysteme oder Smartphones auch im beruflichen Umfeld ein.

Häufig eingesetzte Methoden
Das spiegelt sich in der Zunahme von Social-Engineering-Attacken wider. Zwar bleibt bei Thingbots die meistgenutzte Angriffsmethode Distributed Denial of Service (DDoS), im vergangenen Jahr kamen aber weitere Methoden hinzu. Dazu gehören die Installation von Proxy-Servern zum Starten von Angriffen, Kryptojacking, die Installation von Tor-Knoten und Paket-Sniffern, DNS-Hijacks, Credential Collection, Credential Stuffing und Betrugstrojaner. Gerade die letzte Methode zielt vor allem auf Nutzer.

Die häufigste Maßnahme, mit der Angreifer IoT-Geräte aufspürten und infizierten, waren Internet-Scans, die nach offenen Remote-Administrationsdiensten suchten. Telnet und Secure Shell (SSH) waren die beliebtesten Protokolle, gefolgt von Home Network Administration Protocols (HNAP), Universal Plug and Play Protocols (UPnP), Simple Object Access Protocols (SOAP) und anderen Transmission Control Protocol (TCP) Ports, die von IoT-Geräten verwendet werden.  

Infrastrukturen und Mobilgeräte anfällig
Laut der Studie sind IoT-Infrastrukturen „ebenso anfällig für Authentifizierungsangriffe über schwache Anmeldeinformationen wie die IoT-Geräte selbst“. Zur IoT-Infrastruktur gehören vor allem Server und Datenbanken.

Mobile IoT-Gateways sind genauso gefährdet wie herkömmliche drahtgebundene und WiFi-basierte IoT-Geräte. Bis zu 62 Prozent der getesteten Geräte waren anfällig für Angriffe per Fernzugang. Dabei wurden vor allem schwache Standardbenutzerdaten des Herstellers ausgenutzt.

Mirai weiterhin gefährlich
Außerdem ergab die Studie, dass die Gefahr durch Mirai weltweit kaum abnimmt. Zwar reduzierte sich die Anzahl der Mirai-Scannersysteme von Dezember 2017 bis Juni 2018 leicht. Europa bleibt jedoch die einzige Region, in der die Infektion mit Mirai-Scannern relativ konstant geblieben ist.

Dabei müssen Unternehmen neben dem ursprünglichen Bot auch mindestens 10 Mirai-Ableger berücksichtigen. Dazu gehören Annie, Satori/Okiru, Persirai, Masuta, Pure Masuta, OMG, SORA, OWARI, Omni und Wicked. Diese Geschwister von Mirai können weitaus mehr als nur DDoS-Angriffe starten. Zum Beispiel setzen sie Proxy-Server ein, um Krypto-Währungen zu suchen und andere Bots zu installieren.

Geeignete Maßnahmen treffen
Um sich ausreichend vor Thingbots zu schützen, müssen Unternehmen mehrere Schichten betrachten: zum einen die Applikationen und IoT-Broker, die Informationen verarbeiten und aufbereiten, und zum anderen Infrastrukturen sowie Endpunkte und Sensoren. Ein DDOS-Schutz ist auf allen Schichten sämtlicher Infrastrukturen und Applikationen notwendig, da es sonst zu einem Totalausfall der Systeme kommen kann. Eine Strategie zum Schließen von Sicherheitslücken in Anwendungen über Updates muss ebenfalls gegeben sein. Eine WAF (Web Application Firewall) sollte sicherstellen, dass sogar angreifbare Anwendungen bis zum Software-Update abgesichert sind.

Einfache Sensoren ohne Speicher und ohne gängiges Betriebssystem lassen sich aufgrund der geringen Kapazitäten nur schwer angreifen. Hier ist ein grundlegender Manipulationsschutz oft ausreichend. Endgeräte mit Speicher und Anwendungen sind dagegen durch veränderbare, komplexe Passwörter, Sicherheitsupdates, Härtung des Betriebssystems und bei Bedarf mit Virus- und Malware-Schutz zu versehen.

Dabei lassen sich zum Teil bereits genutzte Internet-bezogene Security-Maßnahmen erweitern und anpassen. Dazu gehören etwa DDOS-Schutz, WAF oder die klassische Netzwerk-Firewall. Kommen jedoch IoT-spezifische Protokolle zum Einsatz wie MQTT, sind meist neue Schutzmechanismen zu implementieren, zum Beispiel ein MQTT Gateway oder eine MQTT-fähige WAF. In jedem Fall sollten Digitale Signaturen, strenge Authentifizierung und Verschlüsselung immer Bestandteil der IoT-Kommunikation sein.

Fazit
Thingbots verbreiten sich immer stärker und die Angriffsmöglichkeiten auf das IoT nehmen zu. Daher sollten Unternehmen jetzt für hohe Sicherheit sorgen, vor allem durch Bot-Abwehr am Anwendungsperimeter sowie eine Anti-DDoS-Lösung. Sonst können Vorfälle zu deutlichen Umsatzeinbußen führen.