Das Smart Home beginnt an der Eingangstür

Türsprechstellen, die mit dem Telefon verbunden sind, kennt man mitunter bereits von Apotheken oder Polizeistationen. Sind diese nachts unbesetzt, wird das Türgespräch zum nächstgelegenen Nachtschicht-Team weitergeleitet. Doch auch in Büros, Unternehmen und selbst Parkhäusern kommen die auch als Door Line bekannten Anlagen immer häufiger zum Einsatz. Mitunter kann so auch der Pförtner ersetzt werden. Mit der steigenden Nachfrage nach smarten Lösungen fürs eigene Haus oder die Wohnung sind derartige Türsprechanlagen sogar zunehmend im privaten Bereich vorzufinden.

Je nach Bedarf und Vorliebe lassen sich Door Line-Türsprechstellen per Kabel oder drahtlos verbinden. Bei der kabelgebundenen Version erfolgt der Anschluss an die vorhandene Türsprechanlage über 2-Draht oder per Netzwerkkabel. Bei den drahtlosen Varianten setzen die meisten Hersteller auf WLAN oder DECT-Funk. Beide Standards haben ihre Vor- und Nachteile. WLAN eignet sich dazu, selbst hochauflösende und bewegte Bilder in guter Qualität zu übertragen – also beispielsweise das Kamerabild vom Eingangsbereich. Allerdings benötigt WLAN viel Strom. Entsprechend häufig müssen bei WLAN-basierten Produkten die Batterien ausgetauscht werden. Ansonsten funktioniert irgendwann die Türklingel nicht mehr. Darüber hinaus gilt WLAN bei der Übertragung von Sprache als nicht besonders zuverlässig, was gerade bei einer Türsprechanlage zu Problemen führen kann.

Das Gegenteil ist bei DECT-Funk der Fall. DECT (Digital Enhanced Cordless Telecommunications) ist der weltweite Standard für drahtlose Telefonie und wurde eigens für die Übertragung von Sprache entwickelt. Die verlässliche und klare Übermittlung von funkbasierten Türgesprächen liegt somit in der Natur von DECT. Auch beim Energieverbrauch und der Reichweite übertrifft der DECT-Standard WLAN um Längen. Bei bewegten Bildern hat WLAN im Vergleich Vorteile, doch prinzipiell lassen sich diese auch per DECT übermitteln.

Mit kabelgebundenen Türsprechstelle kann jedoch weiterhin kein Funkstandard mithalten, was Verlässlichkeit und Qualität betrifft. Mitunter zahlt es sich also aus, bei der Installation etwas mehr Aufwand zu betreiben. Ansonsten kann es passieren, dass die Türsprechstelle nicht das leistet, was man sich erwartet.

Nicht nur in zahlreichen Haushalten, sondern auch in kleineren Betrieben und Büros ist in Deutschland häufig bereits ein Fritzbox-Router im Einsatz. Für die aktuellen Modelle hat der Hersteller AVM eine neue kostenlose Firmware entwickelt, die es noch leichter macht, Türsprechstellen ins eigene Netzwerk zu integrieren. Steht für die verwendete Box die Version FRITZ!OS 6.50 (oder höher) zur Verfügung, sollte man diese umgehend installieren – zumal es prinzipiell Sinn macht, sämtliche Geräte stets auf dem aktuellen Software-Stand zu haben. Das Update lässt sich leicht über die Benutzeroberfläche der Fritzbox durchführen. Ob die Türsprechstelle über DECT-Funk, als IP-Nebenstelle oder über den konventionellen a/b-Port verbunden wird, macht beim Anschluss über eine Fritzbox übrigens keinen Unterschied. Unterstützt werden u.a. die Door Line-Modelle von Telegärtner Elektronik, Siedle, TCS, Auerswald, Ritto, Agfeo, Behnke, 2N und Keil Telecom.

Von Vorteil ist es in vielen Fällen, wenn man sehen kann, wer vor der Eingangstür steht. Viele Türsprechstellen erlauben es ihren Nutzern – standardmäßig oder als mögliche Erweiterung – den Eingangsbereich per Video oder Standbild zu überblicken. Der Vorteil von separaten Kameras ist dabei, dass diese sich bedarfsgerecht aussuchen und gegebenenfalls auch austauschen lassen.

Je nach Hersteller und Modell bieten intelligente Türsprechanlagen noch viele weitere Funktionen und Einsatzmöglichkeiten wie die bereits erwähnte Apotheker-Schaltung. So lässt sich sicherstellen, dass man wirklich keinen Besucher verpasst – selbst dann nicht, wenn man unterwegs ist. Denn auch Handy- oder Hotelnummern können hinterlegt werden. Bei einer einfachen Apotheker-Schaltung klingelt die Türsprechstelle zunächst am Türgong, der Gegensprechanlage oder am Festnetztelefon. Wird darauf nicht reagiert, versucht die Apotheker-Schaltung den oder die festgelegten Ansprechpartner über zuvor hinterlegte, alternative Rufnummern zu erreichen, bis das Türgespräch beantwortet wird. Je nach Hersteller und Modell kann das Durchprobieren verschiedener Rufnummern auch parallel erfolgen, sodass kein Besucher oder Lieferant lange vor der Tür oder dem Zufahrtstor stehen muss.

Leerkilometer und Leerfahrten – Wie man sie reduziert und vermeidet

2016 lag in Deutschland der Anteil der Leerfahrten am gesamten LKW-Verkehr mit 151 Millionen bei rund 58,5 Prozent, der Anteil an Leerkilometern immerhin noch bei rund 23 Prozent mit 6,5 Milliarden. Der Blick auf den langjährigen Trend zeigt, dass die Zahl der Leerkilometer zwar Ende der 90er zurückging; seit 2008/09 steigt deren Anteil jedoch wieder an. Der wichtigste Grund dafür ist das stetig anwachsende Güterverkehrsvolumen, das zum größten Teil vom LKW-Verkehr getragen wird. Nur noch acht Prozent der Gütertonnage werden auf der Schiene transportiert. Etwa 80 Prozent der Güter (rund drei Milliarden Tonnen) rollen jährlich auf Lkws über deutsche Straßen.

Wie Leerfahrten entstehen

Leerfahrten sind eine natürliche Folge von Güterströmen, die sich aufgrund wechselnder und ungleich verteilter Nachfragen ergeben. Waren werden in aller Regel zu Lager- oder Umschlagspunkten geliefert, an denen es keine Möglichkeit gibt, den LKW mit einer Rückbefrachtung zu versehen. Anders formuliert: der Empfänger der Hinfracht wird nur selten zum Absender der Rückfracht. Der LKW muss daher erst eine bestimmte Strecke leer fahren, um erneut Fracht zu laden.

Wer Netzwerkeffekte nutzen kann, minimiert Leerfahrten

Bei bestimmten Produkten und Dienstleistungen hängt ihr Nutzen von der Anzahl der Konsumenten ab: Je mehr Menschen über das gleiche Netzwerk verfügen, desto höher ist der Produktnutzen. Auf solche Netzwerkeffekte bauen auch Transportnetzwerke. Je größer ein Transportunternehmen ist und je mehr LKWs, Frachtführer und Verlader am Netzwerk beteiligt sind, desto besser stehen die Chancen, Leerfahrten zu vermeiden oder zumindest Fahrten ohne Fracht stark zu verkürzen.
Um das besser zu verstehen, hilft es, sich das Prinzip der logistischen Quellen und Senken zu vergegenwärtigen. Logistische Quellen sind Orte oder Regionen, an denen mehr Transporte starten als enden; Senken sind Orte, an denen mehr Transporte münden als beginnen. Stehen jeweils nur wenige Quellen und Senken miteinander in Verbindung, fehlt es schlicht an Möglichkeiten, das Ungleichgewicht zwischen Quellen und Senken auszugleichen. Leerfahrten mit vielen Leerkilometern sind die Folge. Liegen Quellen und Senken dagegen eng beieinander, gibt es entsprechend auch mehr Lade- bzw. Entlademöglichkeiten. Der Leerfahrtenanteil lässt sich durch diesen Netzwerkeffekt daher wirkungsvoll reduzieren. Diese Überlegungen verdeutlichen auch, weshalb die hohe Anzahl an kleinen Transportunternehmen in Deutschland (mit zumeist weniger als 10 Fahrzeugen) zu vielen Leerfahrten führt. Größere Unternehmen haben nicht nur mehr LKWs auf den Straßen, sie haben auch mehr Kunden und damit automatisch auch mehr Quellen und Senken, die zur Vermeidung von Leerfahrten genutzt werden können. Gerade für kleine und mittelständische Transportunternehmen lohnt sich daher der Anschluss an Transportnetzwerke besonders. Sie kommen dadurch in den Genuss von Netzwerkeffekten (sowie Mengeneffekten), die sonst nur den ganz Großen der Branche vorbehalten blieben. KMUs der Straßenlogistik können die Zahl ihrer Leerfahrten damit effektiv minimieren.

Kabotage zur Vermeidung von Leerfahrten

Als Kabotage werden Transportdienstleistungen innerhalb eines Landes verstanden, die von ausländischen Verkehrsunternehmen erbracht werden. Einheimische Frachtführer und Transportunternehmer betrachten das Thema Kabotage meist nur unter dem Blickwinkel unerwünschter (und durch niedrigere Löhne meist auch günstigerer) Konkurrenz. Für die EU-Kommission ist Kabotage dagegen eine Möglichkeit, die Zahl der Leerfahrten zu minimieren. Erlaubt sind Kabotage-Fahrten gemäß EU-Verordnung Nr. 1072/2009 Artikel 8, Absatz 2 beispielsweise dann, wenn im Zuge eines grenzüberschreitenden Transports innerhalb des EU-Mitgliedstaats noch drei weitere Kabotagebeförderungen innerhalb von sieben Tagen durchgeführt werden. Bezogen auf das Thema Leerfahrten ist diese Regelung sicherlich sinnvoll. Schließlich kann auf diese Weise die Rückfahrt genutzt werden, um weitere Fracht(en) zu transportieren.
Die Probleme der Kabotage liegen im Detail. Zum einen müssen Frachtführer bei Überprüfungen stets vorweisen können, dass ihre Kabotage-Fahrt auch erlaubt ist. Bei Verstößen werden Strafzahlungen fällig. Mitunter reicht es dafür aus, dass beim Transport eine Ladung aus mehreren Frachten besteht: Lädt beispielsweise ein LKW nach der Auslieferung der Güter im Zielland auf dem Rückweg drei Frachten, die jedoch nach einer Teilstrecke wieder entladen werden, darf er keine weiteren Frachten mehr transportieren. Der Rückweg müsste dann komplett als Leerfahrt durchgeführt werden.
Zum anderen kommen zahlreiche länderspezifische Regelungen hinzu. So muss in Deutschland der hier geltende Mindestlohn gezahlt werden und seit Sommer 2017 darf die Wochenruhezeit nicht im LKW verbracht werden. Viele Auftraggeber scheuen daher davor zurück Kabotage-Fahrten zu beauftragen. Für die Reduzierung von Leerfahrten innerhalb der EU wäre daher eine Angleichung der Richtlinien und Sozialvorschriften sinnvoll. Nicht zuletzt würde die Umwelt auch davon profitieren.

Bessere Daten, weniger Leerfahrten

Mithilfe der Digitalisierung können Leerfahrten minimiert werden. Wer Logistikdaten kontrolliert, schafft nicht nur eine bessere Vernetzung von Frachtführern und Verladern, sondern steuert zugleich detailliert alle wichtigen Logistik-Schritte. Digitales Tracking & Tracing etwa ermöglicht das Erheben von Echtzeitinformationen über Ankunftszeiten, Ladekapazitäten, Verspätungen und ähnliches. Selbst kurzfristig freiwerdende Kapazitäten können so online angeboten und ebenso kurzfristig gebucht werden. Die oben beschriebenen Quellen und Senken rücken – bildlich gesprochen – durch den Datenfluss in Echtzeit noch enger zusammen. Das Netzwerk zwischen Frachtführern und Verladern wird verdichtet, die Netzwerk- und Mengeneffekte intensiviert und die Zahl der Leerkilometer effektiv reduziert.

NASA nutzt vernetzte Daten mit Hilfe des Knowledge Graph

Unternehmen versuchen seit jeher ihr geballtes Wissen an Erfahrungen, Know-how und Informationen effizient zu nutzen. Mit Big Data und dem IoT hat das Erfassen, Teilen, Analysieren, Nutzen und Verwalten des gesammelten Unternehmenswissens jedoch eine neue Dimension angenommen, die mit herkömmlichen Datenbanksystemen kaum noch zu bewältigen ist.

Datensilos sowie eine fehlende Vernetzung von Systemen (z. B. ERP, PDM, CRM) erschweren es, eine ganzheitliche Datengrundlage zu schaffen, die als Sprungbrett für Innovationen dient, neue Einblicke eröffnet und eine effektive Entscheidungsfindung ermöglicht. Dabei reicht es nicht, die Daten und die Beziehungen zwischen den Daten zu speichern. Entscheidend ist es die vernetzten Daten nutzbar und zugänglich zu machen. Fehlt Führungskräften, Projektleitern und Forschungsteams der Zugang zu relevanten Informationen bleibt vorhandenes Wissen ungenutzt. Neue Projekte müssen so immer wieder bei null anfangen und ähneln oft einer nie endend wollenden Sisyphos-Arbeit, die Ressourcen, Zeit und Kosten verschlingt.

NASA: Lessons Really Learned?

So erging es auch der Weltraumorganisation NASA. In einer kontinuierlich wachsenden Lessons Learned-Datenbank wurden Projektdokumentationen aus über fünf Jahrzehnten Weltraumforschung festgehalten – angefangen bei der Apollo-Mission in den 60er Jahren. Die Forschungsunterlagen, Dokumentation zu Projekten, Fehleranalysen, Risikobewertungen und Best Practices stellen einen unglaublichen Wissensschatz für NASA dar – allerdings war es schwierig diesen Schatz auch tatsächlich zu bergen.

Mit zunehmendem Umfang der Datenbankgröße wurde die interne Schnittstelle für die Abfrage der Datensätze schlichtweg zu komplex. So lieferte beispielsweise eine Suche von 23 einfachen Stichwörtern in den über 10 Millionen Dokumenten der Datenbank eine Liste von 1.000 Treffern. Jede gefundene Datei musste heruntergeladen und jeder Inhalt einzeln auf Relevanz überprüft werden. Die Keyword-Suche basierte zudem auf einen PageRank-ähnlichen Algorithmus. Häufiger aufgerufene Dokumente standen deshalb ganz oben auf der Trefferliste, und nicht weil sie über relevanten Inhalt verfügten.

Knowledge Graph – Semantischer Wissenskontext

Eine effektivere und dauerhaft nutzbare Lösung war gefragt. NASA implementierte dazu eine Projektdatenbank, wobei die heterogenen Daten in einem sogenannten „Knowledge Graph“ abgelegt sind. Graphtechnologie eignet sich ideal um insbesondere heterogene und vernetzte Daten zu speichern und abzufragen. Daher kommt sie überall dort zum Einsatz, wo Daten innerhalb eines Unternehmens logisch miteinander verknüpft sind – im Projekt- und Dokumentenmanagement aber auch bei Recommendation Engines von Online-Shops, bei der Aufdeckung von Betrugsfällen oder in PDM- und MDM-Systemen für eine transparente Supply Chain.

Die Daten werden im Graphen als Knoten, die Datenbeziehungen als Linien dargestellt. Beziehungen sowie Ursache-Wirkungs-Zusammenhänge lassen sich so anschaulich visualisieren. Es entsteht ein semantischer Kontext, der wächst, je mehr Daten zum Graphen hinzugefügt werden. Dabei bleibt die Abfrageperformance gleich und liefert relevante Ergebnisse innerhalb von Millisekunden. Darüber hinaus können alle Daten sowie die Verknüpfungen zwischen den Daten indiziert werden. Die genaue Klassifizierung von Datensätzen und Querverbindungen ermöglicht es, über Stichwörter direkt in Dokumenten zu suchen und sehr schnell die richtigen Informationen zu finden.

Einsatz: Weltraumkapsel Orion

Die graphbasierte Projektdatenbank ähnelt einem NASA-internen Wikipedia, das den Zugang auf unternehmenseigene Informationen vereinfacht und einen Wissenstransfer zwischen Standorten und Forschungseinrichtungen weltweit ermöglicht. Extrem wertvoll für die weitere Forschungsarbeit der NASA ist zudem das Aufdecken neuer Zusammenhänge zwischen Forschungsbereichen und Projekten. So fanden Ingenieure in der graphbasierten Lessons Learned-Datenbank wichtige Erkenntnisse aus dem Apollo-Programm, die ihnen halfen, ein bislang ungelöstes technisches Problem der Orion Weltraumkapsel bei der Landung zu umgehen. Das verkürzte die Forschungsarbeit um mehr als zwei Jahre und sparte Kosten in Millionenhöhe ein.

In Zukunft können Ingenieure und Projektleiter von Anfang an auf diese wertvollen Informationen zurückgreifen, Fehler aus der Vergangenheit vermeiden und bestehendes Unternehmenswissen tatsächlich langfristig und effizient nutzen.

Beispiele aus der Praxis: So geht Industrie 4.0 im Mittelstand

Apra-Gruppe: Mit schnellen Schritten zur Smart Factory

Apra, ein Spezialist für Elektronikgehäuse- und Schaltschränke, ersetzt Schritt für Schritt manuelle Abläufe durch automatisierte Informationsflüsse. Der Mittelständler bleibt dabei bewusst in der ERP-Welt und kann sich so ohne Systemgrenzen oder Medienbrüche auf zwei Kernziele konzentrieren – die Steigerung der Produktivität und schnelleres Eingehen auf Kundenwünsche. In der Intralogistik sorgt ein elektronisches Kanban-Regalsystem dafür, dass passende Schrauben oder Bolzen für die Montage der Schaltschränke immer ausreichend zur Verfügung stehen. Es löst über einen Beständeabgleich mit dem ERP-System auch gleich Nachbestellungen aus. Klassische Lieferketten mit aufeinanderfolgenden Abläufen werden so abgelöst.

Eine Frontplatte der Apra-Gruppe (Quelle: Apra-Gruppe)

Hydrotechnik: kleiner Ansatz mit großer Wirkung

Die Hydrotechnik GmbH entwickelt und produziert mechanische und elektronische Messtechnik für Maschinen und Anlagen der Hydraulik. Dort kommuniziert ein intelligenter Bestückungsautomat direkt mit dem ERP-System. Regelmäßig findet so ein automatischer Abgleich der erfolgreich verbauten Teile und des Ausschusses statt. Dadurch kann Hydrotechnik Fehlbestände und Produktionsverzögerungen vermeiden. Im Ergebnis hat sich die Termintreue auf über 95 Prozent erhöht.

Werkzeugschleiferei Neumüller: Digitalisierung per Laser

Die Werkzeugschleiferei Josef Neumüller hat in Zusammenarbeit mit ihrem ERP-Anbieter eine zukunftsorientierte Plattform für Industrie 4.0 aufgebaut. Über einen per Laser gravierten Code verbindet sie die Maschinenebene mit dem ERP-System. Der Code identifiziert jedes Werkzeug im Fertigungsablauf, erlaubt dessen lückenlose Rückverfolgung und vereinfacht die Zusammenarbeit mit externen Beschichtern.

Über einen Code kann jedes Werkzeug identifiziert werden.(Quelle: Werkzeugschleiferei Neumüller)

Schwering und Hasse: Qualität auf jedem Zentimeter

Der Elektrodrahthersteller Schwering & Hasse stellt trotz hoher Produktionsgeschwindigkeit eine gleichbleibende Qualität sicher. Durch die nahtlose Integration der Maschinensteuerung in das ERP wertet das Unternehmen automatisiert Messdaten aus der Fertigung aus. Kritische Eckwerte in der Produktion lösen dann über das ERP-System ein Ereignis aus. Erfüllt ein Draht nicht mehr die Anforderungen, können die Werker sofort ein Gebinde wechseln und so kostspieligen Ausschuss vermeiden.

Die Auswertung von Messdaten sorgt für fehlerfreie Produkte. (Quelle: Schwering und Hasse)

Spelsberg: Maschinen rüsten sich selbst

Bei der Günther Spelsberg GmbH & Co. KG diente eine neue Endmontagelinie für Gehäuse von Sicherungsautomaten als Industrie 4.0-Pilot. Sobald ein solches Gehäuse die Endmontage erreicht, übermittelt das ERP-System die Auftragsdaten direkt an die Maschine. Nach einer Qualitätssicherung über eine integrierte Kamera meldet die Maschine eventuelle Fehler. Diese Verknüpfung senkt die Rüstzeiten pro Auftrag auf ein Sechstel – eine Ersparnis von fünf Minuten pro Rüstvorgang oder eine Stunde pro Maschine und Tag.

Ziehl-Abegg: Mit ERP-Stammdaten zu Industrie 4.0

Das Thema Industrie 4.0 beschäftigt den Ventilatoren- und Motorenhersteller aus Baden-Württemberg. Ziehl-Abegg will mehr Intelligenz in die Produkte verlagern und die Fertigung effizienter gestalten. Das ERP-System bleibt das bewährte Rückgrat der gesamten IT-Infrastruktur. Über Jahre hat man mit dieser Lösung eine deutlich bessere Unternehmensstrukturierung erzielt und die Internationalisierung erfolgreich vorangetrieben. Deshalb bilden die ERP-Stammdaten heute die Grundlage für die Smart Factory. 

Die Beispiele zeigen, wie mittelständische Unternehmen die Herausforderungen rund um Industrie 4.0 meistern. Die ERP-Software wird mehr und mehr zur Basis der vernetzten Fabrik. Dabei ist es wichtig, beispielweise Unklarheiten über den wirtschaftlichen Nutzen der Industrie 4.0-Investionen auszuräumen oder Vorgaben für die smarte Vernetzung zu definieren. Die Unternehmen können dazu sowohl auf die Mitarbeiter der ERP-Experten als auch auf die Systemlösungen zurückgreifen. Oft können ERP-Spezialisten auch schon fertige Lösungen anbieten, beispielsweise ERP-Integrationsplattformen oder spezielle Module für Datenanalyse, Monitoring und Prozessautomatisierung.

 

Remotedesktopdienste-Webzugriff

Standardmäßig werden die Applikationen die Sie als RemoteApps zur Verfügung stellen, über den Remotedesktopdienste-Webzugriff zur Verfügung gestellt.

Hinweis Beginn

Wird der RemoteApps-Liste eine neue Anwendung hinzugefügt, wird diese automatisch im Remotedesktopdienste-Webzugriff angezeigt; es sind keine weiteren Maßnahmen zur Konfiguration notwendig.

Der Remotedesktopdienste-Webzugriff ist ein Rollendienst der Remotedesktopdienste, den Sie entweder bereits bei der Installation oder auch nachträglich anpassen können. Die Einstellungen dazu finden Sie im Server-Manager über „Remotedesktopdienste/Sammlungen“.

Klicken Sie bei der entsprechenden Sammlung auf „Aufgaben“ und dann auf „Bereitstellungseigenschaften bearbeiten“. Nach der Einrichtung steht Ihnen über „https://<Servername>/rdweb“ der Webzugriff zur Verfügung.

Handelt es sich beim Webzugriff-Server um einen anderen Server als den Remotedesktopserver, über den Sie die Applikationen zur Verfügung stellen, müssen Sie auf dem Remotedesktopserver mit den RemoteApps das Computerkonto des Servers mit Web Access in die Sicherheitsgruppe „RDS-Remotezugriffsserver“ hinzufügen.

Standardmäßig arbeiten der Remotewebzugriff mit einem selbstsignierten Zertifikat. Dieses sollten Sie in produktiven Umgebungen, aber gegen ein Zertifikat einer internen Zertifizierungsstelle austauschen.

Single Sign-On (SSO) für Remotedesktop-Sitzungshosts

Damit Sie diese Funktionalität nutzen können, müssen Sie Windows 8.1/10 zusammen mit Windows Server 2012 R2 einsetzen. Außerdem müssen sich beide Systeme in der gleichen Active Directory-Gesamtstruktur befinden. Auf den Arbeitsstationen unter Windows können Sie entweder die lokale Richtlinie bearbeiten, oder Sie erstellen eine Gruppenrichtlinie. Navigieren Sie zum Bereich „Computerkonfiguration/Administrative Vorlagen/System/Delegierung von Anmeldeinformationen“.

  1. Öffnen Sie die Richtlinie „Delegierung von Standardanmeldeinformationen zulassen“.
  2. Aktivieren Sie diese Richtlinie.
  3. Tragen Sie in der Serverliste den Eintrag „termsrv/<Servername>“ ein.  Wichtig an dieser Stelle ist, dass Sie vor dem Eintrag des Servernamens noch den Eintrag „termsrv“ vornehmen. In einer Remotedesktopdienste-Infrastruktur verwenden Sie als Servernamen den FQDN des Remotedesktop-Verbindungsbrokers. Die anderen Server müssen Sie an dieser Stelle nicht mehr eintragen. Dies war in Windows Server 2008 R2 noch notwendig.

Identitätsmanagement für das IoT

Unabhängig davon, in welcher Branche sie tätig sind, geraten Unternehmen aus verschiedenen Gesichtspunkten unter Transformationsdruck: von störenden Wettbewerbern, die den Bedarf an agilen Diensten vorantreiben, bis hin zu regulatorischem Druck wie der neuen EU-Datenschutz-Grundverordnung (DSGVO) oder der Zahlungsrichtlinie 2 (Payment Service Directive 2, kurz PSD2). Zudem sind Nutzer heutzutage ebenfalls besser informiert und anspruchsvoller als je zuvor. Sie erwarten ein reibungsloses Registrierungs- und Anmeldeverfahren, verbunden mit einer personalisierten Erfahrung, die Sicherheit und Privatsphäre garantiert.

Angesichts dieses Wettbewerbsdrucks müssen Unternehmen sicherstellen, dass sie über die richtige Strategie für ein geräte- und personenbasiertes Identitäts- und Zugriffsmanagement verfügen. Diese muss es ihnen ermöglichen, sowohl das Nutzererlebnis zu verbessern als auch den richtigen Zugang zu den richtigen Personen zum richtigen Zeitpunkt.

Cybersecurity-Angriffe sind heute komplexer, zahlreicher und schwieriger zu erkennen und somit zu verhindern als je zuvor. Im Jahr 2015 zum Beispiel stieg die Zahl der Spear Phishing-Angriffe, die sowohl große als auch kleine Unternehmen betrafen, im Vergleich zum Vorjahr um 55 Prozent.

Durch die Aufnahme von IoT-geführten Programmen in Branchen wie der Automobilindustrie sowie dem Versicherungs- und Gesundheitswesen wird ein neuer potenzieller Angriffsvektor eingeführt. Der im letzten Jahr erfolgte Angriff auf den DNS-Infrastruktur-Anbieter Dyn machte das Schadensausmaß deutlich, zu dem ein IoT-betriebenes Botnetz im Stande ist. Dyn schätzte, dass etwa 100.000 bösartige Endgeräte an dem Angriff beteiligt waren, was ein weiteres deutliches Zeichen dafür war, dass die IoT-Sicherheit für jeden Gerätehersteller oder Service-Anbieter, der mit Geräten interagiert, ein zentrales Anliegen sein sollte.

Entstandene Kosten

Die tatsächlichen Auswirkungen von Cybersecurity-Angriffen sind schwer einzuschätzen. Nach den Untersuchungen einer 2016 von IBM und dem Ponemon Institut durchgeführten Studie („Cost of Data Breach“) stiegen die konsolidierten Gesamtkosten einer Datenpanne von 3,8 Millionen US-Dollar im Jahr 2014 auf 4 Millionen US-Dollar im Jahr 2015, wobei die durchschnittlichen Kosten für jeden verlorenen oder gestohlenen Datensatz mit sensiblen und vertraulichen Informationen von 154 US-Dollar auf 158 US-Dollar anstiegen.   

Wenn man bedenkt, dass im Symantec-Bericht 2016 festgestellt wurde, dass 2015 mehr als eine halbe Milliarde Identitätsdatensätze verloren gingen oder gestohlen wurden, sind die Gesamtkosten für Sicherheitsfehler enorm hoch. Die Zahlen für nicht gemeldete oder (bisher) unbekannte Fälle von Identitätsdiebstahl sind zudem hier nicht berücksichtigt.

Über diese konkreten Kosten hinaus ist der Imageschaden für Unternehmen oft beträchtlich. Dies sollte in den meisten Fällen ein ausreichender Anreiz für Unternehmen sein, sichere und datenschutzerhaltende Dienste auf eine Vielzahl von Geräten bereitzustellen.

Intelligent, einfach & sicher?

Initiativen im Bereich Informationssicherheit stehen immer wieder vor der alten Herausforderung, sichere Dienste für die Anmeldung und Zugriffsverwaltung bereitzustellen, ohne die Benutzerfreundlichkeit einzuschränken. Der Endanwender wünscht sich einen reibungslosen Ablauf der Dienste, sowohl im öffentlichen als auch im privaten Bereich.

Viele Nutzer sind jedoch tatsächlich nur einen Mausklick von einem Wechsel zu einem Wettbewerber entfernt. Dies bedeutet, dass Unternehmen nicht nur die Datensicherheit gewährleisten, sondern gleichzeitig auch das Nutzererlebnis verbessern müssen, ohne dabei als übermäßig schützend oder einschränkend empfunden zu werden.

Der moderne Anmeldeprozess muss dabei immer mehr eine Vielzahl von Faktoren umfassen. Die Tage, an denen ein einfacher Benutzername und Passwort für eine sichere Authentifizierung ausreichten, sind längst vorbei. Passwörter, die vom Endanwender ausgewählt werden, sind selten komplex genug, um Einzigartigkeit zu gewährleisten. Und viele Unternehmen kämpfen immer noch mit der sicheren Speicherung von Passwortdaten – oft mit veralteten Verschlüsselungsverfahren, die leicht rückgängig gemacht werden können. Beim Abspeichern von Passwörtern sollten moderne Ansätze wie Scrypt oder Bcrypt zum Einsatz kommen, die es Angreifern erschweren, durch Brute Force die zugrundeliegenden Passwortwerte zu erraten.

Dennoch sollte die Authentifizierung nicht mehr nur auf Benutzername und Passwort basieren, sondern sich auf eine Reihe verschiedener Datenpunkte konzentrieren. Der Anmeldevorgang sollte weitere risikorelevante Daten bzw. Parameter berücksichtigen, die verknüpft werden, wie zum Beispiel Tageszeit, Standort, das Gerät, von dem die Anfrage kommt, das letzte Mal, wann der Nutzer sein Passwort geändert oder sich erfolgreich angemeldet hat. Dieser kontextuelle Ansatz zur korrekten Identifizierung eines Benutzers hilft, die Anzahl der Komponenten zu erhöhen, die ein böswilliger Angreifer kompromittieren müsste, um Zugriff auf einen Service oder eine Anwendung zu erhalten.

Wenn ein High-Risk User identifiziert wird, sollten sekundäre Authentifizierungsmechanismen in Betracht gezogen werden. Vergleichsweise einfach in der Handhabung ist hier ein Einmal-Kennwort („Code“), welches an eine vorregistrierte Handynummer oder Email-Adresse geschickt wird – auf einem gesonderten Kommunikationsweg. Aber auch diese Methode ist anfällig für ein mögliches Abfangen. Mobile Push-Authentifizierung, gekoppelt mit lokaler Fingerabdruck-Biometrie oder lokaler PIN-Eingabe sind daher noch besser geeignet.

Sobald ein Nutzer authentifiziert ist, sollte die Sicherheitsüberprüfung allerdings nicht an dieser Stelle aufhören. Kontinuierliche Berechtigungskontrollen sollten weiterhin verwendet werden, um sicherzustellen, dass die laufende Session oder das Cookie nicht abgefangen und weitergeleitet wurden, indem die Sitzung an das Originalgerät gebunden oder Standortüberprüfungen durchgeführt werden.

Das Internet der Dinge sichern

Der Angriff auf Dyn machte deutlich, dass Organisationen eine klare Strategie für IoT und browserlose Geräte benötigen. Diese Geräte müssen sicher authentifiziert werden, um zuverlässig festzustellen, dass sie nicht gefälscht sind oder ihr Betriebssystem oder ihre Firmware manipuliert oder „gerooted“ wurden. 

Ein Gerät, insbesondere in der Consumer-Welt, sollte dann sicher mit einem physischen Benutzer „gepaart“ werden und nur die notwendigen Berechtigungen erhalten, die für den Zugriff auf Cloud-Services oder APIs im Namen des Eigentümers erforderlich sind. Es sollte auch eine klare und einfache Methode für den Besitzer eines Geräts geben, um bei Verlust, Diebstahl oder Weiterverkauf eines Geräts den Zugriff zu widerrufen.

Viele Unternehmen haben hier Nachholbedarf und müssten mindestens ihre Identitätsregistrierungs-, Authentifizierungs- und Autorisierungsdienste ausbauen, um die Integration von IoT-basierten Geräten zu erleichtern und die Geräteeinbindung, -paarung und -autorisierung mit abzudecken.

Das Paradoxon Personalisierung & Datenschutz

Daten- und Informationssicherheit mit Benutzerfreundlichkeit unter einen Hut zu bekommen, ist eine ernste Herausforderung und gleicht einem Paradoxon. Besonders unter dem Gesichtspunkt, dass der Schutz seiner Privatsphäre für Endanwender immer wichtiger wird. Sicherheit und Privatsphäre unterscheiden sich, aber sind untrennbar miteinander verbunden, da Endanwender sich eine stärkere Personalisierung wünschen, wenn es um die Interaktion mit Anwendungen und Dienstleistungen geht.

Um allerdings diese Personalisierung zu ermöglichen, benötigen die Dienstleister jedoch große Datenmengen. Die im Mai 2018 in Kraft tretende EU-Datenschutzverordnung zielt darauf ab, dem Endnutzer mehr Kontrolle über seine Daten zu geben, damit er genau zu weiß, wer aus welchem Grund Zugriff auf seine persönlichen Daten hat, mit der Möglichkeit, den Zugriff jederzeit zu widerrufen.

Die Datenschutz-Grundverordnung erfordert mehr als nur die Ernennung eines Datenschutzbeauftragten – die neue Datenschutzverordnung erfordert umfassende Identity & Access Management Dienstleistungen, um das Recht auf Löschung, Benachrichtigungsdienste bei Verstößen, transparente Zustimmungsmodelle und vieles mehr zu gewährleisten.

Sicherheit und Datenschutz müssen oberste Priorität haben

Unternehmen sehen sich zweifellos einer immer komplexeren Reihe von Herausforderungen gegenüber, die sich im Wettbewerb und in der Transformation befinden. Wenn Unternehmen in diesem Umfeld erfolgreich sein wollen, müssen sie sicherstellen, dass sie einen strategischen Ansatz verfolgen, um agile Anwendungen und moderne Dienste mit robuster Sicherheit, intelligenter Geräteintegration und einem umfassenden Schutz personenbezogener Daten sowie Datenschutz-Management zu kombinieren. 

Fünf Erfolgsfaktoren, um IoT-Projekte richtig umzusetzen

1. Praxis vor Theorie

Bei IoT-Projekten gilt vor allem: „Praxiserfahrung schlägt Theoriewissen.“ Wichtig ist also ein Partner, der Erfahrung aus ähnlichen Projekten einbringen und auch auf unvorhergesehene Herausforderungen flexibel reagieren kann. Standardtechnologien sind dazu oftmals besser geeignet, als innovative aber unausgereifte Ansätze. Denken Sie dabei auch an Ihre Kunden und Mitarbeiter, die noch lernen müssen, das neue System zu bedienen. Mit Standardtechnologien und einem erfahrenen IoT-Partner minimieren Sie Integrationsrisiken, beschleunigen die Projektumsetzung und schaffen Mehrwerte.

2. Das Ziel vor Augen

Haben Sie den richtigen IoT-Partner gefunden, vereinbaren Sie mit ihm ein klares Ziel und seien Sie sich über die Folgen im Klaren. Welchen konkreten Nutzen wollen Sie für Ihre Kunden erzielen und welche Prozesse in Ihrem Unternehmen sind davon betroffen? Auf Grundlage dieser Erkenntnisse entwickeln Sie ein Geschäftsmodell. Stimmen Sie sich mit dem Partner ab, er kann Sie dabei beraten, wie und mit welcher Architektur und Technologie der IoT-Datenfluss am besten verwaltet wird. Manchmal ergeben sich aus dem Geschäftsmodell selbst Anforderungen oder Prozesse für die IoT-Plattform, die eigentlich nicht zu deren klassischen Aufgaben gehören. Deshalb sollten Sie Ihren IoT-Dienstleister so früh wie möglich in das Projekt einbinden, um darauf reagieren zu können.

3. Menschliche und künstliche Intelligenz verbinden

Neue Technologien werden nicht von jedem gut angenommen. Dabei hängt der Erfolg Ihres IoT-Projektes maßgeblich von den Mitarbeitern ab. Die erfassten Datenströme müssen beobachtet, verstanden und vor allem interpretiert werden. Es ist eine Führungsaufgabe, den Mitarbeitern die Angst zu nehmen, dass neue Technologien sie ersetzen könnten, und aufzuzeigen, welche neuen Perspektiven durch das IoT-Projekt entstehen. Koppeln Sie daher menschliches Know-how und maschinelle Intelligenz. Umfassende Mitarbeiterschulungen und klare Zuständigkeiten schaffen mit der Zeit die nötige IoT-Kompetenz im Unternehmen.

4. Ein Schritt nach dem anderen

Investitionen in IoT-Projekte amortisieren sich im laufenden Betrieb. Fangen Sie also klein an und bauen Sie die IoT-Lösung nach und nach aus. Dabei sollten Sie ein hohes Augenmerk auf die einfache Bedienbarkeit legen. Eine theoretisch wirtschaftliche Plattform wird scheitern, wenn die relevanten Nutzer sie nur schwer handhaben können. Ein „Proof of Concept“ kann Auskunft über die technologische und die wirtschaftliche Machbarkeit geben.

5. Sich gegen Sicherheitsrisiken wappnen

Bei IoT-Projekten sollte das Thema Sicherheit höchste Priorität haben, denn gerade industrielle IoT-Geräte sind lukrative Ziele für Cyberkriminelle. Seriöse IoT-Dienstleister bringen deshalb eigene Security-Konzepte bereits beim Strategiegespräch ein. Grundsätzlich gilt: Je einfacher die Infrastruktur und je weniger Schnittstellen, desto weniger Schwachstellen gibt es.

Fazit

Mithilfe von IoT-Plattformen können Unternehmen heute sehr spezifische Herausforderungen hocheffizient lösen. Um die richtige Plattform zu finden, tasten sich viele Kunden mit kleinen IoT-Projekten voran. Das ist genau die richtige Strategie: Klein starten und Schritt für Schritt erweitern. Dabei gehören Geschäftsmodell und Technologie ebenso zusammen wie menschliches Know-how und maschinelle Intelligenz.

Tipp: Nur nicht erpressen lassen

Sind die eigenen Daten erst wider Willen verschlüsselt und es liegt kein aktuelles Backup vor ist guter Rat nicht nur teuer, sondern bis auf folgenden Tipp oft gar nicht zu bekommen.

Der Ransomware File Decryptor von Trend Micro steht zum kostenfreien Download bereit und ist in der Lage, durch bestimmte Ransomware-Familien unlesbar gemachte Dateien zu entschlüsseln. Derzeit finden sich 27 Erpressertypen auf der „Fahndungsliste“ des Tools.
Der „Ransomware File Decryptor“ wird nicht prophylaktisch installiert, sondern kommt nur zum Einsatz, wenn der Fall der Fälle eingetreten ist. Auch dann wird er nicht installiert. Der Nutzer muss dagegen nur das ZIP-Paket entpacken und die Anwendung „RansomwareFileDecryptor 1.0.1668 MUI.exe“ ausführen. Das Tool fragt dann nach einem Klick auf „Select“, welche Ransomware-Familie die Daten des Nutzers verschlüsselt. Zur Wahl stehen zahlreiche Erpresser mit „Rang und Namen“, etwa WANNACRY, LECHCHIFFRE, CHIMERA oder JIGSAW. Mit „Select & Decrypt“ hingegen, schreitet das Tool gleich zur Tat.

Wer genau der Schuldige ist erfordert war etwa Recherche-Arbeit, lässt sich aber meist mit Hilfe der gängigen Security-Webseiten ermitteln. Gelingt das nicht, hilft ein Klick auf „I don’t know the ransomware name“ mit etwas Glück trotzdem aus der Patsche.

Let’s Encrypt macht seinen Weg

Laut dem von der Internet Security Research Group vorgelegten  Bericht zur Lage von Let’s Encrypt machen John Aas die Wachstumszahlen für 2017 wie jeden CEO stolz. So konnte beispielsweise die Zahl der aktiven Zertifikate auf derzeit 56 Millionen verdoppelt werden. Die Anzahl der damit verwalteten Domains hat sich mit 61 Millionen sogar fast verdreifacht.

Die Infrastruktur hinter der Certificate Authority (CA) Let’s Encrypt besteht aktuell aus 70 Servern, Switches und Firewalls, wobei man die Speicherkapazitäten ständig an den steigenden Bedarf anpasst. In 2018 soll zudem erstmals auch zehn ältere Server ausgetauscht werden und die Zahl der Mitarbeiter, die sich allein um die Infrastruktur kümmern, soll sich von 5 auf 6 erhöhen.

Trotzdem bleibt dabei der Finanzbedarf von Let’s Encrypt relativ gering. Das Budget für 2018 beträgt rund drei Millionen US-Dollar. Mit einer geplanten Erhöhung des Budgets von rund 13 Prozent können 2018 doppelt so viele Zertifikate ausgestellt werden wie im Vorjahr. Die Haupt-Sponsoren sind Mozilla, Akamai, OVH, Cisco und Google.

Fahrplan 2018

Allgemein wurde 2017 den Aussagen der Mozilla Foundation nach die Zahl der mit HTTPS verschlüsselten Webseiten von 46 auf 67 Prozent gesteigert. Im Verlauf des Jahres 2018 will die hinter Let’s Encrypt stehende ISRG diese Zahlen weiter verbessern. So soll die Anzahl der aktiven Zertifikate sowie der eindeutigen Domains 2018 auf 90, bzw. 120 Millionen gesteigert werden.

Bemerkenswert ist auch, dass das ACME-Protokoll zum Ausstellen von Zertifikaten zur Zeit bereits in die Entwicklerversion des Apache-Server HTTPD implementiert wird und später in auch in die stabile Version HTTPD 2.4.x einfließen soll. Weitere Pläne für 2018 sind z. B. Version 2 des ACME-Protokolls für Ende Februar mit der Unterstützung für Wildcard-Zertifikate. Im weiteren Verlauf des Jahres will Let’s Encrypt ECDSA-Root-Zertifikate einführen, laut Aussage von Aas effizienter als die Algorithmen in RSA sind.

Aas äußert sich in seinem Bericht auch lobend über die Gemeinschaft hinter Let’s Encrypt, die mittlerweile über 60 Clients für Let’s Encrypt bereit gestellt hat.