Offlinedefragmentation der Active Directory-Datenbank

Bevor Sie eine Offlinedefragmentation durchführen, sollten Sie eine Sicherung des Systemstatus Ihres Active Directory durchführen. Wie bei der Offlinedefragmentation von Exchange wird zunächst die Datenbank kopiert, dann offline defragmentiert und anschließend zurückkopiert. Stellen Sie daher sicher, dass sich auf dem Datenträger, auf dem Sie die Offlinedefragmentation durchführen, genügend Speicherplatz frei ist. Um eine Offlinedefragmentation durchzuführen, gehen Sie folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie den Befehl files ein, um zur file maintenance zu gelangen.
  5. Geben Sie den Befehl compact to <Laufwerk:\Ordner> Wählen Sie als Verzeichnis einen beliebigen Ordner auf der Festplatte aus. Ntdsutil kopiert die Datenbankdatei in diesen Ordner und defragmentiert sie.
  6. Wenn keine Fehlermeldungen während der Offlinedefragmentation auftreten, können Sie die Datei dit aus dem Ordner, in welchen sie defragmentiert wurde, zurück in den Datenbankpfad der produktiven Datenbank kopieren. Diesen Vorgang führt Ntdsutil nicht automatisch aus, Sie müssen die Datei manuell kopieren. Sichern Sie die alte Version der ntds.dit aus dem produktiven Datenbankordner. Verschieben Sie die defragmentierte Datei in den produktiven Ordner der Datenbank und überschreiben Sie die alte Version.
  7. Geben Sie in der file maintenance von Ntdsutil den Befehl integrity ein, um die Integrität der Datenbank festzustellen.
  8. Wenn die Integrität der neuen Datenbank sichergestellt ist, können Sie den Domänencontroller ganz normal neu starten. Sollten Fehler auftreten, kopieren Sie die zuvor gesicherte Originalversion zurück und führen Sie einen erneuten Integritätstest durch. Ist der Test diesmal erfolgreich abgeschlossen, versuchen Sie erneut eine Offlinedefragmentation und starten Sie den Test erneut. Sie sollten den Domänencontroller erst in den normalen Modus starten, wenn sichergestellt ist, dass die Datenbank auch konsistent ist.

Da Active Directory als Systemdienst läuft, kann dieser für die Defragmentation auch beendet werden. In diesem Fall muss der Server nicht im Verzeichnisdienst-Wiederherstellungsmodus gestartet werden, sodass andere Dienste auf dem Server weiter von den Anwendern verwendet werden können.

Schrittaufzeichnung – Fehler in Windows nachvollziehen und beheben

eintippen. Es öffnet sich die Oberfläche, mit der Sie die Aufzeichnung durchführen. Um einen Fehler aufzuzeichnen und weitergeben zu können, gehen Sie folgendermaßen vor:

  1. Tippen Sie psr auf der Startseite ein.
  2. Klicken Sie nach dem Start des Tools auf Aufzeichnungstarten.
  3. Gehen Sie exakt die Schritte in Windows oder dem jeweiligen Programm durch, die zum Fehler führen.
  4. Per Klick auf Kommentar hinzufügen können Sie eigene Hinweise einfügen, wenn der Fehler nicht schnell offensichtlich ist.
  5. Haben Sie den Fehler nachgestellt, klicken Sie auf Aufzeichnung beenden.
  6. Speichern Sie die Datei als ZIP-Archiv ab.
  7. Das Tool speichert die eigentliche Aufzeichnung als .mht-Datei, die Sie mit dem Internet Explorer öffnen können. Extrahieren Sie die .zip-Datei per Rechtsklick oder klicken Sie doppelt auf die .zip-Datei und dann auf die .mht-Datei. Sie sehen die Aufzeichnung des Problems als Dokument, das jeder nachvollziehen kann.

Alte Zöpfe ab

Experten hatten frühestens zum Jahresende oder gar zum 1. Quartal 2017 mit der neuen Version von VMwares Kern-Produkt gerechnet. Über die abgepasste strategische Ausrichtung des Produktes hatten wir bereits im Rahmen der VMworld berichtet. Nach der nun offiziell bestätigten Verfügbarkeit der neuen Version schälen sich weitere Details zu den Neuerungen heraus. 

Alles in allem bringt die neue Version viele Verbesserungen in den Bereichen Verfügbarkeit, Sicherheit, Management, Skalierbarkeit und beim Storage-Konzept.

Familien-Upgrade

Wie bei VMware üblich erfahren neben vSphere 6.5 auch die wichtigsten „Verwandten“ des Kernprodukts sowie eine Reihe von Komponenten wie vSAN, PowerCLI, Site Recovery Manager und vSphere Replication ein Upgrade, da alle auf vSphere aufsetzen auch wenn VMware die genannten Vertreter als eigene Produkte vertreibt.
Wie bei jeden Update der Hauptversion erhöhen sich mit vSphere 6.5 auch die jeweiligen Konfigurationsmaxima, wobei VMware hier gegenüber Hyper-V & Co traditionell ohnehin die Pace macht. Wie das im Einzelnen aussieht, verrät VMware in diesem PDF; exemplarisch hervorgehoben sei, dass pro VM nun bis zu 6 TB RAM und 128 vCPUs unterstützt werden.

Neuerungen HA, DRS und SPBM

Zu den spannendsten Neuerungen von vSphere selbst gehören die Verbesserungen und Neuerungen bei den Cluster-Funktionen, allen voran jene im Bereich High Availability (HA) und Distributed Ressource Scheduling (DRS), namentlich „Proactive HA“, „Predictive DRS“, Orchestrated VM Restart“ sowie die Integration von DRS mit Fault Tolerance.

Auch im Storage-Bereich gibt es einige Neuerungen. Neben der zeitgleichen Veröffentlichung von VSAN 6.5 hat VMware auch dem Storage-Subsystem im Kern-Produkt Verbesserungen angedeihen lassen. Als Beispiel sei das QoS-Features Storage I/O Control genannt. Dieses integriert sich in vSphere 6.5 mit VMwares Konzept von Policy-Based-Storage-Management (SPBM). Darin lassen sich in vSphere 6.5 nicht mehr nur „I/O-Fairness“-Policies berücksichtigen, sondern auch andere Storage-Capabilities wie Verschlüsselung, Caching oder Replikation.

Linux vCenter

Neuerungen und Verbesserungen gibt es auch beim vCenter, der zentralen Management-Komponente jeder vSphere-Umgebungen. Seit der Verison 5.5 gibt es eine Linux-basierte Appliance-Variante als Alternative zum Windows-vCenter, deren strategische Bedeutung VMware von Version zu Version aufwertet.

In vSphere 6.5 ist die strategische Favorisierung von Linux nicht mehr zu übersehen. Während das VCSA in Version 6.0 bereits funktional zum Windows-vCenter aufgeschlossen hatte (einschließlich Linked-Mode), zieht die Linux-Variante in vSphere 6.5 sogar an diesem vorbei. Die neue, mit vSphere 6.5 eingeführte vCenter-Hochverfügbarkeit ist nämlich nur mit der Linux-basierten VCSA zu haben.

Ferner ist der Update Manager jetzt vollständig auch in der Linux-Variante implementiert und erfordert ebenfalls keinen separaten Windows-Server nebst Windows-Datenbank mehr.

Aufräumen beim Client

Wie schon länger zu erwarten, ist der veraltete, native Windows-Client in vSphere 6.5 überhaupt nicht mehr enthalten und wird von einem HTML5-basierten Host-Client abgelöst. Ein HTML5-basierten Web-Client für das vCenter ist ebenfalls in Arbeit und soll mittelfristig den Flash-Client ablösen. Er liegt erstmals in Form einer Linux-basierten VA bei und kann optional bereits getestet werden, wenngleich der Funktionsumfang noch hinter dem Flash-Client zurück bleibt.

Der kleinste Baustein der Digitalisierung

Die Vorteile liegen für viele Unternehmen inzwischen auf der Hand: effizientere Abläufe, zentraler Zugriff auf Dokumente und Informationen sowie automatisierte Workflows führen zu einem effektiveren Arbeiten. Statt zu viel Zeit für Routineaufgaben aufzuwenden, können Mitarbeiter sich ihren wertschöpfenden Kernkompetenzen zuwenden. Über eine ausgefeilte Digitalisierungsstrategie verfügen jedoch die wenigsten Unternehmen. Vor allem Mittelständler stellen sich häufig die Frage: Wo und vor allem wie soll die Digitalisierung in meinem Unternehmen beginnen? Statt direkt umfassende Projekte anzugehen, lohnt es sich deswegen, den Blick zunächst auf den kleinsten Baustein der Unternehmensprozesse zu richten: das Dokument.

Die Digitalisierung der Arbeitswelt bringt viele Veränderungen mit sich: Kunden verlangen eine schnelle und konsistente Kommunikation über alle Kanäle hinweg, Mitarbeiter fordern flexible Arbeitsmodelle und die Unternehmensführung erwartet effiziente, kostensparende Prozesse. Wollen Unternehmen weiterhin wirtschaftlich und marktfähig agieren, führt für sie kaum ein Weg an der Digitalisierung vorbei. Vor allem Mittelständler verfolgen eine konsequente Digitalisierungsstrategie jedoch selten – um diese auszuarbeiten, fehlen sowohl die personellen Ressourcen als auch die fachliche Erfahrung. Daher lohnt es sich insbesondere für mittelständische Unternehmen, in kleinen Schritten vorzugehen. Abgrenzbare Bereiche, die vergleichsweise unkompliziert digitalisiert werden können und gleichzeitig einen spürbaren Nutzen davon tragen, sind die dokumentenverarbeitenden Abteilungen – von der Poststelle über die Vertragsverwaltung im Einkauf bis hin zur Personalabteilung. Akten und Papierstapel bestimmten hier noch den Arbeitsalltag. Die Administration dieser Papier-Dokumente ist besonders zeitraubend: Korrespondenzen müssen abgelegt, Kopien erstellt, Informationen weitergegeben werden. Die umständliche Suche und der komplizierte Austausch zwischen Abteilungen blockieren zentrale Ressourcen zusätzlich mit Routineaufgaben und erschweren die Arbeit unnötig. Prinzipiell lässt sich sagen: Je dokumentenbasierter die Arbeitsabläufe, umso größer ist das Optimierungspotenzial durch ein effizientes, digitales Enterprise Content Management-System (ECM).

Das ECM als Türöffner der Digitalisierung

Trotzdem fällt es vielen Abteilungen schwer, die gewohnten Aktenordner loszulassen – aus Angst, wichtige Informationen könnten dann verloren gehen. Dabei ist das Gegenteil der Fall: Ein ECM ermöglicht es, unstrukturierte Geschäftsinformationen in Form von Akten, Dokumenten und Mediadateien strukturiert zu verwalten. Dazu werden bestehende analoge Akten und Dokumente digitalisiert, mit Metadaten versehen und anschließend an zentraler Stelle gut auffindbar zur Verfügung gestellt. Zusatzfunktionen und definierte Workflows automatisieren und verschlanken zudem Routineprozesse und steigern die Effizienz von verwaltenden Abteilungen dadurch enorm. Über die digitale Verwaltung hinaus können Dokumente auch automatisch oder halbautomatisch direkt im ECM erstellt werden: Statt einen Vertrag in Word zu verfassen und diesen in das System zu laden, können sich Mitarbeiter diesen Umweg durch ein integriertes Dokumentenerstellungs-Tool sparen. Auch Aktenablagen und Archivierungen entfallen gänzlich. Mitarbeiter pflegen Daten stattdessen einmalig und an einem zentralen Punkt ein. Dokumente sind mit einer automatisierten Texterkennung auch bedeutend leichter durchsuchbar. Zudem bietet das richtige ECM einen besseren Datenschutz als ein abschließbarer Aktenschrank, da Zugriffsberechtigungen eindeutig geregelt sind: Während Mitarbeiter der HR-Abteilung beispielsweise alle Personal-Akten einsehen können, erhalten Führungskräfte lediglich Zugriff auf bestimmte Aktenbereiche ihrer Mitarbeiter. Die digitalisierte Dokumentenverwaltung fördert so in einem erheblichen Maße die Mobilität von Mitarbeitern und die in der Arbeitswelt immer häufiger werdende asynchrone Kommunikation.

Haben die Abteilungen diese Vorteile erkannt – und gerade für verwaltende Abteilungen liegen sie auf der Hand –, tragen sie Veränderungen meist aufgeschlossen mit und haben eine große Strahlkraft im Unternehmen. Sie können dadurch Vorurteile gezielt abbauen und mit dem Pilotprojekt beispielhaft den Weg in die Digitalisierung ebnen. Folgende drei Bereiche eignen sich für diesen Einstieg erfahrungsgemäß am besten:

1. Bessere Vertragsqualität durch digitales Vertragsmanagement
Viele Unternehmen verwalten ihre Verträge noch immer in analogen Aktenordnern und halten die Stammdaten in SAP – seien es Kundenverträge oder Abschlüsse mit Zulieferern und externen Dienstleistern. Da jedoch Fristen zu beachten sind, um rechtzeitig zu kündigen, zu verlängern oder Konditionen neu auszuhandeln, ist es bei jahrelang laufenden Verträgen für die Sachbearbeiter schwierig, den Überblick zu behalten. Werden diese Termine nicht mit größter Sorgfalt wahrgenommen und folgen keine entsprechenden Handlungsschritte, kann dies zu Verzugskosten und ungewollten Verlängerungen führen. Mit einem digitalen Vertragsmanagement-System können Mitarbeiter Verträge hingegen langfristig prüfen, auswerten, sicher ablegen, erstellen und beenden. Hierfür wird der Vertrag in der Poststelle gescannt, indiziert und dem verantwortlichen Mitarbeiter eindeutig zugeteilt. Eine Schnittstelle zu SAP ermöglicht den Zugriff auf alle notwendigen Stammdaten. Über den aktuellen Dokumentenstatus lässt sich einsehen, ob der Vertrag in Bearbeitung ist, bald abläuft oder bereits gekündigt wurde. Das System stellt zusätzlich Workflows, Fristenerinnerungen und festgelegte Zuständigkeiten zur Verfügung, die die Administration erleichtern und sicherer machen. So können sich die betroffenen Mitarbeiter wieder auf ihre Kernaufgaben konzentrieren: bessere Vertragskonditionen zu verhandeln und diese in einem schlanken System umzusetzen.

2. Transparenter, digitaler Postkorb
Die Notwendigkeit und den Nutzen eines digitalen Posteingangs haben viele Unternehmen bereits erkannt: Eine aktuelle Bitkom Research-Studie zeigt, dass fast jedes zweite deutsche Unternehmen Papierpost gänzlich abschaffen will. Um der steigenden Anzahl an E-Mails gerecht zu werden, hat bereits ein Viertel der mittelständischen Unternehmen in Deutschland seinen Posteingang digitalisiert. Die eingehende Post wird dafür bei Erhalt gescannt. Mithilfe einer automatisierten OCR-Texterkennung wird sie außerdem festgelegten Themen zugeordnet, mit Meta-Daten versehen und schließlich in einem digitalen Postkorb abgelegt. Von dort aus haben Mitarbeiter die Möglichkeit, die Dokumente zu ziehen und weiterzuverarbeiten. Auch E-Mails und Faxe lassen sich in einem solchen System pflegen und verarbeiten. Durch eine revisionssichere Protokollierung aller Bearbeitungsschritte erhöhen sich die Transparenz und die Auskunftsfähigkeit der Sachbearbeiter. Bearbeitungszeiten werden deutlich reduziert und unnötige Kosten vermieden. Ein solches zentrales „Postbuch“ unterstützt damit letztlich auch die termingerechte Abarbeitung der eingehenden Unterlagen und Anfragen.

3. Personalarbeit verschlanken mit elektronischen Personalakten
Zwar gibt es heute bereits viele Unternehmen, die ihre Personaldaten über das SAP-Modul HCM managen, erfassen und auch archivieren. Jedoch fehlt es an wichtigen Funktionen, um die Personalabteilung sinnvoll zu digitalisieren sowie den Aktenbestand zu vereinheitlichen und zu konzentrieren. Dazu sind beispielsweise eine aktenübergreifende Volltextsuche in digitalen Akten und die Möglichkeit, Termine und Wiedervorlagen anzulegen, erforderlich. Dies lässt sich mit einer elektronischen Personalakten-Lösung umsetzen, die über eine Schnittstelle mit einem vorhandenen SAP-System verknüpft wird. Nur so sind alle Informationen zu einem Mitarbeiter zentral verfügbar und können auch entsprechend festgelegter Lese- oder Schreib-Berechtigungen mit Filialleitern und Führungskräften geteilt oder Mitarbeitern zur Einsicht bereitgestellt werden. Darüber hinaus lassen sich Dokumente wie Arbeitsbescheinigungen oder Anstellungsverträge automatisiert im ECM erstellen und speichern, der Umweg über ein Textverarbeitungsprogramm entfällt ebenfalls. So lässt sich die Personalarbeit übersichtlich und standortunabhängig organisieren. Um auch solche digitalen Dokumente sicher zu speichern, die keinem Mitarbeiter zugeordnet werden können oder dürfen, lohnt sich außerdem eine zusätzliche Arbeitgeberakte.

Neben den hier genannten Beispielen für erste Digitalisierungsprojekte bieten sich auch weitere Unternehmensbereiche für den Einstieg in die digitale Transformation an, wie etwa die Buchhaltung oder auch die Einführung (abteilungs-)übergreifender Collaboration-Tools. Gerade Mittelständler sollten sich dabei immer die Frage stellen: Welcher Bereich profitiert – gemessen an den notwendigen Investitionen – am meisten von digitalisierten Prozessen und wie gut lassen sich Folgeprojekte daran anknüpfen?

Detaillierte Anforderungen formulieren

Möchte ein Unternehmen nun den Schritt in Richtung digitaler Transformation wagen und seine Dokumente fortan digital verwalten, gibt es einiges zu beachten. Sei es ein Vertragsmanagement oder eine digitale Personalakte – alles beginnt mit einer gründlichen Bestandsanalyse. Dabei sollte man sich die Fragen stellen: Mit welchen Dokumenten arbeiten wir regelmäßig? Was bereitet uns dabei den größten Aufwand? Welche Entlastungen erwarten wir von einer digitalen Lösung? Die bestehenden Geschäftsprozesse sind der wichtigste Indikator dafür, über welche Funktionen die zukünftige Software-Lösung verfügen muss. Ist beispielsweise ein komplexer Freigabeprozess vonnöten, sollte das System diesen abbilden können. Erstellen Mitarbeiter häufig Dokumente zu bestehenden Akten, beispielsweise Kündigungsschreiben zu Verträgen, so macht eine integrierte Dokumentenerstellung Sinn. Diese Schwerpunkte und Prozesse lassen sich mit einem internen Anforderungs-Workshop leicht offenlegen, in welchem die zukünftigen Anwender die genauen Arbeitsschritte der relevanten Vorgänge darstellen und protokollieren.

Alle Stakeholder in einem Boot

Es ist zwingend notwendig, alle Stakeholder so früh wie irgendwie möglich in das Projekt zu involvieren. Neben der IT, den späteren Anwendern und der Geschäftsführung gilt das vor allem für den Datenschutzbeauftragten und den Betriebsrat. Häufig haben diese zusätzliche Anforderungen an die Software: Beispielsweise kann der Datenschutzbeauftragte eine Verschlüsselung oder ein höheres Authentifizierungslevel für notwendig erachten. Die späteren Anwender hingegen haben den größtmöglichen Einblick in die notwendigen Prozesse und Abläufe. Daher können sie am besten einschätzen, welche Funktionen nützlich sind, wie sich Prozesse digital abbilden lassen und wo Schnittstellen zu existierenden Systemen sinnvoll sind. Mitarbeiter früh in die Entscheidungsprozesse einzubinden, steigert zudem auch deren Identifikation mit dem Projekt und ist daher ein wichtiger Erfolgsgarant.

Die wichtigste Entscheidung bei der technischen Umsetzung: Cloud vs. On-Premise

Hat sich ein Unternehmen schließlich für die Einführung eines bestimmten digitalen Dokumentenmanagement-Systems entschieden, so steht es häufig vor der Entscheidung, ob es diesen Dienst online aus der Cloud nutzen oder die Lösung auf den eigenen Servern im Haus installieren will. Während beide Modelle ihre Vor- und Nachteile haben, spricht vor allem für Digitalisierungs-Anfänger vieles für die Cloud. Sie ermöglicht einen einfacheren, kostengünstigeren Einstieg: Die IT-Abteilung muss kein neues System auf den Servern implementieren, sondern die Lösung steht schnell und unkompliziert über eine Internetverbindung bereit. Zudem kann die Lösung auch außerhalb des Büros jederzeit genutzt werden und kommt so flexiblen Arbeitsmodellen entgegen. Es hat sich auch gezeigt, dass sich mehrere Cloud-Anwendungen leichter zu neuen Lösungen verknüpfen lassen als On-Premise-Anwendungen. Beispielsweise kann aus einer Lösung zur Dokumentenerkennung und einem Workflowsystem kosteneffizient ein Rechnungseingangsworkflow kreiert werden – wovon vor allem mittelständische Unternehmen profitieren, die nicht in eine gänzlich neue Lösung investieren wollen. Bei der Auswahl einer entsprechenden Lösung sollten Unternehmen jedoch stets auf die notwendige Datensicherheit achten und prüfen, dass der Cloud-Provider den strengen deutschen Datenschutzrichtlinien verpflichtet ist.

Papierloses Büro dank ECM?

Im Anschluss geht es an die Digitalisierung des existierenden Aktenbestands. Um eine vollständige Dokumentendigitalisierung zu erreichen, ist es ratsam, sämtliche betroffenen Dokumente im neuen System verfügbar zu machen. Dabei gilt jedoch: Auch wenn das papierlose Büro immer wieder beschworen wird, dauert es wohl noch lange, bis es sich tatsächlich durchsetzt. Die Rechtssicherheit von digitalen Dokumenten ist bisher noch nicht befriedigend geklärt, was heutzutage teils noch eine doppelte Aktenführung verlangt. Um vor Gericht notfalls die entsprechenden Beweise vorlegen zu können, sollten die wichtigsten Dokumente zusätzlich auch in Papierform aufbewahrt werden. Dabei sollte jedes Unternehmen die Entscheidung selbst treffen, welche Dokumente es weiterhin lagern möchte. Es muss abwägen zwischen den aus der Dokumentenlagerung entstehenden Kosten und dem Risiko, im Falle eines Gerichtsprozesses nicht die notwendige Beweislast vorlegen zu können. Daher werden beispielsweise im Personalbereich nur ausgewählte Dokumente, wie der Arbeitsvertrag, in Papierform aufbewahrt. Geschäftsverträge hingegen werden in der Regel immer eingelagert. In besonders kritischen Fällen sollte man sich dazu von einem Anwalt beraten lassen. Da der Gesetzgeber sich der Frage rund um die Beweiskraft digitaler Dokumente aber inzwischen angenommen hat, ist zu hoffen, dass sich das Verständnis dessen in naher Zukunft ändern wird. Beispielsweise gibt es im Steuerrecht inzwischen Richtlinien zur revisionssicheren elektronischen Archivierung von Dokumenten. Dass sich dies auch in anderen Bereich durchsetz, ist anzunehmen.

Die Digitalisierung des Aktenbestands

Nicht zuletzt müssen die Dokumente selbst in eine digitale Form gebracht werden. Dies bringt einige Herausforderungen mit sich. Gerade die personenbezogenen Daten in Personalakten unterliegen einem rechtlichen Schutz, sodass nicht jeder diese einsehen darf. Deswegen bietet es sich an, dafür auf einen professionellen, entsprechend zertifizierten Dienstleister zurückzugreifen. Dieser scannt nicht nur die Verträge, sondern versieht sie auch mit den entsprechenden Meta-Daten wie Ansprechpartner, Datum, Verschlagwortung und stellt diese Daten aufbereitet zur Importierung in dem neuen System bereit. Zudem kann er – wenn gewünscht – die Compliance-konforme Vernichtung der Dokumente veranlassen, die nicht länger in Papierform benötigt werden.

Um auch die Dokumente im laufenden Tagesgeschäft vollständig zu digitalisieren, bietet sich ein digitaler Posteingang an. Eingehende Briefe in Papierform werden dort gescannt, automatisch oder manuell klassifiziert und die analoge Version entweder vernichtet oder eingelagert. Ist dies nicht möglich, so übernehmen meist die jeweiligen Fachabteilungen diesen Prozess und fügen das digitale Dokument nach Bearbeitung des Vorgangs ins System ein.

Die Strahlkraft eines funktionierenden digitalen Dokumentenmanagement-Systems ist nicht zu unterschätzen. Für viele Unternehmen ist es daher der erste Schritt auf dem Weg in die digitale Transformation. Aufgrund der vergleichsweise unkomplizierten Umsetzung und der maßgeblichen Effizienzgewinne entwickeln diese Projekte eine große Zugkraft, sodass Unternehmen häufig und schnell andere Lösungen folgen lassen. Einem digitalisierten Unternehmen steht dann nichts mehr im Wege.

Beleuchtung, die Basis der vernetzten Welt

Wäre es nicht fantastisch, wenn wir alle Arten von Geräten, mit denen wir täglich zu tun haben, wie z.B. Heizungssysteme, Autos, Klimaanlagen, Haushaltsgeräte, Leuchten, Produktionsmaschinen usw. miteinander vernetzen könnten und diese Geräte dann auch automatisch miteinander kommunizieren würden? Das ist kein Zukunftstraum, sondern zum Teil schon Realität. Aber was sind die Vorteile des sogenannten Internet der Dinge (Internet of Things, kurz IoT) für Architekten, Gebäudeinhaber/-betreiber und was hat die Beleuchtung mit dem IoT zu tun? Die Industrie für professionelles Gebäudemanagement befindet sich momentan in einem Veränderungsprozess. Beleuchtungs-, Heizungs-, Klima- und andere Gebäudesysteme die bisher zu einem proprietären Netzwerk gehörten, könnten nun durch ein einheitliches Internet basiertes Netzwerksystem verbunden werden. Dadurch werden auch Leuchten zusammen mit ihren Sensoren und Aktoren Teil des IoT Ecosystems. Durch den Abbau von Kommunikationsbarrieren zwischen den Gewerken eines Gebäudes können Kosten gesenkt und Services für neue Geschäftsmodelle durch gemeinsame Datensammlung und Nutzung einfach realisiert werden. Offene internetbasierte Kommunikation ermöglicht zudem eine einfache und zukunftssichere Skalierung.

Bis 2020 werden voraussichtlich 50 Milliarden Geräte weltweit vernetzt sein. All diese Low-Power-Geräte werden zur gleichen Zeit Informationen in einer hohen Übertragungsrate in Vernetzungssysteme senden. Das stellt hohe Ansprüche an die Netzwerkinfrastruktur jedoch auch gleichzeitig eine Chance für die Lichtindustrie dar. Licht ist überall und wird in Zukunft vernetzt sein. Wenn es gelingt, gemeinsame offene Standards zu implementieren und vernetzte Lichtsysteme so zu konstruieren, dass sie Teil dieser Low-Power-Netzwerke werden, dann kann Licht als allgegenwärtige Konstante im IoT die zentrale Rolle der Netzinfrastruktur ermöglichen. Als Netzwerkinfrastruktur bieten sich drahtlose Low-Power-Netzwerke an, die eine einfache Installation von Lichtsteuerung ohne Verkabelungsaufwand ermöglichen und gleichzeitig Zugang für andere Teilnehmer des IoT bieten können.

Einkaufen im Zeitalter der Vernetzung

In der Welt des Handels könnten neue Navigationssysteme, die von der Beleuchtungs-Infrastruktur bereitgestellt werden, unser Einkaufsverhalten völlig verändern. Stellen Sie sich vor, Sie suchen nach einem bestimmten Produkt in einem großen Geschäft. Ihr Smartphone führt Sie schnell und zielsicher durch den Markt. Auf dem Weg zum ersehnten Produkt erhalten Sie über Ihr Smartphone aktuelle Angebote, die Sie interessieren könnten. Beim Produkt angekommen, haben Sie noch eine Frage dazu und halten Ausschau nach einem Verkäufer. Anstatt auf die Suche zu gehen, können Sie mittels einer App auf Ihrem Smartphone nach einem Verkäufer verlangen. Der Verkäufer würde Sie durch die mit dem Lichtsystem vernetzte Tracking Software sofort finden und Ihre Fragen beantworten.

Hier ergeben sich natürlich unendlich viele Möglichkeiten, speziell auch in Bezug auf das Kaufverhalten der Kunden. Ein Ladenbesitzer kann gezielt Waren und Werbung positionieren, Sonderangebote oder verwandte Produkte anbieten sowie detaillierte Informationen über die Produkte zur Verfügung stellen. Im Bereich Shop/Retail profitiert der Betreiber eines Geschäfts besonders von Informationen, die ihm zeigen, welche Waren sich zu welchem Zeitpunkt und an welchem Ladenplatz am besten verkaufen lassen. Des Weiteren kann der Logistikprozess optimiert werden, sodass sich immer genügend Waren in den Regalen befinden. Dies sind nur einige Beispiele für die Möglichkeiten, die IoT dem Handel eröffnet. Die Integration eines solchen Navigationssystems in ein Lichtsystem ist die ideale Lösung und nutzt alle Vorteile eines vernetzen allgegenwärtigen Systems.

Intelligentes Gebäudemanagement

Ein intelligent vernetztes Lichtsystem kann auch für eine dynamische Veränderung in Gebäuden sorgen. Durch die Vernetzung von Informationen aus Gebäudesensoren wie zum Beispiel Bewegung, Temperatur, Beleuchtung oder Luftfeuchtigkeit kann für die Bewohner oder Gebäudenutzer eine bessere Wohlfühlatmosphäre im Gebäude geschaffen werden. Zudem kann eine maximale Energieeffizienz erzielt werden, was wiederum zu einer Kostenersparnis führt und die Umwelt schont.

Über Präsenzsensoren die Teil des vernetzten Lichtsystems sind, können Daten gesammelt werden, die ein effizienteres Raummanagement (engl. Space Management) innerhalb eines Gebäudes ermöglichen. Facility Manager müssen somit nicht mehr persönlich überprüfen, wie die Räumlichkeiten genutzt werden und sparen dadurch enormen Aufwand und Zeit. Präsenzsensoren für das Management der Besprechungsräume können weitere Vorteile bringen: Mittels einer Verbindung zu einem Raummanagementtool, geben die Sensoren Informationen über die Nutzung der Räume. Findet eine Besprechung beispielsweise kurzfristig nicht statt, kann der Raum wieder freigegeben werden. Werden Besprechungsräume wenig oder gar nicht genutzt, können sie zu Büros umgewandelt oder anderweitig vermietet werden.

Standardisierte Kommunikation

IoT-Geräte sind über drahtlose und drahtgebundene Protokolle wie Ethernet vernetzt, während Computer, Tablets und Smartphones vorwiegend Wi-Fi Standards verwenden. Aufgrund von Standby-Leistungsanforderungen und Größenbeschränkungen, werden andere wesentlich energieeffizientere Übertragungsprotokolle für drahtlose IoT Geräte verwendet. Generell muss sichergestellt werden, dass alle Geräte unabhängig vom Übertragungsweg und Protokoll auf der gleichen Ebene miteinander kommunizieren, um eine industrieübergreifende Kommunikation zu ermöglichen. Dies kann durch die Schaffung offener Standards erreicht werden. Die größte Herausforderung besteht jedoch darin, dass Installation und Kommissionierung solcher Netze sicher und reibungslos funktionieren.

Tridonic setzt sich stetig dafür ein weltweite Standards zu definieren und entwickelt Lösungen damit vernetzte Beleuchtungslösungen und Lösungen die über Beleuchtung hinaus gehen zur Realität werden. Dafür ist Tridonic in ständigem Austausch mit Leuchtenherstellern, Architekten, Lichtplanern, Elektroplanern, IT-Managern sowie Installateuren und hat seine Entwicklungsaktivitäten intensiviert und zusätzlich in Kalifornien ein IoT-Softwarezentrum gegründet.

Fedora 25

Wie schon bei RHEL enthält das webbasierte Management-Modul Cockpit der Server-Version einen neuen SE-Linux Troubleshooter. Das Modul soll bei Problemen mit den meist umfangreichen SE-Linux Informationen helfen und Lösungswege aufzeigen. Ebenfalls neu in Cockpit: im Dashboard werden die SSH-Keys angezeigt, sodass Admins immer die Übersicht behalten, welche SSH-Keys sie hinzugefügt haben.

Ferner ersetzt in  Fedora 25 „UDisks2“ durch „Storaged“, weil dadurch ein einheitliches D-Bus-API zur Verfügung steht. Die Version 1.12 von Docker erlaubt in Fedora 25 nun auch Volume- und Storage-Management für die Container.

Desktop-Benefits

Für die Desktop-Variante ist erwähnenswert, dass nun Gnome 3.22 zum Einsatz kommt. Er verbessert unter anderem den Umgang mit komprimierten Dateien, bringt eine überarbeitete Startseite der Software-App und ermöglicht ein einfacheres Aufrufen von Kategorien. Ferner erlaubt der Dateimanager jetzt, mehrere Dateien auf einmal umzubenennen.

Darüber hinaus vereinfacht es der Fedora Media Writer, (Fedora-)Images z. B. auf USB-Sticks zu schreiben. Außerdem haben die Entwickler den Flatpak-Support verbessert, ein neues Paketformat für Linux-Anwendungen, das aber bisher nur für Gnome-Anwendungen funktioniert.

Das Identity-Management-Framework Free IPA wurde auf Version 4.4 angehoben und zeigt unter anderem in größeren Umgebungen die Topologien an. Die Entwickler haben aber auch die Active-Directory-Integration verbessert. So ist es jetzt möglich, sich mit Client-Zertifkaten an Web-UIs anzumelden.

Im Multimedia-Bereich ist neu, dass sich Videos mit variabler Geschwindigkeit abspielen lassen. Außerdem lassen sich mit Fedora 25 nun auch MP3-Dateien von Haus aus abspielen, einen Encoder gibt es aber nach wie vor nicht.

Neuerungen für Entwickler

Für Programmierer ist neben dem Unicode-9-Support erwähnenswert, dass Fedora 25 nun Ruby on Rails 5.0, PHP 7, Python 3.5 und 2.7 sowie Perl 5.24 unterstützt. Darüber hinaus ist auch der Haskell-Compiler GHC in Version 7.10 dabei. Ferner unterstützt Fedora 25 Node.js 6.x, einen Rust-Compiler, Go 1.7 und Erlang 19.

Weitere Neuerungen lassen sich dem Fedora Magazin entnehmen. Der Download kann über die Projektseite erfolgen.

Wie die digitale Transformation ganze Geschäftsmodelle ändert

Die digitale Transformation verändert neben ganzen Prozessketten und bereichsspezifischen Fachkenntnissen merklich auch Geschäftsmodelle. Denn Konsumenten und Kunden wollen mehr: mehr Angebot, mehr Erlebnis und einen individuellen Zuschnitt der Produkte oder Services.
Als Beispiel möchte ich an dieser Stelle Daimler und BMW nennen. Beide Größen im Automobilbereich durchleben derzeit den gleichen schleichenden Prozess: Weg von reinen Fahrzeugherstellern und hin zu Mobilitätsdienstleistern.

Das Mantra der Mobilität

Warum? Ganz einfach: Das Geschäft mit der Mobilität boomt. Uber, der amerikanische Online-Vermittlungsdienst für Fahrdienstleistungen, gilt bereits heute als ernsthafter Konkurrent für die bayrischen Motorenwerke und wird mit einem aktuellen Wert von über 60 Mrd. Euro bereits jetzt schon an der Börse höher bewertet als BMW.

Doch wie schaffen traditionelle Unternehmen den Sprung ins digitale Zeitalter? Die zur Bearbeitung der neuen Themen notwendigen Kompetenzen können nur wenige der Unternehmen intern aufbauen; Betriebe greifen somit, neben einer gezielten Aufstockung des eigenen Personals, auch auf flexible Beschäftigungsverhältnisse zurück. Zudem bieten Ideenwettbewerbe in der Hochschulszene oder Kooperationen mit Start-ups eine willkommene Möglichkeit, neue Dynamiken durch Innovationen entstehen lassen. An der Eliteuniversität Stanford im Silicon Valley gibt es keinen Studierenden, der nicht in irgendeiner Art und Weise an einem Start-up beteiligt ist. Denn die jungen Leute sind vor allem eines: wissbegierig, ehrgeizig und innovativ.

Fit für die digitale Transformation

Wie machen sich jedoch Start-ups oder der Mittelstand fit für die digitale Transformation? Laut  KFW befinden sich die Mittelständler noch in einer früheren Phase der Digitalisierung. Zwar haben bereits ca. 70% der Unternehmen kleinere Digitalisierungsprojekte umgesetzt und in neue Technologien oder Verbesserung der IT-Kompetenz investiert, aber die einzelnen Investitionen hatten meist nur einen überschaubaren Umfang.

Unternehmen mit unter zehn Beschäftigten setzten für digitale Themen weniger als 10.000 Euro pro Jahr ein – und planen für die nächsten Jahre keine höheren Ausgaben. Knapp die Hälfte der großen Mittelständler (150+ Beschäftigte) geben dafür über 100.000 Euro im Jahr aus.
Doch das reicht nicht. Neben der Rekrutierung entsprechender Fachkräfte sind auch die Führungskräfte als Vorbilder und Coaches gefragt. Zudem sollten speziell kleinere Unternehmen strategische Partnerschaften mit externen Dienstleistern etablieren. Dies ist vor allem wichtig, dass bei Bedarf die benötigten Kompetenzen schnell bereitstehen sowie die Kosten für Sourcing, Einarbeitung und Abrechnung externer Fachkräfte begrenzt werden.

Bei der Neuausrichtung der Geschäftsmodelle geht es folglich um drei entscheidende Punkte: die Produkte oder Services zu digitalisieren, die Schnittstelle zu den Kunden entsprechend aufzubauen und die damit verbundenen Backend-Prozesse Inhouse entsprechend zu modernisieren.

Sie wollen mehr über einzelne Branchen im digitalen Wandel erfahren? Dann besuchen Sie www.hays.de/studien.

Security: Tipps von der Front

Julian Totzek-Hallhuber, Solutions Architect beim Spezialisten für Anwendungssicherheit Veracode, hat sich diesen Fragen angenommen und gibt Tipps von der Front:

  1.  Die eigenen Anwendungen kennen

Wenn Unternehmen ihre Sicherheitslücken schließen wollen, müssen sie zuerst ihre Anwendungen selbst unter die Lupe nehmen. Umso mehr Anwendungen in ein Unternehmen integriert werden, desto schwieriger wird es, den Überblick über potenzielle Schwachpunkte zu behalten. Die Unwissenheit wird größer als das Wissen – so kommt es zu Problemen. Viele Programme zur Anwendungssicherheit beginnen damit, dass sie sich auf webbasierte Applikationen oder Applikationen, die kritische Daten erfassen, konzentrieren. Dabei beachten Sie nicht, dass Vorgängerversionen, Marketing-Webseiten, Drittanbieter-Anwendungen, Open-Source-Apps oder Apps für interne Systeme einen großen Teil des Risikos ausmachen. Nur wem seine Anwendungslandschaft bekannt ist, kann auch erkennen, wo Sicherheitslücken entstehen können.

  1. Aufbau eines qualifizierten Teams

Wer will, dass seine Anwendungen sicher sind, darf sich nicht von der Außenwelt abkapseln. Die Entwickler müssen die Möglichkeit haben, sich mit anderen auszutauschen. Immer mehr Sicherheitsexperten arbeiten daran, darauf aufmerksam zu machen, wie sicherer Code auszusehen hat. Das ist besonders wichtig, weil vor allem junge Entwickler, die frisch von der Universität kommen, bis dato vermutlich keine eigenen Erfahrungen mit Cyber-Attacken gemacht haben. Indem man mehrmals im Jahr ein Training anbietet, können die Teams bald nicht nur schneller Bedrohungen erkennen, sondern wissen auch viel besser, wie sie gegen sie vorgehen können. Egal ob durch Schulungen, Konferenzen, Seminare, Messebesuche oder eLearning: Unternehmen profitieren immer davon, wenn sie ihrer IT-Abteilung helfen, sich weiterzubilden und sich mit anderen auszutauschen.  

  1. Realistische Richtlinien setzen

Um Sicherheit zu gewährleisten, müssen Sicherheitstests so einfach wie möglich sein. Unternehmen, die zu strenge Sicherheitsrichtlinie haben, stellen sich selbst ein Bein. Die Regeln sollten immer realistisch sein. Nicht jede Sicherheitslücke ist gleich ein großes Risiko und muss sofort geschlossen werden. Richtlinien für die Sicherheit von Anwendungen zu erstellen, ist ein fortlaufender Prozess. Man beginnt mit einer Rohfassung und erweitert diese dann, wenn die Entwickler im Unternehmen vor neuen Herausforderungen stehen. Mit der Zeit werden die Regeln immer komplexer. Dabei ist es wichtig, dass nicht nur große Sicherheitslücken, sondern nach und nach auch mittlere Probleme bekämpft werden und Scans mit höherer Frequenz stattfinden. Die Einführung neuer Regeln führt oft dazu, dass interne Programme zur Anwendungssicherheit langsamer laufen. Deshalb sollte man am Anfang klein beginnen und sich dann in die Details einarbeiten.

  1. Frühzeitig beginnen

Viele Hersteller warten so lange wie möglich mit einem Sicherheitstest für ihre Anwendung. Das kann aber am Ende mehr Arbeit bedeuten. Wer bereits im Entwicklungsprozess verschiedene Sicherheitstests integriert, hat es nachher um einiges leichter. Unternehmen gewährleisten so, dass sie sicheren Code verwenden, ohne dass sie ihre Produktion lange aufhalten müssen. Das IT-Team kann Sicherheitslücken sofort schließen, wenn sie gefunden werden. Viele Software-Hersteller führen zum Beispiel immer automatisch einen Sicherheitstest durch, sobald eine bestimmte Phase der Entwicklung abgeschlossen ist. Auch wenn die Erstellung von Code von Unternehmen zu Unternehmen anders aussieht, gibt es dennoch in jedem Produktionsschritt die Möglichkeit, einen Sicherheitstest einzubauen.

Fazit

Jedes Unternehmen muss letztendlich anhand seiner Ansprüche selbst entscheiden, welches Anwendungssicherheits-Programm das Richtige ist. Beachtet man allerdings die oben genannten Tipps, baut man eine sehr gute Basis – ein Schritt in die richtige Richtung. Der aktuelle Bericht zum Status der Softwaresicherheit von Veracode zeigt, dass Unternehmen, die Best Practices einsetzen und Programme mit konsequenten Strategien und Praktiken für eine sichere Entwicklung implementieren, Schwachstellen schneller und effektiver beseitigen können. Die Studie zeigt, dass das obere Quartal der Unternehmen fast 70 Prozent mehr Schwachstellen behebt als das durchschnittliche Unternehmen.

Indoor Positionsbestimmung: Funktionsweise und technische Informationen

Spezielle Techniken zur Indoor Positionsbestimmung braucht man überall dort, wo GPS nicht funktioniert, also vor allem in Gebäuden. Die am weitesten verbreiteten Methoden sind WLAN und Bluetooth Beacons. Zusätzlich wird meist auf die verschiedenen Sensoren des Smartphones (u.a. Barometer, Beschleunigungssensor, Gyroskop, Magnetometer) zurückgegriffen, die das Ergebnis noch genauer machen.

Neben den genannten Methoden gibt es auch seltener verwendete Technologien wie die Positionsbestimmung durch Nutzung des des Erdmagnetfeldes, mittels Visible Light Communication (VLC), QR-Codes, Augmented Reality mit Bilderkennung oder akustischer Signale. Für sehr präzises Asset-Tracking im Industrieumfeld ist Ultra-wideband eine interessante Möglichkeit.

Ein wichtiger Unterschied: Clientbasierte und serverbasierte Ortung

Es gibt grundsätzlich zwei verschiedene Techniken zur Indoor Positionsbestimmung.

Clientseitige und serverseitige Indoor Positionsbestimmung im Vergleich
insoft GmbH

Endgerätbasierte (clientseitige) Positionierung wird meist mit Beacons oder WLAN Accesspoints umgesetzt. Diese senden regelmäßig Signale. Das Endgerät analysiert die Signalcharakteristik und gleicht sie mit einer Referenzdatenbank ab. Hierzu ist eine App notwendig, an die auch Nachrichten gesendet werden können (Rückkanal). Die Position wird direkt auf dem Endgerät bestimmt, was dem Nutzer ein Höchstmaß an Datenschutz bietet. Diese Methode kommt üblicherweise bei der klassischen Indoor Navigation mittels Smartphone App zum Einsatz.

 

Infrastrukturbasierte (serverseitige) Positionierung kehrt das oben beschriebene Verfahren um. Ein WiFi-fähiges Endgerät/Tag oder ein Bluetooth Beacon sendet Signale aus (MAC-Adresse), die von einer spezifischen Hardware detektiert und an einen Server weitergeleitet werden. Im Backend werden die ermittelten Messdaten abgeglichen, interpoliert und in weiteren Systemen dargestellt. Dieses Verfahren hat den Vorteil, dass auch Geräte ohne App erfasst und analysiert werden können. Mit serverseitigen Installationen sind Asset-Tracking, Laufweganalysen und Sicherheitslösungen umsetzbar.

Mehr Informationen zu clientbasierter und serverbasierter Indoor Positionsbestimmung.

Clientseitige Indoor Positionsbestimmung mit Bluetooth und WLAN: Vor- und Nachteile   

insoft GmbH
insoft GmbH

Die Bluetooth-Technologie ist an sich nicht neu. Doch erst in letzter Zeit ergeben sich mit der energiesparenden Bluetooth-Variante BLE (Bluetooth Low Energy) erweiterte Einsatzmöglichkeiten. Bluetooth Beacons sind relativ günstig (ca. drei bis 30 Euro), können bis zu zwei Jahre mit einer Knopfzelle oder über zehn Jahre mit größeren Batterien betrieben werden und haben eine Reichweite von maximal 30 Metern. Die Genauigkeit liegt bei einem bis drei Metern. Zur Positionsbestimmung sind mehrere Beacons notwendig, aus deren Signalen mittels Fingerprinting-Verfahren der Standort berechnet wird. Neben dem günstigen Anschaffungspreis und der einfachen Installation ist der große Vorteil von Beacons, dass sie mit den mobilen Betriebssystemen Android UND iOS funktionieren. Das ist bei WLAN nicht der Fall.

insoft GmbH
insoft GmbH

WLAN-Accesspoints befinden sich bereits in den meisten Gebäuden, zum Beispiel in Form von Kunden-Hotspots oder Kassensystemen. Der User muss sich nicht mit dem WLAN verbinden, eingeschaltetes WLAN genügt. Deshalb ist es verlockend, WiFi auch gleich für die Indoor-Positionsbestimmung zu nutzen.

iPhones mit dem Betriebssystem iOS ab Version 4.3 unterstützen jedoch die clientseitige Ortung via WLAN nicht. Apple setzt hier exklusiv auf die iBeacon-Technologie. Das heißt, dass bei einem clientbasierten Indoornavigations-Projekt, das ausschließlich mit WLAN arbeitet, alle Apple-Devices ausgeschlossen wären. Weitere Nachteile von WLAN sind relativ hohe Latenzzeiten und eine im Vergleich zu Beacons ungenauere Ortung (Genauigkeit: 10-15 Meter).

Serverseitige Indoor Positionsbestimmung

Mit spezieller Hardware (etwa Ultra-wideband) sind weitere interessante Anwendungsfälle umsetzbar. Zum Beispiel kann ein Krankenhaus jederzeit den Aufenthaltsort von teurer Medizintechnik feststellen, ein Flughafen die Besucherströme auf seinem Gelände messen oder der Werkschutz einer großen Industrieanlage bei einem Notfall leichter alle Mitarbeiter finden und evakuieren. Alle diese Anwendungen funktionieren serverbasiert, es wird also keine App benötigt.

Individuelle Lösungen sind gefragt

Die technischen Möglichkeiten, eine Indoor-Positionsbestimmung zu realisieren, sind vielfältig. Welche Technologie zum Einsatz kommt, hängt ganz vom Einsatzzweck, den Gegebenheiten vor Ort und den Wünschen des Kunden ab. Wer sich einen groben Überblick verschaffen möchte, kann sich durch den „Indoor Wegweiser“ klicken. Hier werden Schritt für Schritt die Anforderungen an das Projekt abgefragt und eine Lösung vorgeschlagen.

Das Internet der Dinge fördert das Zusammenwachsen von klassischer IT und dem Bereich Operational Technology (OT)

McKinsey erwartet, dass die intelligente Vernetzung von Geräten und Maschinen über das Internet einen weltweiten wirtschaftlichen Mehrwert von bis zu 11 Billionen Dollar im Jahr 2025 schaffen kann. Dies entspräche dann rund 11 Prozent der globalen Wirtschaftsleistung. Dabei wird das Internet der Dinge (IoT) aber nicht nur klassische Produktions- und Industriebetriebe vor neue Herausforderungen stellen, sondern auch ganz andere Bereiche, wie etwa Städte, die an der Vernetzung arbeiten, den Gesundheitssektor, den Handel und den Bereich Fahrzeuge und Navigation sowie alle Unternehmen, die im Thema „Smart Home“ aktiv sind.

Den Grenzbalken aufmachen
Mit diesen Veränderungen geht einher, dass die bislang klare Trennlinie zwischen IT und OT zunehmend verwischt und beide Bereiche nahtlos ineinandergreifen müssen. Die IT befasst sich klassischerweise mit dem gesamten Spektrum an Technologien zur Datenverarbeitung, wie Software, Hardware, Kommunikationstechnologien und damit verbundene Services. Die OT dagegen ist Hardware und Software, die eine Änderung durch die direkte Überwachung und/oder Kontrolle von physikalischen Geräten, Prozessen und Ereignissen im Unternehmen erkennen und verursachen. In vielen Unternehmen ist der Grenzzaun zwischen beiden Bereichen noch sehr hoch. Denn klassische OT-Teams haben in der Vergangenheit mit geschlossenen Systemen gearbeitet. IT-Teams wiederum haben in der Regel wenig Erfahrung mit industriellen Systemen. Beide Bereiche arbeiten noch eher nebeneinander als miteinander. Ein Beispiel: Produktionsdaten werden in vielen Unternehmen nicht in die Unternehmenssysteme integriert. Genau diese Integration aber ist notwendig, sollen mit den neuen technischen Möglichkeiten nicht nur Risiken einhergehen, sondern vor allem auch Chancen, etwa neue Geschäftspotenziale oder effizientere (Fertigungs-)Prozesse, genutzt werden. Unternehmen, deren Produktionsdaten etwa mit modernen Big Data-Systemen verarbeitet und analysiert werden, können auf Basis dieser Daten gezielt Produktivitätsverbesserungen durchführen.

Gegenseitige Abhängigkeit
Tatsache ist, die Internet-Konnektivität von Geräten – ob in der Industrie oder im Smart Home – nimmt kontinuierlich zu; die ursprünglich geschlossenen Systeme werden zu offenen Systemen. IoT wird zum Alltag und damit auch die Überschneidung von IT und OT. Während OT-Teams sich die in der IT bereits bewährten Lösungen zunutze machen können, wird der Blick der IT zunehmend auch auf die große Menge an IoT-Geräten fallen, die untereinander kommunizieren und Daten austauschen, ohne, dass Menschen involviert wären.

Gefahren und Chancen
In der öffentlichen Diskussion dominieren derzeit häufig eher die Risiken, die das IoT birgt. Berichte von gehackten Autos zeigen auf, womit die Verantwortlichen umzugehen lernen müssen. Die Gefahren, die von gehackten Maschinen ausgehen, sind vielfältig und ernst zu nehmen: von Datenlecks und Produktionsausfällen angefangen bis zu fremd-kontrollierten oder -beeinflussten Systemen. In der Lebensmittelproduktion etwa kann die Fehlfunktion einer Maschine fatale Folgen haben. Andererseits bringt die Technologie auch neue Geschäftschancen und viele Möglichkeiten der Serviceverbesserung und Kostenreduktion. Nur einige Beispiele: Wenn Software-Updates im Auto automatisch eingespielt werden können, spart sich der Besitzer den Besuch in der Werkstatt. Geld- und sonstige Automaten, die ihren Füllstand übermitteln, können rechtzeitig aufgefüllt und somit verhindert werden, dass Kunden vor leeren Automaten stehen. Produktionsmaschinen, die notwendige Wartungsmaßnahmen rechtzeitig aufzeigen, verhindern Ausfälle. Dies gilt auch für vernetzte Boiler bzw. andere Geräte der Hausinfrastruktur. Und auch die Fernüberwachung von Patienten gehört zu den positiven Beispielen.

Daten in Echtzeit analysieren
Vor allem die Daten, die die vernetzten Geräte und Maschinen erzeugen und übermitteln, sind wertvoll für die Unternehmen. Moderne Big Data-Lösungen sind in der Lage, die Daten unterschiedlichster Quellen in Echtzeit zu analysieren. Damit können einerseits Probleme schneller erkannt und somit auch vermieden oder gelöst werden. Andererseits können Langzeittrends identifiziert und Produkte auch entsprechend angepasst werden. Geschwindigkeit und Flexibilität sind also zentrale Faktoren für den Erfolg im IoT-Zeitalter. Dabei lohnt sich auch ein Blick auf Open Source Strategien und Lösungen. Deren Skalierbarkeit, niedrige Kosten und offenen Standards sind bewährte Vorteile, die sich beim Zusammenrücken und Integrieren von IT und OT gut nutzen lassen. Das ist auch der Grund dafür, warum offene Lösungen die Basis für die meisten Innovationstechnologien geworden sind.