Mit OneGet Software auf Nano-Servern installieren

Um Quellen für Nano-Server zu finden, verwenden Sie die Befehle:

Install-PackageProvider NanoServerPackage

Import-PackageProvider NanoServerPackage

Um Pakete für Nano-Server zu finden und zu installieren, verwenden Sie:

Find-NanoServerPackage

Save-NanoServerPackage

Install-NanoServerPackage

Die wichtigsten CMDlets, um Pakete auf Nano-Servern zu installieren sind:

Find-Package

Save-Package

Install-Package

Get-Package

Wichtig ist, dass Sie bei den einzelnen Befehlen noch die Option -provider NanoServerPackage nutzen. Ohne diese Option, werden alle Quellen verwendet, auch Quellen, die keine Nano-Server kompatible Pakete nutzen. Alle Pakete für Nano-Server lassen Sie mit dem folgenden Befehl anzeigen:

Find-NanoServerPackage

Find-NanoServerPackage -Culture en-us zeigt englischsprachige Pakete an, mit Find-NanoServerPackage -Culture de-de sehen Sie die deutschen Pakete.  Sie können auch mit den CMDlets zur Installation von Paketen in der PowerShell mit Platzhaltern arbeiten:

Find-NanoServerPackage -Name *NPDS*

Find-Package -provider NanoServerPackage -Name *NPDS*

Auch hier helfen die Optionen -RequiredVersion, -MinimumVersion, oder -MaximumVersion, um die richtige Version zu finden. Alle Versionen lassen Sie sich mit der Option -AllVersions anzeigen. Ohne die Angabe einer speziellen Option, um nach Versionen zu filtern, zeigen Find-NanoServerPackage und Find-Package die neuste Version an.

Mit Install-NanoServerPackage oder Install-Package installieren Sie Pakete auf einem Nano-Server oder in einem offline-bereitgestellten Nano-Image. Normalerweise sehen die Befehle folgendermaßen aus:

Install-NanoServerPackage -Name Microsoft-NanoServer-Containers-Package

Install-Package -Name Microsoft-NanoServer-Containers-Package

Hochverfügbarkeit mit Windows Server 2016

Die Livemigration setzt voraus, dass der Clusterknoten, der die VM hostet, noch läuft. Die Livemigration liest den Arbeitsspeicher virtuellen Servers aus und überträgt ihn zum Zielserver. Alle Systeme die mit Hyper-V laufen, lassen sich mit der Livemigration absichern. Das heißt es lässt sich auch Linux oder ältere Windows Server lassen sich mit Livemigration im Cluster absichern.

Um Hyper-V mit Livemigration in einem Cluster zu betreiben, aktivieren Sie die Cluster Shared Volumes für den Cluster, nachdem Sie den Cluster erstellt haben. Windows legt dann auf der Betriebssystempartition im Ordner „ClusterStorage“ Daten ab. Diese liegen aber nicht tatsächlich auf der Festplatte C: des Knotens, sondern auf dem gemeinsamen Datenträger, dessen Abruf auf den Ordner C:\ClusterStorage umgeleitet ist. Erstellen Sie einen Storage Space Direct, wie in Kapitel 34 behandeln, können Sie auf Basis dieses Storage Space Direct neue virtuelle Festplatten und schließlich neue Volumes erstellen. Diese können Sie über deren Kontextmenü dem Cluster Shared Volume (CSV) hinzufügen.

Die .vhd(x)-Dateien der VMs liegen in diesem Ordner und sind daher von allen Knoten gleichzeitig zugreifbar. Fällt eine Netzwerkverbindung zum SAN von einem Knoten aus, verwendet der Knoten alternative Strecken über andere Knoten. Die virtuellen Maschinen, deren Dateien im CSV liegen, laufen uneingeschränkt weiter. Um CSV für einen Cluster zu aktivieren, gehen Sie folgendermaßen vor:

  1. Starten Sie den Failovercluster-Manager.
  2. Klicken Sie mit der rechten Maustaste im Bereich Speicher/Datenträger auf den Datenträger, den Sie für Hyper-V nutzen wollen, und wählen Zu freigegebenen Clustervolumeshinzufügen.

Cluster in Windows Server 2016 beherrschen Dynamic I/O. Wenn die Datenverbindung eines Knotens ausfällt, kann der Cluster den Datenverkehr der für die Kommunikation zu den virtuellen Computern im SAN notwendig ist, automatisch über die Leitungen des zweiten Knotens routen, ohne dazu ein Failover durchführen zu müssen. Sie können einen Cluster so konfigurieren, dass die Clusterknoten den Netzwerkverkehr zwischen den Knoten und zu den CSV priorisiert.

Teil 4: vSphere HA

Auf diese Weise lassen sich Server mit aktuell problematischen Health-Indikatoren per Default in einen Quarantäne-Status versetzen. Optional kann der Nutzer im Zusammenhang mit dem „Pro-Active HA“-Feature auch den Maintenance-Modus antriggern.

Damit ist Pro-Active HA streng genommen auch gar kein HA-Feature, sondern eher eine DRS-Funktion, da ja die VM ja gar nicht ausfällt, sondern ggf. rechtzeitig per vMotion verschoben wird.

HA oder DRS

Dennoch findet sich die neue Funktion im “Availability”-Bereich der neuen UI, vermutlich weil sie von den Anwendern hier zuerst gesucht wird. Konkret erlaubt es das Feature Administratoren „Actions“ für solche Events zu konfigurieren, die zu einer VM-Downtime führen könnten oder würden.

Verabschiedet sich z. B. im Server ein Netzteil (ein echter Server sollte davon mehr als Eines haben), wechselt der Server in einen „Degration- Status, sodass Pro-Active HA eine rechtzeitige Evakuierung auslöst, was schlicht bedeutet, das betroffene VMs migriert werden.

Health Provider

Doch wie erfährt z. B. der vCenter-Server, vom Health-Status des Hosts? Hier kommt der „Health Provider” ins Spiel. Dieser liest alle Sensor-Daten aus und analysiert die Ergebnisse. Abhängig vom Ergebnis der Analyse meldet er dem vCenter-Server den entsprechenden Host-Status “Healthy”, “Moderate Degration”, “ Severe Degradation” oder “Unknown”. (Green, Yellow, Red).

Ist der vCenter Server informiert, kann er DRS instruieren, eine Aktion auf Basis des Health-Status auszulösen. Doch auch beim Einschalten/Platzieren einer neuen VM kann der Health-Status des Hosts berücksichtigt werden. DRS versetzt den betreffenden Host dann wahlweise in den Maintenance oder Quarantäne-Modes; was eine Design-Entscheidung des Administrators ist.

Quarantäne Modus und Maintenance Modus

Wird ein ESXi-Host manuell oder durch das neue „Pro-Active HA“-Feature in den Maintenance Mode versetzt, werden unverzügliche sämtliche laufenden VMs weg-migriert.

Im Quarantäne-Modus ist dies nicht unbedingt garantiert. Ist der Cluster insgesamt überbucht kann es auch sein, dass einige VMs auf dem Quarantäne-Host verbleiben. Das ist auch dann der Fall, wenn VM/VM-Rules oder VM/Host-Rules zu Konflikten führen, würden die betreffenden VMs tatsächlich migriert. Allerdings werden keine neuen VMs auf einen Host platziert, der sich im Quarantäne-Modus befindet.

Wie „strickt“ der Admin dabei vorgehen will ist ebenfalls eine Design-Entscheidung und kann in der neuen UI konfiguriert werden. So empfiehlt sich der Quarantäne-Modus eher für „Moderate Degration” und der Maintenance-Modus für „Severe Degradation“, was man mit dem sogenannten „Mixed-Mode“ erreicht.

Pro-Active HA kann auf die unterschiedlichen Fehlerarten reagieren, etwa Memory-, Network-, Storage- oder Fan-Fehler. Welcher Host-Status mit dem jeweiligen Fehler korrespondiert (“severe” oder “moderate”) ist Hersteller-abhängig, d. h. die entsprechende Logik wird durch den jeweiligen Health Provider bereit gestellt.

Red Hat aktualisiert seine Cloud-Management-Plattform

Red Hat CloudForms basiert seit der Version 3.0 auf der ehemaligen EVC-Suite des Cloud-Management-Spezialisten http://manageiq.org/ ManageIQ, den Red Hat 2012 übernommen hatte. Typisch für Red Hat haben die Rothüte das ehemalige Kernprodukt nahtlos ins eigene Portfolio integriert und die Lösung anschließend als Open-Source-Projekt ManageIQ wieder verfügbar gemacht.

Wer also nicht über eine Subskription von Red Hat verfügt, kann ManageIQ auch von der Projektseite herunterladen und ausprobieren; die Integration mit der eigenen Cloud-Umgebung liegt dann in eigener Verantwortung. Dafür gelingt das Installieren von ManageIQ Testzwecken z. B. in Form von Docker-Containern recht einfach.

Neuerungen in CloudForms 4.2

CloudForms ist eine moderne Open-Sourcen-Management-Plattform für physische, virtuelle und Cloud-basierte IT-Umgebungen sowie Linux-Container und erlaubt Unternehmen ein komfortables Bereitstellen von Services mit Hilfe eines Self-Service-Portal sowie ein Service-Lifecycle-Management von der Provisionierung bis zur Außerbetriebnahme.

CloudForms erlaubt zudem das Definieren erweiterter Compliance-Richtlinien für neue oder bestehende IT-Umgebung. Damit lassen sich mit CloudForms auch vorhandene Umgebungen und Systeme kostenoptimieren. Zudem beinhaltet die neue Version Upgrades für OpenStack, bringt eine verbesserte Mandanten-Verwaltung und enthält ein neues Storage-Management für OpenStack-Object- (Swift) und Block-Storage (Cinder). Schließlich enthält CloudForms 4.2 erweiterte Chargeback-Funktionen für Container, welche auch auf der Red Hat OpenShift Container Platform laufen.

Hybrides Cloud Management

Das Nutzer-Profil von Red Hat CloudForms reicht von der Verwaltung hybrider IT-Umgebungen, über global agierende Telekommunikationsanbieter bis zu Industrieunternehmen und Forschungseinrichtungen oder Universitäten.

CloudForms 4.2 steht ab sofort zum Download auf dem Red Hat Customer Portal zur Verfügung. Weitere Informationen und einen umfassende Dokumentation bietet die Produktseite.

 

Der lange Weg zur Industrie 4.0 in der Produktion

Die durch die Initiative der Bundesregierung 2011 ausgerufene vierte industrielle Revolution [1] ist inzwischen schon seit mehreren Jahren ein werbewirksames Schlagwort, das sich phantastisch verkaufen lässt. Von Sensorik-Anbietern über Softwarehersteller, bis hin zu Unternehmensberatern sind viele Unternehmen auf den Marketing-Zug aufgesprungen. Doch nach dem ersten Hype stellen sich viele Unternehmen die Frage, was denn tatsächlich dahinter steckt. Wo bleibt die Revolution, die durch die zunehmende Vernetzung ausgelöst werden soll?

Aktuell ist es insbesondere das Internet der Dinge, das für viele Anwendungen neue, verteilte Lösungsansätze ermöglicht und beispielsweise im Supply Chain Management eine bislang ungeahnte Transparenz für Warenlieferungen ermöglicht oder es Herstellern erlaubt, ihre ausgelieferten Produkte auch über den weiteren Produktlebenszyklus begleiten und überwachen zu können [2].

Durchgängige autonome und dezentrale Lösungen lassen noch auf sich warten

Doch welche Industrie 4.0 Use Cases bleiben im Produktionsumfeld? Auch wenn einzelne Pilotprojekte die Abkehr von der Fließbandfertigung versprechen [3], lassen durchgängige autonome und dezentrale Lösungen noch auf sich warten.

Was die Unternehmen in diesem Umfeld vielmehr beschäftigt, ist das, was man eigentlich „Industrie 3.x“ nennen müsste. Keine Revolution also, sondern das evolutionäre Nachholen dessen, was im Konzept des Computer Integrated Manufacturing (CIM) bereits in den 1970er Jahren in wesentlichen Zügen als Zukunftsvision beschrieben wurde [4].

Es geht um die Integration von Daten und von Systemen. Dass Echtzeitdaten von Anlagen im Unternehmen durchgängig zur Verfügung stehen und auch in den Geschäftsprozessen genutzt werden, ist längst noch keine Selbstverständlichkeit (die sogenannte vertikale Integration). Auch die horizontale Integration, beispielsweise das Verknüpfen von Logistik-, Produktions- und Qualitätsmanagementsystemen zur transparenten Rückverfolgbarkeit durch die Produktion ist für Großkonzerne genauso wenig durchgängig werksübergreifend umgesetzt wie für mittelständische Unternehmen.

Unternehmen müssen sich in den nächsten Jahren entsprechend bemühen, erst einmal die Basis für Industrie 4.0 zu schaffen. In einer Studie des BmWi [5] wurde diese in fünf Schritten beschrieben (vgl. die abgeleitete eigene Darstellung in der Abbildung).

LangerWeg_I40_Grafik

Das Prinzip dabei zieht sich einheitlich durch die einzelnen Schritte: Erst einmal müssen Daten vorhanden sein (beispielsweise durch eine Anbindung von Maschinen oder eine Integration von Systemen). Darauf aufsetzend können (und müssen) Unternehmen dann mit diesen Daten arbeiten um ihre Prozesse zu optimieren. Beispiele hierfür sind in einfacher Weise die datenbasierte Rüstzeitoptimierung oder komplexer mittels Data Analytics Technologien Anwendungen wie Predictive Maintenance.

Erst wenn dies umgesetzt ist und im Unternehmen das Wissen über Daten und die darin verborgenen Informationen vorhanden ist, dann kann man ansatzweise über eine tatsächliche Umsetzung von Industrie 4.0 Szenarien denken, die über einzelne Prototypen hinausgehen. Bis dies soweit ist, wird jedoch noch einige Zeit ins Land gehen.

 

Quellen:

[1] Müller, Stefan: Manufacturing Execution Systeme (MES) – Status Quo und Ausblick in Richtung Industrie 4.0, BOD Verlag Norderstedt, 2015 (S. 93)

[2] Müller, Stefan: Internet of Things (IoT) – Ein Wegweiser durch das Internet der Dinge, BOD Verlag Norderstedt, 2016 (vgl. S. 41ff)

[3] Audi: Modulare Montage statt Fließband, Automobil Industrie, online unter: http://www.automobil-industrie.vogel.de/audi-modulare-montage-statt-fliessband-a-562363/ (Abruf am 19.12.2016)

[4] Harrington, Joseph: Computer Integrated Manufacturing, Industrial Press New York, 1973

[5] BMWi: Erschließen der Potenziale der Anwendung von „Industrie 4.0“ im Mittelstand (Studie), online unter: http://www.bmwi.de/DE/Mediathek/publikationen,did=716886.html (Abruf am 19.12.2016)

4 Irrtümer über Big Data, die Ihr Unternehmen bremsen

Sie gehören zu einem der vielen Unternehmen, bei denen täglich immer mehr Daten eingehen? Sie möchten diese Datenmassen sicher organisieren, auswerten und wertvolle Schlüsse aus ihnen ziehen, um Ihre Angebotsqualität, Ihr Marketing, Ihren Arbeitsablauf oder Ihre Kostenstruktur zu verbessern.  Aber Sie fragen sich, worum es bei „Big Data“ überhaupt geht und wie Sie Ihre Daten verwalten können? Damit Ihr Unternehmen im Wettbewerb nicht ausgebremst wird, soll hier mit vier weit verbreiteten Irrtümern über Big Data aufgeräumt werden.

1. Big Data sind Massendaten

Der englischsprachige Begriff „Big Data“ bedeutet wörtlich übersetzt schlicht „große Daten“. Oftmals wird der Begriff Big Data auch in diesem einfachen Sinnzusammenhang als Massendaten verwandt. Allerdings wird eine solch eingeschränkte Bedeutung der Komplexität des Begriffs nicht gerecht. Big Data bezeichnet vielmehr Datenmengen, die zu groß, zu kompliziert oder zu wenig strukturiert sind, um sie mit klassischen Methoden der Datenverarbeitung zu analysieren. Das Schlagwort Big Data umfasst also auch die Auswertung und Analyse des digitalen Datenvolumens.

2. Saubere Daten sind Voraussetzung

Dass Ihre Daten sauber, d.h. von jeden Datenfehlern, wie z.B. Formatierungsfehlern oder Duplikaten bereinigt sein müssen, bevor sie analysiert werden können, ist zwar wünschenswert aber unrealistisch. Und es ist auf keinen Fall eine zwingende Voraussetzung! Aufgrund der immer wieder neu eingehenden Daten, ist es nahezu unmöglich, stets bereinigte Daten, sog. „clean data“, analysieren zu können. Werten Sie Ihre Daten also in jedem Fall aus – auch wenn Sie das Gefühl haben Ihre Daten seien nicht sauber. In den meisten Fällen können Sie trotzdem wertvolle Erkenntnisse für Ihr Unternehmen gewinnen – zumindest  Erkenntnisse über Ihre Datenqualität.

3. Programme zur Datenanalyse sind teuer

Sie können aufatmen! Die Analyse Ihrer Daten ist überhaupt nicht so teuer wie Sie vielleicht dachten. Die Lizenzen von Software-Anbietern sind vergleichsweise erschwinglich. Es gibt sogar kostenlose Programme zur Datenauswertung.

4. Programme ersetzen die menschliche Datenanalyse

Wenn Sie jetzt daran denken, Ihren Informatiker zu entlassen, dann unterliegen Sie dem Irrtum Datenauswertungsprogramme würden die menschliche Datenanalyse ersetzen. Programme werten Ihre Unternehmensdaten zwar aus und geben Ihnen Antworten, allerdings erklären sie Ihnen die Ergebnisse nicht. Programme können allerdings Prozesse beschleunigen und Ihren Analyseprozess sinnvoll unterstützen.

Wie Sie sehen, ist das Thema „Big Data“ doch nicht so schwer zu erfassen. Es bedarf nur einer eingehenden Beschäftigung und Zielbestimmung. Starten Sie jetzt! 

 

Das ECM-Horoskop für 2017: Es wird analytisch

Im Jahr 2016 waren Unternehmen auch im Dokumentenmanagement hauptsächlich mit den Anforderungen der zunehmenden Digitalisierung beschäftigt. Eine Herausforderung, die sich zweifellos auch durch das kommende Jahr ziehen wird. Daneben machen sich für den ECM-Markt einige neue Trends und Entwicklungen am Horizont bemerkbar, die 2017 sowohl Einfluss auf Software-Hersteller als auch auf Anwenderunternehmen haben werden.  

1.  Integration

Die verschiedenen Systeme, die in verwaltenden Abteilungen zum Einsatz kommen, haben sich in den letzten Jahren immer weiter spezialisiert. Diese Entwicklung ist absolut nachvollziehbar und richtig. Was dabei jedoch auf der Strecke bleibt, ist die Integration der einzelnen Lösungen miteinander. Darum wird viele Unternehmen im kommenden Jahr die Herausforderung beschäftigen, die Zusammenarbeit der unterschiedlichen Cloud-Dienste voranzutreiben. Dabei geht es nicht nur um technische Schnittstellen. Auch Datenschutzfragen müssen geklärt werden – von Auftragsdatenverarbeitungsvereinbarungen über den Standort von Rechenzentren bis hin zur Datenverschlüsselung. Was erschwerend hinzukommt, ist die stetig wachsende Größe der Installationen. Zum Beispiel aufgrund von Selfservice-Funktionen, die es Mitarbeitern erlauben, ihre eigenen Personaldaten innerhalb eines festgesetzten Rahmens zu bearbeiten, wird der Benutzerkreis der Anwendungen immer heterogener – und die jeweilige Nutzung immer weniger vorhersagbar.

2.  Globalisierung

Die Nutzung von Applikationen auf mobilen Endgeräten ist schon längst zur Normalität geworden – auch im Geschäftsumfeld. Für Unternehmen geht daran fast kein Weg vorbei. Wir sind inzwischen daran gewöhnt, auch von unterwegs jederzeit Zugriff auf unsere Daten und Dokumente zu haben, sie bearbeiten zu können oder mit anderen zu teilen. Ein Trend, der in Bereichen wie dem E-Commerce seit Langem angekommen ist und sich nun auch im ECM-Feld verbreitet, ist die Lokalisierung von Anwendungen. Das heißt, ein System muss einem Mitarbeiter in Frankreich die gleichen Funktionen und den gleichen Standard in Bezug auf Benutzerfreundlichkeit bieten wie einem Mitarbeiter in Deutschland. Das geht über die üblichen Spracheinstellungen hinaus: Zum einen sind die lokalen gesetzlichen Regelungen bezüglich dem Umgang mit Daten und Dokumenten einzuhalten. Zum anderen müssen die Speicherorte oft im jeweiligen Land liegen. Auch die Verfügbarkeit der Cloud-Dienste sollte überall gleich hoch sein. Nicht zuletzt gilt es, zahlreiche kulturelle Besonderheiten zu beachten.

3.  Predictive Analytics

Das Schlagwort Big Data ist inzwischen in aller Munde. Und was sind die in Personal- oder Vertragsakten erfassten Informationen anderes als ungeordnete Rohdaten, die sich auswerten und analysieren lassen? Deswegen wird sich der Markt künftig immer dringlicher mit der bestmöglichen Nutzung dieser Daten beschäftigen. Mithilfe von Predictive-Analytics-Tools könnten Unternehmen auf Basis entsprechender Datenmengen Vorhersagen über mögliche zukünftige Ereignisse treffen. Stellt man beispielsweise die anstehenden Unternehmensprojekte den Daten aus der eigenen Marktbeobachtung gegenüber, so lässt sich der zu erwartende Bedarf an das zukünftig notwendige Fachwissen in der Belegschaft ablesen und daraus auf die eigenen Entwicklungsmöglichkeiten zu schließen. ECM-Systeme und die in ihnen enthaltenen Daten liefern dafür einen fruchtbaren Boden, den viele Unternehmen im Jahr 2017 urbar machen wollen.

Handbuch Digitalisierung: Logistik 4.0 und noch viel mehr

Kurz vor Jahresende kam es frisch aus der Druckerei: Das „Handbuch Digitalisierung“ beschreibt als erstes gemeinfreies Open-Content-Werk auf über 260 Seiten in Form von Gastbeiträgen, Interviews und Fallbeispielen die Digitalisierung und ihre Auswirkungen auf Unternehmen und Wirtschaft. Zielgruppe sind vor allem mittelständische Unternehmen, die sich bereits auf den Weg der digitalen Transformation gemacht haben oder intensiv darüber nachdenken.

Paradigmenwechsel in der Logistik durch Industrie 4.0

In den Unterkapiteln des Buches findet ein „virtueller Rundgang“ durch die wichtigsten Unternehmensabteilungen statt – vom Einkauf und das Personalwesen über Produktion und IT bis hin zur Chefetage. Darüber hinaus setzt sich ein weiterer Teil des Handbuchs mit übergeordneten Fragestellungen der digitalen Transformation auseinander. Fachbeiträge namhafter Autoren werden dabei durch Best-Practice-Beispiele von Unternehmen mit Vorreiterstellung ergänzt.

Im Bereich „Logistik“ ist auch das Dortmunder Start-up catkin mit einem Beitrag und drei Fallbeispielen vertreten. Eingeleitet wird dieses Kapitel mit einem Überblick zu „Logistik 4.0: Trends“, einem „Expertenpanel“ und einem Beitrag von Prof. Dr.-Ing. Thomas Wimmer, Vorsitzender der Geschäftsführung zur Bundesvereinigung Logistik (BVL). Der beschreibt den anstehenden Paradigmenwechsel in der Logistikbranche durch Industrie 4.0 – insbesondere im Supply-Chain-Management.

Dabei verschweigt er nicht die aktuellen Hemmnisse auf diesem Weg: „In den Unternehmen werden zum Teil sehr individuell und evolutionär entwickelte IT-Strukturen beim Übergang zu neuen Prozessen zur Herausforderung. Zunächst gilt es, Altlasten und Schnittstellenprobleme zu beheben und eine durchgängige Datenhaltung durchzusetzen.“ Doch habe man das erreicht, entstehe durch die notwendigen strategischen Investitionen langfristig einen Wettbewerbsvorteil.

Allerdings seien dann weitere Aufgaben anzupacken: „Ist die Datenbasis geschaffen, kommt dem Datenaustausch eine zentrale Rolle zu. Transportdaten, Bedarfsprognosen, Daten über Materialflussstörungen und Kostenstrukturdaten sind gute Beispiele. In vielen Fällen müssen sie zunächst standardisiert werden, um mit mehreren Akteuren entlang von Wertschöpfungsketten geteilt werden zu können“, so der Logistik-Experte.

Verbindung von Internet of Things und Supply Chain Visibility

Das Besondere an diesem Handbuch: Wichtige und aktuelle „Querschnittsthemen“ von Big Data bis Cloud-Computing werden mit Querverweisen miteinander ins Verhältnis gesetzt. Etwa, wenn es um das Internet of Things (IoT) und Supply Chain Visibility geht. Dazu heißt es in dem Buch beispielsweise: „Autonome Lieferketten – vernetzt im IoT – sind dann erreicht, wenn sich das Paket selbst liefern wird. Informationsquellen im Internet, wie Verkehrsinformationen, Track-and-Trace-Informationen, Wetterinformationen oder Bestandsdaten der Lieferanten, können dann in Realtime bedarfsorientiert abgefragt werden“.

Um diese Datenmengen für operative Entscheidungen nutzen zu können, müssten diese nahezu in Echtzeit und bedarfsgerecht aggregiert werden. „IoT bedeutet jedoch nicht, nur Daten auszulesen, sondern auch die autonome Kommunikation zwischen Geräten. Aufgrund immer aktueller Kontextinformationen kann ein Steuergerät dann z.B. eigenständig Entscheidungen treffen“, wird ein weiterer Aspekt angesprochen.

Start-Up Unternehmen mit neuen digitalen Geschäftsmodellen

Wichtig war der Buch-Redaktion auch das Hervorheben neuer Geschäftsmodelle, die durch die Digitalisierung für Unternehmen entstehen. Hier sorgen dynamische Start-Ups auch in klassischen Branchen wie der Logistik vielfach für disruptive Entwicklungen mit neuen Ideen und cleveren Lösungen für Effizienzvorteile und Kosteneinsparungen.

Die Themenkonvergenz der Digitalisierung hat uns dabei am meisten beschäftigt“, schreibt die Redaktion im Vorwort. Das Handbuch werde auf der digitalen Plattform http://www.handbuch-digitalisierung.de regelmäßig aktualisiert und stehe dort auch zum kostenfreien Download bereit. Wer ganz klassisch ein Printexemplar bestellen und gemütlich auf dem Sofa lesen möchte, kann dies mit der ISBN-Nummer 978-3-9818482-0-5 über den Buchhandel oder bei Amazon tun. Zusätzlich veröffentlicht wird es auch als E-Book im E-Pub-2.0-Format, so dass auf allen gängigen E-Book-Readern lesbar ist.

Da wir mit dem jetzigen Umfang des Werkes nur einen Bruchteil der wichtigsten Digitalisierungsstrategien vorstellen konnten, machen wir online weiter“, schreiben die Herausgeber. Über das Inhaltsverzeichnis kann direkt auf die einzelnen Einstiegskapitel gesprungen werden, deren fortlaufende Aktualisierung zum Open-Content-Redaktionskonzept gehört.