Industrie 4.0 – Bereit für die Massenfertigung individualisierter Produkte?

Industrie 4.0 gilt als Synonym für den Fortschritt. Mit „aufregend Neuem“ und „Fortschritt im Allgemeinen“ wird, wie Prof. Syska in seinem Buch „Illusion 4.0 – Deutschlands naiver Traum von der smarten Fabrik“ schreibt, dabei oft das Synonym 4.0 assoziiert. In verschiedensten Lebensbereichen wie Arbeit 4.0, Berufsausbildung 4.0, Mensch 4.0 oder Wirtschaft 4.0 findet die Abkürzung ihre Ver­wen­dung und suggeriert das Handeln auf einem nächst höheren Niveau.

Wissenschaft und Industrie forschen und entwickeln fleißig an technischen Lösungen, um Industrie 4.0 zu realisieren und die Vision einer rentablen individuellen Massenfertigung zu verwirklichen. Dennoch stellt sich die Frage, ob die aktuellen vorherrschenden Ablauf- und Steuerungsprinzipien für Industrie 4.0 geeignet sind und ob neben den technischen Innovationen auch eine Revolution im Denken stattfinden muss.

Die Geschichte der Massenfertigung

Ein Blick in die Zeitreihe der industriellen Revolution lässt feststellen, dass jede Revolution eine Auswirkung auf die Massenfertigung hatte.

Die erste Revolution ersetzte den von Menschen geleisteten Antrieb der Produktionsmaschinen durch die Dampfmaschine und ermöglichte erstmalig die Massenproduktion. Die zweite Revolution ersetzte die Dampfmaschine durch Elektromotoren, führte das Fließbandfertigung ein und beschleunigte die Massenproduktion. Als das Zeitalter der dritten Revolution eintrat, wurden erste Prozesse in den Fabriken automatisiert, um die Massenproduktion in gleichbleibender Qualität aber gleichzeitig kostengünstig sicherstellen zu können.

In der vierten Revolution steht nun die Massenproduktion von individualisierten Produkten im Fokus. Die steigende Nachfrage des Kunden an individuellen Produkten stellt die Hersteller nicht nur auf der technologischen Seite vor eine Herausforderung, sondern auch planerisch. Wesentlich für die vierte Revolution sind die cyber-physischen Systeme (CPS). Fraglich ist an dieser Stelle, ob allein der Einsatz von CPS in bestehenden Produktionsstrukturen ausreicht, um alle Voraussetzungen für eine individuelle Massenproduktion zu erfüllen und damit die Fabrik von morgen aufzubauen.

Entwicklungen im Rahmen von Industrie 4.0

Auch verändert sich in Industrie 4.0 die Rolle des Kunden. Der Kunde wird nicht mehr als passiver Nutzer gesehen, sondern als aktiver Gestalter, der frühzeitig in den Entwicklungsprozess eingreifen kann und beispielsweise durch Konfiguratoren individualisierte Produkte selbst mitentwickelt. Auch sind die Produkte nicht mehr passive Teilnehmer im Produktionsprozess. Beispielsweise mithilfe eines Transponders kann ein Produkt zum intelligenten Produkt werden und selbst mit der Umwelt kommunizieren und eindeutig maschinell identifiziert werden.

Auf der technologischen Seite ermöglicht der Einsatz von additiven Fertigungsverfahren für Kunststoff, Metall, Keramik, Beton und weiterer Materialien die Realisierung der individualisierten Kundenwünsche. Kombiniert mit klassischen Herstellungsverfahren ist die Entstehung hybrider Maschinen möglich, ein Beispiel hierfür ist die LUMEX Serie von Matsuura, die Lasersintern und Hochgeschwindigkeitsfräsen kombiniert.

Trotz aller geistigen und technologischen Entwicklungen bleibt die Liefertreue, auch im Zeitalter von Industrie 4.0, die Basisanforderung im Kano Modell und wird durch die Innovationen in der vierten industriellen Revolution vor neue Herausforderungen gestellt.

Zentrale Herausforderung für die Liefertreue sind die komplexen Materialflüsse, die aufgrund der hohen Produktvarianz entstehen. Die Wahl der Maschine durch das individuelle Produkt und die damit verbundene variable Bearbeitungszeit, welche technologie- und maschinenabhängig ist, erschwert die Kapazitätsplanung und die Vorhersage eines Fertigstellungstermins. Eine Lösung könnte die Durchführung von echtzeitnahen Simulationen zur Abschätzung der Bearbeitungszeiten sein. Bezieht die Simulation die von den Maschinen bzw. Werkzeugen gemeldeten Informationen wie Maschinenzustand, Werkzeugverschleiß etc. mit ein, dann lassen sich die Simulationsergebnisse präzisieren.

Industrie 4.0 impliziert, dass Maschinen miteinander kommunizieren. Technisch gesehen, lässt sich diese Kommunikation durch einheitliche Kommunikationsprotokolle bereits umsetzen. Wichtig für die Zusammenarbeit zwischen den Maschinen ist auch die Auswahl der zu kommunizierenden Daten sowie die Übertragungsverfahren.

Fertigungsprinzipien für die individuelle Massenproduktion

Der Treiber für diese Entwicklungen im Rahmen der Industrie 4.0 ist die individualisierte Massenproduktion. In der Theorie wird davon ausgegangen, dass die Fließfertigung für die Massenproduktion ausgelegt ist. Folglich sind die Maschinen durch starre Beziehungen miteinander verbunden. Die Fließfertigung ist jedoch im Allgemeinen, in Bezug auf die Anzahl unterschiedlicher Produktvarianten, sehr unflexibel. Darüber hinaus lässt sich der Durchsatz nicht variieren. Werden zusätzlich additive Fertigungsverfahren mit variablen Bearbeitungszeiten eingesetzt, können Engpässe im Produktionsprozess entstehen.

Die Werkstattfertigung eignet sich besonders für die Stückgutproduktion. Hierbei werden die Maschinen nach ihren Technologien zusammengefasst. Untereinander haben die Maschinen keinerlei Verkettung durch Systeme für die Realisierung von Material- und Informationsflüssen. Die Werkstattfertigung widerspricht aber zugleich dem angestrebten Ziel der Massenproduktion und den möglichst kurzen Lieferzeiten. Vor allem die Varianz der Bearbeitungszeiten ruft ungewollte Liege- und Wartezeiten hervor. Eine Lösung hierfür sind „intelligente“ Produkte, die selbst auf die Einhaltung der Lieferzeiten achten und bei Abweichungen aktiv in den Prozess eingreifen können.

Die Gruppenfertigung, die als Kompromisslösung aus der Werkstatt- und Fließfertigung angesehen werden kann, eignet sich durch teilweise verkettete Bearbeitungsschritte für große Mengen, ist aber in der Flexibilität eingeschränkt.

So bleibt aus der planerischen Sicht die grundsätzliche Frage: Wie stark müssen die Beziehungen bzw. Abhängigkeiten zwischen den Maschinen selbst und zwischen den Maschinen und den Produkten ausgeprägt sein um eine effiziente Prozesskette zu gewährleisten? Die Technologie- und die Softwareentwicklung schreiten in Richtung Industrie 4.0 voran. Essentiell bleibt dennoch die intelligente Planung durch den Menschen, die durch aktuelle Technologien lediglich unterstützt und ohne künstliche Intelligenz nicht ersetzt werden kann.

Der Anspruch einer Revolution

Zusammenfassend lässt sich sagen, dass nach der Dudendefinition unter der Revolution eine radikale Veränderung bzw. eine grundlegende Neuerung zu verstehen ist. Ob die sogenannte vierte industrielle Revolution diesem Anspruch genügt, bleibt immer noch offen.

Nicht umsonst vertritt Dr.-Ing. Rainer Draht in seinem Artikel „Industrie 4.0 – eine Einführung“ die Meinung, dass Industrie 4.0 die erste Revolution ist, die als Revolution bezeichnet wurde, bevor sie überhaupt stattgefunden hat.

Die Vision von Industrie 4.0, eine komplett vernetzte selbstorganisierte Produktion zu erreichen, ist zwar zukunftsweisend, jedoch aktuell kaum umsetzbar. Es gibt einige Hürden, die ein Unternehmen überwinden muss, um sich der Industrie 4.0 anzunähern. Dies sind zum einen die hohen Investitionskosten, der Mangel an qualifiziertem Personal, der Mangel an Standards sowie Sicherheitsbedenken.

Dieser Text ist in Zusammenarbeit mit Herrn M.Sc. Fabian Stark (Co-Autor) entstanden.

 

Digitalisierung von Fertigungsaufträgen mit Actyx

Die Digitalisierung in der Produktion könnte sich positiv auf die Beschäftigung auswirken. Das ist das Ergebnis einer Studie, die Anfang des Jahres vom VDI in Zusammenarbeit mit der Hochschule Karlsruhe und dem Fraunhofer Institut für System- und Innovationsforschung (ISI) herausgegeben wurde. So verlagern Unternehmen, die entsprechende Technologien einsetzen, deutlich häufiger ihre Produktionskapazitäten zurück nach Deutschland – im Vergleich mit Betrieben, die in der Produktion keine Digitalisierungstechnologien nutzen, sogar zehnmal öfter.

Vorangetrieben wird diese Digitalisierung und die damit einhergehende Rückverlagerung nach Deutschland von Softwareunternehmen wie dem Münchner Startup Actyx. Mit Fokus auf die klassischen KMU (kleine und mittelständische Unternehmen) entwickelt Actyx seit der Gründung 2016 Lösungen für die Bereiche Produktions- und Materialmanagement sowie Werkerassistenz. Besonders um produzierenden Mittelständlern den Einstieg zur digitalen Fabrik zu erleichtern, hat das Unternehmen Actyx Iris entwickelt, ein Werkerassistenz-System, das Arbeitsanweisungen und Qualitätsprüfungen digitalisiert. Hat eine Firma hingegen bereits sämtliche Arbeitsstationen digitalisiert, liegt ein Upgrade zu Actyx Eos, der Produktionsmanagements-Lösung nahe. Da bei beiden Lösungen sowohl Skalierbarkeit als auch Agilität stark im Fokus liegt, hat sich Actyx bereits während der Entwicklung dazu entschlossen, Teile der Lösungen in der Cloud von Amazon Web Services laufen zu lassen.

Nach Maß auf Knopfdruck

Hat ein Unternehmen nun beide Lösungen von Actyx in seine bestehenden Systeme integriert, können zum Beispiel Bestellungen maßgeschneiderter Produkte ganz einfach vom ERP-System direkt an den Hallenboden geschickt werden. Actyx Iris und Actyx Eos unterstützen dann deren schnelle Produktion. Um Bestellungen in Echtzeit zu überwachen, setzt Actyx auf AWS Dienste wie Amazon Kinesis. Damit können einfach und komfortabel erfasste Echtzeit-Daten verarbeitet und analysiert werden. Mit dieser Kombination von Produktions-Knowhow und Cloud-Diensten, können die Kunden durch digitale Betriebsdatenerfassung stets den vollen Überblick behalten und ohne Verzögerung auf Marktveränderungen und Kundenbedürfnisse reagieren.

Gleichzeitig digitalisieren Actyx Iris und Actyx Eos den klassischen Fertigungsauftrag und die Arbeitsmappe auf Papier. Durch die Anbindung an die AWS Cloud wird neben den Kosten vor allem der Verwaltungsaufwand der Synchronisierung von Geschäftsprozessen mit Produktionsprozessen, der bei der Änderung von Stammdaten anfällt, minimiert.

Komfort aus der Wolke

Da das System darauf optimiert ist, mobile Terminals zu nutzen, können die Anwender dabei einfach und problemlos auf die Daten zugreifen. Die Anweisungen für die Fertigung werden auch für jedes einzelne Produkt dynamisch angepasst. So kann der Produktionsleiter neue Artikel und Arbeitsanweisungen direkt mit den Terminals auf dem Hallenboden synchronisieren. Dies garantiert Qualität und steigert die Produktivität.

Darüber lassen sich durch die AWS-basierte Infrastruktur Kosten und Komplexität innerhalb der IT-Abteilung reduzieren. Denn dank der Cloud sind beide Lösungen vollständig skalierbar, umfassend verwaltbar und bieten zahlreiche Funktionen, die sich außerdem noch an den jeweiligen Einsatzort anpassen lassen. Und durch die Integration der AWS IoT-Plattform können problemlos Feldkomponenten wie Sensoren oder Steuerungen angebunden, überwacht und integriert werden. Das garantiert einen sicheren und schnellen Datenaustausch.

Dank der AWS Cloud hat Actyx Lösungen entwickelt, die seinen mittelständischen Kunden höhere Transparenz in der Produktion und somit mehr Effizienz und Flexibilität bieten. Dadurch können diese sich vom Wettbewerb absetzen, indem Sie Ihre Kunden- und Mitarbeiterzufriedenheit steigern.

Der Blick aufs Ganze – Wechsel von einer geräte- zu einer dienstorientierten Denkweise

Von zentralerer Bedeutung im IoT ist das Sammeln von Informationen, das Steuern entscheidender Infrastrukturen und die Erfassung der realen Welt, das von diesen Geräten erbracht wird. Die Verbraucher sind schließlich nicht allein an der Temperatur eines Zimmers in ihrem Haus interessiert oder am Videosignal einer einzelnen Kamera. Ihr Interesse liegt vielmehr auf einem höheren Niveau: Sie möchten, dass ihre Sicherheitssysteme Bewegungen im Haus und dessen Umgebung detektieren, und dass die Klimaanlage eine komfortable Raumtemperatur einhält. Ebenso möchten Unternehmen über den Produktionsdurchsatz einer ganzen Fertigungslinie informiert werden, anstelle über die Ausgaben einer einzigen Steuerung in ihrer Fabrik. Dieser Perspektivenwechsel ist entscheidend, denn er zwingt die Entwickler zu einem besseren Verständnis des Kontexts ihres Produkts und seiner Anwendungsfälle.

Auch Ihr Gerät ist wahrscheinlich Teil eines Diensts

Einzelne embedded Geräte werden möglicherweise nicht als Bestandteil eines Diensts wahrgenommen, auch wenn dies infolge ihrer Vernetzung mit größeren Systemen eigentlich so sein sollte. In einem Automobil zum Beispiel besteht die Rolle eines Motorsteuerungsgeräts (Engine Control Unit – ECU) allein darin, für eine ordnungsgemäße Verbrennung und einen korrekten Schadstoffausstoß des Motors zu sorgen. Das Auto insgesamt verfolgt mithilfe der ECU jedoch auch den Kraftstoffverbrauch und meldet diesen über eine Funkverbindung an einen zentralen Server. Diese Verbrauchsdaten werden dann für die Routenplanung und zum Abschätzen der Betriebskosten herangezogen. Das macht  die ECU zu einer entscheidenden Komponente, um geschäftliche Entscheidungen zu treffen.

Macht man sich diese Sichtweise zu eigen, gewinnen der Kontext eines einzelnen Geräts und sein betriebliches Spektrum an Umfang, und der Wechsel von einer geräte- zu einer dienstorientierten Denkweise hat entsprechende Rückwirkungen auf den Ansatz für das Systemdesign:

  • Konglomeration: Das IoT besteht aus zu vielen Dingen, als dass jedes einzelne davon von Nutzen sein könnte. Über die gemeinsame Organisation der Geräte können auf einer höheren Ebene nützliche Informationen bereitgestellt werden. Eine Heizungs-, Lüftungs- und Klimaanlage etwa muss nicht die Temperaturen der einzelnen Räume melden, stattdessen schicken die einzelnen Sensoren die jeweiligen Temperaturen an ein Steuerungssystem (z. B. ein SCADA-System in der industriellen Steuerungstechnik). Dieses wiederum fällt lokale Entscheidungen, die dann an ein (remote gelegenes) übergeordnetes System gemeldet werden.
  • Selbstüberwachung: Übergeordnete geschäftliche Entscheidungsprozesse würden in der Flut von Daten ertrinken, wenn alle Sensoren ständig alles meldeten. In dem eben angeführten Beispiel eines Heizungs-, Lüftungs- und Klimasystems kann das lokale Steuerungssystem die Temperatur im Gebäude auf einen Sollwert regeln, der von einem zentralisierten Prozess beispielsweise an Hand des Wetters und des gerade geltenden Stromtarifs vorgegeben wird. Die Systeme auf der Unternehmens-Ebene würden somit einen von der Klimaanlage gebäudeweise erbrachten Dienst nutzen, der wichtige Informationen wie etwa den Energieverbrauch liefert.
  • Austauschbarkeit: Im Lauf der Zeit werden die Dienste, die von diesem Konglomerat an Geräten erbracht werden, nützlicher als die Geräte selbst. Die einzelnen Sensoren und Steuerungen lassen sich deshalb in ihrer Gesamtheit durch ein anderes Produkt ersetzen, solange die insgesamt gesetzten geschäftlichen Vorgaben weiter erfüllt werden. Sofern die Dienstqualität nicht angetastet wird oder sich sogar verbessert, ist die Hardware austauschbar. Oberflächlich betrachtet, mag dies als nachteilig für die Gerätehersteller erscheinen, und für einige Hersteller ist dies sicher tatsächlich so. Klug geführte Unternehmen dagegen, die die Bedeutung dieser Dienste erkennen und über die Qualität dieser Dienste konkurrieren, werden sich als Marktführer herauskristallisieren.
Eine zentrale Aufgabe im Automobil spielt die Steuerungseinheit, indem sie erhaltene Daten aus Diensten kombiniert und daraus weitere Entscheidungen trifft. (Quelle: Parasoft)

Dienstbasierte Tests sind entscheidend für den Erfolg des IoT

Sobald man einen dienstorientierten Ansatz gewählt hat, ist es sinnvoll, beim Design, bei der Implementierung und beim Testen denselben Schritt zu vollziehen. Hat man erkannt, dass es der Dienst ist, der den geschäftlichen Nutzen bringt, gilt es sicherzustellen, dass die Geräte die diesbezüglichen Anforderungen erfüllen. Natürlich ist das Testen der Funktion auf der Modul-, Subsystem- und System-Ebene nach wie vor wichtig, jedoch ergeben sich unmittelbare Vorteile, wenn man den Umfang des Testens vergrößert.

Anstatt die Systemqualität im Hinblick auf die Erfüllung der Anforderungen an einzelne Geräte zu betrachten, wird der Blickwinkel so erweitert, dass die Qualität der erbrachten Dienste beurteilt wird. In dem weiter oben angeführten Beispiel der Klimaanlage kann ein neuer Temperatursensor leichter und kostengünstiger sein, eine längere Batterielebensdauer erreichen und eine ausgezeichnete Funkreichweite haben. Ebenso wichtig wie diese neuen Features ist aber, wie gut er im Kontext der Steuerung des gesamten Gebäudes funktioniert.

Indem man auf der Dienst-Ebene testet, stellt man sicher, dass auch die nicht funktionsbezogenen Anforderungen erfüllt werden. Zum Beispiel lassen sich auf der Geräte-Ebene oder während der Software-Modultests nur schwierig Aussagen über die Performance oder die Zuverlässigkeit einholen. Dienstbasierte Tests dagegen können die betriebliche Umgebung eines Geräts simulieren, um realistische Belastungen bereitzustellen. Um bei dem erwähnten Beispiel zu bleiben, lässt sich der neue Temperatursensor mit wechselnden Abfrageraten prüfen, um zu ermitteln, ob er die Leistungsvorgaben einhält.

Cyber-Attacken auf IoT-Systeme gehen vom Netzwerk selbst aus und zielen auf die exponierten APIs. Dienstbasierte Tests können für robuste Sicherheitstests simulierte Umgebungen errichten, sei es über Fuzzing (die Erzeugung wahlloser und fehlerhafter Dateneingaben) oder Denial-of-Service-Angriffe. So könnte etwa ein neuer Temperatursensor mit erwarteten Anfragen korrekt arbeiten, aber bei Überlastung abstürzen. Das wäre eine Angriffsstelle für einen Angreifer, um das System durch gezielte Überlastung zum Absturz zu bringen.

Fazit

Die Erkenntnis, dass es im IoT eigentlich um Dienste geht, führt zu besseren, differenzierten Embedded-Geräten für jene neue, vernetzte Welt, in der sie eingesetzt werden sollen. Hersteller, die sich auf die Dienste konzentrieren, laufen weniger Gefahr, dass ihre Produkte durch gleichwertige Hardware ersetzt werden. Um die von IoT-Systemen geforderte Performance, Dienstqualität und Sicherheit zu erzielen, ist außerdem das dienstbasierte Testen von entscheidender Bedeutung.

Mehr als nur Konnektivität

Konnektivität ist nicht gleich IoT. Deshalb reicht die Vernetzung eines Produkts mit dem Internet allein nicht aus. Erst wenn diese Verbindung genutzt wird, um beispielsweise Betriebskosten zu reduzieren, neue Einnahmequellen zu generieren oder neue Dienstleistungen anzubieten, wird ein internetfähiges Produkt tatsächlich zu einem Bestandteil des Internets der Dinge.

Entwickler müssen sich die Frage stellen: Geht es darum, nur Konnektivität für ein Endgerät herzustellen? Oder soll die Vernetzung beispielsweise helfen, datenbasierte und praktikable Entscheidungen zu treffen oder ein Geschäftsmodell von Grund auf umzustellen? Ohne eine konkrete Antwort ist fraglich, ob der zusätzliche Aufwand überhaupt gerechtfertigt ist.

Vier Kernelemente

Im Wesentlichen besteht das IoT-Ecosystem aus vier Kernelementen: dem Produkt, der Konnektivitätsebene, der Anwendungsebene und der Cloud.

  1. Das Produkt steht an erster Stelle. Es verfügt über bestimmte Funktionen und ist im Wesentlichen für die Benutzererfahrung verantwortlich. Die Entwicklung unterscheidet sich dabei in der Regel stark vom Design eines herkömmlichen Geräts und durchläuft während der Planung und Realisierung einige Änderungen.
  2. Als nächstes gilt es, das Produkt zu „vernetzen“. Die Konnektivitätsebene stellt die Kommunikation zwischen dem Produkt und anderen Applikationen und/oder der Cloud her. Hier besteht die Herausforderung nicht nur in der Zuverlässigkeit der Datenübermittlung, sondern auch im Schutz der Daten – insbesondere wenn es sich um personenbezogene oder sensible Daten handelt. Ein grundlegendes Know-how der unterschiedlichen Technologien und Protokolle ist daher von zentraler Bedeutung.
  3. Auf der Applikationsebene ist das IoT in kürzester Zeit am stärksten gewachsen. Unternehmen entwickeln mehr und mehr Anwendungen, um Daten zu sammeln, Datenanalytik auszuführen und auf dieser Grundlage Geschäftsentscheidungen zu treffen. Für Gerätehersteller lohnt es sich, entsprechende Applikationen unvoreingenommen zu prüfen, ohne dabei die eigentliche Kernfunktion und -aufgabe ihres Produkts aus den Augen zu verlieren. Oft ist hier ein vorsichtiges Abwägen von zu leistendem Aufwand und erreichtem Mehrwert nötig.
  4. Als letzte Ebene des IoTs kann die Cloud angesehen werden – entweder Private, Public oder Hybrid. Hinsichtlich der Konnektivität im IoT ist die digitale Wolke allgegenwärtig geworden und ermöglicht die nahtlose und weltweite gemeinsame Nutzung von Daten.  

mHealth und Maintenance

Ein Vorreiter bei der Nutzung des IoTs in der Produktentwicklung ist die Life Science-Branche. Wearables wie Fitness-Tracker erfreuen sich weiter Verbreitung und nutzen die Möglichkeiten von Konnektivität in vollem Ausmaß, um Daten via Software-Applikationen in die Cloud zu schicken. Hier und im sogenannten mHealth (Mobile Health) übernehmen Smartphones bei medizinischen Verfahren und Anwendungen wichtige Funktionen. Gerätehersteller nutzen beispielsweise die Eigenschaften von iPhone und Co, um über Apps Daten zu sammeln und direkt an den Patienten oder das medizinische Fachpersonal weiterzuleiten. Neue Geschäftsmodelle eröffnet auch das Remote Monitoring von Patienten mit chronischen Beschwerden. So sind die Sensoren eines kardialen Überwachungssystems zwar am Körper des Patienten angebracht, die Übertragung der Daten erfolgt aber über das patienteneigene Smartphone.

In der Industrie sind es vor allem IoT-Lösungen der Anlagenüberwachung, die eine Reduktion von Stillstandszeiten und damit Kosteneinsparungen versprechen. Zum Einsatz kommen die Technologien u.a. bei der Fernübertragung von Daten, bei Updates vor Ort, Warenortung, Geolokalisierung, Facility Management, Anwesenheits-Erfassung und präventiver Instandhaltung. Die wachsende Menge an Daten legt jedoch auch die Latte für die Sicherheit von Unternehmen höher. Die Effizienz von Smart Factory und Predictive Maintenance sind deshalb immer auch mit Blick auf IT-Sicherheit und Datendiebstahl zu beurteilen.

Services besser monetarisieren

Generell bietet das IoT Vorteile für Unternehmen, die ihre Servicemodelle verändern oder neue Services anbieten wollen. Traditionelle Hersteller und Dienstleister in der Investitionsgüterindustrie entwickeln sich so zu Anbietern, deren Services leistungsabhängig statt pauschal abgerechnet werden können. Vor allem für Branchen, in denen Versicherungen, Haftungsansprüche, Lizenzierungen, Leasing- oder Leihangebote eine Rolle spielen, kann die Überwachung der Nutzung in Echtzeit Geschäftsmodelle grundlegend verändern.

Wie effektiv Entwickler das IoT nutzen können, hängt davon ab, wie gut sie die IoT-Anforderungen ihrer Kunden kennen. Erst dann gelingt die Realisierung eines Produkts, das nicht nur vernetzt ist, sondern echten Mehrwert für Kunden und Endanwender schafft. So kann sich das IoT von einem Trend zu einer echten Chance für Unternehmen entwickeln, bestehende Märkte auf neuen Wegen gewinnbringend auszuschöpfen.

Das Supply Chain Center of Excellence

Es genügt nicht, bei der Lieferkettenplanung den idealen Weg von A nach B für ein Produkt zu finden. Denn die Wahrscheinlichkeit, dass der ausgearbeitete Plan nicht durchzuführen ist, ist hoch. Vorherzusagen, welche Ereignisse in der Zukunft Auswirkungen auf die Lieferkette haben, ist nahezu unmöglich. Beispiele für sich ändernde Gegebenheiten können Bedarfsschwankungen und Omnichannel-Geschäftsmodelle, steigende Rohstoffpreise, Naturkatastrophen, politische Spannungen und internationale Konflikte sein. Veränderungen von externen Beschaffungs- und Transportnetzwerken sind weitere, entscheidende Einflussfaktoren im Tagesgeschäft weltweit agierender Unternehmen. Diese vielfältigen und zum Teil unbekannten Variablen bedeuten für jedes Unternehmen hunderte von „Was wäre wenn“-Szenarien, die im Idealfall schnell und datenbasiert beantwortet werden sollten.

Die Lieferkettenoptimierung: Work in progress

Um den neuen Herausforderungen tagtäglich zu begegnen, reicht es nicht mehr aus, sich auf Trends und Statistiken der Branche zu verlassen. Damit ein Lebensmittelhersteller beispielsweise für das Weihnachtsgeschäft gerüstet ist, genügt es nicht, die Lieferdaten und Absatzzahlen aus den Wintermonaten des Vorjahres zu analysieren. Unternehmen müssen Entscheidungen treffen, die auf kontinuierlichem Supply Chain Design basieren. So können sie erkennen, wo zum jeweils gegenwärtigen Zeitpunkt Kosten und Risiken minimiert werden können. Viele Unternehmen setzen daher auf die Kompetenzen eines eigenen Supply Chain Design Center of Excellence. Ein solches Kompetenzzentrum überwacht laufend die gesammelten Daten aus dem Supply-Chain-Netzwerk und somit sämtliche Einflussfaktoren. Dieses Center of Excellence verknüpft Daten, die aus unterschiedlichen Quellen stammen. Die Informationen werden im Anschluss zu aussagekräftigen Supply-Chain-Szenarien zusammengeführt.

Supply Chain Center of Excellence

Ein Supply Chain Center of Excellence ist ein erfolgversprechender Weg, um Lieferketten bestmöglich auszurichten. Neben der Software kommt es auf gut ausgebildete, fachkundige Mitarbeiter aus unterschiedlichen Unternehmensbereichen an. Interdisziplinäre Teams, die zum Beispiel aus Produktions-, Vertriebs-, Kundenservice-, Logistik- und Finanzmitarbeitern bestehen, gewährleisten die unabhängige Ausrichtung des Center of Excellence. Eine zentrale Aufgabe ist die unterschiedliche Gewichtung von Modellierungsszenarien. Jede Initiative kann im Rahmen einer Matrixstruktur nach ihrem Nutzen und ihrer Komplexität eingeordnet werden. Dabei umfassen mögliche Varianten das gesamte Supply-Chain-Netzwerk und reichen zum Beispiel von Multi-Echelon-Bestandsoptimierung bis zur Simulation von Cost-to-Serve Modellen, alternativen Beschaffungsstrategien, Standortanalysen und Exportoptimierungen. So lassen sich schnell die Projekte mit dem größten Wertschöpfungspotenzial erkennen.

Fazit

Viele Unternehmen wissen um die Wichtigkeit von Supply-Chain-Design-Initiativen. Sie sind die Eckpfeiler, um die gesteckten Ziele auch zu erreichen. Häufig bleibt es jedoch bei strategischen Konzepten, die oftmals nur in großen zeitlichen Abständen von externen Partnern überarbeitet werden. Diese Vorgehensweise ist kostspielig und nicht effizient. Die Etablierung eines internen Supply Chain Center of Excellence hingegen bindet wichtiges Know-how im eigenen Unternehmen und ermöglicht darüber hinaus die kontinuierliche Überprüfung und Verbesserung des globalen Supply-Chain-Netzwerkes, einer entscheidenden Erfolgskomponente.

Intelligente Formulare erleichtern Hochschul-Mitarbeitern den Alltag

Als größte Berliner Hochschule für Angewandte Wissenschaften mit über 13.000 Studierenden und rund 570 Mitarbeitern vereint die HTW Berlin 70 Studienangebote in den Bereichen Technik, Informatik, Wirtschaft, Kultur und Gestaltung unter einem Dach. Das Fächerspektrum reicht von klassischen Disziplinen wie Maschinenbau, Informatik, Fahrzeugtechnik und Betriebswirtschaftslehre bis hin zu neuen Ausbildungsgängen wie Facility Management oder Game Design.

Digitalisierung der Hochschule hat begonnen

Formulare als Schnittstelle zu den Studierenden oder Mitarbeitern spielen in der Hochschule eine große Rolle. Sie werden oft dezentral in den Fachabteilungen erstellt, um bestimmte Verwaltungsaufgaben zu organisieren. In einem 2016 gestartet Projekt geht es aber zunächst einmal um hochschulweite Prozesse, die schrittweise auf elektronische Workflows umgestellt werden. Mit Hilfe von Adobe Experience Manager Forms lassen sich formularbasierte Workflows umsetzen, die von dem Campus-Management- oder ERP-System nicht abdeckt werden.

Ziel ist es dabei nicht, ineffiziente Geschäftsprozesse erträglicher zu machen, indem man sie ein bisschen automatisiert. Sondern erreicht werden soll eine grundlegende Optimierung der Abläufe. Denn die heutige Studentengeneration sind Digital Natives und erwarten jederzeit und über jedes Gerät Prozesse anstoßen zu können. Im ersten Schritt begann das Hochschulrechenzentrum mit dem Bereitstellen von dynamischen Formularen im PDF-Format.

Dabei wurde nach einer Lösung gesucht, bei der sich die eFormulare bereits während des Ausfüllens automatisch an die jeweiligen Erfordernisse bei der Eingabe anpassen. Etwa wenn sich beim Beantworten der ersten Fragen in einem Antrag für ein Urlaubssemester herausstellt, dass bestimmte Voraussetzungen nicht erfüllt sind, lässt sich dieses Formular gar nicht erst weiter ausfüllen und abschicken.

Formulare passen sich an das Endgerät an

Mittlerweile hat die HTW Berlin bereits einige solcher komplexen Workflows auf Basis adaptiver Formulare realisiert. Diese werden im Browser angezeigt und passen sich in der Darstellung automatisch an den Bildschirm des jeweiligen Endgeräts an. Egal ob Smartphone, Tablet und Desktop PC – der Server liefert das Formular in der optimalen Feldanordnung und Größe aus. Eine einheitliche Gestaltung im Corporate Design der Hochschule und eine Reihe von standardisierten Bedienfunktionen vereinfacht den Umgang mit dynamischen Formularen.

Bestimmte alltägliche Standardprozesse für die Studierenden oder Lehrenden werden weiterhin über das Campus-Management-System abgebildet. Etwa die Belegung von Lehrveranstaltungen oder die Verbuchung von Prüfungsergebnissen. Die neue Formular-Plattform unterstützt dagegen die Digitalisierung von Abläufen, die zum Teil Ad-hoc entstehen, zeitlich begrenzt sind oder von den anderen Systemen nicht berücksichtigt werden. Beispielsweise die Abrechnung von Lehraufträgen, die Bewerbung zum weiterbildenden Masterstudium oder die Vergabe des Deutschlandstipendiums. Denn in diesen Prozessen steckt ein enormes Potenzial zur Effizienzsteigerung.

Zum Beispiel bei der Abrechnung von Lehraufträgen. Dieser Prozess war in der Vergangenheit manuell, arbeitsintensiv und fehleranfällig. Heute erfolgt er über einen automatisierten Formularworkflow. Die geleisteten Stunden sowie die vereinbarten Stundensätze werden aus dem Verwaltungssystem gezogen und in das Abrechnungsformular gespeist. Der Lehrbeauftragte bekommt dieses bereits vorab befüllt und kann es im Rahmen seiner Rechte ergänzen, abändern und digital zurücksenden.

In Zukunft sollen die vielfältigen Möglichkeiten zum Erstellen von adaptiven Formularen noch stärker zum Einsatz kommen. Und auch das Thema „Digitale Signatur“ ist für die Hochschule wichtig: Denn eine verbindliche elektronische Unterschrift, nach der das Dokument nicht mehr manipuliert werden kann, ist gerade bei sensiblen Prüfungsunterlagen oder Zeugnissen von höchster Bedeutung.

Der gesamte Projektbericht findet sich hier zum Download.

Richtige Wege zur Digital Readiness für Logistiker

In den Medien steht Logistik in Sachen Digitalisierung schlecht da – letzter Platz im Branchenranking und deshalb Kritik von allen Seiten. Zugleich ist auf den Führungsetagen vieler Logistiker Ratlosigkeit zu spüren: Was bitte sollen wir denn digitalisieren? Vor allem der Blick nur auf IT ist ein großer Fehler. Der Dschungel sich regelmäßig widersprechender News, Studien und Innovationsmeldungen macht die Entscheidungslage nicht einfacher – ganz offensichtlich wird die Dynamik der Logistikbranche falsch eingeschätzt. Meist sind die Kunden die Besitzer der Daten und geben IT-Anforderungen vor. Das schränkt eigene digitale Initiativen schon drastisch ein. Damit werden auch Investitionen in Digitalisierung Verhandlungssache. Man sollte auch den Beitrag, den die Logistik bislang bei der Steuerung und Abwicklung von Logistikketten geleistet hat, nicht vergessen. Darunter gibt es viele bereits bewährte Anwendungen und Methoden, die längst noch nicht allgemeiner Standard sind.

Auf eigene Faust digitale Vorzeigeprojekte loszutreten, ist vielleicht Sache der Big Player, nicht aber für einen solide kaufmännisch kalkulierenden Mittelstand, solange nicht ein Kunde als Auftraggeber dahinter steht. Also doch alles auf Entwarnung? Und bedeutet Digitalisierung überhaupt immer Ausbau von IT-Lösungen?

Aus einer Vielzahl von Gesprächen der jüngeren Vergangenheit ist ein Leitfaden entstanden, mit dem sich eine ganze Menge Klarheit schaffen lässt.

Digitalisierung ist nur ein Schlagwort

Es besagt nichts über richtige Strategien. Die Marker nur an Digitalisierungs-Trends wie Big Data oder Internet of Things zu setzen, ist kein Ansatz für zukunftsorientierte IT und Organisation. Selbst Kai Goerlich, Chief Futurist des Softwarekonzerns SAP räumt ein, dass vieles, was jetzt als Revolution vorgestellt wird, lediglich gute Marketingstrategie sei.

Industrie 4.0 verändert die Spielregeln

Produktionskonzepte wie Production on Demand können konsequenterweise zu einer Abkehr von bisherigen Globalisierungsstrategien hin zu regionalen Zuliefernetzwerken, anderen Bestands- und Verteilkonzepten führen, um digitale Zeitvorteile nicht wieder durch lange Lieferketten zu verlieren. Zeit wird ein größerer Faktor werden als Kostenvorteile in Billiglohnländern oder große Stückzahlen, d. h. die nächste Logistikausschreibung eines Stammkunden könnte schon radikal andere Anforderungen beinhalten.

Digital Readiness

Die Kernstrategie von Logistikdienstleistern muss daher Digital-Readiness lauten: Was die Kunden zukünftig planen, sollte man nicht erst aus der Tagespresse oder bei Vertragskündigung erfahren. Im Kern heißt das, IT, Prozesse, Mitarbeiter zu einer Digital Readiness zu führen, um auf Marktveränderungen bzw. Kundenanforderungen kompetent mit Lösungsvorschlägen reagieren zu können. Dies beginnt meist schon mit der Frage: Wie gut sind wir im Branchenvergleich schon aufgestellt? Verfügen wir z. B. schon über ein leistungsfähiges Prozess- und Wissensmanagement?

Digitalisierung und Skaleneffekte

Viele Logistik 4.0 Pilotanwendungen wie z. B. intelligente Ladungsträger bleiben heute im Versuchsstadium, weil Einzellösungen keine kritisch-wirtschaftliche Masse bilden. Der Schritt vom Labor in den Echtbetrieb scheitert aber zum Teil auch an technischer Zuverlässigkeit unter Realbedingungen oder ganz einfach an Stückkosten.

Keine Standardgeschäftsmodelle/Blaupausen

»Die« Digitalisierung von der Stange gibt es nicht, schon gar nicht von Anbietern ohne Markt-Background. Digitalstrategien sind daher bislang individuelle Lösungswege, vergleichbar der Logistik in den 80er, frühen 90er Jahren: Pionierarbeit.

Insellösungen?

Die Stärke der Logistik ist es Partner in der Kette zu vernetzen, kundenorientierte Lösungen sind der Anfang von Standards, diese Reihenfolge bleibt sinnvoll.

IT oder Management?

Die Verantwortung für Digital Readiness liegt zunächst bei der Unternehmensleitung und Key-Account-Management, Entwicklung früh zu erkennen, einzuschätzen wie die Organisation und IT darauf vorbereitet ist, erst daraus ergeben sich auch notwendige Maßnahmen.

Logistiker sind daher gut beraten, wenn sie sich erst einmal Gesprächspartner suchen, die nicht gleich Must-Have-Lösungen anbieten wollen.

2017 ist das Jahr des „Internet of Some Things“

Das Internet of Things (IoT) setzt seinen kometenhaften Aufstieg fort. Ein unendliches Angebot ist in die Netzwerke überall auf der Welt eingeflossen und bringt es inzwischen auf 23 Billionen Geräte. Von Connected Cars über Thermostate bis zu Rasenmähern – vorhandene Endgeräte, die nun über das Internet verbunden sind, geben uns Informationen oder verhalten sich automatisch, und dies auf Basis unserer Nutzungs- oder Verhaltensweisen. IoT-Konzepte erhalten immer mehr Einzug in Business- und Consumer-Anwendungen, mit dem Ziel, Aufgaben einfacher und schneller zu erledigen und mögliche Bedürfnisse vorherzusagen.

IoT wird tiefgreifende Auswirkungen auf unser Leben haben, es wird Bestandteil unseres Alltags werden und die Art und Weise ändern, wie geschäftliche Prozesse ablaufen und wie wir mit Geräten aber auch untereinander agieren.

Hochentwickelte Cyberangriffe setzen Unternehmen Risiken aus

Dennoch läuft nicht alles problemlos. Hochentwickelte Cyberangriffe wie Petya und WannaCry bereiteten Banken und Organisationen weltweit Probleme. Mit der zunehmenden Anzahl an IoT-Geräten wachsen die Bedenken sowohl auf Kunden- als auch Unternehmensseite, dass solche Angriffe weiterhin ansteigen werden. Derzeit gibt es keine staatlichen Regularien für solche Geräte. Es gibt keine Standards und die Technologie entwickelt sie zu schnell. Zudem werden IoT-Geräte und smarte „Dinge“ in unterschiedlichen rechtlichen Einflussbereichen weltweit hergestellt, die zu schnell auf die Märkte geworfen werden, als dass staatliche Regularien greifen.

Aus den Cyberangriffen muss die Lehre gezogen werden, dass trotzdem die Entwicklung und Einführung von IoT-Geräten revolutionär sind, diese fachgerecht gesichert und reguliert werden müssen. Es scheint, dass das „Internet of Things“ – bevor es sich langsam zum „Internet of Everything“ entwickelt – erst einmal einen Schritt zurückmachen und herausfinden muss, wie es sich selbst künftig schützt. Über die letzten fünf Jahre hat sich die Anzahl global vernetzter Geräte mehr als verdoppelt – von 8.7 auf 23 Billionen – und bringt dabei ständig neue Schwachstellen mit sich.

Die relevanten Daten identifizieren und diese effizient nutzen

Cybersicherheit stand für viele Jahre an der Spitze der Tech-Themen. Mit der nahezu unkontrollierbaren Anzahl von zunehmend vernetzten Geräten wird diese neue Cyberbedrohung weiter wachsen. Aus SOTIs Sicht sollten Unternehmen daher Bilanz ziehen und es zum „Internet of Some Things“ zu machen.

Es besteht kein Zweifel daran, dass IoT großen Einfluss auf unser Leben haben wird. Viele Unternehmen, nahmen das Internet of Things bereitwillig an und integrierten eine auf sie zugeschnittene Strategie. Für diese erhielten sie die Belohnung in Form eines neuen Levels an Mobilität und Effizienz, was das Geschäftswachstum enorm ankurbelt. IoT, richtig eingesetzt, bietet unerschlossenes Potential. Vernetzte Endpunkte innerhalb eines Unternehmensökosystems fungieren als Portal, mit der Fähigkeit, stetig wertvolle Daten zu sammeln. Lediglich die Informationen zu haben, bringt allerdings nicht viel. Gefragt ist die Fähigkeit, diese Informationen zielgerichtet auszuwerten und dann auf geeignete Weise einzusetzen, um Prozesse im Unternehmen und das eigene Geschäft zu optimieren. Je mehr vernetze Geräte auftauchen, desto mehr Informationen werden verfügbar – und desto größer die Herausforderungen an Sicherheit und Verarbeitung dieser Daten.

Vor diesem Hintergrund sollten Unternehmen sich fragen: Sind diese Daten überhaupt nützlich? Wie helfen sie uns dabei, besser zu werden, das Unternehmen vom Wettbewerb abzuheben, das Kundenerlebnis zu verbessern oder ein Brancheninnovator zu werden? Wenn einmal die relevanten Daten identifiziert wurden, ist es geschäftskritisch diese auf effektive Weise zu analysieren und einzusetzen, um zu einem positiven Wandel beizutragen.

Vom Internet of Things zum Internet of Some Things

Es stiftet Verwirrung zu versuchen, alle Geräte zu vernetzen und die daraus resultierenden Daten zu verwenden. Es sind einfach zu viele Informationen, als dass Unternehmen all diese effektiv einsetzen könnten. Unternehmen sollten daher zunächst inventarisieren und die „Dinge“ identifizieren, mit deren Informationen der größte Wert erzielt werden kann, damit ihre unternehmensspezifische IoT-Strategie entwickelt werden kann.

Bei IoT geht es darum, zu identifizieren, was am wichtigsten für das Unternehmen ist und das „Warum“ zu verstehen. Warum wird eine IoT-Strategie eingeführt und was soll das Ergebnis sein? Wenn die Beweggründe klar sind, kann man festlegen, welche „Dinge“ man dafür braucht. Für die meisten Unternehmen kommen neue Gerätetypen, Endpunkte und „Dinge“ zum Einsatz, um Geschäftsprozesse zu optimieren und Kosten zu senken. Nur das Unternehmen selbst kennt die eigenen Besonderheiten und die der Branche, ebenso wie die speziellen Anforderungen, die IoT erfüllen kann, aber der Schlüssel liegt darin, diesen Bedarf zuerst genau zu bestimmen.

Während Unternehmen denken, der Schlüssel liege darin, groß und differenziert zu denken, ist es mindestens genauso wichtig, dass sie nicht einfach herumprobieren, alles zu vernetzen und zu schauen, was passiert. Unternehmen sollten sich auf das weitere Wachstum des IoT einstellen, aber der Ansatz muss richtig sein. Es könnte kontraproduktiv sein, zu viel auf einmal erreichen zu wollen. Vermutlich liegt der wahre Wert des IoT darin, kleine Dinge gut zu machen und dann darauf aufzubauen. 2017 sollte nicht einfach ein weiteres Jahr des IoT sein, sondern das Jahr des „Internet of Some Things“.

José Active-Directory-Dokumentation

José Active-Directory-Dokumentation (http://www.faq-o-matic.net/jose/) muss nicht installiert werden, sondern lässt sich direkt starten. 

Das Tool können Sie natürlich sehr umfangreich verwenden, aber auch Standardmittel stehen zur Verfügung. Verwenden Sie die Datei standard-reports.bat erstellen Sie einen Standard-Bericht, mit den wichtigsten Daten von Active Directory. Mit dem Tool jose.hta erstellen Sie eigene Berichte und können die Daten und Einstellungen selbst wählen. Sie finden die Berichte im Verzeichnis Reports im Programmverzeichnisses von José. Die Berichte werden als HTML-Datei gespeichert.

Starten Sie die Batch-Datei wer-bin-ich.bat, zeigt die Befehlszeile Ihren Anmeldenamen an und die Mitgliedschaft der Gruppen. Sie können die Batch-Datei auch bearbeiten und als letzte Zeile den Befehl pause eintragen. Dann wird das Fenster nicht geschlossen, wenn Sie den Befehl per Doppelklick in Windows starten. Sie können in diese Datei noch weitere Befehle eintragen, wenn Sie das wollen. Der Befehl hostname zeigt zum Beispiel zusätzlich noch den Computernamen an, was beim Verwenden der Datei besonders sinnvoll ist.

Active Directory Replication Status Tool

Das Tool AD Replication Status hilft bei der Analyse von Problemen in Active Directory. Mit dem Tool sehen Sie, ob die Replikation zwischen den Domänencontrollern funktioniert. In der Oberfläche klicken Sie dazu auf Refresh Replication Status. Anschließend scannt das Tool die Domänencontroller und zeigt Replikationsprobleme an.

Über die Schaltfläche Domain wählen Sie die Domänen aus, in der Sie die Replikation testen wollen. Zunächst zeigt das Tool alle gefundenen Domänencontroller an und ob diese grundsätzlich erreichbar sind. Sie sehen im Fenster auch, wie viele Fehler auf den Domänencontrollern im Bereich der Replikation aufgetreten sind.

Sie können mit dem Tool die komplette Gesamtstruktur mit allen Domänencontrollern oder auch nur einzelne Domänen untersuchen. Auch die Überprüfung einzelner Domänencontroller können Sie mit dem Tool durchführen. Fehler kennzeichnet das Tool in Rot. Klicken Sie doppelt auf einen Fehler, zeigt das Tool auch Hinweise und Lösungsvorschläge an.

Wollen Sie nur einige oder einen Domänencontroller testen, klicken Sie auf Select Targets und wählen die Domänencontroller aus, die Sie testen wollen. Im Menüband können Sie nur Fehler einblenden lassen und die Daten zu Excel-Tabellen oder XPS-Dateien exportieren. Mit Refresh Replication Status lässt sich die Ansicht aktualisieren.