Domänenaufnahme durchführen

Ändern Sie die IP-Einstellungen so ab, dass der Client einen DNS-Server in der Active Directory-Struktur verwendet. Um die Verbindung zu testen, öffnen Sie eine Eingabeaufforderung auf dem Client und geben nslookup <FQDN des Domänencontrollers> ein. Lassen Sie anschließend den Client noch den Domänencontroller anpingen.

Domänenaufnahme durchführen

Rufen Sie das Startmenü auf, indem Sie die (Windows)-Taste betätigen. Suchen Sie nach „computer“ und klicken Sie das Icon „Computer“ mit der rechten Maustaste an. Wählen Sie den Eintrag „Eigenschaften“ aus. Klicken Sie anschließend bei Einstellungen für Computernamen, Domäne und Arbeitsgruppe auf „Einstellungen ändern“.

Klicken Sie danach auf der Registerkarte Computername auf Ändern. Geben Sie bei Computername den Namen des Computers ein, den er später in der Domäne erhalten soll. Aktivieren Sie dann die Option Domäne bei Mitglied von und tragen Sie den DNS-Namen der Domäne ein, welcher der Client beitreten soll.

Als letztes müssen Sie sich noch an der Domäne authentifizieren. Bei erfolgreicher Eingabe wird der Server in die Domäne aufgenommen. Wie bei den Vorgängerversionen von Windows müssen Sie den Server nach der Domänenaufnahme neu starten.

Haben Sie den Server nach der Domänenaufnahme neu gestartet, melden Sie sich mit einem Benutzernamen an der Domäne an.

Sie können Server auch in der PowerShell benennen, neu starten und in Domänen aufnehmen. Dazu verwenden Sie die Cmdlets

  • Rename-Computer-Name [Computername]
  • Add-Computer-DomainName [Domänenname]
  • Restart-Computer

Domänenaufnahme testen

Auf dem Domänencontroller öffnen Sie in Windows Server 2016 den Server-Manager und dann über das Menü Tools das Snap-In Active Directory-Benutzer und -Computer. Hier sehen Sie in der OU „Computers“ den neuen Server und können dessen Eigenschaften aufrufen. Auf der Registerkarte „Betriebssystem“ sehen Sie den Stand des Betriebssystems.

NIC-Teams auf Core-Server und in der PowerShell

In der PowerShell können Sie sich mit Get-NetAdapter die einzelnen möglichen Team-Adapter anzeigen lassen, und mit Enable-NetAdapter beziehungsweise Disable-NetAdapter einzelne Adapter aktivieren oder deaktivieren. Alle Cmdlets für die Verwaltung von NIC-Teams lassen Sie sich mit Get-Command -Module NetLbfo anzeigen. Eine Hilfeseite lässt sich zum Beispiel mit Get-Help New-NetLbfoTeam öffnen.

Um ein neues Team zu erstellen, verwenden Sie das Cmdlet New-NetLbfoTeam <Name des Teams> <Kommagetrennte Liste der Netzwerkkarten>. Bei Leerzeichen im Namen setzen Sie den gesamten Namen Anführungszeichen. Den Namen der Adapter erfahren Sie am schnellsten, wenn Sie Get-NetAdapter in der PowerShell eingeben. Haben Sie das Team erstellt, lassen Sie mit Get-NetLbfoTeam die Einstellungen anzeigen, und mit Set-NetLbfoTeam ändern Sie Einstellungen.

Beispiele für das Ändern sind folgende Befehle:

  • Set-NetLbfoTeamTeam1 TeamingMode LACP
  • Set-NetLbfoTeam Team1 TM LACP
  • Set-NetLbfoTeam Team1 LoadBalancingAlgorithm HyperVPorts
  • Set-NetLbfoTeam Team1 LBA HyperVPorts

Teams können Sie auch umbenennen. Dazu verwenden Sie entweder den Server-Manager oder die PowerShell und den Befehl:

Rename-NetLbfoTeam <Alter Name> <Neuer Name>

Vernetztes Expertenwissen für die digitale Zukunft

Der Begriff Internet der Dinge (IoT) ist zurzeit in aller Munde, dabei muss nicht jeder auch verstehen, wovon er da spricht. Nicht wenige Dienstleister versprechen ihren Kunden die IoT-Allroundlösung. Doch kein einzelner Anbieter ist in der Lage, die Lösungsvielfalt des IoT komplett abzudecken.

Informationen müssen heute jederzeit und auf jedem Gerät zugänglich sein. Das gilt natürlich besonders für den Service und Vertrieb, aber auch für die Kunden Ihres Unternehmens. Am wichtigsten dabei: die zielgenaue Ansprache. Hierzu benötigt man ein digital optimiertes Customer Relationship Management (CRM), das alle verfügbaren Kanäle für die Informationsgewinnung und -bereitstellung nutzt. In diesem Zusammenhang müssen auch die Möglichkeiten von Big Data, Predictive Analytics, Cloud-Lösungen und IoT erörtert werden.

Fokussieren Sie den Nutzen für Ihr Unternehmen

Erst das vernetzte Denken ermöglicht eine umfassende digitale Transformation. Ein einzelner Experte auf seinem Gebiet hat nie das vollständige Know-how, um alle Bereiche wie Sensorik, Cloud-IT-Lösungen und CRM zu erfassen. Vor allem mittelständische Unternehmen verfügen meist nicht über die internen Ressourcen, um sämtliche neuen Technologien zu verifizieren und ggf. umzusetzen. Hier hilft ein Digitalisierungspartner, der stets den Nutzen der Technologie für das Unternehmen im Blick hat.

Die digitale Wertschöpfungskette ist lang und komplex. Unzählige Dienstleister bieten zudem die verschiedensten Lösungen an und ständig werden diese um neue Features erweitert. Das Portfolio von großen Softwarekonzernen wie SAP und Microsoft übersteigt dabei bereits die Kompetenz eines kompletten Teams von Digitalisierungsexperten. Daher müssen sich Spezialisten aus den Bereichen Automatisierungstechnik und Betriebswirtschaft gemeinsam den digitalen Herausforderungen stellen.

Im ersten Schritt muss die Ausgangssituation im Unternehmen lückenlos erfasst werden. Im Anschluss ist ein strukturierter Maßnahmenplan erforderlich, der sich nicht nach den möglichen Technologien richten darf, sondern nach dem Nutzen für das Unternehmen. Da besonders der Mittelstand agil auf Marktveränderungen reagieren muss und sich keinen Rückstand erlauben darf, ist hier eine schnelle Lösungsfindung äußerst ratsam.

Die digitale Transformation ist unumgänglich

Am Markt kann nur bestehen, wer auf technologische Veränderungen schnell reagiert. Doch angesichts der Vielfalt an Technologiebereichen und deren stetiger Weiterentwicklung ist es für den einzelnen Experten und tatsächlich auch für ein ganzes Team unmöglich, den Überblick zu behalten. Um den Kundenerwartungen auch in Zukunft gerecht zu werden, sind neue Geschäftsmodelle unumgänglich. Damit individuelle Lösungen bestmöglich umgesetzt werden können, ist ein Zusammenschluss aller beteiligten Digitalisierungspartner nötig. Erst solche Allianzen schaffen die Voraussetzung für eine erfolgreiche Transformation.

Vor allem in der digitalen Welt ist der Kunde König. Produkte sollen möglichst passgenau auf seine Bedürfnisse zugeschnitten sein. Dieser Anspruch macht Technologien wie Big Data und Predictive Analytics zur Pflichtaufgabe. In der digitalisierten Geschäftswelt müssen Kundeninformationen dazu genutzt werden, neue Geschäftsmodelle zu entwickeln, um sich von der Konkurrenz abzugrenzen.

Die Stationen des digitalen Wertschöpfungskreislaufs

Tatsächlich lassen sich sämtliche Geschäftsbereiche im Unternehmen digitalisieren, was auch stets das Ziel sein sollte. Dabei dürfen die einzelnen Abteilungen nicht isoliert betrachtet, sondern müssen sinnvoll miteinander verknüpft werden. Die Leitung der Produktion sollte stets über die Vorgänge im Lager informiert sein, während der Service bspw. in der Lage sein muss, Produktdaten im CRM einem konkreten Kunden zuzuordnen, um einen proaktiven Service sicherzustellen.

Die Ziele der digitalen Wertschöpfungskette:

  • CRM optimieren
  • Enterprise Resource Planning (ERP) optimieren
  • Erkenntnisse bzgl. Kunde gewinnen
  • Field Service sicherstellen
  • Product Lifecycle Management (PLM) optimieren
  • Konstruktion an Kundenanforderungen anpassen

Was zeichnet den digitalen Wertschöpfungskreislauf aus?

Der Prozess im digitalen Wertschöpfungskreislauf beginnt mit Sensordaten, die über Sensoren in der Produktion erfasst werden, betriebswirtschaftlichen Daten und unstrukturierten Daten bspw. aus Social-Media-Kanälen. Im Anschluss geht es darum, die passenden Übertragungswege zu lokalisieren. Sollen die Daten auch für die Außendienstmitarbeiter mobil abrufbar sein, wäre bspw. LTE eine geeignete Übertragungstechnik. Von dort aus geht es in den Datenpool, idealerweise: eine Cloud. So können Daten überall und jederzeit abgerufen werden. Die darauffolgende Analyse bringt die Fülle an Daten in einen Zusammenhang, um sie für die Betrachter auf Dashboards darzustellen. Auf diese Weise lassen sich im letzten Schritt Optimierungspotenziale erkennen und in die Tat umsetzen.

Jetzt schließt sich der Kreis. Denn die optimierten Businessprozesse und neuen Einblicke in Kunden- und Unternehmensdaten lassen erahnen, welche Daten in Zukunft noch von Bedeutung sein werden. Wo müssen weitere Sensoren implementiert werden, um relevante Produktdaten zu erhalten? Mithilfe dieser Produktdaten können wiederum die Techniker einen besseren Service leisten. Dabei unterstützen sie zudem die Produktentwicklung dabei, wichtige Spezifikationen zu ergänzen.

CRM als Kern des digitalen Prozesses

Alle Stränge laufen im CRM zusammen, dem Mittelpunkt der Kundenkommunikation. Mit Digitalisierungsmaßnahmen lassen sich das CRM und damit die Kundenkommunikation wesentlich effizienter gestalten.

Die Ziele des CRM:

  • Verbesserte Kundenanalyse und Segmentierung
  • Customer Experience steigt
  • Datengetriebenes Field Service Management

Business-Applikationen, CRM und ERP wachsen mit Ihren Aufgaben. Auf diese Weise werden Sie dem hohen Kundenanspruch gerecht. Vertrieb, Marketing und Service brauchen neue Prozesse. Aber warum nutzen viele Unternehmen die ihnen gebotenen Möglichkeiten nicht? Meist scheitert die Integration am fehlenden Know-how der Mitarbeiter sowie an der Anpassung von IT, CRM und Unternehmensstrategie.

Das CRM ist und bleibt das zentrale Tool für die Pflege von Kundenbeziehungen. Nur durch eine Allianz aus Digitalisierungspartnern lässt sich dem wesentlichen Ziel Rechnung tragen, das CRM deutlich effizienter zu gestalten und mehr Daten bereitzustellen, ohne die Komplexität unnötig zu erhöhen. Dazu braucht es ein System, das folgende Kriterien erfüllt:

  • Agilität
  • Verfügbarkeit
  • Bedienbarkeit
  • Skalierbarkeit

Eine Cloud bietet all diese Eigenschaften und ermöglicht Unternehmen jeder Größe, ein CRM als Teil der digitalen Wertschöpfungskette zu integrieren.

IoT als bedeutender Faktor im digitalen Wertschöpfungskreislauf

Sensoren erfassen relevante Maschinendaten, die über Standards zur Datenübertragung wie bspw. WiFi, LTE und Bluetooth weitergegeben und auf einem Dashboard strukturiert dargestellt werden. Aus ihnen lassen sich wiederum IoT-Services wie bspw. Predictive Maintenance abbilden.

Um das volle Potenzial der Digitalisierung auszuschöpfen, braucht es Zusammenschlüsse von Digitalisierungsexperten, die in der Lage sind, IoT-Applikationen auf CRM, ERP und Field Service anzuwenden.

Fazit: Vernetztes Expertenwissen ermöglicht den Digitalisierungsprozess

Dabei sollte der Mehrwert für den Kunden immer im Vordergrund stehen. Das bedeutet, bereits bei der Maßnahmenplanung an die Kunden Ihres Unternehmens zu denken. Was erwartet der Kunde in Bezug auf Service und Produktspezifikation? Die Anforderungen an ein CRM steigen, es reicht schon lange nicht mehr aus, nur die Adresse des Kunden zu kennen.
Eine funktionierende Allianz baut auf die Fähigkeiten der einzelnen Partner. Gegenseitiges Vertrauen und Mut, neue Wege einzuschlagen, zeichnen eine solche Allianz aus. Nur so können die einzelnen Partner voneinander lernen und ihre Kompetenzfelder erweitern. Wichtig ist aber auch die Fähigkeit, sich einzugestehen, wann das eigene Wissen an Grenzen stoßen kann und dann die Unterstützung innerhalb des Zusammenschlusses gesucht werden sollte.
Neue Märkte erfordern zudem agile Prozesse und Zusammenschlüsse von Experten. Die Implementierung von Sensorik, Monitoring, Konnektivität und digitalen Services sind Aufgaben, die ein einzelner Partner nicht mehr leisten kann, jedenfalls nicht ohne den optimalen Nutzen für den Kunden aus den Augen zu verlieren.
Ein wesentliches Ziel des digitalen Wertschöpfungskreislaufs ist es, neue Geschäftsmodelle zu etablieren und proaktive Wartung zu gewährleisten. Wie Sie durch eine Digitalisierungsinitiative beides erfolgreich umsetzen und miteinander verbinden, lesen Sie im kostenlosen Whitepaper „Proaktive Wartung als Grundlage neuer Geschäftsmodelle„. Sie finden es zum Download auf der NXTGN-Website.

Industrial Analytics? Nicht ohne Strategie!

Der Einsatz von Analytics in der Industrie ist inzwischen eine „Mainstream-Idee“, wie die MIT Sloan Management Review kürzlich vermerkte – aber eben noch keine „Mainstream-Praxis“. Zu dieser Einschätzung kam das Fachblatt nach einer Befragung von über 2.000 Industrieentscheidern. Deren Resultat: obwohl alle Teilnehmer die entscheidende Bedeutung von Analytics-Strategien betonen, verfügt nur ein Achtel der untersuchten Unternehmen über eine solche.

Die Zahl dürfte Praktiker kaum überraschen. Aber sie zeigt einmal mehr, was viele Firmen noch immer am Erreichen erster Analytics-Erfolgen hindert. Der volle Wertbeitrag von Daten, Auswertungen und Einsichten ist nur mit einer Analytics-Strategie zu haben. Vorausgesetzt, diese passt zur übergeordneten Geschäftsstrategie.

Wie also eine solche entwickeln? Im Grunde ebenso wie jede andere Strategie auch: entscheiden, was das eigene Unternehmen tun soll – und was nicht. Bei Analytics-Strategien stehen vor allem drei Entscheidungen im Vordergrund: Welche Wirkungsrichtung sollte verfolgt werden, welche Werttreiber genutzt, und welche Einzelvorhaben umgesetzt?

Effizienz, Wachstum – oder beides?

Die erste Entscheidung ist vergleichsweise einfach: grundsätzlich stehen nämlich nur zwei Wirkungsrichtungen von Analytics zur Wahl. Unternehmen können Datenauswertungen einerseits nutzen, um operative Abläufe besser zu verstehen und zu gestalten. Das Resultat ist dann ein Zugewinn an Effizienz.

Andererseits können Analytics auch neue Erkenntnisse über Märkte, Kunden und Produkte erschließen. Diese können Unternehmen dann nutzen, um Innovationen zu entwickeln und neues Wachstum zu erschließen. Diese nach „außen“ zeigende Wirkungsrichtung führt zu zusätzlichem Umsatz und Gewinn durch verbesserte oder neue Produkte, Dienstleistungen und Lösungen.

Der dänische Windturbinenhersteller Vestas ist ein gutes Beispiel für Zweiteres. Das Unternehmen wertet Wetterdaten aus, um Kunden die bestmögliche Ausrichtung ihrer Turbinen zu ermöglichen. Anders ausgedrückt: Vestas verkauft nicht mehr nur ein Produkt, sondern liefert auch einen Service mit, der den Produktnutzen erheblich steigert. Die Grundlage hierfür sind „Predictive Analytics“.

Firmen, die noch keine Analytics-Strategie haben, stehen demnach als erstes vor der Frage, welche Wirkungsrichtung verfolgt werden soll: die nach innnen, für mehr Effizienz? Die nach außen, für mehr Wachstum? Oder vielleicht sogar beide?

Eine gute Faustregel ist: „interne, auf Effizienz gerichtete Ansätze erreichen meist geringere Wertbeiträge als externe, die auf zusätzliche Umsätze zielen. Dafür sind sie aber einfacher umzusetzen: Der Aufwand fürs Einrichten eines Predictive-Maintenance-Dienstes für den eigenen Maschinenpark macht weniger Aufwand als das Entwickeln einer vergleichbaren Lösung für die eigenen Kunden. Daher spricht einiges dafür, erst nach innen gerichtete Ansätze zu verfolgen und zu „üben“ – und nach außen gerichtete auf später zu verschieben.

Fünf Werttreiber für Industrial Analytics

Wenn die einzuschlagende Richtung feststeht, können die Verantwortlichen die nächste Entscheidung treffen: welche Werttreiber – gerne auch: „Outcomes“ – sollte das Unternehmen durch den Einsatz von Analytics erreichen? Die Zahl der entsprechenden Möglichkeiten ist durchaus überschaubarer, als es zunächst den Anschein haben mag: meist kommen nur eine oder mehrere der nachfolgenden fünf in Frage:

  1. Höhere Betriebseffizienz.
    Industrial Analytics eignen sich hervorragend dazu, die Effizienz in Industriebetrieben zu erhöhen: Das Verfahren unterstützt Einsparungen beim Verbrauch von Wasser, Strom oder Rohmaterialien. Und es ermöglicht das gezielte Steigern der Produktivität von Fertigungs- und Logistikabläufen. Zwei Beispiele für Letzteres: Firmen können Analytics nutzen, um die eigene Fertigungsplanung zu verschlanken, oder um die Wartungs- und Reparaturzeiten von Maschinen zu verkürzen.
  1. Gezielterer Mitarbeiter-Einsatz
    Auch beim Management von Mitarbeitern erschließen Analytics Effizienzgewinn – erhöhen überdies die Betriebssicherheit. Sensor- und Standortdaten-Auswertungen erleichtern das Heranführen von Mitarbeiter an Eisatzorte, Aufträge oder reparaturbedürftige Maschinen – ein Gewinn vor allem etwa für Mienen- und Ölfeldbetreiber oder Firmen mit vielköpfigem Reparatur-Außendienst. Werden derartige Lösungen zudem noch mit Verfahren zur Anlagenüberwachung verknüpft, können Mitarbeitern zusätzlich vor Maschinen-Ausfällen, Lecks, Gefahrstoff-Austritten und ähnlichen Sicherheitsrisiken gewarnt werden.

Diezu erreichenden Effizienzgewinne sind meist erheblich: Bei Jabil, einem auf Elektronikausrüstung spezialisiertes US-Unternehmen, senkten Analytics rund um den Mitarbeiter-Einsatz die Schließzeiten im Betrieb um 50 und den Arbeitsaufwand für bestimmte händische Tätigkeiten um bis zu 70 Prozent.

  1. Verbesserte Produkte
    Vernetzte, mit Software und Analytics-Diensten versehene Produkte bieten mehr Nutzwert als einfache Hardware. Deshalb bezahlen Kunden mehr dafür. „Smarte“ Energiemessgeräte erzielen höhere Preise, weil sie Strom sparen, vernetze Maschinen, weil sie höhere Leistungswerte und niedrige Standzeiten erreichen. Unternehmen, die ihre Produkte um Analytics-Features erweitern, können also höhere Umsätze erzielen. Zudem erreichen sie nicht selten eine stärkere Kundenbindung. Und sie erhalten Zugriff auf zusätzliche Daten und Erkenntnisse, die ihnen weitere Produktverbesserungen ermöglichen.

Zulieferer ZF Friedrichshafen liefert hierfür ein gutes Beispiel: das Unternehmen hat ein äußerst sparsames Transmissionssystem für Lkw entwickelt, das im Voraus „weiß“, wann ein Fahrer den Gang wechseln sollte – weil es fortlaufend Topographie- und GPS-Daten auswertet. Ein „smartes“ Produkt mit Mehrwert.

  1. Optimierte Portfolios
    Analytics können natürlich auch dabei helfen, das gesamte Portfolio eines Unternehmens zu verbessern: Erkenntnisse über Kunden-Präferenzen und -verhalten sowie Nutzungsmuster erleichtern das Bewerten bereits vorhandener Produkte und Services und verweisen auf Lücken im bisherigen Angebot. Schon jetzt nutzen zahlreiche Industrieunternehmen Auswertungen von Betriebsdaten dazu, gezielt neue Wartungs- und Reparaturdienste zu entwickeln.
  1. Verbesserte Customer Experience.
    Gerade das Auswerten von Betriebsdaten kann aber noch ganz andere Wertbeiträge erschließen: Als Grundlage für gezielte Verbesserungen von Kundenerlebnissen genutzt, können sie die Marktstellung eines Unternehmens ganz erheblich stärken. Beispiel „Over-the-Air-Updates“: Ein Hersteller, der per Datenauswertung erkennt, dass die Benutzeroberfläche einer Maschine den Alltags-Anforderungen beim Kunden nicht genügt, verändert dieses entsprechend, spielt über Nacht und das Netz eine neue Version auf die Maschine – und verbessert auf diese Weise Kundenerlebnis, Kundenbindung und die eigenen Chancen auf künftige Verkäufe.

Der Energie- und Automationsspezialist Schneider Electric arbeitet immer häufiger nach diesem Muster. Das französische Unternehmen setzt Analytics beispielsweise dafür ein, um die „Customer Experience“ von Industrieanlagen, Windturbinen und Gebäudetechnik-Geräten fortlaufend zu verbessern – etwa durch teils sogar kundenspezifische Services und Updates.

Fallbeispiel: So wächst der italienische Mittelständler Biesse Group mit Analytics
Der Maschinenhersteller Biesse Group beschäftigt rund 3.800 Mitarbeiter, erwirtschaftet rund 620 Mio. Euro Umsatz – und nutzt seit einiger Zeit Analytics für das Geschäft mit Maschinen zur Holz-, Stein- und Glasbearbeitung. Die Analytics-Strategie der Italiener zielt sowohl auf Umsatzzugewinne und Kostenersparnis: „Predictive Analytics“ sollen den Verkauf neuer Dienste ermöglichen und die Zahl der Service-Fälle im Betrieb reduzieren, um Garantiekosten zu sparen. Die Umsetzung der Strategie erfolgt in mehreren Schritten: Zunächst vernetzte Biesse die eigenen Maschinen über eine neu entwickelte Softwareplattform mit den Maschinen einiger ausgewählter Kunden. Dann erprobte die Gruppe erste Predictive-Analytics-Apps. Jetzt, nach dem erfolgreichen Ende der Tests, arbeitet die Gruppe darauf hin, bis 2019 ca. 10.000 ihrer weltweit installierten Maschinen mit der Plattform zu vernetzen. Jede der Maschinen ist mit rund 40 Sensoren ausgerüstet; nach erfolgter Vernetzung spielt jedes Gerät rund 60.000 Messereignisse pro Tag in Biesses Rechenzentrum zurück. Diese Daten nutzt der Mittelständler, um Vorausberechnungen über die Leistung der einzelnen Maschinen zu erstellen. Hierfür haben die Ingenieure des Unternehmens rund 50 Regeln entwickelt, auf deren Grundlage die Software-Plattform beispielsweise kritische Zustände erkennen und Warnungen ausgeben kann – etwa, wenn Temperatur, Vibrationen oder Stromspannungs-Werte in einer Maschine bestimmte Schwellenwerte überschreiten. Zudem haben die Fachleute bereits die Entwicklung weiterer Dienste vorbereitet. Biesse dürfte Kunden also schon bald Leistungsverbesserung einzelner Maschinen bieten, Maschinen-Fernsteuerung und -wartung, Verbrauchs-Management, Predictive Maintenance und Ersatzteilbedarfs-Planung sowie weitere digitale Dienste von Drittanbietern – jeweils kostenpflichtig, versteht sich, im üblichen „Pay-per-Use“-Verfahren.

Analytics-Initiativen priorisieren

Nach Wahl der Werttreiber für die Analytics-Strategie können die Verantwortlichen in einem letzten Planungsschritt überlegen, welche konkreten Analytics-Initiativen das Unternehmen starten sollte – und mit welcher Priorität. Auch hier stehen wieder zahlreiche Möglichkeiten zur Wahl – die Zahl möglicher Use Cases ist groß, eine Priorisierung daher meist unumgänglich.

Der beste Weg zu Eingrenzung wirklich werthaltiger Initiativen führt meist über eine Betrachtung der Gegebenheiten: Die meisten Industrieunternehmen verfügen zumindest über einige vernetzte Maschinen, jede Betriebs- und andere Daten sowie über Software, die diese Daten zumindest teilweise zusammenführt (Manufacturing-Execution-Software, zum Beispiel, ERP-Lösungen oder CRM-Software). Wer einen Überblick über diese Startvoraussetzungen hat, kann fast immer Use Cases bestimmen, die schon kurzfristig hohe Wertbeiträge liefern würden und ohne allzu viel Aufwand realisierbar wären.

Der italienischen Maschinenhersteller Biesse hat vorgemacht, wie eine solche Priorisierung in der Praxis aussehen kann: Das Unternehmen hat zunächst Predicitve Analytics-Lösungen rund um bereits vorhandene Maschinendaten entwickelt – und erweitert diese jetzt Schrittweise um Dienste, die auch andere Daten nutzen. Dabei sorgt die eigens hierfür entwickelte Software-Plattform des Unternehmens dafür, dass Zeit- und Kostenaufwand der erforderlichen Integrationen im Rahmen bleiben.

Wichtig: Analytics- auf Geschäftsstrategie abstimmen!

Für alle drei hier beschriebenen Schritte und Entscheidungen gilt eine entscheidende Regel: Alle sind so zu vollziehen, dass sie zur Geschäftsstrategie der Firma passen. Das bedeutet auch, dass es mit einem einmaligen Entwerfen der Analytics-Strategie nicht getan ist. Vielmehr muss die „Passung“ der beiden Strategien regelmäßig überprüft werden, ganz wie andere Strategien und Pläne im Unternehmen auch.

Am besten fährt daher, wer außer einer Analytics-Strategie auch gleich einen Ablauf für regelmäßige strategische Analytics-Planungen entwickelt, und diesen fest im Unternehmen verankert. Wer beides leistet, hat dann aber wirklich allerbeste Aussichten darauf, mit Industrial Analytics wirklich erfolgreich zu sein.

 

Was IoT und Rennsport gemeinsam haben

Was haben der Rennsport und das Internet der Dinge gemeinsam? Eine ganze Menge: Im Rennsport wird seit vielen Jahren IoT-Technologie genutzt, um Telemetriedaten der Boliden zu sammeln und auszuwerten, Fahrzeugsimulationen durchzuführen und zahlreiche Informationsquellen zusammenzuführen. Ziel ist es, die entscheidende Sekunde pro Runde schneller zu werden, mehr Rennen und schließlich auch Meisterschaften zu gewinnen. Als Sponsor und Technologiepartner des Penske Racing Teams in der US-IndyCar-Serie hat Hitachi hier große Erfahrung und zahlreiche Erfolge vorzuweisen. 

Die Industrie kann vom Rennsport lernen

Klassische IoT-Projekte und -Lösungen können von der Vorgehensweise aus dem Rennsport viel lernen. Die Herausforderungen und natürlich auch die erwarteten und erhofften Ergebnisse sind zwar andere, die Ansätze sind aber sehr ähnlich.  Eine große Gemeinsamkeit ist der Zeitdruck. In der IndyCar-Serie hat das Team typischerweise zwei Wochen zwischen den Rennwochenenden Zeit, um Verbesserungen am Fahrzeug umzusetzen. Diesen konkreten Zeitdruck hat die klassische Industrie vielleicht nicht, aber auch hier bewegen sich die Projektlaufzeiten mittlerweile eher im Wochen- als im Monatsrhythmus – und dann werden Ergebnisse erwartet.

Ähnlich wie im Rennsport ist es auch in der Industrie wichtig, sich klare, realisierbare Ziele zu stecken. Was bei einem Rennwagen die Rundenzeiten und die Standfestigkeit des Fahrzeug sind, entspricht in einer Fertigungsstraße Effizienz, Predictive Maintenance und Dynamic Scheduling.

Im Rennsport wird das Fahrzeug typischerweise durch Tuning und die Optimierung einzelner Komponenten verbessert. Die Fahrer sollen diese Maßnahmen dann in schnellere Rundenzeiten umsetzen, manchmal nur im Bereich von Hundertstelsekunden. Bei der Anpassung spielen die Telemetriedaten, aber auch die Rückmeldungen des Fahrers eine große Rolle. Das Feedback für die Entwicklung unterscheidet heute einen guten von einem herausragenden Racer. Der dreifache Indianapolis 500 Sieger Helio Castroneves vom Team Penske, mit dem Hitachi zusammenarbeitet, ist einer der besten im US-Rennsport.

Das Zusammenspiel von IT & OT entscheidet

In der industriellen Fertigung entscheiden das Zusammenspiel der einzelnen Fertigungsschritte, die Interaktion zwischen Mensch  und Maschine und daraus resultierend die Funktion der Fertigungsstraße über die Effektivität und Produktivität einer Anlage. Aus dem Rennsport können die Betreiber vor allem lernen, dass auch kleine Verbesserungen, die relativ schnell umgesetzt werden können, konkrete Vorteile bringen. Feintuning und die permanente Optimierung kleiner Stellschrauben kann durchaus die gewünschten Ergebnisse liefern. Die erzielten Verbesserungen können dann mit den „Stakeholders“ im Unternehmen diskutiert werden, um weitere Anpassungen vorzunehmen und die erzielten Erfolge entsprechend zu vermarkten.

Allerdings darf bei aller Digitalisierung auch der Faktor Mensch nicht unterschätzt werden: Produktionsunternehmen können sich glücklich schätzen, wenn sie für ihre Fertigungsstraßen ihren eigenen „Helio Castroneves” finden, der dank immenser Erfahrung und umfangreichem Know-how weiß und spürt, wie eine Anlage auf Veränderungen reagiert. Bei dem immer komplexeren Zusammenspiel von Informationstechnologie und operativer Technologie (IT und OT) kann das auch ein externer Partner wie Hitachi sein. Mit Team Penske peilen wir den Sieg in der IndyCar-Serie an. Für Produktionsunternehmen kann eine Verbesserung der Wettbewerbssituation ein ähnlicher Erfolg sein. Auf geht’s!

 

IoT-Plattformen: Kopf und Herz der Vernetzung

Anlagen und Maschinen senden im Internet of Things (IoT) selbst eine Erinnerung an das Instandhaltungsteam für den nächsten anstehenden Wartungstermin. In der Entwicklung werten Analysten Nutzerdaten aus, um die Fertigung an neue Trends anzupassen. Immer mehr Assets und Prozesse sind miteinander vernetzt. Heute rauschen viel mehr Daten durch die Unternehmensnetze als noch vor wenigen Jahren – Tendenz stark steigend.

Immerhin 72 Prozent der europäischen Unternehmen wollen, laut einer Studie des Marktforschers PAC, in den nächsten drei Jahren in das IoT investieren. Das große Potenzial hinter dieser Entwicklung ist hinlänglich bekannt. Damit die Vernetzung und somit das Zusammenspiel aller relevanten Komponenten und Systeme gelingt, brauchen Unternehmen Schnittstellen. Doch anstatt kompliziert für alle Systeme untereinander jeweils spezifische Schnittstellen zu schaffen, sind effizientere Lösungen notwendig.

Viel sinniger ist es, zentrale Knotenpunkte als Middleware zu etablieren, die eingehende Informationen verarbeiten und weiterleiten. Diese Aufgabe übernehmen sogenannte IoT-Plattformen. In der Industrie sind beispielsweise Maschinendaten heute bereits mit zahlreichen Sensoren ausgestattet, die ihre Daten an angekoppelte IoT-Plattformen weitergeben. Dort findet ein Abgleich mit Soll- und Grenzwerten statt. Gibt es Auffälligkeiten, die auf mögliche Störungen hinweisen, erfolgt im Idealfall automatisiert eine Meldung an das Ticketsystem der Instandhaltungs-Abteilung. Diese ist dann in der Lage, die Daten nochmals auszuwerten und abzuwägen, ob Handlungsbedarf besteht.

Auf IoT-Plattformen laufen zahlreiche Prozesse verschiedenster Unternehmensbereiche zusammen und die Datenverarbeitung – immer öfter auch in Echtzeit – erfordert enorme Computing-Ressourcen für eine gute Performance. Je nach Auftragslage und Bedarf schwankt das Datenvolumen. Deshalb sind hier für Spitzenzeiten skalierbare Ressourcen notwendig. IoT-Plattformen funktionieren daher vor allem grundlegend mit der Cloud als Basis.

Abwarten ist auch keine Lösung

Mit IoT-Plattformen bleibt die Vernetzung transparent und steuerbar. Dies sind nicht nur wichtige Kriterien für Effizienz, sondern ebenso für Compliance-konforme Prozesse. Die Kernaufgaben von IoT-Plattformen sind damit grundlegend klar. Wie diese allerdings von den Anbietern umgesetzt werden, ist im Vergleich weniger konkret und fällt sehr unterschiedlich aus.

Dementsprechend fehlt ein einheitlicher Standard, an dem sich Unternehmen orientieren können. Der Research-Spezialist IDC hat in seinem Bericht „Marketscape Worldwide IoT Platforms 2017“ einige zentrale Eigenschaften für IoT-Plattformen  zusammengefasst. Dazu gehören die Verbindung zu IoT-Endpunkten sowie ihre Verwaltung, Aufnahme und Verarbeitung der IoT-Daten, ihre Visualisierung sowie Analyse, Bau von IoT-Applikationen und schließlich die Integration von IoT-Daten in bestehende Anwendungen. Noch hat sich allerdings kein Prozess oder Verfahren hersteller- oder branchenübergreifend für IoT-Plattformen durchgesetzt.

Abwarten ist allerdings auch keine Lösung. Die Digitalisierung bringt ständig neue Technologien und disruptive Konzepte hervor. Wer nicht bereits eine digitale Agenda verfolgt, droht letztendlich den Anschluss zu verlieren und unaufholbar zurückzufallen. Beim Aufbau einer IoT-Plattform ist daher ganz genau abzuwägen, welcher Provider oder Anbieter hier passende Lösungen bietet. Um die richtige Wahl zu treffen, ist ein ganzheitlicher Blick auf die IT-Landschaft im Betrieb notwendig und eine Analyse, wo es in Zukunft hingehen soll. Gibt es beispielsweise bereits Ansätze für Big Data und Business Intelligence? Welche Rolle werden Trends wie Künstliche Intelligenz in naher Zukunft für das Unternehmen spielen? Erst mit einer solchen Ist- und Soll-Analyse finden Unternehmen eine für ihre IoT-Strategie passende Plattform.

Logistikmanagement in der Supply Chain – Agiles Management ist gefragt

Im ersten und zweiten Teil dieser Artikelreihe hat sich gezeigt, dass Prognosemodelle auf Vergangenheitsdaten in Kombination mit der Expertise des Menschen in vielen Bereichen eine wertvolle Strategie zur Bewältigung täglicher Planungsherausforderungen sind. So erkennen beispielsweise intelligente Algorithmen den Zusammenhang verschiedener Variablen, die ein Absatzmuster für Produkte bestimmen. Auf dieser Basis können verlässliche Prognosen über das zukünftige Kundenverhalten getroffen werden.

Jedoch begegnen uns in unserem Unternehmensalltag immer wieder sogenannte „Disruptions“: Störungen, die Organisationen und ihre etablierten Prozesse massiv einschränken oder gänzlich aushebeln. Das können Lieferausfälle sein, die durch einen Hafenstreik hervorgerufen werden, oder auch neue Gesetzesschranken sowie Naturkatastrophen. Allerdings sind es maßgeblich sogenannte „Micro-Disruptions“, also viel „kleinere“ Störungen die Auswirkungen auf unser tägliches Agieren haben und nicht vernachlässigt werden dürfen. Beispiele hierfür sind einfache Falschlieferungen oder auch das fehlende Teil im Lager, das bei einem Servicelevel von 99% das eine Prozent ausmacht.

In solchen Situationen sollte das Ziel von Planungsverantwortlichen nun nicht darin bestehen, schlichtweg unvorhersehbare Störungen in der „chaotischen Zukunft“ dennoch mittels Prognosen vorhersehen zu wollen, sondern vielmehr auf Strategien zu setzen, die uns im richtigen Moment die richtige Entscheidung treffen lassen.

Agilität in komplexen Umgebungen

Über das Evaluieren logischer Zusammenhänge aus vergangenen Situationen und dem Einsatz intelligenter Prognosealgorithmen hinaus, gilt es außerdem, eine fundierte Managementstrategie zu verfolgen, die es möglich macht, im Falle einer eintretenden Störung die richtige Entscheidung zu treffen. Agiles Management ist das, was über die Endlichkeit von Prognosemodellen hinaus für optimale Prozesse in einer unvorhersehbaren Umwelt sorgt.

Das bedeutet, dass dort, wo der Blick in die Zukunft schier unmöglich ist, Verantwortliche dahingehend unterstützt werden müssen, dass sie in der konkreten Krisensituation agil handeln und die optimale Entscheidung treffen können.

Solch eine Situation kann eine alltägliche sein: eine Verspätung des Lieferanten, ein Maschinenausfall oder ein fehlendes Teil im Lager. Wenn durch eine solche Störung nicht an den Kunden geliefert werden kann und das Unternehmen Wirtschaftlichkeit einbüßt, dann entspringt dies dem Zustand fehlender Alternativlösungen. Für eine schnelle Anpassung der Prozesse muss auf ein agiles Management, das „Plan-B-Lösungen“ inkludiert, umgestellt werden.

Für den Schritt hin zu einem agilen Management gilt es, folgende Ansätze zu befolgen:

  • Alternativen im Sinne eines Risikomanagements aufbauen

Im Rahmen eines Risk Managements müssen Unternehmen ein Portfolio an Alternativlösungen aufbauen. Zum Beispiel bedeutet dies, Lieferanten aufzubauen, die im Notfall herangezogen werden können.

  • Die optimale Alternative herausfinden

Aus einem Pool von „Plan-B-Möglichkeiten“ pickt ein agiles Optimierungssystem im Ernstfall die effizienteste Lösung heraus und transformiert die Planung auf Basis von Echtzeitdaten sowie unter Anwendung von intelligenten Algorithmen.

  • Strategische Überlegungen nach Optimierungskriterien treffen

Im Sinne strategischer Planung müssen altbewährte Konzepte, zum Beispiel für die Beschaffung, in Frage gestellt werden. Der Netzwerkgedanke und individualisierte Prozesse sollten Anklang finden.

Ein Beispiel aus dem Bereich Ersatzteile: Eine Reklamation trifft beim Ersatzteillieferanten ein und der Kunde fordert sofort Ersatz. Leider hat das Unternehmen aber ausgerechnet diesen Artikel aktuell nicht vorrätig. Eine Methode, diese Situation schon im Vorhinein zu umgehen, hätte der Aufbau eines hohen Sicherheitsbestands sein können. Das bindet jedoch Kapital und ist nicht im wirtschaftlichen Sinne des Unternehmens. Einen hohen Servicegrad ohne zu viel Bestand könnte ein Prognosemodell erreichen, indem es die Vergangenheitswerte betrachtet und Wahrscheinlichkeiten über die zukünftige Nachfrage gibt. Dennoch ist in diesem Moment die Not groß. Um den Kunden nicht zu verärgern, muss nun schnell die richtige Maßnahme ergriffen werden. In diesem Sinne könnte eine so genannte „Ersatzverweis“- Strategie genutzt werden. Dabei wird das fehlende Teil entweder von einem anderen, nahe am Kunden gelegenen Standort aus beschafft und geliefert. Alternativ ordnet das Unternehmen einen Expressversand an, oder aber ein alternatives Teil von höherer Qualität wird ausgeliefert, das denselben Zweck erfüllt. In diesem Fall nun die richtige Alternative zu finden, dabei unterstützen Algorithmen. Denn möglicherweise ist die Lieferung des teureren Teils günstiger als ein Expressversand. Eine Einzelfallentscheidung wäre hier noch keine enorme Herausforderung. Ein Industrieunternehmen kämpft jedoch mit einer Vielzahl solcher Entscheidungen tagtäglich. Unterstützung in Form von intelligenter Software wird unabdingbar.

Fazit

Der Wunsch, die Zukunft vorherzusehen, liegt in unserer Natur. In Industrie und Handel können präzise Prognosen über zukünftige Bedarfe und Frühwarnsysteme die Prozesse enorm effizienter machen. Zwei parallele Strategien müssen hierzu realisiert werden: Es müssen Prognosemodelle etabliert und ein agiles Management implementiert werden, um intelligente Entscheidungen treffen zu können. Herausforderungen sowohl der planbaren als auch einer unvorhersehbaren Zukunft sind mit dieser Kombination beherrschbar. Im Zuge dessen wird die Lieferfähigkeit und Performance konstant hochgehalten und negative Ausmaße einer Disruption minimiert – komme, was wolle.

Logistikmanagement in der Supply Chain – Verlässliche Daten sind ein Muss!

Im letzten Teil der Artikelreihe haben wir festgestellt, dass Situationen, die häufig oder regelmäßig auftreten, eine gute Grundlage für die Berechnung von Prognosen sind. Im Bereich Disposition beispielsweise kann eine Verkaufshistorie mithilfe des richtigen Prognoseverfahrens Aufschluss über die kommenden Bedarfe geben. Im Ergebnis optimiert dies auch die Beschaffungsprozesse und verbessert den Lieferservice. Doch woher erhalten wir überhaupt erst die Gewissheit, dass die uns vorliegenden Vergangenheitswerte korrekt sind?

Logische Korrelationen in der Ehe und im Supermarkt

Noch bevor eine Prognose auf Vergangenheitswerten erstellt werden kann, muss auch die Datengrundlage korrekt sein. Das bedeutet, um das Absatzverhalten richtig zu deuten und darauf die Planung verlässlich zu stützen, muss nicht nur die Verkaufszahl vorliegen, sondern auch die Frage beantwortet werden, warum ein Produkt in dieser Menge zu diesem Zeitpunkt gekauft wurde und welche Aussage dies über das zukünftige Verhalten trifft. Dafür müssen logische Korrelationen – also die richtigen Zusammenhänge – herausgefunden werden.

Ein Beispiel: Eine Schlagzeile eines Boulevardmagazins lautete einmal „Verheiratete Männer leben länger“. In der Konsequenz entstand der Irrglaube, die Heirat oder die Ehe habe Einfluss auf die Lebensdauer eines Menschen. Was in dieser Schlagzeile jedoch außer Acht gelassen wurde, ist die Hintergrundvariable „genetische Veranlagung“. Denn nicht die Heirat kann zusätzliche Lebensjahre bewirken, sondern genetisch gut veranlagte Männer werden einfach eher geheiratet. Ein Mann, der gute Gene hat und gesünder ist, findet schlichtweg eher eine Partnerin. Das ist durch unseren natürlichen Überlebensinstinkt begründet. Dass der Mann länger lebt, hat also nichts mit der Heirat zutun. Die logische Korrelation liegt hier also nicht in der Ehe und der Lebensdauer, sondern in der Genetik und der Attraktivität. 

Wo findet dieser Gedanke nun Anwendung in der Logistik und warum ist er von Bedeutung?  Beispielsweise in der Beschaffung von Lebensmitteln im Einzelhandel. Eine Behauptung könnte hier lauten: „Bei einem Rabatt von 10% wird die doppelte Menge Wassermelonen verkauft.“ Das klingt erst einmal nach einer denkbaren Schlussfolgerung. Möglichweise herrschten aber zum Zeitpunkt der Verkaufsaktion hochsommerliche Temperaturen und die Wassermelone war für viele Verbraucher die nötige Erfrischung. Wenn diese Information in der Statistik keine Beachtung findet, könnte die nächste Rabatt-Aktion im Herbst in einer großen Abschrift von Wassermelonen enden. Für die Prognose über den genauen Absatz der Lebensmittel ist es daher enorm wichtig, die richtigen Zusammenhänge als Auslöser für den Verkaufsanstieg zu erkennen. Dabei unterstützen Prognosesysteme durch ihre Fähigkeit, Korrelationen aufzudecken. Der Experte im Hintergrund muss dann jedoch noch beurteilen können, ob es sich auch um die logische Korrelation handelt. 

Ein Forschungsprojekt von INFORM und der Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) setzte genau hier an. Ziel der Forschung war es, den Einfluss verschiedener externer Faktoren wie Wetter, Feiertage oder Produktähnlichkeiten auf die Absätze insbesondere frischer Lebensmittel zu identifizieren und diese in mathematischen Algorithmen abzubilden. Dabei wurde eine neue Generation von Machine-Learning-Algorithmen entwickelt, die den Planer der frischen Lebensmittel unterstützen soll. Fallstudien, die mit Prototypen einer entsprechenden Software durchgeführt wurden, zeigen, dass die neu entwickelten Algorithmen Absätze der Lebensmittel besser vorhersagen können, da sie alle Einflussfaktoren, wie beispielsweise das Wetter berücksichtigen.

Zusammengefasst: Werden vorliegende Vergangenheitsdaten durch die Betrachtung logischer Zusammenhänge richtig gedeutet und bilden damit eine verlässliche Datengrundlage, setzen intelligente Prognosealgorithmen auf diese Basis auf und geben verlässliche Informationen über zukünftige Ereignisse. Doch was nun, wenn eine noch nie eingetroffene Situation erstmals entsteht?

Ist die Verlässlichkeit von Prognosen ein Trugschluss?

Dass ein wiederkehrendes Ereignis in der Vergangenheit nicht in absolut jeder Situation eine verlässliche Grundlage für eine Prognose ist, das zeigt die so genannte „Truthahn-Illusion“ von Finanzmathematiker Nassim Taleb. Diese besagt: Je öfter der Bauer seinen Truthahn füttert, desto stärker glaubt dieser an die Gutmütigkeit des Menschen ihm gegenüber und die Beständigkeit seines glücklichen Lebens auf dem Bauernhof. Am Tag vor Thanksgiving jedoch fehlte dem Truthahn die Information über seinen (bislang noch nie eingetretenen) letzten Lebtag.

Die Geschichte verdeutlicht, dass Prognosen, die auf Vergangenheitswerten basieren, Störungen nicht erfassen, wenn sie noch nie zuvor aufgetreten sind. Mit dem Resultat, dass beispielsweise der eines Tages eintreffende Lieferverzug eingetreten und unveränderbar sein wird. Zwar ist jedem Supply Chain Manager bewusst, dass es Lieferverzögerungen aufgrund verschiedenster Ursachen geben kann. Doch auch dieses Wissen ermöglicht keine Vorhersage über den genauen Zeitpunkt des Eintritts. Wenn also lediglich auf Vergangenheitswerte zurückgegriffen wird und ein möglicher, wenn auch nie dagewesener, Bruch in der Struktur unberücksichtigt bleibt, funktioniert das Prognosemodell schlichtweg nicht mehr.

Nun ist die Ausgangssituation in den verschiedenen Industrien noch um ein vielfaches komplexer. Größere Produktportfolios, globale Netzwerke, viele Prozessketten und volatile Märkte schaffen immer noch große Ungewissheit über die Kundenwünsche der Zukunft. In einer solchen Situation, in der wir es mit komplexen Vorgängen und hochgradiger Ungewissheit zu tun haben, brauchen Unternehmen ergänzende Strategien – für Agilität und Wettbewerbsfähigkeit. Welche dies sind, erfahren Sie im nächsten Teil dieses Artikels.

Logistikmanagement in der Supply Chain – Prognosen sind ein guter Anfang

Wenn Sie sich auf die Wettervorhersage für morgen verlassen können, ist das den ausgeklügelten Wettermodellen zu verdanken, die zumeist recht zuverlässig Sonnenschein oder Regenschauer für einen kurzfristigen Zeitraum vorhersagen. Doch bereits die 7-Tage-Vorhersage ist höchstens eine Tendenz, auf die wir uns (sinnvollerweise) nicht vollständig verlassen, weil unsere Erfahrung gezeigt hat, dass die langfristige Zukunft in der Regel unvorhersehbar ist. Während die kurzfristige Zukunft, wie beispielsweise der tägliche Arbeitsweg oder eben das Wetter von morgen, deterministisch ist, kann man den Zustand der langfristigen Zukunft als „chaotisch“ beschreiben. Gerade aus dieser Zunahme von Unsicherheit entspringt der immerwährende Wunsch der Menschheit, die Zukunft vollständig vorhersehen zu können. Nicht nur aus persönlichen, sondern auch aus kommerziellen Gründen.

Ruhiges Fahrwasser spart Kosten

Im industriellen und wirtschaftlichen Bereich ist der Grund für diesen Wunsch völlig klar: Je verlässlicher zukünftige Produktabsätze, Maschinenausfälle oder kurzfristige Aufträge prognostiziert werden könnten, desto exakter wären Beschaffungs- oder Produktionsabläufe und Aufwände für manuelle Änderungen vermeidbar. Insgesamt würde das alle Unternehmensprozesse beruhigen, deutlich effizienter machen, Fehlproduktionen oder versäumte Liefertermine vermeiden und somit Kosten sparen. Soweit die Wunschvorstellung.

Es existieren heute bereits Softwaresysteme, die Prognosen für die beschriebenen Ereignisse abgeben. In vielen Fällen basieren diese Vorhersagen – im Besonderen bei zukünftigem Kundenverhalten – auf historischen Daten. Denn die Vergangenheit ist faktisch und damit eine verlässliche Informationsquelle. Wurden beispielsweise in einem Produktionsunternehmen über die vergangenen zehn Jahre in jedem Mai in etwa 1.000 aufblasbare Schwimmbecken verkauft, so ist dies ein saisonaler Verkauf und der Absatz wird mit hoher Wahrscheinlichkeit auch im kommenden Mai ähnlich ausfallen. Auch für den Fall, dass das Unternehmen ein neu entwickeltes Schwimmbad auf den Markt bringt, dass sich in drei Sekunden selbst aufbläst, reagieren Prognosealgorithmen auf diese Veränderung. Es kommt nicht nur neuer Absatz hinzu, aufgrund der Portfolioerweiterung, sondern es verändert sich auch der Absatz des altbewährten Produktes. Solche Muster für Vorgänger- und Nachfolgeprodukte erfassen die Prognosen und können damit auch für Saison- oder Trendverkäufe verlässliche Aussagen über den Marktbedarf treffen.

Für genau diese Anwendungsfälle hat sich ein solches Prognosemodell für einen Blick auf zukünftige Verkäufe bewährt. Denn für Situationen wie eben der regelmäßige, trendbedingte oder auch saisonbedingte Kundenauftrag sind Prognosen auf dem heutigen Stand der Technologie äußerst verlässlich.

Ein Praxisbeispiel

Der weltweit agierende Ersatzteildistributor für Unterhaltungselektronik und Hausgeräte ASWO International Service GmbH profitiert für exakt diese Anwendungsfälle von intelligenten Prognosealgorithmen. Das Disponenten-Team bei ASWO sah sich in der Vergangenheit aufgrund der Diversifizierung des Produktportfolios mit einem starken Saisongeschäft konfrontiert. Zudem ist der Bedarf von Ersatzteilen generell schwer vorherzusagen. Vor dem Einsatz einer Optimierungssoftware sorgten die Disponenten mithilfe eines einfachen Warenwirtschaftssystems dafür, dass die am häufigsten bestellten Teile immer vorrätig waren und Lieferungen pünktlich verschickt wurden. Das funktionierte lange weitestgehend, ohne Prognosen für die Zukunft zu erstellen. Im Laufe der Jahre wurde das Teilespektrum jedoch immer größer. Irgendwann hatte ASWO den Überblick über die Bestände verloren und konnte nicht mehr mit Bestimmtheit sagen, was wann bestellt werden musste. Heute wird im Unternehmen mit add*ONE Bestandsoptimierung geplant. Die Software berechnet täglich mithilfe mathematischer Algorithmen genaue Prognosen und Kennzahlen, aus welchen sie Bestellvorschlage ableitet. Dabei berücksichtigt sie neben der klassischen saisonabhängigen Nachfrage auch Tendenzen und Ausreißer. Bedarfe werden so automatisch ermittelt, was zur Folge hat, dass die Prozesse in der Disposition wesentlich effizienter ablaufen. Obwohl ASWO inzwischen wesentlich mehr Teile im Sortiment hat, hat sich die Liefertreue in eineinhalb Jahren von 90 auf 95 Prozent verbessert, bei gleichbleibenden Beständen.

Sich für jede Situation vollends auf Prognosen zu verlassen, kann jedoch auch negative Konsequenzen haben. Wann das so ist und welche Alternativen dort entstehen, wo Prognosen enden, erfahren Sie in den folgenden Artikeln dieser Reihe.

Hilft es, altes Denken zu digitalisieren?

Was ist in Ihrem Unternehmen wichtiger: dass die Mitarbeiter über die richtigen Daten verfügen oder dass mit den verfügbaren Daten das Richtige gemacht wird? Eine dumme Frage – beides muss stimmen. Warum liegt dann der Fokus der Industrie 4.0-/Digitalisierungs-Diskussion auf den Daten? Werden die schon heute verfügbaren Daten optimal genutzt? Warum verstauben in vielen Unternehmen unzählige Prozessdiagramme in Schubladen und werden nur für Zertifizierungen herausgeholt? Die Fragen, welches die richtigen Prozesse bzw. Workflows sind und welche Chancen die Digitalisierung auf diesem Gebiet bietet, werden bislang weitestgehend vernachlässigt.

Gibt es Erfolg ohne Transparenz und Nachvollziehbarkeit?

Über den Erfolg eines Unternehmens entscheidet, wie die Mitarbeiter entlang der gesamten Wertschöpfungskette mit den vorhandenen und entstehenden Daten umgehen. Ganz besonders gilt dies natürlich im Bereich der Produktentwicklung, weil Input und Output aus Daten bestehen. Wie viel Aufwand müssen die Mitarbeiter und insbesondere die Führungskräfte in Nachfragen per Mail oder Telefon nach dem Status der einzelnen Projekte stecken? Unsere Erfahrung zeigt, dass bei Prozessen, an denen Menschen beteiligt sind (i.e. Workflows), wenig Transparenz und Nachvollziehbarkeit existiert. Weiterhin gibt es keine Möglichkeit der Leistungsmessung und des Vergleichs. Ob sich vorgenommene Prozessänderungen positiv auswirken, kann kaum belegt werden.

Workflow-Digitalisierung: einfach, schnell und wirksam

Der Versuch in mächtigen datenorientierten Systemen (CAD, PLM, ERP,…) Abläufe zu automatisieren ist außerordentlich komplex, langsam und teuer. Darüber hinaus  wird damit  auch das Silodenken gefördert, weil diese Systeme nicht über die ganze Wertschöpfungskette genutzt werden.

Dabei ist Workflow-Digitalisierung jetzt so einfach, wie Prozessdiagramme mit entsprechenden Tools zu erstellen. Die Feynsinn-Experten arbeiten dafür mit TIM-Solutions zusammen, einem der führenden Anbieter von Software für Workflow-Digitalisierung. Digitalisierte Workflows unterstützen die Mitarbeiter dabei, das Richtige zur richtigen Zeit zu tun.  Sie unterstützen die Arbeit mit den verschiedenen Datensystemen. Sie schaffen Transparenz und Nachvollziehbarkeit, weil auf Knopfdruck der Projektstatus in dem gewünschten Detailierungsgrad dargestellt werden kann. Außerdem stehen Daten zur Verfügung, um die Performance der gelebten Prozesse zu beurteilen, womit eine zielgerichtete Prozessoptimierung zum ersten Mal einfach möglich wird.

Integrationsebene für Datendurchgängigkeit

Mit nur einem IT-Werkzeug können jetzt alle Prozesse entlang der Wertschöpfungskette unterstützt werden – unabhängig davon, mit welchem Datentyp gearbeitet wird. Damit kann das Workflow-System das Integrationswerkzeug über alle Bereiche sein und die Datendurchgängigkeit ermöglichen. Erst wenn die Prozesse optimiert sind und auch gelebt werden, kann die Aufmerksamkeit der Organisation darauf gelenkt werden, wo mehr und bessere Daten gewonnen werden und welche neuen Geschäftsmodelle daraus entstehen können. Wir haben den Eindruck gewonnen, dass in der Digitalisierungsdiskussion immer die umgekehrte Reihenfolge propagiert wird.

Um abschließend zu unserer Eingangsfrage zurückzukommen: „Hilft es, altes Denken zu digitalisieren?“. Die Frage kann aus unserer Sicht nicht pauschal mit Ja oder Nein beantwortet werden. Zweifelsohne ist es unerlässlich, zunächst die Prozesse zu prüfen und diese ggf. zu optimieren. Es kann aber durchaus der Fall existieren, dass Prozesse bereits optimiert wurden, diese jedoch nur in den Schubladen schlummern und nicht umgesetzt werden. Aus unserer Sicht muss auf dem Weg in die Digitalisierung die Prüfung der vorhandenen Prozesse oberste Priorität besitzen.

BAM – CMS Blog