Mehr Tempo für die Lieferkette

Der „direkte Draht“ zwischen Lieferanten, Lager-IT und ERP beschleunigt die Durchlaufzeiten im Lieferprozess. Praxisszenarien zeigen, wie die Digitalisierung für reibungslose Abläufe entlang der Supply Chain sorgt. Da die Zeitpuffer zwischen Wareneingang und Weiterverarbeitung immer kürzer werden, muss die Liefer- und Vertriebskette absolut fehlerfrei laufen. Dies erfordert einen nahtlosen Informationsfluss zwischen Hersteller und Lieferanten durch ERP-IT-Lösungen. Denn das ERP-System initiiert und steuert alle Lieferprozesse. Die Vorteile für Produzenten und Händler: zuverlässigere Terminierungen und kürzere Lieferzeiträume.

Automatische Materialbestellung für Industrie 4.0

Zur rechtzeitigen Beschaffung von Nachschub haben viele Unternehmen „Benachrichtigungssysteme“ über ihre Lagerbestände eingerichtet. Bei der rheinlandpfälzischen apra-norm ist man bereits einen Schritt weiter. Hier sorgt ein elektronisches Kanban-Regalsystem für C-Teile dafür, dass die passenden Schrauben oder Bolzen immer ausreichend zur Verfügung stehen, wenn sie für die Montage der Schaltschränke benötigt werden. Dazu stehen mehrere Dutzend Behältnisse mit den Kleinteilen in einem Regal jeweils auf einer Waage. Mit jeder Entnahme sinkt das Gewicht. Unterschreitet es eine kritische Schwelle, wird automatisch Nachschub über die ERP-Software geordert und die Bestellung automatisch beim jeweiligen Lieferanten direkt ausgelöst.

Bei Mungo, einem auf Befestigungstechnik spezialisierten Hersteller aus der Schweiz, sorgt dagegen eine vollautomatisierte und flexible Produktionsplanung dafür, dass sich immer genügend Ware im Lager befindet. Knapp 1.500 Tonnen Stahldraht verarbeitet der Schweizer Hersteller jährlich. Das Advanced Planning and Scheduling berechnet Kapazitäten und Material-Vorräte. Geht ein Bestand zur Neige, stößt das ERP-System den Bestellprozess an.

Vernetzung mit Zulieferern über Portale

A-Teile sind die kritischen Materialien für die Produktion. Deshalb teilen Produzenten ihre Planung offen mit Lieferanten und können so Lieferzeiten verkürzen. Rauch Landmaschinen zum Beispiel hat für rund 60 Lieferanten ein Web-Portal eingerichtet. Diese sehen hier nicht nur die Bestellungen, sondern direkt den Forecast der Produktionsplanung. Somit weiß ein Lieferant, ob in naher Zukunft weitere Bestellungen geplant sind, und kann auf Lager vorproduzieren. Das ermöglicht Rauch selbst bei starker Nachfrage einen raschen Abruf.

Für reibungslose Abläufe muss die Kommunikation entlang der Lieferkette in beide Richtungen funktionieren. Via EDI (Electronic Data Interchange) kann der Zulieferer beispielsweise kommende Warenlieferungen ankündigen. Neben dem voraussichtlichen Termin informiert er auch über das Transportmittel und den beauftragten Transporteur, eventuelle Abweichungen zwischen Bestell- und Liefermenge oder mögliche Gefahrstoffe. Diese Informationen werden dann im ERP-System als Lieferavis weiterverarbeitet. Zudem vereinfacht dies den späteren Wareneingang, da die Daten direkt aus diesem übernommen werden. Fehlerquellen werden so eliminiert.

Unterschiedliche Lagerstandorte sicher verwalten

Bei Hawa Sliding Solutions sind alle Hochregallager samt Lagerrechner durch das ERP-System verbunden. Sämtliche Abläufe – ob Wareneingänge, Umbuchungen oder Materialbewegungen – lassen sich somit auf einer Oberfläche abbilden. Per Auswahlfilter geben die Logistikmitarbeiter den Lagerort an und ob sie Ware ein- oder auslagern wollen. Das ERP-System leitet auch die entsprechenden Fahrbefehle an automatisiert betriebene Staplerfahrzeuge vor Ort weiter, welche die Behälter in Bewegung setzen.

Lieferanten-Logistik-Zentren (LLZ) integrieren

LLZ sind in der Regel als Konsignationslager angelegt. Sie befinden sich meist in unmittelbarer Nähe des weiterverarbeitenden Unternehmens oder sogar auf dessen Werksgelände. In einem LLZ lagern oft Teile verschiedener Zulieferer. Dies sorgt für geringe Lagerkosten für den einzelnen Lieferanten. Der weiterverarbeitende Betrieb wiederum sichert sich damit die Lieferfähigkeit bei einer Vielzahl von Zukaufteilen. Ein solches Logistik-Modell sorgt nicht nur für kurze Wege. Es gewährleistet auch eine höhere Prozesssicherheit, denn unplanbare Störfaktoren durch lange Transportwege werden vermieden. Abrufe, Lieferschein- und Transportdaten werden hier via EDI mit dem ERP-System ausgetauscht.

Diese Szenarien zeigen exemplarisch: Digitale Informationsflüsse in der Lagerlogistik ebnen den Weg für reibungslose Warenströme – und das unabhängig von Lagerort und Lagertyp. Damit hilft die Digitalisierung durch Automation den Unternehmen in Industrie und Handel, ihre Kunden schneller mit den gewünschten Produkten zu versorgen.

Mobile Hallen erhöhen Flexibilität in Produktion

200.000 Quadratmeter mobile Hallenfläche in dutzenden Objekten hat Rainer Nobereit aktuell bundesweit vermietet. Das modulare Hallen-Equipment, dessen Spektrum aktuell von Größen von 70 bis 33.000 Quadratmetern reicht, hat einen Sachwert von 70 Millionen Euro.

Nach dem Baukastenprinzip können die Hallen in einem Rastermaß von zehn bis 75 Metern Breite und vier bis acht Metern Höhe in Fünf-Meter-Schritten beliebig lang überall binnen zweier Monate errichtet und in Betrieb genommen werden. Das bietet vor allem Produktion und Logistik kurzfristig und flexibel die Möglichkeit, Produktions- und Lagerflächen zu erweitern. Der Clou: Der Logistiker mietet oder least die Halle zum festen Preis und nur für die Dauer ihrer Nutzung.    
1995 begann Nobereit, der die Marktlücke als Logistikmanager bei Opel in Bochum erkannt hatte, mit einer ersten Zelthalle für DaimlerChrysler in Rastatt im Kontext der A-Klasse und des missglückten Elch-Tests. „Die brauchten damals schnell zusätzliche Lagerflächen und ich habe geliefert“, sagt der 59-Jährige. Vier Jahre später gründet der Baden-Badener dafür die HaLog MCI GmbH & Co. KG und liefert seither mobile Hallen aus Stahl, deren Komponenten er bei Metallbauern produzieren lässt.
Je nach Standard kostet ihn der Quadratmeter je Halle 200 bis 500 Euro in der Herstellung. Das hängt von Heizung, Beleuchtung oder Kühlung ab. So verbaut er üblicherweise Schnelllauf-Rolltore, die 25.000 Euro pro Stück kosten. Die billigste Alternative kostet ein Zehntel dessen. „Wir liegen im Komfort immer oben, um die Module variabel einsetzen zu können,“ sagt Nobereit. So sind die bis zu acht Grad flachen Dächer etwa auf hohe Schneelasten im Voralpengebiet ausgelegt.
Sechs Millionen Euro Miete erzielt die HaLog aktuell pro Jahr mit der Überlassung ihrer Hallen, die zwischen drei und 20 Jahren stehen. Aktuell wird eine 22.000 Quadratmeter große Halle demontiert, aus der fünf neue kleinere Hallen teils beim selben Kunden, aber an anderen Standorten entstehen. 2000 Quadratmeter Halle liegen aktuell als Module ungenutzt auf Lager. Bis zu 15 Prozent der Kosten entfallen auf die Montage.
Waren die Kunden anfangs Automobilhersteller, haben nun auch Logistiker und Zulieferer das Potential mobiler Hallen entdeckt. Denn so können Mittelständler Hallen mit 2000 oder 4000 Quadratmetern auch testweise für eine neue Geschäftsidee und befristet auf zwei, drei Jahre für einen zusätzlichen Auftrag vor Ort nutzen.
Um die Variabilität der Logistik mit der Flexibilität der Finanzierung zu kombinieren, hat die Nürnberger Leasing 2013 für die Nobereit Holding die HaLog Leasing gegründet, um das Wachstum von dessen Hallengeschäft mit zu finanzieren. Diese erwirbt die Hallen und verleast sie anschließend an den Kunden. Das hat steuerliche Vorteile für den Kunden und verbessert dessen Liquidität.
Gut die Hälfte aller Hallen wird mittlerweile über die HaLog Leasing GmbH finanziert, was elf Millionen Euro entspricht. Für 2018 hat die Nürnberger Leasing für diesen Bereich Refinanzierungszusagen bis zu 15 Millionen Euro. Nobereits zwölf Mitarbeiter arbeiten je zur Hälfte in der Verwaltung und der Montage.
In Summe beschäftigen die Baden-Badener bei knapp 20 Subunternehmern ganzjährig gut 50 Mitarbeiter und lasten diese je zu einem Drittel bis zur Hälfte aus. Neue Aufträge sind binnen fünf Monaten realisiert: Der Vermesser prüft den Standort, die Komponenten werden beauftragt und Nobereits Montageteam setzt die Pfeiler mit 1,5 Meter langen und 30 Millimeter dicken Erdnägeln, die eine Ramme binnen Minuten in den Untergrund presst.
„Das ist das einzige Verfahren, das vom Zeltbau übergeblieben ist“, sagt Nobereit, dessen Sohn Nick die Arbeiten vor Ort koordiniert. Die Montageteams umfassen je Gewerk fünf bis acht Mann und arbeiten zeitversetzt: Bereits nach der ersten Woche beginnt die Dachmontage, nach der zweiten der Wandaufbau. In der vierten Woche werden Elektrik montiert und Heizung installiert. „Wenn es noch schneller gehen muss, beginnen wir an zwei Seiten parallel“, sagt der Montageprofi.
Seine Philosophie: „Wir verkaufen keine Hallen mehr, sondern Lösungen.“ So hat er 2015 nicht nur eine Flüchtlingsunterkunft für 180 Personen in seinem Modulverfahren errichtet, sondern auch das Versorgungspersonal mit geliefert.

Ist Standardsoftware noch zeitgemäß?

Die meisten Unternehmen setzen bei ihren großen Anwendungen auf Standardsoftware – sei es für die Logistik, das Warenwirtschaftssystem oder das Data Warehouse. Das funktioniert gut, solange man nur wenig individuelle Anpassungen vornehmen muss und dabei nah am Standard bleibt. Meist sieht die Realität jedoch anders aus: Gerade große Unternehmen haben oft eine individuelle Prozessstruktur, die stark von dem abweicht, was die Standardsoftware vorsieht. Dadurch sind erhebliche Anpassungen nötig, die großen Aufwand verursachen. Solche Projekte können sich über Jahre hinweg ziehen und dreistellige Millionenbeträge verschlingen. Zusätzliche Komplexität entsteht, wenn Unternehmen für verschiedene Bereiche Produkte unterschiedlicher Hersteller einsetzen, die zusammenspielen müssen.

Erschwerend kommt außerdem hinzu, dass man bei Änderungen der Standardsoftware auf Release-Zyklen angewiesen ist. Solche Zyklen bewegen sich meist in einer Größenordnung von sechs bis achtzehn Monaten. Wer schnell einmal etwas anpassen möchte, wird dadurch ausgebremst. In Zeiten, in denen Unternehmen Produkte zeitnah auf den Markt bringen und wachsende Kundenerwartungen erfüllen müssen, ist das nicht tragbar.  

In Business-Prozessen denken

Ein Umdenken ist nötig. Unternehmen sollten bei der Software-Entwicklung nicht länger in Release-Zyklen denken, sondern in Business-Szenarien – und diese dann umsetzen. Individual-Software, die sich von vorne herein an den eigenen Prozessen orientiert, kann in vielen Fällen günstiger, schneller und agiler sein als Standardsoftware, die aufwendig in langwierigen Release-Zyklen angepasst werden muss.

Viele Unternehmen scheuen sich jedoch vor einer prozessorientierten Entwicklung, weil sie Angst haben, dass sie wichtige Prozesse vergessen oder diese nicht in der Software abdecken können. Eine weitere Hürde besteht darin, dass die Werkzeuge für die Prozessplanung und für die Umsetzung in der Entwicklung meist nicht miteinander verzahnt sind. Vielleicht plant das Management einen Prozess mit ARIS, implementiert werden soll er in ein SAP-Warenwirtschaftssystem, ein Oracle-Logistiksystem und ein Data Warehouse von Teradata. Die drei verschiedenen Systeme können jedoch weder untereinander noch mit der Planungssoftware interagieren und kommunizieren. Es kommt also zu Medienbrüchen, die Zeit und Aufwand kosten und eine prozessorientierte Entwicklung erschweren.

Eine Digital Business Plattform schafft Agilität

Mit einer Digital Business Plattform lassen sich die genannten Hürden aus dem Weg räumen. Sie bringt die Prozessplanungswelt mit der Entwicklungswelt zusammen, indem sie die jeweiligen Werkzeuge verzahnt. In Aris geplante Prozesse lassen sich dann spiegeln und können direkt in die Umsetzung einfließen. Zudem ermöglicht es die Plattform, Prozesse Software-seitig aus einzelnen Modulen aufzubauen. In der Praxis hat sich gezeigt, dass zwischen 75 und 85 Prozent der Funktionen in verschiedenen Anwendungen gleich sind. Hat man dafür bereits Bausteine definiert, kann man diese Microservices wiederverwenden und spart dadurch erheblichen Entwicklungsaufwand.

Darüber hinaus lässt sich in der Plattform transparent sehen, welche Prozessschritte wie abgearbeitet werden und wo noch Optimierungsbedarf besteht. Anpassungen können dann jederzeit erfolgen, sogar während ein Prozess bereits läuft. Die Angst, etwas Wichtiges vergessen zu haben, wird damit hinfällig.

Auch für den Mitarbeiter, der später mit den Anwendungen arbeiten muss, bringt eine prozessorientierte Softwareentwicklung Vorteile. Denn Workflows und Benutzeroberflächen lassen sich damit optimal auf die jeweiligen Einsatzszenarien abstimmen. Anwender müssen sich nicht mit vorgefertigten Eingabemasken zurechtfinden, von denen sie die Hälfte der Felder gar nicht benötigen, sondern sehen die Arbeitsschritte, die sie brauchen, in genau der Reihenfolge, wie sie sie brauchen. Hierdurch wird eine intuitive Bedienung ermöglicht, die eine vorherige Schulung überflüssig macht.

Software, die wie angegossen passt

Wer schnell am Markt sein und wachsende Kundenanforderungen erfüllen möchte, braucht Software, die perfekt auf seine Prozesse abgestimmt ist. Statt Standardsoftware aufwendig im Nachgang anzupassen, ist es meist rentabler, gleich auf eine prozessorientierte Entwicklung zu setzen. Voraussetzung dafür ist, sich über die eigenen Prozesse klar zu werden und sie zu modellieren. Ein generelles Umdenken ist gefragt: weg von Release-Zyklen hin zu einem Workflow-basierten Ansatz. Dadurch gewinnen Unternehmen die Agilität, die sie für die Digitalisierung brauchen.

Fördersystem unterm Hallendach

Weil Platz in Produktionshallen immer kostbarer wird, ist die Nanogate GfO Systems GmbH 2013 dazu übergegangen, die 10.000 Quadratmeter unter dem Hallendach für Fördersysteme zu nutzen. Mit Quick Move fanden die Schwäbisch Gmünder eine modular erweiterbare Lösung, die ohne Umladehandling Behälter platzsparend im rechten Winkel in die Höhe und zur Seite befördert.

Die Nanogate GfO Systems mit ihren rund 180 Mitarbeitern, davon 140 in der Produktion, liefert multifunktionale und optische Oberflächenveredelungen für Kunststoffe und ist anerkannter Spezialist für die Metallisierung von Kunststoffen, etwa zur elektronischen Abschirmung. Unter anderem werden  im Vakuum Metalle verdampft und mit deren Partikeln die Kunststoffe beschichtet. Die rund 200 verschiedenen Komponenten, die die Gmünder im Geschäftsfeld N-Metals Elamet beschichten, verbauen Kunden aus Medizin-, Luftfahrt-, Steuerungstechnik und Automobilindustrie.

Mit dem zweiten sogenannten N-Glaze Sicralan-Verfahren verleiht das Unternehmen zahlreichen Produkten eine transparente Beschichtung, um Oberflächen kratzfest, chemikalienbeständig, UV-Licht- und witterungsresistent zu machen. Verschiedene Losgrößen von Kleinstserien bis zu vielen 100.000 Stück pro Jahr umfassen beispielsweise Blenden für Leuchten, Schalter oder Griffe für unterschiedliche Anwendungsfelder wie Automobil, Weiße Ware oder Konsumgüterindustrie.
Die Gmünder, deren Ursprünge in der Degussa AG liegen, gehören seit 2010 zur Nanogate SE, einem international tätigen Beschichtungsspezialisten mit weltweit 1500 Mitarbeitern und 186 Millionen Euro Umsatz.

Die vollautomatisierten Beschichtungsprozesse auf sechs Lackieranlagen laufen in Gmünd im Drei-Schicht-Betrieb. Die Peripherie dagegen wie Zuführsysteme bestücken, manuell vorreinigen oder Endkontrolle ist sehr personal- und zeitintensiv. „Die Automatisierung lohnt auf Grund der limitierten Serien hier nur sehr bedingt,“ sagt Konstruktionsleiter Peter Wasgien.
Auf der Fachmesse Logimat in Stuttgart hatte der gelernte Feinwerktechniker 2013 eine Lösung gesucht und gefunden, um die 30 Meter von der Teileabnahme zum 130 Grad heißen Einbrennofen zu überbrücken, in dem Schiebedächer für SUVs und andere Premiumlimousinen lackiert werden. „Wir brauchten unbedingt eine Deckenlösung, um andere Prozessabläufe nicht zu stören, zumal wir keinerlei freie Flächen mehr hatten und haben,“ sagt Wasgien.

Für die Quick Move-Lösung sprach die platzsparende Aufzugslösung im Ringverkehr, die die Werkstücke im rechten Winkel in gut vier Metern Höhe über den laufenden Betrieb hinweg transportiert und an der Lackieranlage wieder absetzt. Erschwerend kam die Dimensionierung der Gondeln hinzu, um die 1,2 mal 0,25 Meter großen und knapp zehn Kilogramm schweren Dächer sicher befördern zu können. Der Konstruktionsexperte: „Die Projektierer von Quick Move haben das exzellent modifiziert und einen Ringverkehr mit zwölf Behältern konzipiert, der im Ein-Minuten-Takt analog unserem Produktionszyklus funktioniert.“

Bereits wenige Monate später war das 100.000 Euro teure Fördersystem installiert, das einige Male nachjustiert wurde, um punktgenau seinen ganzen Nutzen zu entfalten, der Raum, Personal und Kosten spart. Sämtliche denkbaren Alternativen, so Wasgien, wären aufwändiger gewesen: „Quick Move ist eine sehr intelligente, modulare Lösung mit hoher Variabilität.“ Das Fördersystem biete Perspektiven, weitere Flächenreserven unter der Decke zu aktivieren, damit weiterem Wachstum nichts im Wege steht.

Vorrundenaus für Deutschland?

Viele haben sich schon daran gewöhnt, dass Deutschland in Studien zum Thema Digitalisierung regelmäßig auf einem Abstiegsplatz landet. Eine aktuelle Studie des Markt- und Sozialforschungsunternehmens Kantar TNS schlägt in eine ähnliche Kerbe: Demnach stagniert die Digitalisierung in Deutschland, in der Dienstleistungsbranche geht sie anscheinend sogar leicht zurück, heißt es. Doch wie so oft bei Studien, ein genauer Blick zeigt: Es ist kompliziert. Sogar viel komplizierter.

Diverse Dimensionen

Die Forscher messen Digitalisierung in mehreren Dimensionen: Der Anteil digitaler Dienstleistungen am Umsatz zählt ebenso dazu, wie der Prozentsatz an Mitarbeitern, die Arbeiten mit Smartphones oder Tablets erledigen. Dass diese Dimensionen zusammenhängen, macht die Sache auch nicht leichter: Digitale Geschäftsmodelle funktionieren nicht, wenn ein Unternehmen nicht mit ausreichend Internet-Bandbreite versorgt ist – und im Übrigen sind Gadgets nur so nützlich wie ihr Use Case.

Deutschland unter „ferner liefen“?

Wer wirklich wissen will, wie es um die Digitalisierung bei uns bestellt ist, muss in Anwendungsszenarien von volkswirtschaftlicher Dimension denken, statt in simplen Schlagworten. Das heißt konkret: Die Verknüpfung von Digitalisierung und klassischer Industrie und Anwendungsszenarien wie IoT, IIoT und Industrie 4.0. Der Aufbau digitaler Plattformen ist dabei längst gelaufen. US-Anbieter wie Google und Amazon teilen sich diese Märkte mit asiatischen Unternehmen wie Alibaba und Tencent. Europa und Deutschland rangieren unter „ferner liefen“. Mit anderen Worten: Die erste Halbzeit der Digitalisierung ist gelaufen.

Zweite Halbzeit der Digitalisierung

Nun geht es um die „zweite Halbzeit der Digitalisierung“, wie der als „Netzökonom“ bekannte Digitalisierungsexperte Dr. Holger Schmidt die Verschmelzung von materieller und digitaler Wirtschaft im Internet der Dinge nennt. Und „zweite Halbzeit“ impliziert: Das Endspiel ist in dieser Sache zwar noch nicht gelaufen, tritt aber mit hohem Tempo in die entscheidende Phase. Die Frage ist: Wie sind wir für diese Phase aufgestellt?

Differenziertes Bild

Reimund Neugebauer, Präsident der Fraunhofer Gesellschaft, zeichnet ein differenziertes – und wahrscheinlich auch realistischeres – Bild: Er attestiert den Amerikanern Stärken im Bereich Datensicherheit und -analyse, den Deutschen hingegen einen Vorsprung auf der Systemebene, bei der „Umsetzung von Daten in Action“. Das Zitat deutet an, worum es bei IoT und Industrie 4.0 wirklich geht. Mit bloßer Vernetzung einer Maschine mit dem Internet ist es nicht getan. Genau wie bei den erwähnten Tablets sind die Use Cases entscheidend – und Daten spielen dabei die zentrale Rolle.

Engineering-Know-how + Daten-Ökonomie

Laut Teradata-CTO Stephen Brobst werden Sensoren, etwa in Maschinen, Motoren und Produkten, in Zukunft zwei bis fünfmal so viele Daten generieren wie soziale Netzwerke. Deutsche und europäische Industrieunternehmen haben also nicht nur jede Menge Engineering-Know-how und einen hervorragenden Ruf, sondern potenziell einen unglaublichen Schatz an Daten vorliegen. Diese Daten bergen alle Informationen darüber, wie sie ihre Produkte und Dienstleistungen verbessern können. Und im Unterschied zu den personenbezogenen Daten von Plattform-Anbietern ist hier der Datenschutz häufig weniger brisant. Die US-Wirtschaft steht übrigens vor der umgekehrten Herausforderung: Tesla programmiert zwar sehr attraktive Software, kämpft aber bei der „Hardware“ (noch) mit ganz klassischen Produktionsproblemen.

„Made in Germany“ muss auch bei der Digitalisierung zum Qualitätssiegel werden

Für Deutschland gilt: Ein digitales Mindset muss auch für einen Automotive- oder Maschinenbau-Ingenieur zur Selbstverständlichkeit werden. Welche Daten liegen schon vor, welche neuen Datenströme können wir uns erschließen und wie können wir damit unsere Effizienz steigern oder sogar ganz neue Geschäftsmodelle entwickeln? Wenn wir es schaffen, dass sich eine solche digitale und kundenorientierte Denkweise durchsetzt, werden digitale Produkte und Dienstleistungen „made in Germany“ zukünftig den gleichen guten Ruf genießen wie deutsche Autos (in Zeiten vor dem Dieselskandal). Und die ersten Beispiele gibt es zu Genüge. 

Wohin die Reise gehen kann und muss, zeigen deutsche Traditionsunternehmen wie Bosch, Siemens und die Deutsche Telekom.

  • Bosch bündelt seine Industrie-4.0-Aktivitäten in einer neuen Geschäftseinheit „Connected Industry“ und will so bis 2020 mehr als eine Milliarde Euro zusätzlich umsetzen. Konkret verspricht Bosch seinen Kunden höhere Produktivität und Flexibilität durch einen schnellen, einfachen Einstieg in die vernetzte Fabrik.
  • Auch bei Siemens tut sich einiges, beispielsweise in deren Mobilitätssparte: Jede Lok, die dort vom Band läuft, ist mit hunderten Sensoren ausgestattet. Deren Daten analysiert Siemens und kann so notwendige Wartungen vorausberechnen und kostspielige Zugausfälle vermeiden. Aus dem analogen Produkt Lok wird ein digitaler Service, etwa in Form einer Mobilitätsgarantie für den Käufer.
  • Die Deutsche Telekom hat auf der diesjährigen Hannover Messe mit dem Data Intelligence Hub einen Marktplatz für den sicheren Austausch von Daten vorgestellt. Eine Plattform, auf der Unternehmen Informationen sicher managen, souverän bereitstellen und monetarisieren können. Beispielsweise indem sie Produktionsdaten austauschen, um Prozesskosten zu optimieren oder um Gebäudenutzungsdaten zu analysieren. Die Deutsche Telekom geht damit auch konkret auf die Sorgen der deutschen Industrie um Cyberattacken ein. Denn so ist beispielsweise die Produktions-IT von Maschinenbauern längst nicht ausreichend gegen Hacking und Co. geschützt, wie eine Umfrage des Branchenverbandes der Maschinenbauer VDMA Anfang des Jahres gezeigt hat.

Die „zweite Halbzeit der Digitalisierung“ läuft also längst – und sie bleibt spannend. Denn im Gegensatz zum Fußball ist Wirtschaft eben kein Nullsummenspiel. Mit Blick in die Zukunft sollte uns aber eins klar sein: Pessimismus hat noch nie zu einem Wachstum beigetragen.

 

Energieeinsparpotential beim Induktivhärten

Bis zu einem Fünftel der Energiekosten im induktiven Härteprozess können Anlagen von Inductoheat, einem Unternehmen der weltweit tätigen Inductotherm Group, einsparen, die mit einem Energiemanagementsystem ausgestattet sind. Das ermöglicht nicht nur reduzierte Amortisationszeiten. Vor allem qualitätsbestimmende Prozessparameter werden dokumentiert und optimiert. Das hilft, Problemstellungen frühzeitig erkennen und Folgekosten vermeiden.

Mit der Lösung von Emsyst 4.0 aus Oberboihingen bei Stuttgart wurde erstmals deren Energiemanagementsystem in eine Anlage implementiert. Zuvor hatte das System primär dazu gedient, Gebäude, Anlagen, Erzeuger- und Verbraucherquellen in einem Unternehmen zu verknüpfen. Denn das Software-basierte System lässt sich so programmieren, dass etwa Lastspitzen gesenkt, eigenerzeugter Strom vorrangig verbraucht oder Verschwendung eliminiert werden.
„Die Anwendungen sind nahezu beliebig“, sagt Friedrich Riempp, der sein System mittlerweile rund 140 Mal verkauft hat und dabei teils Einsparpotentiale von 40 Prozent erzielt. Entsprechend liegt die Amortisation des knapp 30.000 Euro teuren Systems, das auch in der Diagnostik zum Einsatz kommt, oft unter einem Jahr.
Mit Emsyst 4.0 hat der Unternehmer, der im Kerngeschäft mit 250 Monteuren Industriewartung und Elektrotechnik bei rund 100 Zulieferbetrieben in der Region Stuttgart macht, 2013 im Kontext des Atomausstiegs der Bundesregierung ein Energiemanagementsystem entwickelt, das nahezu universal einsetzbar ist.
Das Grundprinzip ist immer dasselbe: Alle Verbrauchs- und Erzeugerquellen, also Maschinen, Gebäude, technische Einrichtungen einerseits sowie Öl-, Gas-Brenner, externer Strombezug, Fernwärme, BHKW, PV-Anlage oder Batteriesystem andererseits kommunizieren untereinander und sind programmier- und steuerbar.
Im Gebäudemanagement etwa von Shopping Malls, Autohäusern und Verwaltungen ist Emsyst 4.0 schon lange im Einsatz und spart bis zu 40 Prozent Kosten, weshalb sich der Invest im Einzelfall in sechs bis acht Monaten amortisiert.
Aus solchen Anwendungen hatte Frank Andrä, Geschäftsführer von Inductoheat in Reichenbach/Fils, Emsyst 4.0 gekannt. Im Dialog mit Riempp entstand die Idee, das Verfahren erstmals in eine Anlage hinein zu transferieren. Denn induktives Härten findet bei einer Vielzahl von Bauteilen wie Kurbel- und Nockenwellen, Getriebebauteilen, Schienenköpfen von Bahngleisen oder Großringlagern von Windkraftanlagen bei extrem hohen Temperaturen statt.
Hochfrequenter Wechselstrom induziert im elektrisch leitenden Bauteil Kurzschlußstrom, der in der Randschicht des Werkstücks das Material in wenigen Sekunden erwärmt und damit gezielt seine Eigenschaften verändert.
Der folgende Abkühlprozess mit einer biologisch abbaubaren Wasser-Polymerlösung  „friert“ die gewünschte Materialstruktur ein. Der Prozess wird auf Bauteile von wenigen Gramm bis zu mehreren Tonnen Eigengewicht angewendet, woraus sich unterschiedlichste Anforderungen an Aufbau und Dimensionierung der Anlagentechnik, den Energieeinsatz und die Prozesszeiten ergeben.
Obwohl es ein energieintensives Verfahren bleibt, spart es im Vergleich zu konventionellen Härteverfahren in Öfen bis zu 30 Prozent Energie, da nur die Funktionsflächen und nicht das gesamte Bauteil in seinen Materialeigenschaften verändert werden. Der Prozess kann in die Fertigung integriert werden, wodurch Zwischenlager- und Chargier-Aufwand entfallen.
Mit Emsyst 4.0 bietet Inductoheat seinen Kunden seit diesem Jahr zusätzliches Energieeinsparpotential. Die Softwarelösung erfasst und verarbeitet die in der Anlage bereits verfügbaren Daten und Signale des Härteverfahrens und der relevanten Maschinenparameter. Anhand dieser Ergebnisse können Faktoren gezielt beeinflusst und Energieeffizienz und Prozessrentabilität verbessert werden.
Dies geschieht etwa an den für das Abkühlsystem notwendigen Förderpumpen. Diese laufen normalerweise im Dauerbetrieb. Nicht benötigte Abschreckemulsion während Belade- oder Aufheizvorgängen wird über einen Bypass abgeleitet. Obwohl eine solche Pumpe nur über eine Anschlussleistung von oft vier KW verfügt, verbraucht sie insgesamt im Dauerbetrieb bis zu 50 Prozent der gesamten im Betrieb benötigten Leistung.
Die Emsyst 4.0-Auswertung ergab, dass der Einsatz einer geregelten Pumpe, die nur zum eigentlichen Prozessschritt des Abkühlens ans Netz geht, viel Energie einspart.  Auch der Wirkungsgrad des Induktors, dem Werkzeug, das den hochfrequenten Wechselstrom ins Bauteil induziert, steigt, wenn er auf Bauteilgeometrie abgestimmt wird.
Das Energiemanagementsystem kam 2017 im Kontext von Industrie 4.0 ins Spiel. „Wir wollten unsere Anlagen intelligenter und dialogfähiger mit dem Umfeld machen“, sagt Geschäftsführer Frank Andrä, der die Riempp-Lösung aus dem Facility Management kannte. Im Mittelpunkt stand, den Härteprozess qualitativ zu verbessern, die Anlage fernwarten zu können oder Verschleiß präventiv zu diagnostizieren und kundenspezifisch gewünschte Maintenance-Aktivitäten per Fernwartung zur Verfügung zu stellen.
„Die Verbesserung der Energiebilanz war ein zweites Ziel“, sagt der Chef von 70 Mitarbeitern, der die Lösung auf der EMO in Hannover im Oktober 2017 erstmals präsentierte und auf sehr gute Resonanz stieß. Andrä: „Emsyst 4.0 dient uns als plattformunabhängige Schnittstelle, die über Sensoren Daten erfasst, über Algorithmen auswertet und somit neue Daten und Erkenntnisse liefert, mit denen wir den Prozess gezielt optimieren und die Qualität verbessern können.“
Die Kosten für Emsyst 4.0 hängen vorrangig von der Anzahl der Messpunkte ab. Dessen Implementierung läuft parallel zur Montage einer Anlage und dem Bau des Schaltschranks, kann aber auch relativ einfach an bestehenden Anlagen nachgerüstet werden.
Rund 20 Anlagen bauen die Reichenbacher pro Jahr, wobei das Härtezubehör die Kernkompetenz der Produktion darstellt. Die Anlagenkomponenten werden im Haus entwickelt und konstruiert. Bei deren Fertigung  arbeitet das Unternehmen mit einem Netzwerk qualifizierter Lieferanten zusammen. Montage, Inbetriebnahme und Kunden-Vorabnahme erfolgen im Werk in Reichenbach. Eine Anlage ist im Schnitt mehr als 20 Jahre im Einsatz. Diese Wertbeständigkeit unterstützt das Unternehmen mit Serviceverträgen und Ersatzteilversorgung. Mehr als 1000 Installationen zeugen von zufriedenen Kunden, die im Gros aus  Automotive-, Werkzeugindustrie und Maschinenbau stammen.

Lichtblick: Mit Prozessoptimierung gegen Lieferengpässe

Immer öfter klingelte das Telefon der Noblex GmbH, einem südthüringischen Unternehmen nahe Eisfeld. In der Chefetage, im Verkauf und auch sogar direkt in der Produktion. Lieferverzug, verspätete Lieferung – dass waren die Worte, die ständig in der Luft schwebten. Eine Veränderung musste her. Der Ausweg aus dem Dilemma war schnell gefunden. Das Unternehmen wandte sich an das Mittelstand 4.0-Kompetenzzentrum Ilmenau, welches in Kooperation mit der Berghof Group GmbH dem Unternehmen zum Wendepunkt verhalf.

Praxisorientierte Unterstützung

Angefangen wurde klassisch: In einer Ist-Analyse wurde zunächst der Auftragsabwicklungsprozess unter die Lupe genommen. Bereits hier wurden die ersten Diskrepanzen zwischen dem wahrgenommenen, also gewünschten Prozess, und den eingestellten Parametern im eingesetzten ERP-System festgestellt. Kurzgefasst, die gelebten Grunddaten passten nicht zum angestrebten Logistikansatz.

Doch damit war die Unterstützung nicht zu Ende. Die Produktionsengpässe wurden als Nächstes untersucht. Durch die Turboeinführung eines Advanced Planning and Scheduling (APS)-Systems [1] konnten durchgehende Auftragsnetze[2] gefunden werden – ein wahres Vorzeigeergebnis. Die berühmte Geschichte eines Fehlteils, das zum Zeitpunkt der Auslieferung einen vier-, fünf- oder sogar sechsstelligen Wertbetrag erhält, gehörte ab sofort der Vergangenheit an. Die Disposition wurde neu ausgerichtet, die Synchronisationsfehler zwischen den Bedarfen und Zugängen auf allen Dispositionsstufen gefunden und eliminiert. Somit schrumpfte die Fehlteilliste von Tag zu Tag.

Volle Ausschöpfung der Kapazitäten

Nach dem Material folgten die Kapazitäten. Um die Engpässe im Unternehmen aufzulösen, setzte man organisatorisch stringent den „Theory of Constraints“(TOC)-Ansatz von Goldratt um, auch bekannt als „Engpasstheorie“. Der Hauptsatz der TOC besagt, dass es in jeder Wertschöpfungskette genau ein System gibt, dass die Leistungsfähigkeit des Ganzen bestimmt – der „eindeutige Engpass“[3]. Aufbauend auf dem TOC-Ansatz wurde in Zusammenarbeit mit der Technischen Universität Ilmenau und Berghof Group GmbH ein Simulationsprogramm entwickelt, das nicht nur den Puffer vor dem Engpass erhöht, sondern auch den Austausch von Arbeitsvorräten der Engpässe ermöglicht. Diese neue Weiterentwicklung des TOC-Ansatzes sorgt nun für eine optimale Belegung aller Maschinen. Als Folge davon wurde die zuvor unvollständig genutzte Flexibilität effizienter ausgeschöpft. Die Auswirkung ließ nicht lange auf sich warten: der Materialstau an den Engpässen ist sichtbar gesunken und der Wochenoutput gestiegen.

Wie geht es weiter?

Schnelle Reaktionszeiten sind der Schlüssel zum Erfolg. Folglich ist die Optimierung der aktuellen Situation nicht das Endergebnis, sondern nur die Basis dafür. Das Mittelstand 4.0-Kompetenzzentrum Ilmenau und die Berghof Group GmbH arbeiten momentan an einer Lösung, welche den Mitarbeitern fortlaufend die prognostizierten Engpässe anzeigt. Vorausschauende Planung und Steuerung wird dadurch direkt am Ort des Geschehens, in der Produktion, möglich.

Die Optimierung hatte übrigens noch einen weiteren positiven Effekt: Das Telefon klingelt jetzt deutlich seltener.

 

Dieser Text ist in Zusammenarbeit mit Herrn Prof. Dr.-Ing. habil. Jean Pierre Bergmann (Co-Autor) entstanden.

___________________________________________________________________________

[1] Advanced Planning and Scheduling-Systeme (APS-Systeme) werden in der Produktionswirtschaft zur Unterstützung der Planungsfunktionen eingesetzt. Beispiel: ERP-Systeme

[2] Ein Auftragsnetz ist die Verknüpfung von Plan- oder Fertigungsaufträgen über mehrere Fertigungsstufen hinweg.

[3] Weiterführende Informationen zu dieser Theorie finden Sie im Buch „Das Ziel“ von Eliyahu Goldratt (2002).

Webserver mit Windows Server 2016

Bei den systemeigenen Modulen handelt es sich meistens um DLL-Dateien, die im Webserver integriert werden müssen. Die Module werden über Module auf der Hauptseite des Internetinformationsdienste-Managers verwaltet und konfiguriert.

Native Module werden geladen, wenn der Arbeiterprozess (Worker Process) einer Anwendung gestartet und initialisiert wird. Native Module werden immer auf Serverbasis hinzugefügt, können für einzelne Webseiten oder Anwendungen aber deaktiviert werden.

Um ein systemeigenes Modul hinzuzufügen, wählen Sie in der Moduleverwaltung aus dem Kontextmenü oder dem Aktionen-Bereich die Option Verwaltetes Modul hinzufügen oder Systemeigene Module konfigurieren aus. Anschließend kann das entsprechende Modul aktiviert und über die Schaltfläche Registrieren dem Server hinzugefügt werden.

Nachdem Sie auf die Schaltfläche Registrieren geklickt haben, können Sie einen Namen für das Modul festlegen sowie die entsprechende DLL-Datei für das native Modul auswählen. Auf dem gleichen Weg kann ein Modul wieder deinstalliert werden, wenn dieses nicht mehr benötigt wird.

SharePoint 2019

SharePoint 2019 wird im Herbst veröffentlich und ist dann allgemein verfügbar.

Bereits seit längerer Zeit können Anwender SharePoint Online-Bibliotheken mit dem OneDrive-Client lokal auf ihre PCs mit Windows synchronisieren. Mit SharePoint 2019 wird diese Funktion jetzt auch im eigenen Rechenzentrum ermöglicht. Mit dem OneDrive-Client können Anwender Teamseiten und Bibliotheken synchronisieren. Für mobile Anwender oder im Home-Office ist es dadurch möglich auch offline mit Dateien aus SharePoint zu arbeiten. Funktionen, wie die Auswahl der zu synchronisierenden Dateien sind ebenfalls integriert. Auch Files-On-Demand werden unterstützt. Das heißt, Dateien die zur Synchronisierung markiert sind, werden erst dann synchronisiert, wenn ein Benutzer diese anklickt und benötigt.

Microsoft integriert nicht nur OneDrive in SharePoint 2019, sondern weitere Funktionen, die aus Office 365 bekannt sind. Dazu gehört die generell neue Ansicht. SharePoint 2019 erhält ein Dashboard, wie Office 365. Hier sind die verschiedenen Sites und News verfügbar.

Unternehmen, die den Einsatz von SharePoint 2019 planen, erhalten von Microsoft verschiedene Informationen. Ein Handbuch zu SharePoint 2019 ist auf der Seite https://go.microsoft.com/fwlink/?linkid=2006360 als PDF verfügbar. Eine Schnellstartanleitung, die bei der Installation und Bereitstellung von SharePoint 2019 hilft, stellt Microsoft auf der Seite https://go.microsoft.com/fwlink/?linkid=2006253 bereit. Auch eine PowerPoint-Präsentation ist verfügbar. Diese kann auf der Seite https://go.microsoft.com/fwlink/?linkid=2006361 heruntergeladen werden.

Der Weg in eine autonome Zukunft

In einer Welt, in der die digitale Transformation voranschreitet, werden neue Technologien als Wegbereiter angesehen und nicht mehr als ein reines Logistik-Werkzeug. Innovative Lösungen, die das Internet der Dinge (IoT) und Cloud-Services nutzen, um Daten zu speichern, zu analysieren und zu verteilen, haben komplette Branchen nachhaltig verändert. Sie sind auch der Impuls für kontinuierliche Forschungen. Unternehmen, privatwirtschaftliche wie auch öffentliche, zeigen beispielsweise großes Interesse an autonomen Technologien und ihrer Funktionsweise – und deren Auswirkungen auf Effizienz und Innovation. Weltweit gibt es eine Reihe von Branchen, die autonome Technologien bereits erfolgreich einsetzen. Zu den Vorreitern gehören die Fertigungs- und die Automobil-Industrie sowie der Bergbau.

Autonome Fahrzeuge sind auf dem Vormarsch

Die Automobil-Industrie konzentriert einen großen Teil ihrer Technologie-Investionen darauf, Anwendungen für autonome Fahrzeuge zu entwickeln und sie als zukunftsfähiges Transportmittel weltweit zu etablieren. Schätzungen gehen davon aus, dass dieser Teil der Automobil-Branche im nächsten Jahrzehnt auf bis zu 130 Millionen US-Dollar wachsen wird – und damit ein Schwerpunkt für alle Automobilhersteller ist. Momentan sind die Hersteller in der Lage, autonome Fahrzeugen des Levels 1 bis 3 zu entwickeln, das heißt, sie benötigen ein geringeres Maß an menschlicher Kontrolle während der Fahrt. Dazu gehört die Aufmerksamkeit für die Umgebung während der Fahrt, sich verändernde Wetterbedingungen oder der Zustandskontrolle in Echtzeit. Autonome Fahrzeuge sollen jedoch künftig Level 4 und 5 erreichen und damit nur einen minimalen oder gar keinen Eingriff durch den Fahrer mehr benötigen. Dieses Ziel wird sicherlich erst in einigen Jahren Realität sein, heute bereits sind Ausprägungen autononomer Technologien in Fahrzeugen verbaut, um sie kontinuierlich weiterzuentwickeln. Das Auto wird dadurch intelligenter und es ist in der Lage, den dynamischen Anforderungen gerecht zu werden.

IoT- und Cloud-Integration sind essentielle Elemente, um die notwendigen Technologien für autonome Fahrzeuge zu entwickeln und sie zu realisieren. Denn nur mit diesen Technologien lässt sich ein Auto in ein intelligentes und vernetztes Fahrzeug verwandeln. Autonome Fahrzeuge verfügen bereits heute über eine Vielzahl von Sensoren, die kontinuierlich Daten in Echtzeit sammeln. Diese werden später zu Analyse auf einen Remote-Cloud-Server übertragen. Das Auto ist damit eine Art Black-Box-Rekorder, der alle Daten aufzeichnet und damit immer den aktuellen Stand seiner Funktionalitäten abbildet. Auf Basis der analysierten Informationen entsteht ein personalisiertes Fahrprofil, welches es der integrierten Software ermöglicht, künftige Fahrszenarien zu prognostizieren – und Lösungsansätze zu entwickeln, zum Beispiel, um Unfälle zu vermeiden. Neben den im Auto verbauten Komponenten unterstützt die Integration von Sensoren in die umgebende Infrastruktur wie Ampeln, Lichtmasten oder Verkehrsschilder dabei, eine umfangreichere Datenbasis aufzubauen. Dank der Sensoren, kombiniert mit Machine Learning, „lernt“ das Fahrzeug, unterschiedlicher Situationen besser einzuschätzen und verbessert sich hierbei kontinuierlich.

Automatisierung der Produktion

In der Fertigungsindustrie ist die Erhebung von Daten ebenfalls essentiell – vor allem in den Produktionsstätten. Die Branche bewegt sich insgesamt in Richtung Industrie 4.0, ein Schwerpunkt sind maßgeschneiderte Produkte in hohen Stückzahlen bei Kostenoptimierung, und Lieferketteneffizienz. Angesichts der wachsenden Arbeitsbereiche in der Produktion geben autonome Technologien den Unternehmen die Möglichkeit, alle Aktivitäten über Sensoren zu kontrollieren und so konstant Daten zu erfassen. Deren Analyse unterstützt dabei, Produktionsabläufe besser und schneller zu gestalten. Auf diese Weise erhöht sich die Effizienz der Anlagen. Auch Prozessredundanzen und potenzielle Security-Risiken lassen sich so identifizieren. Damit leisten die Technologien einen wichtigen Beitrag zur Sicherheit und digitalen Security der Mitarbeiter.

Bereits heute arbeiten Menschen mit autonomen Technologien wie Co-Bots in diesem Bereich zusammen. Gemeinsam managen sie Warenlager, Bots ersetzen hier keinesfalls ihre menschlichen Kollegen. Momentan macht der Co-Bot-Anteil weniger als fünf Prozent des gesamten Marktes für Industrieroboter aus. Sie werden aber aufgrund ihrer besseren Leistung deutlich häufiger eingesetzt als in der Vergangenheit. Im Zusammenspiel mit fahrerlosen Transportsystemen in den selben Lagern führte dies dazu, dass flexible Automationslösungen integriert wurden, um die Industrie 4.0 Vision in naher Zukunft, die Cyber-Mensch-Maschine-Interface-Systeme als Ziel hat, zu realisieren.

 Autonome Technologien bringen eine Reihe von Vorteilen

Laut World Economic Forum sind Produktionsstätten einer von zwei Bereichen, die bei der Digitalisierung hinterherhinken. Häufig werden in diesem Bereich noch Legacy-Anwendungen eingesetzt, die unflexibel und technologisch veraltet sind. Ganz anders der Bergbau: Dessen Umfeld ist deutlich dynamischer und die Anforderungen entwickeln und verändern ständig. Die Integration autonomer Technologien wirkt sich auf drei große Bereiche in innerhalb dieses Sektors aus: Mobilität, Nachhaltigkeit und Arbeitssicherheit. Digitale Technologien in diesem Sektor einzuführen, ermöglicht den Einsatz digitaler Bohrmaschinen und -raupen, die das Risiko von Gesundheitsproblemen ebenso wie von Einstürzen reduzieren. Die autonome Beförderung gestaltet den Verkehr außerdem effizienter. Die während dieser Aktivitäten gesammelten Daten erlauben es, Situationsanalysen durchzuführen und so die beste Vorgehensweise zu identifizieren. Letztlich unterstützt dies weltweite Nachhaltigkeitsinitiativen, da sich die Auswirkungen der Eingriffe auf die Umwelt reduzieren.

Was autonome Technologien daran hindert, ihr volles Potenzial zu entfalten

Momentan fokussiert sich die Forschung darauf, die Vorteile autonomer Technologien in die Realität umzusetzen. Branchen-Szenarien zeigen, dass die Implementierung kontinuierlich voranschreitet, wenn auch in einem relativ langsamen Tempo. Ein Hindernis war die finanzielle Tragbarkeit, da die Mehrheit der autonomen Technologien momentan noch zu teuer ist, um sie breits jetzt in der Breite zu implementieren. Auch die Skalierbarkeit und Interoperabilität der Lösungen wurde in Frage gestellt. Hinzu kamen Bedenken hinsichtlich der Entwicklung der notwendigen Support-Infrastruktur für die Wartung autonomer Produkte. Ein weiterer Punkt ist die Furcht davor, dass Fahrer bei selbstfahrenden Fahrzeugen nicht mehr notwendig sind bzw. auch die Skepsis, Sicherheit ausschließlich einer Technologie zu überlassen. Das Potenzial für autonome Technologien ist erkannt worden – und mit der richtigen Implementierung und mit der Zeit wird sie im kommenden Jahrzehnt eine deutlich höhere Akzeptanz erleben.