Archiv der Kategorie: IOT – IoT-Praxis

Teil 3: So bringen Sie Ihr Unternehmen auf den richtigen Weg

Aus den in Teil 2 skizzierten Spannungsfeldern der Digitalisierung zeichnet sich schon ein möglicher Weg für mittelständische Unternehmen ab. Es ist auf jeden Fall ein langer Weg, den früher oder später alle Mitarbeiter gehen müssen. Viele Aspekte der Digitalisierung müssen bei der Unternehmensführung permanent berücksichtigt werden. Das sind keine einmaligen Entscheidungen, wo man Ruhe hat, wenn einmal die Richtung eingeschlagen ist. Wer aber sein Unternehmen nach „bisherigen“ Grundsätzen gut führt, hat keine Probleme, die Digitalisierung einzubeziehen.

Schulung

Als ersten Schritt bietet sich an, ein gemeinsames Verständnis über Aspekte, Grundlagen und Auswirkungen der Digitalisierung im Unternehmen zu schaffen. Sinnvoll sind dafür inhouse-Workshops, bei denen möglichst alle Fachbereiche dabei sind. Das gemeinsame Verständnis, das so geschaffen wird, erleichtert die bereichsübergreifende Erarbeitung von erfolgsversprechenden Strategien.

Digitalisierungscheck

Dann kann gemeinsam erarbeitet werden, wo sich das Unternehmen in Bezug auf verschiedene Aspekte der Digitalisierung befindet (auch im Vergleich zum Wettbewerb). Daraus ergeben sich Ansatzpunkte für erste Digitalisierungsaktivitäten.

Prozesse

Wichtig für eine zielführende Digitalisierungsstrategie ist, dass man sich über die tatsächlichen und gewünschten Prozesse klar wird. Auf diesem Gebiet gibt es leider häufig negative Reaktionen der Mitarbeiter. Aus der Einführung mächtiger ERP-Systeme sind Frustrationen vorhanden, die die sinnvolle Arbeit an der Digitalisierung wichtiger Prozesse erschweren. Deshalb erscheint es sinnvoll, zuerst ein kleines Gebiet zu bearbeiten, wo es regelmäßig klemmt. Dort kann mit Hilfe eines geeigneten Systems für Business Process Modeling schnell eine Lösung erarbeitet werden. Die positive Erfahrung der Mitarbeiter mit diesem ersten Schritt erlaubt es dann, im weiteren Verlauf der Prozessgestaltung schneller voran zu kommen. Änderung wird dann von Mitarbeitern positiv aufgenommen, wenn sie einen Nutzen für sich daraus sehen. (Das ist z.B. dann der Fall, wenn sie eine leicht handhabbare digitalisierte Reisekostenabrechnung erleben können.)

Systeme

Wenn man sich über Prozesse im Klaren ist, kann man sich über die systemseitige Unterstützung Gedanken machen. Hier muss entschieden werden, ob man große, komplexe IT-Systeme betreiben möchte. Die Digitalisierung bietet die Möglichkeit, kleinere spezialisierte Systeme zu integrieren und dabei Durchgängigkeit und schnelle Reaktionsmöglichkeit auf Änderungen zu ermöglichen. Die heutigen Probleme mit der Datendurchgängigkeit resultieren zum großen Teil aus der Inflexibilität mächtiger Systeme.

Ausblick

Die Digitalisierung bietet demjenigen gute Chancen, der im gegebenen Rahmen ganz bewusst seinen eigenen Weg geht. Wichtig dabei ist, dass anfänglich alle Unternehmensbereiche, letztlich aber alle Mitarbeiter ein gemeinsames Verständnis der technologischen Möglichkeiten und weiterer Aspekte der Digitalisierung haben. Dann lässt sich der für jedes Unternehmen richtige Weg mit Hilfe neuer technischer Möglichkeiten leichter gestalten als bisher.

Mehr unter

Teil 1: Warum Industrie 4.0 bei Ihnen auch nicht funktionieren wird

Teil 2: Die drei größten Spannungsfelder, die Sie beachten müssen

 

Teil 2: Die drei größten Spannungsfelder, die Sie beachten müssen

Disruption

Wikipedia beschreibt: „Eine disruptive Technologie (englisch to disrupt „unterbrechen“) ist eine Innovation, die eine bestehende Technologie, ein bestehendes Produkt oder eine bestehende Dienstleistung möglicherweise vollständig verdrängt.“ Somit wird eine kontinuierliche Weiterentwicklung des bisherigen Produkts unterbrochen. Das neue Angebot kommt meistens aus einer unerwarteten Richtung. Es wird in der Industrie 4.0-Diskussion immer wieder betont, dass es disruptive Änderungen geben wird. Dann wird darauf hingewiesen, dass man sich nur um neue Geschäftsmodelle kümmern muss, um damit umzugehen. Am besten engagiert man einen Innovationsberater, der sich dann um alles kümmert. Leider ist dies ein Teil der Industrie 4.0-Illusion. Disruption lässt sich  nicht vorplanen oder durch Berater gestalten – sonst wäre es ja keine. Die Aufgabe für die Unternehmen besteht in erster Linie darin, durch effektive Marktbeobachtung schnell zu erkennen, wenn eine disruptive Veränderung das eigene Geschäftsmodell bedroht. Zusätzlich wird man versuchen, durch eine intensive Kundenorientierung neue Produktmöglichkeiten zu finden, die dann selbst eine disruptive Änderung verursachen können. Eine reine Fokussierung auf das Finden neuer Geschäftsmodelle wäre aber leichtsinnig.

Big Data

Big Data scheinen das Benzin für den Industrie 4.0-Motor zu sein. Die Segnungen der vielen Daten ermöglichen in den Augen vieler Industrie 4.0-Promoter erst wirklichen Fortschritt. Dabei sollte man aber nicht vergessen, dass die deutsche mittelständische Industrie ihren Erfolg zum großen Teil der Tatsache verdankt, dass die Bedürfnisse der einzelnen Kunden in hoher Qualität befriedigt werden und dass man dafür am Weltmarkt Premiumpreise erzielen kann. Bei einer Big Data-Analyse  sieht man aber das einzelne nicht mehr. Es geht um Muster der Masse. Außerdem ist eine Datenanalyse immer ein Blick zurück mit darauf folgender Extrapolation. Das Fortschreiben vergangener Entwicklungen ist aber vielleicht nicht die passende Betrachtungsweise in Zeiten schnellen Wandels. Es geht doch eher darum, herauszufinden, was die Zukunft von dem Unternehmen „verlangt“ im Sinne von Otto Scharmers „Theory U“. Drittens zeigen Datenanalysen Korrelationen aber keine Ursachen-Wirkungsbeziehungen. In der immer stärker vernetzten Wirtschaft gibt es keine direkten Ursache-Wirkungsbeziehungen mehr, die einfach durch Korrelationen angenähert werden können. Ob sich komplexe rückgekoppelte Systeme, wie sie heute existieren, noch durch rationale Modelle erfassen lassen, bleibt abzuwarten. Viele Mittelständler begründen ihren Erfolg auf einem intuitiven und eben nicht rational analytischen Verständnis des Marktes und das wird in immer komplexeren Systemen wohl auch weiterhin erfolgsversprechend sein.

Datensicherheit/Datenaustausch

Große Verbesserungen werden durch intensiven Datenaustausch erwartet. Ein Merkmal der Digitalisierung ist, dass die Herrschaft über Daten ausschlaggebend für den wirtschaftlichen Erfolg ist. Unternehmen, die nur Daten managen (Google, Facebook, Uber, Airbnb…) erzielen große Gewinne oder erreichen zumindest eine unglaubliche Marktkapitalisierung. Unternehmen, die weiterhin Hardware produzieren, investieren müssen und somit viel Risiko tragen, müssen als Folge mit kleineren Margen auskommen. Wie muss der Umgang mit Daten für einen Mittelständler organisiert werden, um bestmögliche Ergebnisse zu erzielen? Das ist die Frage, um die sich jedes Unternehmen intensiv kümmern muss. Da gibt es keine Patentlösungen, jeder muss hier seinen eigenen Weg finden. Kann es für alle produzierenden Unternehmen gut sein, über Maschinenbetriebsdaten viel Produktions-Know-how herauszugeben, nur um eine datengetriebene vorbeugende Wartung zu ermöglichen? Hat der Produktionsmitarbeiter nicht häufig Erfahrungswerte, um zu wissen, wie „seine“ Maschine am besten am Laufen gehalten werden kann? Soll darauf verzichtet werden, dieses Wissen zu nutzen? Es gibt sicherlich keinen guten oder schlechten Datenaustausch. Die Aufgabe für jedes Unternehmen besteht darin, den Umgang mit Daten bewusst zu gestalten. Dazu müssen Kernkompetenzbereiche definiert werden, wo das Know-how streng gehütet wird und wo es keinen Datenaustausch gibt. Auf den übrigen Gebieten kann dann versucht werden, durch gezielte Herausgabe und Gewinnung von Daten den wirtschaftlichen Erfolg zu sichern.

Mehr unter

Teil 1: Warum Industrie 4.0 bei Ihnen auch nicht funktionieren wird

Lesen Sie nächsten Dienstag in Teil 3, wie Sie Ihr Unternehmen auf den richtigen Weg bringen.

Separate Kompilierung von C++-Templates

C++-Templates sind ihrem Wesen nach so konzipiert, dass sie am besten funktionieren, wenn jeder Client das gesamte Template sieht – einschließlich der Prozedurrümpfe. Die Idee dahinter ist die, dass der Compiler entscheidet, welche Instanziierungen erfolgen müssen. Genau so werden die STL-Templates verwendet. Das kann jedoch eine hohe Last für den Compiler bedeuten, und die Kompilierung in bestimmten Situationen verlangsamen. Deshalb ist es mitunter von Vorteil, Template-Deklarationen und -Definitionen so zu organisieren, dass ihre separate Kompilierung möglich ist.

Bei GrammaTech begegnet uns diese Situation bei der Analyse von Maschinencode in unserem TSL-System. Für jede Architektur (z. B. IA32, PPC) generieren wir eine Template-Klasse, die Methoden enthält, die die Semantik dieser Architektur beschreiben. Diese Templates werden mit Analysespezifikationen instanziiert (z. B. use-def-Analyse, affine-relations-Analyse), um Implementierungen von use-def-Analysen für IA32, use-def-Analysen für PPC, affine-relations-Analysen für IA32, usw. zu erhalten. Wie Sie sich vorstellen können, sind diese Template-Klassen sehr umfangreich und enthalten ihrerseits sehr umfangreiche Methoden. Zudem müssen Analysen in der Lage sein, per Template-Spezialisierung einen Teil der Semantikklassenmethoden zu spezialisieren. Aus dem Wesen dieser Template ergeben sich zwei große Probleme:

(1) Wurden die großen KIassenmethoden-Definitionen in eine Header-Datei eingeschlossen, die jeder sieht, dauerte die Kompilierung sehr lange (hin und wieder ist es uns gelungen, den Compiler zu überlasten).

(2) Weil die Template-Spezialisierung eine schwierige Kunst ist, machten wir oft den Fehler, die Deklarationen nicht an die richtige Stelle zu setzen – ein Problem, das noch durch den Umstand verschärft wird, dass Compiler sich nicht beschweren, wenn Sie hier nicht sauber arbeitet, und dass unterschiedliche Compiler unterschiedlich reagieren, wenn man passiert, mitunter bizarr und unerwartet.

Zur Optimierung dieses Codes entwickelten wir ein Template (wenn man so will), um derartige Templates in einer Kollektion mit Header-Dateien zu organisieren. Das stellt  Abbildung 1 mit Pfeilen auf #include-Anweisungen dar. Zu beachten ist, dass es eine Regel gibt, die das Einschließen (#include) von cpp-Dateien untersagt – wenn also etwas von einer anderen Datei einzuschließen ist, auch wenn es wie eine cpp-Datei aussieht, muss es die Namenserweiterung „hpp“ erhalten. Diese Regel bedeutet auch, dass ausschließlich cpp-Dateien eine Kompilierungseinheit bilden.

Grammatech
Grammatech

Dieses Layout ist für den Fall vorgesehen, dass Methodenrümpfe (C) groß sind – etwa, wenn  die Anzahl der Kompilierungseinheiten, die diese sehen, minimiert werden soll – und für den Fall, dass es relativ wenige Instanziierungen (F) gibt. Bei diesem Layout werden die großen Methodenrümpfe in (C) nur einmal pro Instanziierung (F) kompiliert. Bei Templates im STL-Stil beispielsweise, wo die Anzahl der Instanziierungen in der Regel beliebig groß ist, würde dieses Layout nicht gut funktionieren, weil es die Erzeugung einer instantiator.cpp-Datei für jede Instanziierung erfordert (z. B. eine für set<int>, eine für set<unsigned int>, eine für set<foo>, … eine für jede Verwendung von „set“ im betreffenden Projekt).

Wichtig ist auch, dass gegebenenfalls mehrere Kopien von (C) und (F) möglich sind. Bei GrammaTech könnte Foo beispielsweise IA32Semantics sein, durch dessen viele große Methodenrümpfe die Kompilierung jedes Instantiators (F) ziemlich langsam erfolgt. Man  könnte (C) stattdessen in mehrere Dateien aufsplitten (z. B. eine pro Methode), und (F) entsprechend auch in mehrere Dateien aufteilen. Das Splitten von (F) könnte ein bisschen beschwerlich werden, weil die Template-Methoden einzeln instanziiert werden müssen. Es ist ein möglicher Kompromiss, um die Kompilierungszeiten zu verbessern.

Diese Gestaltung schließt Unterstützung für die Methodenspezialisierung (E) ein. Ihre Verwendung ist jedoch an Vorbehalte geknüpft. Wenn beispielsweise der Rumpf von func2 in (C) func1 aufruft, kann es erforderlich sein, dass (F) (E) einschließt, bevor (C) eingeschlossen wird – d. h., beim Kompilieren von func2 muss die Spezialisierung von func1 in (E) deklariert worden sein. In diesem Fall ist Folgendes zu berücksichtigen: Es bedeutet, dass die Inline-Methoden in (B) u. U. keine spezialisierten Methoden aufrufen – und der Template Designer ((A), (B), (C)) vorher nicht weiß, welche Methoden spezialisiert werden könnten. Um dem Rechnung zu tragen, könnte man das Bild durch Aufsplitten von (B) in zwei Dateien verfeinern – oder der Einfachheit halber Inline-Methoden einfach verbieten.

Leider lässt sich der sachgemäße Einsatz dieses „Templates“ nicht einfach mit einem Tool erzwingen oder validieren – das setzt Disziplin, profundes Wissen und Unfehlbarkeit voraus – Attribute, die – das müssen selbst die besten Programmierer einräumen – nicht zu garantieren sind. Dennoch hoffe ich, dass andere dieses Template hilfreich finden. Indes warte auf stabile Implementierungen der externen Templates von C++11, auch wenn ich nicht glaube, dass diese Gestaltung dadurch überflüssig wird.

Teil 1: Warum Industrie 4.0 bei Ihnen auch nicht funktionieren wird

Haben die gebetsmühlenartig wiederholten Ausblicke auf eine vom Fortschritt abgehängte deutsche Industrie sie schon in Alarmstimmung versetzt?  Haben sie schon ein Industrie 4.0-Vorzeigeprojekt in ihrer Produktion gestartet? Nein – und sie sind trotzdem sicher mit ihrem Unternehmen auf dem richtigen Weg zu sein? Da kann man sie nur beglückwünschen. Es tut selten gut, überhastet Modetrends zu folgen. Wichtig ist allerdings, zu verstehen, was die zugrundeliegenden Annahmen und Trends für einen Hype wie Industrie 4.0 sind. Damit versetzen sie sich in die Lage, selbst zu entscheiden, ob und gegebenenfalls wie sie ihre Unternehmensplanung adaptieren müssen.

Bei dem Ausdruck Industrie 4.0 ist immer unklar, welche Bereiche der unternehmerischen Tätigkeit darin eingeschlossen sind. Es ist aber eine große Gefahr der aktuellen Diskussion, dass der Begriff zu eng gefasst wird und man meint, mit der Vernetzung einiger Produktionsmaschinen oder einer volldigitalen Steuerung eines Teilbereichs der Produktion wäre die Wettbewerbsfähigkeit schon gesichert. Damit kann man sich auf einschlägigen Kongressen feiern lassen – aber interessiert das ihre Kunden? In diesem Artikel wird der eindeutigere Begriff Digitalisierung verwendet, der umfassender ist als Industrie 4.0.

Es ist nun eindeutig, dass im Konsumenten- und im geschäftlichen Bereich eine fortschreitende Digitalisierung stattfindet – und das schon sehr lange, zuletzt aber in zunehmender Geschwindigkeit. Aus Unternehmenssicht wirkt die Digitalisierung in drei Bereichen:

  1. Es entstehen neue Kundenbedürfnisse.
  2. Es werden neue Produkte und Services möglich.
  3. Es gibt neue Möglichkeiten, die Leistungserbringung im Unternehmen zu organisieren.

 

Industrie 4.0 im engeren Sinne umfasst somit nur einen Teilbereich des dritten Punkts. Für die Erarbeitung einer erfolgreichen Unternehmensstrategie müssen aber alle drei Bereiche beachtet werden.

Die umfassende Ausrichtung eines Unternehmens auf die beschleunigte Digitalisierung ist eine permanente Managementaufgabe, die man nicht an externe Berater delegieren kann. Das bedeutet, dass man unternehmensintern eine breite Kenntnis der grundlegenden Aspekte von Digitalisierung haben muss. Weiterhin sollte man die inhärenten Widersprüche verstehen, weil gerade die Bereiche, wo es kein eindeutiges richtig oder falsch gibt, für die erfolgreiche Umsetzung im eigenen Unternehmen von großer Wichtigkeit sind.

Lesen Sie nächsten Dienstag in Teil 2, welches die drei größten Spannungsfelder sind, die Sie beachten müssen.

Teleservicelösung zur Qualitätssteigerung und Kostenreduzierung am Beispiel von Betonpumpen

Sowohl die Hersteller von Betonpumpen, Baggern, Fräsen, Gabelstaplern oder Arbeitsbühnen als auch deren Kunden oder Vermieter profitieren von einem adäquaten Teleservicesystem.

Wie jede Branche hat auch das Betongeschäft seine eigenen Herausforderungen. Es besteht der Anspruch, dass die Maschinen immer größer aber gleichzeitig leichter werden. Das heißt für die Entwicklung, dass es der genauen Kenntnis über die Lastkollektive bedarf. Um eine Gewichtsoptimierung umsetzen zu können, müssen zuvor kontinuierlich relevante Daten gesammelt und ausgewertet werden. Vor allem das Tagesgeschäft der Betonbranche lässt sich durch smarte Datenerfassung und -verarbeitung optimieren. Für den Hersteller, den Service oder die Werkstätten kann ein geeignetes Teleservicesystem sowohl die Analyse als auch die Fernwartung von Betonpumpen leisten. Für den Betreiber Übernimmt es die Baustellendokumentation, die Disposition oder die automatisierte Abrechnung.

Anforderungen an ein zeitgemäßes Teleservicesystem

Die Basis zur Unterstützung von Serviceeinsätzen und Diagnosen aus der Ferne, automatischer Alarmierung im Fehlerfall, vorausschauender Wartung und Instandhaltung oder zeitübergreifender Ursachenanalyse bildet eine robuste Hardware in Kombination mit anwendungsorientierter Software. Dabei gehen die kontinuierliche Überwachung, die verlustfreie Langzeitaufzeichnung, die sichere Verschlüsselung und die intelligente Verarbeitung von großen Datenmengen Hand in Hand. Teleservicesysteme waren in der Vergangenheit oft zu groß, zu teuer, weniger leistungsstark und aufwendig zu bedienen und zu integrieren. Die neueste Generation weist dagegen ein hohes Speichervolumen auf, ermöglicht eine einfache und schnelle Parametrierung und ist zudem preisgünstig. Die Übertragung per LTE zusammen mit einer Cloudanbindung und einer benutzerfreundlichen Software stellen das bestmögliche Datenmanagement sicher. Moderne Systeme schrecken auch nicht vor der zeitrichtigen Erfassung dynamischer Daten, wie Druck- oder Kraftverläufen zurück. Sie sind nicht nur „ready to measure“, sondern liefern relevante Daten auch direkt an die Abrechnungssysteme ihrer Betreiber.

Analyse und Fernwartung von Betonpumpen und Hybridmischern mittels des Teleservicesystems smartPRO und smartMINI

Die Zoomlion CIFA Deutschland GmbH in Urbach ist Hersteller von Betonmaschinen wie Mischern, Mischwerken, Betonpumpen oder Tunnelspritzmaschinen. „optiMEAS hatte im Vergleich zum Wettbewerb quasi bereits die fertige Lösung für unser Anliegen“, so Martin Worch, Leiter Service, Forschung und Entwicklung bei CIFA Deutschland. Mithilfe der Teleservicesysteme von optiMEAS werden etliche Daten der Betonmaschinen aufgezeichnet: Etwa zur Abstützgeometrie, d.h. in welchem Moment der Mast in welcher Orientierung steht, außerdem der Kippmoment des Mastes, Drücke in der Pumpeinheit, die Öltemperatur, offene oder geschlossene Endschalter sowie angesprochene Sensoren. Tritt eine Störung in einer mit einem Teleservicesystem ausgestatteten Maschine auf, kann der Servicetechniker aus der Ferne Diagnosen stellen, Reparaturen durchführen oder die Fahrer vor Ort entsprechend anleiten. Bei einem dünnen Servicenetz spart die Wartung mittels Teleservice an diesen komplexen Maschinen Zeit und Kosten und realisiert gleichzeitig eine hohe Verfügbarkeit, Qualität und Sicherheit. Zudem ermöglicht das System über die Langzeitaufzeichnung großer Datenmengen und deren intelligenter Verarbeitung umfassende Analysen, die auch für die Maschinenentwicklung wertvoll sein können.

Teleservice bietet vielfältige Einsatzmöglichkeiten

Ein Service-Logbuch kann beispielsweise automatisch an anstehende Mastprüfungen erinnern oder eine Ölalterungsanalyse mittels Sensoren der Verschleißvorbeugung dienen. Für die ideale Betonbeschaffenheit spielen Temperatur, Charge und Verweildauer im Mischer eine Rolle. Mit einem eingeschränkten Zeitfenster von 1,5 Stunden bis zur Verdickung z.B. wäre es hilfreich und sinnvoll sämtliche Daten bis hin zu Verkehrsmeldungen zu berücksichtigen, um den idealen Zeitpunkt des Mischens und Losfahrens zu berechnen. 

Selbstverständlich können moderne Teleservicesysteme auch Routineaufgaben wie die Fahrzeugortung, die Baustellendokumentation oder die Anbindung an ein Abrechnungssystem vollständig erfüllen. Über die Anbindung an die Flotten-Management-Schnittstelle (FMS, SAE J1939) des Zugfahrzeuges können darüber hinaus ohne weitere Zusatzhardware, Fahrstrecken, Lenkzeiten, Betriebszeiten etc. verfolgt und übertragen werden. 

Latenzfreie Übertragung von Feldbussen übers Internet

Um sprichwörtlich vom Schreibtisch aus auf die Steuerung der Maschine im Feld zugreifen und Parameter verändern zu können, hat optiMEAS ein Patent angemeldet: für die latenzfreie Übertragung von Feldbussen übers Internet. Damit zum Beispiel ein Diagnosegerät direkt auf ein entfernt stehendes Steuergerät aufgeschaltet werden. Ebenfalls möglich ist ein Zugriff über Smartphone oder Tablet, bis hin zum Update der gesamten Steuergerätesoftware.

Neuestes Produkt für Teleservice, Diagnose und Monitoring ist das optiMEAS smartMINI

Das smartMINI ist eine komprimierte Ergänzung zum bewährten smartPRO. Das smartMINI zeichnet sich vor allem durch seine Robustheit, seine Leistungsstärke und seine Modularität aus. Temperaturen von -40° bis + 70° stellen kein Problem dar und es ist ausfallsicher aufgrund von Watchdog und Powercontroller. Als preiswertes Teleservicesystem eignet es sich hervorragend für die Ausrüstung ganzer Flotten. Das smartMINI verfügt über GPS, LTE, 2 CAN-Schnittstellen, eine serielle Schnittstelle, digitale Ein- und Ausgänge, Ethernet, USB, SD-Karte und vieles mehr. Wie alle optiMEAS Produkte ist es darüber hinaus vielseitig erweiterbar. Das Basissystem ist bereits ein vollständiger Rechner und kann unabhängig betrieben oder einfach in bestehende Anlagen integriert werden. Um schnell und zielgerichtet auf Kundenwünsche reagieren zu können, kommt eine auf die spezielle Anwendung zugeschnittene App zur Basissoftware.

Teleservice von Morgen

Geschwindigkeit, Volumen und Verarbeitung von Daten werden weiter perfektioniert. Dabei gilt es stets die Sicherheit und den angestrebten Mehrwert im Auge zu behalten. Wer die wesentlichen Faktoren im Rahmen der internetbasierten Mess- und Steuerungstechnik berücksichtigt, spart Geld, Zeit, erhöht die Zuverlässigkeit und schafft umfassende Lösungen.

Mehr zu Lösungen für IoT und Industrie 4.0 unter www.optimeas.de.

Sicher verschlüsselt – auch auf dem letzten Meter

In Zeiten von Industrie 4.0 und Industrial Internet of Things (IIOT) setzen Automatisierungslösungen vermehrt auf offene und vernetzte Systemarchitekturen von Standardkomponenten. Angestrebte Produktivitätssteigerungen werden schließlich erst durch den transparenten Zugriff auf die Produktionsdaten möglich. Doch Wartung, Service und gesetzliche Dokumentationspflichten komplexer Systeme können oder sollen oft nicht durch Personal vor Ort geleistet werden – ein Fernzugriff wird notwendig. Die dadurch entstehende Vernetzung funktionaler Einheiten resultiert in gesteigerten Sicherheitsanforderungen. Das gilt nicht nur für räumlich begrenzte Industrieanlagen, sondern ebenso für verteilte Anlagen der Energietechnik.

Wachsende Anforderungen

Vor diesem Hintergrund sind Automatisierungssysteme mehr denn je den „Gefahren“ der IT-Welt ausgesetzt – jede Sicherheitslücke kann fatale folgen für Unternehmen und Mitarbeiter haben. Um dieser Gemengelage Herr zu werden, hat die deutsche Bundesregierung im Sommer letzten Jahres ein IT-Sicherheitsgesetzt verabschiedet, das sich vor allem an die Betreiber kritischer Infrastruktur (KRITIS) richtet. Es schreibt neben regelmäßigen Sicherheitsaudits auch die Meldung von IT-Sicherheitsvorfällen an das Bundesamt für Sicherheit in der Informationstechnik (BSI) vor. Darüber hinaus definieren die IT-Grundschutzkataloge mögliche Szenarien und Schutzmaßnahmen, basierend auf der ISO 27002. Auf diesen bauen wiederum die verschiedenen branchenspezifischen Richtlinien und Empfehlungen auf, die Unternehmen verpflichten, die Vertraulichkeit, Integrität, Authentizität und Verfügbarkeit von Daten zu gewährleisten. Diese Regelungen erhöhen auch die Anforderungen an die Hersteller von Automatisierungstechnik und stellen sie vor neue Herausforderungen.

Ganzheitliche Sicherheit

Um eine sichere Systemarchitektur aufzubauen, gilt es daher, drei verschiedene grundlegende Prinzipien zu beachten. Das „Defense-in-Depth“-Konzept beruht etwa darauf, Sicherheitslösungen zu staffeln oder zu schichten, sodass im Fall der Umgehung einer Schicht eine andere weiterhin Schutz gewährleistet. Durch das „Minimal-Need-To-Know“-Prinzip werden Anwendern und Prozessen nur die maximal erforderlichen Rechte zugewiesen. Das „Redundanzprinzip“ wiederum setzt auf Technologien, die sicherstellen sollen, dass der Ausfall einzelner Komponenten nicht die Sicherheitsfunktionen beeinträchtigt. Auch sollen die Auswirkungen eines uneingeschränkten Anforderns von Systemressourcen minimiert werden. Konkrete technische sowie organisatorische Maßnahmen sind dabei unter anderem die dauerhafte Grundsicherung und Systemhärtung mittels „Patch-Management“ (Update-Fähigkeit) sowie die Langzeitverfügbarkeit der Betriebssysteme. Die Verschlüsselung sensibler Daten (SSL/TLS) bei Speicherung und Übertragung ist ebenso Voraussetzung wie eine entsprechende Netzwerkkonzeption (Segmentierung/Firewall/VPN). Eine sichere Standardkonfiguration und Benutzerauthentifizierung sowie die Vergabe von Benutzerrollen sind ebenfalls Bestandteil des Anforderungskatalogs. Diese Maßnahmen und Prozesse werden typischerweise regelmäßig in Audits überprüft.

Adäquate Lösungen

Bereits heute erfüllt WAGO so alle relevanten Richtlinien im Bereich IT-Security und sogar eine Vielzahl der Vorgaben aus dem BDEW-White-Paper für Anwendungen im Bereich der Energie- und Wasserversorgung, die zur sogenannten „Kritischen Infrastruktur“ (KRITIS) zählen.

Die Controllerfamilie PFC100 & 200 von WAGO tragen diesen Entwicklungen Rechnung. Sie zeichnen sich durch ein plattformübergreifendes Realtime-Linux aus, das als Open-Source-Betriebssystem langzeitverfügbar, skalierbar und updatefähig ist und Tools wie Rsync, Fail2Ban sowie Virenscanner unterstützt. Es können außerdem verschiedene Schnittstellen und Feldbusse wie CANopen, PROFIBUS DP, DeviceNet und Modbus-TCP herstellerunabhängig bedient werden. Natürlich gibt es je nach Einsatz und Risikoanalyse auch unterschiedlich hohe Anforderungen an das Niveau einer Sicherheitslösung. Die WAGO-PFC-Familie ist in jedem Fall für die Umsetzung der aktuell höchsten Sicherheitsanforderungen gemäß ISO 27002 aufgestellt. Sie bietet Onboard-VPN-Funktionalität basierend auf dem sogenannten Strongswan-Package, einer sicheren Kommunikationslösung für Linux®-Betriebssysteme. Darüber hinaus können die Daten bereits im Controller mittels SSL/TLS-1.2-Verschlüsselung (Secure Sockets Layer/Transport Layer Security) verschlüsselt werden. Einen VPN-Tunnel baut dieser dann direkt über IPsec oder OpenVPN auf und überträgt die Daten z. B. in die Cloud. Während IPsec auf Betriebssystemebene bzw. Layer 3 des OSI-Schichtenmodells verschlüsselt, sorgt OpenVPN auf der Anwendungsebene (Layer 5) für Datenintegrität. So entstehen abhör- und manipulationssichere Kommunikationsverbindungen zwischen den Controllern und den Netzzugangspunkten. Auch ein vorgeschalteter VPN-Router ist nicht mehr erforderlich. Bei der Kommunikation mit einem PFC100 oder 200 kann eine verschlüsselte LAN/WAN-Verbindung aufgebaut werden, deren Inhalt nur die beiden Endpunkte verstehen können. Verbindungen werden nur nach erfolgter Authentifizierung aufgebaut. Mit Pre-Shared-Key kommt ein Verschlüsselungsverfahren zum Einsatz, bei dem die Schlüssel vor der Kommunikation beiden Teilnehmern bekannt sein müssen. Dieses Verfahren hat den Vorteil, dass es einfach zu realisieren ist.

Überzeugend vielseitig

Die Controller der PFC-Familie sind darüber hinaus auch als skalierbare Knotenpunkten einsetzbar, die bei bereits bestehenden Automatisierungssystemen nachgerüstet werden können, ohne in den eigentlichen Automatisierungsprozess einzugreifen – die Daten werden parallel abgegriffen und können z. B. per MQTT oder OPC UA in die Cloud gesendet werden. Der Anwender ist auf diese Weise in der Lage, Anlagen adaptiv und vorbeugend zu überwachen. Anlagenbetreiber haben dank Cloud-Fähigkeit die Möglichkeit, stets den Überblick über ihre Produktionsanlagen zu behalten und die Prozesse Schritt für Schritt zu optimieren. Mit geringem Aufwand können so komplexe Prozesse nicht nur erfasst und z. B. per Smartphone oder Tablet visualisiert werden, sondern auch mit Analyseverfahren aus dem Big-Data-Umfeld optimiert werden.

Echter Mehrwert

Um in der entstandenen Datenflut nicht unterzugehen, spielen Data-Analytics-Tools eine entscheidende Rolle. Sie sind mit Hilfe der auf Feldebene erfassten Daten in der Lage, Anlagen- und somit Produktionsausfälle im Sinne einer Predictive Maintenance vorherzusagen, indem sie beispielsweise den Verschleiß bestimmter Maschinenkomponenten berechnen. Kostspielige Anlagenausfälle werden auf diese Weise minimiert. In der Zukunft kann eine solche Anwendung dank Data-Analytics etwa voraussagen, dass ein bestimmtes Teil in der Produktionsanlage in drei Monaten ausgetauscht werden muss. Das übergeordnete Automatisierungssystem erkennt dann, um welches Teil es sich handelt, fragt beim Hersteller die aktuelle Lieferzeit an und bestellt das Ersatzteil voll automatisiert. Besonders in Anwendungsfällen, in denen Anlagen kontinuierlich betrieben werden, besitzt eine solche Entwicklung große Relevanz – etwa in automatisierten Fertigungsstraßen in der Automobilindustrie oder in der Prozess- und Lebensmittelindustrie.

IT-Security neu denken

Ganzheitliche Automatisierungslösungen werden in Zukunft also über Funktionen verfügen müssen, die über bloße Automatisierungsfähigkeiten hinausgehen. Schließlich besteht der Kern des „Industrial Internet of Things“-Gedanken darin, Daten gewinnbringend zu verwerten und einen nachhaltigen Mehrwert für das Unternehmen zu generieren. Wer aber dieses Ziel erreichen möchte, sollte die dazu erforderlichen Maßnahmen mitdenken, die in Sachen IT-Sicherheit getroffen werden müssen. Für den Transport digitaler Daten von der Feldebene in eine Cloud müssen die bestehenden Sicherheitsmechanismen intelligent angewandt werden, nicht zuletzt, wenn Cloud-Anbindungen als Ergänzung zum bestehenden Automatisierungssystem an einem Gros der Schutzmechanismen vorbeikommunizieren, die – ganz im Sinne von „Defense in Depth“-Lösungen – einmal eingerichtet worden sind: wie etwa Zugangskontrollen, Berechtigungskonzepte und Firewalls. Um Schaden vom Unternehmen abzuwenden und Wettbewerbsvorteile zu erlangen, ist es unerlässlich, dass Daten zu jeder Zeit sicher ausgetauscht und verwahrt werden. Dies gelingt zukünftig nur durch ein umfassendes IT-Sicherheitskonzept, das den individuellen Anforderungen des Unternehmens im Sinne eines „Security by Design“-Prinzips entspricht – das gilt sowohl für Prozesse im Unternahmen, als auch in der Produktion.

Kollaborierende Roboter in Manufaktursystemen

Einsatz eines Roboters im kollaborierenden Betrieb

In der Produktion gibt es diverse Tätigkeiten, bei denen der Mitarbeiter durch Automatisierungstechnik unterstützt oder entlastet werden könnte. Klassische Automatisierungslösungen zeichnen sich durch Kraft, Schnelligkeit und Präzision aus. Der Mitarbeiter muss jedoch durch Vorrichtungen wie Zäune und Lichtvorhänge geschützt werden. Daraus resultiert ein entsprechender Platzbedarf. Weitere Nachteile sind die geringe Flexibilität und hohe Kosten. Für Unternehmen mit geringeren Stückzahlen lohnt sich der Einsatz meistens nicht.

Die Entwicklung neuer Leichtbauroboter macht es möglich, im kollaborierenden Betrieb eingesetzt zu werden. Kollaborierend bedeutet, dass der Mensch und der Roboter sich nicht nur den gleichen Arbeitsraum teilen, sondern auch miteinander interagieren.

Mögliche physische und psychische Belastung durch den Einsatz von Robotern

Gerade weil es im kollaborierenden Betrieb zum Kontakt zwischen Roboter und Werker kommen darf, spielt die Möglichkeit der Leistungs- und Kraftbegrenzung eine übergeordnete Rolle. In der technischen Spezifikation ISO TS 15066 sind Belastungsobergrenzen für den menschlichen Körper zusammengefasst.

Beispielsweise können in besonders empfindliche Regionen eines Menschen, wie dem Gesicht, ab einer Krafteinwirkung von 65 N Verletzungen auftreten. Die Belastungsgrenze im Bereich Schultern und Rücken liegt dahingegen bei 210 N.

Um jedoch Schaden abzuwenden, ist es wichtig, den Kontakt zwischen Roboter und Mensch so schnell wie möglich zu detektieren und Maßnahmen wie den Stopp der Motoren oder eine Ausweichbewegung einzuleiten. Somit müssen kollaborierende Roboter Sicherheitsfunktion nach EN ISO 13849-1 Kategorie 3 PLd erfüllen. Um die entstehenden Drücke somit Kraft pro Fläche möglichst zu verringern, sollten alle Teile des Roboters gerundete Kanten haben.

Nicht nur die physische, sondern auch die psychische Belastung auf den Mitarbeiter muss berücksichtigt werden. Eine Studie am Institut für Arbeitsschutz in Sankt Augustin zeigt, dass Menschen sich durch schnelle und unvorhersehbare Bewegungen eines Roboters irritieren lassen. Stress und Fehlerhäufigkeiten nehmen zu. Auch hier ist die Begrenzung von Leistung und Kraft wesentlich.

In jedem Fall muss vor dem Einsatz eines kollaborierenden Roboters eine Risikoanalyse basierend auf dem technischen Report ISO/TR 14121-2 durchgeführt werden. Nach einer umfassenden Planung kann der Roboter dann angelernt („geteacht“) oder programmiert werden.

Anwendungsfelder für kollaborierende Roboter

  • Fertigung: Monotone Be- und Entladen einer Maschine
  • Kommissionierung: Auffüllen der Regale
  • Montage: Montage in Zwangslage
  • Messen und Prüfen: Qualitätskontrolle am Ende der Linie
  • Verpackung: Stapeln und Palettieren

Beispiel einer 360° Montageinsel

Auf einer 360° Montageinsel montieren hoch spezialisierte Mitarbeiter im One-Piece-Flow. Diese können bei Leistungsspitzen durch den Einsatz von Leichtbaurobotern entlastet werden. In diesem Beispiel könnte ein Roboter Teile aus einer Maschine entnehmen und dem Montagemitarbeiter auf einem Förderband bereitstellen. An einer weiteren Station könnte ein Roboter Teile in eine Vorrichtung einlegen, diese betätigen und wieder entnehmen. Dafür müssen die Teile in einem Magazin angeliefert werden.

CAD-Modell einer 360° Montageinsel zeigt die Möglichkeiten des Robotereinsatzes
CAD-Modell einer 360° Montageinsel zeigt die Möglichkeiten des Robotereinsatzes
CAD-Modell einer 360° Montageinsel zeigt die Möglichkeiten des Robotereinsatzes
CAD-Modell einer 360° Montageinsel zeigt die Möglichkeiten des Robotereinsatzes

Prozessanforderungen an den Roboter in kollaborierenden Betrieb

Je nach Aufgabe werden bestimmte Kräfte und Freiheitsgrade benötigt. Tätigkeiten, die auf einen Menschen ausgelegt sind, sollten die Kraft von 15 daN nicht überschreiten. Somit sollte ein Roboter, der für den kollaborierenden Bereich bestimmt ist, eine Traglast von bis zu 15 kg besitzen. Die Anforderungen an die Traglast können je nach Anwendungsfall auch geringer sein. Der Roboter benötigt mindestens sechs Achsen, um beliebige Orientierungen des Endeffektors im Raum zu erhalten und den Bewegungsraum des menschlichen Arms nachzuempfinden.

Eigenschaften unterschiedlicher Robotermodelle

Es kann aus zahlreichen Robotern unterschiedlicher Hersteller gewählt werden. Sie unterscheiden sich in der Ausführung und Programmierung somit im Preis und in der Verbreitung. Manche sind eher für den Dauereinsatz mit hohen Stückzahlen, andere für den schnellen und zeitlich begrenzten Einsatz geeignet. Der eine ist auch durch Werkstattpersonal schnell und einfach zu programmieren, der andere kann dafür komplexere Bewegungen durchführen.

Durchgängige Integration in die Produktion

Mit der ELAM Software von Armbruster Engineering werden Roboter und andere steuerfähige Geräte an ein Manufaktursystem angebunden und betrieben. Wobei es unerheblich ist, ob der Teilprozess vom Roboter oder Mitarbeiter durchgeführt wird. In jedem Fall wird das Ergebnis dokumentiert und wenn vom Mitarbeiter ausgeführt, tritt automatisch die Assistenzanzeige in den Vordergrund. Die Auftragseinleitung kann durch ein ERP-System erfolgen.

Digitalisierung: Gefragt sind Generalisten statt Nerds

Die Produktion 4.0 erfordert zweifellos neue Technologien, um Echtzeitplanungen und -steuerungen in einer modernen Fabrik zu verwirklichen.

Kein Wunder, denn Projekte und Produkte werden in immer kürzeren Entwicklungszyklen auf den Markt gebracht. Der durch die Digitalisierung spürbare Innovationsdruck führt dazu, dass sich Mitarbeiter in jedem zweiten Unternehmen bereits mehr als 20% ihrer Arbeitszeit mit neuen digitalen Themen beschäftigen – Tendenz weiter steigend.

Die Relevanz neuer Themen

Um die Fabrik der Zukunft noch effizienter und schlanker zu gestalten, arbeiten Mitarbeiter zunehmend mit neuen Softwaresystemen. Die angebundene Cloud simuliert einen realen Produktionsvorgang und gibt wichtige Informationen über die Projektierung der Maschine.

Durch diese datengestützte Produktion müssen sich beispielsweise Ingenieure ein interdisziplinäres Wissen aus den Bereichen Mechanik, Elektrik oder Softwareprogrammierung (wie zum Beispiel C#, .net, C++ und Java) aneignen.

Darüber hinaus nehmen Fremdsprachenkenntnisse durch die zunehmende Internationalisierung und Globalisierung nach wie vor eine Schlüsselrolle ein. Hier liegt vor allem Englisch im Trend, je nach Import-/Exportlandland jedoch auch Chinesisch, Spanisch oder Französisch. Rechtliche und wirtschaftliche Kenntnisse wie beispielsweise das Wissen über Zolleinfuhrbestimmungen oder Rentabilitätsrechnungen runden den Ingenieur 4.0 ab.

Die Deckung des Kompetenzbedarfs wird zur Kernherausforderung

Für die Bearbeitung der Innovationsthemen setzen Unternehmen stärker auf Generalisten und Umsetzer statt auf kreative Köpfe und Nerds. Dies zeigt eine Studie von Hays und PAC, für die über 108 Entscheider deutscher Automobilhersteller und -zulieferer aus den Bereichen IT, Fertigung, F & E sowie Konstruktion und Produktionsplanung befragt wurden, auf.

Unternehmen in der Automobilindustrie bevorzugen in der Digitalisierung erfahrene Experten (55 %) statt Hochschulabsolventen (36 %). Da die Digitalisierung ein interdisziplinäres Thema ist, bevorzugen Firmen deutlich öfter Generalisten (62 %) statt Themenspezialisten (35 %). Obwohl Kreativität im Change-Prozess eine wichtige Rolle einnimmt (35 %), haben umsetzungsorientierte Mitarbeiter (63 %) die Nase vorn.

Um die vielfältigen neuen Themen effektiv zu bearbeiten, setzen die befragten Führungskräfte zudem auf strukturelle Maßnahmen, etwa auf eine bessere technische Ausstattung (47 %) der IT-Infrastruktur und auf flachere Hierarchien (44 %). Die Strategien zur Deckung des Kompetenzbedarfs lösen die Unternehmen jedoch meist ähnlich, indem sie das eigene Personal gezielt aufstocken und dieses durch externe Spezialisten ergänzen.

Letztlich umfasst die digitale Transformation jedoch mehr als nur die IT – vor allem die Führungskräfte selbst haben einen entscheidenden Einfluss auf den Erfolg bei der Entwicklung und dem Aufbau entsprechender Kompetenzen. Zudem sollten projektwirtschaftliche Strukturen starre Prozesse und Organisationssilos ersetzen, sodass Unternehmen auch entsprechend auf dynamische Marktentwicklungen reagieren können.

Ich freue mich über einen Meinungsaustausch mit Ihnen zu diesem Thema.

Alles vernetzt, alles smart und Daten ohne Ende: das „Internet of Everything“

HIER GEHTS ZUM PODCAST

 

Im „Internet of Everything“ (IoE), zu dem sich das Internet der Dinge gerade weiterentwickelt, können die vernetzten Objekte noch viel mehr. Informationen werden nicht mehr nur erfasst und weitergeleitet, sondern direkt als Basis für Entscheidungen genutzt. Die Dinge werden „smart“ und sind in der Lage, selbständig zu handeln. Der Sensor dreht die Heizung auf, wenn es kühl wird, das Smartphone weiß, dass ich auf dem Weg nach Hause bin und macht schon mal das Licht an, das Auto meldet sich zur Inspektion an, der Kühlschrank bestellt neue Milch – technisch alles längst machbar, wenn auch vielleicht nicht immer erwünscht.

Gartner schätzt, dass die Zahl der vernetzten Objekte von rund 5 Milliarden im Jahr 2015 auf 25 Milliarden im Jahr 2020 steigen wird.  Anders gesagt: Heute sind weltweit bereits etwa doppelt so viele „Dinge“ an das Internet angeschlossen wie Menschen – und ihre Zahl wächst rasant.

Das ist eine erfreuliche Entwicklung, weil smarte Geräte das Potenzial haben, unser Leben einfacher, sicherer und komfortabler zu machen. Natürlich sind noch einige Fragen zu klären, die gerade in Deutschland sehr sensibel sind: Was ist mit dem Datenschutz? Und wer haftet eigentlich für Entscheidungen, die ein Objekt trifft? Aber auch der deutsche Verbraucher wird sich langfristig nicht den Vorteilen des „Internet of Everything“ verschließen können und wollen.

Im Business-Umfeld treibt die Akteure vorrangig ein anderes Problem um: Was tun mit all den Daten, die diese vielen vernetzten Objekt tagaus tagein generieren? Denn je mehr Geräte und Maschinen „sprechen lernen“, je mehr Sensoren im Einsatz sind, desto mehr Daten werden produziert – strukturierte und unstrukturierte, einfache und komplexe, wichtige und nebensächliche.

Die Unternehmen wissen, dass sie hier über einen gewaltigen – und ständig anwachsenden – Schatz verfügen, den sie unbedingt heben müssen, wenn sie größtmöglichen Nutzen aus dem Internet of Everything ziehen wollen. Nur so werden sie auch morgen noch mit anderen Firmen mithalten können, die diese Daten konsequent erfassen, analysieren und zur Grundlage von strategischen und operativen Entscheidungen machen. Denn solche Entscheidungen werden in absehbarer Zukunft immer noch von Menschen getroffen, und nicht von Objekten, seien sie auch noch so „smart“.

Unternehmen brauchen deshalb eine durchdachte Strategie für die Erfassung, Speicherung, Konsolidierung und gezielte Analyse und Auswertung aller Daten, die ihnen bei der Erreichung ihrer Unternehmensziele irgendwie nützlich sein können. Daten von vernetzten Objekten gehören heute schon dazu, und ihr Anteil wird definitiv zunehmen, in einigen Bereichen wahrscheinlich sogar explosionsartig.

Höchste Zeit also, sich mit dem Thema auseinanderzusetzen, Strategien zu entwickeln, Prozesse anzupassen, die richtige Infrastruktur und  geeignete Werkzeuge zu implementieren. 

Die gute Nachricht ist, dass kein Unternehmen bei Null anfangen muss. Es gibt Hersteller, die langjährige Erfahrung auf diesem Gebiet haben und die Unternehmen höchst kompetent bei der Einführung von Systemen und ihrer kontinuierlichen Anpassung an neue Entwicklungen unterstützen können.

Und es gibt Beispiele von Unternehmen, die diesen Weg bereits gegangen sind und heute erfolgreich ein System der „Analytics of Everything“ einsetzen, mit dem sie gezielt den Datenschatz der vernetzten Objekte nutzen, um zukunftsfähig zu bleiben.

 

 

Wie das Internet der Dinge die Unternehmenslandschaft verändert

Dies ist die Geschichte einer neuen Technologie. Über die Jahre hat sie sich schon viele Male abgespielt. Die Möglichkeiten der neuen Transformationstechnologie stoßen zunächst auf überschäumende Begeisterung, werden in den ersten Testzyklen und Phasen der Verbesserung dann von düsteren Befürchtungen abgelöst. Und am Ende wird die neue Technologie dann doch mit dem verbreiteten Glauben aufgenommen, dass sie positiven Wandel bringt. Das war jüngst bei der Einführung von Cloud-Computing und Big Data so, und aktuell ist es bei dem Internet der Dinge (IoT) zu beobachten.

Die letzten Jahre waren gespickt mit Geschichten von intelligenten Maschinen, die miteinander kommunizieren und Berichten über nutzerfreundliche, smarte Geräte. Diese neuen Veränderungen bringen natürlich auch neue Bedenken, wie Interoperabilität und Sorgen um die Sicherheit mit sich. Trotzdem profitieren die Ersten schon von dem Wandel.

Vertrauensvorschuss

Immer mehr Konzerne – vom Start-up bis hin zu großen Unternehmen – stellen sich auf das IoT ein. Eine IDC-Studie berichtet, dass 73% der Befragten IoT-Lösungen bereits im Einsatz haben oder planen dies innerhalb des nächsten Jahres zu tun. Das disruptive Potenzial dieser Technologie gewinnt schnell Anerkennung.

In der Gesundheitsbranche gaben 72% der Befragten an, dass sie das IoT als transformierend einstufen, das glauben auch 67% der Befragten aus dem Transportwesen und 66% aus der Fertigung. In Europa wird die IoT-Initiative unter dem Sammelbegriff Industrie 4.0 zusammengefasst und ist eine handfeste Bewegung.

In Deutschland wurden zuletzt beispielsweise mehrere „Kompetenzzentren“ eröffnet, um die IoT-Einführung für kleine und mittlere Hersteller zu katalysieren.

Jetzt, da das Internet der Dinge große Fortschritte verzeichnet, müssen Unternehmen das IoT ernst nehmen. Grundsätzlich bedient sich die Technologie intelligenter Maschinen von unterschiedlicher Komplexität, die miteinander kommunizieren und mit den Daten, die sie schaffen, einen intelligenten und endgültigen Zustand der Autonomie erlangen. Damit können sie umfassende, unternehmensbezogene Prozesse ausführen. Aber wie erschafft dies wegweisende Chancen? Das ist der Haken an der Sache: Um den wahren Wert des IoT zu verstehen, müssen Unternehmen erkennen, dass es nicht allgemeingültig anwendbar ist. Es ist vielmehr davon abhängig, welche Ziele das Unternehmen erreichen möchte.

Das Internet meiner Dinge

Unternehmen sollten sich zuerst die Frage stellen, was das grundlegende Problem in ihrem Geschäft ist, bevor sie entscheiden, wie sie es lösen sollen. Es ist durchaus möglich, dass das IoT eine Lösung ist, aber es ist ein Fehler, von Anfang an darauf zu beharren, dass es die ultimative Lösung darstellt. Um die tatsächlichen Auswirkungen für ein Unternehmen zu verstehen, wäre es besser, wenn das IoT als ein „Internet meiner Dinge“ gesehen wird. Dieser Ausdruck unterstreicht die Tatsache, dass das Internet der Dinge eine ganz eigene Erfahrung für jeden Benutzer und damit einzigartige Vorteile in jedem Kontext bedeutet. Sobald dieser Umstand klar ist, kann das IoT seine transformierende Kraft demonstrieren und echte intelligente Lösungen für echte Probleme liefern. Dann kann ein noch nie dagewesener Wettbewerbsvorteil erzielt werden.

Es ist eine ganz neue Welt, die eine progressive Führungsgeneration benötigt, um Unternehmen nach vorne zu bringen. Wir brauchen eine neue Vision, um Auswirkungen auf Produktivität, Kosten, Umsatz, Effizienz und Fähigkeiten innerhalb eines völlig neuen Unternehmensmodells zu erkennen, die einen riesigen Sprung nach vorn bedeuten können.