DevOps und Automatisierung mit Komfort

Ansible ist eine mit Chef oder Puppet in Konkurrenz stehende Open-Source-Lösung zur automatisierten Konfiguration und Orchestrierung von Computern.

Das Projekt 2012 gegründete Projekt wurde 2015 von Red Hat übernommen und ist nach wie vor quelloffen verfügbar. Ansible vereint Softwareverteilung mit Konfigurationsmanagement und erlaubt das Verwalten von Computern im Netzwerk ausschließlich über SSH, ohne dass wie bei Puppet oder Chef auf den zu verwaltenden System Agenten installiert sein müssen. Ansible-Module dürfen in jeder gewünschten Programmiersprache geschrieben werden, nutzen aber JSON zur Ausgabe, während für das Formulieren wiederverwendbarer Beschreibungen einzelner Systeme YAML zum Einsatz kommt.

Neu in Version 3.1

Ergänzend zur Open-Source-Version stellt Red Hat seinen Kunden mit Ansible Tower eine kostpflichtige GUI-Version seiner Plattform zur Orchestrierung, Konfiguration und Administration von Computern zur Verfügung, die jetzt in Version 3.1 vorliegt.

Ansible Tower basiert auf Open-Source-Ansible, erlaubt IT-Teams ein noch effizienteres Verwalten von Systemen und optimiert die mehrstufige Softwareverteilung. Ansible Tower reduziert laut Red Hat die Komplexität moderner IT-Umgebungen. Die Neuerungen in Ansible Tower 3.1 erlauben eine bessere Skalierung der DevOps-Automation und das Einbinden mehrerer Ansible-Playbooks in langlaufende, komplexe Jobs, was laut Aussage von Red Hat für eine höhere Produktivität im Unternehmen sorgt.

So erlauben Multi-Playbook Workflows Nutzen ein Zusammenfassen vorhandener Job-Templates in einem einzelnen Auftrag, ohne weitere Playbooks anlegen zu müssen. Zudem lassen sich umfangreiche Abläufe mit Entscheidungspunkten und Verzweigungslogik erstellen und können dank integrierter Benachrichtigungen die gesamten Applikations-Lebenszyklen steuern. Zudem steigert Scale-Out Clustering die mögliche Zahl der gleichzeitig laufenden Jobs.

Ferner bietet eine verbesserte Job-Detail-Seite zusätzliche Informationen für einen breiteren Kreis von Mitarbeitern sowie eine Suchfunktion für den Job-Output und formatiert diesen derart gut lesbar, dass Anwender die Benutzeroberfläche von Tower nicht verlassen müssen. Nutzer identifizieren mit den neuen Such- und Filterfunktionen außerdem die in Job-Templates verwendeten Ressourcen schneller. Ferner erlaubt eine neue Schnittstelle zu unternehmensweit eingesetzten Analytics- und Log-Aggregations-Lösungen ein automatisches Indizieren und Verwalten der aufgezeichneten Werte. Schließlich steht die Ansible-Tower-GUI jetzt in französischer und japanischer Lokalisierung zur Verfügung.

Ansible Tower 3.1 ist ab sofort über das Red Hat Kunden-Portal verfügbar.

Das IoT erfordert vor allem eins: Know-how!

Doch IoT beinhaltet weit mehr als das, was die stetig hinzukommenden Anwendungsgebiete belegen. Dieser rasanten Entwicklung müssen auch IoT-Service Provider standhalten, indem sie sich in kurzer Zeit das notwendige Wissen aneignen. Denn für Kunden ist Know-how das wichtigste Kriterium bei der Evaluierung potentieller Anbieter.

Das Internet of Things gewinnt stark an Bedeutung und bahnt sich den Weg vom Spartenthema auf die Titelseiten. Konkret umgesetzte Projekte sind zwar noch rar gesät, aber es gibt sie – vor allem in den Bereichen vernetzte Produktion, Smart Connected Products, Smart Supply Chain und Logistik, wie die Studie „Internet of Things in Deutschland 2016“ verdeutlicht.

Betrachtet man die Analyse der zukünftig geplanten IoT-Projekte der Unternehmen, verschiebt sich das Bild. Während Smart Connected Products nach wie vor an der Spitze liegen, etablieren sich neue Anwendungsbereiche für das IoT. Eines dieser stark aufstrebenden Anwendungsfelder zählt zum Thema Industrie 4.0: Predictive Maintenance, die vorausschauende Wartung von Maschinen und Industrieanlagen. Auf Basis gewonnener Daten aus der Gerätevernetzung lassen sich durch das Zusammenspiel zwischen IoT-Plattform und vorbeugender Analyse wichtige Rückschlüsse für die täglichen Arbeitsprozesse ziehen, z.B. wann Maschinenausfälle drohen.den Weg vom Spartenthema auf die Titelseiten. Konkret umgesetzte Projekte sind zwar noch rar gesät, aber es gibt sie – vor allem in den Bereichen vernetzte Produktion, Smart Connected Products, Smart Supply Chain und Logistik, wie die Studie „Internet of Things in Deutschland 2016“ verdeutlicht.

Bemerkenswert sind auch zwei weitere neue Anwendungsbereiche aus den Top 4 der geplanten IoT-Projekte: Gebäudemanagement und Connected Health rücken stärker in den Fokus. Mühelos lassen sie Marktsegmente hinter sich, die (eigentlich) als etabliert galten; darunter Smart Home oder das vieldiskutierte Thema Connected Car.

 

 

Bisherige IoT-Projekte

 

Künftige IoT-Projekte

Quelle: Studie „Internet of Things in Deutschland 2016“ von IDG Business Media

Welcher Anbieter passt zu meinem Projekt?

Neben der Frage, in welchem Bereich IoT-Projekte umgesetzt werden sollen, stellt sich natürlich auch die Frage, wer diese Projekte umsetzt. Die Rede ist von IoT-Service-Providern, wie es sie in Deutschland mittlerweile zuhauf gibt. Doch wie differenzieren die Unternehmen zwischen diesen Anbietern? Welche Kriterien sind maßgeblich? Die mit Abstand größte Anzahl der Befragten achtet nicht, wie zu vermuten, auf das Preis-Leistungs-Verhältnis oder andere Faktoren, die häufig zur Evaluierung hinzugezogen werden.

Vielmehr bildet das technologische Know-how des Anbieters das stärkste Kriterium. Schließlich steckt in jedem IoT-Projekt eine wichtige Investition in die Zukunft. Daher fallen die Plätze zwei, drei und vier der Umfrage ebenfalls in die Kategorie „weiche Argumente“: Vertrauen in den Anbieter, Branchenkompetenz und Prozess-Know-how. Diese Faktoren sind Unternehmen wohl so wichtig, da sich viele „Greenhorns“ auf dem Markt der IoT-Anbieter tummeln, weil sie neue Einnahmequellen wittern. Sie haben meist wenige bis keine IoT-Projekte umgesetzt und versuchen den Markt mit günstigen Angeboten zu erreichen. Doch speziell KMU achten statt auf den Preis auf Kompetenz und sind bereit, für Qualität mehr Geld auszugeben.

 

Maßgebliche Kriterien

Quelle: Studie „Internet of Things in Deutschland 2016“ von IDG Business Media

IoT-Anbieter sollten demnach auf ein top ausgebildetes Team setzen. Zudem ist ein branchenübergreifendes Portfolio gefragt, da das IoT-Spektrum längst über Industrieanwendungen hinausgeht. Basis aller Anwendungen ist eine professionelle IoT-Plattform. Dazu müssen professionelle Anbieter auch alle anderen Komponenten für eine Ende-zu-Ende-IoT-Lösung bereitstellen: von der Hardware über Konnektivität und Systemintegration bis hin zum sicheren IT-Betrieb. Anbietern, die Kunden langfristig bei der Realisierung von IoT-Projektvorhaben und im Umfeld des komplexen IoT-Ökosystems begleiten, gehört die Zukunft.

Nur mit Hilfe eines erfahrenen, kompetenten Partners führen IoT-Projekte wirklich zur Optimierung der Geschäftsabläufe und bieten bei minimalem Implementierungsaufwand und geringem Projektrisiko einen hohen ökonomischen Nutzen.
Die gesamte Studie „Internet of Things in Deutschland 2016“ können Interessierte hier herunterladen.

Zweites Update für Ubuntu 16.04LTS

Ubuntus LTS-Variante ist neben RHEL und SLE eine der beliebtesten Linux-Distributionen im Unternehmen. Die jetzt veröffentlichte Version 16.04.2 LTS ist in den Geschmacksrichtungen Server, Desktop und für die Cloud und einigen weiteren langzeituntertützten Varianten erhältlich. Lediglich die 32-Bit-PowerPC-Version erhält das Update nicht.

Die Aktualisierungen umfassen neben Paket-Updates die Behebung grober Fehler und das Beseitigen von Sicherheitslücken seit Veröffentlichung der ersten Aktualisierung 16.04.1 LTS im Sommer letzten Jahres.

Ein neuer HWE-Stack aus Kernel 4.8, X.Org Server 1.18.4 und der 3D-Bibliothek Mesa 12.0.6. Mesa 13.x unterstützt in Version 16.04.3 nun neuere Hardware.

Neue Installationsmedien

Nutzer von Ubuntu 16.04 oder 16.04.1 erhalten die Aktualisierung über die Paketverwaltung. Wahlweise gibt es neue Installationsmedien für Ubuntu sowie die Varianten Kubuntu, Xubuntu, Mythbuntu, Ubuntu GNOME, Lubuntu, Ubuntu Kylin, Ubuntu MATE und Ubuntu Studio.

Die rund vierwöchige Verzögerung der Freigabe lag in verschiedenen Fehler bergründet, darunter Einem, der den Boot-Prozess auf der ARM-Plattform betraf und daher Änderungen an verschiedenen Stellen im Kernel und im Installer erforderte.

Die aktualisierten Images für Ubuntu 16.04.2 LTS und seinen „Ablegern“ stehe wie üblich auf der auf der Download-Seite von Ubuntu zur Verfügung. Weitere Informationen finden sich in den Release Notes.

Speicherpools in Storage Spaces Direct optimieren

Microsoft bietet dazu neue CMDlets mit denen Sie Speicher-Pools optimieren können, um Daten effizienter zu verteilen:

Optimize-StoragePool <PoolName>

Den aktuellen Status der Aktion können Sie in der PowerShell ebenfalls abfragen:

Get-StorageJob | ? Name -eq Optimize

Storage Spaces Direct können auch in System Center Virtual Machine Manager 2016 verwaltet werden. Hier lassen sich neue Cluster erstellen, die gleich Storage Space Direct nutzen, oder bestehende Cluster werden zu Clustern umgewandelt, die Storage Spaces Direct unterstützen. Außerdem gibt es die Möglichkeit der automatischen Konfiguration.

Ausfallsicherheit bei Storage Spaces Direct

Mit Storage-Replikation können Sie in Windows Server 2016 auch ganze Storage Spaces Direct komplett zu anderen Clustern und Rechenzentren replizieren lassen. Wie die Ausfallsicherheit von Storage Spaces Direct und den damit verbundenen virtuellen Festplatten funktioniert, können Sie in einem Blogbeitrag der TechNet lesen (https://blogs.technet.microsoft.com/filecab/2016/09/06/volume-resiliency-and-efficiency-in-storage-spaces-direct).

Standardmäßig wird beim Erstellen eines Storage Pools bereits mit der Hochverfügbarkeit gearbeitet. Hier spielt auch die Option „FaultDomainAwarenessDefault“ und deren Standardwert „StorageScaleUnit“ eine wichtige Rolle. Sie können sich den Wert für den jeweiligen Storage Pool jederzeit anzeigen lassen. Dazu verwenden Sie die PowerShell und den Befehl:

Get-StoragePool -FriendlyName <PoolName> | FL FriendlyName, Size, FaultDomainAwarenessDefault

 

Virtuelle Festplatten, also die Storage Spaces im Speicherpool der Storage Spaces Direct-Umgebung, erben die Hochverfügbarkeit vom Storage-Pool aus dem sie erstellt werden. Sie können sich den Wert von Storage Spaces bezüglich der Hochverfügbarkeit ebenfalls in der PowerShell anzeigen lassen:

Get-VirtualDisk -FriendlyName <VirtualDiskName>| FL FriendlyName, Size, FaultDomainAwareness, ResiliencySettingName 

Eine virtuelle Festplatte besteht aus Extents mit einer Größe von 1GB. Eine Festplatte mit 100 GB besteht also aus 100 Extends. Erstellen Sie eine virtuelle Festplatte mit der Hochverfügbarkeitseinstellung „Mirrored“, also gespiegelt, werden die einzelnen Extents der virtuellen Festplatte kopiert und auf verschiedenen Clusterknoten gespeichert.

Abhängig von der eingesetzten Anzahl an Knoten lassen sich zwei oder drei Kopien von Extents auf die Datenspeicher der verschiedenen Clusterknoten verteilen. Sichern Sie also eine 100 GB große, virtuelle Festplatte durch dreifache Kopien ab, dann braucht diese Festplatte 300 Extents. Dabei versucht Windows Server 2016 die Extents möglichst gleichmäßig zu verteilen. Beispiel: Der Extent A wird auf den Knoten 1, 2 und 3 gespeichert. Der Extent B, auf der gleichen virtuellen Festplatte positioniert, wird auf den Knoten 1, 3 und 4 kopiert. Eine virtuelle Festplatte und deren Daten/Extents ist also im kompletten Cluster auf allen Knoten verteilt.

Red Hat tritt OpenPower Foundation bei

OpenPower ist eine offene Community, die Entwicklungen und Portierungen auf die Power-Architektur von IBM koordiniert. Red Hat ist tritt der Gemeinschaft nach Google, IBM, Mellanox, Micron, Nvidia, SK Hynix, Ubuntu und Xilinx als nunmehr neunter Platin-Sponsor bei, zahlt also 100.000 US-Dollar an die gemeinnützige Stiftung.

Power Open

Zwar unterstützt Red Hat schon lange offene Technologien für die Power-Architektur, will mit dem Beitritt zur OpenPower-Foundation aber stärker an der Lenkung des Entwicklungsprozess teilhaben.

Neben dem mit dem Beitritt als Platin-Mitgliedschaft verbundenen Sitz im Vorstand will Red Hat auch an der Erstellung freier Software für die Power-Architektur mitarbeiten. Außerdem will Red Hat gemeinsam mit den anderen Mitgliedern an fortgeschrittenen Server-, Netzwerk-, Speicher- und IO-Acceleration-Technologien arbeiten, die auf offenen Standards aufbauen.

Bekanntlich beteiligt sich Red Hat in ähnlicher Weise und mit ähnliche Zielen (Herausbildung und Modellierung von Software-Standards) in der Open Containers Initiative (OCI) und der Cloud Native Computing Foundation (CNCF), aber auch in Hardware-Initiativen wie Cache Coherent Interconnect for Accelerators (CCIX) und  Gen-Z.

Offene Standards

Laut Red Hat sind offene Standards für Innovationen in der Unternehmens-IT unverzichtbar, weil sie einen gemeinsamen Satz von Richtlinien für die Integration, Implementation und Sicherheit von neuen Technologien liefern. Moderne Standardisierungs-Organisationen wie OpenPower entwickeln solche Richtlinien in demokratischer Weise innerhalb ihrer Gemeinschaft.

Nach Ansicht von Red Hat profitieren viele Partner, mit denen Red Hat bereits operiert, ebenfalls von den Entwicklungen der OpenPower Foundation. Daher will Red Hat die Zusammenarbeit verstärken und weitere aufstrebende Technologien unterstützen, wie z. B. maschinelles Lernen, KI, Analytics sowie den Cloud- und Container-Einsatz.

Auf dem Weg nach IoT

Internet der Dinge und Industrie 4.0 haben den Blick der Unternehmen auf die Produktion verändert. Wo das noch nicht geschehen ist, steht es vermutlich unmittelbar bevor, denn der Druck des Wettbewerbs wird den meisten kaum eine andere Wahl lassen. Man muss nicht gleich an komplett neue Lösungen und Geschäftsmodelle denken, denn die umfassende Vernetzung verändert zunächst einmal vor allem die vorhandenen Prozesse.

Wartung und Steuerung, die Kontrolle von Betriebszuständen, das Erfassen von Fehlern – alles erfolgt auf dieser Basis einfacher und schneller; Ausfallzeiten lassen sich auf diese Weise verringern oder durch Predictive Maintenance sogar ausschalten. Für den Aufbau einer entsprechenden Produktionsumgebung müssen die folgenden Voraussetzungen geschaffen werden:

  • Konnektivität: Nicht die Verteilungen miniaturisierter Sensoren und Aktoren, sondern deren Einbindung in eine durchgängige Kommunikationsinfrastruktur – über entsprechende Gateways – ist das zentrale Element des Internet der Dinge. Nur damit lassen sich die erforderlichen Daten abrufen und die Prozesse neu organisieren.
  • Anwendungsentwicklung: Selbstverständlich ist das IoT von den Sensoren bis zu den auswertenden Systemen Software-gesteuert. Um qualitativ hochwertige Lösungen kurzfristig bereitstellen zu können, sollten Unternehmen auf agile Methoden setzen.
  • Analytics: Das IoT stellt Daten in Hülle und Fülle zur Verfügung. Unternehmen müssen sich hier passender Analysemethoden bedienen, um aus diesen Daten neue Erkenntnisse über ihre Prozesse zu gewinnen; beispielsweise über Dashboards, die es erlauben Muster in den Daten schnell zu beurteilen.
  • Cloud: Die Implementierung von IoT-Systemen lässt sich durch Cloud Computing erheblich vereinfachen; die Cloud stellt skalierbare Ressourcen an jedem Ort zur Verfügung, was gerade im IoT-Umfeld wichtig sein kann.
  • Security: Die Sicherheit wird in IoT-Projekten bisher oft vernachlässigt. Nachdem sich aber kürzlich auch Botnetze unzureichend gesicherter IoT-Geräte bedient haben, um DDOS-Angriffe auszuführen, hat das Thema hohe Priorität. Da das IoT als Einfallstor in Unternehmen ungenutzt werden kann, muss die Sicherheit von Anfang an konzeptionell berücksichtigt werden; eine nachträgliche Sicherung der Systeme ist in der Praxis meist nicht möglich.

Auf diesen vier Voraussetzungen können Unternehmen eine Produktionsumgebung aufbauen, die dann auch den Anforderungen des Konzepts Industrie 4.0 genügt: Die Anlagen lassen sich auf diese Weise in komplexe Wertschöpfungsketten einfügen, die über das jeweilige Unternehmen hinausreichen und beispielsweise auch Lieferanten oder Abnehmer umfassen.

Auch wenn die grundlegenden Verfahren des IoT schon seit langem bekannt sind – die Industrie arbeitet seit Jahrzehnten mit Sensoren – es schafft durch die Integration in die Kommunikationsinfrastruktur des Webs neue Bedingungen. Die Abstimmung von Infrastruktur und Prozessen ist daher die Hauptaufgabe bei IoT-Projekten.

Prekarisierung oder doch Karrierechance dank Industrie 4.0?

Seit dem Beginn der industriellen Revolution in der zweiten Hälfte des 18. Jahrhunderts hat es immer wieder gravierende Veränderungen der Berufsbilder und Tätigkeiten von Arbeitnehmern in Fabriken gegeben. Sie gingen zumeist Hand in Hand mit neuen technologischen Verbesserungen und Prozessoptimierungen. Und immer waren solche Veränderungen zunächst auch begleitet von Zukunftsängsten oder auch von Ablehnung.

Die Industrie 4.0 bzw. die digitale Revolution macht hier keine Ausnahme. Seit Ende des 20. Jahrhunderts verändert sie den Alltag in Fabriken im Akkord und sorgt mit immer neuen Entwicklungen in immer kürzerer Abfolge für eine bis dahin ungekannte Schnelllebigkeit. Dass dies zu Verunsicherung seitens abhängig Beschäftigter führt, ist zwangsläufig.

Neue Technologien = Job-Killer?

Die Erfahrung zeigt: steigende Produktivität zieht seit jeher Veränderungen in den Berufsbildern nach sich. Die wenigsten von uns benötigen oder vermissen heute die Dienste eines Stellmachers, eines Harzers oder eines Köhlers. Neue Technologien sind jedoch nicht zwingend der Auslöser dafür. Dies zeigt eine Studie des Instituts für Arbeitsmarkt- und Berufsforschung. Demnach sind lediglich etwa 0,4 Prozent der sozialversicherungspflichtig Beschäftigten in Berufen tätig, die in Kürze komplett von Computern und durch Automatisierung erledigt werden könnten. Bei etwa 60 Prozent der Arbeitnehmer könnte ein Anteil von 30 bis 70 Prozent der bisherigen Tätigkeit von Maschinen übernommen werden. Diese wiederum müssen jedoch überwacht und gesteuert werden, so dass sich zwar die Tätigkeit des Arbeitnehmers ändert, der Arbeitsplatz aber nicht wegfällt. Im Rahmen der Studie hat sich außerdem herausgestellt: Je höher die Qualifikation und der Bildungsgrad der Arbeitnehmer, umso weniger Tätigkeiten können durch Automaten und Computer übernommen werden.

Industrie 4.0 als Karrierechance

Zugegeben, für Arbeitnehmer, die Jahre oder Jahrzehnte lang Arbeiten in der immer gleichen – analogen – Weise erledigt haben, ist eine Umstellung auf das digitale Zeitalter keine Kleinigkeit. Sie müssen vollkommen umdenken, viel Neues in kurzer Zeit erlernen und dennoch dem Arbeitsdruck und den Anforderungen ihres Arbeitsplatzes jederzeit gerecht werden.

Eine neue Generation von „Wissensarbeitern“ drängt in den Markt, welche die Digitalisierung quasi mit der Muttermilch aufgesogen haben. Sie bewegen sich problemlos in virtuellen Welten und möchten darauf in keinem Lebensbereich verzichten. Erst recht nicht im Arbeitsalltag. Dass dies nicht zwangsläufig zur Konkurrenz zwischen den Generationen führen muss, zeigt ein Beispiel aus einem KMU aus Bayern.

Projekt: softwaregestützte Produktionsplanung

Das Unternehmen aus Oettingen plante seine Produktionsaufträge mit 2 Disponenten und einer Excel-Tabelle. Steigende Auftragszahlen brachten diese Vorgehensweise 2010 an ihre Grenzen. Daher wurde nach einer Software-Lösung gesucht, welche die Planung erleichtert und für mehr Transparenz in den Abläufen sorgen sollte. Doch wie sollte dies bewerkstelligt werden? Keiner der angestammten Mitarbeiter konnte Erfahrungen in diesem Bereich aufweisen oder Zeit für eine Recherche erübrigen. Die Lösung fand sich in Person eines Studenten der Produktionswirtschaft. Er wurde mit diesem speziellen und für das Unternehmen essenziellen Projekt beauftragt. Heute ist dieser Ex-Student Leiter der Abteilung Produktionsplanung und arbeitet mit den etablierten, langjährigen Mitarbeitern eng im Team zusammen.

„Ohne die langjährige Erfahrung der Mitarbeiter zu den Abläufen, den Produkten und Abhängigkeiten wäre die Umstellung auf eine Software-gestützte Planung mittels einer APS-Software (Advanced planning and Scheduling) nicht möglich gewesen oder hätte unvergleichlich länger gedauert“, erläutert der Produktionsplaner und ergänzt: „Unser Erfolgsgeheimnis lag in der engen Zusammenarbeit und Abstimmung von vorhandenem und neuem Know-how.“ In dem KMU werden heute statt 20 Hauptmaschinen (Stand 2010) nun 180 Maschinen beplant. Dazu kommt eine effiziente Personaleinsatzplanung. Durch den Einsatz dieser Industrie 4.0-Technologie ist das Unternehmen heute in der Lage, wesentlich mehr Aufträge in deutlich kürzerer Zeit zu bearbeiten und verbessert ganz nebenbei auch seine Termintreue und Transparenz gegenüber den Kunden. „Die Qualität der Planung ist seit dem Einsatz der APS-Software deutlich gestiegen und auch die Ansprüche der Kollegen und Kunden haben enorm zugenommen“, erläutert der Planer und meint: „mit dem Essen kommt eben der Appetit“.

Was eine IoT Application Platform leisten sollte

In einer kürzlich veröffentlichten Studie des indischen IT-Dienstleisters HCL Technologies nannten 46 Prozent der befragten Geschäfts- und Technologieentscheider die Nutzung der richtigen IoT-Plattform als eine der größten Herausforderungen des IoT für Unternehmen. Dabei ist das Angebot an IoT-Plattformen im Jahr 2017 auch noch vielfältiger denn je. Was eine IoT Application Platform leisten sollte, lässt sich mit drei Schlüsselelementen darstellen.

Skalierbarkeit

Das Internet of Things wächst stetig. Während immer mehr Geräte miteinander vernetzt werden, steigt die Menge der Anwendungen und verarbeiteten Daten exponentiell. Dieses erhebliche Wachstum ist der Grund, weshalb Skalierbarkeit eines der integralen Elemente einer jeden wettbewerbsfähigen IoT Application Platform ist. Datenbankserver, Speicher und ähnliche Komponenten sollten auch kurzfristig steigende Datenmengen verarbeiten können, etwa wenn zu bestimmten Jahreszeiten wie im Weihnachtsgeschäft die produzierten Stückzahlen steigen.

Eine weitere Schwierigkeit ist die Multidimensionalität dessen, was skaliert wird – sprich unterschiedliche Devices, Applikationen, Protokolle und Datentypen –,  hinreichend zu erfassen, um diese anschließend zu integrieren. Während sich einzelne Anbieter meist auf ganz spezifische Aspekte des IoT spezialisieren und hinsichtlich dessen Skalierbarkeit bieten, liegt die tatsächliche Herausforderung darin, all diese unterschiedlichen Faktoren einzubeziehen.

Effizienz und Automatisierung

So wichtig Skalierbarkeit für eine IoT-Plattform auch ist, sie darf nicht zum Selbstzweck werden. Sowohl Effizienz als auch Automatisierung über alle Anwendungsebenen einer Plattform sicherzustellen, ist der nächste Schritt. Das bedeutet, die Speicher- und Verarbeitungskapazitäten durch Multi-Mandanten-Architekturen optimal zu nutzen, Prozesse zu automatisieren, um Vorgänge einer solchen Größenordnung und Geschwindigkeit verwalten zu können, sowie sichere und belastbare Verbindungen zwischen Device Connectoren und Device Managern, Analyse-Tools, Storage sowie der Visualisierung der Daten zu bieten.

Erweiterbar bleiben, mit offenen Schnittstellen

Schon früh in der eigenen Entwicklung der Cumulocity IoT Platform zeigte sich, wie wichtig die Einbindung von Partnern für Unternehmen ist. Eine Plattform kann skalierbar, effizient und automatisiert sein – um die Chancen, die das IoT bietet, wirklich nutzen zu können, muss sie darüber hinaus hochgradig erweiterbar sein. Mit anderen Worten: IoT-Plattformen sollten Unternehmen und Dienstleistern die Möglichkeit bieten, andere IoT-Anwendungen, die von Partnern in ihren Ökosystemen über Application Programming Interfaces (APIs) bereitgestellt werden, schnell zu integrieren und vollständig zu nutzen. Die Entwicklung dieser technischen Fähigkeiten nahm bei Cumulocity trotz hinreichender Expertise in den Bereichen Cloud Infrastructure und Data Management geraume Zeit ein, ist jedoch von nicht zu unterschätzender Bedeutung.

Skalierbarkeit, Effizienz und Automatisierungsgrad sowie offene Schnittstellen sind Schlüsselkriterien bei der Wahl der passenden IoT Plattform für jedwedes Einsatzszenarium. Darüber hinaus lassen sich immer Fragen nach dem Reifegrad der Plattform stellen: Wie lange gibt es die Plattform schon? Hat sie sich in verschiedenen Use Cases der Branche bewährt? Hier sollten Unternehmen zum Beispiel Kundenreferenzen prüfen. Sie geben nicht nur Einblicke in die Rolle einer IoT-Plattform, sondern können auch verschiedenste neue IoT-Geschäftsmodelle inspirieren.

液气密行业的未来数字化之路

液气密行业作为我国工业基础件的生产行业之一,是中国机械工业产业升级、技术进步的重要保障。十三五以来,随着《中国制造2025》和“互联网+”国家战略的发布,以及硬件计算能力、大数据处理算法的爆炸式发展,加上工业4.0、机器人、人机互动、人工智能等技术领域的迅速崛起,液气密行业正在面临着新的机遇和挑战。“数字化”在未来的五至十年,伴随着2000年以来大量建设的制造工厂的升级改造,将逐渐改变液气密产业链的每个环节:从研发、供应链、产品制造、库管物流、质量追溯到市场企划、销售和售后服务。研发工程师、采购员、制造现场管理者、销售员直至消费者,围绕液气密产品的数字化链接将释放出巨大的价值。

针对液气密行业如何利用3D建模、大数据、云计算、移动端等在内的数字化技术,笔者认为未来的数字化之路将呈现如下的阶段性发展:

一、产品图纸的数字化

液气密行业产品特点是品类、规格繁多,例如世界最大气动元件厂商SMC公司的产品型号就高达60万个以上。当前,随着产品设计周期越来越短,绝大部分设备集成商的设计部门都已采用Solidworks等三维设计软件进行产品设计。工程师在产品选型时,传统的纸质印刷样本、2D电子图纸可以满足选型需求,但无法满足设计需求。工程师不得不花费时间自行绘制3D模型,这势必影响设计效率、质量和研发周期。

目前,国外跨国公司和国内部分龙头企业,已委托德国卡迪纳斯、国内易尔派思、迈迪等公司进行产品的三维制图业务,但国内大部分中小企业仍不具备给客户提供3D电子图纸的下载服务,这已经开始直接影响到设计用户工程师的产品选择,制约了国产产品的选用。

3D电子图纸是液气密产品数字化的必由之路。由于液气密产品同一系列产品衍生的型号数量庞大,例如一个系列气缸,仅其缸径、行程、安装方式的组合就可能超过1000个。针对这样的产品系列,用手工3D制图这样的方法已无法满足数字化需求。为此,液气密产品的3D图纸化需要单独开发参数驱动引擎,基于反映零部件装配关系的母模型,通过向引擎输入产品定型参数,如图1所示自动生成该参数对应的产品3D电子图纸;同时,需要开发WEB浏览相关的功能模块、数据轻量化工具以及常用数据格式转换器等。

二、产品选型的智能化

液气密产品由于种类型号庞杂、性能参数多样、基本功能相同,产品选型对大部分设计工程师来讲都是一个需要高度专业知识和经验的工作。当前,很多选型都是照搬国外设计型号或者凭经验,易造成选型过程中的成本、性能等的浪费。同时,国内厂商数量众多,每家产品种类不够齐全、工程师熟知程度低,单凭传统的选型方法会让国内厂商的产品,尤其是新产品失去很多被选的机会。

因此,产品选型的数字化、在线化和智能化,可以帮助设计工程师准确、合理、快速地选择厂家、系列及型号。目前,国外SMC、FESTO等大型气动厂商都给客户提供智能选型软件,而国内厂商基本都不能提供。智能选型软件主要包括三个部分:1)电子样本:产品信息数据库,包括外形照片、型号、性能参数、外部尺寸等所有产品的信息。通常放在厂商官方服务器中,厂商可以随时更新数据;2)参数计算:气缸、阀等进行参数确定时需要结合工况进行计算设计,软件能提供计算辅助工具,例如气缸缸径、电磁阀声速流导等;3)型号确定:根据厂商的型号制定规则,提供人机交互界面一步一步完成型号每个参数的确定,并对参数间的匹配、排他等逻辑关系进行约束,避免选错型号。

随着大数据挖掘、用户个性数据分析技术的逐步成熟,设计工程师的选型历史数据将被挖掘用来分析出用户的选型习惯,从而个性化、指向性地应用于对应的个体用户,进一步提高用户的选型效率。目前,该技术在电商网站中被大量使用,但还较少见到进入液气密选型领域。

三、产品营销的在线化

目前,液气密行业企业主要采用传统的直营营业所和经销商相结合的渠道营销模式,尤其是国内中小企业,无力负担直营的成本,更多地倚重经销商模式。经销商模式的优点是可以将大量的地推工作分担出去,但缺点是加剧厂商同质化竞争、厂商利润被压缩、与终端客户关系薄弱、产品质量跟踪不到位等问题。

当前在李克强总理提出“互联网+”的时代背景下,利用好移动互联网、电子商务、大数据等技术手段,开拓网络营销,是现代化企业营销的必然趋势,也将市场竞争从线下转移到了线上。

发展液气密行业的网络营销,将有利于:1)进一步提高直销比例,增加利润,与终端客户直接互动,提升客户服务,改善产品质量追溯;2)为销售人员在线提供报价辅助功能,核查库存,跟踪发货物流,确认回款,缩短客户服务响应时间,大幅提高销售效率;3)国内中小企业通过联盟形式,主推各自优势产品,互补短板产品,避免大而全以至产品质量低下的问题,共同打造种类齐全、响应及时的线上销售平台。

四、制造管理的精细化

目前我国液气密行业的企业规模偏小,大部分企业内部都没有使用信息化系统,如ERP、PLM、CRM、SCM、OA等。即使部分企业在使用信息化管理系统,也都是基于原有经济业态下的管理,流程固化,要素之间仍未被集成起来,每一个信息系统都是孤立的。如何在工业4.0时代提升企业管理的精细程度?通过数据驱动、数据协同,将销售、制造、物流、质量追溯的各个环节串接起来,将至关重要。

国内金蝶、快易优等公司利用移动互联网、大数据和云计算的技术手段,开发基于移动互联网SaaS模式的企业智能化协同工具,满足客户不同环节的需求,可以智能化高效协同,打通信息孤岛,快速构建多样化的业务需求,涵盖选型、询价、合同、支付、采购、库存、加工、组装、物流、质量管理全环节,从而实现在线实时下单、订单分解、零部件库存查询、库存补充驱动加工、零部件调配、组装任务安排、物流在线管理等一系列数据驱动动作,实现由数据来驱动的柔性化生产,降本提效。

总之,数字化已经并正在深刻地改变着我国制造业,也将对我国液气密行业无论是销售还是制造都将产生深远的影响。