Alle Beiträge von Matthias Frühauf

Ohne Verfügbarkeit keine Smart Factory

Die Industrie ist nach wie vor einer der größten und innovativsten Wirtschaftssektoren in Deutschland. Das produzierende Gewerbe sorgte laut Statistischem Bundesamt im Jahr 2016 für immerhin ein Viertel des Bruttoinlandsprodukts. Damit dies auch so bleibt, müssen Industriebetriebe ihre Produktionsprozesse immer weiter optimieren, automatisieren, an individuelle Kundenwünsche anpassen und gleichzeitig eine hohe Produktqualität sicherstellen.

Der Kunststoffverarbeiter Rehau beispielsweise fertigt unterschiedliche Produkte aus polymeren Werkstoffen wie Bauteile für die Automobilindustrie oder Fensterprofile. Dabei fallen große Mengen an Daten an, die für das Unternehmen geschäftskritisch sind und darum permanent verfügbar sein müssen. Leitrechner zeichnen Produktionsdaten wie Temperatur und Stoffzusammensetzung auf, um die Produkte zu überprüfen und die Produkthaftung sicherzustellen. Dementsprechend hoch ist der Stellenwert der Daten – und der Datensicherung – für das Unternehmen: Bis zu fünf Terrabyte an Daten müssen regelmäßig pro Werk gesichert werden. Fünf Terrabyte sind bereits eine nicht zu unterschätzende Datenmenge, die künftig durch neue Technologien im Rahmen von Industrie 4.0 sowie einer steigenden Digitalisierung und Automatisierung der Wertschöpfungskette weiter anwachsen wird. Die strategische Nutzung dieser Daten gewinnt auch in der Produktion immer mehr an Bedeutung – die wichtigsten Stichworte hierbei sind Predictive Maintenance und flexible Fertigungsprozesse.

Industriespezifische Clouds eröffnen eigene Gestaltungsmöglichkeiten

Ob nun aus Sicherheitsgründen wie bei Rehau oder zur Umsetzung einer vernetzten Fabrik: Produktionsdaten sind in der Industrie eine wesentliche Komponente des Geschäftsmodells. Die Frage, wo diese Daten gespeichert, wie sie gesichert werden und wie schnell sie nach Ausfällen wieder zur Verfügung stehen, rückt daher weiter ins Zentrum der Unternehmensstrategie. Aktuell entstehen immer mehr industriespezifische Cloud-Umgebungen. Treiber hierfür sind die Unternehmen selbst: Sie vernetzen ihr gesamtes Ökosystem auf einer Plattform, um so agiler und schneller am Markt agieren zu können. Auf der Basis von Industrie 4.0-Technologien können Produktionsprozesse für ein neues Produkt schnell angepasst werden, sodass auch alle Zulieferteile automatisch und rechtzeitig zur Verfügung stehen. Auch die Fertigung kleinerer Stückzahlen lässt sich so wirtschaftlich realisieren. Dabei eröffnet die Cloud den schnellen und relativ unkomplizierten Aufbau einer neuen IT-Plattform: Die benötigten Anwendungen werden in der Cloud auf virtualisierten Umgebungen betrieben, Storage-Systeme sind weltweit über die großen Public Cloud-Provider verfügbar. Die damit geschaffene Anwendungsplattform steht dann allen Teilnehmern des Ökosystems zur Verfügung, die dort Daten austauschen, ihre eigenen Prozesse und Services integrieren oder die Produktentwicklung gemeinsam vorantreiben.

Die Vernetzung von externen Lieferanten sowie die Automatisierung von Fertigungsanlagen, Verkehrssystemen oder Logistikketten sind nur einige Beispiele für die enormen Effizienzsteigerungen, die sich in einem solchen Ökosystem ergeben. Daher treiben beispielsweise Automobilhersteller wie Volkswagen oder Ford den Aufbau spezieller Clouds voran, so genannte Industry Collaborative Clouds. Laut den Analysten von IDC wird sich die Anzahl dieser speziellen Clouds bis 2018 auf weltweit rund 450 erhöhen und damit im Vergleich zu 2016 verdreifachen.

Datenverfügbarkeit in komplexen IT-Umgebungen sicherstellen

Die Integration externer Geschäftspartner und der Einsatz von Cloud-Ressourcen führen aber schnell zu einem weltweit verzweigten Netzwerk an Standorten, in dem die Daten verteilt liegen. Auch in einer solchen Infrastruktur muss der CIO die Enterprise Continuity gewährleisten: Unternehmenskritische Daten müssen jederzeit verfügbar sein, um die Geschäftsprozesse am Laufen zu halten. Für IT-Verantwortliche wird es daher immer wichtiger, ausfallsichere IT-Infrastrukturen zu betreiben, um innerhalb dieser Industrie-spezifischen Cloud-Ökosysteme für alle Beteiligten als zuverlässiger Partner aufzutreten – Stichwort „Race to Zero“, das Rennen um Verfügbarkeit ohne Ausfälle und Datenverlust.

Eine aktuelle Studie zeigt jedoch, dass gerade das Thema Ausfallsicherheit ein wesentliches Hindernis für die Digitalisierung von Geschäftsmodellen ist. Laut der Umfrage sehen 70 Prozent der Befragten – weltweit und in Deutschland – die Verfügbarkeit, also den unterbrechungsfreien Zugang zu IT-Services, als zentrale Voraussetzung für die digitale Transformation. Gleichzeitig geben 77 Prozent der befragten Firmen an, die Erwartungen der Anwender in Bezug auf permanenten Zugang zu Daten und Anwendungen nicht erfüllen zu können. Mindestens ebenso gravierend ist die Datensicherungslücke durch die schnell wichtige Produktionsdaten verloren gehen und -prozesse verzögert werden. Dieses „Protection Gap“ entsteht, wenn die Zeitfenster zwischen Datensicherungen größer sind, als der maximal tolerierbare Datenverlust. In Deutschland geben IT-Verantwortliche an, geschäftskritische Daten im Schnitt alle 102 Minuten zu sichern. Für tolerierbar halten sie jedoch ein Zeitfenster von 48 Minuten.

Digitale Transformation nicht ohne Datensicherungsstrategie

Industriebetriebe, die aktuell ein Industrie 4.0-Konzept umsetzen und dabei auf Cloud-Ressourcen setzen, müssen die permanente Verfügbarkeit ihrer unternehmenskritischen Daten direkt in ihre Planung einbeziehen. Für jeden Workload sollten anforderungsgerechte Datenschutzlösungen, wie etwa Backups, Snapshots, Replikation und Verfügbarkeitstechnologien, implementiert werden. Wer bereits über eine hybride IT-Umgebung verfügt, tut sich auch bei der Datensicherung einen Gefallen, wenn unterschiedliche Cloud-Konzepte, also Public, Private oder Managed Cloud flexibel eingesetzt werden. Auch bestehende Backup-Systeme können aus dem lokalen Rechenzentrum in eine Private- oder Public-Cloud-Umgebung, beispielsweise Microsoft Azure, verlagert oder dorthin erweitert werden.

Dennoch dürfen keine Inseln entstehen, die IT-Infrastrukturen nur noch komplexer machen würden. Integriert in eine Plattform können Datensicherungsmechanismen weitgehend automatisiert sowie zentral gesteuert und überwacht werden. Eine solche Plattform berücksichtigt idealerweise virtuelle, physische und cloudbasierte Workloads, damit auch in komplexen IT-Umgebungen die Verfügbarkeit sichergestellt werden kann. Dann können Unternehmen Industrie 4.0-Initiativen schrittweise umsetzen, ohne den bestehenden Produktionsbetrieb unnötigen Risiken auszusetzen.

Damit Ihr Hund an sein Futter kommt

Die Kosten von IT-Ausfällen

Eine Konsequenz mangelnder Verfügbarkeit sind finanzielle Einbußen. Laut unserem Availability Report kostet der Ausfall einer geschäftskritischen Anwendung deutsche Firmen durchschnittlich rund 53.000 Euro pro Stunde, die Kosten für Datenverluste liegen pro Stunde Ausfall sogar bei 55.000 Euro. Gleichzeitig haben 68 Prozent der IT-Entscheider erkannt, dass Ausfallzeiten das Vertrauen der Kunden in die Organisation und in die Marke schädigen. Während immer mehr Daten in Zukunft in der Cloud gespeichert werden, stellt die Erwartungshaltung nach immer und überall verfügbaren Daten für viele Anbieter und Kunden immer noch eine Herausforderung dar.

Ein triviales und zugleich eindrucksvolles Beispiel ist der Haustier-Futterautomat des kalifornischen Unternehmens PetNet: Das Gerät gibt ferngesteuert eine bestimmte Menge an Tiernahrung aus, wenn die Haustierbesitzer unterwegs sind. Ein Serverausfall führte im Juli 2016 dazu, dass die Futterausgabe nicht richtig funktionierte und so mussten viele Haustiere für einige Stunden hungern. Glücklicherweise dauerte der Ausfall nur zehn Stunden und betraf nur etwa zehn Prozent der PetNet-Kunden. Viele von ihnen beschwerten sich massiv über Twitter und reagierten verärgert auf den Hinweis, dass die betroffenen Besitzer ihre Haustiere während des IT-Ausfalls doch bitte per Hand füttern sollen.

CIOs müssen die Verfügbarkeitslücke schließen

Dies verdeutlicht, wie wichtig Backup- und Disaster Recovery-Lösungen heute sind, um die Verfügbarkeit von Daten und Anwendungen im vernetzten Digitalzeitalter sicherzustellen. Da das Internet der Dinge im Alltag der Verbraucher eine immer wichtigere Rolle einnimmt, sind lange Wiederherstellungszeiten bei einem IT-Ausfall beispielsweise im Gesundheitssektor nicht nur lästig, sondern sogar bedrohlich. Die Wiederherstellung der IoT-Services muss daher bei einem Ausfall höchste Priorität haben. Mit den richtigen Lösungen hätte das Unternehmen die Ausfallzeiten minimieren können – von zehn Stunden auf wenige Minuten.

IT-Administratoren sollten daher regelmäßige Backups und Snapshots durchführen, um diese für eine schnelle Wiederherstellung nutzen zu können. Doch viele Unternehmen setzen veraltete Backup- und Replikationslösungen ein, die den modernen virtuellen und Multi-Cloud-Umgebungen, mit denen viele Organisationen arbeiten, nicht gewachsen sind. Ganz zu schweigen von einer Validierung von Backups, die notwendig ist, um sicherzustellen, dass sich IT-Systeme mit den gespeicherten Daten auch tatsächlich wieder starten lassen.

Aus Sicherheitsgründen sollte der Datentransfer der vernetzten Geräte vor Datenverlusten sowie vor unautorisiertem Zugriff geschützt werden. Hierfür benötigen IT-Verantwortliche eine kontinuierlich arbeitende Security-Lösung und sie müssen das Backup verifizieren, um die Wiederherstellung zu garantieren, und die Daten mit einer angemessenen Verschlüsselung vor fremdem Zugriff schützen.

Verfügbarkeit im Zentrum der IoT-Strategie

Die Verfügbarkeit von Daten und Anwendungen muss aus der Nische in den Fokus der IT-Strategie rücken. Eine gute Backup-Strategie beschreibt die 3-2-1-Regel: Hierbei sollten drei Datenkopien angelegt werden, einmal auf dem aktuellen System und zwei externe Backups. Die Backups sollten auf zwei unterschiedlichen Speichertechnologien lagern, etwa Netzwerkfestplatte und Bandlaufwerk – und eines der Backups ist an einem anderen Ort zu verwahren. Das schützt ganze Unternehmensstandorte vor Ausfällen. Heutige Backup-Architekturen halten sich an diesen 3-2-1-Ansatz, dabei priorisieren sie primäre Speicher für kurzfristige Backup- und Wiederherstellungsvorgänge und erstellen eine redundante Kopie auf einem sekundären Medium.

Fazit

Voraussetzung für den erfolgreichen Einsatz von IoT-Technologien ist, dass Unternehmen die Verfügbarkeit der Anwendungen und Daten als integralen Faktor bei der Planung und beim Einsatz der IoT-Produkte berücksichtigen. CIOs müssen die zahlreichen neuen Technologien eingehend evaluieren, um eine passende Verfügbarkeitsstrategie zu entwickeln, welche die digitalen Unternehmensziele unterstützt. Organisationen, die Verfügbarkeit in den Mittelpunkt ihrer IoT-Strategie stellen, fördern Innovationen, bauen Vertrauen bei ihren Kunden auf und profitieren von der Digitalisierung. So bekommen auch Haustiere ihr Futter immer zur rechten Zeit.