Herausforderung Industrie 4.0: neue Aufgaben für Vertrieb, Marketing und Co.

In aller Munde im Zusammenhang mit Industrie 4.0 ist die Technologie und die Vernetzung von Prozessen und Systemen – in den Funktionen Marketing, Vertrieb, Produkte-Management, Service und HR bedeutet dieser Trend jedoch einen Paradigmenwechsel, ohne den das genannte Potential nicht realisiert werden kann.

Kurz gesagt: Potentielle Kunden führen Projekte durch und optimieren horizontale und vertikale Wertschöpfungsketten. Anbieter sind in Produkt-Silos organisiert, suchen Fach-Spezialisten aus und schulen Mitarbeiter in Produkt-Eigenschaften. Hier besteht massiv Handlungsbedarf.

Ein systematisches, bereichsübergreifendes Vorgehen ist erfolgskritisch, um Chancen nutzen zu können

In den Funktionen Marketing, Vertrieb, Produkt-Management,  Service und HR bedeutet dieser Trend einen Paradigmenwechsel. Dadurch ändern sich Funktionen und Inhalte. Der Vertrieb ist weniger Überbringer technischer Informationen und Features von Einzelprodukten. Er tritt künftig als Spezialist für Prozess-Optimierungen beim Kunden auf.

Auch Marketing und Produktmanagement erleben den Paradigmen- und Rollenwechsel. Das Lösungs-Portfolio verändert sich – weg vom Einzelprodukt hin zu Lösungen und Systemen, die möglichst ganze Wertschöpfungsketten über den vollständigen Lifecycle umfassen. Das bedeutet eine  Aufwertung des Marketings und des Produkt-Managements.  Weg vom Druck von Produkte-Katalogen  hin zu einer produkt- und technologieübergreifenden Funktion, die von den Prozessen des Kunden ausgeht.

Technologie und Software spielen dabei eine immer zentralere Rolle und sind Disziplinen, die nicht zu den ursprünglichen Kernkompetenzen gehören und integriert werden müssen. Oft reicht die Zeit nicht, um diese Kompetenzen selber aufzubauen, deshalb sind Kooperationen schneller und effektiver.  Die Führung ist dabei besonders gefordert – Ein Umbruch in einer solchen Dimension löst zudem Fragen und Aengste aus . Mitarbeiter wollen bei Veränderungen „mitgenommen“ werden, mitgestalten können  und an neue Anforderungen herangeführt werden.   

Wo anfangen? 

Empfehlung: Starten Sie mit Win- und Loss-Analysen im Vertrieb und erfahren Sie die wahren Gründe für einen verpassten Kundennutzen. 

Dann arbeiten Sie mit Ihren Kunden bei der Erarbeitung von Geschäftsmodellen und Business Cases zusammen und schaffen / identifizieren erweiterten Kundennutzen.  

Im nächsten Schritt schaffen Sie die Rahmenbedingungen. Im Kern geht es um die Stakeholder, die für eine erfolgreiche Umsetzung benötigt werden.

Dann folgt die Umsetzung bzw. die Optimierung. Diese lässt sich nur abteilungsübergreifend erfolgreich und nachhaltig bewältigen.  Die Herausforderung liegt darin, Ressourcen, die bisher fast ausschliesslich reaktiv und ausführend gearbeitet haben, in einer Projektstruktur auf ein gemeinsames Ziel auszurichten.   

Wenn Daten das neue Öl sind, warum verhalten wir uns dann nicht auch so?

Springer-Chef Matthias Döpfner, BITKOM-Präsident und Datev-Chef Dieter Kempf oder GfK-CEO Matthias Hartmann – um nur einige wenige zu nennen – sie alle haben den Vergleich von Daten mit Gold oder Öl hinsichtlich der ökonomischen Bedeutung bereits bemüht. Doch wie es scheint, überlassen wir es in der praktischen Gegenwart eher den Tech-Konzernen aus den USA, diese immateriellen Bodenschätze zu heben. In Deutschland beschränkt man sich bislang auf die Rolle als Rohstofflieferant – in der Regel gegen Glasperlen. Schlimmer noch: Unvorstellbar, dass ein westlicher, marktwirtschaftlich geprägter Staat auf die Idee gekommen wäre, reichhaltiges Ölvorkommen um jeden Preis von der Vermarktung fernzuhalten, den Verkauf möglichst zu unterbinden, ja sogar unter Strafe zu stellen, anstatt aus diesem Ressourcenglücksfall einen Markt zu schaffen, der das ökonomische System beflügelt, für Wohlstand sorgt und somit über Besteuerung auch der öffentlichen Hand Einnahmen beschert. Würde dazu noch der Rohstoff an andere Staaten verschenkt, würden Konzessionen und unbegrenzte Zugriffsrechte auf die Ressourcen ermöglicht und sogar forciert – die politisch Verantwortlichen dürften normalerweise mit Schimpf und Schande aus dem Amt gejagt werden.

Der Unterschied zwischen Daten und Öl

Beim Öl und beim Gold wäre dieses Szenario schlicht undenkbar. Bei Daten jedoch passiert in Deutschland genau das. Während die inländische Wirtschaft in ein immer engeres Korsett gepresst wird, was die Verwendung von personenbezogenen Daten betrifft, unterliegen gleichzeitig aber deren internationale, vor allem US-amerikanische Konkurrenten aufgrund der internationalen Vernetzung naturgemäß nicht den selben Beschränkungen. Noch viel schlimmer jedoch: Eigentlich besteht die Aufgabe des Staates, ja im Schutz der Bürger und deren Interessen sowie darin, die ökonomische und gesellschaftliche Funktionsweise sicherzustellen. Tatsächlich aber beschränkt er Wirtschaft und Bürger in ihrer Handlungsfreiheit und ihren Rechten, protegiert er konkurrierende Unternehmen aus dem Ausland, wie Google und Facebook, sowie ausländische Geheimdienste wie die NSA im gleichen Maße. Ökonomisch führt dies zu einer Marktverzerrung zu Lasten der Unternehmen im eigenen Land, ja sogar zu staatlich unterstützter Industriespionage. Aus gesellschaftlicher Perspektive ist dies hingegen als Verramschung von Volkssouveränität und Rechtsstaatlichkeit zu werten.

Es bedarf einer Wertediskussion um die „Datenidentität“

Offensichtlich brauchen wir dringend eine Diskussion um den Wert und die Bedeutung von Daten in unserer immer digitaleren Welt: Wem gehören Daten? Wer ist ihr Eigentümer? Und wer hat das Recht diese zu vermarkten – derjenige, der sie erhebt und veredelt oder derjenige, in dessen „Sphäre“ sie angefallen sind? Die Rechtswissenschaft meint gemeinhin zumindest bei Personendaten hier klare Antworten geben zu können. Doch wie verhält es sich bei Maschinen- und Objektdaten im „Internet der Dinge“? Und lässt sich dann noch eine Trennung zwischen dinglichen und „menschlichen“ Daten vollziehen? Auch wenn die Bereitschaft in der Bevölkerung für einen entsprechenden Diskurs derzeit nicht allzu hoch ist und die digitale Kompetenz der politischen Entscheidungsträger in der überwiegenden Zahl der Fälle bei weitem nicht ausreicht, um substanziell an der Diskussion teilzunehmen: mit der Datenfrage berühren wir inzwischen die grundlegenden Prinzipien unserer „Freiheitlich Demokratischen Grundordnung“. Wenn Daten tatsächlich diese eminent hohe Bedeutung zukommt, ist es essentiell für Demokratie und Rechtsstaatlichkeit, dass wir bürgerliche Datenrechte und Selbstverantwortlichkeiten sowie den Schutz vor staatlicher Willkür und Missbrauch verfassungsrechtlich verankern.

Unternehmerisches Versagen bei der Datenwertschöpfung

Der Staat ist letztlich immer nur die Summe seiner Teile. Neben dem Wahlvolk tragen eben auch die Unternehmen ihren Teil der Schuld an diesem Problem bei. Viel zu lax wird mit dem eigenen „Datenvermögen“ umgegangen. Datengetriebene Geschäftsmodelle der Industrie, etwa in den Schlüsselsegmenten Maschinenbau und Automobil, jenseits von bloßer „Prozessoptimierung“ findet man selten. Gerade auch die Medienbranche offenbart hier eklatante Kompetenzprobleme: Im Kampf mit Google haben die deutschen Verleger ein mehr als zweifelhaftes „Leistungsschutzrecht“ mittels massivem Lobbyismus durchgesetzt. Dadurch sollen die Inhalte der Verlage besser geschützt werden. Gleichzeitig – trotz des „Daten-sind-das-neue-Öl“-Mantras – nutzt die überwältigende Mehrheit der deutschen Medienunternehmen Googles AdServer „Double Click“ zur Ausspielung von Werbung auf den eigenen medialen Plattformen. Damit erhält der Datenriese aus Mountain View den kompletten Zugriff auf deren sämtliche Nutzer – und wird dafür von den Verlagshäusern auch noch bezahlt. Während man also auf der einen Seite über das Recht an den Verpackungsmaterialien streitet, bezahlt man auf der anderen Seite noch dafür, Gold und Öl, das eigentliche Produkt, eimerweise verschenken zu dürfen. Paradox? Ja. Aber Realität im deutschen digitalen Klondike.

Der Beitrag erschien ursprünglich auf Nerdwärts.de

Was wir aus dem #Brexit lernen können

Vor fünf Jahren wurde der so genannte Arabische Frühling durch junge Menschen in den sozialen Netzwerken befeuert. Manche machten daraus sogar eine Facebook- oder Twitter-Revolution – allerdings in Unkenntnis der politischen Motive der Jugend in den arabischen Staaten Nordafrikas und des mittleren Ostens. Damals schafften es die jungen Leute, die sozialen Medien für ihre Botschaften und Ziele zu nutzen. Sie posteten zum Beispiel Handyvideos von staatlichen Übergriffen und erzeugten auf diese Weise eine globale Gegen-Öffentlichkeit zur veröffentlichten Meinung der staatlich gelenkten Medien in ihren Heimatländern.

#Brexit-Lager auf Instagram klar vorn

Mittlerweile haben die etablierten politischen Kräfte dort, aber auch in Amerika (in den USA hatte Barack Obama bereits in seinem Wahlkampf 2008 erfolgreich auf Web 2.0 als Kommunikationsmedium gesetzt) und in Europa aufgeholt. Wie 2011 die jungen Leute in Teilen der arabischen Welt machen sich nun auch ältere Politiker und Aktivisten hier im Westen die Möglichkeit zu Nutze, mittels sozialer Medien Meinungen bzw. Willensbildungsprozesse zu beeinflussen. Das konnte man am Beispiel des britischen EU-Referendums gut erkennen. Denn das demographisch mehrheitlich ältere #Brexit-Lager war zum Beispiel auf Instagram fast fünf Mal so aktiv wie die jüngeren #Bremain-Anhänger. Das ist ein Ergebnis einer Analyse von Vyacheslav Polonski, Wissenschaftler an der Oxford University. Er hatte fast 29.000 Posts von rund 16.000 Instagram-Nutzern mit über 13.000 relevanten Hashtags untersucht.

Infografik: Die Alten haben entschieden | Statista

Social Media kann nicht überzeugen

Wir sehen also zum einen, dass nur 36 Prozent der jungen Internetnutzer im Alter zwischen 18 und 24 Jahren von ihrem demokratischen Grundrecht der Teilnahme an Wahlen Gebrauch gemacht haben. Zum anderen wird deutlich, dass die mehrheitlich jungen #Bremain-Anhänger in sozialen Netzwerken wie Instagram deutlich weniger aktiv waren als die durchschnittlich älteren #Brexit-Anhänger. Ob die Jungen einfach unterschätzt haben, dass die sozialen Medien längst nicht mehr ihre alleinige Domäne in politischen bzw. gesellschaftlichen Debatten sind, müsste gegebenenfalls wissenschaftlich geklärt werden. 

Sicher ist aber, dass die Abstimmung der Briten über den Verbleib in der EU oder den Ausstieg anders verlaufen wäre, wenn die jungen Internetnutzer sich an der Wahl beteiligt hätten. So ist es auch kein Zufall, dass wieder der politische Internet-Vorreiter Barack Obama in dieser Woche in einem Online-Video dafür wirbt, dass sich junge Menschen für die anstehenden Wahlen registrieren lassen.  Der scheidende US-Präsident weiß, dass er Menschen über soziale Medien nur sehr schwer von einer anderen Meinung überzeugen kann. Deshalb setzt er darauf, möglichst viele Anhänger seiner Demokratischen Partei zumindest dazu bewegen zu können, zur Wahl zu gehen. Damit den Demokraten nicht das gleiche Schicksal ereilt wie den #Bremain-Anhängern in Großbritannien.

Fazit

Übertragen auf das Marken-Business heißt das Folgendes: Wir können die sozialen Plattformen eher zur Pflege der Markentreue, also zum Ausbau der Loyalität unserer bestehender Kunden nutzen als die Fans konkurrierender Marken dazu zu bringen, zu unseren Produkten und Dienstleistungen zu wechseln. Hinzu kommt: Sowohl in der Politik als auch in Marketing und Kommunikation können wir mit Social Media in einen Dialog mit unentschlossene Kunden bzw. Wählern treten und versuchen, sie zu überzeugen. Das ist des Pudels Kern.

Überprüfung und Fehlerbehebung

Überprüfen Sie ob sich der Server sowohl in der Forward- als auch in der Reverse-Lookupzone korrekt eingetragen hat. Öffnen Sie danach eine Eingabeaufforderung und geben Sie den Befehl nslookup ein. Die Eingabe des Befehls darf keinerlei Fehlermeldungen verursachen. Es muss der richtige FQDN des DNS-Servers und seine IP-Adresse angezeigt werden. Sollte das nicht der Fall sein, gehen Sie Schritt für Schritt vor, um den Fehler einzugrenzen:

  1. Sollte ein Fehler erscheinen, versuchen Sie es einmal mit dem Befehl ipconfig /registerdns in der Eingabeaufforderung.
  2. Sollte der Fehler weiterhin auftreten, überprüfen Sie, ob das primäre DNS-Suffix auf dem Server mit dem Zonennamen der DNS-Zone übereinstimmt.
  3. Stellen Sie als Nächstes fest, ob die IP-Adresse des Servers stimmt und der Eintrag des bevorzugten DNS-Servers in den IP-Einstellungen korrekt ist.
  4. Überprüfen Sie in den Eigenschaften der Zone, ob die dynamische Aktualisierung zugelassen wird und ändern Sie gegebenenfalls die Einstellung, damit die Aktualisierung stattfinden kann. Die Eigenschaften der Zonen erreichen Sie, wenn Sie mit der rechten Maustaste auf die Zone klicken und die Eigenschaften auswählen.

Wenn sich ein Servername mit Nslookup nicht auflösen lässt, gehen Sie auch hier am besten Schritt für Schritt vor:

  1. Ist in den IP-Einstellungen des Servers der richtige DNS-Server als bevorzugt eingetragen?
  2. Verwaltet der bevorzugte DNS-Server die Zone, in der Sie eine Namensauflösung durchführen wollen?
  3. Wenn der Server diese Zone nicht verwaltet, ist dann auf der Registerkarte Weiterleitungen in den Eigenschaften des Servers ein Server eingetragen, der die Zone auflösen kann?
  4. Wenn eine Weiterleitung eingetragen ist, kann dann der Server, zu dem weitergeleitet wird, die Zone auflösen?
  5. Wenn dieser Server nicht für die Zone verantwortlich ist, leitet er dann wiederum die Anfrage weiter?

In Ausnahmefällen kann es vorkommen, dass die Aktualisierung der Reverse-Lookupzone nicht funktioniert hat. In diesem Fall ist der Server zwar in der Forward-Zone hinterlegt, aber nicht in der Reverse-Zone. In diesem Fall können Sie einfach den Eintrag des Servers manuell ergänzen. Dazu müssen Sie lediglich einen neuen Zeiger (engl. Pointer) erstellen. Ein Zeiger oder Pointer ist ein Verweis von einer IP-Adresse zu einem Hostnamen. Kurz nach der Installation kann dieser Befehl durchaus noch Fehler melden.

Versuchen Sie die IP-Adresse des Domänencontrollers erneut mit ipconfig /registerdns zu registrieren. Nach einigen Sekunden sollte der Name fehlerfrei aufgelöst werden. Sobald Sie Nslookup aufgerufen haben, können Sie beliebig Servernamen auflösen. Wenn Sie keinen FQDN eingeben, sondern nur den Computernamen, ergänzt der lokale Rechner automatisch den Namen durch das primäre DNS-Suffix des Computers, bzw. durch die in den IP-Einstellungen konfigurierten DNS-Suffixe.

Das Internet der Kühe

Ziel dieses Vorstoßes ist es, die Geburtenrate von Rindern zu „optimieren“. Weibliche Rinder werden in der Viehzucht überwacht, um den optimalen Besamungszeitpunkt zu ermitteln. Die Fruchtbarkeitsphase (Östrus) von Kühen scheint aber oft – laut Fujitsu zu 66% – zu nachtschlafender Zeit zu beginnen, daher ist es schwierig, diese allein nur durch das menschliche Auge zu erkennen. Künstliche Befruchtung von Rindern ist also nicht einfach und erfordert oft mehrere Versuche. Wenn der erste Versuch allerdings nicht gelingt, so müssen drei Wochen bis zur nächsten Gelegenheit abgewartet werden. Da Zeit bekanntlich Geld ist, will Fujitsu hier nun Abhilfe schaffen und diese enorme „Last“, wie man sich in einem Werbeclip ausdrückt, von den Schultern der Bauern und Viehzüchter nehmen.

Das Internet der Kühe als Ertragsfaktor in der Landwirtschaft

Ein typischer Indikator zu Beginn des Östrus scheinen verstärkte Beinbewegungen der Kühe zu sein. Ausgestattet mit einem „Pedometer“ – einem Schrittzähler, der an den Läufen befestigt wird, ist es möglich, die erhöhte Bewegungsaktivität der Kühe zu messen und das vermutliche Eintreten des Fruchtbarkeitszyklusses per Funkverbindung an den Eigentümer der Rinder zu übermitteln. Angeblich soll auf diese Weise die Erfolgsquote der künstlichen Befruchtung auf 90% erhöht werden. Wie Fujitsu stolz vermeldet, kann somit die Phase der „Nicht-Schwangerschaft“ von Kühen erheblich reduziert werden, was der Landwirtschaft entsprechend höhere Erträge bescheren könnte. Was dem einen oder anderen wie eine Perversion des industriellen Eingriffs in die Natur vorkommen mag, begründet Fujitsu übrigens mit der Möglichkeit den Welthunger zu bekämpfen. Ganz egal wie man zur Industrialisierung der Landwirtschaft steht, dies ist ein weiteres Beispiel dafür, dass alles was vernetzt und digitalisiert werden kann auch vernetzt und digitalisiert werden wird.   Zum Video auf Youtube:

Der Artikel erschien ursprünglich auf nerdwärts.de

Vernetzte Autos: Ahnungslosigkeit und Sicherheitslücken öffnen Tür und Tor für Hacker

Die traditionsbewusste Automobilbranche stellt die Transformation vom Auto zum „rollenden Computer“ vor ganz neue Herausforderungen: So sieht sie sich nicht nur mit einem starken Wettbewerb konfrontiert, sondern muss auch in Sachen IT-Sicherheit neue Konzepte und Standards einführen. Denn dass vernetzte Fahrzeuge auch immense Risiken bergen, zeigt sich spätestens immer dann, wenn Sicherheitslücken und Hacker ins Spiel kommen. Vor allem im letzten Jahr bestimmten Schlagzeilen über spektakuläre Angriffe von Car-Hackern und gefährliche Manipulationen an unseren Autos die Nachrichten – von der potenziell lebensgefährlichen Fernsteuerung eines Jeeps bis zum Airbag-Hack. Auch wenn diese Hacks allesamt kontrolliert durchgeführt wurden und nicht von realen Cyberkriminellen, so zeigten sich doch in verschiedensten Modellen unterschiedlicher Hersteller signifikante Sicherheitslücken.

Vielfältige Angriffsmöglichkeiten
In einem modernen Fahrzeug sind bereits heute bis zu 100 Mikrocomputer verbaut, die unter anderem Lenkung, Bremsen oder Triebwerksbeschleunigung steuern. Hinzu kommen Infotainment-Systeme und Wi-Fi-Netzwerke für die GPS-Navigation sowie mobile Smartphone-Apps, die mit dem Auto kommunizieren. Cyberkriminellen bieten sich also viele Angriffspunkte, über die sie sich Zugriff zur Software eines Fahrzeugs verschaffen können. Dabei lassen sich grob zwei Angriffsszenarien unterscheiden: Physische Angriffe, bei denen sich der Hacker zunächst Zugang zum Fahrzeug verschafft und direkt am Auto manipulieren kann, z.B. mittels Code-Injection-Techniken, sowie Angriffe aus der Ferne, sogenannte Remote-Angriffe. Hier können Hacker Malware z.B. über Navigationssysteme, mit Bluetooth oder USB verbundenen Devices, SMS-Schnittstellen oder über manipulierte Smartphone-Apps einschleusen und weitere Fahrzeug-Anwendungen infizieren. Bereits vor knapp einem Jahr demonstrierte der Sicherheitsforscher Samy Kamkar, wie er über eine Sicherheitslücke in der beliebten OnStar-App von GM Fahrzeugfunktionen manipulieren kann. Nachdem es ihm gelungen war, sich zwischen die App und den Server des Unternehmens zu schleusen, erlangte er Zugriff auf alle App-Funktionen und konnte anschließend Autotüren fremder Wagen öffnen und sogar den Motor starten. Autodiebstahl 2.0 eben.

Die im Auto verbauten Systeme wandeln sich zudem zunehmend weg von Mikrocontrollern hin zu Mehrprozessorarchitekturen von ARM und Intel mit komplexeren Betriebssystemen, wie wir sie von PCs und mobilen Geräten her kennen. Typische Beispiele sind die in der Head-Unit und der Mittelkonsole verbauten Systeme. Damit werden die bereits zahlreich bekannten Angriffe auch auf diesen Systemen möglich. Hinzu kommt, dass OEMs oder auch die Zulieferindustrie die Software nicht gänzlich selbst schreiben, sondern einen Drittmarkt eröffnen. Sie verteilen Software Development Kits (SDK), um attraktive und bekannte Software auf ihre Plattformen zu bekommen. Und auch diese SDKs bieten potenzielle Angriffsmöglichkeiten.

Sicherheitsbewusstsein auf Seiten der Nutzer – Sicherheitsstandards auf Seiten  der Hersteller
Um Szenarien wie diese zukünftig verhindern zu können, bedarf es gezielter Aufklärungsarbeit, gesteigertem Sicherheitsbewusstsein und moderner Sicherheitstechnologien auf jeder Ebene der Fahrzeug-Technik.  Wie groß die Unwissenheit vieler Autofahrer in Sachen Car-IT ist, zeigt auch die Studie von BearingPoint und TNS. Demnach sind sich 39 Prozent der der Autobesitzer nicht einmal darüber bewusst, dass vernetzte Funktionen in ihren Fahrzeugen vorhanden sind. Und auch auf Seiten der Händler werden Fehler gemacht: So gaben nur 40 Prozent aller Befragten an, über die technischen Funktionen ihres Autos ausreichend informiert worden zu sein. Viele monierten zudem die fehlenden Kenntnisse der Händler in Bezug auf vernetzte Funktionen. Ein großes Risiko, denn nur wer gut über die im Fahrzeug eingebetteten Anwendungen informiert ist, wird auch verfügbare Softwareupdates regelmäßig herunterladen, was im Falle entdeckter Sicherheitslücken unabdingbar ist. Autohersteller müssen ferner darauf achten, dass Softwareaktualisierungen auch jenseits der Werkstatt einfach via Mobilfunknetz ins System überspielt werden können. Denn je geringer der Aufwand für ein Update ist, desto wahrscheinlicher ist es, dass der Fahrzeugnutzer dieses auch zeitnah installiert. Natürlich sind auch hier höchste Sicherheitsmaßnahmen notwendig, damit die Mobilfunkverbindung  keine neue Risikoquelle eröffnet.

Aber auch auf Seiten der Softwareentwickler müssen neue Sicherheitsstandards etabliert werden. Jegliche im Fahrzeug eingebettete Software sowie alle mobilen Apps, die mit dem Auto interagieren müssen mit wirksamen Härtungs-Technologien ausgestattete sein, die den Binärcode der Anwendungen vor jeglichen Manipulationen schützt und das Einschleusen von Malware verhindern. Zudem gilt es sicherzustellen, dass die Anwendungen ausschließlich mit den „richtigen“ Servern kommunizieren.

Wie wahrscheinlich ist ein Angriff auf mein Auto?
So beunruhigt mancher Autofahrer bei all den Schlagzeilen rund um gehackte Autos auch sein mag, bisher haben Cyberkriminelle kein wirkliches Interesse an Autos und ihren Unterhaltungssystemen gezeigt. So hat es bisher keinen öffentlichen Fall eines durch einen Hackerangriff verursachten Unfalls gegeben. Dass Connected Cars noch nicht im Hauptfokus der Hacker liegen, dürfte vor allem dem Mangel finanzieller Anreize geschuldet sein. Das Hacken von PCs und Mobilgeräten, die jede Menge wertvolle Banking- und Kredtitkartendaten enthalten, aber auch Cyber-Angriffe auf vernetzte Industrieanlagen sind deutlich profitabler. Wenngleich auch Fahrzeug-Software eine Reihe von Betrugsmöglichkeiten mit finanziellen Vorteilen bereithält. So entsteht laut einer Untersuchung des ADAC durch manipulierte Tachos jährlich ein Schaden von rund sechs Milliarden Euro. Private Gebrauchtwagenkäufer bezahlten für derart manipulierte Autos im Schnitt 3000 Euro zu viel. Aber auch Ideen wie automatisches Zahlen an Tank- und Elektroladestellen, über die heute bereits nachgedacht wird, dürften das Hackerherz erfreuen. Aus Sicht der Security ergeben sich hier dann dieselben Herausforderungen wie beim mobilen Bezahlen mit Handy und Co.

Ausschließen lassen sich Hackerangriffe auf Fahrzeuge in Zukunft selbstverständlich nicht, wobei wir uns eher vor Datenklau und illegalen Überwachungen fürchten sollten als vor Manipulationen von Bremse und Co. Auch dürften Dienstwägen und Fahrzeugflotten von Unternehmen gefährdeter sein als Privat-Autos.

Die Zukunft fährt autonom
Noch hat die Digitalisierung und Vernetzung unserer Mobilität ihren Höhepunkt nicht erreicht, denn die Zukunft gehört dem autonomen Fahren. Fahrerlose Autos oder LKWs sollen in den kommenden Jahren nicht nur Komfort und Effizienz erhöhen, sondern vor allem für mehr Sicherheit im Straßenverkehr sorgen. Damit dieser Ansatz aber letztlich aufgeht und die gewollte Sicherheit nicht mehr Unsicherheiten mit sich bringt, müssen Automobilhersteller und Technologie-Unternehmen reichlich in den Schutz unserer Car-IT und die dazugehörige die Aufklärungsarbeit investieren.

EaseUS Data Recovery Wizard Professional

Sie können die Software für 70 US-Dollar pro Arbeitsplatz lizenzieren, oder für 500 US-Dollar für eine unlimitierte Anzahl. Mit EaseUS Data Recovery Wizard stellen Sie nicht nur gelöschte Dateien auf Ihrem Rechner wieder her, sondern auch von SD-Karten oder USB-Sticks.

Auf der ersten Seite des Assistenten wählen Sie zunächst aus, welche Art von Datei Sie wiederherstellen wollen. Fotos lassen sich zum Beispiel durch die Auswahl von Grafik wiederherstellen, verlorene MP3s mit Audio und Briefe oder Tabellen mit Dokumente. Wollen Sie mehrere Dateien wiederherstellen können Sie auch eine Mehrfachauswahl treffen. Klicken Sie danach unten rechts auf Weiter. Auf der nächsten Seite wählen Sie das Laufwerk aus, auf dem Sie die Dokumente gelöscht haben. Klicken Sie auf Scan um den Suchvorgang zu starten. Im oberen Bereich sehen Sie einen Fortschrittsbalken, der anzeigt wie weit der Suchvorgang fortgeschritten ist. Im Fenster sehen Sie anschließend alle Verzeichnisse, aus denen das Programm Dateien wiederherstellen kann. Im Suchfeld oben können Sie gezielt nach verlorenen Dateien suchen.

In den meisten Fällen finden Sie Ihre Dokumente mit dem Standard-Scan. Es kann aber passieren, dass sich manche gelöschte Dateien tiefer im System verstecken. In diesem Fall starten Sie nach dem herkömmlichen Scan durch klicken auf Tiefenscan eine umfangreichere Suche. Diese kann mehrere Stunden dauern. Auch hier sehen Sie den Fortschritt im Fenster oben. Die Anzahl der gefundenen Dateien sehen Sie direkt über der Fortschrittsleiste. Auf Wunsch können Sie mit Stopp den Tiefenscan abbrechen.

tool-01

Ease US hilft bei der Wiederherstellung von Dokumenten auf Servern und Arbeitsstationen.

Mehr Sicherheit, mehr Performance

Das von Citrix vor über einem Jahr gestartete Projekt Dundee hat mit der finalen Freigabe von XenServer 7 nun seinen Abschluss gefunden. Gegenüber XenServer 6.5 wartet die Version 7 vor allem mit verbesserter Sicherheit und dem Feature GPU-Virtualisierung auf.

Die maßgeblich von Citrix entwickelte, auf den Xen-Hypervisor basierende Enterprise-Virtualisierungsplattform ist seit dem Jahr 2013 größtenteils freie Software und unter xenserver.org zum Download verfügbar. Nur wenige Komponenten sind ausschließlich mit der von Citrix vertriebenen kommerziellen Version verfügbar.

Über XenServer

XenServer bietet mit der Konkurrenz vergleichbare, heute aber als Klassenstandard einzustufende Enterprise-Virtualisierungsfunktionen, wie rollenbasierte Administration, Performance-Überwachung, Live-Migration von virtuellen Maschinen und Storage, Clustering mit Hochverfügbarkeit und heterogenen Ressourcen-Pools mit unterschiedlichen Servern. Ferner gibt es Features für Backup und Wiederherstellung kompletter Cluster.

Projekt Dundee

Das vor rund einem Jahr von einem Entwicklerteam bei Citrix zusammen mit Bitdefender gestartete Projekt Dundee hatte vorrangig eine Erhöhung der Sicherheit der Lösung zum Ziel. Dundee sorgt dafür, dass der Host, auf dem der Hypervisor läuft sowie virtuelle Maschinen nicht von „bösartigen“ VMs beeinträchtigt werden.

Im Prinzip schützt die Funktionalität vor Schadsoftware, indem sie die virtuellen Maschinen laufend überwacht. Dazu wird unter Zuhilfenahme der Intel EPT-Virtualisierungs-Erweiterungen eine Art Anti-Malware-Engine in einer separaten Service-VM implementiert, die ihrerseits vor Zugriffen der normalen Gast-VMs geschützt ist.

Maximale Sicherheit

XenServer 7 unterstützt die neue Technologie mittels seiner Direct Inspect API. Die kann wiederrum von Produkten wie Bitdefender GravityZone HVI verwendet werden, wobei der in einer separaten VM ausgelagerte Virenscanner nun nicht mehr die Angriffsfläche einer VM erhöht.

Der Hypervisor soll laut Citrix aber auch bösartige Speicherzugriffe der VMs selbst erkennen und melden können. XenServer 7 unterstützt zudem zusätzlich Intels CPU-Security-Features SMAP und PML. Ferner bringt XenServer 7 Unterstützung für TLS 1.2. Dabei soll es möglich sein, XenServer 7 so zu konfigurieren, dass ausschließlich diese Version des Protokolls genutzt wird.

GPU-Virtualisierung

Ferner soll XenServer 7 bei der GPU-Virtualisierung deutlich mehr Performance im Zusammenhang mit Hardware wie Nvidias Grid Maxwell M10 oder Intels neuer Iris Pro. Dabei unterstützt XenServer 7 auch mehrere GPUs pro VM. Zudem können sich mehrere VMs eine einzelne GPU teilen, was eine Konsolidierung von Grafik-Hardware erlaubt.

Weitere Features und Konfigurationsmaxima

Ein weiteres Novum bei XenServer 7 besteht darin, dass Nutzer mit dem vollständig frei verfügbaren „Health Check“ Server-Statusinformationen automatisiert in den freien Citrix Insight Services hochladen können, was es wesentlich einfacher macht, einen Überblick über den Gesundheitszustand der virtuellen Infrastruktur zu gewinnen. Zudem soll die Performance beim Verwenden von Microsoft Active Directory angehoben worden sein.

Schließlich haben die Entwickler wie es sich für eine neue Version gehört eine ganze Reihe von Maximalwerten angehoben. So unterstützt XenServer 7 jetzt Hosts mit bis zu 288 CPU-Kernen, wobei virtuelle Maschinen bis zu 32 virtuelle Kerne haben dürfen. Darüber hinaus dürfen in Hosts jetzt bis zu 5 TB RAM verbaut sein, wobei VMs maximal je 1,5 TB verwenden können. Ferner kann ein Host mit XenServer 7 jetzt bis zu 4096 virtuelle Blockgeräte verwalten, wobei bis zu 255 virtuelle Blockgeräte je VM möglich sind.
Weitere Details zu den Neuerungen lassen sich den ReleaseNotes entnehmen.

Zertifikate von Stammzertifizierungsstellen verwalten

Veröffentlichen Sie den Server über TMG/UAG 2010 im Internet, muss auch auf diesem Server das Zertifikat vorhanden sein. Fügen Sie das Snap-In Zertifikate zu einer MMC hinzu (certlm.msc) und stellen Sie sicher, dass das Zertifikat der Zertifizierungsstelle für das lokale Computerkonto des Servers im Knoten Vertrauenswürdige Stammzertifizierungsstellen angezeigt wird. Das Zertifikat der Stammzertifizierungsstelle muss hinterlegt sein, damit der Server den Zertifikaten dieser Zertifizierungsstelle vertraut. Haben Sie die Active Directory-Zertifikatdienste installiert, können Sie den Import des Zertifikats auf Clients und dem Server beschleunigen, wenn Sie auf dem Server über gpupdate /force die Gruppenrichtlinien erneut abrufen.

Die Installation der Zertifikate von internen Zertifizierungsstellen findet über die Gruppenrichtlinie in Active Directory statt. Arbeiten Sie mit einer Zertifizierungsstelle eines Drittanbieters, müssen Sie das Zertifikat der Zertifizierungsstelle in die vertrauenswürdigen Stammzertifizierungsstellen importieren. Zertifikate überprüfen Sie auf folgendem Weg:

  1. Geben Sie msc auf der Startseite ein.
  2. Erweitern Sie in der Konsole Zertifikate/Vertrauenswürdige Stammzertifizierungsstellen/Zertifikate.
  3. Überprüfen Sie an dieser Stelle ob das Zertifikat der Zertifizierungsstelle hinterlegt ist. Finden Sie das Zertifikat nicht, dann geben Sie in einer Eingabeaufforderung gpupdate /force ein, um per Gruppenrichtlinie das Zertifikat abzurufen. Erscheint auch dann das Zertifikat nicht, exportieren Sie dieses auf dem Zertifikatserver selbst und importieren es auf dem Server.

Sofern die Zertifizierungsstelle in der gleichen Active Directory-Domäne installiert wurde, in der auch der Server installiert ist, für den Sie ein Zertifikat nutzen wollen, sollte dies automatisch stattfinden. Dies ist anders, sofern die Zertifizierungsstelle nicht in Active Directory integriert ist. In diesem Fall können Sie das Zertifikat leicht auf dem Server mit der Zertifizierungsstelle exportieren.

Die vertrauenswürdigen Zertifizierungsstellen finden Sie auch über den Internet Explorer. Rufen Sie nach dem Start über Extras/Internetoptionen die Registerkarte Inhalte und dann per Klick auf die Schaltfläche Zertifikate und Auswahl der Registerkarte Vertrauenswürdige Stammzertifizierungsstellen die Auflistung der Zertifizierungsstellen auf dem Server auf, der über das Zertifikat bereits verfügt.

Hier sollte das Zertifikat der Zertifizierungsstelle hinterlegt sein. Markieren Sie diese Zertifizierungsstelle und klicken Sie auf die Schaltfläche Exportieren. Unter Umständen tauchen an dieser Stelle mehrere Zertifikate Ihrer Stammzertifizierungsstelle auf, wählen Sie im Zweifel das mit dem höchsten Ablaufdatum aus. Erscheint beim Exportieren eine Abfrage des privaten Schlüssels des Zertifikats, haben Sie das falsche erwischt. Verwenden Sie dann einfach das andere Zertifikat. Exportieren Sie auf dem Server das Zertifikat in eine .cer-Datei.

Klicken Sie doppelt auf das Zertifikat, wird es auf dem Server angezeigt und Sie können es installieren. Klicken Sie auf die Schaltfläche Zertifikat installieren, damit das Zertifikat auf dem Server installiert wird. Lassen Sie das Stammzertifikat in den Speicher der vertrauenswürdigen Stammzertifizierungsstellen importieren. Überprüfen Sie anschließend, ob das Zertifikat erfolgreich importiert ist.

Auf allen beteiligten Servern und Arbeitsstationen muss der Zertifizierungsstelle des Unternehmens auf dieser Registerkarte vertraut werden. Eine weitere Möglichkeit, das Zertifikat der vertrauenswürdigen Stammzertifizierungsstelle zu ex- und importieren, ist das Snap-In zur Verwaltung von Zertifikaten.

HMI 4.0 – Hindernisse des Wandels überwinden!

Das HMI von gestern war an der Maschine verbaut, unabhängig von den Ausmaßen der Maschine. Somit müssen Menschen mitunter hunderte von Metern laufen, um sich benötigte Informationen zu beschaffen bzw. um neue Vorgaben zu machen. Die Initiative geht dabei immer vom Menschen aus.

Das HMI 4.0 führt zu einer ganz neuen Mensch-Maschine-Kommunikation. Es ist das HMI am Menschen, was die Kooperation von Mensch und Maschine ermöglicht und auch Maschinen befähigt, Aufgaben an Menschen zu übertragen.

HMI 4.0 – das HMI am Menschen

Wearables z.B. eignen sich insbesondere zur Unterstützung der Menschen bei der Abbildung von Wartungsszenarien. Hier ist ein Informationsaustausch zwischen Mensch und Maschine zwingend. Die Maschine meldet sich beim Menschen, wenn eine Wartungshandlung notwendig ist. Diese Meldung empfängt der Mensch als Push Notification auf seiner Smartwatch. Es puckert kurz auf dem Handgelenk, dann ist die gesamte Aufmerksamkeit auf die Meldung gerichtet. Auf dem Smartphone werden dem Menschen weitere Informationen dargestellt, u.a. eine Ersatzteilliste und benötigtes Werkzeug. Das Smartphone berechnet sogar die schnellste Route und führt den Menschen so genau zu der Stelle, wo das Ersatzteil verbaut werden muss. Jetzt wird eine Checkliste mit Handlungsanweisungen, die mit aktuellen Prozessdaten angereichert ist, eingeblendet. Außerdem wird die Checkliste direkt an die Smartwatch übertragen, sodass ein freihändiges Arbeiten möglich ist. 

Es ist aber noch weit mehr denkbar – schon heute mit der Ortungsfunktion eines jeden Smartphones: Die Maschine stellt die Meldung an denjenigen zu, der in der Nähe ist. So ist ein schnelles Handeln möglich. Wird für die Auswahl des Empfängers auch dessen aktuelle Verfassung herangezogen (Smartwatches bspw. sind in der Lage die Vitalfunktionen des Trägers zu überwachen), dann erhält derjenige die Meldung, der über ausreichend Energie verfügt, um eine körperlich anstrengende Wartungsaufgabe durchzuführen.

Impulse für den Wandel

Der Weg zum HMI 4.0 wurde maßgeblich durch Technologien aus dem Consumer Markt und durch Unternehmen wie Google, IBM, Amazon und Apple vorbereitet. Nun stehen uns Big Data und Predictive Maintenance, das Internet of Things und Cloud Computing sowie Wearables mit iOS, Android, Siri & Co. zur Verfügung.

Big Data macht Maschinen intelligenter, das Internet und die Cloud ermöglicht den uneingeschränkten Daten- und Informationsaustausch und die Wearables stellen sicher, dass die Informationen von der Maschine zum Menschen und vom Menschen zur Maschine kommen.

Alles ist also vorbereitet und einsatzbereit, aber warum wird es nicht genutzt?

Hindernisse des Wandels

Jedes Automatisierungsprojekt, jede Maschine, jede Problemstellung ist ein Unikat. Kein Lastenheft gleicht dem anderem. Daher definieren und verhandeln Ingenieure Anforderungen stets erneut. Es werden Ansätze gegenübergestellt und passende Technologien evaluiert. Warum aber kommt der Realisierung des mobilen HMI nicht die gleiche Sorgfalt zugute? Stattdessen ist HTML5 meist von vornherein gesetzt. Aufgrund technologischer Besonderheiten bzw. Einschränkungen sind mit HTML5 innovative und kreative Anwendungsfälle wie der oben beschriebene nicht realisierbar.

Das Diktat der Anbieter wiegt schwer. Aktuelle Werkzeuge zur HMI-Gestaltung setzen konsequent und leider etwas kreativlos auf HTML5. Innerhalb der Industrie 4.0 ist das allenfalls eine Evolution, eine Weiterentwicklung des Gestern – wo bleibt die Revolution?

Die Alternative ist die Realisierung des HMI 4.0 als native App. Damit steht die gesamte Leistungsfähigkeit der mobilen Plattformen und Geräte zur Verfügung. Die Kehrseite: Es ist ökonomisch meist nicht vertretbar, stets native Apps für die verschiedenen Plattformen und Geräte zu implementieren. Dies ist einerseits mit deutlichem Mehraufwand verbunden und andererseits fehlt es für die Realisierung von Lösungen für die mobilen Plattformen mit ihren unterschiedlichsten Software-Stacks und Programmiersprachen schlichtweg an Personal und Kompetenz.

Am Ende wird Industrie 4.0 in zahlreichen Ausschüssen definiert, anstatt mit hochgeschlagenen Ärmeln neue Use Cases realisiert. Im Sinne der Lean Startup Bewegung würden neue Geschäftsmodelle explorativ anhand der Realisierung neuer Ansätze und Lösungen in kurzen Feedback-Schleifen und in enger Zusammenarbeit mit allen Stakeholdern definiert. Wichtiger scheint jedoch die Spezifikation von Schnittstellen und Standards.

Herausforderungen meistern!

Viva la revolución: die Hindernisse des Wandels hin zum HMI 4.0 können nur durch innovative Softwaretechnologien und neue Entwicklungsansätze aus dem Weg geräumt werden. Es werden Werkzeuge benötigt, die Ingenieure optimal durch fachfremde Gebiete leiten und dabei von konkreten Implementierungstechnologien abstrahieren. Auch die Technologiewelt der Automatisierungstechnik dreht sich schneller und schneller. Schade dabei wäre, wenn mit jedem Technologiewechsel wertvolle Ingenieursleistung und hohe Investitionen verloren gehen.

Die gute Nachricht: Das HMI 4.0 mit den im Beitrag beschriebenen Use Cases sind komplett mit der integrierten HMI Suite von MONKEY WORKS (Abbildung 3) realisiert worden. Die Workbench bietet domänenspezifische Editoren, mit der in vertrauter Weise das HMI gestaltet und die einzelnen Elemente mit Prozessdaten verbunden werden. An dieser Stelle wird noch nicht über iOS, Android oder OPC UA gesprochen.

Auf Knopfdruck überführen leistungsfähige Exportmodule den mobilen HMI-Entwurf in native Apps für die gewünschten bzw. geforderten Geräte. Das HMI 4.0 ist sofort einsatzbereit – manuelle Programmierarbeit ist nicht notwendig. Ab jetzt kann auch der Entwurf des HMI 4.0 als Einzelfallentscheidung verstanden werden.

Das Vorgehen mit der HMI Suite ist bestechend: Entwickler von (mobilen) HMI-Lösungen und Automatisierungsingenieure können aus einem großen Technologiebaukasten jeweils die für ihre Kundenanforderungen besten Bausteine wählen; Detailwissen ist dabei nicht notwendig. Obendrein macht die HMI Suite fit für zukünftige Anforderungen, denn das Festlegen auf eine konkrete Realisierungstechnologie ist zur Entwurfszeit nicht notwendig – die Revolution hat begonnen, die Zukunft kann kommen.

Zu guter Letzt ist Pioniergeist gefragt. Es braucht Early Adopter, die die Industrie 4.0 schon jetzt gestalten und nicht nur diskutieren wollen. Mit zeitgemäßen Werkzeugen können Kunden schon jetzt von neuen Lösungen profitieren, ohne dass sich Anbieter technologisch etwas verbauen.

 

Autoren: Ralf Matthews  und Dr.-Ing. Stefan Hennig