Informationen zum Computer abrufen

Die aktuelle IP-Adresse wird mit ipconfig angezeigt, mehr Informationen mit ipconfig /all. ipconfig /displaydns zeigt den lokalen DNS-Cache an, auch die zuletzt geöffneten Internetseiten und aufgelösten DNS-Namen. Löschen Sie den Verlauf im Browser, sind die Daten dennoch an dieser Stelle vorhanden. Sie müssen den lokalen DNS-Cache getrennt löschen, indem Sie ipconfig /flushdns verwenden.

Den Namen des PCs sehen Sie mit hostname, die Version des installierten Windows mit ver, mit winver öffnet sich ein Fenster in der grafischen Oberfläche.  Wollen Sie sich den angemeldeten Benutzer anzeigen, zum  Beispiel zur Überprüfung von Rechten, geben Sie whoami ein.

Ausführliche Informationen zu einem PC erhalten Sie auch durch Eingabe von systeminfo. Lassen Sie die Ausgabe am besten mit systeminfo >c:\temp\systeminfo.txt in eine Textdatei umleiten, im alle Informationen in eine Datei zu schreiben. Das funktioniert mit allen Befehlen der Befehlszeile. Der Befehl überschreibt bereits vorhandenen Text in der Datei. Wollen Sie den vorhandenen Text erhalten und den neuen Text anhängen, was zum Beispiel beim Einsatz von Batchdateien durchaus sinnvoll ist, verwenden Sie den Befehl  systeminfo >>c:\temp\systeminfo.txt.

Über den Befehl driverquery im Fenster der Eingabeaufforderung können Sie sich eine Liste aller aktuell geladenen Treiber anzeigen lassen. Mit dem Befehl driverquery >c:\treiber.txt werden alle Treiber in die Textdatei treiber.txt geschrieben, die Sie mit dem Windows-Editor bearbeiten und überprüfen können. Auch hier können Sie wieder mit >> arbeiten, um den Text anzuhängen.

Gruppenmitgliedschaften in der Befehlszeile konfigurieren

Mit dem Befehl net localgroup administratoren /add <Domäne>\<Benutzername> wird der konfigurierte Benutzer der lokalen Administrator-Gruppe auf dem Server hinzugefügt. Mit dem Befehl net localgroup administratoren können Sie sich alle Gruppenmitglieder anzeigen lassen.

Mit dem Befehl net localgroup können Sie sich alle lokalen Gruppen auf dem Server anzeigen lassen. So können Sie mit diesem Befehl schnell feststellen, welche Gruppen es gibt und welche Benutzerkonten enthalten sind. Außerdem können Sie neue Benutzerkonten hinzufügen. Mit dem Befehl net localgroup administratoren /delete <Domäne>\<Benutzername> entfernen Sie ein Benutzerkonto wieder aus der Gruppe.

Neuerungen in Conhost.exe und Befehlszeile

Die PowerShell-Standardkonsole basiert ebenfalls auf der Windows-Konsole, also der Eingabeaufforderung. Alle Konsolen bauen wiederum auf conhost.exe auf. Diese verwendet wiederum vor allem bei beiden Bibliotheken conhostv1.dll und conhostv2.dll. 

Das Fenster der Eingabeaufforderung ist in Windows Server 2016 größer, und die Schriftart wurde angepasst. Die Eingabeaufforderung nutzt jetzt TrueType. Sie können natürlich weiterhin Raster-Fonts nutzen, allerdings skalieren diese nicht auf allen PCs und Monitoren. Teilweise kann es passieren, dass bei der Installation von Windows-Updates die Schriftart der Eingabeaufforderung sehr klein ist. In diesem Fall passen Sie die Größe in den Eigenschaften der Eingabeaufforderung. Dazu wechseln Sie auf die Registerkarte Schriftart.

PowerShell-CMDlets werden in der neuen Konsole in gelb angezeigt, während herkömmliche Befehle weiterhin in weiß dargestellt werden.

Mit der Tastenkombination Alt+F4 schließen Sie die Befehlszeile, wenn Sie diese nicht mehr benötigen. Die Tastenkombinationen STRG+C, STRG+V und STRG+X funktionieren jetzt auch in der Befehlszeile fehlerfrei. Bis Windows 10 und Windows Server 2016 konnten Administratoren die Funktionen nicht korrekt nutzen. Sie können zum Kopieren und Einfügen von Texten aber auch weiterhin die alten Funktionen nutzen, also mit der Eingabe-Taste Text in die Zwischenablage kopieren und mit der Einfügen-Taste einfügen. Nutzen Sie Anwendungen, in der Eingabeaufforderung, die diese Tastenkombinationen für andere Funktionen nutzen, dann können Sie diese Funktionen über die Eigenschaften der Eingabeaufforderungen auf der Registerkarte Optionen deaktivieren.

 Mit den Tastenkombinationen STRG+SHIFT+Plus-Zeichen (+) und STRG+SHIFT+Plus-Zeichen (-) passen Sie die Transparenz des Fensters schrittweise an. Um den den Vollbild-Modus zu wechseln, verwenden Sie ALT+Enter.

In drei Schritten zu mehr Anwendungssicherheit

1.Risiken erfassen – und angemessene Antworten finden

Hand aufs Herz: Perfekte Sicherheit wird es nie geben. Es ist unmöglich, das gesamte Anwendungsportfolio frei von Schwachstellen zu halten. IT-Verantwortliche müssen die verfügbaren Ressourcen deshalb kanalisieren und gezielt einsetzen. Die Grundlage hierfür bildet eine Strategie, die auf konkrete Risiken ausgerichtet ist – und nicht auf die Bewahrung der Illusion, dass ein System unverwundbar gemacht werden könne. Geschützt werden sollten vor allem solche Anwendungen und Teile der Infrastruktur, die von sicherheitskritischer Bedeutung sind.

Zunächst ist dazu eine Bestandsaufnahme von Nöten. Welche Anwendungen gibt es im Unternehmen – und auf welchem Entwicklungsstand befindet sich die Anwendungssicherheit? Sobald diese Fragen geklärt sind, können Richtlinien definiert werden. Diese legen fest, mit welchen Risiken das Unternehmen umgehen kann und welche es auf jeden Fall zu vermeiden gilt. Sie bilden die Basis für das weitere Vorgehen und bestimmen etwa, in welchen Bereichen die Entwickler besondere Trainings erhalten. Im Zentrum aller Bemühungen steht jedoch die Integration etablierter Tools, die dabei helfen, kritische Schwachstellen effizienter aufzuspüren und zu beseitigen.

2. Risiken beachten, die durch Anwendungen von Drittanbietern entstehen

Am ersten Tag ein Gast, am dritten eine Last: Dieses alte Sprichwort lässt sich häufig auch auf die Software von Drittanbietern übertragen. Selbst hauseigene Entwicklungen greifen häufig auf Komponenten zurück, die von externen Dienstleistern stammen oder unter einer Open-Source-Lizenz stehen. Ein solches Vorgehen ist zumeist kostengünstiger, als das Rad neu zu erfinden. Es birgt aber das Risiko, dass man sich mit dem fremden Code auch Sicherheitslücken ins Haus holt.

Um Entwicklern zu helfen, produktiver zu arbeiten und die Anwendungssicherheit dabei nicht aus den Augen zu verlieren, sollten IT-Verantwortliche ihnen einen Informationsvorsprung verschaffen. Zum Beispiel indem sie eine Technologie implementieren, die Informationen über die Komponenten von Drittanbietern sowie über die darin entdeckten Sicherheitslücken bereithält und Anwendungen markiert, die von diesen Schwachstellen betroffen sind.

3. Die richtigen Erfolgsmaßstäbe etablieren

Woher wissen IT-Verantwortliche, dass ihre Pläne aufgehen und ihre Maßnahmen greifen? Metriken und KPIs sollten bei allen Bemühungen zur Verbesserung der Anwendungssicherheit im Zentrum stehen. Denn nur wer die wesentlichen Erfolgsmaßstäbe im Blick behält, kann fundierte Entscheidungen treffen. Detaillierte Statistiken und Analysen helfen auch, ein breites Bewusstsein für die Bedeutung der Anwendungssicherheit zu schaffen – etwa bei Entwicklern, Budgetverantwortlichen und Mitgliedern der Unternehmensführung. Auf einige Metriken sollte ein besonderes Augenmerk gelegt werden:

Richtlinienkonformität: Richtlinien reflektieren, welche Risiken ein Unternehmen unbedingt vermeiden will. Veracode empfiehlt, innerhalb des Anwendungsportfolios konsistente Richtlinien durchzusetzen. Eine mögliche Richtlinie wäre etwa, dass alle Web-Anwendungen frei von den in der OWASP-Top-10-Liste genannten Schwachstellen sein müssen.

Zahl der gefundenen Mängel: Diese Metrik erfasst die Zahl der gefundenen Schwachstellen, die in Applikationen gefunden werden – SQL-Injections, Cross-Site-Scripting (XSS) oder kryptographische Unzulänglichkeiten. Sie lässt vor allem Rückschlüsse darauf zu, in welchen Bereichen Entwickler Nachholbedarf haben und durch gezielte Trainings gefördert werden können.

Erfolgsquote: Wie viele der gefundenen Schwachstellen können am Ende auch beseitigt werden? Die Erfolgsquote ist ein Gradmesser für die Qualität der etablierten Mechanismen und erlaubt es, die Ressourcenallokation besser zu steuern.

Unternehmensspezifische Erfolgsmaßstäbe: Nicht alle sinnvollen Metriken besitzen universelle Gültigkeit, manche gelten lediglich in speziellen Zusammenhängen. IT-Verantwortliche sollten deshalb nach Erfolgsmaßstäben suchen, die die innerhalb ihres Unternehmens geltenden Prioritäten optimal abbilden – etwa die Zahl der automatisiert getesteten Anwendungen oder durchgeführten Trainings.

Fazit: Anwendungssicherheit ist kein Hexenwerk

Um die Anwendungssicherheit im Unternehmen zu verbessern, benötigt die IT zwei Dinge: die richtige Strategie und die richtigen Tools. Risiken müssen erfasst, Erfolgsmaßstäbe etabliert werden. Vor allem aber gilt es, Sicherheitslücken in kritischen Anwendungen zuverlässig zu identifizieren und zu beseitigen. Wer die oben genannten Schritte vollzieht, kommt diesem Ziel schnell näher.

Wenn Daten das neue Öl sind, warum verhalten wir uns dann nicht auch so?

Springer-Chef Matthias Döpfner, BITKOM-Präsident und Datev-Chef Dieter Kempf oder GfK-CEO Matthias Hartmann – um nur einige wenige zu nennen – sie alle haben den Vergleich von Daten mit Gold oder Öl hinsichtlich der ökonomischen Bedeutung bereits bemüht. Doch wie es scheint, überlassen wir es in der praktischen Gegenwart eher den Tech-Konzernen aus den USA, diese immateriellen Bodenschätze zu heben. In Deutschland beschränkt man sich bislang auf die Rolle als Rohstofflieferant – in der Regel gegen Glasperlen. Schlimmer noch: Unvorstellbar, dass ein westlicher, marktwirtschaftlich geprägter Staat auf die Idee gekommen wäre, reichhaltiges Ölvorkommen um jeden Preis von der Vermarktung fernzuhalten, den Verkauf möglichst zu unterbinden, ja sogar unter Strafe zu stellen, anstatt aus diesem Ressourcenglücksfall einen Markt zu schaffen, der das ökonomische System beflügelt, für Wohlstand sorgt und somit über Besteuerung auch der öffentlichen Hand Einnahmen beschert. Würde dazu noch der Rohstoff an andere Staaten verschenkt, würden Konzessionen und unbegrenzte Zugriffsrechte auf die Ressourcen ermöglicht und sogar forciert – die politisch Verantwortlichen dürften normalerweise mit Schimpf und Schande aus dem Amt gejagt werden.

Der Unterschied zwischen Daten und Öl

Beim Öl und beim Gold wäre dieses Szenario schlicht undenkbar. Bei Daten jedoch passiert in Deutschland genau das. Während die inländische Wirtschaft in ein immer engeres Korsett gepresst wird, was die Verwendung von personenbezogenen Daten betrifft, unterliegen gleichzeitig aber deren internationale, vor allem US-amerikanische Konkurrenten aufgrund der internationalen Vernetzung naturgemäß nicht den selben Beschränkungen. Noch viel schlimmer jedoch: Eigentlich besteht die Aufgabe des Staates, ja im Schutz der Bürger und deren Interessen sowie darin, die ökonomische und gesellschaftliche Funktionsweise sicherzustellen. Tatsächlich aber beschränkt er Wirtschaft und Bürger in ihrer Handlungsfreiheit und ihren Rechten, protegiert er konkurrierende Unternehmen aus dem Ausland, wie Google und Facebook, sowie ausländische Geheimdienste wie die NSA im gleichen Maße. Ökonomisch führt dies zu einer Marktverzerrung zu Lasten der Unternehmen im eigenen Land, ja sogar zu staatlich unterstützter Industriespionage. Aus gesellschaftlicher Perspektive ist dies hingegen als Verramschung von Volkssouveränität und Rechtsstaatlichkeit zu werten.

Es bedarf einer Wertediskussion um die „Datenidentität“

Offensichtlich brauchen wir dringend eine Diskussion um den Wert und die Bedeutung von Daten in unserer immer digitaleren Welt: Wem gehören Daten? Wer ist ihr Eigentümer? Und wer hat das Recht diese zu vermarkten – derjenige, der sie erhebt und veredelt oder derjenige, in dessen „Sphäre“ sie angefallen sind? Die Rechtswissenschaft meint gemeinhin zumindest bei Personendaten hier klare Antworten geben zu können. Doch wie verhält es sich bei Maschinen- und Objektdaten im „Internet der Dinge“? Und lässt sich dann noch eine Trennung zwischen dinglichen und „menschlichen“ Daten vollziehen? Auch wenn die Bereitschaft in der Bevölkerung für einen entsprechenden Diskurs derzeit nicht allzu hoch ist und die digitale Kompetenz der politischen Entscheidungsträger in der überwiegenden Zahl der Fälle bei weitem nicht ausreicht, um substanziell an der Diskussion teilzunehmen: mit der Datenfrage berühren wir inzwischen die grundlegenden Prinzipien unserer „Freiheitlich Demokratischen Grundordnung“. Wenn Daten tatsächlich diese eminent hohe Bedeutung zukommt, ist es essentiell für Demokratie und Rechtsstaatlichkeit, dass wir bürgerliche Datenrechte und Selbstverantwortlichkeiten sowie den Schutz vor staatlicher Willkür und Missbrauch verfassungsrechtlich verankern.

Unternehmerisches Versagen bei der Datenwertschöpfung

Der Staat ist letztlich immer nur die Summe seiner Teile. Neben dem Wahlvolk tragen eben auch die Unternehmen ihren Teil der Schuld an diesem Problem bei. Viel zu lax wird mit dem eigenen „Datenvermögen“ umgegangen. Datengetriebene Geschäftsmodelle der Industrie, etwa in den Schlüsselsegmenten Maschinenbau und Automobil, jenseits von bloßer „Prozessoptimierung“ findet man selten. Gerade auch die Medienbranche offenbart hier eklatante Kompetenzprobleme: Im Kampf mit Google haben die deutschen Verleger ein mehr als zweifelhaftes „Leistungsschutzrecht“ mittels massivem Lobbyismus durchgesetzt. Dadurch sollen die Inhalte der Verlage besser geschützt werden. Gleichzeitig – trotz des „Daten-sind-das-neue-Öl“-Mantras – nutzt die überwältigende Mehrheit der deutschen Medienunternehmen Googles AdServer „Double Click“ zur Ausspielung von Werbung auf den eigenen medialen Plattformen. Damit erhält der Datenriese aus Mountain View den kompletten Zugriff auf deren sämtliche Nutzer – und wird dafür von den Verlagshäusern auch noch bezahlt. Während man also auf der einen Seite über das Recht an den Verpackungsmaterialien streitet, bezahlt man auf der anderen Seite noch dafür, Gold und Öl, das eigentliche Produkt, eimerweise verschenken zu dürfen. Paradox? Ja. Aber Realität im deutschen digitalen Klondike.

Der Beitrag erschien ursprünglich auf Nerdwärts.de

Das ‚Human Internet of Things‘ (HIoT)

Freunde oder auch Fremde, die mich nach meiner beruflichen Tätigkeit fragen, können nur selten etwas mit den Fakten anfangen, von denen ich ihnen über unseren derzeitigen Stand bezüglich der Abwehr von Cyber-Bedrohungen berichte. Als ich stolz von unserem hervorragenden Abschneiden bei der Cyber Grand Challenge erzählte, zeigten sich die Menschen überrascht, dass es einer Maschine auch nur im Entferntesten möglich sein sollte, eine andere Maschine zu hacken, ohne dass ein Mensch dabei die niederen Arbeiten übernehmen muss. Natürlich kommen Unternehmen, die sich mit der Entwicklung von sicherheitskritischem Code befassen, mit den Cyber-Security-Risiken zurecht – aber wie steht es mit den einzelnen Menschen?

Der Durchschnittsbürger weiß möglicherweise nicht einmal, wofür das Kürzel ‚IoT‘ steht oder dass die Auswirkungen des IoT so enorm sind, dass wir bereits Teilbereiche wie das Industrial IoT (IIoT) schaffen mussten. Tatsache ist auch, dass sich GrammaTech auf Unternehmen und Organisationen konzentriert, und nicht auf einzelne Menschen. Wann aber wird das IoT die Menschen ganz persönlich betreffen? Wann werden wir die menschliche Version des IoT, also so etwas wie das ‚Human Internet of Things‘ haben?

Kürzlich fand mich auf einer Reise in der Warteschlange für einen Flug wieder, der in Halbstundenschritten immer mehr Verspätung ansammelte, ohne dass ein Ende in Sicht war. Als Grund wurde ein nicht näher benanntes ‚mechanisches Problem‘ angeführt, das zunächst behoben werden müsse. Langsam baute sich unter den Passagieren eine Missstimmung auf, als es hieß, der zuständige Techniker habe Probleme mit dem Installieren einer Software. Man sagte entschieden, man müsse nur noch das Softwareproblem herausfinden, und anschließend könnten wir los. Die Abflugzeit würde sich jetzt wirklich nur noch um weitere 25 Minuten verzögern.

Eigentlich eine interessante Situation –  mechanische Probleme, so dachten die Mitarbeiterin und vermutlich auch die anderen Passagiere, sind kompliziert und knifflig, und ihre Behebung nimmt viel Zeit in Anspruch, die wir nur in 30-Minuten-Schritten beziffern können. Die Lösung eines Softwareproblems dagegen wird höchstens 25 Minuten dauern.

Es kam wie es kommen musste: Nach den besagten 25 Minuten wurden wir an ein anderes Gate verwiesen und flogen mit einem ganz anderen Flugzeug. Anstatt aber von der Reise ermüdet und frustriert zu sein, fühlte ich mich auf seltsame Weise rehabilitiert.

„Software ist doch kompliziert!“ hätte ich am liebsten meinen ungeduldigen Mitreisenden zugerufen. „Und mit CodeSonar von GrammaTech können Sie Ihren Code besser verstehen!“

Natürlich hatten diese Menschen nichts mit Code zu tun, und so verlockend es auch sein mag, Moralpredigten zu halten – in diesem Fall wäre ich auf taube Ohren gestoßen. Doch dann sagte mein Nebenmann: „Ein Glück, dass es nur ein Softwareproblem war! Diese mechanischen Sachen haben mich schon langsam nervös gemacht!“ Daraufhin fragte ich mich, wann eigentlich die normalen Menschen besser über eines der größten Risiken für unsere Infrastrukturen, unsere Arbeitsplätze und unser Leben informiert werden müssen. Hätte ich die Auffassung meines Mitreisenden bestätigt, hätte ich damit implizit etwas Falsches als wahr durchgehen lassen?

Ich fragte mich nun, wie sehr normale Menschen eigentlich am Thema Cybersicherheit interessiert sind. Während die Passagiere unseres neuen Flugzeugs ausstiegen, stellte ich mit Google Trends auf meinem Laptop ein stetig wachsendes Interesse fest, was mich beruhigte: 

Grafik:
Grafik: Cyber Security

 

 

 

 

 

 

Trends sind aber eben doch nur Trends, und so benötigte ich einen Vergleich. Wie oft denken wir US-Bürger im Vergleich dazu an Donuts? Das Ergebnis war ernüchternd – mehr als 3/4 so viele!

Grafik:
Grafik: Donuts vs. Cyber Security

 

 

 

 

 

 

Bevor wir uns aber von Donuts ablenken lassen (hier gibt es ein enormes Potenzial), gehen wir lieber einen Schritt zurück und fragen uns: Muss sich der Normalbürger überhaupt um das Thema Cybersicherheit kümmern? Der normale Fluggast mag sich keine Gedanken um anfällige Software machen. Müssen wir uns aber unnötig die Köpfe schwermachen, solange sich die zuständigen Personen der Risiken bewusst sind?

Ich denke, dass unter anderem die folgenden Geschichten die Antwort auf diese Frage geben:

Mutter erfährt, dass die Webcam im Schlafzimmer ihrer Tochter gehackt war

Linux-Bug setzt 1,4 Milliarden Android-Nutzer der Gefahr von Hijacking-Attacken aus

So erschreckend einfach ist es, eine Verkehrsampel zu hacken!

Nach meiner Auffassung ist es nur eine Frage der Zeit, bis wir eine stärker individualisierte Variante des Internet of Things haben werden. Wenn ich auf einen Spam-verseuchten Link in einer Email klicke und sich daraufhin nicht mein, sondern Ihr Computer einen Virus einfängt, wer haftet dann für Ihren Schaden?

Wenn ein Hacker in mein Heimnetzwerk eindringt, meinen eigenen Computer unbehelligt lässt, stattdessen meine ganze Stadt infiltriert und dabei auf einen wichtigen Computer zugreift, der entscheidende Infrastrukturen kontrolliert – was passiert in diesem Fall, wenn eine Schwachstelle ausgenutzt wird, und die Stromversorgung der gesamten Stadt zusammenbricht? Wird man den Vorfall bis zu meinem Heimnetzwerk zurückverfolgen, das der Neffe meiner Schwägerin eingerichtet hat, weil er sich ‚damit auskennt‘?

GrammaTech ist in der Tat ein Unternehmen, das Probleme für Organisationen auf der ganzen Welt löst, die die Sicherheit ihrer Kunden schützen. Wie aber wird es sein, wenn wir nicht mehr diese Organisationen als Mittelsmänner haben, sondern wenn wir selbst mehr Verantwortung für unsere Sicherheit übernehmen? Wann wird es endlich das Human Internet of Things geben? ich glaube, ist es nur eine Frage der Zeit.

 

Windows 10 und Linux – Ubuntu Bash

Zusätzlich müssen Sie in den Einstellungen über Update und Sicherheit\Für Entwickler die Option Entwicklermodus aktivieren. Danach sollten außerdem alle aktuellen Windows-Updates für Windows 10 installiert werden.

Sobald das Feature installiert ist, steht in der Befehlszeile und der PowerShell der Befehl „bash“ zur Verfügung. Nachdem die Bash installiert und lizenziert ist, lässt sie sich auch direkt starten. Dazu suchen Sie am besten nach „bash“ im Startmenü.

Microsoft geht im MSDN (https://msdn.microsoft.com/commandline/wsl/about) ausführlicher auf die Möglichkeiten der Bash ein, und wie Sie diese nutzen können. Generell stehen in der Bash in Windows alle Linux-Befehle zur Verfügung, die Sie auch in der Ubuntu-Bash auf einem Linux-System nutzen können.

Industrie 4.0: Am Menschen vorbei entwickelt

Die Protagonisten von Industrie 4.0 betonen unermüdlich, dass bei Industrie 4.0 der Mensch im Mittelpunkt steht, weil man ahnt, dass dies gerne gehört wird. Dass der Mensch von Industrie 4.0 profitieren würde hat aber den Charakter einer hastig verabreichten Pille, die nicht nur das besorgte Publikum, sondern vermutlich auch die Protagonisten selber beruhigen soll.

Der Mensch als etwas Defizitäres?

Im Kern wird der Mensch nämlich als etwas Defizitäres erkannt, das an Industrie 4.0 anzupassen ist. Die Diskussion um die Rolle des Mitarbeiters wird also im Wesentlichen auf das Thema „Qualifikationsbedarf“ reduziert. Die Protagonisten von Industrie 4.0 sagen uns, wie der Mitarbeiter arbeiten wird – beschäftigen sich aber nicht mit der Frage, wie er eigentlich arbeiten will und wieso das alles gut für ihn sein soll.

Außerdem wird Bewährtes zerstört. Die Produzenten hierzulande haben in den letzten beiden Jahrzehnten im Zuge von Lean Production unglaublich große Fortschritte gemacht, die Kreativität und die Begeisterungsfähigkeit ihrer Mitarbeiter, die unmittelbar im Produktionsprozess beschäftigt sind zu aktivieren. Eine wichtige Konsequenz von Lean Production war dabei die Überwindung der bis dahin vorherrschenden Trennung von Denkenden und Ausführenden, wie sie von Ford vorgegeben war. Kein hiesiger Produzent, der diesen Weg gegangen ist, käme im Traum auf die Idee, das Rad zurückzudrehen.

Wohl aber die Protagonisten von Industrie 4.0. Sie unterteilen die Welt wieder in Denkende und Ausführende. Da waren wir schon mal weiter. Denn Mitarbeiter werden nicht eingeladen, an der Gestaltung des Systems „Industrie 4.0“ mitzuwirken. Dies bleibt einer kleinen Gruppe selbsternannter Experten vorbehalten. Und das ist ein beherzter Schritt in die Vergangenheit.
 
Dabei war doch alles so gut gemeint.
 

Die Rolle des Reagierenden

Industrie 4.0 soll die Transparenz des Produktionsgeschehens verbessern und entscheidungsrelevante Informationen schneller zur Verfügung stellen. Davon soll der Facharbeiter profitieren: Er bekommt in Echtzeit die für ihn notwendigen Informationen und nutzt sie im Rahmen seiner Rolle. Seine Position wird gestärkt. Er ist der Dirigent der Wertschöpfungskette.
 
Oder etwa nicht? Nein, denn im Ergebnis sieht man bislang die Mitarbeiter nur in der Rolle des Reagierenden. Überwachung wird gleichgesetzt mit „Reagieren auf die Schwesternklingel“.
Dem Mitarbeiter wird nämlich die Aufgabe zugewiesen, im Ausnahmefall – wie bei einer Prozessstörung – einzugreifen. Und dabei sollen ihm die selbstlernenden Systeme mitteilen können, welche Schritte zur Störungsbehebung notwendig sind. Das System meldet also nicht nur seinen Zustand, sondern zeigt auch, was zu tun ist. Damit wird der Mitarbeiter zum Ausführenden von Maschinenbefehlen. Problemlösungskompetenz wird nicht mehr gefragt sein.
 
Den Mitarbeiter in der Produktion wird es weiterhin geben – nur muss er sich daran gewöhnen, auf optische und akustische Signale von technischen Systemen zu reagieren und vorbestimmte Handlungsmuster auszuführen. Das kann ja im Sinne des Produktionsprozesses durchaus richtig sein. Nur sollte man nicht davon sprechen, dass die Rolle des Mitarbeiters durch Industrie 4.0 aufgewertet würde.
 
Wenn darüber hinaus die Vorhersagen eintreffen, wonach sich das Material seinen Weg eigenständig durch die Produktion bahnt, dispositive Entscheidungen trifft und Ressourcen anfordert, so wird der Mitarbeiter endgültig zum Objekt. Er muss sich an die Vorstellung gewöhnen, dass das Werkstück bestimmt, was er wann und wo zu tun hat. Die Aufgaben des Vorgesetzten übernimmt dann das Material, das bearbeitet werden möchte. Ein seltsames Verständnis von Dirigententum.
 
Aber vielleicht sind ja mit der Bezeichnung „Dirigent“ ganz andere Menschen gemeint. Nicht die Mitarbeiter auf dem Shop-Floor, sondern die Ingenieure. Hier hat Industrie 4.0 in der Tat viele Freunde, geht es schließlich doch um ein echtes Technikthema, bei dem der Ingenieur endlich wieder Ingenieur sein darf. Maschinenelemente, Hardware und Software werden miteinander verbunden; der große technische Wurf wird gemacht.
 
Wie unendlich groß muss da die Erleichterung bei denen sein, die sich mit Shop-Floor Management, Kaizen und Kata und den ganzen „Räucherstäbchenrunden“ nie haben anfreunden wollen. Begeistert sind auch all diejenigen, die Betriebsführung mit der Gestaltung von technischen Systemen verwechseln und lieber mit Technik als mit Menschen zu tun haben. An dieser Stelle sind viele Maschinenbau- und Softwareingenieure Brüder im Geiste und erfreuen sich gemeinsam an den technischen Möglichkeiten.
 
Auf den Punkt gebracht: Industrie 4.0 ermöglicht den Führungsschwachen die langersehnte Flucht vor ihren eigenen Mitarbeitern.
 
Und genau jene sind gemeint, wenn von Dirigenten der Wertschöpfungskette die Rede ist. Denn sie sind ja schließlich die Schöpfer und Meister dieses Systems. Doch deren Freude ist verfrüht: da diese Systeme ja selbstlernend angelegt sind, werden sie sich bald selber konfigurieren können. Die Dirigenten können nach Hause gehen, weil die Orchester sie nicht mehr brauchen. Diese Menschen arbeiten mit Hochdruck und Begeisterung an genau den Systemen, die sie selber eines Tages überflüssig machen – und niemanden scheint es zu stören.
 
Dabei hätte man mit der hinter Industrie 4.0 stehenden Technologie die historische Chance, dafür zu sorgen, dass der Mensch zum ersten Mal in der Geschichte der Industrie nicht mehr disponibler Produktionsfaktor – auf einer Stufe mit Material und Maschinen – und Mittel zum Zweck ist, sondern dass die Fabrik erstmals nach seinen Bedürfnissen gestaltet wird und dass Produktion und Wertschöpfung auch ein Mittel zur Persönlichkeitsentwicklung ist.
 
Das wäre ein echter Beleg dafür, dass hier wirklich Revolutionäres geschieht. Tut es aber nicht – und deswegen hört man hier auch nichts Entsprechendes.
 
Industrie 4.0 wird in dieser Form unter anderem auch deswegen scheitern, weil sie am Menschen vorbeientwickelt wird und ihm die Rolle des passiv Ausführenden zuweist, statt ihn – wie heute üblich – an der Gestaltung der Arbeitsprozesse zu beteiligen.

Zusammenarbeit entlang der gesamten Wertschöpfungskette

Marktreife Industrie 4.0-Anwendungen wie Predictive Maintenance haben den Fokus der Fertigungsindustrie stark auf die Produktions-IT gelenkt: Maschinen und Produktionsmittel, die eigenständig Informationen austauschen, sich gegenseitig steuern und selbstständig warten, machen Fabriken immer smarter. IT und Produktion verschmelzen miteinander, automatisieren Produktionsprozesse und verändern die Geschäftsbeziehung zwischen Firmenmitarbeitern, Kunden und Zulieferern. Produzierende Unternehmen, die sich die Segnungen der Digitalisierung zunutze machen möchten, sollten nicht nur ihre Produktions-IT vernetzen. Um die richtigen Informationen zur richtigen Zeit am richtigen Ort verfügbar zu machen, müssen sie zudem eine effiziente und sichere Zusammenarbeit über die gesamte Wertschöpfungskette hinweg sicherstellen.

Prozessoptimierung und bessere Auslastung

Kaum etwas wirkt sich in der Industrie so nachteilig aus wie eine schlechte Produktqualität und eine Unterbrechung von Produktionsprozessen. Beides führt zu Stückzahlverlusten und Umsatzeinbußen. Seit die IT Einzug in die Produktion hält, setzen immer mehr Unternehmen intelligente Softwarelösungen ein, um produktions- und prozessbedingte Schwierigkeiten auf ein Minimum zu reduzieren. Gleichzeitig verfolgen Anwender mit Industrie 4.0 das Ziel, die Kapazitätsauslastung in den Fabriken zu verbessern und individuelle Kundenwünsche schneller umzusetzen. Die Optimierung von Produktionsprozessen wirkt sich damit auch auf die Arbeitsweise aller Beteiligten aus: den Produktionsmitarbeiter, der sich mit den Fachabteilungen abstimmt, den Zulieferer, der das richtige Material in der benötigten Qualität bereitstellt, den Spediteur, der die Waren fristgerecht transportiert, und natürlich den Kunden, dessen individuelle Wünsche im gesamten Fertigungsprozess zu berücksichtigen sind.

Digitalisierung schafft neue Arbeitswelten

Die zunehmende Digitalisierung in sämtlichen Lebensbereichen hat massive Auswirkungen auf die Arbeitswelt. Dabei ändert sich nicht nur der Arbeitsalltag für den Einzelnen, sondern auch die Art und Weise, wie Teams gemeinsam an Projekten arbeiten. Projekte lassen sich natürlich am effizientesten vorantreiben, wenn alle Teammitglieder an einem Ort sitzen. Die Praxis sieht aber oft anders – insbesondere, wenn man Kollegen von anderen Standorten oder externe Partner hinzuzieht. Damit mobile Fachkräfte vollumfänglich und unterbrechungsfrei in laufende Projekte eingebunden bleiben, müssen sie auf entsprechende Collaboration-Tools und Plattformen zugreifen können.

Effiziente Kommunikation nach innen – und nach außen?

Die Zusammenarbeit in fach- und standortübergreifenden Teams erfordert einen verstärkten Informationsaustausch über Hierarchieebenen und Unternehmensgrenzen hinweg. Nur so lassen sich Produktionsprozesse bei optimalem Ressourceneinsatz in nahezu Echtzeit agil, flexibel und vor allem bedarfsgerecht anpassen, zum Beispiel als Reaktion auf Lieferengpässe oder geänderte Kundenanforderungen. Hierfür existiert mittlerweile eine große Bandbreite an Software-Werkzeugen. Sie sollen die Kommunikation, Koordination und Kooperation zwischen Firmenmitarbeitern, Kunden und Geschäftspartnern schnell, sicher und effizient gestalten. Doch während bereits viele Unternehmen Enterprise Content Management (ECM)-Systeme zur Dokumentenverwaltung und Business Process Management (BPM)-Systeme zur Optimierung von Geschäftsprozessen intern einsetzen, hadern die Anwender insbesondere mit externen Zugriffsfreigaben an Kunden und Partner, weil sie dadurch Sicherheitsrisiken befürchten.

Plattform vs. Standalone-Lösung

Neben den genuinen Kollaborations- und Kommunikationslösungen der großen Lizenzanbieter existiert eine Reihe offener Plattformen, die gleich ein ganzes Ökosystem aus Wikis, Filesharing, Dokumentenmanagement, Office-Integrationen usw. mitbringen. Der Vorteil einer nativen Einzellösung besteht sicherlich in ihrer Funktionstiefe. Wird für jeden Anwendungsfall aber eine andere Lösung genutzt, führt das schnell zu ausufernden Lizenzkosten, technologischem Wildwuchs und einem erhöhten Sicherheitsrisiko. Plattformen wie Alfresco One hingegen verbinden die funktionale Vielfalt eines ECM-Systems mit BPM in einer nahtlos integrierbaren IT-Umgebung. Die von Gartner bereits mehrfach als „Visionär“ geführte hybride Enterprise-Plattform integriert branchenführende mobile Applikationen und Business-Anwendungen. Das ermöglicht es Nutzern, ortsunabhängig und gemeinsam an Inhalten zu arbeiten. Durch die Vermeidung von Aktualisierungslücken und die Nutzung zusätzlicher Webservices steigern Anwender die Sicherheit im Umgang mit geschäftskritischen Informationen: Alle Daten verbleiben verschlüsselt in der unternehmenseigenen IT. Das Content Repository sitzt hinter der Firewall und wird bei Bedarf in Echtzeit und feingranular unterteilbar mit der Alfresco-Cloud synchronisiert, von der aus auch externe Partner auf gemeinsame Dokumente zugreifen und Status-Updates zu gemeinsamen Projekten nachverfolgen können.

Zusammenarbeit im „erweiterten Unternehmen“

Ganz gleich, ob es um die Verbesserung des Kundenservices, die Integration eines Zulieferer-Netzwerks oder die Steuerung unternehmenskritischer Prozesse geht – mit einer modernen Prozess- und Collaboration-Plattform optimieren Anwender den Informationsfluss und Ihre Ressourcennutzung im erweiterten Unternehmensumfeld. Bei der gemeinsamen Erarbeitung von Inhalten gilt es, Änderungen festzuhalten, zu überprüfen und freizugeben. Plattformen wie Alfresco bieten hierfür integrierte Collaboration-, Workflow- und Records-Management-Funktionen: Damit lässt sich die Zusammenarbeit über virtuelle Projekträume hinweg effizient organisieren, indem alle projektrelevanten Dokumente, technischen Zeichnungen, Aufgaben und Checklisten hinterlegt und sämtliche Ansprechpartner sowie Verantwortlichkeiten abgebildet sind. Über Zugriffsrechte und Freigaben binden Unternehmen ihre Kunden und Partner in den Dokumenten- und Informationsaustausch ein und machen Änderungen am Projektablauf für alle Parteien transparent. Dem Anwender steht zusätzlich ein aggregiertes Dashboard zur Verfügung, sodass er auf einen Blick erkennen kann, welche für ihn relevanten Dokumente, Bilder oder Videos zu einem Projekt hinzugefügt wurden und welche Mitglieder des Teams darauf zugreifen. Dadurch reduzieren sich auch Abstimmungsaufwände und Reibungsverluste auf ein Minimum.

Der digitalen Transformation gewachsen

Die Zunahme der Zusammenarbeit in virtuellen Teams und die Notwendigkeit der Anpassung an neue Arbeitsweisen stellen das produzierende Gewerbe vor enorme Herausforderungen:
Unternehmen, die ihren Kunden eine hohe Servicequalität bieten und sich nach außen für Zulieferer öffnen wollen, um ihre Produktion agiler und flexibler aufzustellen, sollten ihre bestehenden Kommunikations- und Kollaborationslösungen einer Prüfung unterziehen. Richtig eingesetzt und auf individuelle Anforderungen zugeschnitten, können Unternehmen ihre Kommunikations- und Steuerungsprozesse mit Tools wie Alfresco verschlanken, ihr Projektmanagement flexibler aufstellen und agiler in volatilen Märkten agieren. Enterprise-taugliche Plattformen stellen hierfür schlüsselfertige Lösungen zur Verfügung, mit denen sich bislang ungenutztes Potential ausschöpfen lässt.