中国制造要被美国制造取代?3D打印技术或将成为博弈的关键

然而对比美国的制造业,特别是财富500强工业巨头们在3D打印的投入,两国之间还存在一定的差距。财富500强中的美国制造业企业利用3D打印技术进行生产工艺改进与创新的成果,或将对中国的包括大飞机在内的一系列高端制造产品产生冲击。本文就财富500强中的美国企业的3D打印技术投入情况稍作归纳介绍,以飨读者。]

通用电气公司 (2016年财富500强第26位)

2012年,收购了位于美国辛辛那提的3D打印公司Morris科技,该公司的技术,帮助通用电气降低了航空发动机燃油喷嘴的制造时间和成本。2015年通用电气公司利用3D打印机制造了一台喷气发动机。在这个项目中,通用电气公司的工程师利用3D打印机制作发动机的部件,打印机用激光把薄薄的一层层金属熔合起来。这些形状各不相同的金属层被堆放起来并熔化,从而形成发动机的所有部件——包括压缩机、涡轮、喷嘴和燃烧室。GE公司最近分别完成了对瑞典3D打印公司Arcam和德国Concept Laser的收购,并成立了新的GE Additive公司。自2010年以来,通用电气已经在3D打印该领域投资了超过15亿美元。GE旗下的六家公司也一直在开发增材应用。此外,GE还创造出新的服务应用,并在增材制造金属粉末领域获得了346项专利。

波音公司 (2016年财富500强第61位)

波音从1997年起就开始使用3D打印技术。在737、747、787、777等10个不同的飞机上已经3D打印了超过20,000个金属与非金属零部件。2015年,波音提交了一份3D打印飞机零部件的专利申请,该专利体现了波音通过3D打印完成航空备件,减少航空运营商的备件库存,从而削减运营商成本。2016年波音公司又开发了3D打印的耐热陶瓷用于制造发动机热端部件、火箭喷嘴和头锥等组件,其外形复杂采用传统陶瓷工艺无法铸造,而使用3D打印技术可以完成。目前,波音还与美国橡树岭国家实验室合作开发打印下一代梦想客机-波音777X机翼结构。

霍尼韦尔公司 (2016年财富500强第256位)

而总部位于美国的多元化、高科技的先进制造企业霍尼韦尔也正在四个增材制造技术中心开展3D打印的研究,这四个技术中心分别位于美国凤凰城、印度班加罗尔、捷克布尔诺和中国上海。上海的增材制造技术中心设立于2014年,旨在向亚太市场提供快速原型和快速模具的服务,并跟其他的全球试验室一样,还专注于增材制造技术的研究。该中心可以打印出长宽高最大为25cm X 25cm X 32.5cm的部件。目前由霍尼韦尔的两个主要业务板块航空航天与汽车共用。公司计划到2020年实现40%的部件都具备采用3D打印技术生产的能力。霍尼韦尔主要使用EOS的设备。

如何紧追美国制造业的步伐,一站式地详尽地了解不同3D打印技术对您工艺流程的改进,帮助企业转型高端制造,更多的3D打印最前沿技术将于2017年3月8-10日在上海举行的亚洲3D打印、增材制造展览会(简称TCT亚洲展)跟大家见面。

在2017 TCT亚洲展中,不但EOS、Renishaw、SLM Solutions、Arcam、TRUMPF和Sisma将带来全球最新的金属3D打印解决方案;民族企业鑫精合、铂力特、华曙高科、北京隆源、中科煜宸、青岛卓思、信达雅、大族激光、易加三维也将呈现其加速工业级金属增材制造的国产化进程的实力; 3D Systems、Stratasys、EnvisionTEC、Materialise、联泰科技、中瑞机电、Raise3D则会展示从原型到制造的转变进程。

Sichere Entwicklung braucht statistische Analyse

Die statische Analyse ist ein wichtiger Teil einer modernen Tool Suite für die Softwareentwicklung und kann sich entscheidend auf die Qualität und Sicherheit (im Sinne von Safety und Security) des Codes auswirken, wenn sie korrekt und hinreichend früh zum Einsatz kommt. Am wichtigsten ist wohl ihre Rolle in einem Softwaredesign, in dem der Security-Aspekt an erster Stelle steht (‚Security-First‘-Design). Auf alle Fälle ist sie für die heutigen, vernetzten und komplexen Einsatzumgebungen von entscheidender Bedeutung.

Das Konzept des ‚Security-First‘-Designs

Das ‚Security-First‘-Design bindet das Thema Security mit höchster Priorität in den Software Development Lifecycle (SDLC) ein. Um dieses Konzept umzusetzen, sollten Entwickler und Projektleiter als Minimum die folgenden Aktivitäten beim Durchlaufen der fünf entscheidenden Phasen dieses Zyklus erwarten:

Bild 1. Die Security-Prozesse sind hier über den Software Development Lifecycle gelegt (Quelle: GrammaTech)

Definition der Anforderungen: In der Anforderungsphase können Security-spezifische Anforderungen eingebracht werden, gemeinsam mit ‚Missbrauchsfällen‘ (die von Angreifern genutzt werden dürften) und einer Risikoanalyse.

Design und Architektur: Bei der Beurteilung in Frage kommender Architekturen müssen zuvor möglicherweise nicht berücksichtigte Security-Aspekte einbezogen werden. In dieser Phase sollte man Prüfpläne erstellen, welche die Security-Analysen auf Basis der erwarteten ‚Missbrauchsfälle‘ beinhalten.

 

 

 

 

 

 

 

 

 

 

 

 

 

Codeentwicklung: Während der Programmierphase kommt es ganz entscheidend auf die Einhaltung der Security-Richtlinien und Programmierstandards an. Die Anwendung von Automatisierungs-Tools wie der statischen Analyse trägt hier entscheidend zur Sicherstellung bei, dass sich keine Schwachstellen in das Produkt einschleichen.

Integration und Test: Nimmt das System als Ganzes Form an, können mit Tests sowohl der Subsysteme als auch des gesamten Systems Schwachstellen noch vor der Integration und Markteinführung des Produkts aufgedeckt werden.

Einsatz und Wartung: Ist ein Produkt auf den Markt gekommen und hat große Verbreitung erlangt, steigen die Kosten zur Beseitigung von Schwachstellen exponentiell an. Trotz Wartung und Überarbeitung eines Produkts bleibt das Thema Security stets relevant, denn neue Schwachstellen und Bedrohungen müssen auf iterative Weise in das System zurückgeführt werden.

Die Rolle statischer Analysetools zur Steigerung der Sicherheit

Statische Analysetools wie CodeSonar von GrammaTech bieten entscheidende Unterstützung in der Codierungs- und Integrationsphase der Entwicklung. Die Gewährleistung der Codequalität während der Entwicklungs- und Wartungsphase reduziert

die Kosten und Risiken enorm, die aus Security- und Zuverlässigkeitsproblemen in der Software resultieren. Zu den Vorteilen zählen:

  • Kontinuierliche Gewährleistung der Qualität und Sicherheit des Quellcodes: Die statische Analyse spielt ihre Stärken erst richtig aus, nachdem eine anfängliche Ausgangsbasis für die Qualität und Sicherheit des Codes geschaffen ist. Jeder neu geschriebene Programmteil (Datei oder Funktion) kann vom statischen Analysetool gescannt werden, sodass die Entwickler sofort – also noch bevor der Code in das Build-System übertragen wird – etwaige Fehler oder Warnmeldungen bearbeiten können. Werden Fehler und Schwachstellen im Quellcode gleich bei ihrem Entstehen (nämlich bei den Entwicklern selbst) aufgedeckt, sind die Tools am wirkungsvollsten.
  • Erkennung und Analyse von Tainted Data (‚Verunreinigte Daten‘): Das Analysieren der Datenflüsse von den Quellen (den Schnittstellen) zu den Senken (Verwendung der Daten im Programm) ist von entscheidender Bedeutung für das Detektieren potenzieller Anfälligkeiten gegenüber Tainted Data. Jeglicher Input, ob er nun von der Benutzeroberfläche oder von einer Netzwerkverbindung kommt, stellt eine potenzielle Sicherheitslücke dar, solange er nicht geprüft wird. Das Einschleusen von Code oder das Ausschleusen von Daten als mögliche Folgen von Attacken kann ernste Konsequenzen haben.
  • Überprüfung von externem Code: Die meisten Projekte werden nicht von Grund auf neu entwickelt, sondern greifen auf bestehenden Code aus dem eigenen Unternehmen oder von Dritten zurück. Tests und dynamische Analysen eines großen existierenden Codebestands sind enorm zeitaufwändig und können das vorgegebene Zeit- und Finanzbudget sprengen. Die statische Analyse eignet sich besonders für die Analyse großer Codebestände und kann mit aussagefähigen Fehler- und Warnmeldungen auf Sicherheits- und Qualitätsprobleme hinweisen. Die Binäranalyse von GrammaTech CodeSonar kann reine Binärcode-Bibliotheken analysieren und ähnliche Reports wie bei Quellcode generieren, wenn kein Quellcode verfügbar ist. Weil sie in einem gemischten Quell- und Binärmodus arbeitet, kann sie auch Fehler bei der Nutzung externer Binärbibliotheken durch den Quellcode aufdecken.
  • Einhaltung von Normen für sicheres Programmieren: Statische Analysetools analysieren die Syntax des Quellcodes und können zur Durchsetzung von Programmierstandards genutzt werden. Zu den verschiedenen Codesicherheits-Richtlinien gehören SEI CERT C und die Secure Coding Guidelines von Microsoft. Programmierstandards sind sinnvoll, denn sie verhindern, dass aus riskantem Code später Schwachstellen erwachsen. Die Integration dieser Checks in das Build- und Konfigurationsmanagement-System erhöht die Qualität und Sicherheit des Codes im späteren Produkt.

Vergleich zwischen dynamischer und statischer Analyse im Kontext des SDLC

Dynamic Application Security Testing (DAST): Dynamische Testwerkzeuge produzieren nur über das Ausführen des Programms aussagefähige Ergebnisse. Beispiele sind Tools für Modultests, Test-Coverage-Tools, Speicher-Analyzer und Penetration-Test-Tools. Testautomatisierungs-Tools sind wichtig, um das mit Tests einhergehende Arbeitsaufkommen der Entwicklungsteams zu verringern und – was noch wichtiger ist – Schwachstellen zu detektieren, die von manuellen Tests übersehen werden könnten.

Static Application Security Testing (SAST): Statische Analysetools analysieren Quellcode, Bytecode (z. B. kompilierten Java-Code) und ausführbaren Binärcode. Bei der statischen Analyse wird der Code nicht ausgeführt, sondern die Analyse erfolgt, indem Schlussfolgerungen über das potenzielle Verhalten des Codes gezogen werden. Anders als die dynamische Analyse kann die statische Analyse einen Codebestand sehr effizient auswerten. Statische Analysetools untersuchen auch Codepfade, die mit anderen Methoden ungeprüft bleiben, und können Verarbeitungs- und Datenpfade durch den Code verfolgen. Weil sie sich frühzeitig in die Entwicklungsphase einbinden lassen, ermöglichen sie die Analyse von bestehendem, älterem und von Dritten zugeliefertem Quell- und Binärcode, bevor dieser Eingang in das Produkt findet. Beim Hinzufügen von weiterem Quellcode kann die inkrementelle Analyse zusammen mit dem Konfigurationsmanagement die Qualität und Sicherheit umfassend gewährleisten. Bild 2 zeigt, welche Arten von Test-Tools über die Produktentwicklung hinaus bis in die Wartung hinein zur Anwendung kommen.

Bild 2: Anwendung verschiedener Toolklassen im Kontext des Software Development Lifecycle (Quelle: GrammaTech)

Obwohl der Einsatz jeder Art von Tools zur Produktivität, Sicherheit und Qualität beiträgt, ist die Kombination aus mehreren Tools ratsam, denn keine Tool-Kategorie allein ist eine Wunderwaffe. Der beste Ansatz ist eine Kombination aus mehreren Werkzeugen aus allen Kategorien, die auf einem risikobasierten Grundprinzip aufsetzt, um ein hohes Sicherheitsniveau ohne Budgetüberschreitung zu erzielen.

Die intelligente Fabrik

Ziel der Smart Factory ist es, die mechanische Fertigung mit modernen Informations- und Kommunikationstechniken zu verknüpfen, um die wirtschaftliche Effizienz zu steigern. Viele Unternehmen wissen inzwischen um die Wichtigkeit neuer Technologien für die Wettbewerbsfähigkeit, dennoch hadern insbesondere herkömmliche Fertigungszweige mit der Implementierung moderner Soft- und Hardware. Sobald die Mitbewerber jedoch ihre Prozesse effizienter gestalten können, riskieren die traditionellen Unternehmen, wichtige Marktanteile zu verlieren, da sie mit den rein mechanischen Methoden mit der derzeitigen Beschleunigung nicht mehr mithalten können. Wieso also hängen noch so viele Hersteller an ihren „Traditionen“ und was sind die größten Hürden für eine Umsetzung automatisierter und vernetzter Prozesse?

Einheitliche Schnittstellen fehlen, Insellösungen regieren

Die mangelnde Verknüpfung der Altsysteme ist derzeit eine der größten Hürden hin zur Smart Factory. Unternehmen haben die meist vorherrschenden Insellösungen lange Zeit eigenständig erweitert und angepasst, was für einen gewissen Zeitraum durchaus funktioniert hat. Mittlerweile stoßen die proprietären Lösungen jedoch an ihre Grenzen. Das liegt insbesondere daran, dass die Lösungen Marke Eigenbau keine standarisierten Schnittstellen haben und somit in der Regel nicht miteinander kommunizieren können und zusätzlich einen hohen Wartungsaufwand bedeuten. Um diese Hürde zu überwinden, müssen Experten zunächst einheitliche Plattformen schaffen, die all diese unterschiedlichen Insellösungen miteinander vernetzen. Vor diesem Schritt graut es jedoch vielen Unternehmern: Was tun, wenn bei der Umstellung etwas schiefgeht und nicht gleich alles auf Anhieb funktioniert? Liegt die vollständige Fertigungskette dann brach und werden dadurch Umsatzeinbußen riskiert? Wie komplex sind die neuen Systeme und wie hoch wird demnach der Schulungsaufwand für die Mitarbeiter sein? Diese vermeintlichen Hindernisse lassen sich durch eine stufenweise Einführung der smarten Technologien weitestgehend komplett umschiffen oder zumindest verringern.

Smartphone-Herstellung in der Fabrik von morgen schon heute

Die Hauptgründe, weshalb eine Verknüpfung, Automatisierung und teils auch Virtualisierung der Fertigungsschritte wichtig ist, sind kürzere Time to Market-Zeiten und Marktzyklen. Am Beispiel von Apple lässt sich das gut erfassen: Alle ein bis zwei Jahre erscheint ein neues iPhone auf dem Markt. Derzeit sind die Smartphones durchschnittlich etwa zwei bis drei Jahre im Gebrauch. Der Bedarf an neuen Geräten ist also da und die Endkunden wollen möglichst schnell Ergebnisse sehen. Damit das Smartphone in der gewünschten, schnellen Zeit und auch Qualität geliefert werden kann, müssen alle Schritte der Wertschöpfungskette optimal ineinandergreifen.

Der erste Schritt bei der Herstellung eines neuen Produkts, wie eines Smartphones, ist in der Regel das kreative Design. Das Rapid Prototyping ist hierfür sehr gut geeignet. Hier bilden digitale 3D-Konstruktionsdaten die Grundlage für den 3D-Druck eines physischen Prototyps. Alternativ können funktionelle Mock-Ups per Virtual Reality mithilfe einer Datenbrille tatsächlich erlebt werden, bevor die erste Charge vom Band kommt. Der Vorteil an diesen Methoden: Produktmanager können durch diese technischen Lösungen die ersten kreativen Entwürfe schneller und besser begutachten, dadurch schneller Entscheidungen treffen und das Design für die Produktion freigeben. Die zuvor langwierige Anfertigung eines Prototyps entfällt dabei nahezu vollständig.

Den besten Zulieferer schnell und präzise finden

Ist die Design-Phase abgeschlossen, folgt die Bestellung der Rohstoffe. In einem Smartphone beispielsweise sind etwa 300 verschiedene Bauteile integriert. Das wiederum führt zu einer sehr komplexen, teils globalen Lieferkette und bringt damit einige Herausforderungen mit sich. Unternehmen müssen den günstigsten Anbieter finden, der die benötigte Rohstoffmenge schnell, in guter Qualität und zum besten Preis liefern kann. Verknüpfte Systeme erleichtern diese Suche ganz erheblich. Ein übergreifendes Portal ermöglicht dem Produktionsleiter, auf alle Zulieferer gleichzeitig zugreifen zu können und damit nicht jeden Zulieferer für jedes Einzelteil separat ansprechen zu müssen. Diese zentralen Portale sind ein wichtiger, erster Schritt in Richtung einer wirklich intelligenten Supply Chain.

Gewusst, wo – Smart Warehouse Management

 Im Falle einer intelligenten Lieferkette erlauben in den Werkstoffteilen eingebaute RFID-Chips oder ähnliche Technologien nach der Bestellung die Ortung der Ware und auch eine Ferndiagnose über deren Zustand. Dadurch können Unternehmen in Echtzeit nachvollziehen, wann ihre Ware eintreffen wird und später auch, wo genau sich die Teile im Lager befinden. Die Mitarbeiter können so jederzeit in der Datenbank prüfen, ob der Lagerbestand noch ausreicht und in welchem Zustand die Ware ist. Unternehmen können die prozessuale und betriebliche Effizienz stark steigern, da das manuelle Eintragen im ERP-System, das Scannen der Produkt-Codes und das fehleranfällige Prüfen aller Waren per Lieferschein entfällt. Das Smart Warehouse Management erleichtert und beschleunigt damit die manuellen, datenintensiven Lagervorgänge.

Die genannten Anwendungsszenarien dienen in diesem Fall nur als Ausschnitt der vielfältigen Möglichkeiten der Smart Factory-Technologien. Um diese jedoch in vollem Ausmaß nutzen zu können, müssen Unternehmen die proprietären Systeme in einem übergreifenden, cyberphysischen System vereinheitlichen. Dieses System verbindet die digitalen Daten mit den physischen Maschinen. Die richtige Umsetzung führt zu einem Wettbewerbsvorteil, der letztlich ausschlaggebend für das langfristige Bestehen am Markt sein kann.

Single-Sign-On mit ADFS – auch mit Office 365

Sie können in Windows Server 2016 auch auf Active Directory-Verbunddienste setzen, um Single-Sign-On mit anderen Gesamtstrukturen oder der Cloud aufzubauen. Die neue ADFS-Version beherrscht Openid Connect Web Sign On sowie OAuth2. Um ADFS oder auch andere neue Dienste in Windows Server 2016 umfassend zu nutzen, sind Zertifikate notwendig. Ein solches Zertifikat erstellen Sie auf Wunsch aber auch selbstsigniert in der PowerShell. Die Syntax dazu ist:

New-SelfSignedCertificate -certstorelocation cert:\localmachine\my -dnsname <FQDN des Servers>

Nachdem ADFS eingerichtet ist, können Sie in der ADFS-Verwaltungskonsole den Assistenten zum Einrichten starten. Dieser bietet einige Vorlagen und ermöglicht die Einrichtung von OpenId Connect.

Fehlerbehebung und Überwachung bei einem ADFS-Server

In der ADFS-Konsole können Sie über das Kontextmenü von ADFS und der Auswahl von Verbunddiensteigenschaften bearbeiten auf der Registerkarte Ereignisse genauer steuern, was die Umgebung in die Ereignisanzeige schreiben soll.

Öffnen Sie die Ereignisanzeige, klicken Sie auf das Menü Ansicht und wählen Sie Analytische und Debugprotokolle einblenden. Danach müssen Sie die Ansicht aktualisieren, damit das ADFS Tracing-Log zu sehen ist. Mit einem Rechtsklick auf das Debug-Protokoll können Sie das Protokoll aktivieren. Sobald Sie die Debug-Protokollierung aktiviert haben, erhalten Sie einen umfassenden Überblick zu den Vorgängen in der ADFS-Infrastruktur. Beim Filtern des ADFS -Ereignisprotokolls, können Sie auch alle Ereignisse einer bestimmten Transaktion filtern lassen. Sie müssen dazu nur einen Filter basierend auf der ActivityID mit den folgenden Schritten erstellen:

Öffnen Sie die Ereignisanzeige.

Erweitern Sie Anwendungs- und Dienstprotokolle und dann den Admin-Bereich beim ADFS-Protokoll.

Wählen Sie aus dem Menü Aktion auf Aktuelles Protokoll filtern.

Klicken Sie auf die Registerkarte XML, und wählen Sie Manuell bearbeiten

Damit Ihr Hund an sein Futter kommt

Die Kosten von IT-Ausfällen

Eine Konsequenz mangelnder Verfügbarkeit sind finanzielle Einbußen. Laut unserem Availability Report kostet der Ausfall einer geschäftskritischen Anwendung deutsche Firmen durchschnittlich rund 53.000 Euro pro Stunde, die Kosten für Datenverluste liegen pro Stunde Ausfall sogar bei 55.000 Euro. Gleichzeitig haben 68 Prozent der IT-Entscheider erkannt, dass Ausfallzeiten das Vertrauen der Kunden in die Organisation und in die Marke schädigen. Während immer mehr Daten in Zukunft in der Cloud gespeichert werden, stellt die Erwartungshaltung nach immer und überall verfügbaren Daten für viele Anbieter und Kunden immer noch eine Herausforderung dar.

Ein triviales und zugleich eindrucksvolles Beispiel ist der Haustier-Futterautomat des kalifornischen Unternehmens PetNet: Das Gerät gibt ferngesteuert eine bestimmte Menge an Tiernahrung aus, wenn die Haustierbesitzer unterwegs sind. Ein Serverausfall führte im Juli 2016 dazu, dass die Futterausgabe nicht richtig funktionierte und so mussten viele Haustiere für einige Stunden hungern. Glücklicherweise dauerte der Ausfall nur zehn Stunden und betraf nur etwa zehn Prozent der PetNet-Kunden. Viele von ihnen beschwerten sich massiv über Twitter und reagierten verärgert auf den Hinweis, dass die betroffenen Besitzer ihre Haustiere während des IT-Ausfalls doch bitte per Hand füttern sollen.

CIOs müssen die Verfügbarkeitslücke schließen

Dies verdeutlicht, wie wichtig Backup- und Disaster Recovery-Lösungen heute sind, um die Verfügbarkeit von Daten und Anwendungen im vernetzten Digitalzeitalter sicherzustellen. Da das Internet der Dinge im Alltag der Verbraucher eine immer wichtigere Rolle einnimmt, sind lange Wiederherstellungszeiten bei einem IT-Ausfall beispielsweise im Gesundheitssektor nicht nur lästig, sondern sogar bedrohlich. Die Wiederherstellung der IoT-Services muss daher bei einem Ausfall höchste Priorität haben. Mit den richtigen Lösungen hätte das Unternehmen die Ausfallzeiten minimieren können – von zehn Stunden auf wenige Minuten.

IT-Administratoren sollten daher regelmäßige Backups und Snapshots durchführen, um diese für eine schnelle Wiederherstellung nutzen zu können. Doch viele Unternehmen setzen veraltete Backup- und Replikationslösungen ein, die den modernen virtuellen und Multi-Cloud-Umgebungen, mit denen viele Organisationen arbeiten, nicht gewachsen sind. Ganz zu schweigen von einer Validierung von Backups, die notwendig ist, um sicherzustellen, dass sich IT-Systeme mit den gespeicherten Daten auch tatsächlich wieder starten lassen.

Aus Sicherheitsgründen sollte der Datentransfer der vernetzten Geräte vor Datenverlusten sowie vor unautorisiertem Zugriff geschützt werden. Hierfür benötigen IT-Verantwortliche eine kontinuierlich arbeitende Security-Lösung und sie müssen das Backup verifizieren, um die Wiederherstellung zu garantieren, und die Daten mit einer angemessenen Verschlüsselung vor fremdem Zugriff schützen.

Verfügbarkeit im Zentrum der IoT-Strategie

Die Verfügbarkeit von Daten und Anwendungen muss aus der Nische in den Fokus der IT-Strategie rücken. Eine gute Backup-Strategie beschreibt die 3-2-1-Regel: Hierbei sollten drei Datenkopien angelegt werden, einmal auf dem aktuellen System und zwei externe Backups. Die Backups sollten auf zwei unterschiedlichen Speichertechnologien lagern, etwa Netzwerkfestplatte und Bandlaufwerk – und eines der Backups ist an einem anderen Ort zu verwahren. Das schützt ganze Unternehmensstandorte vor Ausfällen. Heutige Backup-Architekturen halten sich an diesen 3-2-1-Ansatz, dabei priorisieren sie primäre Speicher für kurzfristige Backup- und Wiederherstellungsvorgänge und erstellen eine redundante Kopie auf einem sekundären Medium.

Fazit

Voraussetzung für den erfolgreichen Einsatz von IoT-Technologien ist, dass Unternehmen die Verfügbarkeit der Anwendungen und Daten als integralen Faktor bei der Planung und beim Einsatz der IoT-Produkte berücksichtigen. CIOs müssen die zahlreichen neuen Technologien eingehend evaluieren, um eine passende Verfügbarkeitsstrategie zu entwickeln, welche die digitalen Unternehmensziele unterstützt. Organisationen, die Verfügbarkeit in den Mittelpunkt ihrer IoT-Strategie stellen, fördern Innovationen, bauen Vertrauen bei ihren Kunden auf und profitieren von der Digitalisierung. So bekommen auch Haustiere ihr Futter immer zur rechten Zeit.

LiMux in München vor dem Aus

Ich verfasse in der Regel keine politischen News, aber diese Meldung berührt mich, wenn auch die Entwicklung seit dem Regierungswechsel 2014 absehbar war.

So wie Reiters Vorgänger Ude Linux-Verfechter und LiMux -Mitinitiator war, findet Linux im Stadtrat der jetzigen Regierungsparteien nicht viel Unterstützung hat, denn Bürgermeister Reiter und sein Stellvertreter torpedierten das LiMux-Projekt offen und häufig. Dass Reiter eher den Produkten von Microsoft „nahe steht“ kann dieser kaum verbergen.

Sündenbock  LiMux

Leider fungiert LiMux, eine freie Softwarelösung für die Desktop-PCs der Stadtverwaltung, die auf Ubuntu, KDE, LibreOffice und WollMux als Vorlagensystem basiert, als Sündenbock für nahezu alle Mängel, die eine große IT-Landschaft wie in Münchens Stadtverwaltung prinzipiell aufweist.

Nachdem sich die Fraktionen bereits  zu Monatsbeginn auf eine Neuorganisation verständigt hatten, hat nun die schwarz-rote Regierungskoalition einen Antrag (PDF) eingereicht, der eine Rückkehr zu Microsoft vorsieht.

Konkret plädiert der Antrag zunächst für die Installation eines „schlanken“ IT-Referats mit einer/einem für die gesamte städtische IT zuständigen Referentin/Referenten. Er oder ihr sollen kleinere Einheiten für das „fachliche Anforderungsmanagement“ zugeordnet werden. Ferner wird ein „Windows-Basis-Client“ entwickelt, der bis Ende 2020 in eine stadtweit einheitliche Client-Architektur eingebunden sein soll, wobei „marktübliche Standardprodukte“ dafür sorgen, dass der Austausch intern und extern (z. B. mit den Bürgern) so gut wie möglich funktioniert. Ferner sollen die städtischen Anwendungen unabhängig vom Betriebssystem des Endgerätes funktionieren.

Allerdings ist es den Referaten bis 2021 freigestellt, ob sie sofort den neuen Windows-Client einsetzen oder übergangsweise weiter LiMux verwenden möchten.

风电装备加快向“智造” 升级

装备制造业是国民经济支柱企业,是建设制造强国的主战场,大力培育和发展以风电装备为代表的高端装备制造业,不仅是提升中国产业核心竞争力的必然要求,也是加快供给侧结构性改革,促进工业向中高端迈进的重要举措。

目前,风电在价格、表现和可靠性方面正在朝向更有竞争力的方向发展。截至2015 年底,全球风电装机容量达到4.33 亿千瓦。全球风能理事会预计,到2020 年底,全球风电装机容量将增长至7.92 亿千瓦。作为全球战略性新兴产业,风电的发展离不开技术创新支撑。

近几年,中国风电行业在智能制造的背景下不断蜕变与创新,无论是在捕风能力、气动效率、风能转换能力等技术方面,还是设备质量方面都有大幅提高,智能化、信息化、大数据、云计算的理念也迅速融入到风电建设的各个环节。风电设备制造企业也在不断从技术、质量等多方面整体提升竞争力。

随着能源互联网概念提出,众多风电企业早已开始重视布局“互联网+风电”,纷纷聚焦分布式能源、微电网和智慧能源网,提出了全新的智慧能源一体化解决方案。风电行业企业通过将信息化技术与业务进行结合,投入并完成IT 系统,完成大数据平台,将控制策略与互联网技术、大数据、云存储前沿技术融合,进行风电场优化、定制化设计、资源评估、智能风场管理,推进无人值守智慧风电场建设。

此外,通过对SCADA 系统进行创新升级,形成包括风机远程监控、机组在线状态检测、远程故障诊断与修复、风功率预测的大数据云平台,实现风机及风场智能化管理目标。智能制造是未来中国制造业发展的重要方向。智能制造也给风电场带来了颠覆性变化。风电机组的智能化将是重要发展趋势,而风机的智能化发展必须在传统制造工艺过关的基础上,充分融合互联网技术创新。运用大数据、云计算等新一代信息技术,最终实现远程风机的后台监控和全生命周期管理,确保风机运行状态最优化。在精细化管理的基础上,运用大数据、云计算等新一代信息技术实现协同控制是未来智慧风电场解决方案的升级方向。

机械工业 2016 年运行形势回顾和 2017 年展望

首先是有“两喜”——第一“喜”是去年我国机械工业逐渐回升,增长速度明显反弹。如果进行横向比较的话,2016年1~11月,我国机械行业的工业增加值增速为9.6%,全国工业平均水平为6.0%,明显高于全国工业平均水平,且增速逐月上行。如果进行纵向比较的话,我们可以看到,2016年机械行业主要经济指标在上年历史低点上普遍反弹——2015年机械行业的工业增加值增速为5.5%,2016年1~11月是9.6%;主营收入2015年的增速是3.32%,去年前11个月是7.41%;利润总额增速2015年是2.46%,去年1~11月是7.07%,很明显,各项指标均在增长。

第二“喜”则是我国机械工业在去年优胜劣汰加剧,总体呈现出升级态势。在严峻的市场倒逼作用和“三去一降一补”的政策引导下,行业优胜劣汰的进程明显加快。虽然全行业产销仍处于明显的相对困难时期,但总体而言,行业呈现出了升级态势。这种态势从五个方面表现了出来。第一,与实物产品产量的弱势增长相比,行业的主营收入和利润实现了相对较高的增幅;第二,“中国制造2025”深入人心,得到越来越多的企业关心、认同和响应,转型升级、由大变强正成为全行业的追求和实际行动;第三,在进出口中,一般贸易增幅明显高于加工贸易,说明中国机械工业进出口结构在优化升级,去年前11个月的贸易顺差累计为936亿美元,占进出口额的比重在增大,说明机械工业国际竞争力在提高;表现之四,新能源汽车、可再生能源产品、节能减排产品、机器人,以及数字化、网络化、智能化技术产品的产量增长势头大大好于传统产品;表现之五是,中国机械工业中的民营企业的发展势头强于全行业平均水平。实际上,2015年民营企业主营收入占比就已经超过了55%,利润占比超过了59%,而在出口总量的占比中,去年前11个月,民营企业的占比已经达到了39.8%,再次上升1.2个百分点。可以说民营企业增强了行业发展的内生活力。

虽然去年我国机械工业总体呈现出回暖回升的态势,但却不无担忧。第一“忧”是行业脱实向虚堪忧,发展环境有待改善。虽然“中国制造2025”振奋了行业精神、引导了舆论氛围,但相较于炒股、炒房、炒汇,机械工业的收益率仍望尘莫及,对优质人才、资源仍缺乏应有的吸引力。机械工业中,主营活动所产生利润的增速明显低于利润总额增速,说明行业自身内部也存在某种脱实向虚的倾向。

第二“忧”则是反全球化思潮抬头,导致行业的外贸形势比较严峻。2015年机械工业出口比上年下降了3.36%,去年前11个月又同比下降了3.93%。我们放眼国际,欧洲经济复苏发力,英国去年退欧;国际贸易摩擦加剧,美国特朗普当选总统,反全球化思潮在上升。在此形势下,机械工业的外貌形势难以在短期内明显好转。

在触底回升的同时,行业在去年的发展也呈现出了一些新的趋势。这引起了我的两点思考——一是对行业分化的现象的思考,二是对行业投资的思考。2016年,机械工业的行业分化呈现出三个趋势:

第一,与消费民生紧密相关的子行业形势普遍好于投资类产品子行业。2016年1~11月机械工业全行业平均主营收入增速为7.41%,而汽车制造业的主营收入增速为13.73%,农副食品加工专用设备的增速为12.51%,光伏设备增速为11.07%,光纤光缆增速为14.21%,仪器仪表增速为8.52%,环保设备增速为7.70%,这些行业都比全行业平均水平要高,起到了拉动作用;但服务于投资活动的行业增速普遍比较低,比如机床工具行业的增速为5.42%,石化通用行业的增速为2.74%,而工程机械行业仅有1.22%的增速,重型矿山机械行业也仅有1.74%的增速。

第二个趋势,机械工业中专用设备制造业的发展形势强于通用设备制造业。去年前11个月,专用设备制造业的工业增加值增速为6.5%,而通用设备制造业的增速为5.7%;

第三个趋势是零部件行业的形势好于主机行业。去年1~11月,通用机械基础件的主营收入增速为4.75%,而重型矿山机械的增速为1.74%,石化通用机械的增速为2.74%。

仔细思索,上述三个趋势我认为对机械工业的供给侧结构性改革和调整是不无启迪。

思考之二:固定资产投资增速下降。2016年1~11月,机械行业的固定资产投资的同比增速降至1.07%的历史低点,11月当月同比下降了6.48%。这与此前连续十多年高达20%~30%,甚至30%以上的增幅不啻有天壤之别。该如何看待这一现象?这是我的第二点思考。

固定资产投资增速的下降一方面反映了机械工业趋稳回暖的势头仍不稳固,业内企业对未来的预期不高,所以不敢增加投资,而不敢增加投资则不可避免地会影响行业的发展后劲。从这一角度看,投资增幅快速下滑令人忧虑,应给予关注。另一方面,虽然去年前11个月累计投资增幅剧烈下滑,但投资金额仍达到了4.55万亿元的历史新高,这相当于2014年行业全部固定资产原值的55%,所以从具体的投资额度上来看其实不算少。而问题的关键在于,这些投资一方面结构不佳,重基建、轻技改,重产能扩张、轻研发条件建设;另一方面,相当多的企业应收账款过高,已严重影响到了正常运行。

因此,更为紧迫的是要调整投资结构。一是要大幅提高技术改造的投资比重,努力提高工艺水平;二是要大力加强研发试验条件的建设,为提高创新能力创造必要的条件。同时,还要着力解决一批重大技术装备制造企业应收账款居高不下的问题,使他们重回正常经营的轨道。

对于2017年发展我有两点估计:汽车和电工这两大行业今年的增速将明显回落;机械工业全行业2017年的增速将略低于2016年。

2016年,汽车和电工电气成为机械工业回暖回升的两大当之无愧的“拉动力”——从主营收入来看,两个行业对机械工业总体增长的贡献率达到了79%,而从利润方面来看,两个行业的贡献率更是高达88%。倘若扣除这两大行业,2016年1~11月其余机械行业累计主营业务收入同比仅增长3.63%,利润总额仅增长2.19%。某种程度上可以说,这两大行业的发展步伐几乎决定了机械工业整体前行的速度。

汽车行业受国家出台刺激车市政策的影响(指1.6升及以下排量乘用车购置税减半),从2015年四季度起增速明显回升,从而使2016年汽车产销实现了高速增长,但这已经导致2017年的对比技术明显抬升。虽然国家已经明确优惠政策今年继续执行,但优惠的幅度将比去年减半,本来政策刺激的效果历来就是随时间迁延而衰减的,更何况优惠力度又将减半。所以2017年的车市将无法与去年相比,增速将明显回落。至于电工行业,2016年增速最高的是光伏和光纤产品,但由于对光伏发电的补贴有较大削减,因此光伏行业在明显降温。加上电力供应过于求日益严重,常规发电设备需求必将更加疲软。此外,房地产热的退潮和铜铝道题的明显涨价对电工行业也有较大的不利影响,因此2017年电工行业的增速也将回落。

汽车和电工两大主力难以“指望”,而从其他方面看,今年的机械工业发展仍面临多重不利因素——从国内看,机械工业传统的服务领域“钢电煤化油”等行业的去产能、去库存、去杠杆的任务仍然很重,相关需求难有明显回升;全社会固定资产投资明显增长乏力,尤其是房地产明显降温。虽然今年投资类主机产行业将有所回暖,但绝不应过度乐观。此外,2016年下半年,尤其是四季度以来,钢铁、焦炭、铜铝导体、油品等大宗物资价格快速上扬,将明显增加机械企业的生产成本,从而对机械工业2017年的效益增长带来不可小看的困难。而从国际来看,多数地区经济仍处于低速状态,加之在此背景下反全球化思潮和贸易保护主义抬头,出口市场困难仍不容小觑,今年的外贸市场不容乐观。

综合上述分析,预计2017年机械工业的工业增加值比2017年增长7%左右,主营收入和利润总额比2016年回落1个百分点左右,即增长约6%。此外,出口增速可能仍为负数。

Erster Meilenstein UCS 4.2

Neben der aktualisierten Debian-Paket-Basis der Distribution enthält der Meilenstein auch eine Vorabversion der kommenden Samba 4.6 Version, die nach der Finalisierung in UCS zur Verfügung stehen wird.

Neues Portal

Das neue Portal in UCS 4.2 bietet einen zentralen Zugriff auf sämtliche Anwendungen der Umgebung und erlaubt das Verwalten unterschiedlicher UCS-Instanzen, sodass Nutzer einfacher auf freigeschaltete Anwendungen zugreifen können. Es soll im UCS 4.2 Release zudem individuell konfigurierbar sein.

Verbesserungen planen die Entwickler zudem beim Design und der Usability, etwa dass Nutzer für das Anzeigen von Suchergebnissen zwischen einer Galerie- und einer Listenansicht umschalten können. Trotzdem bleibt das grundlegende Designkonzept aus den bisherigen UCS 4 Versionen erhalten.

Docker-basierte Apps im App Center

Im Fokus der Weiterentwicklung des UCS 4.2 App Centers steht die Portierung dort verfügbarer Apps zu Container-Apps auf Basis von Docker.

Wie App-Anbieter die Docker-Integration in UCS nutzen, bleibt ihnen überlassen. Sie können ihre Container als spezielle Form einer virtuellen Maschine mitsamt eines Großteil des Betriebssystemstacks von UCS betreiben oder so, dass Container nur einen bestimmten Prozess oder Service beinhalten. Ersteres erleichtert App-Anbieten die Integration ihrer Apps für/in UCS, da dann kaum Anpassungen an der App erforderlich sind. Zweiteres begünstigt dafür eine Microservice-Architektur .

Samba 4.6

Der erste Meilenstein von UCS 4.2 enthält außerdem bereits den zweiten Release Candidate von Samba 4.6, dessen finale Samba 4.6 Version für Anfang März erwartet wird.

Samba 4.6 bringt Verbesserungen in der Rolle von UCS als Domänencontroller in Active Directory Domänen sowie bei der Bereitstellung von Datei- und Druckdiensten.

Fundament

Darüber hinaus haben die UCS-Entwickler ihre Appstream-Distribution von Debian 7 (Wheezy) auf Debian 8 (Jessie) aktualisiert.

Damit verwendet UCS nun ebenfalls systemd als Standard-Startsystem anstelle des veralteten SysV-Init. Da alle bisherigen Init-Skripte weiterhin gestartet werden, kann die Migration von Apps sukzessive erfolgen.

Der Linux-Kernel klettert in der Release-Version auf die letzte Long-Term-Support (LTS)-Version 4.9, was der Hardwareunterstützung und der Performance zugute kommt. Der Meilenstein arbeitet aber noch mit einer Vorabversion des Kernel 4.9.

UCS 4.2 soll außerdem die erste UCS-Version sein, bei der Univention nicht mehr die gesamte Debian-Distribution im eigenen Buildsystem neu baut. So ist es in Zukunft möglich, Security-Updates schneller zu veröffentlichen. Das gilt auch für Pakete aus dem unmaintained-Repository von UCS.

Außerdem erhöht Univention damit die Binär-Kompatibilität, was eine nette Umschreibung dafür ist, dass man künftig eher weniger Arbeit in die Fundament-Pflege investiert, was schade ist, denn Unternehmens-Distributionen, die sich mehr oder weniger direkt aus einem Upstream-Provider ableiten gibt es Viele.

Für UCS aber immer noch einzigartig ist das integrierte Identity-Management auf Basis von LDAP (UCS) UND ADDS, das Speichern und Verwalten der gesamten Konfiguration im LDAP, die grafische Managementschnittstelle und das API-Store-Konzept mi zugehöriger API.

Download und Roadmap

Der zweite Meilenstein soll am 7. März 2017 erscheinen, der Release Candidate ist für den 21. März geplant, sodass die neue Version 4.2 am diesjährigen CeBIT-Stand von Univention gezeigt werden kann. Erscheinen soll das finale Release dann Anfang April.

Aktuelle ISO- und VMware-Images stehen wie üblich im Download-Bereich zur Verfügung. UCS ist im Rahmen der  Core-Edition frei verfügbar. Unternehmen können aber optional kostenpflichtige Support-Subskriptionen erwerben.