Sicherheitsrisiko Smart Cities

Zunehmende Verkehrsbelastungen, Umweltverschmutzung, Energieverschwendung, wachsende Müllberge – für viele Probleme unserer heutigen Großstädte hat die intelligente Stadt von morgen eine Antwort: Das Internet der Dinge, d.h. Millionen von vernetzen, digitalisierten und mit Sensoren ausgestatteten Geräten und Infrastrukturen. Von vernetzten Fahrzeugen eines Carsharing-Anbieters, intelligenten Ampelschaltungen, energiesparender Straßenbeleuchtung bis hin zu sensorisierten Mülltonnen oder Bewässerungssystemen in Parks ist alles möglich.

Doch Umweltschonung, Bequemlichkeit und Ressourceneffizienz haben auch eine dunkle Seite. Denn neben der zuverlässigen Speicherung der immensen Datenfluten sowie deren schneller Analyse ist die Anfälligkeit für Cyberangriffe die wohl größte Herausforderung smarter Städte. Hierin sind sich Sicherheitsexperten einig: Die Stadt der Zukunft ist unsicher.

Wenn der Hacker die Ampel manipuliert

Die zentrale Schwachstelle des IoT sind ungeschützte Geräte, die keinen ausreichenden Sicherheitstests unterzogen wurden und daher ohne größeren Aufwand gehackt und mit Malware infiziert werden können. Für viele Anbieter haben bei der Entwicklung von IoT-Geräten nach wie vor Funktionalität und Kundenfreundlichkeit oberste Priorität. Aspekte der Sicherheit und des Datenschutzes werden auch in Zeiten zunehmender Vernetzung weiterhin gerne vernachlässigt – sei es aus Kostengründen, Zeitdruck oder aufgrund begrenzter Rechenleistung.

Was das für vernetzte Städte und Infrastrukturen bedeutet, machte der Security-Experte Cesar Cerrudo bereits 2015 deutlich: Bei Touren durch einige amerikanische Großstädte wie New York , Los Angeles oder San Francisco musste er feststellen, dass die zur Messung der Verkehrsströme in die Straßen eingelassenen Sensoren völlig unverschlüsselt mit den Knotenpunkten für die Ampelsteuerung kommunizierten. Ein gefundenes Fressen für potenzielle Hacker und Cyberkriminelle! Denn diese Sicherheitslücke ermöglicht es Angreifern, die Zugangspunkte anzuzapfen und die Verkehrsdaten so zu manipulieren, dass es zu falschen Ampelschaltungen und daraufhin zu Unfällen, Staus oder weiträumigen Verkehrsbehinderungen kommen könnte. Doch auch in Deutschland sieht es in den vernetzten Städten sicherheitstechnisch nicht immer rosig aus, wie Security-Berater und -tester Felix Lindner bei einem Penetrationstest der Stadtwerke Ettlingen im Jahr 2014 zeigen konnte. In nur 18 Stunden war es ihm damals gelungen, in die Steuerungszentrale des Energieversorgers einzudringen, von wo aus er das Stromnetz der Stadt hätte lahmlegen können.

Sicherheitslücken und Schwachstellen in IoT-Geräten minimieren

Da im Falle eines Cyberangriffs auf eine vernetzte Stadt tausende von Geräten von Manipulationen oder Malware bedroht sind, ist eine gut durchdachte Sicherheitsstrategie unerlässlich. Diese beginnt mit der Identifizierung und Priorisierung der kritischen Infrastruktur. Nur wer potenzielle Angriffspunkte, schadhafte Umgebungen, veraltete Betriebssysteme etc. frühzeitig identifiziert und absichert, kann schlimmere Ausfälle oder Manipulationen verhindern. Den effektivsten Schutz vor Hackerangriffen bietet dabei eine Sicherheitslösung, die bereits in der IoT-Applikation selbst verankert ist. Anstatt einen Zaun um das Gerät und seine Software zu ziehen, müssen die Applikationen bereits nach Abschluss des Entwicklungsprozesses mit effektiven Schutztechnologien wie Obfuscation (Verschleierung) und Whitebox-Kryptographie sowie fortschrittlichen RASP (Runtime Application Self-Protection)-Technologien ausgestattet werden. Derart geschützt sind die Applikationen dann in der Lage, sich selbst zu verteidigen und mit individuell festgelegten Aktionen auf mögliche Angriffe zu reagieren, indem sie etwa den Betreiber der IoT-Geräte darüber informieren, dass die Software modifiziert wurde. Der sensible Binärcode einer Applikation, ihre Kronjuwelen sozusagen, ist dank App-Härtung von Manipulationen sicher.

Smarte Städte sind eine große Chance, vor allem für die rasant wachsenden Metropolen, die mit Bevölkerungswachstum und zunehmender Verkehrsbelastung zu kämpfen zu haben. Sicherheit, Datenschutz und Privatsphäre müssen jedoch bei allen IoT-Innovationen oberste Priorität haben, wenn diese langfristig gewinnbringend sein sollen. Eine wichtige Rolle spielt hierbei natürlich auch die Aufklärung. Das Thema „Sicherheit“ muss in Unternehmen höchste Priorität bekommen.  Anbieter und Verkäufer der IoT-Geräte und -Technologien müssen in Sachen Cybersicherheit viel besser geschult und aufgeklärt sein. Sie müssen den Risiken Raum geben und die Nutzer über mögliche Gefahren informieren.

Netzwerkschutz mit Microsoft Net Cease

„Net Cease – Hardening Net Session Enumeration“ (https://gallery.technet.microsoft.com/Net-Cease-Blocking-Net-1e8dcb5b) soll dabei helfen die Standardberechtigungen von Net Session Enumeration (NetSessionEnum) so anzupassen, dass Angreifer keinen Zugang zum Netzwerk erhalten, auch nicht über Umwege. Das Skript schützt nicht nur ältere Serversysteme wie Windows Server 2008/2008 R2 und Windows Server 2012/2012 R2, sondern auch Windows Server 2016. Auch Windows 7/8/8.1 und Windows 10 lassen sich absichern. Ältere Windows-Versionen wie Windows Server 2000/2003 werden nicht unterstützt. Die Entwickler empfehlen das Tool auf allen Windows-Rechnern im Netzwerk auszuführen.

Wenn Angreifer in ein Netzwerk eindringen, geschieht das normalerweise über einen einzelnen Endpunkt. Sobald dieser Endpunkt, zum Beispiel ein unsicherer Server, Router oder ein anderes Netzwerkgerät übernommen wurde, gilt es Informationen über das Netzwerk zu sammeln. Denn nur mit ausreichend Informationen kann ein Angreifer auch den Rest des Netzwerks effizient ausspähen oder weitere Angriffe durchführen. Dieses Ausspähen auch Reconnaissance, kurz „recon“ genannt, soll durch das Skript „Net Cease“ verhindert werden.

Fault Tolerance für VMs nutzen

Bei diesem Vorgang wird eine VM auf einem anderen Host gespiegelt. Beide VMs arbeiten mit dem gleichen Speicher. FT synchronisiert den Inhalt des Arbeitsspeichers und weitere Konfigurationsdaten zwischen den beiden VMs. In einer solchen Umgebung gibt es aber nur eine primäre VM welche schreibend auf die Daten zugreifen darf.

Die sekundäre VM darf die Daten nur lesen. Die sekundäre VM verfügt aber immer über alle Daten der primären VM. Fehlt der Hosts der primären VM aus, erkennt das VMware und definiert die sekundäre VM automatisch als primäre VM. Ab diesem Moment darf die VM auch schreibend auf die Daten zugreifen.

Damit Sie FT nutzen können, müssen Sie einen HA-Cluster einsetzen sowie mit FT-kompatible Hardware. In den meisten Fällen können sie FT aktivieren, während die primäre VM gestartet ist. Dazu wird allerdings nicht immer. Teilweise kann es sein, dass sie für die Aktivierung von FT die VM ausschalten müssen. In produktiven Umgebungen ist es nicht empfohlen, dass sie die Netzwerkkommunikation für FT über einen Adapter oder eine Port Gruppe einsetzen, die bereits für andere Zwecke genutzt wird, vor allem vMotion. Zusätzlich zu Aktivierung von FT und dem entsprechenden Netzwerkadapter und der Portgruppe müssen Sie zwischen den Beteiligten Hosts auch vMotion im Einsatz haben.

Grundsätzlich haben Sie die Möglichkeit die virtuellen Festplatten der primären VM unter sekundären VM auf verschiedenen Datenträgern abzuspeichern. Es muss aber ein gemeinsamer Datenspeicher zur Verfügung stehen über den die Replikation stattfindet. Auf dem gemeinsamen Datenträger muss die Konfigurationsdatei der VM und die Konfigurationsdatei von FT abgelegt sein.

金属加工·智能制造解决方案——2017(第十三届)中国国际金属加工高峰论坛隆重举行

在美国先进制造业再回归、德国“工业4.0”尤其是《中国制造2025》的强大推动下,中国的制造业正在经历着基础能力、质量品牌以及标准化的提升。随着科学技术的发展和制造业转型升级的需要,智能化制造已经成为未来制造业技术发展的必然趋势。在面对制造业信息化、网络化、智能化发展的迫切需求及其所带来的市场空间,企业需要不断拓展业务范围,逐步向智能制造系统解决方案方向发展。

在此背景下由MM《现代制造》杂志社主办的第十三届中国国际金属加工高峰会(CMWS 2017)于2017年4月16日在北京举行。本届论坛围绕“智能制造落地解决方案”这一主题,邀请国内外知名行业专家及技术领先的供应商,就《中国制造2025》如何成功落地提供最具现实说法的讲解。现场参会听众207人,并且此次会议第一次采取直播形式,在线吸引2990人次观看,通过不同传播渠道为处在制造业中的企业带来最新话题分享。

沈阳机床集团总系统师、上海研究院院长朱志浩先生作为论坛主席为大家分享了“制造装备全生命周期运营,装备企业必由之路”这一当下热点话题。改变传统买卖关系,借助工业互联网让装备制造商专业化运营智能装备,确保装备在全生命使用过程中能价值发挥最大化,装备使用方可以获得性价比最优的装备使用权,这是制造装备全生命周期运营的本质。另一位来自北京航空航天大学的专家刘强教授,则从“智能数控技术研究与实践”的角度与大家探讨了“工业4.0”、智能制造背景下的中国数控机床的发展与面临的挑战,数控机床相关关键技术的发展,并做了对智能数控的思考及探索研究。

如果说前两年大家更关注智能制造热点话题所阐述的概念或者勾画的前景,那么如今能让大家心动的则是能将这些概念转化为现实的落地的解决方案。所以本次论坛邀请到了多位业内知名企业代表,如福斯润滑油(中国)有限公司、北京绅名科技有限公司、山高刀具(上海)有限公司、爱路华机电技术(上海)有限公司为与会听众分享了不同的智能制造产品及对应的落地解决方案。

福斯润滑油(中国)有限公司金属加工液产品经理曾拥军先生,率先分享了福斯为预防和控制金属加工液使用中的健康与安全问题提供的相应解决方案;山高刀具(上海)有限公司,产品管理部经理冯浩先生为与会听众带了智能制造刀具解决方案;北京绅名科技有限公司,智能制造副总经理杨森先生介绍了绅名科技通过智能产线,设备智能互联,制造执行系统相互组合为企业提供一体化解决方案。爱路华机电技术(上海)有限公司产品与技术销售总经理陆俊杰先生则介绍了EROWA(爱路华)集成化制造管理系统,随着工业4.0概念的普及,此软件已成为现代智能化制造的“神经系统”是必不可少的一个环节。

4位演讲嘉宾围绕包括大家关注的有关“工业4.0”以及中国智能制造在内的内容进行了不同的解读、介绍,不再仅仅是停留在智能制造概念上的谈论,而是真正把概念付诸实践,共同为处于制造业转型期的国内制造企业提供最具前瞻性的意见及解决方案。

值得一提的是,本届论坛特邀了来自航空航天和模具行业的两位核心读者,针对具体行业,提出对智能制造的不同需求。上海航天设备制造总厂数控加工工艺研究室主任刘晓博士,为大家介绍了企业在航天智能制造领域的探索。此外,对国产数控装备在航天示范应用中出现的问题进行了分析,并提出了航天制造领域对自主可控装备、系统与智能制造的需求。另一位是来自青岛海尔模具有限公司智能制造总监姚玉峰先生,介绍了家电行业转型的必要性及家电行业工业4.0的本质,分享了家电模具生产过程可视化及设备关键部件预测性维护,满足客户大规模定制的相关实例。

在工业 4.0 和中国制造 2025 的导引下,机床产业无疑会不断走上智能制造和高端制造的新潮流,在促进产业升级中追求更 加高效的制造生态和服务型制造模式。当下是一个工艺与市场更加分化,专特精更有机遇、智能化网络化步伐加快的机床新时代,去产能、强供给与技术创新驱动齐飞,需要结合国家战略政策与企业发展战略的紧密互动,挖掘新消费需求的升级和可持续发展 路径。为此借 CIMT2017 召开之际,MM《现代制造》还携手华夏幸福基业股份有限公司举办了“机床行业发展趋势座谈会”,邀请制造行业龙头企业畅谈未来,共叙实体经济转型升级之路和服务创新策略。

智能制造会给未来的社会及制造业带来什么变化呢?相信通过论坛和机床座谈会大家对于智能制造落地解决方案都了一定的了解。智能制造最终的目的是提高生产率和质量,降低制造成本,使制造业的社会化分工更专门和明确化。工业大变革的浪潮已势不可挡,制造业的竞争将更加激烈。但我们相信,智能制造必将引领我国制造业奔向美好明天,成就新的世界制造强国。

企稳回升 趋稳向好 逆势调整 转型升级

机床(英文名称machine tool)是指制造机器的机器,亦称工作母机或工具机,简称机床。现代机械制造中加工机械零件的方法很多,除切削加工外,还有铸造、锻造、焊接、冲压、挤压等,但凡属精度要求较高和表面粗糙度要求较细的零部件,一般都需要在机床上用切削的方法进行最终加工。因而,机床工具行业是关系国民经济和国防安全的战略性、基础性行业,是工业化、现代化建设的发动机和动力源,是一个国家综合国力和技术水平的重要体现。当今世界制造强国无一不是机床工具制造强国。只有在机床工具行业具备优势,才能在综合国力竞争中占据更有利的战略地位。固本培元,强基振兴,加快发展机床工具行业,是提高综合国力、建设制造强国的必经之路。

一、实施《中国制造2025》,机床工具行业的战略地位再次提升

当前,新一轮科技革命和产业变革方兴未艾,全球制造业竞争格局正在重塑,同时中国经济进入以结构调整、转型升级、提质增效为主基调的新常态。在新的时期,面对新的机遇和新的挑战,党中央、国务院审时度势加强统筹规划和前瞻部署,于2015年5月正式发布实施制造强国战略的第一个十年的行动纲领——《中国制造2025》。

《中国制造2025》提出加快发展新一代信息技术产业、高档数控机床和机器人、航空航天装备、海洋工程装备及高技术船舶、先进轨道交通装备、节能与新能源汽车、电力装备、农机装备、新材料、生物医药及高性能医疗器械等十大重点领域。《中国制造2025》的五大工程之一——高端装备创新工程,也将高档数控机床列为重点发展的高端装备领域,明确要求开发一批标志性、带动性强的重点产品和重大装备,提升自主设计水平和系统集成能力,突破共性关键技术与工程化、产业化瓶颈,组织开展应用试点和示范,提高创新发展能力和国际竞争力,抢占竞争制高点。继2009年中国开始实施高档数控机床与基础制造装备科技重大专项之后,机床工具行业在国民经济发展和国防建设中的重要地位再次大幅提升。

二、中国机床工具行业企稳回升态势逐步显现

21世纪前十年,中国机床工具行业快速增长。但自2011年开始,中国机床工具行业进入以结构调整、转型升级为主基调的新发展阶段,增速下行压力增大,甚至出现负增长。

自2015年5月正式发布和实施《中国制造2025》以来,虽然中国机床工具行业仍在低位徘徊一年左右,但自2016年6月份起,全行业止跌趋稳,并不断夯实回升基础和增强回升动力,企稳回升态势逐步显现。2017年1-2月机床工具、金属切削机床、金属成形机床主营业务收入分别同比增长7.7%、1.1%和13%,增速分别较2015年1-5月回升4.8个、1.8个和5.8个百分点。

在主营业务收入增速回升的同时,经济效益也不断改善。2017年1-2月机床工具、金属切削机床、金属成形机床利润总额分别同比增长25.8%、78.4%和32.7%,增速分别较2015年1-5月回升16个、31.9个和16.6个百分点。

三、中国机床工具行业加快结构调整和转型升级

智能制造是《中国制造2025》的主攻方向。《智能制造发展规划(2016-2020年)》明确提出面向《中国制造2025》十大重点领域,研发高档数控机床与工业机器人、增材制造装备、智能传感与控制装备、智能检测与装配装备、智能物流与仓储装备等五类关键技术装备,集成开发一批重大成套装备,推进工程应用和产业化。在智能制造工程的引导下,我国制造业正在广泛掀起一股发展智能制造的热潮。智能制造的快速发展,不但为机床工具行业特别是高档数控机床行业创造了新的市场空间,而且有利于倒逼机床工具行业结构调整、转型升级。

中国机床工具企业在市场需求低迷时苦炼内功、深化调整,转型升级成效有所显现。数控金属切削机床产品占金属切削机床产量的比重由2015年的30.86%提高到2016年的31.93%(2017年1-2月数控金属切削机床产品占金属切削机床产量的比重有所回落,其原因可能为季节性因素所致)。

图1 2015年1-2月至2017年1-2月中国数控金属切削机床产量占金属切削机床产量的比重(%)

与此同时,在国内机器人市场需求旺盛的带动下,2016年1-2月至2017年1-2月,中国工业机器人行业保持快速增长,除2016年1-2月、一季度工业机器人累计产量同比增速低于20%外,之后各月累计产量同比增速均保持在30%左右。

四、当前中国机床工具行业发展面临的主要问题及对策建议

虽然中国机床工具行业经过十多年的稳定发展, 产业规模持续迅猛增长,自2009年以来,中国连续8年成为世界金属加工机床第一生产大国、第一消费大国和第一进口大国,并形成了完整的机床工具制造体系,产品链和配套链齐全、完善,创新能力不断提高,并涌现了一批大型骨干企业及一大批有特色的中小企业。但总体而言,中国机床工具行业大而不强,呈现出“增长快而不优、产品多而不精”的格局,存在若干亟待解决的问题:一是中高档产品竞争力不强,进口机床数量和金额居高不下;二是共性技术、基础工艺研发不足,自主创新能力仍然薄弱;三是数控系统和功能部件发展严重滞后;四是低端产品生产能力过剩,国内机床工具行业的“同质化”的恶性竞争频频出现;五是传统用户的机床保有量巨大、且在役时间较短,传统领域机床市场需求下行压力可能持续增大;六是中国机床工具企业正面临跨国公司高中档机床与台韩企业中档机床的“双重夹击”,经营压力不断增大。

今后一段时期,建议中国机床工具行业认真贯彻落实《中国制造2025》,推动调结构促转型增效益,加快提升核心竞争力,为建设制造强国提供重要支撑。具体对策建议如下:

一是加强重大工程的引导。组织实施好高端装备创新、智能制造等重大工程,加快高档数控机床和机器人研制开发与推广应用,提升自主设计水平和系统集成能力,引领产业向价值链高端迈进,保障我国国民经济发展和国防建设的重大需求。

二是大力增强自主创新能力。依托制造业创新中心建设工程,尽快建设高档数控机床、工业机器人等重点领域国家创新中心。继续抓紧实施高档数控机床与基础制造装备国家重大科技专项,加强关键核心技术攻关。

三是搭建共性技术服务平台。建立机床工具行业主配牵手平台,形成整机与数控系统、功能部件协同研制、利益共享的一体化组织模式。推进数控系统、刀具等核心基础部件的研发和示范推广。加强检测试验验证平台建设,提升试验检测评价能力建设。

四是加快补齐行业短板。依托重大短板装备专项工程,进一步加大在机床工具领域的补短板工作力度,整合各方资源,集智攻坚,重点突破一批机床短板装备并实现示范推广,不断提升专用机床装备的自主供给能力。

[1]本文数据均来自国家统计局,或根据国家统计局数据计算。

[2]国家统计局自2016年2月开始公布工业机器人产量数据。

Papierlos in die Zukunft – digitale Dokumente im Straßengüterverkehr

Wie sich das traditionelle Dokumentenmanagement buchstäblich „verzettelt“

Die Zettelwirtschaft beginnt, bevor die Ware auf der Straße ist. Selbst wenn Angebote telefonisch eingeholt werden, bedarf spätestens die Angebotsbestätigung der Schriftform. Damit endet das Zettelwesen nicht: Das verladende Unternehmen erstellt einen Lieferschein, die Spedition den Frachtbrief – üblicherweise in dreifacher Ausfertigung. Nach der Verladung erhält der Fahrer den Lieferschein. Auf dem Frachtbrief wird die Verladung dokumentiert. Eine Ausfertigung des Frachtbriefs bleibt an der Beladestelle mit Unterschriften des Verladers und des Fahrers.

Um sich unterwegs als rechtmäßiger Transporteur ausweisen und später die Ablieferung dokumentieren zu können, nimmt der Fahrer den Lieferschein sowie zwei Ausfertigungen des Frachtbriefs mit. Die erfolgte Entladung der Waren wird durch Unterschrift oder Stempel vom Lademeister bestätigt. Eine Ausfertigung des Frachtbriefs bleibt mit den Unterschriften des Fahrers, Versenders und Empfängers an der Entladestelle. Der Fahrer behält die dritte Ausfertigung des Frachtbriefs und des Lieferscheins. Nachdem der Fahrer seine Tour beendet hat, bringt er alle Frachtbriefe und Lieferscheine ins Disponenten-Büro. Erst wenn alle Dokumente mit Unterschriften vorliegen und der Beweis da ist, dass die Ware ausgeliefert wurde, kann die Rechnung erstellt werden.

Frachtbrief und Lieferschein müssen nun noch eingescannt werden. Die Originale gehen mit der Rechnung per Post an den Auftraggeber. Dieser scannt Rechnung, Lieferschein und Frachtbrief ebenfalls ein und erstellt nun seinerseits eine Rechnung, die er – meist zusammen mit den Lieferpapieren – an seinen Auftraggeber sendet. Sobald der die Rechnung per Post erhalten hat, beginnt das Zahlungsziel. Der Auftraggeber ordnet die Rechnung seinem internen Auftrag zu, scannt diese ein und bewahrt die Rechnung gesetzeskonform zehn Jahre lang auf. Ächz!

Papierloses Dokumentenmanagement spart Zeit

Im papierlosen Dokumentenmanagement von digitalen Speditionen wird auf Zettelwirtschaft verzichtet. Alle relevanten Papiere werden digital als „elektronisches Dokument“ geführt. Das ermöglicht es, schon bei der Auftragsbuchung Zeit zu sparen. Angebote müssen nicht per Telefon, Fax oder Mail eingeholt werden, sondern können per Knopfdruck gebucht werden. Auch Speditionsverträge lassen sich im gleichen System anpassen und versenden. Der Frachtführer kann den Auftrag per Knopfdruck auf den Fahrer disponieren. Dieser erhält alle auftragsrelevanten Details auf sein Smartphone.

Digitale Logistik ermöglicht Echtzeit-Informationsfluss

Über ein digitales Transportjournal sind Verlader, Spediteur und Frachtführer stets über den aktuellen Status des Transportes informiert, ohne Papiere hin- und herschicken zu müssen. Alle Transportdokumente, inkl. Anmerkungen über Beschädigungen, sind online einsehbar. An den Ladestellen werden die Ladezeiten sowie der Gefahrenübergang per digitaler Unterschrift bestätigt. Sobald diese Unterschriften getätigt sind, sind sie im Transportjournal zu sehen. Der Transport wird so komplett transparent. Telefonate, um Ankunft und Ort der Ware zu erfragen, werden überflüssig.

Wurde die Entladung bestätigt, erfahren Verlader und Spedition von der Auslieferung in Echtzeit. Die Rechnung für den Transport kann nun ohne Verzögerung erstellt und dem Frachtzahler digital zugesendet werden. Beschädigungen oder Änderungen in der Verlademenge können vom Frachtführer schriftlich und per Foto im digitalen Transportjournal kenntlich gemacht werden. Das gleiche Prozedere gilt für den Palettentausch: Auch dieser wird an den Be- und Entladestellen digital dokumentiert. Das separate Ausfüllen eines Palettenscheins entfällt.

Das papierlose Dokumentenmanagement punktet auch bei der Archivierung

Im traditionellen Dokumentenmanagement kostet die Archivierungspflicht enorme Ressourcen. “Digital” ist auch in diesem Punkt wesentlich effektiver: Alle Dokumente werden mit Dokumentenvorlagen erstellt und müssen nicht mühsam eingescannt werden. Auch wechselnde Mitarbeiter können so Transportdokumentationen, die sie zuvor nicht betreut haben, leicht finden und bearbeiten.

Rechtliche Bedingungen: digital gleich analog

Bei innerdeutschen Verkehren ist nach HGB § 408 Absatz 3 ein elektronischer Frachtbrief dem analogen Frachtbrief gleichgestellt. Wer ein papierloses Dokumentenmanagement nutzt, muss keinen ausgedruckten Frachtbrief mitführen. Das gilt allerdings nicht für den CRM-Frachtbrief, der im grenzübergreifenden Straßengüterverkehr Pflicht ist. Zwar wird von Interessensgruppen bereits seit langem ein digitaler CRM-Frachtbrief gefordert, doch zeigt die Politik bislang wenig Neigung dazu.

Wertmessung: Wie finde ich das richtige statische Analysetools

Mit der bestehenden Technologie und heute verfügbaren Ressourcen ist es unvermeidbar, dass diese Tools nicht perfekt funktionieren – bei den meisten nicht trivialen Programmen kann praktisch kein Tool alle Bugs finden (z.B. gibt es False Negatives), und alle dieser Tools könnten auch Probleme in fehlerfreiem Code melden (z.B. False Positives).

Beim Einsatz bzw. der Kaufentscheidung sollten Anwender einen Kompromiss treffen, um die Vorteile des Tools zu maximieren. Viele Faktoren beeinflussen diese Entscheidung. Dieser Beitrag beschreibt ein Modell, mit dem Anwender den Vorteil eines statischen Analysetools messen und dessen beste Konfiguration einschätzen können. Gleichungen aus dem Modell ermöglichen den Nutzern den Vergleich mit Tools, die Warnungen einfach nur zählen.

Terminologie

Recall – die Fähigkeit echte Fehler (True Positives) aufzufinden. Wird definiert als Wahrscheinlichkeit, dass ein Tool einen Fehler findet. Ein Werkzeug mit 100% Recall findet alle Fehler und gilt als zuverlässig.

Precision  – die Fähigkeit False Positives auszuschließen. Bezeichnet die Wahrscheinlichkeit, dass ein Ergebnis einem echten Fehler entspricht.

Precision ist einfach messbar, sobald Warnungen die Sichtung durchlaufen haben, aber die  genaue Messung des Recalls ist wegen der unbekannten Anzahl an False Negatives schwierig. Diese setzt voraus, dass man genau weiß, wie viele Fehler der Code unter Analyse enthält.

Wichtig ist: Precision und Recall können in Fehlerklassen enorm variieren, sogar für ein einzelnes Tool. Ein Werkzeug, das Buffer Overruns ausgezeichnet entdeckt, muss Resource Leaks nicht gezwungenermaßen sehr gut auffinden.

Faktor Mensch

Statische Analysetools sind so gestaltet, dass sie Ergebnisse erzielen, die in Folge eine Sichtung durch Menschen durchlaufen. Es ist möglich, die menschliche Arbeitslast durch automatisch priorisierte Warnungen je nach Risiko zu reduzieren. Ist dies einmal erfolgt, bestehen die verbleibenden Warnungen immer noch aus einigen True und False Positives,  die sich nur mit menschlicher Einschätzung trennen lassen.

Das Modell

Viele Faktoren tragen zur Wirtschaftlichkeit von statischen Analysetools bei, und die Beziehungen zwischen ihnen sind nicht immer einfach. Als grobe Annäherung versucht das nachfolgend vorgestellte Modell, die wichtigen Aspekte des Prozesses festzuhalten. (Um es nützlich und zugleich einfach zu halten, sind einige Feinheiten nicht berücksichtigt.)

Die Funktion f(P) zeigt die Precision eines Tools (Wahrscheinlichkeit, dass ein True Positive korrekt erkannt wird). Die Effektivität (effectiveness) eines Tools, z.B. die Anzahl der entdeckten und als solche erkannten echten Fehler, ist demnach:

            N × R × f(P)

Diese Definitionen zeigen auf, wie gut einige Beispieltools echte Fehler finden.

Betrachten wir nun drei hypothetische Tools (oder Konfigurationen desselben Tools), die einen Platz im erwähnten Recall-Genauigkeitsspektrum einnehmen:

Tool A findet Fehler einigermaßen gut, mit einem Recall von 60%. Bei der Hälfte der gemeldeten Recalls handelt es sich um False Positives.

Tool B arbeitet mit einer Precision von 80%, ist also sehr gut bei der Vermeidung von False Positives; aber es findet nur 30% der echten Fehler.

Tool C hat einen Recall von 95%, bietet also äußerst gute Fehlerfindung, aber seine Precision beträgt nur 10%.

Nützlich ist auch die Betrachtung von zwei anderen Fällen: Das ‚mythologisch perfekte‘  Tool, das alle Fehler ohne False Positives findet, und der fehlende Einsatz eines statischen Analysetools. Abbildung 2 fasst die Eigenschaften der Tools zusammen:

  Tool A Tool B Tool C No Tool Perfect Tool
Recall 60% 30% 95% 0% 100%
Precision 50% 80% 10% 0% 100%
Costs 20.000$ 20.000$ 20.000$ 0$ 0$

 

Nun nehmen wir an, dass die Anzahl der Fehler, die von anderen Methoden nicht entdeckt wurden, N=100 ist. Abbildung 3 zeigt die Rohergebnisse der Tools:

Entscheidend ist die Interpretation dieser Rohergebnisse: Wie erwähnt werden einige echte Defekte nicht als solche erkannt. Abb. 4 zeigt zwei Balkendiagramme der Fehler, die in der Anwendung im linearen (links) und kubischen (rechts) Modell zur Erkennung von True Positives verbleiben.

Daraus ergibt sich, dass ein Sweet Spot zwischen Precision und Recall existiert. Tool A hatte eine schlechtere Precision als Tool B und einen schlechteren Recall als Tool C, aber im Einsatz bleiben weniger Fehler in der Anwendung.

Wirtschaftlichkeit

Wichtig im Hinblick auf die wirtschaftlichen Aspekte des Prozesses sind folgende Faktoren:

Wahrscheinlichkeit und Kosten eines durch einen Fehler hervorgerufenen Zwischenfalls Nicht alle Software-Fehler und Sicherheitsschwachstellen führen zu ernsten Problemen, sondern viele bleiben bis zu ihrer Entfernung im Zuge einer Routinewartung unentdeckt. Das lässt sich modellieren durch die Zuordnung einer Wahrscheinlichkeit, dass ein Fehler einen Zwischenfall im Lebenszyklus eines Produkts auslöst: Verursacht ein Fehler einen Zwischenfall, führt der Umgang damit zu Kosten, die enorm variieren können. Die Zahlen in Abb. 5 basieren auf einer Wahrscheinlichkeit von 5% und beispielhaften Ausgaben von 40.000 US-Dollar (USD) für den Zwischenfall.

Die Zeit für die Fehlerkorrektur. Unabhängig davon, ob ein Fehler zu einem Zwischenfall führt, entstehen Entwicklungskosten für seine Reparatur. Früh entdeckte Defekte sind wesentlich günstiger zu beheben als die zu einem späteren Zeitpunkt gefundenen, weil das Produkt u.U. neu getestet werden muss. In den unten angeführten Kalkulationen braucht es 4 Stunden, um einen Fehler früh im Entwicklungszyklus zu reparieren, gegenüber 20 für dessen Korrektur nach dem Einsatz. Die Zahlen basieren auf einem 2002 NIST Report [1].

Die Zeit für die Sichtung von Warnungen. Die Warnmeldung eines statischen Analysetools zu sichten, ist zeitintensiv. Der Großteil geht schnell, aber schwierige Reports können ausführliche Passagen über den Code, mehrere Umleitungen und komplexe Beziehungen zwischen Variablen enthalten. Erfahrungsgemäß dauert eine Triage durchschnittlich 10 Minuten pro Warnung [6].

Entwicklungsaufwand. Schlägt hier mit USD 75/Std. (einschl. Gemeinkosten) zu Buche.

Kosten für die Tool-Entwicklung. Darin eingeschlossen sind die Ausgaben für den Kauf und den Einsatz des Tools auf dem Code. Im Modell werden Tools A, B und C mit USD 20.000 angesetzt; keine weiteren Kosten fallen an.

Mit diesen Variablen als Input setzt sich der Preis für den Einsatz eines Tools zusammen aus dem Kaufpreis und der Bereitstellung, Engineeringaufwand für die Sichtung des Berichts und die Behebung der gefundenen Fehler. Dazu kommen die Ausgaben für den Umgang mit Fehlern, die vom Tool nicht gefunden werden – vom Auffinden bis zur Handhabung aller ausgelösten Zwischenfälle.

Um den Nutzen des Tools zu bewerten, eignet sich der Vergleich zwischen diesen Kosten und jenen aus dem Umgang mit entdeckten Fehlern, wenn kein Tool zum Einsatz gekommen wäre. Unter der Annahme des kubischen Modells zur Erkennung von True Positives zeigt Abb. 5 die Kosten-Aufschlüsselung und Vorteile.

Wieder bietet das Tool, das eine vernünftige Balance zwischen Precision und Recall erzielt, den größten Nutzen für den Einsatz. Tool A ist vorteilhafter, auch wenn es nur rund halb so viele echte Fehler wie Tool C gefunden hat, und berichtet acht Mal mehr False Positives als Tool B. Interessant ist auch, dass Tool C knapp unter dem Break-Even Point steht, auch wenn es den höchsten Recall erzielt.

Die jeweilige Reihenfolge der Tools ist relativ unabhängig von den tatsächlichen Werten bei Kosten und Wahrscheinlichkeit eines Zwischenfalls, vorausgesetzt die Aufwendungen für einen Zwischenfall überschreiten die Ausgaben zur Behebung der vom Tool gefundenen Defekte. In einem solchen Extremfall ist die kosteneffektivste Strategie, kein Tool einzusetzen.

Dieses Modell bestätigt, dass der Vorteil des Einsatzes eines strategischen Analysetools von dessen Fähigkeit abhängt, echte Fehler zu entdecken, die in der Folge als solche erkannt werden. Auch wenn die Sichtung der Warnungen Kosten kreiert, sind diese relativ niedrig verglichen mit denen eines Zwischenfalls. Somit ist die Effektivität eines Tools, z.B. seine Fähigkeit echte Fehler zu entdecken, die als solche erkannt werden, eine gute Annäherung an seinen Gesamtnutzen. Zu beachten ist aber, dass dies Kenntnis über den Wert eines Recalls voraussetzt, der – wie erwähnt – schwer zu fassen ist.

Statische Analysetools sind wirkungsvoll, um ernste Programmierfehler und Sicherheitslücken zu finden. Weil sie aber keine Verifzierungstools sind, könnten sie manche Probleme übersehen und False Positives melden. Precision und Recall scheinen eng aneinander gekoppelt, so dass eine höhere Precision zu weniger Recall führt und umgekehrt. Bei den meisten Tools können Nutzer die Analyse selber nach eigenen Vorstellungen konfigurieren. Wichtig ist, dass die Anzahl der False Positives niedrig ist, weil zu viele ein Tool unbrauchbar machen, unabhängig von der Ausgereiftheit der darunter liegenden Analyse. Dies sollte mit dem Risiko abgewogen werden, dass die Analyse keine echten Fehler findet.

Normalerweise bevorzugen Nutzer Konfigurationen mit niedrigen False Positives, aber das hier gezeigte Modell zeigt, dass der Sweet Spot, der den Vorteil des Tooleinsatzes maximiert, eine weit höhere False Positive Rate toleriert, solange das Tool auch mehr echte Fehler findet. Nutzer können mit diesem Modells rationale Überlegungen über die Einführung der statischen Analyse in ihren Unternehmen anstellen. Das Modell ist problemlos anwendbar, weil es nur einfache Zählungen von True und False Positives benötigt.

Autor: Dr. Paul Anderson, Vice President Engineering, GrammTech, Inc.

 

Bilder:

Abb 2 – Eigenschaften der Beispieltools

Abb 3 – Die groben Ergebnisse aus den Beispieltools

Abb 4 – Anzahl der Fehler, die  in der Anwendung zur Erkennung von True Positives verbleiben, links im linearen und rechts im kubischen Modell. Ganz eindeutig sind weniger Fehler besser.

Abb. 5 – Kostenaufstellung für die Beispieltools (links) und der Vorteil aus dem Einsatz jeden Tools, verglichen mit keinem Gebrauch eines Tools (rechts). Die Zahlen sind aus den vorhergehend diskutierten Werten abgeleitet.

 

 

Referenzen

  1. The Economic Impacts of Inadequate Infrastructure for Software Testing, 2002, Research Triangle Institute, National Institute of Sci­ence and Technology, Washington, DC RTI Project No. 7007.011.
  2. Jetley, R. P., Anderson, P., and Jones, P. L., Static Analysis of Med­ical Device Software using CodeSonar. In Static Analysis Workshop (SAW). 2008. Tucson, AZ: ACM Press.

Durch integrierte Planung neue Märkte erschließen

„Neue alte“ Verkaufskonzepte im Consumer-Geschäft beschäftigen derzeit die Medien: Wo einst noch ausnahmslos der Online-Handel als Gefahr für den Einzelhandel deklariert wurde, gehen nun ausgerechnet die Gründer der großen Online-Shops in den persönlichen Verkauf zurück. Doch natürlich nicht gänzlich, sondern sie entwickeln eine Kombination aus „offline“ und „online“ für mehr Umsatz. Interessanterweise war das so genannte Multi-Channel-Retailing, also die Nutzung mehrerer unterschiedlicher Vertriebskanäle, eigentlich das Heilsversprechen an den stationären Handel, um dem Wettbewerb aus dem Internet zu trotzen. Nun schlägt das Online-Imperium offensichtlich zurück. Die Rolle des Einzelhandels ist langfristig gesehen aus beiden Perspektiven die gleiche: Die stationären Läden werden zum „Showroom“. Das bedeutet, dass im Geschäft lediglich getestet wird – gekauft wird online. Mit einleuchtendem Vorteil: Die Lagerung in den Filialen fällt beinahe vollständig weg. Einem Beispiel der PwC-Strategieberatung Strategy& zufolge kann ein Denim-Jeans-Geschäft so seine lagerhaltigen Hosen in der Filiale von 3.640 Stück auf 220 reduzieren. Das Bestandsmanagement in den Hauptlagerorten, aus denen die Ware verschickt wird, wird dadurch folglich komplexer.

Ein solcher Strategie-Wechsel in Unternehmen bedeutet enormen Planungsaufwand für die Supply Chain. Wessen Lieferkette nicht bereits vor einem solchen Schritt wie ein Uhrwerk läuft, wird vor immense Herausforderungen gestellt. Ebenso sind zunehmende globale Vernetzung und Individualisierung von Produkten komplexitätssteigernd für die Planung zukünftiger Verkäufe. Daher ist es heute wichtiger denn je, eine vernünftige Planung auf Basis verlässlicher Daten zu haben und alle an der Supply Chain beteiligten Teilprozesse zusammenzuführen.

Ziele kennen, Menschen zusammenbringen

Eine verlässliche Absatzplanung steht am Beginn der Planung und ist als elementarerer Bestandteil im Supply Chain Management anzusehen. Die Qualität der Absatzplanung entscheidet über die Ausschöpfung der Verkaufspotenziale, hat Einfluss auf alle Folgeprozesse und damit entscheidenden Einfluss auf den Unternehmenserfolg. Damit das Ergebnis einer Planung aber nicht nur am Markt orientiert, sondern auch wirtschaftlich und vor allem umsetzbar ist, müssen sowohl alle Abteilungen gemeinschaftlich agieren als auch die Planung auf übergreifender Ebene strategisch stattfinden.

Obwohl dies bekannt ist, ist in vielen Branchen die Planung in „Insellösungen“ gängig. Nicht nur in der persönlichen Kommunikation fließen die Informationen über interne Grenzen hinweg spärlich, sondern auch Medienbrüche in einer IT-Landschaft verhindern einen angemessenen Informationsfluss.

Im Sinne einer integrierten Planung der gesamten internen Supply Chain gilt es nun, die Informationen von der Vertriebs- bis zur Produktionsplanung zusammenzuführen, Interdependenzen zu erkennen und Synergien zu nutzen – für eine auf Unternehmensziele ausgerichtete Supply Chain. Dazu sollten zunächst alle Teilziele bekannt sein: Der Vertrieb muss seine Umsatzpotenziale kennen, die Produktion ihre Kapazitäten, das Bestandsmanagement alle Ressourcen und die Geschäftsleitung ihre Strategie. Da jede Abteilung unterschiedliche Dinge fokussiert, sollte eine Planung auch individuelle Planungsebenen ermöglichen: Der Vertrieb plant zum Beispiel möglicherweise auf Ebene der Kundensegmente, während sich die Beschaffung auf Artikel und Artikelgruppen konzentriert.

Eine Frage der Kombination

Die Zusammenführung von planungsrelevanten Abteilungen auf einheitlichem IT-Grund und eine flexible und individuelle Planung sind für ein verlässliches Ergebnis jedoch noch nicht genug. Intelligente Algorithmen liefern einerseits zusätzlich verlässliche Prognosen, damit eine Planung letztlich nicht nur auf dem „Bauchgefühl“ der Planer basiert. Andererseits erreichen sie auch ein Gesamtoptimum durch die ganzheitliche Betrachtung und Simulation von strategischen Fragestellungen, zum Beispiel: „Wie verändert sich das Produktionsprogramm bei zusätzlicher Kapazität?“ Oder, wie im Jeans-Beispiel: „Wo müssen welche Bestände gelagert werden, wenn die tatsächliche Distribution hauptsächlich von einem zentralen Standort aus geschieht?“.

Dem Wandel entgegen

Nicht nur die großen Online-Händler, sondern Unternehmen jeglicher Größe und Branche sind gezwungen, den Anforderungen der heutigen Zeit erfolgreiche Lösungen gegenüberzustellen, um am Markt Bestand zu haben. Strategiewechsel, die Internationalisierung und zunehmend digitalisierte Prozesse gehen damit einher. Damit diese Veränderungen gelingen, ist eine integrierte, fundierte und intelligente Supply Chain Planung nötig. Eine integrierte Planung  ist hierfür zwingend notwendig. Isolierte Pläne pro Abteilung gilt es zu einer übergreifenden strategischen Planung zusammenzuführen. Algorithmen unterstützen bei der Festlegung eines optimalen Plans.

Mit Cloud-Plattformen die Wertschöpfung steigern

Mehr denn je sind Unternehmen heute gefordert, ihre Prozesse und Produkte schnell an neue Kundenansprüche anzupassen. Die Digitalisierung hat diese Entwicklung verschärft, bietet aber auch einen Lösungsansatz. Mit der Vernetzung zum Kunden ergibt sich eine neue Datenbasis, um veränderte Anforderungen zu erkennen und zu verstehen. So sind Unternehmen in der Lage, ihre Produkte und Service bedarfsgerecht zu digitalisieren. Allerdings geht damit gleichfalls ein größeres Datenvolumen und eine höhere Komplexität der IT-Landschaft einher. Unternehmen suchen daher nach möglichen Synergie- und Effizienzpotenzialen, um ihre Prozesse zu verschlanken. Doch die Digitalisierung bietet der Industrie mehr als nur Einsparungspotenziale innerhalb der bestehenden Strukturen: Den Freiraum und die Technologie, neue Geschäftsmodelle für ihre Produkte anzubieten, die über deren Entwicklung, Fertigung und Auslieferung an den Kunden hinausgehen. Ein Hersteller von Heizungsanlagen hat heute beispielsweise die Möglichkeit, ergänzende Serviceleistungen wie die Steuerung der Anlage für das Smart Home oder automatisierte Wartungsmaßnahmen anzubieten. Darüber hinaus lassen sich die Daten aus dem Einsatz beim Kunden auch für die Weiterentwicklung des Produktes nutzen.

Hybrid Cloud als zentrale Plattform

Die neuen Service-Modelle erfordern jedoch ebenfalls offene Systeme. Das meint unter anderem Schnittstellen zu nicht systemnahen Diensten oder anderen unabhängigen Internet of Things (IoT) Plattformen. Die Hybrid Cloud bietet alle Voraussetzungen für die Erweiterung der Geschäftsmodelle. Sie ermöglicht die Integration externer Dienste, deren Nutzung unabdingbar ist. Natürlich ist die Hybrid Cloud auch mit Herausforderungen verbunden. Die Einbindung der Public Cloud erfordert umfangreiche Security-Maßnahmen. Zusätzlich bedarf die Integration anderer IoT-Plattformen und externer Dienste viel Know-how.

Nichts desto trotz ist das Potenzial der Hybrid Cloud groß. Die Digitalisierung der Fertigungsprozesse eröffnet den Unternehmen Raum für Innovationen, die mit der Hybrid oder Public Cloud laufen lernen. Grundlage dafür sind die gewonnenen Daten, die bereits, häufig im Rahmen eines Product Lifecycle Managements, Nutzung finden. Dabei handelt es sich um Geo- und Sensor-Daten, Regel- und Steuerinformationen. Sie fließen in die Weiterentwicklung der Produkte ein und optimieren Betriebsabläufe. Die aktive Steuerung von Anlagen, Asset Tracking oder eine verlässliche Vorhersage, wann der Austausch von Ersatzteilen ansteht, ist heute bereits möglich. Das erfordert allerdings die Anbindung der Anlagen an die Systeme von Zulieferern und Dienstleistern sowie Schnittstellen zwischen Software-Systemen. Hier kommt die Hybrid Cloud ins Spiel. Sie ermöglicht die Integration dieser externen Dienste und weiterer Cloud-Plattformen aus dem Internet of Things ebenso wie die Anbindung von Security Devices.

Weiter denken

Welches Modell das richtige ist, hängt von den Zielen des Unternehmens ab. Grundsätzlich ermöglicht die Hybrid Cloud jedoch das Schaffen offener Systeme, was ein entscheidender Vorteil gegenüber Wettbewerbern ist. Dadurch sind die Produktingenieure in der Lage, ihr geballtes Know-how in die Industry of Things zu transferieren. Wer weiter denkt und den Schritt in die Hybrid Cloud wagt, wird den Wettbewerbern voraus sein.

vSphere 6.5 – vCenter effizient nutzen

Die Weboberfläche rufen Sie über https://<IP-Adresse oder FQDN der Appliance>:5480. Melden Sie sich mit dem Benutzer „root“ und dem Kennwort an, das Sie bei der Einrichtung der Appliance angegeben haben.

Über den Menüpunkt Update rufen Sie „Nach Updates suchen“ auf. Dadurch verbindet sich die Appliance mit dem Internet und überprüft, ob eine neue Version zur Verfügung steht. Wählen Sie für die Suche nach Updates im Internet die Option „URL Prüfen“. Die URLs konfigurieren Sie wiederum über „Einstellungen“.

Hat die Appliance Updates gefunden, können Sie diese mit „Updates installieren“ auf der Appliance integrieren. Der Status dazu ist im Fenster zu sehen.

Sie können Patches natürlich auch als ISO-Datei herunterladen und bei der Update-Suchen-Funktion das Laufwerk auswählen, über das Sie die ISO-Datei zur Verfügung gestellt haben. Updates für vCenter 6.5 laden Sie, wie die Updates für ESXi-Hosts, über die URL http://www.vmware.com/patchmgr/download.portal herunter.

Verbinden Sie die ISO-Datei als virtuelles CD-Laufwerk über die Einstellungen der VM der Appliance. Manchmal stellt VMware mehrere ISO-Dateien, mit verschiedenen Updates zur Verfügung. Nachdem Sie die Aktualisierungen der ersten ISO-Datei installiert haben, verbinden Sie die zweite ISO-Datei und starten den Befehl erneut. Nachdem alle Updates installiert sind, starten Sie die Appliance neu. Sobald Sie alle Aktualisierungen installiert haben, und der Server neu gestartet ist, sehen Sie im Konsolenfenster und im Web-Client der Appliance die neue Version der Appliance.