Technologiescouting eines Inkubators

Die Startups haben die Old Economy erobert. Industrieunternehmen scannen den Markt nach innovativen Geschäftsideen, große Technologiekonzerne bauen Ihre eigenen Startup-Inkubatoren auf und die Wirtschaftsnachrichten sind gespickt mit Exit-Meldungen junger Unternehmen.

Problem

  • Der Startup-Inkubator eines der größten deutschen Industriekonzerne war mit der technologischen, monetären und organisationalen Rendite seines Startup-Programms nicht zufrieden.
  • Ziel war es als Startup-Investor neue Strukturen für eine unabhängige Technologieentwicklung zu schaffen, die bei erfolgreichen Innovationen zum Unternehmenserfolg beitragen.
  • Da die aufgenommenen Startup-Ideen nicht den gewünschten Erfolg brachten, beauftragte die Konzernführung  Atheneum, um die Best-Practices für ein erfolgreiches Technologiescouting zu identifizieren.

Lösung

  • Atheneum interviewte in einem ersten Schritt Experten, die außerhalb der Unternehmen an Hochschulen / Forschungseinrichtungen tätig waren, die vielversprechende Technologien identifizierten.

  • In einem zweiten Schritt interviewte Atheneum Experten zum Technologiescouting-Prozess in anderen großen Unternehmen, um Best-Practice-Beispiele zu generieren und in die neue Strategie zu integrieren.

  • Die gewonnen Erkenntnisse fasste das Expertennetzwerk als Strategiepapier zusammen, welches der Unternehmensführung alsEntscheidungsgrundlage diente.

Ergebnis

  • Der Report, der Expertenmeinungen und topaktuellen Informationen zu Marktinnovationen lieferte, identifizierte vielversprechende Technologieentwicklungen im Geschäftsbereich des Auftraggebers.

  • Darüber hinaus setzte der Inkubator von nun den Fokus auf Technologien in sehr frühen Phasen und wich damit vom typischen Investitionsstrategie ab, in bereits gegründete Start-ups zu investieren.

  • Der Erfolg der Neuausrichtung aufgrund der expertenbasierten Marktforschung äußerte sich in der Aufnahme von innovativen Technologien, von denen zwei bereits nach einem halben Jahr in die Konzernumgebung integriert werden konnten.

Funktionale Integration beim MINI Clubman

Atheneum: Steigen wir ein mit je drei prägnante Antworten auf Fragen, die Entscheidungen im Bereich Design Thinking beeinflussen:

Benennen Sie drei Herausforderungen, auf die mit Design Thinking reagiert wird.

Peter Hofpinger:

  • Extern Erscheinung beibehalten, intern Eigenschaften modellieren (Funktionale Integration)

  • Fokussierung neuer Zielgruppen durch neue oder veränderte Produkte

  • Pflege des Markenimage und Umsetzung von Designvorgaben

Beschreiben Sie drei wesentliche Einflussfaktoren für Design Thinking.

  • Kunde, Kunde, Kunde – Einnehmen der Kundenperspektive

  • Form Follows Function – Eine alte Bauhaus-Regel in der Produktentwicklung

  • Wer macht wann was wo? – Stringente Umsetzung des Konzepts

Benennen Sie drei entscheidende Erfolgsfaktoren bei der Umsetzung von Design-Thinking-Projekten.

  • Konvergenz von Designvorschlag und konsequenter Umsetzung in der Technik

  • Klare Planung von Ressourcen, Terminen und Zuständigkeiten – Besonders wichtig bei interdisziplinären Projekten!

  • Zur gegebenen Zeit mit Mustern zurück zum Kunden gehen

Wie setzt man im Produktdesign strategische Vorgaben um?

Die erste Idee der strategischen Produktentwicklung kommt zumeist aus dem Marketing, z.B. neue Kundenansprüche. In der Konzeptfindungsphase entsteht aus der Innovation ein Produktprofil, was es gilt mit den Wünschen der Kundenzielgruppe in Einklang zu bringen. Mit der Entscheidung für die Innovation funktioniert das Projekt als “Business within the Business“. Die Projektleitung steht in der vollen Verantwortung für das gestalterische und das technische Konzept. Im Design-Technik-Kreis wird beides kontinuierlich aufeinander abgestimmt ohne das Gesamtkonzept aus dem Blick zu verlieren.

Ein Beispiel für eine wegweisende Produktentwicklung beim MINI?

Vielleicht kennen Sie den kleinen Kombi MINI Clubman R55 mit der asymmetrischen Türanordnung? Die Vorgabe aus dem Marketing war, den MINI zu einem Familienauto weiterzuentwickeln. Das neue Marktsegment der jungen Familien sollte angesprochen werden. Damit z.B. ein Kindersitz bequem festzuschnallen ist, bedurfte es eines optimierten Zugangs zu den hinteren Sitzen. Das Markenimage MINI sollte erhalten bleiben und so wurde die kleine Portaltür entwickelt, die auf der Beifahrerseite integriert wurde.

Wie beschreiben Sie die Anwendung der Design-Thinking-Methode, die daraufhin notwendig wurde?             

Design Thinking half uns bei einem Feld der Produktentwicklung: Der funktionalen Integration. Bei der Vorgabe der asymmetrischen Türanordnung sollte trotzdem die Karosseriesteifigkeit des Fahrzeugs erhalten werden. Es waren nur geringe Änderungen möglich, weil sie sonst aus dem Gesamtkonzept geraten wären. Eine weitere Herausforderung war die stark interdisziplinäre Arbeit in der Umsetzung. Neben den Vorstellungen des Marketings und den Konzepten der Designabteilungen mussten die Vorgaben der Fahrsicherheit und Karosserieentwicklung berücksichtigt werden.

Welche unerwarteten Anforderungen mussten durch Design-Thinking-Techniken gelöst werden?

Diese unerwarteten Ereignisse gibt es immer. Beim MINI Clubman war das z.B. die Öffnungsphilosophie der Schlösser. Um hier Missbrauch auszuschließen, gibt es den Prozess zur Lösung von Sonderereignissen. In einem ersten Schritt wird durch Hineinversetzen in die Kunden jedes noch so abwegige Verhalten nachgespielt. Im zweiten Schritt werden im Team die Probleme und Lösungsansätze erarbeitet. Tritt das Phänomen zum ersten Mal auf, kommt es in einem dritten Schritt zur Problemlösung durch das Design Thinking. Das bringt eine wesentliche Größe ins Spiel, das “Empowerment”, in der für die Lösungsfindung eine Kultur der Mitverantwortung unabdingbar ist.

Durch Pricing-Systeme mehr herausholen

So beginnt oft die Suche nach Korrelationen von Kundenverhalten und Kennzahlen. „Was ist der Kunde bereit zu zahlen? Gibt es Parallelen zu anderen Kundengruppen oder Preisen von anderen Anbietern?“ Das Sales-Controlling ist sofort zur Stelle und beantwortet diese Fragen, indem es Verkaufsdaten und Preise gegenüberstellt. Allzu oft sind das Ergebnis Scheinkorrelationen. Wie aber werden komplexe Pricing-Entscheidungen getroffen?

Zu beachten sind bei B2B-Pricing-Systemen besonders drei Aspekte:

  1. Ihr Pricing-System beruht grundlegend auf einer intelligenten, analytischen Metrik. Diese sollte frei von unbegründeten Annahmen sein und verborgenden Ursachen und ihre Wirkungen aufspüren. Dabei ist es wichtig, indirekte, nichtlineare Effekte zu berücksichtigen und Moderationseffekte modellieren zu können.
  2. Testen und optimieren Sie Ihre Lösung in Pilotsystemen. Diese können in der Konzeptionsphase auch Excel-basiert sein. Um die Hebel an den individuell unterschiedlichen Punkten der Preissensitivität Ihrer Kunden zu betätigen, konzentrieren Sie sich auf eine genaue Analyse in den unterschiedlichen Bereichen. Wenn Sie diese Preishebel gefunden haben, lohnt sich eine Investition in das eigentliche System.
  3. Binden Sie Ihre Mitarbeiter in die Entwicklung ein und machen Sie sie zu den Architekten des neuen Systems – sie kennen die Kundenbedürfnisse am besten. Möglich wird dies, indem Sie das Soll-Konzept lediglich bis zu einer konsensfähigen Basis entwickeln und die Ausgestaltung und Umsetzung z.B. im Rahmen eines MOVE-Prozesses

Komplexe Pricing-Entscheidung werden einfach: Einfach besser

Die Ausgangssituation: Kundengruppe X akzeptiert höhere Preise. Hat X daher eine höhere Zahlungsbereitschaft? Das lässt sich daraus schwerlich schließen. Eventuell bestellt die Kundengruppe X einfach geringere Mengen und bekommt daher höhere Preise gemäß der Mengenstaffel angeboten. Die Herausforderung: Lösungen zu finden, die alle Ursachen der Zahlungsbereitschaft mit einbezieht. Nur wer die wichtigsten davon in Augenschein nimmt, kann die Preissensitivität der Kunden verstehen. Und noch viel wichtiger, kann nachvollziehen, was sie für welche Leistungseigenschaft bereit sind zu zahlen.

Kern solcher Lösungen ist dabei die kundenzentrierte Analyse, um ein besseres Verständnis der Preistreiber zu erreichen. Auf inhaltlicher Ebene bewerten Experten mögliche Preishebel wie „Wettbewerbsintensität bei diesem Kunden“ mit Bezug auf spezifische Kunden und Produkte. Die aufgelisteten Produkteigenschaften, Kosteninfos und Preishistorie aus der ERP-Lösung des Klienten stellt die Zahlenbasis der Lösung dar. Wird beides in Causal-Analytics-Methoden miteinander verrechnet, kann der Zusammenhang zwischen Treibern und erreichten Margen ermittelt und die Bedeutung jedes Treibers quantifiziert werden. Am Ende steht das Pricing-Tool, welches nicht nur auf Basis weniger Klicks Preisvorschläge generiert, sondern vielmehr ein kontinuierliches, ursachenorientiertes Preiscontrolling ermöglicht.

Verlassen Sie sich auf Ihre Kunden statt auf Kennzahlen

Pricing-Systeme erleichtern die Preisfindung anstatt sie zu verkomplizieren. In einem ersten Schritt integrieren sie den notwendigen Prozess des Account Planning. Das bedeutet, dass Informationen, die das Kundenverhalten qualifizieren, auf das Pricingtool hin angepasst werden. Wird dies konsequent durchgeführt, werden damit mögliche Ursachen für die Zahlungsbereitschaft quantifiziert. Das können die folgenden Ursachen sein:

Bindung, Käufertyp, Kunde-seit, Standort, Wettbewerbslage, Anforderungen, Kaufhistorie, Werte des Verwendungsprozesses, Produkttyp, u.v.m.

Die gesammelten Daten und eine kundenindividuellen Analyse legen zu guter Letzt die zentralen Ursachen für die richtigen Preise offen. Eine faktenbasierte Ausrichtung der Marktstrategie wird so möglich, die die Kundenbedürfnisse und Umsatztreiber berücksichtigt. Als Ergebnis steht eine B2B-Preisgestaltung, die sich an den Kundenbedürfnissen orientiert und dabei quantifizierbar bleibt – eine echte Alternative zu Kennzahlen!

Globale Geschäftsfeldanalyse in der Connected-Devices-Industrie

Die Erwartungen gehen von einer sehr positiven Entwicklung in Deutschland aus, verbunden mit einem riesigen Wachstumspotenzial bis 2025. Dabei ist es schwer den Überblick zu behalten und aus den vielen Informationen die Entscheidungsgrundlage für die Unternehmensstrategie auszuwählen.

Problem

  • Einer der weltweit führenden Elektronikkonzerne machte sich zur Aufgabe, die attraktivsten Marktsegmente im Bereich Connected Devices zu identifizieren.
  • Da die aussichtsreichsten Zielmärkte jedoch äußerst divers sind und unzureichend bekannt waren, wurde der Market-Intelligence-Provider Atheneum beauftragt.
  • Atheneum ist in der Lage, die relevanten Experten für die Vernetzung von intelligenten Geräten (Smart Devices) in die Recherchen einzubeziehen.

Lösung

  • Anhand eines umfangreichen Kriteriensystems wurden die passenden Experten ausgewählt und nach den Kundenbedürfnissen Insider für Devices wie Maschinen, Roboter und Autos oder für ihre Verwendung in Häusern und Städten herangezogen.
  • Atheneum erhob zunächst in einer globalen Befragung mit führenden Herstellern und Anwendern die wichtigsten Technologietrends bis 2025.
  • In einem zweiten Schritt wurde eine Analyse der Wertschöpfungsprozesse, des Kundenumfelds und des Markts für die identifizierten Produkte durchgeführt.

Ergebnis

  • Der Elektronikkonzern fokussierte sich aufgrund der Analysen von Atheneum im Innovationsmanagement auf die aussichtsreichsten Felder Connected Driving, Gebäudeautomatisierung und Smart Cities.
  • Die in den Devices verbauten Sensoren und Embedded Systems kommunizieren mit anderen Geräte oder Netzwerken.
  • Diese M2M-Kommunikation erfolgt über verschiedene Wireless-Protokolle wie Bluetooth, NFC, WLAN, oder 3G.

Ausblick zur vernetzten Fabrik

Atheneum: Welchen Trends und zentralen Herausforderungen müssen Entscheidungsträger im Hinblick auf Industrie 4.0 in den nächsten Jahren begegnen?

Wulf Schlachter: Aktuell gibt es noch keine einheitlichen Industriestandards, die zumindest EU-weit den Einsatz von Sensorik festlegen. Die bisherigen Initiativen von namhaften deutschen Konzernen wie Siemens, SAP oder auch Bosch reichen noch nicht aus. Speziell beim Einsatz von intelligenten Plattformen erfordert das einen erhöhten Grad an integrativem Aufwand, um das jeweilige IT-System mit dem Connected Device zu verbinden. Auch das Thema Datensicherheit von Sensoren wird in diesem Zusammenhang zunehmend eine Rolle spielen, was wir ja auch schon von den Diskussionen rund um die Sicherheit von Cloud-Lösungen kennen.

Wie sehen Sie die Stimmung in Ihrer Branche?

Ich sehe hier grundsätzliche eine sehr positive Entwicklung in Deutschland, verbunden mit einem riesigen Wachstumspotential bis 2025.

Auf welche Strategien setzen Unternehmen, um die Industrie-4.0-Vorgaben umzusetzen?

Eine erfolgreiche End-to-end-Wertschöpfung umzusetzen, ist für mich als Management- und Strategieberater entscheidend. Das betrifft die Auswahl und Funktionsweise des Sensors, neue E-Commerce-Modelle, sowie die Integration von bestehenden Tracking- oder auch neuen Kundenbindungssystemen und Social-Media-Komponenten.

Gibt es wesentlichen Erfolgsfaktoren, die sich Unternehmen als Ziel setzen können?

Ein Erfolgsfaktor ist die Strategie mit Partnering-Modellen zu agieren, anstelle zu versuchen alles aus einer Hand selbst zu lösen. Das ermöglicht den Fokus auf die eigentlichen Stärken rund um Produkte oder Maschinen. Spätestens im Hinblick auf Algorithmen der Sensoren werden viele Produktentwickler scheitern. Der Markt bietet bereits Sensorentwicklungs-Kits (XDK) mit entsprechenden API-Schnittstellen, um die Möglichkeiten und Funktionsweisen von Sensoren für Unternehmen zu testen.

Wenn Sie einen Ausblick wagen sollen, was wird sich grundlegend mit dem Internet of Things und Industrie 4.0 verändern?

Mit der Omnipräsenz von Sensoren werden neue Geschäftsmodelle entstehen, die eigene und fremde Sensordienstleistungen im eigenen Ökosystem (speziell bei der Datenanalyse) nutzen und massiv erleichtert. Vergleichbar mit den ersten Trends im Bereich Cloud Service Brokerage wird es auch eine Form von IoT-Brokerage bzw. neuartige Sensor-Aggregationsmodelle geben.

Also sind neue Geschäftsmodelle eine Grundvoraussetzung die Vorhaben der Digitalisierung erfolgreich umzusetzen?

Immer wieder taucht im Markt ein unbekannter Wettbewerber aus dem Nichts auf und überholt binnen kurzer Zeit die etablierten Marktführer. Wer sich bei der Digitalisierung seines Geschäftsmodells, Leistungsportfolios und der Marktbearbeitung zu lange in Sicherheit wähnt, begibt sich in Gefahr, von neuen agilen und innovativen Playern verdrängt zu werden. Dies gilt explizit für IoT- und Industrie-4.0-Projekte.

Was ist für Sie der wichtigste Trend der letzten zehn Jahre?

Gewinnen heißt nicht Erster sein: „In vielen Bereichen heißt Gewinnen nicht, als Erster fertig zu sein. Es heißt, die Regeln des Spiels zum eigenen Vorteil zu ändern.“ (McKinsey-Report). Als Beispiel sind natürlich Google, Apple, Amazon und Facebook zu nennen, die es geschafft haben, unsere Informationsnutzung grundlegend zu verändern.

Mit welchem großen Strategen würden Sie gerne Ihre Entscheidung abstimmen?

Mit der Dame in meinem Navigationssystem – auch sicher mal lautstark – über meine eigene Entscheidung doch nicht über die A7 nach Hamburg zu fahren. Sondern über die Elbbrücken, um dann eben nicht morgendlich vor dem Elbtunnel im Stau zu stehen.

Transformationsmodelle im Internet der Dinge

Der Management-, Strategie- und Innovationsberater Wulf Schlachter beantwortet viele Fragen mit einem einfachen System: Er zeigt prägnante Orientierungspunkte in drei Phasen der Entscheidungsfindung auf. Bei der Optimierungen der Wertschöpfungskette durch Sensoren und IoT durchläuft ein Unternehmen diese Phasen:

 

  1. Sensoren in Produkten einsetzen
  2. Datenanalyse ganzheitlich planen
  3. Neue Geschäftsmodelle entwickeln

 

Phase 1: Sensoren in Produkten einsetzen

Sensoren werden eingesetzt, um Produktionsstätten, Lager und Produkte smarter und intelligenter zu machen. Die Gründe dafür können Kostenreduktion, Energieeffizienz, oder auch mehr Kundennähe sein. Hierfür bieten mittlerweile auf „Zigarettenschachtelgröße“ geschrumpfte Sensoren exzellente Möglichkeiten. Diese Sensoren erfordern Informationen, welche Messwerte sie erfassen sollen. Die Einsatzmöglichkeiten und Szenarien sind dahingehend grenzenlos. Zum Beispiel beim aktiven Tracking von Temperatur, Feuchtigkeit oder auch Diebstahl in der Logistik. Verschiffen Unternehmen Drucker oder Kopierer aus China zum Endkunden nach Europa sagen sie das Lieferdatum mithilfe von Sensoren voraus. Die Anforderungen an die Sensoren steigen, wenn eine nahtlose Überwachung gewährleistet sein soll, wie bei einem Container, der die Paletten eines Pharmaerstellers von Detroit nach Japan bringt. Hier spielt das Thema Energieeffizienz und die jeweiligen Batterielaufzeiten von Sensoren eine zentrale Rolle. Neu ist die Möglichkeit dies in Echtzeit mittels einer Internetverbindung zu realisieren. Daten sammeln die Anwendungen zukünftig verstärkt über eine integriertes LTE/UMTS, Bluetooth Low Energy oder WLAN Modul innerhalb der Sensorbox. Somit erzielt ein funktionierendes System erstmals ein prozessuales, transparentes und hoch-skalierbares End-to-end-Qualitätsmanagement: Das gilt für die eigene oder auch fremde Wertschöpfungskette, somit über die Produktionsstätte hinaus und verlängert bis hin zum Endkunden.

Phase 2: Datenanalyse ganzheitlich planen

Es gibt viele Arten von Daten, die vom Sensor gesammelt und dort zum Teil vorab ausgewertet werden. Die tiefergehende Analyse findet in der Regel auf einer cloud-basierten Sensor-Tech-Plattform statt. Diese sendet die verarbeiteten Daten wieder zurück an den Sensor oder die Maschine. Spätestens hier werden Business Intelligence und Big Data relevant. Es kommt darauf an, zwischen den gesammelten Daten zu unterscheiden: Welche verarbeitet das System sofort und welche werden erst später oder niemals benötigt? Bereits hier spielt die Qualität der gesammelten Daten eine Rolle. Einfach nach „brauche ich“ oder „brauche ich nicht“ zu priorisieren, ist dafür nicht ausreichend, sondern sollte systematisch abgewägt werden. Dafür bedarf es Systeme des Datenmanagements, die Dienstleister bereitstellen oder die durch neue Kooperationsmodelle verfügbar werden.

Phase 3: Neue Geschäftsmodelle entwickeln

Die Frage nach den Geschäftsmodellen ist die wohl spannendste Frage im Transformationsprozess. Wer in dieser Phase erwartet, dass ein neues Produkt von Tag 1 an Vorteile realisieren lässt, wird enttäuscht. Vielmehr findet hier ein erstes Sales Enablement statt, indem man sich als innovatives und interessantes Unternehmen für Neu- und Bestandskunden aufstellt. Dabei sind die B2B- und B2C-Anwendungsbeispiele im Rahmen von Industrie 4.0 und IoT vielfältig. Das reicht einerseits von der vernetzen Maschine, über die transparente Logistikkette im Bereich B2B, bis hin zu den Themenbereichen Smart Home (Küche, Heizung, Haus und Garten) und Smart Activities in der B2C-Wirtschaft. Beispiele dafür sind der vernetzte Tennisschläger „zum besseren Aufschlagen“, oder der digitale Lawinen-Rucksack, welcher selbständig auslöst. Nutzen Unternehmen diese neuen Möglichkeiten der Digitalisierung, besteht die Chance ihre Wettbewerbsfähigkeit nachhaltig zu erhöhen. Sie müssen sich dabei von Insellösungen genauso verabschieden, wie von dem Gedanken, eine App reiche aus. Diese ist ein reines Werkzeug und taugt in den seltensten Fällen auch zum Aufbau eines neuen Vertriebskanals für das digitale Produkt.

Fehler auf Servern mit Bordmitteln finden und beheben

Installieren Sie Serverrollen und konfigurieren diese, gibt es oft fehlerhafte Konfigurationen. Dazu hat Microsoft die Best Practices Analyzer entwickelt, die regelmäßig die Server auf Konfigurationsprobleme überprüfen und entsprechende Hilfen für Maßnahmen zur Beseitigung geben.

In Windows Server 2012 R2 lassen sich Server über den Server-Manager über das Netzwerk verwalten und auch überprüfen.Über Verwalten/Server hinzufügen lassen sich alle Windows Server 2012 R2-Computer im Netzwerk zum Server-Manager hinzufügen. Die Server ordnet der Server-Manager dann nach ihren Rollen und erstellt automatisch Servergruppen. Am schnellsten starten und aktivieren Sie den BPA für Serverrollen durch Eingabe des Befehls Get-BPAModel | Invoke-BpaModel in der PowerShell.

Weitere Cmdlets für die PowerShell sind Get-BPAResult und Set-BPAResult. Diese Cmdlets zeigen Ergebnisse an oder blenden sie aus. Zur Analyse verwenden Sie aber besser den Server-Manager.

Hier sind allerdings nur die Server zu sehen, die Sie über Verwalten/Server hinzufügen dem lokalen Server-Manager hinzugefügt haben. Im unteren Bereich des Server-Managers findet sich der Bereich Best Practices Analyzer. Durch einen Klick auf Aufgaben/BPA-Überprüfung starten beginnt der Test der Serverrolle. Zunächst müssen Sie aber den Server auswählen, den der BPA überprüfen soll.

Schnelle Alternative für Apache Cassandra

Laut Aussage der beiden israelischen Gründer von ScyllaDB, beide seinerzeit maßgeblich an der Entwicklung des KVM-Hypervisors beteiligt, ist ScylllaDB sogar „die schnellste spaltenorientierte NoSQL-Datenbank der Welt“ und um Größenordnung schneller, als das in Java implementierten Cassandra.

Dies liege nach Aussage der Entwickler daran, das ScyllaDB in C++ geschrieben ist, womit typische Flaschenhälse von Cassandra, wie die JVM mit ihren Standard-Schwachstellen Garbage Collection oder Speicherzuweisung, umgangen werden können. Trotzdem soll ScyllaDB viele in Java bekannte Konstrukte wie z. B. Lambdas unterstützen.

Unerreichtes Ausmaß an Parallelität und Geschwindigkeit auf Einzelrechnern

Die Entwickler berichten auf der Projektseite, dass die Architektur von ScyllaDB auf einem einzelnen Rechner ein Ausmaß an Parallelität und Geschwindigkeit ermöglicht, das bisher nur in einem Cluster erzielbar war.

Die neue Datenbank nutzt dazu viele Vorteile moderner Multicore-CPUs. Außerdem bedient sich ScyllaDB bei anderen Projekten von Kivity und Laor, wie z. B. dem quelloffenen, Linux-ähnlichen Cloud-Betriebssystem OSv. Kivity und Laor hatten für Osv das Anwendungsframework Seastar entwickelt, das die selbe Shared-Nothing-Architektur verwendet.

Und Cassandra ?

Bei Cassandra blicken Entwickler gespannt auf die kommende Version 3.0, von der bereits ein erster Release Candidate existiert. Cassandra 3 soll zwar ebenfalls viele neue Funktionen mitbringen, allerdings noch keine, die die Performance entscheidend beeinflussen, sodass das dem Projekt ScyllaDB möglicherweise der zeitliche Vorsprung zugute kommt, schnellstmöglich eine Anwender-Community aufzubauen.

Programmierbarer ADC-Eingangsbereich bietet Systemvorteile

Antwort: Während bei älteren schnellen A/D-Wandlern die externe Referenzspannung eingestellt werden musste, um den analogen Eingangsbereich zu ändern, verfügen die meisten neuen Schaltungen über programmierbare oder einstellbare Eingangsbereiche. Über einen einfachen Registereintrag lässt sich zum Beispiel der Bereich von 1 bis 2 Vss in Stufen von 100 mV programmieren. Bei den meisten Bauteilen ist der Eingangsbereich standardmäßig auf den Maximalwert eingestellt, da dies das Signal/Rausch-Verhältnis (SNR) maximiert. Das Rauschen, normalerweise dominiert vom eigenen thermischen Rauschen des Wandlers, ändert sich nicht, wenn der Eingangsbereich eingestellt wird. Eine Maximierung des Eingangsbereichs maximiert auch das SNR.

Gelegentlich wirft ein Ingenieur einen Blick in das Datenblatt und fragt, warum man den Bereich einstellen möchte, obwohl der Nutzen eines reduzierten Bereichs nicht klar ist. Diese Frage ist berechtigt. Denn der reduzierte Signalbereich bietet keinen wesentlichen Kompromiss im Hinblick auf die anderen Wandlerspezifikationen. Man kann erwarten, dass sich bei einem niedrigeren Signalhub der Grad der Verzerrung verbessert. Genauso, wie es bei Operationsverstärkern oder anderen linearen Bauteilen der Fall wäre. Die Verbesserung ist bei einem A/D-Wandler normalerweise nicht sehr groß, speziell nicht in der Nähe des Vollausschlags, wo die Nichtlinearität des Wandlers seine Verzerrung dominiert.

Ein Beispiel. Für den 250 MSample/s schnellen 16 Bit-ADC AD9467 gibt es typische Performance-Spezifikationen für Eingangsbereiche von 2 und 2,5 Vss. Eine Reduzierung des Eingangsbereichs senkt das SNR um 1,7 dB, während sich der störungsfreie Dynamikbereich (SFDR) in der ersten Nyquist-Zone um 1 oder 2 dB erhöht.

Die Reduzierung des SNR um 1,7 dB für 1 bis 2 dB Verzerrung klingt zwar ähnlich, doch die Störung befindet sich bei einer diskreten Frequenz in der Nyquist-Zone, während das niedrigere SNR das durchschnittliche Grundrauschen über die gesamte Nyquist-Zone anhebt. Eine Verbesserung um 1 oder 2 dB bei einer diskreten Frequenz kann in den meisten Anwendungen vernachlässigt werden, während die Absenkung um 1,7 dB über das gesamte Nutzfrequenzband wesentlich sein kann.

Warum also SNR einbüßen, wenn man nichts davon hat? O.k., der Wandler ist nur ein Teil des Puzzles auf Systemebene. Bei der Budgetierung von Kosten, Leistungsfähigkeit und Verlustleistung für das Gesamtsystem bedeutet der kleinere Signalbereich, dass Upstream des A/D-Wandlers 1,7 dB weniger Verstärkung erforderlich sind und dies vielleicht erlaubt, einen Operationsverstärker mit niedrigerem Verstärkungs/Bandbreiten-Produkt einzusetzen. Falls die verschlechterten Rauscheigenschaften des Wandlers akzeptabel sind, lässt sich vielleicht an einer anderen Stelle im System eine Verbesserungsmöglichkeit finden.

Autor: Von Uwe Bröckelmann nach Unterlagen von Analog Devices.

Verbesserte Zusammenarbeit mit VMware

Neben der verbesserten Stabilität steht bei Mirantis Open Stack 7, das ab sofort zum Herunterladen verfügbar ist, vor allem eine verbessere Skalierbarkeit im Fokus. Mirantis adressiert damit besonders große OpenStack-basierte Private- und Hybrid-Cloud-Umgebungen in geschäftskritischen Enterprise-Umgebungen.

VMware ready

Ein weiteres Highlight von Mirantis OpenStack 7.0 besteht in der verbesserten Zusammenarbeit mit VMware-Produkten. So soll sich die OpenStack-Distribution von Mirantis besonders einfach out of the box in VMware vCenter integrieren lassen und bietet dazu eine große Auswahl an Netzwerkkonnektivität wie z. B. VMware NSX-Fabrics oder Juniper Contrail.

Ferner sollen sich laut Aussage von Mirantis mit der neuen Version auch multitenant-fähige Hybrid-Clouds problemlos realisieren lassen. Außerdem hat Mirantis nach eigener Aussage die Integration mit Container-Plattformen weiter vorangetrieben, wie z. B. Cloud Foundry und Google Kubernetes. Neu ist auch die Möglichkeit, so genannte Fuel-Deployment-Plugins programmieren zu können, mit denen Admins neue Rollen für Netzwerkknoten definieren und virtuelle IP-Adressen reservieren können.