„iglidur on tour“ durchquert Asien

Fast ebenso viele Kilometer wurden es in China. Dabei ging es ebenso zur Chinesischen Mauer …
 

… und zu einem abgelegenen Shaolin-Kloster.

 

In Südkorea führte die Tour das Fahrzeug dann zu Küstenstreifen an der Ostküste, der bekanntesten Gebirgskette im Nordosten und die innerkoreanische Grenze. Die Fahrtstrecke innerhalb des zweiten asiatischen „Tigerstaat“, Taiwan, verlangte vom „iglidur on tour“-Kleinwagen dann einiges ab: Tropisches Klima mit hohen Temperaturen über 30 Grad, heftige Regenfälle und extreme Luftfeuchtigkeit sowie die Überwindung von Bergpässen über 3000 Metern Höhe.

 

In Japan standen neben der Megacity Tokio unter anderem auch die alte Kaiserstadt Kyoto und der Mount Fuji auf dem Streckenplan. Die große Wegstrecke, die das Fahrzeug dabei absolviert, kommt sozialen Einrichtungen vor Ort zu Gute. igus und seine lokalen Niederlassungen leisten Einzel- sowie Zusatzspenden für jeden gefahrenen Kilometer. In Indien wurde beispielsweise das Freiwilligennetzwerk „make a difference“, das sich um Straßenkinder kümmert, unterstützt und wurden im koreanischen Incheon drei Tonnen Reis an öffentliche Suppenküchen für Bedürftige verteilt. Denn iglidur on tour soll verbinden; nicht nur Märkte und Unternehmen, sondern auch Menschen.

Ein Kleinwagen geht auf große Fahrt

Um diese Leistungsfähigkeit zu beweisen, schickt igus derzeit anlässlich des 50jährigen Firmenjubiläums einen umgebauten Kleinwagen um die Welt, der in Zusammenarbeit mit dem Institut für Fahrzeugtechnik der Fachhochschule Köln an den verschiedensten Stellen mit iglidur Gleitlagern ausgerüstet wurde und Messen und Kunden in aller Welt besucht. Von Sitz- und Verdecksystem über Mehrlenkerscharniere und Komponenten im Motorraum bis hin zu Anwendungen im Fahrwerk.

Foto des Umbaus
Die Reise des Kleinwagens um die Welt begann an der Fachhochschule Köln, wo metallische Lager durch iglidur Polymergleitlager ersetzt wurden.

Unter anderem am Startergenerator an der Reihe wurden die Lager ausgetauscht. Über einen Flachrippenriemen beschleunigt dieser situationsbedingt entweder die Kurbelwelle des Motors oder wird im umgekehrten Fall von der Kurbelwelle angetrieben, um Strom für das Bordnetz zu erzeugen. In unserem Auto ist er mit einem speziell ausgeführten Bolzen beweglich gelagert. In Verbindung mit einem federbelasteten Vorspannelement werden so Schwingungen ausgeglichen. Dadurch wird der An- bzw. Abtriebsriemen des Starter-Generators immer gespannt gehalten. Der Bolzen, der den Motor „aufhängt“ wird dabei ab sofort durch igus Kunststofflager geführt.

Die Lagerstellen am Startergenerator

Auch an den Drosselklappen gibt es bei dem orangefarbenen Kleinwagen nun iglidur Gleitlager. Drosselklappen befinden sich vor dem Ansaugrohr. Moderne Motoren brauchen nicht nur Treibstoff, sondern das richtige Mischverhältnis von Treibstoff und Luft. Wie viel Luft „angesaugt“ wird, hängt beim Ottomotor davon ab wie viel Gas gegeben wird. Die Luftzufuhr selbst wird über die Drosselklappe reguliert, die auf einer Welle sitzt und von einem kleinen Elektromotor gesteuert wird. Diese Welle ist nun von zwei iglidur Gleitlagern gelagert.

Auch die Drosselklappen des Kleinwagens sind nun mit iglidur Gleitlagern gelagert.

TÜV-Abnahme und Startschuss
Der 9. Januar war ein entscheidender Tag für das Umbau-Team der Fachhochschule Köln und igus: Der TÜV inspizierte das umgebaute Fahrzeug. Nach eingehender Untersuchung dann die heiß erwartete Nachricht: Die Zulassung wird erteilt und die Tour kann beginnen.

Der „iglidur on Tour“-Kleinwagen bei der TÜV-Abnahme nach erfolgreichem Einbau von 56 iglidur Gleitlagern.

Der offizielle Startschuss wurde am 20. Januar 2014 auf einem großen Presseevent in der neuen Fabrikhalle in Köln gegeben. 50 Journalisten informierten sich umfassend über die ausgetauschten Lagerstellen und die Tour. Eine Video-Live-Schaltung zu den Kollegen im ersten Land der Tour, Indien, vermittelte ersten Eindruck, was den Wagen alles erwarten würde.

Gerhard Baus, Leiter des Geschäftsbereiches Gleitlager bei igus, stellte das Projekt zum 30jährigen Jubiläums des iglidur Werkstoffs und des 50 jährigen Bestehens der igus GmbH in der neu errichteten Halle am Hauptsitz in Köln vor.

Im Anschluss an die Pressekonferenz ging es für unseren Fahrer Sascha mit dem iglidur®-Auto direkt zum Frankfurter Flughafen. Einen Tag später wurde der Wagen direkt nach Neu Delhi geflogen, wo die Tour so richtig startete.

Direkt nach der Pressekonferenz ging es für Fahrer und Fahrzeug nach Frankfurt, von wo aus der Wagen seine Tour in Asien begonnen hat.

Windows Server Update Services – Erweiterte Möglichkeiten

Das CMDlet get-wsuscomputer zeigt die angebundenen Computer an. Get-wsusserver zeigt die WSUS-Server an, die Patches im Netzwerk verteilen. Ebenfalls interessant ist get-wsusproduct. Dieser Befehl zeigt die Produkte und Patches , die WSUS verteilen kann. 

Setzen Sie mehrere WSUS-Server im Unternehmen ein, ist es nicht notwendig, dass sich alle Server direkt bei Microsoft synchronisieren. Sie können auch einen Upstream-Server festlegen, von dem andere WSUS-Server ihre Updates beziehen.Sobald Sie den Quell-WSUS-Server eingerichtet haben, rufen Sie auf den untergeordneten WSUS-Servern Optionen\Updatequell und Proxyserver auf. Aktivieren Sie die Option Von einem anderen Windows Server Update Services-Server synchronisieren.

Standardmäßig nutzt WSUS für die Kommunikation mit den Clients und der Verwaltungskonsole das HTTP-Protokoll. In sicheren Umgebungen sollten Sie hier SSL aktivieren. Dazu müssen Sie auf dem Server zunächst ein Serverzertifikat installieren. Danach aktivieren Sie im IIS-Manager für die folgenden Webs SSL:

  • ApiRemoting30
  • ClientWebService
  • DssAuthWebService
  • ServerSyncWebService
  • SimpleAuthWebService

Damit die Konsole wieder funktioniert öffnen Sie zunächst eine Befehlszeile und wechseln in das Verzeichnis C:\Programme\Update Services\Tools. Geben Sie den Befehl wsusutil Configure SSL <Name des Zertifikats>.

 

 

 

Gebloggt: Hortonworks spricht über Pläne für Stinger.next

Das ist insofern bemerkenswert, da man erst im April dieses Jahres die 2013 gestartete Stinger-Alternative, welche Hive um einen Faktor bis zu 100 beschleunigt erfolgreich etablieren konnte. Jetzt soll das Projekt Stinger.next laut Hortonworks eine Echtzeitzugriff auf SQL-Daten ermöglichen und Hive mit Transaktionsfähigkeiten ausstatten.

Hive ist ein Open-Source-Projekt der Apache Software Foundation und erweitert das quelloffene Big-Data-Framework um Funktionen zur Datenanalyse durch Zurverfügungstellen einer SQL-ähnliche Abfragesprache.

Stinger.next

Bei Stinger.next setzen die Hortonworks-Entwickler wieder auf die Mitarbeit der Hive-Gemeinschaft, wobei wie schon bei Stinger ein Drei-Phasen-Modell die Realisierung der gesteckten Ziele vereinfachen soll und in Phase 3 auch SQL:2011-Analysen ins Spiel kommen sollen. Stinger.next soll die Reaktionszeit auf Anfragen in den Bereich unter 1 Sekunde drücken, womit Stinger.next die einzige Hadoop-SQL-Schnittstelle wäre, die sich auch für Anfragen im Tera- und Petabyte-Bereich eignet und in Hive Transaktionen ermöglicht. Transaktionen erlauben Hadoop-Anwendern das Einfügen, Ändern oder Löschen von Daten, während Hadoop an sich als prinzipiell batchorientiertes System für einmaliges Schreiben / mehrmaliges Lesen konzipiert ist. Mit den durch Stinger ermöglichten schnelleren Reaktionszeiten eignet sich Hive auch für explorative Analysen. Zudem planen die Hortonworks-Entwickler eine Integration in Apache Spark. Spark wiederum ist im Hadoop-Ökosystems ein Framework, das analytische Berechnungen auf Clustern ermöglicht.

Stinger.next macht Hive unternehmenstauglich

Stinger.next soll innerhalb der nächsten 18 Monate fertig sein und Hive insbesondere für den Unternehmenseinsatz fit machen. Konkurrierende Hadoop-Anbieter wie Cloudera stufen Hive dagegen als für den Unternehmenseinsatz ungeeignet, da zu langsam, ein und setzen auf eigene Lösungen wie zum Beispiel Cloudera Impala. Die geplante Fertigstellung von Stinger.next könnte dagegen die Karten neu mischen.

Potente Partner

Laut Hortonworks rechnet man dabei mit der Unterstützung potenter Partner, wie z.B. Microsoft. Microsofts Principal Software Development Engineer Eric Hanson schreibt zum Beispiel im Hortonworks-Partner-Blog, wie HDInsight-Kunden (die Microsoft-Azure-Version von Hortonworks Data Platform) von Stinger.next profitieren. Als Hive-Commiter, der jahrelang für Microsoft SQL Server gearbeitet hat ist Eric Hanson der Ansicht, Initiativen wie Stinger.next seinen unerlässlich, um Hive auf eine nächst höhere Stufe zu bringen, in der es mit Impala & Co konkurrieren kann.

Merkwürdige Phänomene beim Einsatz von Instrumentenverstärkern

Antwort: Am 18. Februar 2013 wurde ein spektakulärer und erfolgreicher Diamantenraub innerhalb von fünf Minuten durchgeführt, während ein Flugzeug für den Flug von Brüssel nach Zürich beladen wurde. Ein geschätzter Wert von 350 Millionen Dollar macht diesen Diamantenraub zu einem der größten aller Zeiten. Von Dieben, die als Polizisten verkleidet waren, wurde eine gut durchdachte Handlung schnell und mit hoher Präzision ähnlich wie in einem Hollywood-Film durchgeführt. Die Fluggäste hatten nichts bemerkt, bis man sie zum Verlassen des Flugzeugs aufforderte. Der Raub löste eine internationale Fahndung aus, um die Räuber vor Gericht zu bringen.

Diejenigen, die sich mit Elektronik beschäftigen, müssen sich mit einer anderen Art des „diamond plots“ beschäftigen. Im Englischen kann man mit „diamond plot“ sowohl den oben beschrieben Diamantenraub bezeichnen, wie auch das Rauten-Diagramm, das das Verhältnis der Eingangs-Gleichtaktspannung zur Ausgangsspannung eines Instrumentenverstärkers beschreibt und oft im Datenblatt zu finden ist.

Beim Einsatz von Instrumentenverstärkern beobachten Entwickler oft ein merkwürdiges Phänomen. Das Problem wird manchmal genau als „der Ausgang ist gesättigt“ bezeichnet. Andere Male kann die Beschreibung etwas kryptischer sein und so lauten: „Der Verstärkungsfehler ist sehr hoch“ oder „Der Verstärker ist sehr nichtlinear“. Oder einfach „er arbeitet nicht, wenn er soll“. Bei uns gibt es keinen Ablaufplan, nach dem wir Kundenprobleme lösen. Falls wir jedoch einen hätten, käme „Prüfen Sie den diamond plot“ gleich nach „Schalten Sie das Bauteil ein“.

Falls sich die Betriebsbedingungen innerhalb der Grenzen des „diamond plot“ befinden, sollte das Bauteil einwandfrei arbeiten. Andernfalls wird der Ausgang in Folge von Sättigung interner Knoten ungültig sein.

Für Leser, die mit Instrumentenverstärkern nicht vertraut sind – diese linearen Bauteile verstärken die Spannungsdifferenz zwischen ihren Eingängen unabhängig von der Eingangsspannung relativ zur Versorgungsspannung. Die Eingangs-Gleichtaktspannung – der Durchschnitt der zwei Eingangsspannungen – wird vom Verstärker unterdrückt.

Natürlich ist der Betrieb auf einen limitierten Spannungsbereich begrenzt. Die meisten Entwickler würden diesen unterhalb der Versorgungsspannung erwarten. So ist dies im Allgemeinen kein Problem. Allerdings verschwindet die Gleichtaktspannung nicht einfach, wenn sie in die Schaltung gelangt. Stattdessen wird sie intern vom gewünschten Signal subtrahiert. Dies bedeutet, dass das verstärkte Signal und die Gleichtaktspannung in die Versorgungsspannung passen müssen. Der Mechanismus, mit dem die Gleichtaktspannung subtrahiert wird, hängt von der speziellen Schaltkreistopologie ab. Dies gibt der Kontur eine bestimmte Form. Dies kann ein Oktagon, ein Hexagon oder ein Parallelogramm sein. Die Bezeichnungen „diamond plot“ kann daher etwas unzutreffend sein, doch diese Diagramme liefert dem Schaltungsentwickler nützliche Informationen bezüglich des richtigen Betriebsbereichs, vorgegeben durch Eingangsspannungen, gewünschter Ausgangsspannungshub, Referenzspannung und Versorgungsspannung.


Bild 1. Eingangs-Gleichtaktspannung gegenüber der Ausgangsspannung

Dieses Problem wird größer, wenn mit niedrigen Versorgungsspannungen und Applikationen mit unipolarer Spannung gearbeitet wird, da das Rauten-Diagramm wesentlich kleiner und der Betriebsbereich noch begrenzter wird. Moderne Instrumentenverstärker wie die Modelle AD8226, AD8227, AD8420 und AD8422 zielen darauf ab, das Rauten-Diagramm so groß wie möglich zu erweitern. Zur Vereinfachung von Niederspannungsdesigns übersteigt das Rauten-Diagramm des AD8237 die Versorgungsspannung (Bild 1).

Bei Ihrer nächsten Entwicklung mit einem Instrumentenverstärker sollten Sie an den „diamond plot“ denken. Zumindest wird aufgrund dieses Plots nicht Interpol vor Ihrer Tür stehen, um die gestohlenen Steine aufzufinden!

Autor: Von Uwe Bröckelmann nach Unterlagen von Analog Devices

Schaltende Bits

Antwort: Entwickler, die mit schnellen ADCs nicht so gut vertraut sind, erwarten eventuell, dass der Digitalausgang eines Wandlers bei einem statischen Analogeingang konstant bleibt. Dies ist ähnlich wie man ohne Eingangssignal einen einfachen DC-Offsetfehler am Ausgang eines Operationsverstärkers erwartet. Nimmt man das Eingangssignal von einer Verstärkerschaltung und misst die Ausgangsspannung mit einem Digital-Multimeter (DVM), zeigt dieses den Verstärkeroffset an.

Das DVM mittelt die angezeigten Ergebnisse (mit einem ADC!). Allerdings sagt das DVM nichts über das Rauschen am Verstärkerausgang aus. Zum Messen des Rauschens ist ein Oszilloskop oder ein Spektrumanalysator erforderlich.

Wie alle anderen Bauteile in der Signalkette leisten auch ADCs mit ihrem eigenen thermischen Rauschen einen Beitrag zum Gesamtrauschen. Falls man also verifizieren möchte, dass der ADC sich ohne Eingangssignal wie erwartet verhält, muss man einen Block von Daten erfassen und den Mittelwert bilden. Genauso wie es ein DVM mit der Verstärkerschaltung macht. Schnelle ADCs floaten normalerweise zu Code in der Mitte des Ausgangsbereiches plus oder minus Offset. Somit sollte sich der resultierende Durchschnittsausgangscode innerhalb der Offsetspezifikation des ADCs befinden.

Während man den Block von erfassten Daten analysiert, kann man leicht das Rauschverhalten des ADCs überprüfen. Die Datenblattspezifikation ist „Eingangsbezogenes Rauschen“, angegeben als LSBeff.. Die Messung ist bekannt als „Massebezogener Eingangshistogrammtest“, wobei die Nomenklatur von frühen Wandlern stammt, die einen bipolaren Eingangsbereich um Masse hatten. Den Eingang gegen Masse kurzuschließen war gleich wie kein Eingangssignal zu haben. Moderne schnelle Wandler arbeiten normalerweise mit einer unipolaren Spannung. Somit ist statt der Masse ihre eingangsseitige Gleichtaktspannung der Mittelpunkt der Stromversorgung des Schaltungseingangs. Glücklicherweise wird der Histogrammtest durchgeführt, indem man ohne Eingangssignal einen Block mit Daten erfasst. Dies ist bereits erfolgt. Statt den Mittelwert der erfassten Ausgangsdaten zu bilden, sollte man ein Histogramm anfertigen. Für einen typischen schnellen ADC sind eventuell 1LSBeff. Eingangsrauschen spezifiziert. So kann man eventuell eine Gauß’sche Verteilung mit den Offset ±3 Codes sehen. Das eingangsbezogene Rauschen wird als Standardabweichung der erfassten Daten berechnet.

Auf die eingangs gestellte Frage zurückkommend lässt sich sagen, dass das Breitbandrauschen des ADCs für das Umschalten der Ausgänge sorgt – selbst ohne Eingangssignal. Viel Erfolg mit dem restlichen Debugging ihrer Schaltung.

Von Uwe Bröckelmann nach Unterlagen von Analog Devices

Monolithischer Flyback-Wandler ohne Opto-Koppler ist eine vielseitige Lösung

Die Produktlinie der Flyback-Wandler ohne Opto-Koppler von Linear Technology, wie der LT3573, LT3574, LT3575, LT3511, LT3512 und LT8300, vereinfachen das Flyback-Design, da sie ein spezielles Messverfahren auf der Primärseite beinhalten und damit die Notwendigkeit für einen Opto-Koppler eliminieren.

Der monolithische Flyback-Wandler ohne Opto-Koppler LT8302 besitzt einen integrierten 65-V-/3,6-A-DMOS-Leistungsschalter mit interner Schleifenkompensation und Soft-Start. Der LT8302 kann mit Eingangsspannungen zwischen 2,8 V und 42 V arbeiten und liefert eine Ausgangsleistung von bis zu 18 W. Bei geringer Last hat er einen Burst-Modus mit geringer Welligkeit der Ausgangsspannung, was zu geringen Leistungsverlusten im Standby-Modus und geringer benötigter externer Komponentenanzahl führt.

Leistungsfähigkeit und einfacher Einsatz


Bild 1: Vollständiger, galvanisch getrennter 5-V-Flyback-Wandler mit einem Eingangsspannungsbereich von 2,8 V bis 42 V

Der LT8302 vereinfacht die Entwicklung eines galvanisch getrennten Flyback-Wandlers, indem er die isolierte Ausgangsspannung direkt am Flyback-Signal auf der Primärseite abtastet. Diese Lösung erfordert für die Regelung keine dritte Wicklung oder einen Opto-Koppler. Die Ausgangsspannung wird über zwei externe Transistoren und einen optionalen temperaturkompensierten Widerstand programmiert. Durch das Integrieren der Schleifenkompensation und dem Soft-Start, minimiert der Baustein die Anzahl der erforderlichen externen Komponenten, wie in Bild 1 dargestellt. Die Betriebsart Boundary-Modus erlaubt den Einsatz von Trafos moderater Größe, unter Beibehaltung einer exzellenten Lastregelung. Der Betrieb im Burst-Modus mit geringer Ausgangspannungswelligkeit resultiert in einem hohen Wirkungsgrad bei geringen Lasten, wobei gleichzeitig die Welligkeit der Ausgangsspannung minimiert wird.


Bild 2: Wirkungsgrad der Flyback-Wandlung für den Wandler in Bild 1

Bild 1 zeigt eine komplette Flyback-Schaltung mit dem LT8302. Dieser Wandler besitzt bis zu 85% Wirkungsgrad, wie in Bild 2 dargestellt, und hat dank seinem geringen Ruhestromeinen Wirkungsgrad von 82% mit einem Verbraucher von 10 mA und 5 V Eingangsspannung.

Geringer IQ, geringe Vorlast und hoher Wirkungsgrad

Bei sehr kleinen Lasten reduziert der LT8302 die Schaltfrequenz und behält gleichzeitig die minimale Strombegrenzung bei. Unter diesen Bedingungen geht er in den Burst-Modus mit geringer Welligkeit der Ausgangsspannung über, in dem der Baustein zwischen Schlaf- und Schalt-Modus hin und her schaltet. Der typische Ruhestrom liegt bei 106 µA im Schlaf- und 380 µA im Schalt-Modus, was den effektiven Ruhestrom weiter reduziert.

Die typische minimale Schaltfrequenz liegt etwa bei 12 kHz, wobei die Schaltung eine sehr kleine Vorlast benötigt (typisch 0,5% der Volllast). Deshalb sind die Leistungsverluste des LT8302 im Standby-Modus sehr gering – eine Voraussetzung für Applikationen, die einen hohen Wirkungsgrad bei ständig eingeschalteten Systemen erfordern.

Stromversorgungen mit negativer Eingangsspannung

Bild 3: Auf-/Abwärtswandler mit negativer Eingangsspannung und positiver Ausgangsspannung

In einer typischen Stromversorgung mit negativer Eingangsspannung ist der Masse-Pin des ICs mit dem negativen Eingangspegel, einer variierenden Spannung, verbunden ist. Als Ergebnis ändert sich seine Ausgangsspannung mit der Eingangsspannung, vorausgesetzt dass keine Pegel anhebende Schaltung eingesetzt wird. Das besondere Rückkoppel-Messverfahren des LT8302 kann direkt über die Signalform der Schaltknotenspannung einfach eine geregelte Ausgangsspannung kreieren, was die Pegel anhebende Schaltung eliminiert, die sonst nötig wäre.

Bild 3 zeigt einen einfachen Auf-/Abwärtswandler mit negativer Eingangs- und positiver Ausgangsspannung, und Bild 4 stellt einen einfachen Abwärtswandler mit negativer Ein- und Ausgangsspannung dar.

Zusammenfassung


Bild 4: Abwärtswandler mit negativer Eingangsspannung und negativer Ausgangsspannung

Der LT8302 arbeitet über einen weiten Eingangsspannungsbereich von 2,8 V bis 42 V und liefert bis zu 18 W an galvanisch getrennter Ausgangsleistung, ohne dazu eine dritte Wicklung oder einen Opto-Koppler zu benötigen. Er beinhaltet eine ganze Reihe an Funktionen, die die Komponentenanzahl minimieren, wie der Betrieb im Burst-Modus mit sehr geringer Welligkeit der Ausgangsspannung; internem Soft-Start, Unterspannungssperrfunktion, Temperaturkompensation und interner Kompensation der Rückkoppelschleife.

Der LT8302 eignet sich ideal für eine Vielzahl von Anwendungen, angefangen bei batteriebetriebenen Systemen, über Stromversorgungen im Automobil, in der Industrie, in der Medizintechnik und Telekommunikation sowie galvanisch getrennten Hilfs-/Betriebsstromversorgungen. Der hohe Integrationsgrad resultiert in einfacher Anwendbarkeit, geringer externer Komponentenanzahl, hohem Wirkungsgrad und einer vielseitigen Lösung zur Bereitstellung von galvanisch getrennter Stromversorgungsleistung.

Office 2010/2013 automatisiert installieren

Mit dem Microsoft Office-Anpassungstool (Office Customization Tool, OCT) passen Sie über eine grafische Oberfläche die Installation von Office 2010/2013 an und automatisieren Installation und Einstellungen für die Benutzer. Das Tool ersetzt die Office 2003-Werkzeuge zur automatischen Office-Installation, den Custom Installation Wizard und Custom Maintenance Wizard.

Änderungen, die Sie mit dem Microsoft Office-Anpassungstool am Office-Setup vornehmen, speichert das Programm in einer Setupanpassungsdatei (Setup Customization File). Die Datei erhält als Endung .msp. Beim Start des Office-Setupprogramms führt das Programm die Änderungen in dieser Datei automatisch aus. Die Datei muss dazu im Unterordner \Updates des Installationsordners gespeichert sein. Befindet sich eine .msp-Datei in diesem Ordner, verwendet das Office-Setup diese automatisch bei der Installation, unabhängig davon, ob es sich um eine Installationsdatei oder einen Patch handelt.

Um das Office Customization Tool zu verwenden, starten Sie das Setupprogramm mit der Option /admin. Rufen Sie den Befehl setup /admin bei einer nicht kompatiblen Office-Edition auf, erscheint eine Fehlermeldung.

Neben .msp-Dateien können Sie auch die Standardkonfigurationsdatei Config.xml von Office 2010/2013 für die Installation anpassen. Die Datei gehört zum Installationsumfang von Office 2010/2013.

Neben den Möglichkeiten, die Office 2010/2013-Installation über .msp-Dateien und das Administrationsprogramm zu beeinflussen, können Sie das Setupprogramm auch mit speziellen Optionen starten. Mit der Option /adminfile <.msp-Datei> wendet das Installationsprogramm die angegebene .msp-Datei an. Mit der Option /config <Konfigurationsdatei> weisen Sie das Setupprogramm an, eine andere Konfigurationsdatei zu verwenden, als bei einer normalen Installation.

Gebloggt: Software-defined Storage System von Fujitsu

Das Unternehmen Fujitsu wird auf dem Mitte September in San Francisco stattfindenden Intel Developer Forum eine erste Vorschau eines einfachen, skalierbaren, verteilten Speichersystems im Petabyte-Bereich zeigen, das auf Ceph basiert und Xeon-CPUs, Intel-SSDs und Intels Virtual Storage Manager (VSM) verwendet. Dabei soll Intels Virtual Storage Manager vor allem dasCeph-Management vereinfachen.

Für Datenhungrige Nutzer

Fujitsu hat mit seiner Ceph-basierten Storage-Appliance vor allem aber nicht nur Cloud-Provider im Visier. So profitieren etwa auch Nutzer der populären IaaS-Management-Plattform OpenStack von  Fujitsus Appliance, da Ceph inzwischen integraler Bestandteil von OpenStack ist. Doch auch andere datenhungrige Nutzer mit extremen Speicher-Anforderungen, etwa für einen schnellen Zugriff  auf historische Finanzdaten oder beim Multimediastreaming sollen von Fujitsus Fertig-Lösung profitieren.

Von der Doktorarbeit zum Muster-Lösung

Ceph ist – obwohl inzwischen von Red Hat übernommen – eine seit 2004 entwickelte quelloffene Plattform zum Bereitstellen und Verwalten von Object-, Block- und File-Storage in einem verteilten Cluster. Ceph bietet eine zusätzliche Abtraktionsebene oberhalb von Blöcken oder Dateisystemen und speichert dazu jede in Ceph abgelegte Information in einem oder mehreren binären Objekten.

 

Gebloggt: Microsoft Azure mit Kubernetes-Support

Docker boomt derzeit, wie kaum ein anderes Open-Source-Framework. Mit Docker können Nutzer Linux-Anwendungen einschließlich der jeweiligen Abhängigkeiten in Container verpacken. Diese lassen sich dann unabhängig von der Ursprungsplattform problemlos weitergeben und ausführen. Öffentliche Repositories wie Docker-Hub bieten inzwischen eine riesige Auswahl freier und kostenpflichtiger Docker-Apps. Docker Apps sind im Vergleich mit gewöhnlichen VMs wesentlichen genügsamer in ihrem Ressourcenverbrauch und starten schneller. Der Konfigurationsaufwand zum Erstellen von Docker-Apps ist allerdings zu Anfang nicht unerheblich.

Google Kubernetes mit Azure

Hierbei verspricht Google mit seinem Kubernetes-Projekt Abhilfe. Google hatte sein Open-Source-Framework zum Verwalten von Docker-Containern erst im Juni diesen Jahres vorgestellt. In Kubernetes steckt viel von Googles Know How im Zusammenhang mit Linux-Containern. Jetzt hat Microsoft bekannt gegeben, dass die eigene Cloud-Plattform Azure nun ebenfalls Googles Kubernetes-Framework unterstützen soll. Die Azure-Unterstützung für Kubernetes wurde von der Microsofts Tochter MS Open Technologies entwickelt. Azure-Anwender können somit ab sofort Kubernetes zum Importieren und Verwalten von Docker-Containern nutzen.

Kubernetes Visualizer

Bei der Gelegenheit haben die Microsoft-Entwickler auch den unter der Apache-Lizenz stehenden Azure Kubernetes Visualizer in Azure veröffentlicht. Dabei handelt es sich um eine mit Node.js realisierte Webanwendung. Die erzeugt automatisch eine Pod-Definition und einen Replikations-Controller.  Beide müssen Kubernetes-Nutzer bei unter Docker laufenden Clustern verwenden. Der Azure Kubernetes Visualizer visualisiert wie der Name schon suggeriert exakt, was sich im Cluster tut. Ferner können Nutzer die Pod-Definition und die Replikations-Controller-Konfiguration bearbeiten und dann nachvollziehen, wie Kubernetes die Cluster-Konfiguration aktualisiert. Microsoft kommentiert die Funktion im zugehörigen Blog-Eintrag mit:“Diese Demo-Anwendung visualisiert, was genau im Kubernetes-Cluster passiert, in dem sie zeigt, wo all die Workloads laufen. Das hilft vor allem, zu verstehen wie Kubernetes arbeitet und zeigt auch, wie der Scheduler arbeitet.”

Was bereits funktioniert

Mit dem neuen Kubernetes-Support in Azure kann der Nutzer jetzt beispielsweise einen Container erstellen und diesen anschließend auf Azure Storage veröffentlichen. Außerdem ermöglicht der neue Kubernetes-Support das Installieren eines Azure-Clusters wahlweise mit Hilfe von Container-Images aus Azure Storage oder aus Docker Hub. Laut Microsoft ist es außerdem möglich, ein Update einer vorhandenen Kubernetes-Anwendung auf einen Azure-Cluster durchzuführen. Von letzterer Option dürften in erster Linie Nutzer profitieren, die bereits einen Kubernetes-Cluster aufgebaut haben. Laut einem Blog-Eintrag von Microsoft lassen sich bis zu 200 Anwendungen mit einem Kubernetes Cluster Node auf Azure parallel betreiben. Au dem Blog-Eintrag geht aber nicht hervor, ob Microsoft auch Linux als Gastsystem für Docker unterstützten will.

Mit der Azure-Unterstützung für Kubernetes reagiert Microsoft unverkennbar darauf, dass Gooogle selbst in seiner Google Compute Engine Support für Kubernetes anbietet, die ja zu Azure in Konkurrenz steht.