Gebloggt: Z-Push und Zarafa auf Synology DiskStation

In eigener Sache: leider ist Z-Push im Gegensatz zu Zarafa selbst nicht in den DSM-Paketquellen enthalten und ist somit nicht direkt über das Paketzentrum installierbar. Begibt man sich aber auf die Downloadseite des Z-Push-Projektes findet man im Zweig der Version 2.1 auch eine speziell für Synology paketierte Version, zu erkennen an der spk-Erweiterung.

Es genügt also, die Datei  „2.1.1-1.spk“ herunterzuladen und dann aus dem Synology-Paketzentrum manuell zu installieren. Dazu klickt man auf manuelle Installation, dann auf Durchsuchen und navigiert zur zuvor heruntergeladenen Datei  2.1.1-1.spk.

Dies wird allerdings meist im ersten Versuch scheitern, weil Synolgy das Paket als nicht vertrauenswürdig einstuft. Abhilfe schafft leider nur, im Paketzentrum auf Einstellungen zu klicken und im Reiter Allgemein im Bereich Vertrauensebene die Option Jeder Herausgeber zu aktivieren.  Anschliessend lässt sich das Paket problemlos installieren.

Wer Z-Push wie ich nur im lokalen Netz nutzt, muss nichts weiter tun, als in seinen Android-Smartphone ein Exchange-Konto einrichten. Der Link für den Servernamen lautet http://<IP-Adresse Synology-NAS>/Microsoft-Server-ActiveSync.

Wer Z-Push auch ausserhalb des eigenen LAN nutzt, muss ggf. in DSM den Webstation-Dienst und SSL aktivieren, ggf. in Kombination mit einem DynDNS-Server.

Zusammen mit dem nativen Zarafa-Outlook-Client, Zarafa Server, Z-Push und Smartphone ist damit eine kontinuierliche Echtzeitsynchronisation sämtlicher Groupware-Daten gewährleistet. Bei Outlook RT muss man ggf. etwas fummeln.

 

Reparieren der Active Directory-Datenbank

Unter manchen Umständen kann es vorkommen, dass die Active Directory-Datenbank nicht mehr funktioniert. Gehen Sie bei einem solchen Problem folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie files ein, um zu file maintenance zu gelangen.
  5. Geben Sie integrity ein, um einen Integritätstest der Datenbank durchzuführen. Wenn dieser Test einen Fehlermeldung anzeigt, können Sie versuchen, die Datenbank in Ntdsutil zu retten.
  6. Verlassen Sie mit quit die file maintenance, aber bleiben Sie in der Oberfläche von Ntdsutil.
  7. Geben Sie den Befehl semantic database analysis
  8. Geben Sie zunächst den Befehl verbose on ein, damit Sie detaillierte Informationen erhalten.
  9. Geben Sie als nächstes den Befehl go fixup
  10. Das Tool beginnt daraufhin mit der kompletten Diagnose der Active Directory-Datenbank und versucht eine Reparatur durchzuführen.
  11. Verlassen Sie im Anschluss Ntdsutil und starten Sie den Domänencontroller neu. Überprüfen Sie, ob die Active Directory-Datenbank wieder funktioniert. Sollten noch immer Schwierigkeiten auftreten, stellen Sie die Datenbank aus einer Datensicherung wieder her und überprüfen Sie im Anschluss, ob Active Directory bei diesem Stand noch konsistent war. Sie sollten so lange Backups zurückspielen, bis sichergestellt ist, dass die Datenbank wieder konsistent ist.

VMware Workstation 11, Arch Linux und Kernel 4.0

Wer wie ich die Rolling-Release-Distribution Arch Linux einsetzt, kann sich die Lösung aber insofern vereinfachen, dass sich im Quelltext-basierten Community-Repository AUR regelmässig ein bereits zum jeweiligen Arch-Linux-Kernel passendes, vorbereitetes Patch-Paket findet, dass sich mit Hilfe des yaourt-Tools mittels

yaourt -Sy vmware-patch

direkt aus den Quellen übersetzen und einspielen lässt. Danach lassen sich die benötigten Kernel-Module mit …

vmware-modconfig –console –install-all
 
neu konfigurieren, bzw. bauen und VMware Workstation sollte wieder laufen

Bisher hat das auch immer gut funktioniert. Der Vorteil einer Rolling-Realse-Distribution wie Arch-Linux, stets in den Genuss aktuellster Pakete zu kommen, hat sich allerdings bei mir im Zusammenhang mit VMware-Workstation 11 als Bumerang erwiesen, als mir vor wenigen Tagen die tägliche Komplettaktualisierung mit  

pacman -Suy

den neuen Kernel 4.0 auf die Platte schaufelte. Das obligatorische

vmware-modconfig –console –install-all

scheiterte dann nämlich mit der Fehlermeldung: Failed to setup build environment.

Die lässt sich beheben, wenn man die aktuelle gcc-Version 4.9.2 gegen gcc 5 aus dem Testing-Repository austauscht und das Bauen der Kernel-Module dann wiederholt. Dazu aktiviert man die beiden Paketquellen.. .

#[testing]
#Include = /etc/pacman.d/mirrorlist
und
#[multilib-testing]
#Include = /etc/pacman.d/mirrorlist

in /etc/pacman.conf durch Entfernen der Kommentare, aktualisiert dann die Paketquellenliste mit

pacman -Sy

und installiert dann gcc 5 mit

pacman -S gcc.

Anschliessend sollte 

vmware-modconfig –console –install-all

einwandfrei durchlaufen und VMware Workstation 11 wieder laufen. Ich würde empfehlen, die Testing-Repositories anschliessend wieder zu deaktivieren.

Offlinedefragmentation der Active Directory-Datenbank

Bei der Active Directory-Datenbank handelt es sich, wie bei der Datenbank von Exchange, um eine Jet-basierte ESE-Datenbank. Das Active Directory wächst zwar nicht so stark an, wie die Datenbank eines Exchange-Servers, aber dennoch kann es sinnvoll sein die Active Directory-Datenbank zu defragmentieren. Vor allem in größeren Organisationen, bei denen das Active Directory durchaus mehrere Gigabyte groß werden kann, sollte zumindest jährlich eine Offlinedefragmentation durchgeführt werden.

Bevor Sie eine Offlinedefragmentation durchführen, sollten Sie eine Sicherung des Systemstatus Ihres Active Directory durchführen. Wie bei der Offlinedefragmentation von Exchange wird zunächst die Datenbank kopiert, dann offline defragmentiert und anschließend zurückkopiert. Stellen Sie daher sicher, dass sich auf dem Datenträger, auf dem Sie die Offlinedefragmentation durchführen, genügend Speicherplatz frei ist. Um eine Offlinedefragmentation durchzuführen, gehen Sie folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie den Befehl files ein, um zur file maintenance zu gelangen.
  5. Geben Sie den Befehl compact to <Laufwerk:\Ordner> Wählen Sie als Verzeichnis einen beliebigen Ordner auf der Festplatte aus. Ntdsutil kopiert die Datenbankdatei in diesen Ordner und defragmentiert sie.
  6. Wenn keine Fehlermeldungen während der Offlinedefragmentation auftreten, können Sie die Datei dit aus dem Ordner, in welchen sie defragmentiert wurde, zurück in den Datenbankpfad der produktiven Datenbank kopieren. Diesen Vorgang führt Ntdsutil nicht automatisch aus, Sie müssen die Datei manuell kopieren. Sichern Sie die alte Version der ntds.dit aus dem produktiven Datenbankordner. Verschieben Sie die defragmentierte Datei in den produktiven Ordner der Datenbank und überschreiben Sie die alte Version.
  7. Geben Sie in der file maintenance von Ntdsutil den Befehl integrity ein, um die Integrität der Datenbank festzustellen.
  8. Wenn die Integrität der neuen Datenbank sichergestellt ist, können Sie den Domänencontroller ganz normal neu starten. Sollten Fehler auftreten, kopieren Sie die zuvor gesicherte Originalversion zurück und führen Sie einen erneuten Integritätstest durch. Ist der Test diesmal erfolgreich abgeschlossen, versuchen Sie erneut eine Offlinedefragmentation und starten Sie den Test erneut. Sie sollten den Domänencontroller erst in den normalen Modus starten, wenn sichergestellt ist, dass die Datenbank auch konsistent ist.

Da Active Directory als Systemdienst läuft, kann dieser für die Defragmentation auch beendet werden. In diesem Fall muss der Server nicht im Verzeichnisdienst-Wiederherstellungsmodus gestartet werden, sodass andere Dienste auf dem Server weiter von den Anwendern verwendet werden können.

Der Markt für analoge ICs: „Be better before we’re bigger”

Vor sieben oder acht Jahren, einige Leser erinnern sich möglichweise, machten wir bei Linear Technology etwas Verrücktes, andere nannten es couragiert.

Robert H. Swanson, Executive Chairman, Co-Founder, Linear Technology Corporation
Robert H. Swanson, Executive Chairman, Co-Founder, Linear Technology Corporation

Wir stellten fest, dass wir sehr stark in Handys und anderen Konsumerprodukten involviert sind, doch wir sahen für uns kein glückliches Ende kommen. Wir haben deshalb unsere Strategie schnell geändert und wieder das gemacht, was wir 20 Jahre lang erfolgreich getan haben. Das „Wie“ war die große Herausforderung und wir nutzten unser hervorragendes Engineering, unsere guten Prozesse und das Silizium, das dafür nötig ist. Wir stoppten die Entwicklung von Siliziumschaltkreisen, die nur 50 US-Cent Wert waren, und kehrten zurück zu den Bausteinen, die 2, 3 oder 4 US-Dollar kosten.

Wir haben den Fokus im Vertrieb – weg vom Konsumer-Geschäft – geändert und, wichtiger noch, wir sagten unserem Entwicklerteam: „Macht das, was ihr schon immer gemacht habt und legt gleich los!“ Es war der Beginn einer Ära, die drei, vier, fünf Jahre benötigte. Doch die Kunden, auf die wir zielten, wie z.B. die Automobilindustrie, sind auch in Designzyklen von zwei, drei, vier oder fünf Jahren.

Ich denke, eine Schlüsselbotschaft dieses Jahres – und das geben wir auch in unserem Jahresbericht bekannt – ist, dass unser Management vor sieben Jahren die richtigen Märkte avisiert und unwichtige Märkte ausgeklammert hat. Parallel dazu entwickelte unser Designteam die passenden Produkte.

In die richtigen Märkte investiert

Wir können also dieses Jahr mit Stolz sagen, dass wir in den richtigen Märkten, mit den richtigen Produkten und mit guten Ergebnissen agieren. Ich meine, es war gut für unser Unternehmen diesen Weg einzuschlagen: Weg von der Konsumerindustrie und dafür die Industrieelektronik wieder zu beleben, die immer eine wichtige Rolle bei uns spielte. Ihr Geschäftesanteil betrug 30 bis 43 Prozent, und die Toplinien wuchsen weiter. Automotive betrug, als wir diese Entscheidung trafen, nur 3 oder 4 Prozent, jetzt sind wir bei 20 Prozent. Ich dachte mit diesen 20 Prozent wäre der Gipfel erreicht, jetzt bin ich aber überzeugt, dass 20 Prozent nicht das Ende der Fahnenstange sind.

Im Bereich der Kommunikation wollen wir unsere Position halten. Wobei die meisten Menschen unter Kommunikation Handys verstehen. Da sind wir aber nicht tätig. Jedoch sind wir weiterhin stark in Netzwerken vertreten und spielen eine bedeutende Rolle in der Infrastruktur von Basisstationen für den Mobilfunk.

90 Prozent des Umsatzes im Nicht-Konsumerbereich

So gesehen spielt sich 90 Prozent unseres Umsatzes im Nicht-Konsumerbereich ab. Weiterhin sind wir mit kontinuierlich 6 bis 7 Prozent in der Luft- und Raumfahrt sowie mit mehr als 10 Prozent im Computergeschäft vertreten. Man kann Linear in all diesen Märkten finden, in denen wir diesen Level halten können. Der Anteil der Konsumerprodukte ging von einst 28 Prozent auf 3 Prozent zurück. Heute bedienen wir mehr die Industrie und vor allem haben wir einen großen Sprung in Automotive gemacht. Unser Automotive-Business war der am schnellsten wachsende Bereich und er entwickelt sich immer weiter – es scheint so, als ob wir hellseherische Kräfte gehabt hätten.

Als der Analogmarkt 20 Milliarden US-Dollar betrug, machten Automotive und Industrie zusammen 20 Prozent aus. Macht man einen Sprung auf heute, ist der Analogmarkt inzwischen bei über 40 Milliarden US-Dollar und der Industrie- und Automobilanteil liegt bei 43 Prozent. Wir sind so gesehen zur rechten Zeit am richtigen Platz und wir haben, so denke ich, einen Vorsprung von fünf Jahren vor unseren Mitbewerbern.

Als unser Stand auf der electronica früher die Größe einer Telefonzelle hatte, war er immer überfüllt. Vor 20 Jahren träumte ich immer von einem größeren Stand, hatte aber Bedenken, dass er dann nicht mehr so übervölkert ist. Heute kann ich aber feststellen, dass, je größer der Stand ist, umso mehr Kunden kommen und er ist wieder überfüllt.

Die Besten, nicht die Größten

Unser Ziel war es immer, zu den Besten zu gehören, unsere Strategie war es nie, zu den Größten zu gehören: „Be better before we’re bigger“. Ich denke mit dieser Strategie und deren Umsetzung haben wir eine Firma geschaffen, die finanziell sehr erfolgreich ist. Wir haben als Alleinanbieter die Chance, den Preis zu bestimmen. Wir liefern aber keine Bausteine für 5 US-Dollar, wenn sie nur 4 Dollar Wert sind; wir verkaufen Teile für 5 Dollar, die einen Wert von 6 Dollar haben. Das war unsere Strategie von Anfang an.

Aber es gibt natürlich Herausforderungen. Man muss in den richtigen Märkten zur richtigen Zeit mit den passenden Lösungen präsent sein. Ist das der Fall, ist man der Erste im Markt und kann Produkte preisgerecht an die Kunden verkaufen. Um die Preiswürdigkeit zu erzielen, muss das Produkt aber auch die erwarteten Funktionen erfüllen. Dann ist es auch billiger als man bezahlt hat und alle sind glücklich.

Das Ansehen, das ich bei den Menschen habe, liegt wohl darin, dass ich tief in unsere Strategie involviert bin – weniger in die Produktstrategie als in die Markt- und Business-Strategie und natürlich in die Firmenkultur. Wir haben eine vom Engineering bestimmte Kultur; wir sind also eine Ingenieursfirma. Politik wollen wir nicht, die halten wir klein. Auch die Bürokratie wollen wir klein halten. Aber, wenn man größer wird, schleicht sie sich einfach ein. Deshalb muss man diese beiden Kriterien kontrollieren und alle Ingenieure sollten wissen, dass es dem Topmanagement bewusst ist, dass wir eine Ingenieurfirma sind und es keine zweite Meinung dazu gibt: Wir müssen sie machen lassen! Wir haben Ingenieure, denen keine Aufgabe zu schwer ist, und wir lassen ihnen freien Lauf. Manchmal müssen wir geduldig sein, was nicht zu meinen Vorzügen zählt, aber Geduld ist ein Teil unseres Geheimnisses.

Mir ist immer bewusst, wie wir uns um unsere Ingenieure kümmern; die machen eben die Firma aus. Hoffentlich haben diese Kultur und die damit zusammenhängenden Dinge dazu beigetragen, ein Unternehmen zu formen, das niemand verlassen möchte – außer er geht in Rente.

Von Bob Swanson, Executive Chairman, Co-Founder, Linear Technology Corporation.

Cloud- und Serververwaltung

Verwaltungswerkzeug für Linux-Server optimal nutzen

Um Linux-Server optimal zu betreiben und zentral zu verwalten, sind effiziente Verwaltungswerkzeuge unerlässlich. Die Werkzeuge müssen einheitlich funktionieren, unabhängig davon, ob der Server herkömmlich installiert, virtualisiert oder in der Cloud betrieben wird.

Geht es um die effiziente Verwaltung und die Verteilung von Patches mehrerer Linux-Server, spielen Verwaltungswerkzeuge für die gemeinsame Konfiguration und Verwaltung eine besonders wichtige Rolle. Das gilt auch dann, wenn die Linux-Server virtualisiert oder in der Cloud betrieben werden. Suse bietet hier mit Suse Manager und Suse Studio Anwendungen, mit denen Administratoren alle eingesetzten Server im Unternehmen zentral verwalten können. Dabei spielt es keine Rolle, ob die Server im lokalen Netzwerk betrieben oder in der Cloud im Einsatz sind. Auch die Verwaltung virtueller Linux-Server in Microsoft Azure, Google Compute Engine und Amazon Web Services wird uneingeschränkt unterstützt.

Verwaltung, Patch-Verteilung und Überwachung von Linux-Servern mit Suse Manager

Mit Suse Manager überwachen Administratoren den Zustand ihrer Linux-Server über eine zentrale Konsole. Leistungsprobleme von Servern werden auf diesem Weg natürlich auch frühzeitig erkannt. Suse Manager unterstützt Linux-Server in klassischen Client-Server-, virtuellen und Cloud-Umgebungen umfassend.  Auch die Automatisierung der Softwareverwaltung, System-Provisioning und Überwachung lässt sich mit dem Werkzeug darstellen.

Durch die Standardisierung und Automatisierung von Server-Patching und -verwaltung für Suse Linux steht mit Suse Manager eine einheitliche Linux-Management-Infrastruktur zur Verfügung. Da sich Verwaltungs- und Provisioning-Aufgaben schneller und mit weniger Fehlern durchführen lassen, reduziert sich die Häufigkeit von Serverausfällen. Neben der Verwaltung von Suse Linux Enterprise und Red Hat Enterprise Linux, lassen sich auch unterschiedliche Hardwareplattformen und andere Linuxbasierte-Infrastrukturen anbinden. IT-Unternehmen können wiederum Systemkonfigurationen erstellen und aktivieren, indem sie Änderungen am Server verfolgen und für Konsistenz im Data Center sorgen. Suse Manager bestätigt automatisch, wenn Server immer über die neuesten Sicherheitsupdates verfügen.

Linuxbasierte-Anwendung mit Suse Studio bereitstellen

Während Suse Manager vor allem für die Verwaltung von Linux-Servern ideal ist, können Entwickler mit Suse Studio optimal Anwendungen erstellen und zertifiziert zur Verfügung stellen. Auch Images für Bootmedien und Server lassen sich auf diesem Weg zentralisiert zur Verfügung stellen. Unternehmen, die auf Amazon Web Services, Google Compute Engine oder Microsoft Azure setzen, können mit Suse Studio eigene Images in die Cloud laden und als Vorlage für zukünftige Server nutzen. Suse Studio ist eine Abwendung und bietet daher ideale Voraussetzungen für die Anbindung an die Cloud. Die Anwendung lässt sich komplett online betreiben, aber auch als lokal installierte Version. Suse Studio erlaubt auch die Entwicklung und Erstellung eigener Appliances auf Basis von Suse Linux Enterprise Server.

Die auf Basis dieser Umgebung erstellten Anwendungen lassen sich in herkömmlichen Linux-Infrastrukturen einbinden, aber auch in virtuellen Umgebungen und auf Linux-Servern in der Cloud. Hier arbeiten auch Microsoft Azure, Google Compute Engine und Amazon Web Services optimal mit Suse Studio zusammen. Mit entsprechender Konfiguration lassen sich Images über einen einzigen Klick auf Amazon EC2 bereitstellen. Wollen Administratoren einen neuen Server mit Amazon Web Services hosten, profitieren sie davon, dass Suse Studio auch Amazon EC2-Images unterstützt. Dazu werden die AWS-Anmeldedaten mit dem Suse Studio-Konto verknüpft. Das ermöglicht das Hochladen und Starten von Amazon EC2-Instanzen direkt aus Suse Studio. Die neue Version 1.3 von Suse Studio bietet dazu auch eine überarbeitete Benutzeroberfläche für Amazon EC2-Bereitstellungen für alle aktuellen Amazon EC2-Regionen.

Mit Suse Studio lassen sich Images für die meisten Cloud- und Virtualisierungsumgebungen erstellen. Auch die Migration zwischen verschiedenen Infrastrukturen ist über Suse Studio möglich. Unterstützt werden VMware, Virtual Box, Xen, KVM, Hyper-V sowie das Open Virtualisation Format OVF. Auch Open Stack, Suse Cloud, Amazon EC2 und Microsoft Azure werden unterstützt und stehen als Migrationsziele zur Verfügung. Natürlich wird auch optiomal Suse OpenStack Cloud und OpenStack unterstützt. Das heißt, es ist nicht nur möglich Images für öffentliche Clouds zu erstellen, sondern auch Vorlagen für private Cloudumgebungen. Ab Suse Studio 1.3 können Unternehmen Suse OpenStack Cloud/OpenStack/KVM als eines der vordefinierten Formate für ihr Anwendungsimage verwenden. Durch die Funktion Suse Studio WebHooks werden alle in Suse Studio erstellten Suse OpenStack Cloud-Images automatisch direkt in die eingesetzte Suse OpenStack Cloud-Instanz importiert.

Suse Linux Enterprise Server

In vielen Unternehmen sind Linux-Server nicht nur lokal auf Servern oder virtuellen Maschinen im Einsatz, sondern müssen auch in der Cloud funktionieren. Vor allem in den Diensten Amazon Web Services, Microsoft Azure und Google Compute Enigine ist der Betrieb von Linux-Servern wichtig, auch in Zusammenarbeit mit anderen Servern, auch von anderen Herstellern.

Linux stabil und sicher in Amazon EC2 betreiben

Der Vorteil dieser Zusammenarbeit sind die bereits vorgefertigten Basis-Images, die Administratoren in Amazon EC2 verwenden können um schnell und einfach neue Server zu erstellen. Die Images werden direkt von Suse gepflegt.

In diesem Zusammenhang ist auch wichtig zu wissen, dass Updates der Server sofort zur Verfügung stehen und dadurch die installierte Linux-Version schnell, einfach und sicher betrieben und jederzeit aktualisiert werden kann. SUSE pflegt die Basis-AMIs von SLES für Amazon EC2. Virtuelle SLES-Server in Amazon EC2 erhalten Updates, sobald diese von SUSE zur Verfügung gestellt werden. Die Updates lassen sich natürlich über die standardmäßigen Systemverwaltungs-Tools für SLES installieren. Sobald ein SLES-Image ausgeführt wird, können Administratoren alle SUSE-Standard-Tools wie YaST und Zypper nutzen um Pakete zu installieren und das System zu konfigurieren.

Die Cloud-Installationen von SLES unterstützen natürlich alle SLES-zertifizierten Anwendungen, genauso wie lokal betriebene Server. SLES steht in Amazon EC2 sowohl für Amazon EC2-Spot-Instances als auch als Amazon EC2 Dedicated Instances zur Verfügung. Wie andere Ressourcen auch, werden die SLES-Server in der Amazon-Cloud über eine nutzungsabhängige Zahlung abgerechnet. Die Server-Ressourcen werden also auf Anforderung bereitgestellt, ohne langfristige Verpflichtungen oder Vorauszahlungen.

SUSE Studio erleichtert Anwendern von SLES in Amazon EC2 den Einstieg in die Entwicklung. Auch die Bereitstellung von virtuellen Anwendungen und kundenspezifischen SLES-Anwendungen sind mit Suse Studio optimal möglich. SLES-zertifizierte Anwendungen lassen sich auf diesem Weg auch in der Cloud bereitstellen und testen. Suse stellt dazu auch ein Whitepaper zur Verfügung (http://www.novell.com/docrep/2014/09/using_suse_studio_to_build_and_deploy_apps_on_amazon_ec2.pdf) , dass Entwickler bei der Einarbeitung unterstützt.

Um in AWS eine SLES-Instanz zu starten, melden sich Administratoren an der AWS Management Console an, wählen das Amazon EC2-Dashboard aus und klicken auf die Schaltfläche „Launch Instance“. Hier steht über „Instance Wizard“ die Option „SLES“ zur Verfügung. Administratoren können eine Instanz auch im AWS Marketplace über 1-Click starten.

Linux auf Azure – unterstützte Verteilungen und Zusammenarbeit mit Windows

Wie in Amazon EC2, arbeitet Suse auch eng mit Microsoft zusammen um virtuelle Server in Microsoft Azure effizient und performant zur Verfügung zu stellen. SLES lässt sich in Azure-Cloud-Dienste integrieren um eine einfach zu verwaltende Cloudumgebung bereitzustellen. Die Umgebung arbeitet mit anderen Servern und Dienste in Microsoft Azure zusammen. Insgesamt stehen weit über 9.000 zertifizierte Anwendungen von fast 2.000 unabhängigen Softwareanbietern für SUSE Linux Enterprise Server zur Verfügung. Alle diese Anwendungen lassen sich auch in SLES unter Microsoft Azure in Betrieb nehmen.

Dank Samba-Technologie lässt sich SUSE Linux Enterprise auch in Microsoft Azzure nahtlos in alle bestehenden Microsoft Windows Datei- und Drucksysteme integrieren und unterstützt diese. Zusätzlich lässt sich die Lösung mit bereits vorhandenen Verzeichnis- und Domain-Infrastrukturen wie Microsoft Active Directory, NetIQ eDirectory und OpenLDAP verbinden.

SUSE Linux Enterprise Server kann auch in Verbindung mit traditionellen UNIX-Umgebungen eingesetzt werden, auch in Microsoft Azure oder den anderen erwähnten Clouddiensten. Microsoft empfiehlt SUSE Linux Enterprise Server vor allem Kunden, die Windows und Linux in ihrem Data Center einsetzen.

Ubuntu plant langfristig Abkehr vom Deb-Paketformat

Auf dem Online Desktop Summit zu Ubuntu 15.10 hat Ubuntus Desktop Manager Will Cooke in einem Hangout mit Entwicklern und Anwendern über Canonicals  langfristig geplante Abkehr vom Debian-Paketformat diskutiert. Ubuntu ist seit Jahren eine der beliebtesten Desktop-Distributionen für Anwender und hat Debians Paketformat über die Grenzen von Debian GNU/Linux populär gemacht.

Ubuntu Snappy Personal

Ubuntu Snappy Personal ist quasi die Desktop-Ausgabe von Ubuntu Snappy Core, das Canonical für den Einsatz in der Cloud und im  IoT-Umfeld plant.  Ubuntu Core orientiert sich in seiner Funktionsweise an CoreOS, Red Hat Atomic Host und andere Distributionen an, die aufgrund der unterliegenden Container-Technik allesamt atomare Updates unterstützen und das System so mittels eines einfachen Rollback jederzeit in einen gesicherten Zustand vor der Aktualisierung zurückführen können.

Das Snappy-Paketformat

Genau diese Funktionsweise soll künftig auch die Basis für Ubuntu Desktop bilden, um das System aktuell zu halten. Canonical hat dazu für Snappy Core das Paketformat Snappy kreiert. Dieses lehnt sich zwar an das Deb-Format an, lässt sich aber einfacher paketieren. Da Snappy zu Deb kompatibel ist, können Pakete von Deb nach Snappy umgewandelt werden.

Laut Ansicht von Cooke ist Snappy die Zukunft für Ubuntu-Desktops. Daher soll das geplante Snappy Personal erstmals testweise auf Basis des Images für Ubuntu Next zum Einsatz kommen. Ubuntu Desktop Next ist bekanntlich die künftige Ubuntu-Version, welche die Entwicklungszweige von Unity 8 und Mir zusammenführt.

In ferner Zukunft

Dazu soll das Image von Ubuntu Next laut Cook erst einmal in ein großes Snappy-Personal-Image umgewandelt werden. Ist das geschehen, will Canonical nach und nach damit beginnen, zuerst die Core-Pakete und danach wichtige Anwendungen, wie etwa Dateimanager, Webbrowser, Messenger und Medienspieler auf das Snappy-Personal-Format umzustellen. Das Snappy-Personal-Format ist seinerseits eine Weiterentwicklung des Standard-Paket-Formats bei Ubuntu Touch und sehr einfach aufgebaut.

Vorhersehbare Probleme

Allerdings sind einige Probleme vorhersehbar, etwa die Integration von Unity 8 und Mir und die Kommunikation von Mir und Unity mit X-Apps. Zwar wurde im Verlauf des Summits deutlich, dass es Canonical mit der Umstellung des Paketformats durchaus ernst meint, Will Cooke versicherte aber in Anbetracht der noch zu lösenden Probleme,  dass das Deb-Format noch eine ganze Weile verfügbar bleiben wird. So müssten sich auch auf Ubuntu basierende Distributionen wie Mint&Co vorerst keine Sorgen machen.

Der Informations-Schatz liegt im Datensee

„Der Schatz im Silbersee“ gehört zu den bekanntesten Werken des Abenteuerschriftstellers Karl May, der es bekanntlich mit der Fabulierkunst manchmal übertrieb und es mit der Wahrheit nicht immer ganz so genau nahm. Für Unternehmen dürfte in Zukunft der Datensee den wichtigsten Schatz darstellen. Denn in dem Datensee, den die Sensoren und Geräte aus dem Internet der Dinge speisen, liegen die Informationen, aus denen Firmen die wichtigen Handlungsempfehlungen ableiten können. In diesem See zu fischen, dürfte deshalb in Zukunft eine der zentralen Unternehmensaufgaben sein.

Anders als beim Fabulierer Karl May liegt also im Datensee die Wahrheit, erklärten Jim Heppelmann, Chef des gastgebenden Unternehmens PTC, und Professor Michael Porter von der Harvard Business School. Mit dem „Data Lake“ ist eine neue Art von Datenbank gemeint, in die praktisch alle Informationen einfließen, die die sogenannten „Smart Connected Products“ (intelligente vernetzte Produkte) der Zukunft erzeugen. Als Beispiel für ein solches Produkt wurde in Boston ein Mountain-Bike des US-Herstellers Santa Cruz gezeigt, das mit einer Reihe von Sensoren und einer Raspberry-Pi-Plattform ausgestattet wurde.

An so einem Sportgerät könne man zum Beispiel Daten wie die Umdrehungsgeschwindigkeit der Räder messen, die Kraft, die auf die Pedale einwirkt, oder aber auch die Beschleunigungswerte an der Federung. Die so gewonnenen Daten könnten dann dazu nutzen, um sie wiederum in das Konstruktionsprogramm einzuspielen – etwa um angenommene Werte mit den in der Realität gemessenen Daten zu vergleichen.

Da die Wurzeln des gastgebenden Unternehmens PTC in 3-D-Konstruktionswerkzeugen liegen, zeigte Heppelmann, wie die Daten direkt im CAD-Werkzeug Creo verarbeitet werden, um Soll- und Istdaten des Produkts miteinander abzugleichen. Mit Hilfe von Augmented-Reality-Technik können diese Daten zudem auf einem Tablet eingespielt werden. Dies unterstützt Service-Mitarbeiter, die das Produkt warten oder reparieren müssen.

Im Rahmen seiner einführenden Ansprache gab PTC-Chef Jim Heppelmann die Akquisition des IT-Unternehmens Coldlight bekannt. Coldlight hat mit der Analysetechnik Neuron ein Verfahren entwickelt, das einen Datenstrom in Echtzeit nicht nur auswertet, sondern das auch dank selbstlernender Verfahren Prognosemodelle entwickle. Auf diese Weise sei es möglich, aus den Daten konkrete Handlungsempfehlungen für geschäftliche Entscheidungen zu generieren.

Eine solche Technik sei nötig, um mit den Anforderungen der Zukunft Schritt zu halten, sagte Professor Michael Porter. „Der Kern der intelligenten vernetzten Produkte der Zukunft sind die Daten“, daran ließ der Professor keinen Zweifel. Laut Porter werden bald in vielen Unternehmen sogenannte Chief Data Officers (CDO) Einzug halten, zu deren Aufgabe es gehöre, die gesamten Informationen zu aggregieren. Den CDOs obliegt es also, die Datenseen anzulegen und sie zu pflegen.

Das Neue an der Technik ist, dass diese sogenannten Datenseen aus unstrukturierten und nicht normalisierten Daten bestehen, die in keiner Weise aufbereitet seien. Gerade die Rohdaten würden dazu genutzt, die Prognosemodelle zu erstellen. Das sei wichtig, um zum Beispiel die Informationen aus dem realen Leben in den Produkt-Entwicklungszyklus zurückzuspielen. Für Porter ist nämlich die Produktentwicklung der Zukunft kein abgeschlossener, sondern ein kontinuierlicher Prozess – das sogenannte „Evergreen Design“, das nicht einfach ein Produkt-Release, sondern die ständige Weiterentwicklung zum Ziel habe.

Die mit Coldlight erworbene Datenanalyse-Technik wird voraussichtlich mit der Internet-of-Things-Plattform ThingWorx, die PTC im vergangenen Jahr übernahm, zusammengeführt werden. ThingWorx ist gleichzeitig IoT-Middleware und Applikationsbaukasten: Das Werkzeug erlaubt es, vergleichsweise schnell Applikationen zu erstellen, die die aus dem Internet der Dinge generierten Daten visualisieren und auch auswerten. Kurier- oder Lieferdienste können auf diese Weise zum Beispiel ihre Routenführung optimieren. Coldlight erweitert das Spektrum, indem es in der Lage ist, Ströme unstrukturierter Daten quasi in Echtzeit zu analysieren.

Ein weiterer Anwendungsfall für die Technik ist die Vorhersage von Störungen im laufenden Betrieb, etwa bei Industrieanlagen oder Kraftwerken, und die Einleitung von Gegenmaßnahmen. Durch die Prognosemodelle könnten etwa starre Wartungszyklen an den tatsächlichen Einsatz der Anlagen angepasst werden. Das spart potenziell Geld, stellt aber vor allem die Anlagenverfügbarkeit sicher.

Die „Lennon und McCartney“ des IoT

Porter und PTC-Chef Jim Heppelmann hatten im vergangenen Jahr einen viel beachteten visionären Artikel über die Zukunft des Internets der Dinge in der Zeitschrift „Harvard Business Review“ veröffentlicht. Der Industrieanalyst William K. Pollock des Beratungsunternehmens „Strategies for Growth“ bezeichnete die beiden deshalb in einem Tweet als die „Lennon und McCartney“ des Internets der Dinge – in Anlehnung an die kreativen Köpfe und Vordenker der legendären Beatles.

Heppelmann kündigte weiter an, dass sich sein Unternehmen verstärkt dem Aspekt der Datensicherheit widmen werde. Heutige Datencenter seien gegenüber Hacker-Angriffen nicht unbedingt sicherer, als sie es vor zehn Jahren waren, gab er zu. „Die Herausforderung ist da, und dieser Herausforderung werden wir uns stellen“, sagte er.

An der LiveWorx-Konferenz, die gestern in Boston/Massachusetts begann, nehmen 2300 Entwickler, Führungskräfte, Marktbeobachter und Analysten teil. Damit ist die LiveWorx die vermutlich größte, aber sicher die am schnellsten wachsende Fachtagung zum Thema Internet der Dinge: Im vergangenen Jahr hatten sich noch 350 Teilnehmer für die LiveWorx registriert.
´ „The Woz“ hat noch keine Apple Watch bestellt

Stargast des ersten Konferenztages war Apple-Mitbegründer Steve Wozniak. Er zeichnete drei Entwicklerteams aus, die am vorausgegangenen Wochenende in einem Hackathon-Wettbewerb Lösungen aus dem Bereich des Internets der Dinge programmiert hatten, Das siegreiche Team hatte sich mit einem System beschäftigt, das die Barrierefreiheit von Verkehrszeichen zum Ziel hat.

Wozniak, der zuvor ein wenig aus seinem Leben geplaudert hatte, gab übrigens an, sich noch keine Apple Watch bestellt zu haben. Er werde das zwar auf jeden Fall noch tun, sein Enthusiasmus gegenüber der Datenuhr hielt sich aber in Grenzen. Denn er zweifelte, ob eine Smartwatch sein Leben genauso erleichtern könne wie ein Smartphone. Eine Smartwatch könne zwar potenziell dasselbe tun wie ein Smartphone, sie sei aber durch die Größe ihres Displays limitiert.

Umgang mit hohen dI/dt-Lasttransienten

Bei vielen Prozessoren erfordern die Spezifikationen, dass die Stromversorgung große, sich schnell ändernde Ausgangsströme liefert, typischerweise bei einer Änderung des Prozessor-Betriebsmodus. In einem System mit einer Ausgangsspannung von 1 V kann es beispielsweise erforderlich sein, für einen Lasttransienten von 100 A/µS die Versorgungsspannung in einem Rahmen von drei Prozent zu stabilisieren.

Der Schlüssel zur Lösung dieses Problems ist die Feststellung, dass es sich dabei nicht nur um ein Stromversorgungs- sondern auch um ein Stromverteilungsproblem handelt, und dass beide miteinander verflochten sind.

Formel 1
Gleichung 1

Die Auswirkung dieser hohen dI/dt-Anforderungen ist, dass die Spannungsquelle nur eine sehr geringe Induktivität besitzen darf. Wir formen den Ausdruck in Gleichung 1 um und lösen nach der zulässigen Induktivität der Quelle auf (Gleichung 2).

Formel 2
Gleichung 2

Im Pfad des schnellen Lasttransienten darf eine maximale Induktivität von 0,3 nH vorliegen. Zum Vergleich: Die Induktivität einer 0,25 cm breiten Leiterbahn auf einer vierlagigen Platine beträgt ca. 0,3 nH/cm. Die typische Induktivität eines Bonddrahtes in einem IC-Gehäuse liegt im Bereich von 1 nH und Durchgänge in einer Platine bei etwa 0,2 nH.

Formel 3
Gleichung 3

Außerdem gibt es eine Reiheninduktivität bei Bypass-Kondensatoren, wie in Bild 1 dargestellt. Die obere Kurve stellt den Widerstand eines einzelnen X5R-1210-Keramikkondensators mit 22 µF und 16 V dar, der auf einer vierlagigen Platine verlötet ist. Wie erwartet verringert sich der Impedanz unterhalb von 100 kHz mit steigender Frequenz. Bei 800 kHz tritt jedoch eine Serienresonanz auf und der Kondensator wird induktiv. Die Induktivität, die aus dem Kondensatorwert und der Resonanzfrequenz berechnet werden kann, beträgt 1,7 nH, liegt also deutlich über unserem Ziel von 0,3 nH. Glücklicherweise lassen sich Kondensatoren parallelschalten, um die effektive äquivalente Serieninduktivität (ESL) zu verringern.

Bild 1: Parasitäre Induktivitäten paralleler Kondensatoren verringern die Effizienz
Bild 1: Parasitäre Induktivitäten paralleler Kondensatoren verringern die Effizienz

Die untere Kurve in Bild 1 zeigt die Reduktion der Impedanz zweier paralleler Kondensatoren. Interessant ist dabei, dass die Resonanz sich leicht verringert hat, was bedeutet, dass die effektive Induktivität nicht genau die Hälfte beträgt. Auf Basis der Resonanzfrequenz beträgt die Induktivität nun 1,0 nH, entsprechend einer 40-prozentigen Reduktion der ESL statt der erwarteten 50% bei zwei parallelen Induktivitäten. Dieser Effekt hat zwei Gründe: die Verbindungsinduktivität und eine gemeinsame Induktivität zwischen beiden Kondensatoren.

Die Schleifengröße des Strompfades bestimmt die parasitäre Induktivität bei der Parallelschaltung beider Kondensatoren und die Größe der Kondensatoren andererseits bestimmt zu einem gewissen Grad die Schleifenfläche. Diese Korrelation von Größe und Induktivität ist in Tabelle 1 offensichtlich. Diese zeigt die Kondensatorinduktivität für verschieden große, oberflächenmontierte Keramikkondensatoren. Im Allgemeinen weisen größere Kondensatoren eine höhere Induktivität auf.

Tabelle 1: Die Größe des oberflächenmontierten Keramikkondensators beeinflusst die parasitäre Induktivität
Tabelle 1: Die Größe des oberflächenmontierten Keramikkondensators beeinflusst die parasitäre Induktivität

Tabelle 1 berücksichtigt nicht die Effekte der Kondensatormontage auf einer Platine, die ja in unseren vorangegangenen Messungen die Induktivität von 1 nH auf 1,7 nH erhöht hat. Ein weiterer interessanter Punkt ist, dass die Position der Terminierung einen bedeutenden Einfluss auf die Induktivität hat. Der Kondensator 0805 hat Anschlüsse an der kurzen Seite, während sie beim Kondensator 0508 an der langen Seite liegen. Dadurch wird die Lände des Strompfades beinahe halbiert und verbreitert, was eine signifikante Reduktion der Induktivität zur Folge hat. Diese alternative Konfiguration bietet eine Induktionsverringerung um vier zu eins.

Zusammenfassend gesagt erfordern hohe dI/dt-Lastsprünge eine sorgfältige Dimensionierung der Bypasskondensatoren, um die dynamische Regelung des Netzteils aufrechtzuerhalten. Oberflächenmontierte Kondensatoren müssen sehr nah an der Last angebracht sein, um die Verbindungsinduktivität zu minimieren. Bei Kondensatoren tritt eine parasitäre Induktivität auf, die eine ausreichende Entkopplung verhindert. Eine Parallelschaltung von Kondensatoren zur Reduktion dieser parasitären Induktivität ist effektiv, aber Verbindungs- und gemeinsame Induktivität verringern die Wirkung. Auch die Verwendung von Kondensatoren mit kürzeren Strompfaden ist effektiv. Dies lässt sich durch kleinere Teile oder Teile mit unterschiedlichen Anschlüssen erreichen, bei denen der Strom durch das kürzere Ende fließt.