Gebloggt: Zarafa auf Synology RackStation

Wie schon im letzten Blog-Post vor den Feiertagen erwähnt, sind NAS-Geräte von Synology bei Powerusern und kleinen Unternehmen weit verbreitet und seht beliebt. Die in Desktop- oder Rack-Bauweise erhältlichen Boxen leisten dabei deutlich mehr, als nur als RAID-basiertes Netzwerkspeicher Dienst zu schieben, da unter der Haube mit Busybox eine Linux-Kern werkelt.

Hersteller Synology hat dazu seine Verwaltungsoberfläche DSM mit einer  leistungsfähigen App-Schnittstelle (Paket-Zentrum) ausgestattet, sodass auch externe Hersteller, wie z. B. Zarafa relativ einfach Anwendungen in und für DSM implementieren können. Die gute Zarafa-Integration geht massgeblich auf Julian Döhle zurück, der Zarafa in Synology sogar eine grafischen Administration spendiert hat, die es im Original gar nicht gibt. So lassen sich nach Installation und Start von Zarafa über das Paketzentrum ( als einzige Abhängigkeit muss vorher MariaDB installiert sein) im Hauptmenü links ober unter Zarafa Administration problemlos Zarafa-Benutzer und Fetchmail-Jobs anlegen.

Fetchmail einrichten

Nach einem Klick auf den Reiter Fetchmail lassen sich mit Create beliebig viele Fetchmal-Jobs anlegen. Jeder davon ist mit einem existenten Zarafa-User verknüpft, den man zuvor anlegen muss. Der entsprechende Benutzername kommt dann ins Feld Username. Danach ergänzt man noch bei Server den Namen des IMAP-Servers des gewünschten Providers und legt Protocol (i.d.R. IMAP) und Port fest, z.B. 993 wenn man unten das Häkcken bei SSL aktiviert. Das Tool erzeugt dann eine passende Fetchmail-Konfiguration unter /var/packages/Zarafa/etc/fechmail.rc, die sich bei Bedarf via SSH noch anpassen lässt. So löscht fetchmail leider in der Synology-Vorkonfiguration (Parameter flush) gleich alle Mails vom IMAP-Server. Ein Ersetzen durch keep führt leider dazu, dass bei jeden Fetchmail-Lauf sämtliche Mail erneut abgeholt werden, da offenbar kein Vergleich stattfindet, welche Mail schon da sind. Hier sollte aber keep uidl für Abhilfe sorgen. Anschliessend klickt man auf Save & Restart Fetchmail.

Gebloggt: Zarafa mit Outlook-Access auf Synology RackStation

NAS-Geräte von Qnap oder Synology sind insbesondere bei Powerusern und kleinen Unternehmen weit verbreitet und leisten weit mehr, als nur als RAID-basiertes Netzwerkspeicher vor sich hin zu vegetieren. Das gilt zwar bei nahezu allen Routern und Home-NAS-Geräten, wie z. B. einer Fritzbox oder mit auf  OpenWRT beruhender Hardware (Linksys), weil unter der Haube fast immer Linux werkelt, bzw. ein Busybox-System bei Synology, allerdings ist ein sinnvoller Einsatz einer Groupware nur möglich, wenn auch die Hardware-Leistung dazu passt. Eine Fritzbox ist und bleibt eben doch nur ein Router.

Ein harmonisches Paar

Ob nun Zarafa von Popularität der Synology-Geräte profitiert oder umgekehrt sei dahingestellt, ein interessantes Gespann ist es allemal, zumal sich Zarafa mit Hilfe des Paket-Zentrum in DSM sehr einfach installieren lässt. Als kleines Bonbon sieht die Zarafa-Integration bei Synology auch das Installieren der grafischen App Zarafa Administration vor, mit der man komfortabel Benutzer anlegen oder Fetchmail konfigurieren kann, was bei Zarafa pur nur über die Kommandozeile funktioniert. Alles Friede Freud Eierkuchen, also?  Leider nicht.

Nach einem Update der DSM-Firmware auf die Version 5.1 5004 (aktuell ist DSM 5.1-5021) verweigert der Outlook-Connector (3 User sind in der kostenlosen Zarafa-Version enthalten) die Verbindungsaufnahme zum Zarafa-Server mit der Fehlermeldung 

„Das Profil kann nicht genutzt werden, da der Server keine Verbindung zum Lizenzdienst aufbauen konnte. Bitte wenden Sie sich an den Administrator“.

Outlook harkt

Nach dem Verbinden via SSH und einem Blick ins Dateisystem  lässt sich die Ursache schnell eingrenzen.  Der SSH-Service lässt sich übrigens in der DSM-Systemsteuerung im Bereich Terminal & SNMP aktivieren. Offenbar ist /var/run seit dem letzten DSM-Update ein relativer Symlink auf /run . Der der Zarafa-Licensed-Daemon in einer aus einem Debian-Paket stammenden chroot-Umgebung gestartet  und der /var-Zweig per mount-Befehl in die chroot-Umgebung gemappt wird, erklärt sich das auftretende Symptom. Abhilfe schafft folgender temporärer Hack: 

Man meldet sich via SSH an der RackStation an. Dort gibt man dann Folgendes ein:

mkdir /usr/local/zarafa-licensed/run
mount /run /usr/local/zarafa-licensed/run -o rebind

Danach kann man im Paket-Zentrum den Zarafa-Dienst neu starten. Hier muss man im Menü Aktion auf Stopp klicken und anschliessend wieder auf Ausführen. Der licensed funktioniert dann wieder, zumindest bis zum nächsten Neustart der RackStation. Man kann den mount-Befehl aber permanent machen, in dem man ihn in das Skript /var/packages/Zarafa/scripts/copy_licensed verpackt.

VMTurbo, Zabbix und Nagios

Auf der Seite http://vmturbo.com/thx-dl-vhm-free-health-monitor können Sie zum Beispiel kostenlose virtuelle Appliances auf Linux-Basis herunterladen, mit denen sich VMware und Hyper-V überwachen lassen. Dazu werden die Appliances in die entsprechende Infrastruktur eingebunden und können die Hosts und VMs zuverlässig überwachen

Eine mächtige Alternative, mit weitaus mehr Möglichkeiten, aber auch mit mehr notwendiger Konfiguration, finden Administratoren in der Opensource-Monitoring-Lösung Zabbix. Die Monitoring-Lösung lässt sich als Live-CD, als Installations-Paket und als Appliance für VMWare, Hyper-V, Azure und viele andere Hypervisoren herunterladen. Alle aktuelle Versionen und Editionen sind auf der Seite http://www.zabbix.com/download.php zu finden.

Neben VMTurbo und Zabbix, soll auch Nagios nicht unerwähnt bleiben, wenn es um die Überwachung von virtuellen Infrastrukturen geht. Nagios bietet mehr Funktionen als Zabbix, ist aber auch komplexer in der Einrichtung.  Auf der Seite der Entwickler (http://www.nagios.org) stehen die Installationsdateien zur Verfügung sowie zahlreiche Webcasts und Whitepapers zur Einrichtung.

Softwarepiraterie

Die deutsche Niederlassung von Microsoft in Unterschleißheim gab durch eine Pressemitteilung bekannt, dass 50.000 Product-Keys von Microsoft gesperrt wurden. Grund dafür war, dass die verwendeten Zeichenketten unberechtigt verkauft wurden. Betroffen sind die Aktivierung von Office und Windows-Lizenzen. Microsoft zufolge waren es meist befristete Lizenzen von Testversionen und keine relevanten Schlüssel.

Softwarepiraterie ist sehr lukrativ, da die Betrüger keine gefälschten Datenträger produzieren und einführen müssen, was die Beschlagnahmung durch den Zoll ausschließt. Auch eine Durchsuchung wäre aussichtslos, da im schlimmsten Falle nur Product-Keys und keine gefälschten Datenträger gefunden werden.

Die Produkt-Aktivierungsschlüssel waren zeitlich befristete Lizenzen von Testversionen, die illegal vertrieben wurden, ohne das Wissen der Lizenznehmer.

Deshalb warnt Microsoft seine Kunden vor sehr günstigen Angeboten seiner Produkte. „Wenn ein Händler eine Lizenz von Microsoft Office Professional für weniger als beispielsweise 80€ anbietet, sollte jeder Interessent aufhorchen. Denn diese wird von Microsoft nur im Rahmen von Volumenlizenzverträgen und speziellen Sonderprogrammen für Händler und Entwickler vertrieben und hat einen Marktwert (UVP) von ca. 500€“, so Oliver Gronau,  Director Software Compliance, Microsoft, Unterschleißheim

Nutzern bringt die Verwendung von gefälschten Product-Keys große Risiken, da die Lizenzen nicht für Updates von Microsoft berechtigt sind, außerdem ist der Rechner bereits nach kürzester Zeit nicht mehr ausreichend geschützt. Auch Schadsoftware kann auf gefälschten Windows-Versionen enthalten sein. Wenn der Product-Key gesperrt werden sollte, wird der Kaufpreis nicht mehr erstattet, so kann ein günstiger Kaufpreis schnell teuer werden.

Gebloggt:Pivotal Cloud Foundry wird Stiftung

Vor wenigen Tagen ist die Stiftung cloudfoundry.org  auch offiziell an den Start gegangen.  Die Initiative  dazu geht auf das Unternehmen Pivotal zurück, das selbst als Ausgründung von  EMC, bzw. VMware entstanden ist und die Open-Source-PaaS Cloud Foundry  ins Leben gerufen hatte. Ab sofort soll Cloud Foundry als Collaborative Project  unter dem Dach der Linux Foundation weiterentwickelt werden.

Pivotal mach Ankündigung wahr

Pivotal hatte bereits im Mai diesen Jahres bekannt gegeben, seine PaaS an eine Stiftung übergeben zu wollen, woraufhin sich in kürzester Zeit mit EMC, VMware, HP, GE, IBM und Rackspace prominente Unterstützer fanden. Inzwischen sind auch SAP, Intel und die Atos-Tochter Canopy dazu gestossen, um nur die wichtigsten zu nennen; auf der Webseite finden sich darüber hinaus über 40 weitere Unterstützer, die in irgendeiner Weise an der weiteren Entwicklung von Cloud Foundry teilhaben oder diese beeinflussen möchten.

Cloud Foundry steht in direkter Konkurrenz zu Red Hats PaaS OpenShift. Auch cloudfoundry.org unterstützt zahlreiche Programmiersprachen, sowie und Web-Frameworks und werkelt nicht nur unter der Haube von Pivotal CF. Auch  IBM Bluemix oder HP Helion basieren auf Cloud Foundry.

Gebloggt: Parallels packt Docker rein

Das Unternehmen Parallels hat die augenscheinlich längste Erfahrung mit Linux Containern, den hinter nahezu jedem im Internet vermieteten vServer steckt Parallels Virtuozzo,  die kommerzielle Variante von OpenVZ. Parallels arbeitet bereits seit 2001 an dem Projekt.

Ein weiteres kommerzielles Produkt des Unternehmens Parallels Cloud Server soll in der kommenden Version Docker-Container integrieren und schliesst damit in einen illusteren Kreis auf. So hatte Canonical erst vor wenigen Tagen Ubuntu Core angekündigt, das wiederum ähnlich wie das eng mit Docker verwandte CoreOS und  Red Hats Atomic auf atomare Aktualisierungen setzt.

Gut gerüstet

Die geplante Docker-Integration in Parallels Cloud Server soll es Service-Providern ermöglichen,  Container-basierte virtuelle Server für die zur Zeit rasant wachsende Anzahl an Programmierern bereitzustellen, die bereits jetzt Apps mit Docker entwickeln.  Parallels könnten damit zu den Großen der Branche wie Amazon Web Services und Microsoft Azure aufzuschließen, die ihrerseits ebenfalls seit einiger Zeit eine Docker-Integration anbieten.

Da Parallels nach eigener Angabe bereits über eine Million Instanzen vom Parallels Container als Alternative zu Hypervisor-basierten vServern implementiert hat, glaubt man sich in puncto Erfahrung bestens gerüstet. Die  Docker-Implemenation in Parallels Cloud Server setzt also auf eine bereits etablierte Plattform auf. Parallels  Cloud Server mit integriertem Docker soll im ersten Quartal 2015 erscheinen.

Microsoft und Accenture bringen ihre Hybrid Cloud Plattform auf den Markt

Seit der Gründung von Avanade, im Jahr 2000, ist es eine der umfangreichsten Vereinbarungen zwischen Microsoft und Accenture. 

Durch die Accenture Hybrid Cloud Solution für Microsoft Azure, können Unternehmen  zwischen privater und hybrider Cloud wechseln. Anwender können ihre Anwendungen leichter verwalten und das von einem Gerät aus ohne Zeitverlust.

Besonderheiten der neuen Plattform:

  • Die Cloud Plattform mit Microsoft Azure, Windows Server und Microsoft System Center bietet großen Firmen, hybride und skalierbare Fertigkeiten.
  • Um die Multi-Plattform Umgebung mit Self Service-Provisioning zu unterstützen, wird die Accenture Cloud Plattform integriert. Das zentrale Dashboard kontrolliert das Cloud Brokerage und sorgt für Zuverlässigkeit und Sicherheit bei den Kunden.

 

Watson-System von IBM für alle nutzbar

Bei dem Spiel muss man immerhin nicht nur eine komplexe Fragestellung verstehen sondern soll Informationen aus einem Satz herausfiltern, um diesen zu einem korrekten Zusammenhang zu bringen. Somit war Watson der erste Computer weltweit, der komplexe Zusammenhänge versteht.

Das Unternehmen IBM macht Watson jetzt auch für die Allgemeinheit nutzbar. Beim Projekt „Watson Analytics“ können sich Interessierte bereits einen ersten Eindruck von Watson verschaffen und testen was der Supercomputer alles kann. Anfangs wird mit bereits vorhandenen Daten von IBM gearbeitet werden können.

Zukünftig soll Watson als kostenpflichtiger Cloud-Dienst nutzbar sein, um die erheblichen Entwicklungskosten wieder einzuspielen. Der Dienst richtet sich hauptsächlich an Unternehmen, die so komplizierte und zeitaufwendige Aufgaben lösen können.

Dazu werden anfallende Daten von Unternehmen in die Watson-Instanz geladen, welche nach kurzer Zeit vom Rechner verarbeitet werden können. Die Nutzer können sich mit Fragen an den Dienst wenden. Das System antwortet mit dem Liefern von Zahlen oder Grafiken. Sogar Empfehlungen kann Watson den Nutzern geben.

Der Cloud-Dienst wird laut IBM mit einem Freemium-Modell zu haben sein. Somit ist er für einzelne Personen auch kostenlos nutzbar um Probleme zu lösen. Gebühren werden erst bei komplexeren Aufgaben oder größeren Datenmengen anfallen. Wann der ausgereifte Dienst nutzbar ist, und wie hoch die Gebühren dann sein sollen, ist noch unklar.

Gebloggt:Canonicals Container-Vision

Mark Shuttleworth hat in seinem Blog einige Gedanken zur Entstehung von Ubuntu Core skizziert.  Die Idee sei im Verlauf der
Entwicklungsarbeiten bei  Ubuntu Phone entstanden, weil  Mobilgeräte angesichts des dort stark verbreiteten Malware-Problems  ein anderes Sicherheitsmodell erforderten, als PCs . So müssten  Apps stark voneinander abgeschottet werden, um das Übergreifen von Schadcode zu verhindern und sichere Updates zu ermöglichen.

Ubuntu Core ist ab sofort als Betaversion für Microsofts Azure-Plattform verfügbar  lässt sich aber auch mit Hilfe eines KVM-Images lokal testen.

Was ist Ubuntu Core?

Ubuntu ist eine Art neuer Host für Docker und andere Container-Dienste, von denen das System laut Shuttleworth gelernt hat und daher profitiert. Konkret handelt es sich um ein  kleines Server-Image für Cloud-Umgebungen. Ubuntu Core kennt im Gegensatz einem gewöhnlichen Ubuntu-Abbild keine  Deb-Pakete und keinen apt-Paketmanager. Ubuntu-Core aktualisiert die Kernschicht und die Applikationen dagegen, ähnlich wie Red Hats Atomics Host  oder CoreOS mit einem Tool namens Snappy. Auch Snappy ermöglicht „atomic updates“, bei Ubuntu Core „transactional updates“ genannt. Da auch hier das gesamte Update als Image gehandhabt wird, lässt es sich  bei Problemen jederzeit einfach wieder zurück rollen.

Mehr als Docker und CoreOS

Canonical hat das Prinzip in Ubuntu Core laut eigener Aussage noch erweitert. Snappy hält dazu offenbar sowohl das Grundsystem als auch jede einzelne Applikation als nur lesbaren Dateien vor. So können Entwickler Deb-Pakete verwenden und daraus Snappy-Apps entwickeln, die streng voneinander isoliert sind. Sämtliche aktuellen für Ubuntu reparierte Pakete, fliessen unmittelbar auch in Ubuntu Core ein und werden transactional aktualisiert. Ubuntu Core verwendet dabei ein Verfahren, dass einem Delta-Update  gleicht. Dabei werden nur die Änderungen aktualisiert, nicht aber das ganze Paket ersetzt. Nutzer können sich ihr Ubuntu Core somit selbst zusammenstellen, was die verwendeten Apps  betrifft, laut Canonicaal ein Vorteil gegenüber Docker, CoreOs, Docker oder Red Hat Atomic. Zudem lassen sich  Snappy-Apps einfacher erstellen als Deb-Pakete.  Dabei kann der Entwickler jeweils exakt festlegen, welche Bibliotheken er zum Beispiel in welcher  Zusammenstellung nutzen möchte.  Eine Snappy-App beinhaltet genau wie ein Docker-Image sämtliche  Abhängigkeiten einer Anwendung  oder eines Frameworks.

Gebloggt: Qemu 2.2 freigegeben

Qemu lässt sich sowohl als Emulator, als auch als Virtualisierer einsetzen. Im ersteren Fall erreicht Qemu durch Verwendung eines Just-in-Time-Compilers eine recht hohe Ausführungsgeschwindigkeit.  Qemu kann aber auch als Virtualisierungslösung arbeiten und fungiert dann als Frontend für  Xen oder KVM.

Neu in Qemu 2.2 ist unter anderem,  dass das Standard-Ausgabegerät statt cirrrus nun stdvga  ist, was nach Meinung der Entwickler mit den meisten Gastsystemen besser funktioniert, weil stdvga einen generischen VGA-Chip vorgaukelt. Der bietet zwar keine Hardware-Beschleunigung, erreicht aber eine wesentlich höhere Auflösung und als reale VGA-Chips.

Mehr Architekturen

Ferner gibt es viele Neuerungen und Änderungen beim Support der verschiedenen Architekturen. So unterstützt die MIPS-Emulation jetzt MIPS64 Release 6 und die SIMD-Architektur.  Bei der Freescale-Architektur unterstützt Qemu 2.2 nun  Breakpoints, den e500 Platform Bus und den GPIO-Controller MPC8XXX. Ferner kann ARM kann jetzt auch ohne Angabe eines Kernels oder Booten eines ELF-Images einen Device Tree laden. Zudem unterstützt jetzt auch die ARM-Emulation  Breakpoints und Watchpoints. Die s390-Emulation kennt jetzt Speicher-Hotplug, CPU-Migration, das Online- und Offline-Setzen von CPUs und beschleunigt den SMP-Start. Gänzlich neu unterstützt Qemu 2.2 jetzt die TriCore-Architektur. Ferner kann Unter x86 kann nun die IOMMU emuliert werden.  Mit  KVM sind zudem jetzt die AVX512-Instruktionen verwendbar.

Neue Geräte

Ferner ist der USB-Controller sind jetzt Hotplug-fähig. Darüber hinaus lassen sich nun auch Mäuse und Tastaturen mit USB 2.0 betreiben, statt mit  USB 1.1. Neu bei der SCSI-Emulation ist, dass sich jetzt herstellerspezifische Kommandos durchreichen lassen. Ferner haben die Entwickler daran gearbeitet, dass das Gerät virtio-scsi mit mehreren Ein/Ausgabethreads arbeitet, wie das bei virtio-blk bereits funktioniert, dessen Funktionalität auf viele weitere Operationen ausgeweitet wurde.   

Weitere Details zu den Neuerungen finden sich im Changelog. Qemu 2.2 lässt sich wie üblich im Sourcecode von der Projektseite herunterladen.