Qemu 2.3 ist fertig

So unterstützt Qemu in der neuen  Version 2.3 ab sofort 32-Bit-KVM-Gäste auf einem 64-Bit-ARM-Host. Für x86-Gastsysteme steht  ein neues IvyBridge CPU-Modell zur Verfügung. Für MIPS-Gäste sind neue Modelle für die microMIPS-Prozessoren 5KEc und 5KEf MIPS64r2, sowie M14K und M14Kc MIPS32r2 verfügbar. Schließlich wird bei s390x-Gastsystemen jetzt die Emulation des  PCI-Bus unterstützt. Für PowerPC-basierte Gäste haben die Qemu-Entwickler Support für transaktionale Speichererweiterungen implementiert. Darüber hinaus haben die Entwickler die VGA-Unterstützung für Little-Endian PPC/pSeries-Gäste verbessert.

Verbesserter virtio-Treiber

Ferner wurde die virtio-blk-Emulationen mit asynchroner SCSI-Anfragebearbeitung und Disk-Read-Merging beschleunigt. Auch im Bereich virtuelle Desktops hat sich etwas getan. Anwender, die GTK+, VNC, SDL und/oder Spice nutzen profitieren von einer verbesserten GUI-Geschwindigkeit.  Darüber hinaus erlaubt Qemu 2.3,  KVM in Verbindung mit dem Debugging-Werkzeug Valgrind  zu  benutzen. Ausserdem ermöglicht Qemu 2.3, dass per Passthrough durchgereichte Geräte im Gastsystem automatisch ausgeworfen werden, wenn der Nutzer sie vom VFIO Host-Treiber trennt. Neu ist auch, dass der QEMU Guest Agent  Datei-Operationen in Windows-Gästen kennt, sowie  Speicher-Blöcke in Linux-Gästen ein- und ausschalten kann. Ausserdem kommt er mit Memory-Hotplug zurecht.

Weitere Neuerungen und Download

Zahleiche weitere Neuerungen lassen sich dem Änderungsprotokoll entnehmen.  Der hauptsächlich in C geschriebene Qemu steht unter der GPL-Lizenz. Die neue Version 2.3 steht ab sofort auf der Projektseite zum Herunterladen zur Verfügung.

Meta-Clouddienste und Tools

Im Internet gibt es von Google, Apple, Dropbox, Microsoft und anderen große Mengen kostenloser Cloudspeicher. Mit kleinen Tools können Anwender den Speicher zusammenfassen, zentral verwalten und Daten verschlüsselt speichern. Das alles kostet nichts oder wenig, außer etwas Zeit und wenig Konfigurationsarbeit.

Viele Anwender nutzen mehrere Cloudspeicher bei verschiedenen Anbietern, um Daten sicher zu speichern, überall verfügbar zu haben, oder mit anderen Benutzern zu teilen. Um Cloudspeicher zu nutzen, macht es zunächst Sinn sich bei den großen Anbieter ein Konto anzulegen. Wer es ganz sicher will, kann für die Anmeldung jeweils spezifische E-Mail-Konten anlegen. Sobald der Cloudspeicher gebucht ist, lässt sich er sich mit Tools nutzen und Daten speichern.

Was sind Meta-Dienste und -Tools und warum soll ich verschlüsseln?

Im Internet gibt es einige kostenlose oder günstige Tools, die keinen eigenen Cloudspeicher bieten, sondern den Speicher verschiedener Anbieter zusammenfassen und eine gemeinsame Verwaltung ermöglichen. Das hat den Vorteil, dass sich mehr Daten speichern lassen und die Verwendung des Speichers auch einfacher ist. Leider bietet so gut wie kein Cloudspeicher-Anbieter die Möglichkeit Daten sicher und verschlüsselt in der Cloud zu speichern. Es gibt aber auch hier kostenlose Tools, welche die Daten auf Ihrem Rechner verschlüsseln und dann erst in die Cloud laden. Das hat den Vorteil, dass die Daten für andere nicht auslesbar sind, Sie aber weiterhin problemlos auf die Daten zugreifen können. Verschlüsselung und Metadienste lassen sich häufig parallel nutzen, was den Nutzen von Cloudspeichern deutlich erhöht, bei steigender Sicherheit.

Darum machen Meta-Dienste und -Tools sinn

Sobald mehr als ein Dienst im Einsatz ist, kann sich schon ein Meta-Tool lohnen, welches den Speicher zusammenfasst und eine gemeinsame Verwaltung oder Speicherung erlaubt. Für alle bekannten Cloud-Speicher gibt es auch kostenlose Apps für Smartphones und Tablets. Das heißt, der Dienst steht auch mobile zur Verfügung. Auch für die so genannten Meta-Dienste, also Tools und Webseiten, die Cloudspeicher anderer Anbieter zusammenfassen, gibt es solche Apps. Natürlich können Sie auch weiterhin mit den Hersteller-Apps auf den Cloudspeicher zugreifen. Mit den Meta-Tools erleichtern Sie sich aber die Arbeit, speichern Daten sicherer und erhalten kostenlos mehr Speicherplatz.

Meta-Clouddienst

  • Odrive – Meta-Tool für gemeinsame Verwendung mehrerer Cloudspeicher. Meta Tool steht kostenlos zur Verfügung.
  • MultCloud – Meta-Tool für gemeinsame Verwendung mehrerer Cloudspeicher, Meta Tool steht kostenlos zur Verfügung.
  • Jolidrive – Meta-Dienst für die gemeinsame Verwendung von Cloudspeicher. Kosten: 5€/Monat oder 50€/Jahr.
  • Otixo – Metadienst für die Verwaltung verschiedener Clouddienste. Kostenlos bis 20 $/Monat oder 200 $/Jahr.

Linux-Server in Active Directory

Kerberos ist sehr zeitabhängig. Sobald ein Client und ein Server mehr als 2-5 Minuten voneinander abweichen, funktioniert die Authentifizierung nicht. Grundsätzlich sollten Sie auf Dauer darauf achten, dass sich die Domänencontroller, vor allem der PDC-Master und die Linux-Server die Zeit von einem Internetserver oder einer Funkuhr holen. Alle anderen Windows-Domänencontroller synchronisieren sich Ihre Zeit automatisch mit dem PDC-Master der eigenen Domäne, die PDC-Master der einzelnen Domänen in einer Active Directory-Gesamtstruktur synchronisieren ihre Zeit mit dem PDC-Master der Stammdomäne in Active Directory. Bevor Sie sich also an die Einrichtung machen, die wir nachfolgend vorstellen, achten Sie darauf, dass die Uhrzeiten stimmen.

Damit die Zeitsynchronisierung ideal funktioniert, verwendet Sie im Falle von Windows am besten den Zeitserver der physikalisch-technischen Bundesanstalt in Braunschweig. Dieser hat den Namen ptbtime1.ptb.de. Als Alternativen können Sie noch die Server ptbtime2.ptb.de und ptbtime3.ptb.de verwenden. Auf den Linux-Servern verwenden Sie die gleichen Server.

Haben Sie die grafische Oberfläche Gnome für den Ubuntu-Server installiert, finden Sie die Zeiteinstellungen über Systemeinstellungen\Zeit und Datum. Aktivieren Sie die Option Netzwerkzeit, und stellen Sie zunächst manuell sicher, dass die Zeit des Servers mit der Zeit der Domänencontroller übereinstimmt.

Gebloggt: Synology NAS mit Zarafa

Zarafas Groupware-Lösung lässt sich auf einen Synology-NAS problemlos aus der Paketverwaltung (Paketzentrum) der webbasierten DSM-Administrationsschnittstelle (Disk Station Manager) installieren. Die Synology-Entwickler legen sogar ein grafisches Einrichtungswerkzeug bei, mit dem sich auch die Mail-Abholung via fetchmail sehr einfach einrichten lässt.

Dies ist weitgehend selbsterklärend und benötigt nur die Angabe des betreffenden IMAP-Servers, sowie des zugehörigen IMAP-Kontos. Leider konfiguriert der Synology-Zarafa-Fetchmail-Assistent in Fetchmail bei jedem Account die Option flush, womit sämtliche Mails bei jeder Abholung automatisch vom IMAP-Server gelöscht werden. Im Prinzip ist das ja auch sinnvoll.

Fetchall oder nicht

Möchte man die Mails aber auf dem externen IMAP-Server erhalten, sollte man die Option flush durch keep ersetzen, was aber in der Konfiguration unter Synology-DSM offenbar keine Wirkung zeigt. Das liegt wiederum daran, dass der Parameter keep in der Fetchmail-Konfigurationsdatei nicht gesetzt sein darf, wenn Fetchmail selbst mit der Option  -a (für fetchall ) auf der Kommandozeile gestartet wurde. Dies ist leider bei der Synology-Konfiguration der Fall, wie man nach einigen Suchen herausfindet. Das zugehörige Startskript findet sich auf den Synology-NAS unter /usr/local/zarafa/etc/init.d/fetchmail.

Jetzt ist es problemlos möglich, sich per SSH auf dem NAS einzuloggen und die Option -a in Zeile 4 der Datei zu entfernen.

ARGS=“-d 60 -t 60 -a -e 50 –auth password -f /etc/fetchmailrc -L /var/log/fetchmail“

Als Editor steht vi zur Verfügung.

vi /usr/local/zarafa/etc/init.d/fetchmail

Nacharbeiten

Hier ist auch zu erkennen, das Fetchmail im Daemon-Mode (-d) gestartet wird (es ist also kein cron-Eintrag erforderlich) und dass das Abrufintervall 60 Sekunden beträgt. Auch dies lässt sich bei der Gelegenheit den eigenen Bedürfnissen anpassen. Ferner ist hier der Verweis auf die zugehörige Passwortdatei zu finden. Sofern man diese nicht selbst, sondern über die grafische Assistenten von Synology erstellt, sollte man unbedingt vermeiden, den obligatorischen Neustart von Fetchmail über die angebotene Schaltfläche im Assistenten vorzunehmen. Die Erklärung dafür liefert dieser selbst:

„Please note that the Admin GUI uses an own configuration file for generating the /etc/fetchmailrc file. Therefore manual changes will be overwritten when using the Admin GUI. „

Wer dies tut, bekommt als also automatisch die Synology-Fetchmail-Default-Konfiguration mit flush zurück. Fetchmail selbst startet man daher an besten einfach via ssh (als root)  mittels

/usr/local/zarafa/etc/init.d/fetchmail restart

neu.

Das Datumsproblem

Wer möchte, kann auch beim ersten Einrichten von Fetchmail den fetchall-Paramater stehen zu lassen, um einmal den gesamten Erstbestand vom IMAP-Server zu holen. Dann sollte man aber das Abrufintervall je nach Füllstand des IMAP-Kontos möglichst lang lassen. Erst wenn der Erstbestand geholt wurde, schaltet man dann auf keep und ein kurzen Abrufintervall um. Leider lässt es sich dabei nicht verhindern, dass sämtliche E-Mails das aktuelle Datum bekommen. Wer das nicht will, also das Original-Datum jeder einzelnen Mail erhalten will, muss deutlich mehr Aufwand treiben, ein Thema für einen künftigen Blog-Eintrag.

Cloud-Verschlüsselung aus Deutschland

Anwender, die Daten in der Cloud speichern gehen oft ein Sicherheitsrisiko ein, da die Daten nicht verschlüsselt abgelegt werden. Das heißt, es können durchaus auch externe Anwender oder Angreifer Zugriff auf die Daten nehmen. Damit das zukünftig erschwert wird, haben das Fraunhofer-Institut und das Unternehmen Sirrix eine kostenlose Software auf OpenSource-Basis entwickelt, die auch Laien ermöglichen soll Daten sicher in der Cloud abzulegen. Das Bundesministerium der Justiz und für Verbraucherschutz hat die Software gefördert.

Da die Software Opensource ist, der Quell-Code also allgemein zugänglich, können tausende Entwickler die Software weiter entwickeln und vor allem sicherstellen, dass keine Hintertür für wen auch immer eingebaut wird. Die Programm-Quellen sind auf der Seite https://github.com/Sirrix-AG/PanBox zu finden.

Neben Dropbox unterstützt die Anwendung so gut wie alle Cloudspeicher-Anbieter, die auf dem lokalen Rechner ein Synchronisierungs-Verzeichnis einrichten.  Panbox läuft auf Windows-Rechnern mit Windows 7/8/8.1, aber auch auf Linux. Auch für Android-Smartphones ist eine App verfügbar, der Client für Mac OS X und iOS ist derzeit in der Entwicklung. 

Ubuntu 15.04 bald mit eigenem LXD-Hypervisor?

Nach Aussage der Ubuntu-Entwickler ist der neue Hypervisor Linux Container Daemon (LXD) eigentlich gar keiner (The new hypervisor isn’t a hypervisor, and it’s much, much faster“).

LXD wurde wie der Name nahelegt für die LXC-Container-Technologie entwickelt und soll sehr schnell sein, weil er einige der Nachteile traditioneller Virtualisierungstechnologien, wie den ausladenden Overhead vermeidet. Canonical arbeitet seit geraumer Zeit mit der LXC.Community zusammen. Im Zusammenhang mit dem  LXD- Hypervisor würde LXC quasi als reine Containertechnologie die Client-Seite abbilden, während sich LXD auf Server-Seite um die Virtualisierung kümmert.

Was ist LXD ?

Im Gegensatz zu Docker oder CoreOS-Rocket, die beide primär auf App-Container zielen, ist LXD auf das Erstellen von System-Containern angelegt, ähnlich wie es mit LXC oder OpenVZ bereits seit langem möglich ist. System-Container sind voneinander isolierte Linux-Laufzeitumgebungen, die entweder komplette Linux-Systeme mit oder ohne vorkonfigurierte Anwendungen enthalten.

Ähnlich wie es VMware gerade mit seinem Projekt Photon vormacht, können Docker- oder Rocket-App-Container aber problemlos in einem LXD-Container laufen, welche damit von den Sicherheitstechnologien in  LXD zu profitieren. Dies könnte genau jene Vertrauensebene schaffen, die viele Unternehmen gegenüber reiner Container-Umgebung wie LXC, bei der im Prinzip sämtliche Container in der gleichen Host-Umgebung laufen, derzeit noch haben. Hinzu kommt, dass LXD wie eine ausgewachsene Virtualisierungsumgebung Technologien wie  Live- Migration, Snapshots, Konfigurationsprofile und das Durchreichen von Geräten unterstützt.

Die Idee hinter LXD

Und die Idee dahinter? Canonical formuliert es so: man stelle sich die Geschwindigkeit und Effizienz von Docker mit dem Feeling vollständiger Virtualisierung vor. Man stelle sich weiter vor, man könnte eine neue virtuelle Maschine in weniger als einer Sekunde bereitstellen und zwar hunderte oder tausende davon auf einem Single-Server. Man stelle sich zudem vor, es gäbe eine Hardware-seitige Garantie, dass keine VM eine andere ausspionieren könne. Und man stelle sich vor, man könne jede VM mit einem eigenen isolierten virtuellen Netzwerk ausstatten. Ferner stelle man sich vor, das Ganze funktioniere gleichermaßen auf einem Single Node wie auf einer Millionen Nodes, zwischen denen sich virtuelle Maschinen nach Belieben zur Laufzeit migrieren liessen. Alles mit Hilfe einer sauberen und erweiterbare REST API? Dann habe man eine Vorstellung davon, wohin die Reise mit LXD ginge.

 

Das Ziel hinter LXD

Das ist das Ziel von Canonicals LXD-Initiative ist kein Geringeres, als den nächsten großen Hypervisor rein für Linux Container-Technologien zu schaffen. Der LX-Daemon auf dem Server soll sich dabei mithilfe der  LXC-Tools auf dem Client  steuern lassen. Optional klappt das aber auch mithilfe des OpenStack-Plugins „nova-compute-lxd“. Es sorgt dafür, das Orchestrieren von Containern über die o. e. REST-API in  OpenStack zu ermöglichen.

Noch nicht für den Produktiveinsatz

Die jetzt ins Repositorium von Ubuntu 15.04 aufgenommene Version 0.7 eignet sich nach Aussage eines der Entwickler allerdings noch nicht für den produktiven Einsatz. Die erste stabile Version  1.0 ist für Anfang 2016 angepeilt. Derweil arbeitet Canonical daran, Chip-Herstellern dazu zu bewegen,  Hardware-seitige Unterstützung für LSD zuzusichern, etwa in der Form, das gegenseitige Absichern und Isolieren von Container fest zu verdrahten. Die Entwicklung der in Go geschriebenen, unter der Apache2-Lizenz stehenden Open-Source-Software  ist momentan auf GitHub beheimatet.

Univention Corporate Server free for Enterprises

Univention Corporate Server (UCS) ist je nach Sichtweise ein vorkonfigurierter, vollständig webadministrierbarer Linux-Server oder eine Enterprise-Linux-Distribution auf Debian-Basis mit Fokus auf kleine und mittlere Unternehmen, insbesondere solche, die einen Microsoft-Server kostengünstig substituieren wollen. Dies ist angesichts des vor wenigen Wochen endgültig eingestellten Supports für den MS Small Business Server 2003 für viele Firmen derzeit wieder von großer Bedeutung.

UCS als Windows Domänencontroller

UCS unterscheidet sich vielen Punkten von anderen Linux-Servern und Enterprise-Distributionen. Eine zentrale Eigenschaft ist das integrierte und vorkonfigurierte Infrastructure-  und Identity-Management auf OpenLDAP-Basis, das neben einer zentralen Nutzerverwaltung in einer Linux- oder Windows-Domänen auch ein zentrales Client- und Konfigurationsmanagement umfasst.  Von je her enthalten, in den letzten Monaten aber weitgehend  an prominente Stelle gerückt, ist die Funktion, dass UCS mithilfe des ebenfalls vorkonfigurierten Samba 4.x und Kerberos auch Windows-Ressourcen und Nutzer in einer Windows-Domäne verwalten, bzw. selbst als Domänencontroller fungieren kann. Zwar lässt sich Samba 4 auch bei anderen Linux-Distributionen installieren, bei UCS ist die AD-Funktionalität aber so weit fortgeschritten, ausgereift und vor allem out-of-the-box einsatzfähig, dass sich UCS nicht nur auf dem Papier als Ersatz für einen MS-Server eignet, zumal Samba 4 auch das Bereitstellen von Datei- und Druckdienste in Windows-Domänen übernimmt.

UCS als Plattform

Ein  weiterer Punkt, der UCS von anderen Unternehmens-Distributionen unterscheidet und der ebenfalls in besonderer Weise die Zielgruppe der Windows-Wechsler adressiert besteht darin, dass das System vollständig per Webinterface administrierbar ist. Das schließt auch die einfache Installierbarkeit neuer, populärer Open-Source-Apps wie Zarafa, Open Xchange oder Own Cloud  über das komfortable App-Center ein. Seit der Version 4.0 lassen sich dazu  nicht nur lokale native und  virtuelle Instanzen von UCS, sondern auch UCS-Instanzen in OpenStack-Clouds  oder in  Amazons Elastic Cloud (EC2) verwalten, wozu UCS weitreichende Funktionen zum parallelen Betreiben und Administrieren virtualisierter Server- und Desktop-Systeme zur Verfügung stellt.

UCS Core Edition

Die ab jetzt verfügbare  UCS Core Edition erlaubt ab sofort nicht mehr nur Privatanwendern die kostenlose Nutzung von UCS; sondern auch Unternehmen, die aus Kostengründen auf eine UCS-Subskription verzichten möchten. Funktional eingeschränkt ist die Core Edition dagegen trotz der möglicherweise missverständlichen Bezeichnung nicht. Die Core-Edition unterscheidet sich von den kommerziellen Versionen lediglich in der eingeschränkten Produkthaftung und im eingeschränkten Support, den im Fall der Core- oder Free-For-Personal-Use-Edition nur die Community leistet.

Neue Staffelung der Subskriptionen

Mit der Einführung der Core-Edition ändert Univention auch die Preise für Maintenance- und Support im Rahmen seiner Subskriptionspakete. Die Palette umfasst statt vorher drei jetzt vier kostenpflichtige Bundles Base-, Standard-, Premium- und  UCS Cloud Edition für Service-Provider. Die Subskriptionsvarianten bieten Unternehmenskunden professionellen Support, eine längere Pflege von Updates, Service Level Agreements, Produkthaftung und Schutz vor Copyright-Verletzungen. Die einzelnen Subskriptionen unterscheiden sich im Detail durch die Support-Level. Die Basisversion beispielsweise kostet 290 Euro pro Server und beinhaltet ab sofort eine Lizenz für Betrieb und Verwaltung von 10 Clients pro UCS-/AD-Domäne, ebenso wie die Standard- und Premium-Editionen. Weitere Client-Zugriffs-Lizenzen belaufen sich auf 13,90 Euro pro Client.

Microsoft Message Analyzer

Microsoft stellt für IT-Profis die weiterführende Analysen in Netzwerken durchführen wollen den Microsoft Message Analyzer  zur Verfügung. Dieser funktioniert allerdings nur auf Rechnern mit Windows 7/8/8.1 und Windows Server 2008 R2/2012/2012 R2. Außerdem benötigen Sie auf dem Rechner das .NET Framework 4.5. Im Gegensatz zu den anderen Tools in diesem Beitrag, ist die Bedienung eher komplizierter und nur für fortgeschrittene Analysen geeignet. Für schnelle Capture-Vorgänge ist der Message Analyzer genauso ungeeignet, wie dessen Vorgänger, der Microsoft Netzwerk Monitor. Einen ersten Scanvorgang starten Sie über File\Quick Trace\Local Network Interfaces. Damit Sie Messvorgänge auf Arbeitsstationen starten können, müssen Sie aber Microsoft Message Analyzer mit Administrator-Rechten starten.

Neben einfachen Netzwerk-Analysen und Capture-Vorgänge, können Sie Microsoft Message Analyzer auch Netzwerküberlastungen und Probleme mit Freigaben untersuchen. Dazu unterstützt die neue Version auch das aktuelle SMB-Protokoll von Windows Server 2012 R2. Das Tool kann Sniffervorgänge auf mehreren Rechnern gleichzeitig starten (Multiple Remote Capture) und an einen zentralen Client senden. Dieser sammelt die Daten, wertet sie aus und zeigt das Ergebnis an. Microsoft Message Analyzer kann auch SSL-Daten entschlüsseln. Dazu müssen Sie aber das dazugehörige Zertifikat zur Entschlüsselung installieren. Eine umfassende Anleitung zu diesem Werkzeug finden Sie auch in der TechNet . Microsoft zeigt in einem Video auf YouTube ebenfalls die Möglichkeiten des neuen Werkzeuges.  Weitere Informationen sind im TechNet-Blog zum Message Analyzer zu sehen.

Windows Server 2003 – End of Support

Am 15.07.2015 läuft der offizielle Support von Windows Server 2003/2003 R2 und SBS 2003/2003 R2 aus. Ab diesem Tag wird es keine Aktualisierungen und Sicherheitspatches mehr geben. Bereits jetzt gibt es Sicherheitslücken, die nicht mehr geschlossen werden. Administratoren sollten also handeln.

Um Windows Server 2003 zu ersetzen, oder fit für den Einsatz nach dem Supportende zu machen, haben Unternehmen verschiedene Möglichkeiten. Wir geben einen Überblick. Microsoft bietet für Unternehmen das Online-Tool Windows Server 2003 Migration Planning Assistant. Mit diesem lässt sich die Migration zu neuen Servers planen. Es gibt aber noch mehr Möglichkeiten:

  • Migration 1: Direkte Aktualisierung zu Windows Server 2008 R2, ohne neue Hardware einsetzen zu müssen
  • Migration 2: Migration zu Windows Server 2012 R2 oder der neuen Version Windows 10 Server auf neuer Hardware
  • Migration 3: Umzug in die Cloud als virtueller Server auf neuem Betriebssystem
  • Migration 4/Weiterführung des Betriebs 1: Virtualisierung des bestehenden Servers in eine neue Version, oder bestehender Installation auf Basis eines Hypervisors wie VMware oder Hyper-V
  • Weiterführung des Betriebs 2: Trennen des Servers vom Internet und Einschränken des Netzwerkzugriffs auf notwendige Clients

Windows Server 2003/2003 R2 lassen sich direkt zu Windows Server 2008 R2 aktualisieren, ohne, dass neue Hardware notwendig ist. Alle Serverdienste lassen sich übernehmen und auf diesem Weg haben Unternehmen noch einige Jahre Zeit die Migration des Servers zu planen. Natürlich muss auch die direkte Aktualisierung geplant werden. Der Vorteil bei dieser Vorgehensweise liegt auf der Hand: Unternehmen erhalten eine langjährige Unterstützung, der Aufwand ist sehr gering. Natürlich sollte vor der Installation genau überprüft werden, ob die installierten Serveranwendungen auch kompatibel mit Windows Server 2008 R2 sind. Notfalls kann hier auch auf Windows Server 2008 gesetzt werden. Auch diese Version wird noch einige Jahre offiziell unterstützt.

 

Microsoft Azure-Speicher sichern

Sie können die Vorgehensweisen problemlos in einer 30-Tage-Testversion von Microsoft Azure durchführen. Sie benötigen für die Sicherung von Datenbanken in Azure zunächst ein Speicherkonto:

  1. Klicken Sie auf Speicher im Azure-Verwaltungs-Portal und dann auf Neu.
  2. Wählen Sie Datendienste\Speicher\Schnellerfassung aus.
  3. Geben Sie dem Speicher einen Namen, zum Beispiel „dbbackupcontoso“.
  4. Wählen Sie bei Standort Ihren Standort aus.
  5. Die Option Replikation können Sie auf Georedundant belassen.
  6. Lassen Sie das Konto mit Speicherkonto erstellen anlegen.

Nachdem das Konto erstellt wurde, markieren Sie es und klicken unten auf der Seite auf Zugriffsschlüssel verwalten. Sie benötigen den Name des Speicherkontos und den primären Zugriffsschlüssel in SQL Server 2014 als Anmeldeinformationen für das Azure-Konto. Dieses wird mit dem SQL Server Management Studio verbunden und erlaubt direkten Zugriff zur Durchführung von Sicherungen oder Wiederherstellungen. Kopieren Sie diese Daten am besten in eine Textdatei. Sie benötigen die Daten in SQL Server 2014 für die Einrichtung der Sicherung in der Cloud. Dazu verwenden Sie den entsprechenden Assistenten. 

Klicken Sie danach auf Ihren Speicher und wählen danach auf der neuen Seite die Option Container im oberen Bereich aus. Erstellen Sie über den Assistenten einen neuen Container. Diesem können Sie einen beliebigen Namen geben. In diesem Container speichert SQL Server 2014 seine Datensicherung in Azure. Den Namen des Containers geben Sie später im Sicherungsassistent von SQL Server 2014 ein.