Die wichtigsten Linux-Kommandozeilen

Shell-Einsteiger unter Linux haben oft weniger ein Problem mit der Syntax oder der generellen Anwendung eines Befehls als darin, überhaupt erst mal das passende Kommando für eine bestimmte Aufgabe ausfindig zu machen. Wenn man den richtigen Befehl erst hat, ist es nicht weiter schwierig, die benötigten Optionen mit Hilfe  der jeweiligen man-Pages oder mit Hilfe des Parameters „–help“ herauszubekommen.

Das Problem mit man

Hat man dagegen nur eine ungefähre Idee für den richtigen Befehl, kennt aber den Namen nicht genau, hilft leider das man-Kommando nicht weiter. Der Befehl „apropos“ hingegen basiert auf einer Datenbank von Kommando-Kurzbeschreibungen.

Kann sich der Nutzer z. B. nicht mehr genau erinnern, wie ein bestimmtes fsck-Tool lautet, kann er mit Eingeben von

apropos fsck

 alle zugehörigen Befehle in diesem Kontext ermitteln. Das ist besonders hilfreich, bei Befehlen, deren Kontext nicht unbedingt mit dem Befehlsnamen korrespondiert, wie z. B. bei LVM. Angenommen der Anwender möchte eine Disk oder Partition unter LVM (Logical Volume Manager) erzeugen oder vergrößern, liefert

apropos lvm

unter anderem auch den Befehl „pvcreate“.  Hat man dann auf diese Weise den gewünschten Befehl ausfindig gemacht, kann man die Syntax dann mit

man pvcreate

weiter eingrenzen.

Linux auf einem Blatt

Wer dagegen überhaupt keine Idee hat, welcher Befehl zu welcher Aufgabe passen könnte, braucht zweifelsohne eine Kommandoreferenz.

Durch Zufall bin ich auf eine sehr gut gemachte und kompakte Referenz der wichtigsten Linux-/Bash-Kommandos gestoßen. Das 2-seitige PDF Linux auf einem Blatt von Christian Helmbold fasst auf einem doppelseitigen DIN A4-Blatt die wichtigsten Kommandos mit kurzen Erläuterungen nach ausgewählten Aufgabengebieten, wie „Dateirechte“ oder „Drucken“ gruppiert zusammen.

Paralleles Dateisystem für höchste Performance

Die ThinkParQ GmbH entwickelt BeeGFS wird seit mehreren Jahren für den Einsatz in Performance-kritischen Umgebungen. Nach Aussage der Entwickler ist BeeGFS einfach zu installieren, sehr flexibel und eignet sich unter anderem für Storagesysteme, die von rechenintensiven Anwendungen adressiert werden.

ExaNeSt

Angekündigt hatte das ITWM die jetzt erfolgte Freigabe des Quellcodes von BeeGFS bereits auf der International Supercomputing Conference 2013, seinerzeit im Rahmen des Europäischen Exascale-Projekts DEEP-ER. Dieses widmet sich der Entwicklung und Umsetzung neuer Ansätze für extreme I/O-Anforderungen.
So beteiligt sich das BeeGFS-Team auch an ExaNeSt, einem europäischen Exascale-Projekt, das zum Ziel hat, das ARM-Ökosystem für performanzkritische Auslastungen nutzbar zu machen.

Laut Aussage von Bernd Lietzow, BeeGFS-Leiter für ExaNeSt lässt sich BeeGFS zwar bereits heute auf ARM-Systemen einsetzen, das ExaNeSt-Projekt ermögliche es dem BeeGFS-Team aber sicherzustellen, auch auf dieser Architektur die bestmöglichen Ergebnisse zu erzielen.

Extreme I/O-Anforderungen

BeeGFS besteht aus Metadaten und Objektdaten. Während Objektdaten die eigentlichen Daten der Nutzer repräsentieren, speichern Metadaten Zugriffsberechtigungen, Dateigrößen und die jeweiligen Server, auf denen die Teile einer Datei lagern. Dabei sind die Anzahl der ObjectStorageServer UND die der MetaDataServer skalierbar.

Zusätzlich gibt es einen Management-Server, der dafür sorgt, dass sämtliche an BeeGFS beteiligten Prozesse untereinander kommunizieren können. BeeGFS-Clients schließlich kommunizieren via TCP/IP oder Infiniband mit dem Speichersystem.

BeeGFS funktioniert mit den gängigen POSIX-kompatiblen Dateisystemen (ext4 oder Xfs etc.), läuft unter Red Hat Enterprise Linux, SuSE Linux Enterprise Server oder gängigen Debian-Abkömmlingen und ist mit 25.000 Codezeilen für den Metadaten-Service sowie 15.000 Zeilen für den Storage-Service sehr kompakt.

BeeGFS-Quellcode

Der Quellcode ist ab sofort auf der Projektseite von BeeGFS verfügbar, derzeit noch unter der BeeGFS-EULA lizenziert.

Sven Breuner, Geschäftsführer von ThinkParQ begründet die jetzt erfolgte Freigabe des Quellcodes damit, dass viele Nutzer zwar zufrieden seien, dass BeeGFS einfach zu installieren sei und nicht viel Aufmerksamkeit benötige, Andere aber verstehen wollten, was unter der Haube passiere, etwa um die Laufzeit ihrer Anwendungen weiter optimieren, das Monitoring verbessern oder BeeGFS auf andere Plattformen wie BSD portieren zu können. Zudem wartete, so Breuner, die Gemeinschaft darauf, dass es möglich werde, BeeGFS für Non-X86-Architekturen wie ARM oder Power zu bauen.

Das Erstellen von Skripten mit AutoIt

Wer häufiger Skripte mit AutoIT schreibt, greift besser zu einem speziellen Skript-Editor, da sich mit solchen Tools die Skripte wesentlich effizienter erstellen und bearbeiten lassen. Optimal dazu geeignet ist der Editor SciTE, der speziell für AutoIt angepasst ist. Dieser gehört auch zum Installationsumfang von AutoIT. Für jeden Befehl von AutoIT gibt es eine ausführliche Hilfe, welche auch die verschiedenen Optionen des Befehls enthält. Außerdem enthält das AutoIT-Installationsverzeichnis einige Beispielskripte auf deren Basis sich der Funktionsumfang demonstrieren lässt, oder die Sie als Grundlage für eigene Skripte verwenden.

Um ein neues Skript zu erstellen, besteht die Möglichkeit per Rechtsklick auf den Desktop und der Auswahl von „Neu/AutoIt v3 Script“ eine solche Datei zu starten. Anschließend öffnen Sie die neue Datei am besten mit SciTE. Windows erstellt das neue Skript auf Basis der Datei „Template.au3″, welches sich im Verzeichnis “ C:\Windows\ShellNew“ befindet. Die Datei lässt sich an die jeweiligen Anforderungen anpassen.

Kommentare sind wichtig in Skripten

Innerhalb der Skripte besteht auch die Möglichkeit Kommentare zu setzen, was vor allem bei komplizierten Skripten auch sinnvoll ist. Gänzlich ohne Kommentare ist es nur sehr schwer Skripte zu erweitern oder Fehler einzugrenzen. Einzelne Kommentarzeilen sind durch das Semikolon (;) gekennzeichnet. Für Kommentare über mehrere Zeilen verwenden Sie am besten die Funktionen #cs oder  #comments-start  für den Beginn und #ce oder #comments-end für das Ende des Kommentars. Die Befehle stehen dann jeweils in der Zeile vor, beziehungsweise nach dem Kommentar.

Beim Verwenden von SciTE steht dazu die Tastenkombination STRG+Q zur Verfügung. Neben einfachen Simulationen von Maus- und Tastatureingaben beherrscht AutoIT die meisten Programmierfunktionen, die auch komplexe Programmierumgebungen beherrschen. Davon müssen Sie sich aber nicht abschrecken lassen. Um zum Beispiel Anwendungen automatisiert zu installieren oder bestimmte Windows-Aufgaben durchzuführen, ist es nicht notwendig ein ausgebildeter Programmierer zu sein.

Eigene grafische Oberflächen erstellen

Neben dem reinen Abarbeiten von Skripten, lassen sich mit AutoIt auch eigene Fenster und grafische Oberflächen für Programme schreiben. Administratoren, die ihren Skripten eine grafische Oberfläche spendieren wollen,  greifen dazu zum Beispiel zur Freeware KODA FormDesigner (http://koda.darkhost.ru/page.php?id=index). Mit diesem Produkt lassen sich sehr leicht Schaltflächen und grafische Oberflächen für AutoIT erstellen. Standardmäßig hat das Programm eine englische Oberfläche.

Mit AutoIT schnell und einfach skripten

Selbst Administratoren, die sich mit der Skriptentwicklung noch nicht auseinandergesetzt haben, erreichen mit diesen Möglichkeiten schnell erste Erfolge.

Die Arbeit mit AutoIt ist grundsätzlich sehr einfach.  Im Grunde genommen ist AutoIT ein Werkzeug zum Erstellen von Makros für alle erdenklichen Aufgaben.  Sie schreiben mit einem beliebigen Editor ein Skript, das bestimmte Windows-Befehle ausführt. Dazu beherrscht das Tool auch das Simulieren von Maus- und Tastatureingaben, kann Fortschrittsbalken anzeigen, Informationen zu Fenstern anzeigen und die angezeigten Schaltflächen abfragen und vieles mehr. Auch das Betätigen der Schaltflächen innerhalb von Dialogboxen beherrscht AutoIt. Dazu verwendet das Tool dann nicht nur unbedingt Maus- oder Tastaturklicks, sondern Sie können direkt angezeigte Schaltflächen betätigen und Maus-, sowie Tastatureingaben von Anwendern sperren.

autoit.jpg

AutoIT und der integrierte Skript-Editor SciTE ist ein mächtiges Skripting-Tool für Administratoren

Fenster lassen sich minimieren, maximieren, öffnen und schließen. Um das Erstellen von Skripts zu erleichtern gibt es in der Programmgruppe von AutoIT noch ein Zusatzwerkzeug mit der Bezeichnung „AutoIT v3 Window Info“. Dieses Tool zeigt den Namen aller Fenster und deren wichtige Informationen an, die sich in Skripts verwenden lassen. Auch den aktuellen Standort der Maus zeigt das Informationsfenster an. Allerdings müssen Programmierer beim Verwenden der Maus oder der Positionierung des Mauszeigers extrem vorsichtig sein. Da sich die Positionen bei verschiedenen Auflösungen unterscheiden können, funktioniert ein Skript, dass nur aus einfachen Maus- und Tastatureingaben besteht nicht überall. Besser ist es direkt die Schaltflächen und Namen der Fenster abzufragen und diese aus dem Quellcode heraus zu betätigen.

Solche Skripte sind zwar etwas schwerer zu erstellen, laufen dafür aber später umso stabiler und schneller durch. Generell verführt AutoIT durch seine einfache Struktur dazu, viele Aufgaben schnell durch Maus- und Tastatureingaben zu erledigen. Sie tun aber gut daran, die Skripte lieber etwas gründlicher zu verfassen und direkt Fensterabfragen zu verwenden. Diese funktioniert deutlich stabiler und auch schneller. So steigt zwar der Programmieraufwand etwas an, dafür ist das Ergebnis oft auch zufriedenstellender.  Auch auf das Öffnen bestimmter Fenster kann AutoIT durchführen. Das ist vor allem bei automatisieren von Softwareinstallationen extrem wertvoll.  Neben diesen Aufgaben, besteht auch die Möglichkeit Dateien zu kopieren zu löschen oder zu bearbeiten.

Auch eigene Fenster mit Auswahlmöglichkeiten lassen sich einblenden. So können Sie im Skript das automatische Klicken einer bestimmten Schaltfläche veranlassen, wenn ein vorher definiertes Fenster auftaucht. Vor allem bei der Automatisierung von Softwareinstallationen  ist AutoIT ein wertvolles Hilfsmittel. Fertige Skripte lassen sich in ausführbare Dateien kompilieren, die sich auf jedem Windows-Computer ausführen lassen. Die Datei enthält alle notwendigen Befehle, auf dem Zielcomputer muss kein AutoIT installiert sein.

AutoIt verfügt in der aktuellen Version über eine große Sammlung an Befehlen, die sehr ähnlich zu Basic oder Visual Basic sind. Für jeden Befehl gibt es eine ausführliche Hilfe. Weitere Möglichkeiten sind das Bearbeiten der Registrierungsdatenbank. Zusätzlich zur Möglichkeit Mausklicks oder verschiedenen Tasten der Maus zu klicken, lässt sich auch der Mauszeiger bewegen und an beliebigen Stellen positionieren. Dazu können Sie im Skript genaue Koordinaten hinterlegen, wo der Mauszeiger erscheinen soll. Auch der Inhalt der Zwischenablage und damit das Kopieren und Einfügen von Text an den verschiedenen Stellen ist möglich.

SSDs mit TKperf auf den Zahn gefüllt

Eines der populärsten freien Linux-Tools zum Anfertigen von I/O-Benchmarks ist das Tool Fio (Flexible I/O Tester) von Jens Axboe.

Bei Fio handelt es sich um ein  I/O-Performance-Benchmark-Tool für Linux, Unix und Windows. Der Autor Jens Axboe ist Maintainer des Block Layers des Linux Kernels. Wie zahlreiche andere Tools dieser Art liefert es allerdings eine Menge an Daten, die der Nutzer erst einmal sinnvoll interpretieren muss.

Fio-Frontend TKperf

Die Thomas Krenn AG hat daher mit TKperf im Jahr 2013 ein neues Werkzeug für Performance-Messungen von HDDs und SSD-Speichern unter einer freien Lizenz veröffentlicht, das unter anderem auf Fio und Hdprm aufsetzt. Autor ist Georg Schönberger.

TKperf vereinfacht das Vergleichen verschiedenen Festplatten oder SSDs und liefert detaillierte Test-Reports, einschließlich einer umfangreiche Dokumentation des Test-Setups. Die Tests werden auf Basis der Solid State Storage (SSS) Performance Test Specification (PTS) Enterprise v1.0 der Organisation SNIA durchgeführt und mit Python aufbereitet.

Während im Hintergrund Fio werkelt, kommen für das Konfigurieren der Tests und zum Generieren der Grafiken und Reports Python-Skripte zum Einsatz. Das Frontend-Tool kann aber nicht nur Fio als Grundlage für die einzelnen Tests verwenden, sondern bringt auch  standardisierte Tests mit. TKperf kann IOPS-, Durchsatz-, Latenz- sowie Sättigungs-Tests durchführen. Die Ergebnisse werden grafisch und tabellarisch dargestellt.

Wie Fio ist TKperf freie Software unter der GPL-Lizenz. Herunterladen lässt es sich von der Github-Seite des Projektes. Ferner kann die Software über das Ubuntu-Repository von Thomas Krenn installiert werden.

Machbarkeitsstudie Windows-Nachbau

In erster Linie ist ReactOS ein freies Betriebssystem unter den Bestimmungen der GPL, das im Kern auf das Projekt FreeWin95 zurück geht, das aber nie richtig Fahrt aufgenommen hatte, bis Jason Filby im Jahr 1997 den Grundstein für das unter der x86-Architektur lauffähige ReactOS legte.

Ziel war und ist ein freies System, das zu Windows kompatibel ist und zwar in der Weise, dass sich Treiber und Apps ohne Modifikationen direkt verwenden lassen.

Die Entwickler kooperieren dazu mit dem WINE-Projekt, einem Nachbau des MS Windows-APIs, haben allerdings auch spezielle Anwendungen wie den Explorer und einer Reihe von Konfigurationswerkzeugen komplett neu geschrieben. Der Kernel soll angeblich weitgehend auf dem Stand von NT 5.2 und mit diesem kompatibel sein, also etwa Windows Server 2003 entspricht, während sich die Anwendungs-APIs auf dem Level von Windows NT 6 (Windows Vista) bewegen.

Neuerungen in ReatOS 0.4.0

Nachdem erneut mehr als ein Jahr nichts von ReactOS zu hören war, haben die Entwicklung nun auf die Verfügbarkeit von ReactOS 0.4.0 hingewiesen. Da der Übersetzungsvorgang auf cmake umgestellt wurde, sollte sich das System jetzt auch einfacher übersetzten lassen.

Neu ist unter anderem der NTFS-Support, allerdings nur lesend; Schreibzugriff funktioniert wie bisher nur mit FAT und ext2. Außerdem haben die Entwickler den Support für SATA, USB und Sound, sowie den Grafik-Stack wurde an vielen Stellen verbessert, auch im 3D-Bereich.

Auch die NT Virtual DOS Machine (NTVDM) hat wohl Verbesserungen erfahren. So sind jetzt z. B. DOS-Programme ausführbar, auch auf AMD64- und ARM-Plattformen.

Ferner erlauben es Änderungen an der Registry-Implementation jetzt, Windows 2003 mit dem ReactOS-Bootloader zu starten. Weitere Neuerungen im Netzwerkbereich betreffen die Unterstützung für TLS.

Außerdem haben die Entwickler die alte Explorer-Shell vollständig ersetzt, weil das Betriebssystem selbst jetzt deutlich mehr Funktionen hat, sodass diese nicht mehr durch die Shell bereit gestellt werden müssen.

Sämtliche Neuerungen der Version 0.4 können im Changelog nachgelesen werden. Die Software lässt sich wahlweise als Live-CD oder als VM-Image für VMware, Qemu oder VirtualBox frei herunterladen.

Active Directory-Diagnose zur Migration zu Exchange 2016

Mit dcdiag /a überprüfen Sie alle Domänencontroller am aktuellen AD-Standort, dcdiag /e überprüft alle Domänencontroller in der Gesamtstruktur.

Wollen Sie nur Fehler angezeigt bekommen, verwenden Sie dcdiag /q. Wollen Sie nur einen einzelnen DC über das Netzwerk testen, verwenden Sie dcdiag /s:<Name des Domänencontrollers>.

Erhalten Sie Fehler, sollten Sie zunächst den Server neu starten und danach sicherstellen welche Einträge es in der Ereignisanzeige gibt und ob alle Dienste gestartet sind, zum Beispiel der Systemdienst für den DNS-Server und der Systemdienst für Active Directory.

Überprüfen Sie alle Fehler in dcdiag, und suchen Sie danach im Internet. Mit dcdiag /v >c:\temp\dcdiag.txt können Sie alle Daten direkt in eine Textdatei umleiten lassen. Auf diesem Weg können Sie die Daten direkt aus der Datei kopieren und nach Fehlern suchen.

Die verschiedenen Advertising-Tests und die Tests der FSMO-Rollen müssen auf jeden Fall problemlos funktionieren. Zusammen mit nslookup und ping können Sie auf diesem Weg auch die Namensauflösung und Kommunikation der DCs untereinander testen.

Repadmin /showreps zeigt die Replikationen der Domänencontroller an. Können sich einzelne Domänencontroller nicht replizieren, sehen Sie recht schnell welcher DC die Quelle ist. Mit repadmin /showreps >c:\rep.txt lassen Sie die Daten in eine Textdatei umleiten.

Mit repadmin /showreps * /csv > reps.csv leiten Sie die Replikationsinformationen in eine CSV-Datei um. Diese können Sie zum Beispiel in Excel importieren um Fehler besser beheben zu können.

VMware-Tools und Linux-Gäste

VMwares Update-Manager ist ein komplexes Datenbank-basiertes Werkzeug zum Aktualisieren großer vSphere-Umgebungen. Er stellt ein Repository sämtlicher verfügbarer Updates, Patches und Aktualisierungen für ESXi-Hosts, virtuelle Appliances (wie VCSA oder vMA) und virtueller Maschinen zur Verfügung einschließlich der VMware-Tools zur Verfügung und kümmert sich um sowohl um das regelmäßige Herunterladen verfügbarer Patches, als auch um deren Verteilung.

Im Rahmen der Aktualisierung virtueller Maschinen sorgt der Update Manager gleichermaßen für das Aktualisieren der VM-Hardware-Version der jeweiligen VM, wie um das Aktualisieren der Tools selbst und zwar stets in der richtigen Reihenfolge.

Nur unter Windows

Der Update Manager lässt sich ausschließlich auf einem Windows-Rechner installieren. Außerdem setzt er eine Microsoft SQLServer-Datenbank voraus, bzw. bringt bei Bedarf eine MS-SQLServer-Express-Datenbank mit.

Die Kommunikation mit dem vCenter-Server erfolgt über ein Plugin. Dieses wird über den vSphere Client scharf geschaltet. Bei einem vCenter auf Windows-Basis, können vCenter und Update-Manager auch auf der gleichen Maschine laufen; bei der Verwendung der VCSA-Appliance kann der Update Manager entweder in einer separaten Windows-VM oder auf einem physischen Rechner installiert werden.

VMware-Tools aktualisieren

Sollen die VMware Tools für eine bestimmte VM (es geht auch automatisiert für sämtliche VMs mit installierten Tools) mit Hilfe des Update-Manager) aktualisiert werden, geht man wie folgt vor.
Der Update Manager lässt sich derzeit nur im nativen vSphere-Client nutzen. Die Integration mit dem Web Client ist noch rudimentär.

Schritt 1:  Zunächst begibt man sich im bei im Inventory markierten Host zum Reiter „Update-Manager“ und klickt auf den Link „Admin View“ um das Tool grundlegend einzurichten. Eine Beschreibung sprengt den Rahmen des Posts. Etwaige Beschreibungen finden sich im Netz und in der VMware Dokumentation. Hier geht es um so grundlegende Dinge, wie die Netzwerk-Connectivität und das initiale Herunterladen der gesamten Patch-Historie zum Aufbau des lokalen Patch-Repository.

Schritt 2: Zurück in der „Compliance View“ wechselt man im Inventory zu „VM and Templates“, markiert die gewünschte VM und klickt dann im Reiter „Update Manager“ auf „Attach“, um die gewünschten „Baselines“ anzuhängen. Hier setzt man das Häkchen z. B. bei „VMware Tools Upgrade to match Host (Predefined)“ sowie bei „VM Hardware upgrades to match host ….“ und klickt dann auf den „Attach“-Button.

Schritt 3: Um individuell zu prüfen, ob die betreffende VM aktualisierbar ist, markiert man diese im Inventory und klickt im Reiter „Update Manager“ auf „Scan“. Hier setzt man die beiden Häkchen für „VMware Tools upgrades …“ und „VM Hardware upgrades …“

Schritt 4: Findet Update Manager aktualisierbare Tools, tauchen diese in der Compliance-Ansicht im Tortendiagramm bei „VM/VA-Compliance“ rot mit der Kennzeichnung „Non Compliant“ auf.

Schritt 5: Für das Aktualisieren klickt rechts unten auf den Button „Remediate“. Alternativ kann man links davon mit der Schaltfläche „VMware Tools upgrade settings“ auch automatische Tools-Upgrades konfigurieren.

Schritt 6: Im Remediate-Assistenten wählt man dann den Knopf „Upgrade Baselines“ bei „Individual Baselines by typ“ und dann rechts davon bei „Baselines“ den Eintrag „VMware Tools Upgrade…“.

Schritt 7: In den folgenden Schritten des Assistenten kann man dann u. a. einen Zeitplan konfigurieren oder auf Wunsch das jeweilige vorherige Erstellen eines Snapshots erzwingen und klickt dann auf.

Vorgehensweise bei der Planung von Exchange 2016

Auch die Größe der durchschnittlichen E-Mails spielt eine wichtige Rolle. Microsoft geht bei den Standard-Planungen von einer durchschnittlichen Größe von 75kb aus.

Sie können die Größe entweder über die Nachrichtenprotokolle in Erfahrung bringen, oder über Zusatztools. Eine solche Analyse kann zum Beispiel durch die Leistungsüberwachung durchgeführt werden. Migrieren Sie von Exchange Server 2007, können Sie für diese Werte auch Microsoft Exchange Server Profile Analyzer (https://www.microsoft.com/en-us/download/details.aspx?id=10559) verwenden. Wie Sie das Tool bedienen, lernen Sie auf der Seite http://blogs.technet.com/b/neiljohn/archive/2011/08/09/user-profile-analysis-for-exchange-server-2010.aspx.

Ab Exchange 2016 ist dieses Tool aber nicht mehr nutzbar, in diesem Fall überwachen Sie mit der Leistungsüberwachung die beiden Leistungsindikatoren „MSExchangeIS\Messages Submitted/sec“ und „MSExchangeIS\Messages Delivered/sec“. Wichtig ist, dass Sie die Messung am besten zu Zeiten vornehmen, an denen besonders viele E-Mails empfangen oder gesendet werden. Diese Daten benötigen Sie später für die Planung der Hardware über Exchange Server Role Requirements Calculator.

Microsoft geht in typischen Umgebungen von etwa 50-500 Nachrichten pro Benutzer und Tag aus sowie einer durchschnittlichen E-Mail-Größe von 75 GB. Wenn Sie in Ihrer Umgebung von einem Mittelwert von etwa 200 Nachrichten am Tag ausgehen, und jede E-Mail etwa 75 kB Größe hat, ergibt sich ein zusätzlicher Speicherplatz von etwa 15 MB am Tag, der über die Exchange-Server abgewickelt werden muss.

Die E-Mails müssen gespeichert werden, und zwar in den gesendeten Objekten des Absenders sowie unter Umständen im Posteingang des Empfängers, wenn die Nachricht intern zugestellt wird. Auch die Datensicherung muss diese Daten berücksichtigen. Wenn Anwender diese E-Mails löschen, bleiben diese zunächst in der Datenbank gespeichert, bis der Grenzwert zum Löschen von gelöschten Daten erreicht ist. Das heißt, auch gelöschte Objekte, müssen bei der Größe der Festplattenspeicher berücksichtigt werden.

Shared-Folder zwischen Host und Gast

In einer Virtualisierungsumgebung mit KVM/Qemu genügen dazu wenige Schritte:

Zuerst spendiert man der virtuellen Maschine z. B. im grafischen Virtual Machine Manager eine neue Hardwarekomponente von Typ „Filesystem“. Wie am sich dann öffnenden Registerreiter „Filesystem Passthrough“ leicht zu erkennen, geht es dabei um ein einfaches „Durchreichen eines Dateisystems.

Hier kann man bei „Mode“ und „Driver“ die Default-Werte übernehmen und muss nur noch bei „Source path“ den Folder-Namen auf dem Host einzutragen sowie bei „Target path“ den korrespondierenden Pfad in der VM. Es vereinfacht die Sache, wenn beide „virtshare“ heißen.

Auf dem Host ist dann nichts weiter zu tun.

In der VM muss der Admin oder Nutzer nur noch dieses Dateisystem mounten, Es ist als Netzwerkdateisystem mit 9P-Protokoll (von Plan 9) implementiert, daher der Parameter -9p:

mount -t 9p -o trans=virtio,version=9p2000.L /virtshare /virtshare