Künstliche Intelligenz – Fluch oder Segen für die Umwelt?

Auf europäischer Ebene sollen ab 2020 jährlich 20 Mrd. € investiert werden; die deutsche Bundesregierung hat bis zum Jahr 2025 insgesamt 3 Mrd. € für Investitionen in KI lockergemacht. Das sind allein in Deutschland immerhin eine halbe Milliarde Euro pro Jahr. Dagegen scheinen die 27 Mio. €, die das Bundesumweltministerium für die Förderinitiative „KI-Leuchttürme für Umwelt, Klima, Natur und Ressourcen“ bereitstellt, fast mickrig.

Dabei sind gerade die Potenziale für mehr Umweltschutz durch künstliche Intelligenz enorm und müssen im Angesicht der globalen Umweltprobleme möglichst schnell gehoben werden. Mit Hilfe von KI können komplexe Systeme wie das Klima besser verstanden werden. KI-Anwendungen bieten insbesondere im Bereich der Mobilität, der Energie und der Landwirtschaft viele Möglichkeiten, die Umweltbelastungen zu senken. Und auch für Rechenzentren gibt es „rosige“ Aussichten. Google konnte mit Hilfe des gekauften KI-Startups Deepmind den Energiebedarf der Rechenzentrumskühlung um 40% reduzieren. KI kann helfen, Nah- und Fernwärmenetze so zu konzipieren und zu betreiben, dass die Abwärme aus Rechenzentren besser genutzt werden kann.

Führt künstliche Intelligenz zu mehr Umweltschutz?

Dennoch ist es keineswegs ein Automatismus, dass KI zu mehr Umweltschutz führt. Schon seit Jahrzehnten ist festzustellen, dass sich die Hoffnungen zur Reduktion des Energie- und Ressourcenbedarfs durch digitale Technologien oft nicht erfüllen. Digitale Lösungen haben zwar eine enormes Umweltschutzpotenzial, unterstützen aber meist auch gleichzeitig das Wachstum des Energie- und Ressourcenbedarfs. Ein paar Beispiele:

  • Das papierlose Büro fast immer noch eine Illusion. Jeder Deutsche benötigt aktuell jährlich 242 kg Paper pro Kopf, das ist weltspitze. Im Jahr 1980 lag der Pro-Kopf-Papierbedarf in Deutschland noch bei 150 kg.
  • Telefon- und Videokonferenz werden zwar mehr und mehr durchgeführt, die Zahl der Dienstreisen nimmt aber dennoch zu. Sie ist zwischen 2004 und 2017 um fast 30% angestiegen
  • Digitale Logistiklösungen führen dazu, dass Lkw-Leerfahrten vermieden werden und Routen optimal geplant werden können. Das führt aber nicht zu weniger Verkehr. Im Gegenteil: Der Straßengüterverkehr hat zwischen 2010 und 2017 um mehr als 25% zugenommen.

Auch für KI-Anwendungen ist die Gefahr gegeben, dass sie nicht zu einer Umweltentlastung führen. Autonom fahrende Autos könnten zwar genutzt werden, um den Verkehr zu reduzieren. Das wäre der Fall, wenn wir uns künftig die Fahrzeuge teilen würden. Es ist aber auch möglich, dass die Zahl der Autos deutlich ansteigt, weil auch Kinder oder andere Personen ohne Führerschein ein eigenes Auto fahren können. Für den Güterverkehr ist es eine Illusion, dass autonom fahrende LKW zu weniger Verkehr führen. Wenn keine Ruhezeiten für die Fahrer mehr notwendig sind, können die LKWs praktisch rund um die Uhr genutzt werden.

Ein weiterer wichtiger Aspekt: Wie viel Energie und Ressourcen benötigen die KI-Anwendungen selbst? Gemäß Cisco haben Anwendungen aus dem Bereich „Database/Analytics/IOT” bereits heute einen Anteil von etwa 15% an den Workloads der Rechenzentren weltweit, Tendenz deutlich steigend. KI-Anwendungen in den Bereichen Deep-Learning, Simulationen und Prognosen benötigen teilweise enorme Rechenleistungen und verursachen so hohe Energie- und Ressourcenbedarfe. Forscher der University of Massachusetts haben ermittelt, dass das Training einer KI-Anwendung zur Spracherkennung fünfmal so viel CO2 erzeugt wie ein Auto während seiner gesamten Lebensdauer. Der Ressourcenbedarf der KI-Anwendungen ist ganz entscheidend von der verwendeten Hardware abhängig. Konventionelle CPUs sind für die meisten Anwendungen eher ungeeignet. Viel mehr Leistung – und damit auch weniger Energie – kann durch die Nutzung von Graphikprozessoren (GPUs), FPGAs (Field Programmable Gate Arrays) oder speziellen ASICs wie Googles TPU (Tensor Processing Units) erreicht werden. Auch neuromorphore Microchips bieten enorme Energieeffizienzpotenziale bei KI-Anwendungen. Die Frage, wie KI möglichst energie- und ressourceneffizient betrieben werden kann, wird bisher allerdings noch kaum gestellt. Neben der der Hardware sind hier auch die verwendeten Orchestrierungswerkzeuge, die KI-Frameworks und die KI-Modelle entscheidend.

Es besteht Handlungsbedarf für Politik und Unternehmen

Was ist also zu tun? Eines scheint klar: KI führt nicht von selbst zu mehr Umweltschutz. Politik und Unternehmen müssen in ihren Handlungen und konkreten KI-Projekten die Nachhaltigkeit der Lösungen immer mitdenken. Politische Maßnahmen müssen so gestaltet sein, dass die enormen Umweltschutzpotenziale der KI auch genutzt werden. KI darf nicht dazu führen, dass der Energie- und Ressourcenbedarf sogar weiter ansteigt. Unternehmen sollten – auch aus Kostengründen – ihre KI-Lösungen so entwickeln und einsetzen, dass sie möglichst effizient betrieben werden kann.

Letztendlich benötigen wir für KI-Anwendungen spezielle, optimierte, energie- und ressourceneffiziente Cloud-Architekturen und Cloud-Infrastrukturen. Diese können von den bekannten Global Playern angeboten werden. Aber auch der Aufbau von europäischen oder nationalen Lösungen scheint aus vielen Gründen eine überlegenswerte Alternative. Fördermittel in Milliardenhöhe ständen ja zur Verfügung.

Altaro Office 365 Backup – Datensicherung in der Cloud

Altaro Office 365 Backup wird pro Postfach lizenziert. Wenn ein Postfach von mehreren Benutzern genutzt wird, ist nur eine Lizenz notwendig. Im Preis enthalten sind die Lizenzen für die Sicherung eines Postfachs, der dazu notwendige Speicherplatz in Microsoft Azure, Zugriff auf die Verwaltungskonsole und der technische Support. Derzeit gibt Altaro keine Obergrenze für den Speicherplatz an. Derzeit lassen sich Postfächer maximal viermal pro Tag sichern.

Altaro Office 365 Backup steht 30 Tage kostenlos als Test bereit. Allerdings lassen sich hier nur maximal 10 Postfächer testen. Nach der Anmeldung an der Cloud-Konsole wird über einen Assistenten zunächst die Office 365-Organisation angebunden. Im Rahmen der Anbindung wird der Sicherungslösung auch der Zugriff auf die Organisation gewährt. Hier sollten natürlich die Berechtigungen entsprechend überprüft werden.

Eine weitere Sicherungslösung für Office 365 ist CodeTwo Backup for Office 365 (https://www.codetwo.de/backup-for-office-365). Diese Software ist wiederum lokal zu installieren, wie Veeam Backup für Office 365. Mit der Sicherungslösung von CodeTwo können auch SharePoint-Bibliotheken und OneDrive für Business gesichert werden.

Postfächer und Daten in Office 365 mit Freeware von Veeam sichern

Die Lizenzierung von Veeam Backup für Microsoft Office 365 wird pro Benutzer abgewickelt. Es sind mindestens 10 Benutzerlizenzen notwendig, die über den Zeitraum von einem bis fünf Jahren gebucht werden. Unter 10 Benutzern kann die Community Edition kostenlos gebucht werden. Alle aktuellen Preise sind auf der Produktseite zu sehen (https://www.veeam.com/de/backup-microsoft-office-365-pricing.html). Die Lizenzen umfassen Exchange Online, lokale Exchange-Server, SharePoint Online und lokal sowie OneDrive für Business. Zusätzliche Benutzer lassen sich jederzeit hinzufügen.

Mit der Community Edition lassen sich bis zu 10 Benutzer kostenlos sichern. Außerdem können bis zu 1 TB Daten in SharePoint Online und damit OneDrive für Business. Wer mehr Daten sichern muss, kann also nicht auf die Community Edition setzen. Die Installation ist in wenigen Schritten abgeschlossen. Wer auf die Community Edition setzt, kann jederzeit auf die kostenpflichtige Version wechseln. Dazu muss lediglich eine Lizenz installiert werden.

 

Systempostfächer bei der Migration zu Exchange 2019 berücksichtigen

Im ersten Schritt sollten Sie die Systempostfächer verschieben. Diese werden von den anderen Postfächern benötigt und sind meistens auch nicht sehr groß. Durch das Verschieben der Systempostfächer können Sie testen, ob der Verschiebevorgang richtig funktioniert. Sie können dazu die Exchange Management Shell nutzen. Zunächst lassen sich die Systempostfächer anzeigen. Wir gehen nachfolgend davon aus, dass der alte Exchange-Server die Bezeichnung „x2k16“ hat. Der neue Exchange 2019-Server hat die Bezeichnung „x2k19“. Für das Abfragen der Systempostfächer benötigen Sie die Bezeichnung der Datenbanken auf denen die Systempostfächer gespeichert sind:

get-mailboxdatabase -server x2k16 | get-mailbox -Arbitration

Stimmt die Anzeige, können Sie die Postfächer auch gleich zur neuen Datenbank verschieben:

get-mailboxdatabase -server x2k16 | get-mailbox -Arbitration

Sie können den Status des Vorgangs in der Exchange Management Shell überprüfen. Dazu verwenden Sie das CMDlet:

Get-MoveRequest

Der Status sollte „Completed“ lauten. Erst dann ist der Vorgang erfolgreich verschoben wurden. Sie können der Ordnung halber den Request löschen, da er abgeschlossen wurde:

Get-MoveRequest | Remove-MoveRequest

Migration zu Exchange 2019

Damit die Exchange-Versionen 2013/2016 und 2019 zusammen arbeiten, benötigen Sie die folgenden Voraussetzungen:

  • Exchange 2010 kann nicht gemeinsam mit Exchange 2019 betrieben werden. Hier müssen Sie entweder zu Exchange 2013 oder Exchange 2016 migrieren.
  • Exchange 2013 CU21 oder neuer
  • Exchange 2016 CU11 oder neuer

Bevor Sie zu Exchange 2019 migrieren, sollte eine Inventarisierung sowie eine Dokumentation der bestehenden Umgebung angefertigt werden. Dabei sollten vor allem folgende Dinge berücksichtigt werden:

  • Firewall, vor allem alle Regeln bezüglich Internetzugang und E-Mail
  • Zertifikate
  • Fax- und Unified-Messaging Server
  • Geräte die auf Exchange zugreifen, Beispiel Scanner, Drucker oder andere Server
  • SharePoint, SQL-Server
  • Serverdienste, die per ist im SMTP auf Exchange zugreifen
  • Outlook-Versionen

Sie können Server mit Exchange Server 2019 in bestehende Organisationen mit Exchange Server 2013/2016 installieren. Dazu müssen Sie vor der Installation des Exchange-Servers zunächst das Schema erweitern. Zwar kann auch die Exchange-Installation selbst die Aktualisierung durchführen, es ist aber besser, wenn Sie diese Aktionen vor der eigentlichen Installation von Exchange 2019 durchführen.

Hier verwenden Sie am besten die Installations-Dateien von Exchange 2019 mit dem aktuellsten kumulativen Update. Diese enthalten die Schema-Änderungen von Exchange 2019.

Von den Schema-Erweiterungen werden die Quell-Server mit Exchange Server 2013/2016 nicht beeinträchtigt. Der Name der Exchange-Organisation wird von der Quell-Organisation übernommen Um das Active Directory bereit für Exchange Server 2019 zu machen, führen Sie folgenden Befehl aus:

setup.exe /PrepareSchema /IAcceptExchangeServerLicenseTerms

Neben den Schema-Erweiterungen, muss auch das das Active Directory aktualisiert werden, bevor Sie Exchange Server 2019 in die Organisation installieren können. Auch dieser Vorgang muss vor der eigentlichen Installation auf einem Server erfolgen:

setup.exe /PrepareAD /IAcceptExchangeServerLicenseTerms

Generell entspricht diese Vorgehensweise den Befehlen, die Sie auch bei einer Neuinstallation von Exchange Server 2019 in einer Organisation ohne Exchange ausführen. Nachdem das Active Directory erweitert wurde, müssen Sie noch die Domäne für die Installation von Exchange Server 2019 vorbereiten:

Setup.exe /IAcceptExchangeServerLicenseTerms /PrepareAllDomains

Mit ADsorptionskälte zur kostensparenden Serverraumkühlung

Das kontinuierliche Bestreben von Transgourmet nachhaltig zu handeln, wurde durch den Einsatz der umweltverträglichen Kälteanlage weiter ausgebaut. Die AdKMs verwenden nicht nur Wasser als Kältemittel, sondern nutzen zudem auch die überschüssige Wärme der BHKWs als Antriebsquelle zur optimalen Kälteerzeugung.

Die BHKWs liefern insgesamt 100 kW elektrische Leistung und 160 kW thermische Leistung. Sie erzeugen durch den Wärmeantrieb für die Kältemaschinen zusätzlich jährlich ca. 287.000 kWh Strom für den eigenen Verbrauch und werden ebenfalls als Notstromaggregat verwendet.

Dadurch verzichtet Transgourmet komplett auf ein wartungsintensives Diesel-Notstromaggregat. Die AdKMs und die darin integrierte Freikühlfunktion reduzieren zusätzlich den Stromverbrauch für die Kühlung des Serverraums pro Jahr um 110.000 kWh im Vergleich zu einer herkömmlichen Kompressionskältemaschine.

Darüber hinaus kann die BHKW-Abwärme während dem Freikühlbetrieb zur Deckung des Heizwärmebedarfs verwendet werden. „Mit dieser Investition können wir Ökonomie, Ökologie und Versorgungssicherheit in Einklang bringen.“, berichtet Frau Jonasson begeistert, Energiemanagerin bei Transgourmet Deutschland.

Die jährliche CO2-Einsparung liegt bei 63 Tonnen und bereits nach 3,8 Jahren ist das System vollständig amortisiert.

 

Weitere Informationen finden Sie hier.

Mit einem digitalen Zwilling zur Smart Supply Chain

Christian Titze, Gartner VP und Research Director für Supply Chain Management, ist sich sicher: „Digital Supply Chain Twins sind unumgänglich, wenn die digitale Welt und die physische Welt immer mehr verschmelzen“. Titze und sein Forschungsteam identifizieren den Digital Supply Chain Twin als einen der Top 8 Supply Chain Technology Trends 2019. Die im Trendbericht aufgeführten Technologien „sind diejenigen, die Supply Chain Leader einfach nicht ignorieren können“, erklärt Christian Titze. Er fügt hinzu, dass es sehr wahrscheinlich ist, dass diese Technologien innerhalb der nächsten fünf Jahre Menschen, Geschäftsziele und IT-Systeme stark beeinflussen werden.

Neben dem Digital Supply Chain Twin haben auch die üblichen Verdächtigen künstliche Intelligenz, Robotic Process Automation (RPA), IoT, Immersive Experience und Blockchain einen Platz unter den Top 8 von Gartner erlangt. Auch wenn man argumentieren mag – und Christian Titze nennt die Unumgänglichkeit aus gutem Grund – wird der Digital Supply Chain Twin nicht nur eine weitere Technologie innerhalb der Top 8 Cluster sein. Tatsächlich ist sie die Grundlage für die zielführende Digitalisierung der Lieferkette.

Daten brauchen Kontext

Wie Gartner in seiner Mitteilung feststellt „ist ein Digital Supply Chain Twin eine digitale Darstellung der Beziehungen zwischen allen physischen Einheiten der End-to-End Supply-Chain-Prozesse – Produkte, Kunden, Märkte, Distributionszentren/Lagerhäuser, Werke, Finanzen, Attribute und Wetter. Sie sind mit ihren realen Gegenstücken eng vernetzt. Verwendet werden sie, um die Situation oder den Zustand des Systems zu verstehen, um den Betrieb zu optimieren und effizient auf Veränderungen zu reagieren.“

Daher ist die digitale Lieferkette nicht nur die Brücke zwischen der realen, gewinnorientierten Welt und der informationsbasierten, entscheidungsorientierten Welt. Es ist auch das Bindeglied zwischen all den verschiedenen Datenquellen, die die wichtigsten 5 P eines Unternehmens mit einem wirklich digitalisierten Ökosystem verbinden. In einem Unternehmen bilden die 5 P die wichtigsten Säulen des Geschäftserfolgs: Produkte, Prozesse, Mitarbeiter (People), Partner und Richtlinien (Policy). Es bleibt jedoch die Frage, wie dies in Unternehmen erreicht werden kann, die sich durch Tausende von unterschiedlichen Systemen und eine IT auszeichnen, die kurz vor der Kapazitätsgrenze steht.

 Business Digital Twins verknüpfen die in Silos gefangenen Daten einer Organisation. Dadurch wird eine horizontal integrierte Perspektive auf die fünf zentralen Unternehmenswerte möglich: Product, Process, Partner, People und Policy.

Aufgrund der individuellen Kundenanforderungen, Losgröße 1 und der ständig steigenden Erwartungen an den Kundenservice müssen Chief Supply Chain Officers auf eine nahtlose End-to-End-Zusammenarbeit in ihrem gesamten Ökosystem drängen. Und dafür benötigen sie Daten aus einer Vielzahl unterschiedlicher Quellen. Aber Daten ohne Kontext und ein gemeinsames Verständnis werden zu Lärm. Um die digitale Reife voranzutreiben, benötigen Unternehmen eine Datenmanagement-Basis, die alle Punkte zwischen den verschiedenen Datenquellen verbindet.

Hierfür hilft ein Blick auf die erfolgreichen Spieler auf dem digitalen Markt. Apple, Facebook, Alphabet, Amazon, Alibaba und Tencent sind die am schnellsten (in Maßstäben) wachsenden Unternehmen der Welt. Sie haben alle eins gemeinsam: Sie pflegen, verknüpfen und virtualisieren ihre Daten in Knowledge Graphen. Im Gegensatz zu klassischen Datenmanagementansätzen erlauben Knowledge Graphen die systemunabhängige und flexible Integration aller Formen von Daten – ganz unabhängig davon, ob diese z. B. aus Excelsheets, .csv-Dateien oder binäre Datensätze stämmen. Eine Änderung der meist proprietären Quellsysteme oder aufwendige Datenmigrationsprojekte sind dafür nicht notwendig. Das ist insbesondere in Bereichen relevant, in dem komplexe Prozesse Planungs- und Entscheidungsprozesse an ebenso komplexen IT- und Datenarchitekturen basieren. Wie eben im Supply Chain Management.

Der Knowledge-Graph-basierte Digital Twin bildet für RFS die Basis, seine digitale Reife voranzutreiben.

Nokia und RFS zeigen den Weg

Digitale Marktführer wie Nokia und RFS (Radio Frequency Systems) bauen bereits ihre Lieferkette der nächsten Generation auf einer wissensgestützten Digital Twin Infrastruktur auf. Nokia arbeitet derzeit an einem vollautomatischen und digitalisierten Software-Delivery-Prozess für sein B2B-Portfolio und verkürzt die Durchlaufzeiten von Wochen auf wenige Minuten.

RFS, einer der weltweit führenden Anbieter innovativer Telekommunikations-Infrastrukturlösungen, hat den Aufwand für die Datenaufbereitung um 50 Prozent reduziert. Dies und die vollständige Integration der unterschiedlichen Produktionsdaten ermöglichten es ihnen, die Produktionskapazität und den Lagerumschlag deutlich zu erhöhen, was zu einem ROI von 200 % innerhalb der ersten 6 Monate führte.

Diese Ergebnisse zeigen, dass die Digitalisierung auf Daten und deren sinnvollen Verwaltung fußt. Es gibt viele gute, aber spezifische Lösungsanbieter für jeden denkbaren Anwendungsfall. Wenn Unternehmen jedoch nicht in der Lage sind, ihre 5 Ps zu verbinden, wird jeder Digitalisierungsaufwand in einer Sackgasse münden. Das Ergebnis sind dann in der Regel Silo-Lösungen und Datenrauschen, anstelle von Erkenntnissen.

VMs per Skript sichern

Sie können mit Skripten auch Snapshots erstellen, zum Beispiel mit dem CMDlet „New-Snapshot“. Ein Beispielbefehl sieht folgendermaßen aus:

“New-Snapshot -vm server1 -Memory:$false -confirm:$false -name „Ticket number 12345”

Natürlich lassen sich auch mehrere VMs bei der Erstellung eines Snapshots berücksichtigen:

„New-Snapshot -vm server1,server2,server3 -Memory:$false -confirm:$false -name „Ticket number 12345“

Ein Beispiel für die Sicherung von VMs mit Skripten ist „GhettoVCB“. Das Skript bietet keine grafische Oberfläche, sondern richtet sich  an Administratoren, die Server per Skript sichern wollen. Wenn Sie sich mit dem Skript etwas auseinandersetzen, können Sie auch recht einfach E-Mail-Benachrichtigungen aktivieren. 

Der Vorteil von GhettoVCB besteht darin, dass Sie das Sicherungsskript nur einmal korrekt konfigurieren müssen, und es danach recht einfach die gewünschten VMs sichern kann. Das Skript laden Sie auf der Seite https://github.com/lamw/ghettoVCB. Im Gegensatz zu Skripten, die Sie mit der PowerCli auf einem Verwaltungs-Rechner erstellen und starten, kann GhettoVCB direkt auf den ESXi-Hosts positioniert werden. Die Bearbeitung des Skriptes können Sie vor dem Hochladen auf den Server bearbeiten, oder nach dem Upload auch mit SSH und vi.

Eine weitere Möglichkeit, um VMs in Hyper-V zu skripten besteht darin das kostenlose „Hyper-V Virtual Machine Backup Utility“ (https://gallery.technet.microsoft.com/scriptcenter/PowerShell-Hyper-V-Backup-7d444752) aus dem Microsoft Script Center zu verwenden. Das Skript muss auf einem Hyper-V-Host betrieben werden. Mit dem Skript lassen sich VMs auch auf Speicherplätze im Netzwerk exportieren. Auch das Exportieren von VMs in einem Cluster ist möglich. Eine Hilfe zu den einzelnen Optionen ist hier zu finden: https://gal.vin/2017/09/18/vm-backup-for-hyper-v.

Software-Lastenausgleich für Software Defined Networking nutzen

Microsoft bietet eine SDN-Erweiterung für Windows Server 2019 an, mit der auf Basis von VMs Softwarelastenausgleich (Software Load Balancing, SLB) im Netzwerk eingeführt werden kann. Dabei handelt es sich um L3- und L4-Loadbalancer, die auf Basis von VMs zur Verfügung gestellt werden. Die Erweiterung kann als Skript auf Github heruntergeladen und in Netzwerken mit Windows Server 2016/2019 integriert werden.

Zur Integration von SDN und SLB in Windows-Netzwerken lässt sich auch SCVMM nutzen. Microsoft bietet auf Github aber auch PowerShell-Skripte und Tools für die grafische Oberfläche an, mit denen SLB ebenfalls eingerichtet werden kann. Diese Erweiterung mit der Bezeichnung SDN Express wird über einen Assistenten installiert und eingerichtet.

Es gibt zwei Möglichkeiten zur Bereitstellung von SDN. Nutzen Sie SDN Express aus Github, können Sie eine GUI nutzen, oder eine Oberfläche in der PowerShell.  Sie können die Bereitstellung auch über die PowerShell für Umgebungen durchführen, die nicht System Center Virtual Machine Manage (SCVMM) verwenden. Weitere Informationen dazu finden Sie im Blogbeitrag „ Top 10 Networking Features in Windows Server 2019: #7 SDN Goes Mainstream“ (https://blogs.technet.microsoft.com/networking/2018/08/08/sdn-goes-mainstream). Skripte und andere Ressourcen befinden sich im Microsoft SDN-Repository auf GitHub (https://github.com/microsoft/sdn).

Die zweite Möglichkeit die SLB-Funktionen zu nutzen besteht darin auf System Center Virtual Machine Manager zu setzen. Informationen zur Bereitstellung von SDN in SCVMM finden Sie auf der Seite „Set up an SDN network controller in the VMM fabric“.

Exchange-Reparaturinstallation durchführen

Die Installation dazu nehmen Sie in der Befehlszeile vor.

Wechseln Sie dazu in das Verzeichnis mit den Installationsdateien von Exchange Server 2019, oder dem entsprechenden Servicepack oder CU, welches Sie installiert haben. Die Reparaturinstallation starten Sie mit:

Setup /m:upgrade /IAcceptExchangeServerLicenseTerms

Exchange überprüft den Server und versucht dann Systemkomponenten zu reparieren.  Starten Sie den Server danach neu, sollte Exchange wieder funktionieren.

Lassen sich neue Exchange-Server nicht installieren, kann es helfen die Vorbereitungen für Active Directory und die Domänen erneut durchzuführen. Dazu verwenden Sie folgende Befehle:

Setup /PrepareAd /IAcceptExchangeServerLicenseTerms /OrganizationName: <Organisationsname>

Setup /PrepareAllDomains /IAcceptExchangeServerLicenseTerms 

 

BAM – CMS Blog