Unternehmenssicherheit: Insider Threats erfolgreich abwehren

Moderne Systeme für Dynamic Data Protection helfen dabei, Daten vor Verlust und Diebstahl verlässlich zu schützen. Sie ermöglichen flexible und dynamische Sicherheitsmechanismen auf Basis eines individuellen Risiko-Scores. Auf diese Weise lässt sich die höchstmögliche Produktivität der Mitarbeiter beibehalten und ein maximaler Schutz der Daten sicherstellen.

Das größte Risiko für die Datensicherheit in Unternehmen kommt von innen – durch so genannte Insider Threats. Dabei lassen sich verschiedene Arten von Bedrohungen unterscheiden: Häufig begünstigen Mitarbeiter unwissentlich oder unbeabsichtigt die Abwanderung sensibler Unternehmensdaten. Beispielsweise können durch die arglose Mitnahme und fahrlässige Verwendung von firmeninternen USB-Sticks oder anderen Datenträgern betriebliche Informationen in fremde, unberechtigte Hände gelangen. Ein weiterer Risikofaktor ist der absichtliche Datendiebstahl durch Firmenangehörige: In diesem Fall handeln die Täter mit Vorsatz oder kriminellem Motiv und nehmen einen Schaden für das Unternehmen durch die Veruntreuung von Daten bewusst in Kauf. Eine dritte Kategorie von Bedrohungen sind kompromittierte Anwender. Dabei haben sich Kriminelle Zugang zu den Anmeldedaten eines Mitarbeiters verschafft und missbrauchen diese für Angriffe.

Eine Möglichkeit zur Abwehr der Risiken bieten Lösungen für Data Loss Prevention (DLP). Sie beinhalten herkömmliche Funktionen für Identitätsmanagement, Monitoring, Verschlüsselung sowie Zugriffskontrolle. Zudem steuern und überwachen sie Nutzer-Aktivitäten und bieten Mechanismen, um Datenströme im Unternehmensnetzwerk zu filtern und zu schützen. Konventionelle DLP-Systeme sind aber in der Regel sehr starr und bieten nicht die nötige Dynamik, um auf die verschiedenen Spezies von Insider Threats adaptiv zu reagieren. Die Lösungen fokussieren häufig nur den reinen Infrastrukturschutz oder die Abwehr von externen Gefahren. Dabei nutzen sie meist statische Auswertungen, die sich nicht flexibel an verschiedene Arten von Benutzern und Transaktionen anpassen und dadurch zusätzliche Sicherheitslücken verursachen. So verwenden solche Systeme für alle User immer die gleichen Policies und Richtlinien, verbieten von vornherein bestimmte Aktionen und schränken dadurch die Produktivität der Mitarbeiter erheblich ein. Überdies senden die meisten DLP-Lösungen an die Sicherheitsverantwortlichen in Unternehmen eine riesige Anzahl von teilweise unnötigen Alerts, auf die reagiert werden muss. Dies erhöht den Administrationsaufwand und verursacht zusätzliche Kosten.

Sicherheit im Einklang mit Produktivität und Effizienz

Einen weitaus effektiveren Schutz vor Insider Threats bieten moderne Lösungen für Dynamic Data Protection (DDP). Sie schneiden interne Sicherheitsrichtlinien ohne Zutun eines Administrators automatisch und adaptiv auf alle Nutzer oder Geräte zu. Dadurch können Unternehmen die Sicherheit ihrer Nutzer und Daten lückenlos mit den Anforderungen an Produktivität und Effizienz in Einklang bringen. Das Besondere: Flexibel und individuell passen DDP-Systeme die Reaktion auf einen Sicherheitsvorfall anhand des jeweiligen Risikos an. Auf diese Weise wird der momentane Sicherheitslevel automatisch und situativ an die jeweiligen Anforderungen angeglichen. Dabei besteht die Möglichkeit, dynamisch und je nach Rolle oder Verhalten eines Mitarbeiters spezielle Policies zu generieren.

Ein Beispiel: Eine bestimmte Person darf interne Daten auf einen USB-Stick kopieren und diesen mit nach Hause nehmen, um dort beispielsweise an einer Firmenpräsentation weiterzuarbeiten. Handelt es sich jedoch um kritische oder sensible Unternehmensdaten, besteht ein höheres Risiko. In diesem Fall regelt eine Richtlinie, dass der Mitarbeiter die Daten nur verschlüsselt kopieren darf. Ein weiteres Szenario beschreibt noch höhere Sicherheitsanforderungen: Hat ein Betriebsangehöriger bereits ein auffälliges Verhalten gezeigt – zum Beispiel durch einen versuchten Zugriff auf Daten, für die er nicht berechtigt ist – ist höchste Vorsicht geboten. Dann sollte eine entsprechende Policy ihm die Mitnahme von Daten komplett verbieten.

Risiko-Score resultiert aus Nutzerverhalten

Grundlage der Erkennungsmechanismen ist die Technologie „User and Entity Behaviour Analytics“ (UEBA). Die DDP-Lösung beobachtet dabei das Verhalten der Nutzer, definiert daraus automatisch einen bestimmten Risiko-Score und passt die Berechtigungen des Betroffenen adaptiv an die jeweiligen Risiken an. Beschäftigte mit geringem Risikofaktor verfügen dann über mehr Rechte und können dadurch produktiver arbeiten. Besonders wichtig ist es dabei auch, bestimmte Verhaltensänderungen eines Mitarbeiters zu erkennen. Greift er beispielsweise von einem anderen Ort als üblich auf Daten zu oder meldet er sich von einem bisher nicht genutzten Gerät an, wird ein erhöhtes Risiko festgestellt. Das DDP-System ist hierbei in der Lage, die jeweiligen Datenpunkte zu identifizieren und zu korrelieren. So lassen sich potenzielle Probleme und Bedrohungen frühzeitig erkennen und gezielt Gegenmaßnahmen einleiten. Beim Einsatz einer solchen Lösung ist jedoch das berechtigte Interesse von Mitarbeitern auf Privatsphäre gegenüber des zu erwartenden Schadens abzuwägen.

Dabei wird der Risiko-Score herangezogen, um die jeweilige Berechtigung des Users passgenau zu definieren, um also den Datenzugriff lediglich zu überwachen und zuzulassen, ihn zu verschlüsseln oder vollständig zu blockieren. So werden beispielsweise die Security-Experten im Unternehmen in hohem Maße entlastet. Diese können sich durch den hohen Automatisierungsgrad und die adaptiven, risikobasierten Anpassungen ganz auf relevante, auffällige Aktivitäten konzentrieren. Zudem lässt sich die benötigte Zeit für die verlässliche Erkennung von Risiken und Bedrohungen auf nur wenige Sekunden reduzieren.

 

Fazit

Insider Threats zählen zu den größten Risiken für die Sicherheit von Unternehmensdaten. Herkömmliche Security-Tools wie etwa DLP-Systeme reichen meist nicht mehr aus, um die Bedrohungen effektiv abzuwehren. Hilfreicher sind moderne Dynamic-Data-Protection-Lösungen, die auf einem risikoadaptiven Ansatz basieren. Sie richten sich nicht nach starren Policies, sondern passen sich dynamisch an das Verhalten der User und die damit verbundenen Risiken an. Dies wirkt sich positiv auf die Produktivität aus und gewährleistet gleichzeitig den optimalen Schutz der Daten.

Bereinigen der Metadaten von Active Directory

Für diese Bereinigung benötigen Sie wiederum das Befehlszeilentool Ntdsutil, das Sie bereits beim Verschieben der FSMO-Rollen kennen gelernt haben. Wenn Sie das Computerobjekt eines Domänencontrollers aus der OU „Domain Controller“ entfernen, bereinigen die verbliebenen Domänencontroller ebenfalls das Active Directory.

Es ist aber sicherer, wenn Sie die Metadaten zumindest überprüfen, und Reste der alten Domänencontroller entfernen. Um die Metadaten von Active Directory zu bereinigen, starten Sie zunächst Ntdsutil in der Eingabeaufforderung von Active Directory. Gehen Sie wie in den folgenden Schritten beschrieben vor:

  1. Geben Sie nach dem Start von Ntdsutilden Befehl metadata cleanup 
  2. Geben Sie im Anschluss daran connections
  3. Geben Sie den Befehl connect to server <Domänencontroller> Verwenden Sie am besten einen globalen Katalog und führen Sie diese Maßnahmen in einer Terminalsitzung auf dem Server aus.
  4. Geben Sie dann einmal den Befehl quit ein, um wieder zum Menü metadata cleanup zurückzukehren.
  5. Als Nächstes geben Sie select operation target
  6. Es folgt der Befehl list domains. Damit werden alle Domänen der Gesamtstruktur angezeigt.
  7. Geben Sie danach den Befehl select domain <Nummer der Domäne> Wählen Sie als Nummer die Domäne aus, von der Sie den Domänencontroller entfernen wollen.
  8. Geben Sie als Nächstes list sites Daraufhin werden alle Standorte der Gesamtstruktur angezeigt.
  9. Wählen Sie den Standort aus, von dem Sie einen Domänencontroller entfernen wollen. Verwenden Sie dazu den Befehl select site <Nummer des Standorts>.
  10. Nachdem Sie den Standort ausgewählt haben, geben Sie den Befehl list servers in site Es werden alle Server in diesem Standort angezeigt.
  11. Dann müssen Sie mit select server <Nummer des Servers> den Server angeben, den Sie aus dem Active Directory entfernen wollen.
  12. Nachdem Sie den Server ausgewählt haben, geben Sie quit ein, damit Sie wieder zum Menü metadata cleanup
  13. Geben Sie nun den Befehl remove selected server Es folgt eine Warnmeldung, in der Sie das Entfernen des Servers bestätigen müssen. Nach der Bestätigung dieser Meldung wird der Server aus dem Active Directory entfernt.
  14. In Ntdsutil werden die einzelnen Vorgänge beim Entfernen des Servers angezeigt.
  15. Im Anschluss können Sie Ntdsutil mit quit Die Active Directory-Metadaten sind bereinigt.

Nachdem die Metadaten von Active Directory bereinigt wurden, sollten Sie noch die Einträge im DNS bereinigen. Entfernen Sie alle SRV-Records, in denen noch der alte Server steht, aus der DNS-Zone der Domäne. Gehen Sie bei der Entfernung vorsichtig vor und löschen Sie keine Daten von anderen Domänencontrollern. Entfernen Sie auch alle Hosteinträge des Servers.

Herabstufen eines Domänencontrollers

Um einen Domänencontroller herunterzustufen, verwenden Sie am besten die PowerShell und das Cmdlet Uninstall-ADDSDomainController. Sie müssen noch das lokale Kennwort des Administrators über den Befehl festlegen. Dieses müssen Sie als SecureString in der PowerShell definieren. Die Syntax dazu lautet:

Uninstall-ADDSDomainController -LocalAdministratorPassword (Read-Host -Prompt „Kennwort“ -AsSecureString)

Mit Get-Help Uninstall-ADDSDomainController erhalten Sie mehr Informationen zu dem Befehl. Um zuvor den Vorgang zu testen, verwenden Sie Test-ADDSDomainControllerUninstallation. Um ausführliche Informationen zu erhalten, verwenden Sie:

Test-ADDSDomainControllerUninstallation | select -expandproperty message

Mit der Option -LastDomainControllerInDomain können Sie auswählen, ob es sich bei diesem Domänencontroller um den letzten seiner Domäne handelt.

In diesem Fall würde nicht nur der Domänencontroller aus der Gesamtstruktur entfernt, sondern die ganze Domäne. Haben Sie Ihre Auswahl getroffen, beginnt der Assistent mit der Herabstufung des Domänencontrollers.

Sobald Active Directory vom Server entfernt wurde, können Sie diesen neu starten. Nach der Herabstufung eines Domänencontrollers wird dieser als Mitgliedsserver in die Domäne aufgenommen. Wenn auf dem Server Applikationen installiert waren, zum Beispiel Exchange, stehen diese nach dem Neustart weiterhin zur Verfügung.

Auch wenn ein herabgestufter Domänencontroller im Anschluss noch als Mitgliedsserver verwendet werden kann, sollten Sie sicherheitshalber das Computerkonto aus der Domäne entfernen und das Betriebssystem neu auf dem Server installieren, um Altlasten zu entsorgen.

Auch den Servernamen sollten Sie ändern, wenn aus dem Namen hervorgeht, dass es sich um einen Domänencontroller gehandelt hat.

Wenn Sie einen Domänencontroller, der die Verbindung mit dem Active Directory verloren hat, nicht neu installieren wollen, können Sie Active Directory trotz fehlender Verbindung entfernen. Verwenden Sie in diesem Fall noch die Option -force.

Nach der erzwungenen Entfernung von Active Directory ist der Domänencontroller allerdings kein Mitgliedsserver mehr, sondern ein alleinstehender Server. Sie können sich daher an diesem Server nicht mehr bei der Domäne anmelden.

Wollen Sie danach noch die Binärdateien von Active Directory entfernen, verwenden Sie entweder den Server-Manager das Windows Admin Center, oder die PowerShell und den Befehl:

Uninstall-WindowsFeature AD-Domain-Services

 

Wird die Energieeffizienz in Rechenzentren ausgebremst?

Das Problem der mangelnde Verfügbarkeit von Fachkräften in der IT-Branche in Deutschland verschärft sich seit Jahren. Die Zahl der freien Stellen für IT-Spezialisten hat sich nach Angaben des Digitalverbandes Bitkom zwischen 2009 und 2018 auf 82.000 mehr als vervierfacht (Grafik). Auch im Bereich der Rechenzentren fehlen seit Jahren qualifizierte Arbeitskräfte. Aus Mangel an Alternativen werden oft Mitarbeiter für den Betrieb der Rechenzentren eingesetzt, die lediglich über rudimentäre Kenntnisse verfügen. Dies gefährdet zum einen die Ausfallsicherheit von Rechenzentren, führt aber auch dazu, dass Energieeffizienzpotenziale nur selten ausreichend realisiert werden. Zu diesen Ergebnisse kommt eine aktuelle Untersuchung des Netzwerks energieeffiziente Rechenzentren.

Der Fachkräftemangel wirkt sich auf unterschiedliche Weise auf die Energieeffizienz von Rechenzentren aus:

  • Nur ausgebildete und qualifizierte Fachkräfte sind in der Lage, Potenziale zur Senkung des Energiebedarfs von Rechenzentren zu identifizieren und geeignete Maßnahmen einzuleiten, die möglichen Einsparungen auch zu realisieren. Auch heute noch werden oft selbst die einfachsten Regeln für den energieeffizienten Betrieb von Rechenzentren wie Kalt-/Warmgangeinhausung oder eine Abdichtung von unbelegten Höheneinheiten im Rack nicht beachtet. Für komplexere Optimierungsaufgaben im Bereich des RZ-Managements sind auf jeden Fall hochqualifizierte Fachkräfte erforderlich.
  • Die Verfügbarkeit der Rechenzentren genießt zu Recht die höchste Priorität beim Rechenzentrumsbetrieb. Verfügbares Fachpersonal wird daher vor allem eingesetzt, um die Ausfallsicherheit der Rechenzentren sicherzustellen. Maßnahmen zur Verbesserung der Energieeffizienz fallen daher oft dem Mangel an verfügbaren Personalkapazitäten zum Opfer. Und das, obwohl sie sich innerhalb von kürzester Zeit amortisieren würden.
  • Vor allem IT-Dienstleister bauen ihre Rechenzentrumskapazitäten zurzeit deutlich aus (siehe Blog-Beitrag von NeRZ). Daher werden die vorhandenen Fachkräfte beim Neubau- oder der Erweiterung der Rechenzentren gebunden. Für die Modernisierung älterer und oft sehr ineffizienter Anlagen bleiben keine Ressourcen übrig.

Weitere Informationen zum Thema Energieeffizienz in Rechenzentren: www.ne-rz.de

IoT-Visionen erfolgreich umsetzen

Laut einer kürzlich durchgeführten Umfrage von Ovum unter mehr als 1.300 Unternehmen befindet sich die Einführung von IoT-Projekten derzeit häufig noch in einem frühen Stadium. Die am häufigsten genannten Ziele, die damit verfolgt werden, sind geringere Kosten, höhere Effizienz und bessere Wettbewerbsfähigkeit. Neue Umsatzquellen durch das Internet of Things sind dagegen für die meisten Unternehmen noch Zukunftsmusik. Doch zumindest berichten sie in der Regel von positiven Erfahrungen und planen, die Investitionen in diesem Bereich zu erhöhen.

Die größten Herausforderungen bei der Einführung von IoT-Prozessen sind demnach die Integration mit der bestehenden IT, das Ermitteln der richtigen Analyse-Prozesse, Sicherheitsbedenken und fehlende interne Kapazitäten zur Unterstützung skalierbarer Implementierungen. Dies zeigt, dass eine stärkere Integration von IoT in bestehende Geschäftsprozesse, die Entwicklung geeigneter Lösungen für analytische Modellierung und Datenmanagement sowie die Abwehr von Sicherheitsgefahren die Einführung von IoT-Lösungen beschleunigen können.

Hohes Potenzial

Die Transformation, die hierdurch möglich wird, bietet trotz der frühen Umsetzungsphase ein enormes Potenzial für Unternehmen. Daher möchten sie clevere Führungskräfte schon jetzt so schnell wie möglich durchführen. Neben der Einführung von geeigneten Technologien ist es dabei ebenso wichtig, die möglichen konkreten Vorteile zu identifizieren. So erhöhen Investitionen in die Vorplanung und die Auswahl der richtigen Komponenten die Erfolgschancen eines solchen IoT-Projekts deutlich. Darüber hinaus bietet es sich häufig an, „groß zu denken, aber klein anzufangen“. Dadurch können Unternehmen in überschaubaren Projekten schnell Erfahrungen sammeln, die sich iterativ mit zunehmender Skalierung umsetzen lassen.

Intensive Abstimmungen nötig

Von Anfang an die richtigen Entscheidungen zu treffen und anschließend auf Kurs zu bleiben, sind wichtige Aspekte eines IoT-Projekts. Um schon zu Beginn die Planung richtig zu gestalten, sollte ein Projektleiter folgende Punkte berücksichtigen:

Erstens sollte er die nötigen CXO-Genehmigungen einholen und sich mit den Verantwortlichen abstimmen. Die meisten IoT-Projekte sind abteilungsübergreifend. So trägt ein Top-Down-Ansatz dazu bei, die Entscheidungsfindung und -umsetzung zu beschleunigen. Darüber hinaus sind für ein Projekt, das Technologien und Standards verwendet, die sich noch in der Entwicklung befinden, intensive Absprachen notwendig, um die entsprechenden Mittel und die Unterstützung der Führungskräfte zu erhalten. Andernfalls ist das Risiko sehr hoch, dass das Projekt scheitert.

Außerdem sollte der Projektleiter sicherstellen, dass auch eine regelmäßige Abstimmung zwischen Fachabteilungen und IT erfolgt. Das Internet of Things ermöglicht verbesserte oder veränderte Arbeitsabläufe und Geschäftsprozesse, welche die bestehende Technologie-Infrastruktur betreffen. Daher ist es von entscheidender Bedeutung, sorgfältig zu planen, Verantwortlichkeiten zu teilen und gemeinsame Ziele im Auge zu behalten.

Die richtigen Daten nutzen

Schließlich sollte der Projektmanager sicherstellen, dass das richtige Datenerfassungssystem eingesetzt wird. Dazu gehört die Ermittlung der zu erfassenden Daten sowie der Aufbau eines zuverlässigen Kommunikationskanals und einer IoT-Datenplattform, die aus den Daten relevante Informationen gewinnt. Sobald die Daten auf die richtige Weise erfasst wurden, lassen sich verwertbare Erkenntnisse daraus ziehen, um fundierte Entscheidungen zu treffen. Genau dies schafft einen deutlichen Mehrwert.

Entsprechend ergeben sich folgende Best Practices für IoT-Projekte:

  • Stellen Sie sicher, dass das Projekt definierte, greifbare Ergebnisse beinhaltet. Dies trägt dazu bei, den gewünschten Zeitplan einzuhalten.
  • Seien Sie realistisch bei der Planung Ihres IoT-Projekts. Sie sollten sich darüber im Klaren sein, in welchen Bereichen die Fähigkeiten Ihres Unternehmens begrenzt sind und wo es noch viel zu lernen gibt, damit Ihr Projekt Gestalt annimmt.
  • Eine IoT-basierte Business-Transformation erfordert auch ein umfassendes organisatorisches Change Management. Die Anpassung an neue Arbeitsweisen, neue Prozesse und neue Richtlinien muss schrittweise und behutsam erfolgen, um die gewünschten Ziele zu erreichen.
  • Große IoT-Projekte betreffen häufig mehrere Teams im Unternehmen. Diese sind von Anfang an einzubeziehen, um durch eine Kultur der gemeinsamen Verantwortung den Erfolg des Projekts zu gewährleisten. Sichern Sie auch das Engagement wichtiger Führungskräfte, damit das IoT-Projekt den notwendigen Fokus sowie Unterstützung von allen Bereichen des Unternehmens erhält.
  • Bauen Sie die nötigen Partnerschaften mit Teams innerhalb Ihres Unternehmens sowie mit externen IoT-Anbietern, Experten und Beratern auf. Damit können Sie Lücken bei Wissen oder Fähigkeiten schließen.

Fazit

Die Steigerung von Geschäftsergebnissen ist ein wichtiges Ziel eines erfolgreichen IoT-Projekts. Um Ihre IoT-Vision zu verwirklichen, müssen Sie jedoch flexibel und anpassungsbereit sein. Die Herangehensweise an solche Projekte mit einem hohen Maß an Kontrolle und festen Vorstellungen wird nur zu Enttäuschungen führen. Dagegen verspricht ein offener und kooperativer Ansatz wesentlich bessere Erfolgsaussichten.

Freigegebene Drucker verwalten

Über die Registerkarte Sicherheit lassen sich die Zugriffsberechtigungen für Drucker konfigurieren. Hier gibt es drei Berechtigungen, die standardmäßig zugeordnet werden können:

  • Drucken — Erlaubt die Ausgabe von Dokumenten auf dem Drucker. In den meisten Fällen ist hier die Gruppe „Jeder“ eingetragen, das heißt jeder Anwender darf den Drucker nutzen. Hier sollte die Gruppe entfernt werden. Anschließend kann zum Beispiel eine neu erstellte Gruppe hinzugefügt werden, die das Recht erhält, den Drucker zu nutzen. Andere Benutzergruppen, außer Administratoren sollten nicht das Recht haben den Drucker zu nutzen.
  • Diesen Drucker verwalten — Ermöglicht die Veränderung von Druckereinstellungen, wie bei den auf den vorangegangenen Seiten beschriebenen Festlegungen.
  • Dokumente verwalten — Erlaubt die Verwaltung von Warteschlangen und damit beispielsweise das Löschen von Dokumenten aus solchen Warteschlangen. Dieses Recht sollten entweder Administratoren erhalten, oder speziell geschulte Anwender, die Dokumente aus den Druckwarteschlangen löschen sollen.

Sie können Einstellungen von Druckern in der PowerShell anpassen. Dazu verwenden Sie das CMDlet Set-PrinterConfiguration. Beispiele sind zum Beispiel das Anpassen der Papiergröße von Druckaufträgen.  Im Gegensatz zur grafischen Oberfläche können Sie zum Beispiel für alle Drucker auf einem Druckserver die Papiergröße auf einmal festlegen:

Get-Printer | Set-PrintConfiguration -PaperSize A4

Druckerserver betreiben

Wenn die Drucker über keinen optimierten Treiber verfügen, der eine direkte Anbindung an das Netzwerk erlaubt, können Sie die entsprechende Verbindung auch manuell herstellen. Auch beim Anschluss eines USB-Druckers an einen externen Druckerserver können Sie auf dem Druckerserver manuell einen Netzwerkanschluss erstellen, der den Druckertreiber mit dem Drucker verbindet. Die Verbindung funktioniert natürlich auch mit professionelleren Druckerservern:

  1. Dazu installieren Sie den Druckertreiber auf dem Server und wählen irgendeinen Anschlussport aus. Dieser muss nicht funktionieren.
  2. Nach der Installation rufen Sie über das Kontextmenü die Druckeigenschaften auf und wechseln zur Registerkarte Anschlüsse. Klicken Sie auf Hinzufügen und wählen Sie Standard TCP/IP-Port
  3. Es startet ein Assistent, der Sie bei der Anbindung unterstützt. Geben Sie bei Druckername oder -IP-Adresse die IP-Adresse ein, die im Drucker konfiguriert ist. Diese sehen Sie direkt am Drucker in den Netzwerkeinstellungen. Das Feld Portnamelassen Sie leer, außer der Hersteller des Hardwaredruckerservers gibt eine bestimmte Angabe vor.
  4. Anschließend versucht der Assistent eine Erkennung und bindet den Drucker an. Findet der Assistent keinen Anschlussnamen, verwenden Sie die Einstellung Generic Network Card.
  5. Stellen Sie sicher, dass auf der Registerkarte Anschlüsse der neue Port hinzugefügt und ausgewählt ist. Der Drucker sollte jetzt funktionieren.

Sie finden die Einstellungen in der Systemsteuerung über Hardware/Geräte und Drucker. Klicken Sie mit der rechten Maustaste auf den Drucker und wählen Sie Druckereigenschaften.

Edge-Rechenzentren: Hype oder nachhaltiger Trend?

Als Edge-Computing wird meist das Verarbeiten von Daten möglichst nahe an ihrem Entstehungsort bezeichnet. Folgt man dieser Definition, dann sind Edge-Rechenzentren solche Rechenzentren, die nahe am Entstehungsort von Daten platziert werden. Entscheidend ist oft, dass die Datenmenge zu groß ist, um sie unverarbeitet in ein entferntes Rechenzentrum zu übertragen oder dass die Latenzzeit der Datenübertragung für die konkrete Anwendung zu lang ist.

So weit, so klar. Was dabei aber „nahe“ ist und wie ein solches Edge-Rechenzentrum genau aussieht, darüber gehen die Auffassungen auseinander. So wird von einem globalen IT-Dienstleister oft schon ein etwas kleineres Rechenzentrum mit nur einigen hundert Servern, dass lokal in einem Land oder einer Weltregion aufgebaut wird, als Edge-Rechenzentrum bezeichnet. Vielfach werden unter Edge-Rechenzentren aber auch sogenannte Mikro-Rechenzentren verstanden, also kleine Rechenzentren in der Größenordnung eines Racks, die insbesondere über eine eigene Unterbrechungsfreie Stromversorgung, eine Klimatisierung und eigene Management-Tools verfügen. Der Markt für solche Mikro-Rechenzentren wird sich nach Analysten-Meinungen sehr dynamisch entwickeln. Es werden Wachstumsraten von über 20% jährlich prognostiziert und ein weltweites Marktvolumen von ca. 15 Mrd. US-$ im Jahr 2025. Das Marktforschungsunternehmen Gartner geht davon aus, dass Edge Computing in kurzer Zeit bei der Datenverarbeitung die traditionellen Rechenzentren überholen wird: „Around 10% of enterprise-generated data is created and processed outside a traditional centralized data center or cloud. By 2025, Gartner predicts this figure will reach 75%

Doch was bedeutet das? Gemessen am gesamten Marktvolumen der Rechenzentren werden selbst bei sehr hohen Wachstumsraten Mikro-Rechenzentren auch im Jahr 2025 nur einen einstelligen Prozentanteil haben. Das Marktsegment wird zwar immer bedeutender, aber die Rechenzentrumslandschaft in den nächsten Jahren nicht revolutionieren.

Interessante Ergebnisse zum Thema Edge-Computing und Edge-Rechenzentren liefert auch die NeRZ-Befragung von Rechenzentrumsbetreibern. Bisher ist Edge-Computing für die meisten Betreiber noch kein Thema. Nur etwa 20% der Befragten haben bereits Edge-Rechenzentren oder beschäftigen sich intensiv mit dem Thema (Grafik).

Eine ergänzende Experten-Befragung kommt zu ähnlichen Ergebnissen: Edge-Rechenzentren sind heute noch eher die Ausnahme, werden aber in fünf bis zehn Jahren eine sehr hohe Relevanz bekommen. Vor allem die enormen Datenmengen durch Industrie 4.0-Lösungen oder durch Autonomes Fahren werden den Bedarf nach solchen Lösungen in die Höhe treiben.

Festzuhalten bleibt: Edge-Computing und Edge-Rechenzentren können die Rechenzentrumslandschaft nachhaltig verändern. Welche konkreten Auswirkungen sich ergeben, sollte man im Auge behalten – auch aus Sicht der Energieeffizienz!

Mehr Informationen: www.ne-rz.de

Daten aus OST-Dateien wiederherstellen

Während Outlook die PST-Dateien im Ordner Outlook-Dateien der Dokumenten-Bibliothek speichert, finden Sie OST-Dateien im Benutzerprofil (C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook).

Um Daten aus OST-Dateien wiederherzustellen, installieren Sie zunächst OST2PST und öffnen dann die OST-Datei im Ordner C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook. Kopieren Sie zuvor am besten die OST-Datei in einen anderen Ordner. Damit Sie den Ordner AppData sehen, müssen Sie im Explorer von Windows 8/8.1/10 zunächst auf der Registerkarte Ansicht die versteckten Dateien anzeigen lassen.

Während Outlook die PST-Dateien im Ordner Outlook-Dateien der Dokumenten-Bibliothek speichert, finden Sie OST-Dateien im Benutzerprofil (C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook).

Um Daten aus OST-Dateien wiederherzustellen, installieren Sie zunächst OST2PST und öffnen dann die OST-Datei im Ordner C:\Users\<Anmeldename>\AppData\Local\Microsoft\Outlook. Kopieren Sie zuvor am besten die OST-Datei in einen anderen Ordner. Damit Sie den Ordner AppData sehen, müssen Sie im Explorer von Windows 8/8.1/10 zunächst auf der Registerkarte Ansicht die versteckten Dateien anzeigen lassen.

 

Freigaberichtlinien erstellen und verwalten

Erstellen von neuen Freigaberichtlinien

Öffnen Sie zur Erstellung von neuen Freigaberichtlinien die Exchange Admin Center, navigieren Sie zu Organisation/Individuelle Freigabe, und klicken Sie auf Hinzufügen. Standardmäßig legt Exchange bereits eine Standardrichtlinie an, die Sie anpassen und verwenden können.

Nachdem Sie die Freigaberichtlinie erstellt haben, können Sie in den Eigenschaften von Postfächern auf der Registerkarte Postfachfunktionen bei Freigaberichtlinie auswählen, welche Richtlinie der entsprechende Anwender nutzen soll.

Wählen Sie bei gedrückter (Strg)-Taste mit der Maus mehrere Postfächer aus, können Sie die Einstellungen auch für mehrere Benutzer gleichzeitig anpassen. Sie können Freigaberichtlinien aber auch in der Exchange Management Shell anpassen:

Set-Mailbox -Identity <Benutzer> -SharingPolicy <Richtlinie>

Im folgenden Beispiel werden für alle Benutzerpostfächer in der Marketing-Abteilung die Freigaberichtlinie Contoso Marketing verwendet:

Get-Mailbox -Filter {Department -eq „Marketing“} | Set-Mailbox -SharingPolicy „Contoso Marketing“

Im nächsten Beispiel lassen Sie alle Postfächer anzeigen, auf die die Freigaberichtlinie Contoso angewendet wird:

Get-Mailbox -ResultSize unlimited | Where {$_.SharingPolicy -eq „Contoso“ } | ft Alias, EmailAddresses

Um eine Freigaberichtlinie in der Exchange Management Shell zu erstellen, verwenden Sie das Cmdlet New-SharingPolicy.

Beispiele:

New-SharingPolicy -Name „Contoso“ -Domains contoso.com: CalendarSharingFreeBusyDetail, ContactsSharing

New-SharingPolicy -Name „Richtlinie01“ -Domains ‚contoso.com: CalendarSharingFreeBusySimple‘,’microsoft.com:CalendarSharingFreeBusyDetail,ContactsSharing‘ -Enabled $false

BAM – CMS Blog