Hochverfügbarkeit in Hyper-V

Mit Hyper-V-Replica lassen sich virtuelle Server zwischen Hyper-V-Hosts replizieren, ohne dass diese Bestandteil eines Clusters sein müssen. Der virtuelle Server wird vom Quellserver auf den Zielserver repliziert, also kopiert.

Sie können für die Replikation auch eine Kette konfigurieren. So kann zum Beispiel Server A zu Server B und dieser den gleichen virtuellen Server zu Server C replizieren.

In Windows Server 2012 konnten Sie den Synchronisierungsintervall nur bis zu 5 Minuten einstellen, seit Windows Server 2012 R2 haben Sie hier auch die Möglichkeit alle 30 Sekunden die Daten zwischen den Hosts replizieren zu lassen. Alternativ können Sie die Replikation auf bis zu 15 Minuten Intervall ausdehnen.

Die Konfiguration erfolgt über einen Assistenten im Hyper-V-Manager oder der PowerShell. Die Einrichtung nehmen Sie über einen Assistenten im Hyper-V-Manager vor. Die Quell-VM läuft bei diesem Vorgang weiter. Fällt ein Hyper-V-Host aus, lassen sich die replizierten Server online schalten, und als produktiver Server nutzen. Nach der ersten Übertragung müssen nur noch Änderungen übertragen werden. Die erste Übertragung können Sie mit einem externen Datenträger vornehmen, wenn die Datenleitung nicht genügend Leistung bietet.Rep

Windows-Cluster und die PowerShell

Um die notwendigen Features für einen Hyper-V-Cluster zu installieren, können Sie auch die PowerShell verwenden. Geben Sie die folgenden Cmdlets ein:

Install-WindowsFeature Hyper-V, Failover-Clustering, Multipath-IO

Mit restart-computer können Sie den Server neu starten. Mit der Option -restart startet er nach der Installation automatisch.

Sie können auch in der PowerShell einen Cluster erstellen. Die Syntax dazu lautet:

New-Cluster -Name <Clustername> -StaticAddress <IP-Adresse des Clusters> -Node <Knoten 1>, <Knoten 2>

Beim Erstellen des Clusters geben Sie zunächst den Namen sowie dessen IP-Adresse ein. Der Name des Clusters wird zur Verwaltung genutzt, und mit der IP-Adresse greifen Sie auf den Cluster zu.

Für einen schnellen Überblick, welche Netzwerkeinstellungen der Cluster zur Kommunikation nutzt, starten Sie eine PowerShell-Sitzung auf dem Server und rufen das Cmdlet Get-ClusterNetwork auf.

Vor allem zur Automatisierung oder für Administratoren die lieber mit Befehlszeilenanweisungen arbeiten, bietet Microsoft, neben dem bekannten Befehl Cluster mit den verschiedenen Optionen, auch das Cmdlet Get-Cluster, mit dem Sie in der PowerShell Aufgaben der Clusterverwaltung durchführen.

Generell bietet das Cmdlet Get-Cluster (und weitere Cmdlets) in der PowerShell die gleichen Möglichkeiten, wie das Tool Cluster in der herkömmlichen Eingabeaufforderung. Damit Sie Failovercluster in der PowerShell verwenden können, müssen Sie nicht mehr das Modul für Failovercluster in der PowerShell laden. Module kann die PowerShell automatisch laden.

 

 

Google Chrome mit Gruppenrichtlinien anpassen

Die Vorlagen werden in Active Directory eingebunden, wie andere Vorlagen auch. Sie müssen die ADMX- und die ADML-Dateien kopieren.

Nachdem die Richtlinien zur Verfügung steht, werden die Einstellungen über „Computerkonfiguration\Administrative Vorlagen\Google\Google Chrome“ und „Benutzerkonfiguration\Administrative Vorlagen\Google\Google Chrome“ erreicht. Hier sind Unterordner zu sehen, über die wiederum die verschiedenen Einstellungen für Google Chrome erreichbar sind.

Idealerweise sollte eine eigene Gruppenrichtlinie für die Verwaltung von Google Chrome angelegt werden. Über die Richtlinien kann bei „Google Update“ auch festgelegt werden, wie Google Chrome automatisch installiert werden soll. Umgesetzte Richtlinien werden in Chrome angezeigt, in dem in der Adressleiste die Adresse „chrome://policy“ aufgerufen wird.

Mozilla Firefox im Unternehmenseinsatz

Auch Firefox kann im Unternehmenseinsatz recht umfangreich abgesichert werden. Dazu stellen die Entwickler auch Gruppenrichtlinienvorlagen zur Verfügung (https://support.mozilla.org/en-US/kb/customizing-firefox-using-group-policy). Auf der Seite „Firefox in einem Unternehmen nutzen“ (https://developer.mozilla.org/de/docs/Mozilla/Firefox/Nutzung_in_Unternehmen) lassen sich weitere Informationen und Software herunterladen, um Firefox im Unternehmen einzusetzen.

Firefox wird für Unternehmen als Rapid Release (RR) und als Extended Support Release (ESR) eingesetzt. Bei RR handelt es sich jeweils um die aktuellste Version, die alle 6 Wochen erscheint. ESR ist die Version, die für 54 Wochen im Einsatz bleiben. Welche Version im Unternehmen eingesetzt wird, liegt also an den Anforderungen des Unternehmens.

Mozilla hat Einstellungen im Firefox-Browser geändert, sodass die Benutzerverfolgung auf Websites standardmäßig blockiert wird, ohne dass Anwender selbst das vorgeben müssen. Die Entwickler wollen sicherstellen, dass Benutzer effektiver geschützt werden, und nicht erst selbst die richtigen Einstellungen vornehmen müssen. Der Schritt bedeutet eine Anpassung vom passiveren „Nicht verfolgen“-System.

Dieses stützt sich auf Seiten, um den Tracker zu erkennen und zu deaktivieren. Das neue, aktive System blockiert standardmäßig Tracking. Benutzer müssen in diesem Fall selbst tätig werden, wenn Tracker einer Website aktiv bleiben sollen. Google Chrome, Microsoft Edge/IE und Apples Safari bieten ebenfalls eine Do-not-Track-Option für ihre Browser.

Die Gruppenrichtlinienvorlagen von Mozilla Firefox liegen ebenfalls als ADMX-Dateien vor. Werden diese in das System eingebunden, wie die Vorlagen von Google oder andere Vorlagen, stehen die Einstellungen über „Computerkonfiguration\Administrative Vorlagen\Mozilla\Firefox“ zur Verfügung.

Factoring für Maschinenbauer: Forderungsausfälle verhindern

Wie jede Branche entwickelt auch die Finanzindustrie immer wieder neue Produkte, um die Bedürfnisse der Kunden besser zu treffen. Vor allem die Digitalisierung bietet Unternehmern viele Möglichkeiten: Komplett digital zu beantragende Kredite für mittelständische Unternehmen sind da nur der Anfang.

Es drängen immer mehr sogenannte Alternative Finanzierungslösungen auf den Finanzmarkt. Diese werden als „Alternativ“ bezeichnet, weil sie eine zusätzliche Option abseits klassischer Bankfinanzierungen darstellen und von auf diese Finanzierungsarten spezialisierten Finanzdienstleistern angeboten werden. Eine besonders für herstellende und produzierende Unternehmen aus dem Bereich Maschinenbau interessante Lösung ist Factoring, das in den letzten Jahren immer beliebter wird. Allein im ersten Halbjahr 2018 stieg das Volumen im Factoring in Deutschland um mehr als 11 Prozent, so die Zahlen des Bundesverbands Factoring für den Mittelstand.

Mit Factoring Forderungsausfälle reduzieren  

Als Factoring bezeichnet man den Verkauf der Forderungen aus den eigenen Lieferungen: Gewährt ein Maschinenbauunternehmen seinen Kunden ein Zahlungsziel von beispielsweise drei Monaten, tritt es für diese Zeit mit Material- und Arbeitskosten in Vorleistung. Dies belastet das Umlaufvermögen und kann mitunter dazu führen, dass weitere Kosten entstehen – für einen notwendig werdenden Betriebsmittelkredit oder durch die Belastung des Kontokorrentkredits, um die Lieferantenkosten zu begleichen oder Gehälter zu zahlen.

An dieser Stelle setzt Factoring an: Ein Factoring-Anbieter übernimmt unmittel­bar bei Rechnungsstellung die Begleichung der offenen Forderungen zu einem vereinbarten Prozentsatz – ein Finanzierungseffekt entsteht. „Die Liquidität des Unternehmens wird sofort erhöht, ohne dass dem Kunden ein kürzeres Zahlungsziel genannt werden muss“, erklärt Lena Klein-Bösing, Factoring-Expertin beim Finanzportal COMPEON. Die Plattform, an die über 220 Finanzanbieter angebunden sind, vermittelt unabhängig Finanzierungs­lösungen wie Kredite, Leasing und auch Factoring. „Während sich für den Kunden bei der Bezahlung nichts ändert, ergeben sich für den Unternehmer viele Vorteile. Auf diese Weise wird nicht nur die Bilanz optimiert: Forderungsausfälle werden ebenfalls reduziert, da beim Factoring in der Regel das Ausfallrisiko ebenfalls auf den Factoring-Anbieter übertragen wird“, erläutert die Expertin. 

Maschinenbauer profitieren

Factoring ist für Maschinenbauer, die mitunter lange auf die Begleichung sehr hoher Rechnungen für Lieferung und Service warten müssen, sehr interessant. Factoring kann offen angewendet werden, dabei wird der Kunde über den Forderungsverkauf in Kenntnis gesetzt, während beim stillen Factoring der Verkauf der Forderungen nicht offengelegt wird. Zusätzlich bieten Factoring-Gesellschaften weitere Leistungen wie die Auslagerung des Forderungs­managements (Full-Service-Factoring) an, die den buch­halterischen Aufwand auf Seite des Maschinenbauunternehmens reduzieren.

Wer kann Factoring nutzen?

Factoring ist vor allem für Unternehmen interessant, die Maschinen und Anlagen in Serienfertigung produzieren. Da Großaufträge mit Sonder- oder Spezialanfertigungen in der Regel durch Anzahlungen vorfinanziert werden, sind diese für Factoring eher ungeeignet. Maschinenbauunternehmen, die aber Standardprodukte anfertigen und vertreiben und im Regelfall direkt nach erbrachter Leistung fakturieren, sind optimal für Factoring geeignet. So können Forderungen bis zu einem maximalen Zahlungsziel von 120 Tagen über Factoring finanziert werden.

Die Größe sowie die spezifische Branche des Unternehmens spielen dabei keine Rolle. Expertin Klein-Bösing von COMPEON erläutert: „Viele Unter­nehmer kennen nur die großen Factoringanbieter, dabei ist der Markt für Factoring sehr spezialisiert und fragmentiert. Viele kleinere und mittlere Anbieter sind speziell auf bestimmte Branchen ausgerichtet – deshalb ist es sinnvoll, Anbieter zu vergleichen, um den passenden Finanzdienstleister zu finden.“

Factoring-Anbieter vergleichen

Beim Factoring entscheidet in der Regel nicht die eigene Unternehmensbonität über die Konditionen, sondern die der Kunden bzw. die Kundenstruktur. Das bringt mit sich, dass man, möchte man als Unternehmer Factoring nutzen, eine Reihe von Informationen liefern muss. Im einmaligen Fall ist der Auf­wand zu vernachlässigen – möchte man aber mehrere Factoring-Anbieter vergleichen, ist man gezwungen, diese Anfrage mehrmals durchzuführen. Ein Vergleich über eine unabhängige Finanzierungsplattform ist hier durchaus empfehlenswert.

Cybersecurity – Was User und Unternehmen wissen müssen

Cyberkriminalität boomt und wird weiterhin rasante Entwicklungen und Herausforderungen für die IT-Sicherheit mit sich bringen. Sicherheitsexperten und Datenwissenschaftler haben sieben Entwicklungen identifiziert, die ein Umdenken in der Cybersecurity erfordern: von biometrischem Hacking, Künstlicher Intelligenz und der Cloud als Einfallstor für IoT-Hacks bis hin zu branchenweiten Security Trust Ratings und einem Cyber Cold War aufgrund von neuem Isolationismus der Politik und Wirtschaft durch Handelsembargos.

Das gefälschte Gesicht – Hacker manipulieren Gesichtserkennungssoftware

Mit Phishing-Attacken und Hacks wie „SIM SWAPS“ untergraben Angreifer bereits regelmäßig die Wirksamkeit von Zwei-Faktor-Authentifizierung-(2FA)-Methoden (z. B. Login mit Passwort und SMS-Code). Eine mehrstufige Authentifizierung durch biometrische Merkmale bietet hier eine zusätzliche Sicherheitsebene. Sie verwendet Daten, die spezifisch für den End-User sind. Der Technologiegigant Apple setzt bei seinen neuen iPhones etwa auf Gesichtserkennung. Fakt jedoch ist: Keine Authentifizierungsmethode ist zu 100 Prozent sicher. Hacker werden zukünftig Identitäten trotz und gerade mit Gesichtserkennungssoftware stehlen. So überlistete bereits 2016 ein Bildverarbeitungsspezialist der University of North Carolina Gesichtserkennungssysteme mit öffentlich verfügbaren Digitalfotos und mobiler VR-Technologie. Unternehmen sollten sich daher mit verhaltensbasierten Systemen schützen. Tastenanschlag, Mausbewegungen, Geschwindigkeit beim Scrollen et cetera – physisches Verhalten einer Person ist eindeutig und lässt sich nicht nachahmen.

Industrie 4.0 – Angreifer nutzen Schwachstellen bei Hardware- und Cloud-Infrastruktur

In einer Umfrage identifizierten 76 Prozent der 1.000 Teilnehmer die massive Einflussnahme auf das industrielle IoT als wichtige Sicherheitsfrage. Die Vielzahl vernetzter Geräte, mobile Zugriffe und verschiedene Applikationen machen den Schutz von Systemen und Daten zunehmend komplexer. Mit gleichzeitig steigender Datenmenge setzen Unternehmen immer mehr auf Cloud-Lösungen und -Provider für Wartung, Updates und Device-Management. Die Multi-Tenancy-Architektur vieler skalierbarer Dienste für IoT-Systeme führt aber zu technologischen Schwachstellen. Angriffe auf die Cloud-Infrastruktur sind daher deutlich lukrativer, um wichtige Systeme zum Stillstand zu bringen. Produktion, Energieerzeugung und andere wichtige Sektoren könnten gleichzeitig betroffen sein. Ein effektiver, ganzheitlicher Schutz erfordert daher Einblicke in das Verhalten von Mensch und Maschine, um automatisch unautorisierte Eingriffe in IoT-Systeme zu verhindern, ohne dass die Verfügbarkeit beeinträchtigt wird.

Künstliche Intelligenz bleibt nur ein Buzzword in der Cyber-Sicherheit

Künstliche Intelligenz, die menschliche Kognition beziehungsweise geistige Aktivität reproduzieren kann, gibt es in der Cybersecurity nicht. Auch in 2019 wird KI ein beliebtes Schlagwort für Marketer und unausgereifte Produktlösungen bleiben. Manche Firmen gehen dabei sogar soweit, menschliche Eingriffe in ihr Produkt zu verschleiern. Automation und nicht KI per se, kann Security-Experten im Unternehmen in hohem Maße entlasten. So können sich diese durch einen hohen Automatisierungsgrad und adaptive, risikobasierte Lösungen sowie Anpassungen etwa ganz auf relevante, auffällige Aktivitäten konzentrieren.

Politische Isolation und Handelsstreit beschwören Cyber Cold War herauf

Spionage hat Staaten und Unternehmen schon immer einen Weg zum Erwerb neuer Technologien eröffnet. Allein 43 Milliarden Euro Schaden durch Hackerangriffe hat der IT-Verband Bitkom und das Bundesamt für Verfassungsschutz für Unternehmen in Deutschland in den vergangenen zwei Jahren festgestellt. Isolationismus bei der Handelspolitik wird in vielen Fällen Nationen und Unternehmen dazu veranlassen, verstärkt durch Cyber-Taktiken Einfluss auf andere Staaten, kritische Infrastrukturen und wichtige Branchen zu nehmen oder geistiges Eigentum stehlen. Solche Angriffe zielen dabei häufig auf einzelne Mitarbeiter als Einfallstor für Schadsoftware. Statt weitere Mauern zu bauen, gilt es daher, besser zu verstehen, wie und warum Menschen mit sensiblen Daten umgehen und wo sich diese bewegen. Mit der Analyse von Nutzerverhalten kann gezielt auf hochriskante Aktivitäten eingegangen werden. Mittels automatischer Anomalie-Erkennung können Unternehmen normales Nutzerverhalten sowie gewöhnlichen ein- und ausgehenden Datenverkehr von verdächtigen Datenbewegungen unterscheiden.

Security Trust Ratings – die neue Grundlage für Kooperationen in der Wirtschaft

In der heutigen „Zero Perimeter World“, einer digitalen Welt ohne klare Grenzen, sind kritische Daten und geistiges Eigentum mehr denn je gefährdet. Die Verantwortung für die Datensicherheit bleibt dabei jedoch immer beim Unternehmen, auch wenn die Daten beispielsweise bei einem Provider liegen. Branchenweite Security Trust Ratings sind notwendig, wenn Unternehmen nach Zusicherungen suchen, dass Partner und Wertschöpfungsketten vertrauenswürdig und ausreichend gesichert sind. Firmen müssen Security daher von oben nach unten in ihre Unternehmenskultur integrieren. So kann diese etwa nur dann funktionieren, wenn Mitarbeiter das Gefühl haben, einen Beitrag zur ganzheitlichen Sicherheit des Unternehmens zu leisten. Das Thema darf daher nicht nur in der Verantwortung der IT-Teams liegen, sondern ist ein Geschäftswert. So suchen schon jetzt 58 Prozent der befragten Forcepoint-Umfrageteilnehmer aktiv nach vertrauenswürdigen Cloud-Anbietern mit einem guten Ruf für Sicherheit.

DSGVO – Mitarbeiter und Unternehmen streiten über Verantwortlichkeiten bei Datenverlust

Mit der DSGVO sind Konfrontationen im Gerichtssaal vorprogrammiert: 2019 wird es Gerichtsverfahren wegen Datenschutzverletzungen geben, bei denen ein Mitarbeiter seine Unschuld bekundet und ein Arbeitgeber vorsätzliches Handeln unterstellt. Ob ein Richter zugunsten eines Arbeitgebers oder eines Arbeitnehmers entscheidet, ist dabei nahezu irrelevant. Vielmehr werden mangelhafte IT-Sicherheitsmaßnahmen eines Unternehmens öffentlich präsentiert. Firmen müssen daher Menschen und Daten schützen und bösartige Aktivitäten identifizieren, bevor sie kritische Systeme und IPs schädigen. Die Analyse von Nutzerverhalten und Datenbewegungen am Arbeitsplatz hilft dabei, das Gesamtbild eines Vorfalls zu verstehen. Eingesetzte Lösungen müssen dabei drei Grundprinzipien erfüllen: legitimer Zweck, Verhältnismäßigkeit und vollständige Transparenz. Der Schutz personenbezogener Daten und der Privatsphäre sollte Grundvoraussetzungen für jedes erfolgreiche Unternehmen sein.

Datenskandale – mit Edge Computing die Vertrauenslücke schließen

Der Facebook-Datenskandal rund um Cambridge Analytica war 2018 nur die Spitze des Eisbergs. Das Vertrauen der User in viele Online-Dienste und dem verantwortungsvollen Umgang mit ihren Daten ist gering. Unternehmen werden versuchen mit Edge Computing diese Vertrauenslücke zu schließen. Daten werden nicht mehr automatisch in die Cloud geladen und zentral in einem Datencenter gespeichert, sondern auf dem jeweiligen Endgerät oder der Applikation (also am Rande des Netzwerks – dem „Edge“). Das verbessert den Datenschutz und erlaubt Usern mehr Kontrolle über ihre Daten. Edge Computing allein wird das mangelnde Vertrauen der Verbraucher aber nicht überwinden können. Es reicht nicht aus, dass Unternehmen Daten sowohl auf dem Gerät als auch in der Cloud erfassen und sichern. Um Vertrauen zu schaffen, müssen sie nachvollziehbar offenlegen, wie Nutzerdaten gesichert und genutzt werden.

Buchungsoptimierung mittels Big Data

Hotels.com bietet einen Reservierungsservice für Hotels, Pensionen und andere Unterkünfte, den Millionen von Nutzern weltweit in Anspruch nehmen. Es stehen dabei 90 regionale Websites in 41 Sprachen mit Hunderttausenden von Unterkünften in mehr als 200 Ländern und Regionen zur Verfügung.

Die Millionen von Nutzern, die auf der Suche nach ihrem Hotelzimmer die Seiten des Anbieters aufrufen, generieren dabei eine Fülle von Daten. Diese wachsende Informationsflut – darunter die unterschiedlichsten Schlüsselwörter in verschiedenen Sprachen – erschwerte es dem Portal, die Leistung seiner Suchmaschine so aufrechtzuerhalten, dass sie ein akzeptables Nutzererlebnis bietet. Daher suchte das Unternehmen nach einer Technologie, mit der es eine gute Performance seiner Web-Plattformen sicherstellen kann, und zugleich nach einem Partner, der eine skalierbare Datenanalyse bietet.

Maßstabsgerechte Verarbeitung von Daten

Eine Website, die sich an ein internationales Publikum wendet, muss zwangsläufig unterschiedlichste Benutzergruppen gleichermaßen im Auge behalten. In diesem konkreten Fall hat jeder Nutzer verschiedene Präferenzen in Bezug auf Lage, Preis und Ausstattung seiner gewünschten Unterkunft. Bevor ein Zimmer gebucht wird, müssen so zunächst hunderte Hotels durchsucht werden. Daher war es eine Aufgabenstellung, den Kunden die Suche zu vereinfachen und zugleich die Zeitspanne zwischen Suche und Buchung zu verkürzen. Außerdem sollte eine technische Basis für die gleichzeitige Durchführung von Datenanalysen zu den unterschiedlichsten Anwendungsfällen geschaffen werden.

Um die Suche zu vereinfachen und effizienter zu gestalten, war es nötig, die Daten der Kundenpräferenzen und -gewohnheiten zusammenzuführen, die jedoch aus einer Vielzahl verschiedener Quellen stammen. Dabei sind Kundenprofile, Suchkriterien, Standort sowie das Nutzungsverhalten von Geräten und der Website Faktoren, die für den „Data Lake“ wertvoll sind. Wenn diese Datensätze analysiert und miteinander verglichen werden, können sie dazu beitragen, die notwendigen Erkenntnisse zu gewinnen, damit Kunden das für sie richtige Hotel leichter finden. Denn die Analyse reduziert den Zeitaufwand für Suche, Filterung und Browsing erheblich.

Es wurde deutlich, dass ein traditionelles Enterprise Data Warehousing dafür nicht mehr ausreichend ist. Informationen aus großen Datenmengen zu extrahieren, erforderte einen massiven Aufwand an Verarbeitung und Standardisierung, um sogar grundlegende ETL-Operationen (Extract, Transform and Load) auszuführen. Darüber hinaus bedürfen datenbasierte Ergebnisse – ein grundlegender Aspekt des Suchmaschinen-Marketing (Search Engine Marketing, SEM) – einer Vielzahl an Schlüsselbegriffen, damit sie auch Suchvorgänge in verschiedenen Sprachen analysieren können.

Umwandlung von Annahmen in datenbasierte Ergebnisse

Als datengesteuerte Organisation war das Buchungsportal nicht bereit, kritische Geschäftsentscheidungen basierend auf Vermutungen und Annahmen zu treffen. Da das relationale Data Warehouse jedoch nicht in der Lage war, mit der schieren Menge an Daten umzugehen, entschied das Unternehmen, das Datenmanagement auf die skalierbare Plattform von Apache Hadoop zu migrieren. Dadurch konnte primär von der Flexibilität, Skalierbarkeit und Offenheit dieser Plattform profitiert werden.

Für dieses Projekt benötigte das Unternehmen einen Partner, der die Implementierung von Hadoop unterstützen konnte. Ein wichtiger Aspekt dabei war die Vermeidung einer Herstellerbindung, des sogenannten Vendor Lock Ins,sowie ein Zugang zur Open-Source-Community, in der eine Vielzahl freier Lösungen zur Verfügung stehen.

In Folge implementierte die Plattform einen Hortonworks Data Platform Cluster (HDP). Dieser ermöglicht es, granular auf Daten zuzugreifen. Auf diese Weise können IT-Administratoren verschiedene Arten von Datenverkehr, Kundenverhalten und die von ihnen verwendeten Geräte analysieren. Die Data Platform als primäre Data-Warehousing-Lösung ermöglicht es, wertvolle Erkenntnisse über alle Prozesse im Unternehmen aus der Auswertung verschiedener Datensätze zu gewinnen.

Hotelbuchungen in der Zukunft

Hotels.com hat fast die gesamte Datenverarbeitung auf das interne HDP-Cluster verlagert. Hierdurch wurde ein offenes Ökosystem für die Datenanalyse geschaffen, das von Datenanalytikern und Datenwissenschaftlern im gesamten Unternehmen genutzt werden kann, um eine beliebige Anzahl von Problemen zu lösen und Effizienzgewinne basierend auf klaren Datengrundsätzen zu erzielen.

Das Unternehmen hat außerdem die Häufigkeit der Datenanfragen erhöht. Wurden vormals nur einmal täglich Datenanalysen durchgeführt, geschieht dies nun mehrmals am Tag. Dahinter steht das Ziel, eine Echtzeit-Streaming-Plattform für die Erfassung der Webseiten-Interaktionen zu betreiben. So ermöglichte es die die eingesetzte Lösung den Teams beispielsweise, Klicks abzubilden und Marketingkanäle zu bewerten, um die Effektivität einer Marketingkampagne zu beurteilen und Prognosen zu entwickeln. Diese Ergebnisse fließen in eine Plattform für das Livestreaming von Eingaben, die wiederum Echtzeit-Klickanalysen durchführt. Voraussichtlich werden diese Datenbibliotheken auch in vielen anderen Anwendungsfällen eingesetzt werden.

Auf diese Weise lässt sichein Grundstein legen, sodass Entwicklerteams den besten Nutzen aus großen Datenmengen ziehen können. Nach seinem ersten Anwendungsfall hat das Unternehmen sein Engagement im Zusammenhang mit Big Data Analytics erweitert, und entwickelt hunderte von weiteren Anwendungen, die unternehmenskritische Ziele in anderen Abteilungen unterstützen. Durch die Bereitstellung einer Vielzahl komplexer Datensätze in einem Data Lake, ist der Anbieter nun in der Lage, ein Kundenprofil genau abzubilden und dem Kunden einen optimierten Buchungsvorgang ermöglichen.

 

Windows-Bereitstellungsdienste nutzen

Als nächstes startet das Bootimage mit Windows PE, das in den Hauptspeicher geladen wird. Über einen Eintrag in der Antwortdatei wird die Festplatte angepasst. Das Setup führt die in der Antwortdatei enthaltene Anmeldung an den WDS-Server aus. Existiert dieser Eintrag nicht, wird um eine Authentifizierung gebeten. Soll eine unbeaufsichtigte Installation durchgeführt werden, darf immer nur ein Image in der Imagegruppe existieren.

Wurde die Antwortdatei mit Informationen, wie Product Key, Sprachversion und Domänenkonto korrekt konfiguriert, läuft die Installation völlig automatisiert ab.

Die Installation besteht aus der Installation der Serverrolle und der anschließenden Ersteinrichtung des Servers. Als erstes starten Sie den Server-Manager und installieren die Rolle Windows-Bereitstellungsdienste über das Menü Verwalten.

Standardmäßig wird sowohl der Bereitstellungsserver als auch der Transportserver installiert. Zur Installation gehört eine Ersteinrichtung, auch Initialisierung genannt, die über die Verwaltungskonsole der Windows-Bereitstellungsdienste durchgeführt wird. Während der Installation nehmen Sie keine Einstellungen vor. Die Anpassung des Dienstes wird erst nachträglich vorgenommen.

Öffnen Sie für die erste Einrichtung die Verwaltungskonsole der Windows-Bereitstellungsdienste über Tools im Server-Manager oder durch Eingabe von wdsmgmt.msc im Startmenü. Der Server wird angezeigt, ist aber noch mit einem Warnzeichen versehen.

Über das Kontextmenü starten Sie den Befehl Server konfigurieren. Es startet ein Assistent, über den Sie den WDS-Server einrichten. Auf der ersten Seite nach dem Begrüßungsfenster legen Sie den Speicherort fest, in dem die Installationsabbilder gespeichert werden. Es bietet sich an, dafür eine eigene Partition zu wählen. Statt über den Assistenten können Sie diesen Vorgang auch über die Eingabeaufforderung mit dem Befehl wdsutil /initialize-server /reminst:<Ordner> durchführen.

Windows-Bereitstellungsdienste in Windows Server 2019

Der WDS-Server muss außerdem Zugang zu einem aktiven DHCP-Server haben. Der Server benötigt eine separate Partition, die mit NTFS oder ReFS formatiert ist. In dieser speichern Sie die Abbilder zur automatisierten Installation von Windows 10. Die PCs im Netzwerk booten und verbinden sich mit dem Server. Dieser kopiert dann über das Netzwerk das Image auf den Computer und führt die Installation von Windows 10 durch.

Multicast-Verbindung zu langsamen Clients kann ein WDS-Server automatisch trennen und so Übertragungen auf Basis der Clientgeschwindigkeit in mehrere Streams aufzuteilen. Außerdem wird Multicasting in Umgebungen mit IPv6 unterstützt. Mit Transportserver sind Netzwerkstarts und Datenmulticasting im Rahmen einer erweiterten Konfiguration möglich. Ein Transportserver ist ein eigenständiger Server der WDS der PXE, also das Booten von Computern über das Netzwerk unterstützt.

Beim Verwenden eines Transportservers für Netzwerkstarts und Multicasting sind Sie nicht auf ein Active Directory oder DNS angewiesen. WDS unterstützen Netzwerkstarts von x64-Computern mit EFI, einschließlich Funktionen zum automatischen Hinzufügen, DHCP-Verweisen zum Weiterleiten von Clients an einen bestimmten PXE-Server sowie der Fähigkeit, Startabbilder mithilfe von Multicasting bereitzustellen. Treiberpakete lassen sich jetzt direkt in Startabbilder integrieren.

Installationsabbilder dienen der Installation von Windows und erfordern eine Abbildgruppe. Eine Abbildgruppe ist ein Ordner, der sich unterhalb des Knotens Installationsabbilder befindet. Für alle Clientcomputer, die keine Unterstützung für PXE bieten, gibt es die Möglichkeit, ein Startabbild zu exportieren. Somit können auch diese Clientcomputer durch den WDS-Server bedient werden.

Videokonferenz: Läuft bei mir

Rhetoriktrainer Peter Flume hat sich mal wieder etwas Neues einfallen lassen. Der Experte in Sachen gesprochenes Wort erfindet sich seit 25 Jahren regelmäßig neu. Jetzt hat er gemeinsam mit dem Schauspieler Vincent Courtens eine humorvolle Video-Reihe aufgesetzt, die vermittelt, worauf es bei der Kommunikation per Videokonferenz ankommt. Damit virtuelle Begegnungen genauso stark wirken, wie das persönliche Miteinander.

Beim virtuellen Gespräch fehlt die emotionale Rückmeldung

Was uns im Alltag so praktisch vorkommt, hat auch Schattenseiten: Es fehlt die unmittelbare körpersprachliche Rückmeldung. Selbst beim Konferieren über Video kann die Einschätzung trügen, weil kein Augenkontakt besteht, oder verzögert übertragen wird. Schließlich entsteht über die Webcam immer eine Diskrepanz. Auch und gerade Emotionen können per Videochat schlecht transportiert werden. Sie werden oft über Betonung und Stimme übermittelt. Je nach Medium kann das falsch oder gar nicht ankommen.

Missverständnisse sind in der virtuellen Kommunikation vermeidbar

Peter Flume rät deshalb, sich innerhalb von virtuellen Gesprächen besonders deutlich auszudrücken und auch zu artikulieren. Hier gilt es Doppeldeutigkeiten zu vermeiden. Das kann man innerhalb einer Konferenz beispielsweise durch eine gute Vorbereitung und/oder ein Skript sicherstellen. Monologe gilt es tunlichst zu vermeiden. Die Faustformel: Immer an die Zuschauer denken und daran, welche Informationen diese benötigen – und welche nicht.

Gesprächsteilnehmer können durch Rückfragen sicherstellen, dass sie richtig verstanden haben und selbst korrekt verstanden wurden. Aufmerksamkeit ist das Gebot der Stunde. Das fokussiert auch Flumes aktueller Fachtitel „Die Kunst der Kommunikation“. Einander ausreden lassen und nicht nebenher andere Dinge zu erledigen ist in realen wie in virtuellen Gesprächen höflich und wichtig.

Virtuelle Meetings sind genauso wichtig wie persönliche

Eine gute Haltung ist nicht nur gut fürs Kreuz. Sie macht unter anderem im Videochat Sinn. Die Stimme kann im aufrechten Sitzen besser und sympathischer klingen. Ein Lächeln zwischendurch lockert die Gesichtszüge sowie die Gesprächsatmosphäre auf. Für die Körpersprache gibt Flume folgenden Tipp: Gestik und Mimik sind auch bei Videokonferenzen erwünscht. Allerdings ist hier der Bildausschnitt begrenzt, sodass Gesten im Rahmen des Sichtfensters ausgeführt werden und nicht zu schnell sein sollten.

Nicht zu vernachlässigen ist auch die Kleidung im virtuellen Meeting. „Die Leute erschrecken vor ihrem eigenen Bild, statt sich gezielt in Szene zu setzen“, sagt der Schauspieler Vincent Courtens. Sein Tipp: Die persönliche Marke herausstellen und Alleinstellungsmerkmale setzen.

Das Fazit: Ein virtuelles Gespräch ist genauso wichtig, wie ein Persönliches. Machen Sie sich die Schwachstellen einer digitalen Kommunikation bewusst und vermeiden Sie Missverständnisse durch eine besondere Achtsamkeit in der Vorbereitung und während des Gesprächs.

BAM – CMS Blog