Aluminium-Elektrolytkondensatoren richtig einsetzen

Aluminium-Elektrolytkondensatoren bestehen aus Metallfolien, zwischen denen sich eine elektrolytgetränkte Papierschicht befindet. Da dieser Elektrolyt mit zunehmender Alterung des Kondensators austrocknet, verändern sich dessen elektrische Eigenschaften. Wird der Kondensator schließlich defekt, kann dies durchaus spektakulär erfolgen: Es baut sich ein Druck in seinem Innern auf und schließlich stößt er ein brennbares und korrosives Gas aus.

Die Geschwindigkeit, mit der der Elektrolyt austrocknet, wird in hohem Maße von der Temperatur bestimmt. Jede Abnahme der Betriebstemperatur um 10 °C verdoppelt die Lebensdauer des Kondensators. Die Lebensdauer von Kondensatoren wird üblicherweise bezogen auf die maximal zulässige Temperatur angegeben (z.B. 1.000 Stunden bei 105 °C).

Bild 1: Dieser für 105 °C spezifizierte Kondensator wird die angegebene Lebensdauer von 23 Jahren keinesfalls erreichen (Bild: TI)
Bild 1: Dieser für 105 °C spezifizierte Kondensator wird die angegebene Lebensdauer von 23 Jahren keinesfalls erreichen (Bild: TI)

Es wird also problematisch, wenn man diese Kondensatoren für langlebige Applikationen spezifiziert wie beispielsweise das LED-Leuchtmittel (Bild 1), dessen LEDs 25.000 Stunden halten sollen. Soll das Leuchtmittel die volle Lebensdauer von 25.000 Stunden tatsächlich erreichen, darf sich der Kondensator nicht über 65 °C erwären.

Dies stellt eine besondere Herausforderung dar, da die Umgebungstemperatur in einer Anwendung dieser Art auf mehr als 125 °C ansteigen kann. Es gibt zwar Kondensatoren, die für höhere Temperaturen ausgelegt sind, aber in den meisten Fällen wird es dennoch der Aluminium-Elektrolytkondensator sein, der die Obergrenze der Lebensdauer eines LED-Tauschleuchtmittels festlegt.

Die Abhängigkeit der Lebensdauer von der Temperatur hat außerdem Auswirkungen darauf, wie die Spannung, mit der der Kondensator konfrontiert wird, zu reduzieren ist. Man könnte zunächst auf die Idee kommen, einfach die Nennspannung des Kondensators höher zu wählen, um das Risiko zu verringern, dass das Dielektrikum einen Defekt erleidet. Damit aber würde man sich einen höheren effektiven Serienwiderstand (ESR) einhandeln.

Da der Kondensator in der Regel einem beträchtlichen Ripple ausgesetzt wird, würde infolge des höheren ESR mehr Verlustleistung im Innern des Kondensators abfallen, was eine entsprechende Erwärmung bewirken würde. Mit zunehmender Temperatur aber steigt auch die Ausfallrate. In der Praxis werden Aluminium-Elektrolytkondensatoren meist bei etwa 80 % ihrer Nennspannung betrieben.

Bild 2: Der ESR steigt bei abnehmenden Temperaturen deutlich an. (Bild: TI)
Bild 2: Der ESR steigt bei abnehmenden Temperaturen deutlich an. (Bild: TI)

Die lebensdauerfördernden niedrigen Temperaturen können bei diesen Kondensatoren zu einem erheblichen Anstieg des ESR führen, wie in Bild 2 zu erkennen ist. Im vorliegenden Fall ist der Widerstand bei 40 °C sogar um eine ganze Größenordnung höher. Dies wirkt sich in vielfältiger Weise auf die Leistungsfähigkeit eines Netzteils aus. Wird der Kondensator am Ausgang eines Schaltnetzteils eingesetzt, steigt der Ripple am Ausgang um eine ganze Größenordnung.

Doch auch die Regelschleife wird beeinflusst, indem die Schleifenverstärkung bei Frequenzen oberhalb der Nullstelle, die vom ESR und der Ausgangskapazität bestimmt wird, um eine Größenordnung zunimmt. Dies kann das Netzteil zum Schwingen bringen. Um diese große Änderung zu berücksichtigen, muss die Regelschleife meist so dimensioniert werden, dass bei Zimmertemperatur und darüber erhebliche Abstriche gemacht werden müssen.

Fakt ist, dass Aluminium-Elektrolytkondensatoren in aller Regel die kostengünstigste Option darstellen. Vor ihrem Einsatz muss man sich jedoch unbedingt vergewissern, ob die Nachteile dieser Bauelemente keine ungünstigen Auswirkungen auf die Applikation haben. Zunächst muss die Abhängigkeit der Lebensdauer von der Betriebstemperatur der Kondensatoren beachtet werden. Außerdem muss die Spannung hinreichend gemindert werden, damit es zu einer möglichst geringen Erwärmung kommt und eine größtmögliche Lebensdauer erreicht wird. Schließlich muss man wissen, über welchen Bereich sich der ESR im Praxiseinsatz verändern wird, damit die Regelschleife korrekt dimensioniert werden kann und die Welligkeits-Spezifikationen der Schaltung eingehalten werden können.

OpenSource Cloud-Speicher für private Cloud-Infrastrukturen

Unternehmen, die eigene Cloudlösungen nutzen, aber nicht auf öffentliche Cloudanbieter setzen wollen, finden mit der Opensource-Lösung SparkleShare (http://sparkleshare.org/) eine interessante Lösung um Daten in Teams zu teilen.

SparkleShare unterstützt Linux, Windows und Mac OS X-Rechner. Nutzen im Unternehmen mehrere Anwender SparkleShare, dann können die Anwender Dokumente untereinander teilen. Das heißt, Sie können mit der Software auch Teams anbinden, die Dokumente untereinander austauschen, inklusive der gemeinsamen Bearbeitung und Versionierung.

SparkleShare erlaubt den Betrieb eines eigenen Servers auf Basis von Red Hat,  Debian, Fedora oder Ubuntu/Linux Mint. Über diesen Server tauschen Clients per SSH Daten aus und können Verzeichnisse synchronisieren. Die Synchronisierung kann auch über Windows-Clients erfolgen, der Server muss auf Linux installiert werden. Alternativ können Anwender aber auch Github zur Synchronisierung von Daten nutzen. Sie haben auch die Möglichkeit eigene Server anzubinden, Repositories in Github oder Projektarchive bei Plan.Io.

SparkleShare lässt sich auf Rechnern mit Windows, Linux und Mac OS betreiben. Haben Sie die Software auf einem Rechner installiert, starten Sie über das Kontextmenü des Icons im Traybereich der Taskleiste den Einrichtungsassistenten mit Add hosted project. Im Assistenten haben Sie jetzt die Auswahl einen eigenen Server zu verwenden, oder den Client an Github, Gitorious und Planio anzubinden.

Citrix sucht Käufer

Der Gewinn des Unternehmens war von 340 Millionen Dollar im Jahr 2013 auf 252 Millionen Dollar 2014 gesunken. Der Hedgefond Elliot Management hat Citrix einer Meldung der Nachrichtenagentur Reuters zur Folge offenbar mit der Zerschlagung gedroht, findet das Unternehmen nicht zeitnah einen Käufer.

Zuletzt wurde unter anderem Dell als potenzieller Käufer gehandelt. Zudem soll Citrix CEO Mark Templeton inzwischen seinen Rücktritt erklärt haben. Citrix hat derzeit eine Marktkapitalisierung von 11,6 Milliarden US-Dollar.

Drohende Zerschlagung

Bereits im Juli hatte Elliot Management Citrix zum Verkauf seiner Online-Meeting-Sparte GoTo aufgefordert, doch entsprechende Aktivitäten waren dann wieder zum Erliegen gekommen. Ähnliches galt für die NetScaler-Produktreihe.

Gelingt es Citrix nicht, als Ganzes einen Käufer zu finden, sollen neben dem Verkauf der GoTo- und NetScaler-Produkte sogar weitere Unternehmensteile zur Disposition stehen, was quasi einer vollständigem Zerschlagung von Citrix gleich käme. Für CEO Mark Templeton such Citrix derzeit einen Nachfolger.

JavaScript-basierte Konfigurationssprache für nginx

Nginx ist ein sehr populärer, schneller, modular aufgebauter Webserver. Dank der einzelnen Module lässt sich nginx sehr flexibel einsetzen, nicht nur für Namens- oder IP-basierte Virtual Hosts und FastCGI, sondern beispielsweise auch als Lastverteiler oder Reverse Proxy und bietet zahlreiche Leckerbissen, wie direkten Zugriff auf den Memcached-Cache, integrierten SSL-Support, Unterstützung für Flash-Video-Streaming oder das WebSocket-Protokoll und vieles mehr. Mithilfe des Moduls Naxsi ist es sogar möglich, nginx als Web Application Firewall einzusetzen.

Populärer Webserver

Technologisch besteht einer der wesentlichen Unterschiede zu Apache & Co darin, dass nginx Requests nicht Thread-basiert behandelt, sondern auf eine skalierbare, Event-basierte Architektur aufbaut. Wegen seiner Leistungsfähigkeit, des modularen Aufbaus und der vielfältigen Einsatzmöglichkeiten und vor allem der guten Konfigurierbarkeit setzen viele große Webdienste nginx als Plattform ein, darunter Golem, Computerbase, GitHub, SourceForge, WordPress.com oder FastMail.

Skripting mit nginx

Bisher sind die Skripting-Möglichkeiten in nginx auf die Programmiersprache C und andere eingebettete Sprachen wie Lua begrenzt. Mit nginScript steht künftig ergänzend eine auf JavaScript basierende Konfigurationssprache zur Verfügung, die nginx noch flexibler konfigurierbar machen soll.

Die Wahl fiel offenbar mit JavaScript gezielt auf die derzeit populärste Programmiersprache auf GitHub. Da nginScript laut Aussage der Entwickler eine sehr robuste Implementierung von JavaScript, darstellt, soll sich die Sprache von JavaScript-erfahrene Entwicklern leicht erlernen lassen.

NginScript selbst besteht aus zwei Komponenten, einer spezialisierten VM samt Bytecode Compiler auf der einen Seite, sowie einer Konfigurationssyntax für das Einbetten on JavaScript-Snippets in nginx. Dies kann wahlweise mithilfe der beiden Direktiven js_set und js_run erfolgen. Einige Code-Beispiele finden sich in der offiziellen Ankündigung.

Frühes Entwicklungsstadium

Die Entwickler weisen aber ausdrücklich darauf hin, dass sich nginScript noch in einem frühen Entwicklungsstadium befindet. Haupteinsatzgebiete für nginScript seien nach Aussage der Entwickler Sicherheitsbedrohungen und die Kontrolle des Traffics oder eine schnellere Anwendungsentwicklung mit funktionalen Bibliotheken.

NginScript soll Lua und andere eingebettete Sprachen aber nicht ersetzen, sondern ergänzen.

OpenSource Cloud-Speicher für private Cloud-Infrastrukturen

Unternehmen, die eigene Cloudlösungen nutzen, aber nicht auf öffentliche Cloudanbieter setzen wollen, finden mit der Opensource-Lösung SparkleShare (http://sparkleshare.org/) eine interessante Lösung um Daten in Teams zu teilen. SparkleShare unterstützt Linux, Windows und Mac OS X-Rechner.

Auf Basis der Software, können Anwender Verzeichnisse zwischen verschiedenen Endgeräten im Netzwerk und mobil synchron halten. Das Tool bietet also eine umfassende Möglichkeit eigene Daten immer synchron zu halten, egal auf welchen Rechnern Sie arbeiten. Vor allem in Teams kann das sehr sinnvoll sein. Die Ersteinrichtung klingt kompliziert, ist aber überschaubar, im produktiven Betrieb ist das Tool sehr einfach bedienbar, auch auf Windows-Rechnern.

Neben dem Betrieb eines eigenen Servers, können Sie SparkleShare aber auch direkt an Github in der Cloud anbinden. Das geht auch parallel, wenn Projektteams zum Beispiel Daten in der Cloud und zusätzlich auf lokalen Servern speichern sollen.

Um SparkleShare an Github anzubinden, rufen Sie die Github-Seite im Internet auf und melden sich mit einem Konto an. Anschließend erstellen Sie über den Assistenten ein neues Repository, das als Grundlage für das Speichern und Teilen von Daten genutzt werden soll. Damit Sie ein Github-Repository anbinden können, müssen Sie aber zuvor wieder die SSH-ID des SparkleShare-Clients kopieren und in der Weboberfläche von Github integrieren.

Die Authentifizierung der Anwender findet generell ausschließlich über diese ID statt, unabhängig davon an welchen Repositories Sie den Client anbinden

 

Office 365 Mobile Device Management

Unternehmen, die auf Office 365 setzen, können jetzt Mobile Device Management-Funktionen nutzen, um die Endgeräte der Anwender abzusichern und zu verwalten. Neben Funktionen der mobilen Betriebsysteme, lassen sich auch Anwendungen verwalten, zum Beispiel Unternehmens-Apps oder Microsoft Office-Apps.

Die MDM-Funktionen in Office 365 unterstützen Windows Phone, Windows 10 for Mobile, Android, aber auch iPhone/iPad.

Die Verwaltung von Endgeräten ist dann möglich, wenn ein Anwender ein Postfach in Office 365 nutzt und das Gerät für MDM in Office 365 registriert. Die Einrichtung erfolgt über einen Assistenten, der bei der Erstellung der notwendigen Richtlinien hilft. Auf den Endgeräten setzen die Anwender die Richtlinien ebenfalls mit einem einfach zu bedienenden Assistenten um.

MDM-Funktionen in Office 365 gehen über das hinaus was Administratoren in Exchange Online aus Office 365 steuern können, und bieten mehr Verwaltungsmöglichkeiten sowie selektierbare Löschfunktionen. Alle unterstützten Funktionen, und die jeweils kompatiblen Einstellungen, listet Microsoft in der TechNet auf (https://technet.microsoft.com/de-de/library/ms.o365.cc.devicepolicysupporteddevice.aspx).

MDM muss im entsprechenden Abonnement erst aktiviert werden. Standardmäßig sind die Funktionen nicht aktiv. Wechseln Sie ihm Office 365 Admin Center in den Administratorbereich zu Mobile Geräte. Mit der Schaltfläche Beginnen richten Sie den Dienst ein. Die generelle Aktivierung des Dienstes dauert einige Zeit, danach können Sie Richtlinien und Einstellungen vornehmen.

Brocade SDN Controller 2.0 ist fertig

OpenDaylight ist eine Open Source Plattform zum Erstellen von Software-Defined Networks. Auf der aktuellsten und inzwischen dritten OpenDaylight-Version Lithium basiert auch der kommerzielle Brocade SDN-Controller der Brocade Communications GmbH, der seit wenigen Tagen in Version 2.0 verfügbar ist.

Zeitgleich mit der neuen Version seines kommerziellen OpenDayligt-SDN-Controllers hat das Unternehmen mit dem Brocade Topology Manager, sowie dem Brocade Flow Manager zwei neue SDN-Anwendungen veröffentlicht.

Verbesserte Interoperabilität und Skalierung

Die Version 2.0 seines Brocade SDN-Controllers bietet mit erweiterten Funktionen eine bessere Interoperabilität und ermöglicht eine einfachere Orchestrierung.

Laut Aussage von Brocade haben die Entwickler Verbesserungen an der Open vSwitch Database (OVSDB)-Schnittstelle und dem OpenStack Modular Layer 2-Plugin vorgenommen. Damit sollen Cloud-Provider für die gesamte Verwaltung ihrer Datacenter-Infrastruktur nun einen offenen Software-Stack verwenden können, während OpenDaylight Clustering für bessere Skalierbarkeit sorgt. Eine neue Benutzeroberfläche für Applikationen liefert zudem in Version 2.0 eine intuitive Ansicht auf das virtuelle Netzwerk.

Brocade Topology Manager und Brocade Flow Manager

Der ebenfalls neue Brocade Topology Manager ist eine kostenlose SDN-Anwendung, welche die gesamte Netzwerktopologie visualisiert. Der Brocade Flow Manager hingegen erweitert die Funktionalität des Brocade Topology Managers, indem er Nutzern mit nahezu in Echtzeit bereitgestellten Informationen einen besseren Überblick über das Netzwerk verschafft, bzw. Anwendern die Möglichkeit zur direkten Interaktion gibt. Dies erleichtert es Administratoren, z. B. Maßnahmen für die Netzwerksegmentierung auf Basis von End-to-End-Ansichten des Datenflusses durchzuführen.

MariaDB 10.1 erhält native Verschlüsselung von Google

Die MariaDB Corporation hat vor wenigen Tagen den Release Candidaten von MariaDB 10.1 zum Download freigegeben.

Die MariaDB Foundation hat sich zusammen mit Google für die kommende Version der Integration einer nativen Datenbank-Verschlüsselung angenommen. Laut Aussage der Entwickler sollen MariaDB- und MySQL-Nutzer diese gänzlich ohne weitere Veränderungen einführen und zusätzlich noch Kosten sparen können. Insbesondere für Unternehmen dürfte die Möglichkeit einer erhöhten Sicherheit ihrer physisch gespeicherten Daten interessant sein.

Gemeinsam mit Google

Maßgeblich an der Verschlüsselungstechnologie beteiligt was Google. Dank der nativen Integration einer Verschlüsselung in die Datenbank, müssen Anwender nicht mehr auf Produkte von Drittanbietern zurückgreifen. Die Data-at-Rest-Verschlüsselung schützt Daten auf Instanz- und Tabellen-Ebene mit Unterstützung rotierender Schlüssel. Google hatte die Technologie ursprünglich für seinen eigenen MySQL-Ableger entwickelt, zwischenzeitlich aber an MariaDB weitergegeben.

Google selbst war vor ziemlich genau 2 Jahren von MySQL zu MariaDB gewechselt, arbeitete aber schon seit Anfang 2013 mit der MariaDB Foundation zusammen und hat inzwichen auch Entwickler dorthin abgestellt.

Otto Kekäläinen, CEO der MariaDB Foundation erklärt zu Freigabe des Release Candidaten:“ Wir freuen uns, der Open Source Community MariaDB 10.1 mit Datenverschlüsselung, die Google beigetragen hat, zur Verfügung stellen zu können. MariaDB ist nun auch die sicherste Open-Source-Datenbank, nachdem sie bereits als die am besten skalierbare und zuverlässigste gilt.”

Storage in Microsoft-Netzwerken

Setzen Sie Windows Server 2012 R2 als iSCSI-Ziel ein, können Sie VHDX-Festplatten mit einer Größe von bis zu 64 TB verwenden. Windows Server 2012 hat nur VHD-Festplatten mit einer Größe von maximal 2 TB unterstützt.  Die virtuellen Festplatten lassen sich jetzt auch in System Center verwalten und so als iSCSI-Target besser zur Verfügung stellen. Zusätzlich wurden in der PowerShell 4.0 weitere CMDlets zur Verwaltung von iSCSI-Targets integriert.

Das SMB-Protokoll hat Microsoft in Windows Server 2012 R2 überarbeitet und die Leistung, sowie die Ausfallsicherheit erhöht. Die Verbindung zu SMB-Freigaben sind stabiler und schneller, auch beim Einsatz von Clustern oder im Bereich Hyper-V. Für eine schnelle Kommunikation zwischen Windows Server 2012 R2 müssen Netzwerkkarten die RDMA-Funktion (Remote Direct Memory Access) unterstützen. Bei dieser Funktion können Server über das Netzwerk Daten im Arbeitsspeicher austauschen. Wichtig ist diese Funktion vor allem, wenn Sie Windows Server 2012 R2 als NAS-Server einsetzen, also als iSCSI-Ziel, und auf dem Server Datenbanken von SQL Server 2012 oder virtuelle Maschinen von Hyper-V speichern.

SMB Direct ist zwischen Servern mit Windows Server 2012 R2 ständig aktiv. Sie müssen weder Einstellungen vornehmen, noch etwas installieren. Damit Netzwerkverbindungen über iSCSI optiomal funktionieren und Sie große Datenmengen für Hyper-V und SQL-Datenbanken übertragen können, muss das Netzwerk extrem schnell sein und die Adapter müssen die Funktion unterstützen. Hier sind Adapter mit den Typen iWARP, Infiniband und RDAM over Converged Ethernet (RoCE) notwendig.

Der gemeinsame Datenträger eines Clusters, zum Beispiel für Hyper-V, muss sich also nicht mehr in einem teuren SAN befinden, sondern es reicht ein Server mit Windows Server 2012 R2 und ausreichend Speicherplatz aus. Auf diesem Server können auch die Konfigurationsdateien der virtuellen Server gespeichert sein und eventuell vorhandene Snapshots (Momentaufnahmen). Cluster Shared Volume (CSV), der für Hyper-V-notwendige Speicherdienst für gemeinsame Datenträger in Clustern, unterstützt das SMB-Protokoll von Windows Server 2012 R2 und dessen neue Funktionen ebenfalls.  CSV ist die Grundlage für die Speicherung von virtuellen Festplatten in Clustern und der Möglichkeit, dass mehrere Knoten auf die gleichen virtuellen Server zugreifen dürfen.

E-Mail-Verschlüsselung mit S/MIME

Microsoft hat in Outlook Web App wieder die Möglichkeit integriert, E-Mails über S/MIME zu verschlüsseln oder zu signieren. Die Option ist bei neuen E-Mails über die drei Punkte und der Auswahl von Nachrichtenoptionen anzeigen zu finden. Damit S/MIME genutzt werden kann, müssen Sie das S/MIME Steuerelement im Browser installieren. Die Installation startet automatisch beim ersten Signieren oder Verschlüsseln von E-Mails.

 

Sobald Sie das erste Mal eine Verschlüsselung oder Signierung durchführen wollen, muss auf dem Browser das dazugehörige ActiveX-Element installiert werden. Dieses steht automatisch auf dem Server zur Verfügung.

Zertifikate einbinden und die E-Mail-Sicherheit konfigurieren

Haben Sie ein Zertifikat der Zertifizierungsstelle auf dem Computer installiert, welches für das Signieren und Verschlüsseln von E-Mails geeignet ist, müssen Sie zunächst im Trust Center von Outlook die E-Mail-Sicherheit konfigurieren. Gehen Sie dazu folgendermaßen vor:

  1. Öffnen Sie Outlook.
  2. Öffnen Sie die Registerkarte Datei
  3. Klicken Sie auf Optionen.
  4. Klicken Sie auf Trust Center.
  5. Klicken Sie auf die Schaltfläche Einstellungen für das Trust Center.
  6. Klicken Sie im neuen Fenster auf E-Mail-Sicherheit.
  7. Klicken Sie auf Einstellungen im Bereich Standardeinstellung.
  8. Geben Sie einen Namen für Ihre Sicherheitseinstellungen ein.
  9. Die Standardeinstellungen können Sie belassen wie Sie sind. Klicken Sie bei Signaturzertifikat auf Auswählen. Dieses Zertifikat verwenden Sie für die digitale Signatur von E-Mails. Bei Verschlüsselungszertifikat wählen Sie normalerweise das gleiche Zertifikat aus.
  10. Outlook zeigt Zertifikat an dass Sie installiert haben. Über den Link Zertifikateigenschaften anzeigen können Sie sich das Zertifikat noch mal anzeigen lassen.
  11. Bestätigen Sie die Einstellungen für die Signierung oder Verschlüsselung.

Sie können digitale Signatur auch manuell hinzufügen oder auch entfernen, wenn Sie die automatische Signierung aktiviert haben. Um E-Mails manuell digital zu signieren, gehen Sie folgendermaßen vor:

Um digital zu signieren, öffnen Sie im E-Mail-Fenster die Registerkarte Optionen.

Im Menüband können Sie bei Berechtigung durch Aktivieren der Option Signieren die digitale Unterschrift hinzufügen.