Gebloggt: Monitoring mit Icinga 2.0

Wichtigstes Merkmal: Mit der neuen Version 2.0 der ursprünglich als Nagios-Fork gestarteten Monitoring-Software Icinga vollenden die Entwickler die endgültige Loslösung von der Nagios-Core Code-Basis.

Neuer Monotoring-Core

Der Hauptgrund dieser mit Start der Entwicklerversion 2.0 als Primärziel ausgegebenenDesign-Entscheidung lag in den eingeschränkten Erweiterungsmöglichkeiten von Nagios-Core. Mit der jetzt freigegeben finalen Version 2.0 präsentieren die Entwickler einen komplett neuen, selbst entwickeltem Monitoring-Core, versprechen aber, dass mit Hilfe von Erweiterungen auch für Icinga 1.x geschriebene Plugins weiter funktionieren. So sind alle aus Icinga 1.x bekannten Schnittstellen optional auch für Icinga 2 verfügbar.

Icinga 2 ist als Binärpaket für Suse, Debian und Fedora, sowie im Quellcode zum Herunterladen verfügbar. Die Entwickler empfehlen aber ausdrücklich, auf Binär-Pakete zurück zu greifen und die Software nicht selbst aus den Quellen zu übersetzen.

Neues Design und neue Funktionen

Das komplett neue Multithread-Design ist auch der Hauptgrund dafür, dass die Entwickler die quelloffene, unter der GPLv2 lizenzierte Monitoring-Software in den vergangenen 20 Monaten in erster Linie in puncto Geschwindigkeit und Skalierbarkeit extrem verbessern konnten. Nach Aussage der Entwickler soll es dank des Multithread-Designs mit einer Icinga-Instanz möglich sein, bis zu 60.000 Hosts zu überwachen, wobei pro Minute bis zu eine Million aktive Überprüfungen laufen können.Ferner bietet Icinga 2 ein neues Cluster-Modell mit einer verteilten Architektur aus dem weitere Verbesserungen in den Bereichen Hochverfügbarkeit und Lastverteilung resultieren.

Ebenfalls neu: Eine dynamische Konfigurationssprache erlaubt Icinga-Anwendern das Konfigurieren von auf Mustern basierenden Objekt-Beziehungen. Die Icinga Template Library bringt bereits Beispielkonfigurationen für häufig genutzte Plugins mit. Zur Vereinfachung der Konfiguration gibt es Syntax-Hervorhebungen für die Editoren nano und vim. Ferner unterstützt Icinga jetzt das Livestatus-Protokoll nativ. Damit können Administratoren die Status-Informationen jeder Icinga-Instanz abfragen und ggf. Kommandos an jede Instanz senden. Darüber hinaus unterstützt Icinga 2.0 jetzt auch den Graphite Carbon Cache Writer nativ, sodass die Software dessen TCP-Socket direkt ansprechen kann. Neu ist auch, dass Administratoren bei Icinga 2 nur noch die Funktionen aktivieren müssen, die sie auch tatsächlich benötigen.

Überarbeitete Kommandos

Darüber hinaus haben die Entwickler eine ganze Reihe von Kommandos für Icinga 2 überarbeitet. Solche Kommandos für Überprüfungen, Benachrichtigungen oder Ereignisse akzeptieren konditionale und optionale Argumente. So müssen Administratoren etwa Zeitüberschreitungen nicht mehr als globale Option definieren, weil sich diese jetzt gezielt für einzelne Kommandos festlegen lassen. Ferner haben die Entwickler das Benachrichtigungssystem vereinfacht. Außerdem sind für wiederkehrende Stillstandszeiten in Incinga 2 keine Cronjobs mehr erforderlich, weil sie sich jetzt direkt einstellen lassen.

Weitere Details zu den Neuerungen finden sich in der umfassenden Dokumentation.

 

Gebloggt: Red Hat veröffentlicht Red Hat Enterprise Virtualization 3.4

Die wichtigste Neuerung ist erwartungsgemäß die Unterstützung für RHEL7 als Gastsystem. Zwar kommt Red Hat Enterprise Linux in einem RHEV-Setup sowohl als Fundament für die Management-Maschine (RHEV-M) zum Einsatz, als auch optional als Hypervisor-Host (RHEV-H) (Anmerkung: Per Default sieht RHEV für die Hosts ein speziell dafür konzipiertes minimalistisches Bare_Metal-System vor,) hier aber nur in der Version 6. Darüber hinaus bietet RHEV 3.4 eine ganze Reihe von neuen Funktionen im Bereich der klassischen Datacenter-Virtualisierung.

Fundamentales

Seit der Markteinführung 2009 – große Teile des Fundaments stammten aus der Übernahme des israelischen Virtualisierungs-Spezialisten Qumranet im Jahr 2008, aus der auch KVM hervorgegangen ist – steigt laut Red Hat das Interesse an der Virtualisierungsplattform unter Partnern und Kunden kontinuierlich. Als vollwertiges und eigenständiges Open-Source-Produkt gilt RHEV streng genommen erst seit der Version 3.1. Bis einschließlich RHEV 3.0 (voran gegangen waren 2.0, 2,1 und 2.2) bestand eine peinliche Folge der strategisch durchaus weitsichtigen Qumranet-Übernahme, sowie einer unter Experten offenbar zu früh erfolgen Markteinführung darin, dass das Management-System mit der Administrationskonsole nur auf einer Windows-Maschine lief, weil die C+-Anwendung zwingend IE7 und .Net voraus setzte und zur Benutzerverwaltung ein Active Directory vorhanden sein musste. Erst mit der RHEV-Version 3.1 hatte Red Hat sämtliche Microsoft-Wurzeln gekappt und das Management-Framework auf Basis des JBoss-Anwendungsservers mitsamt Java-Webclient und LDAP-Anbindung vollständig neu implementiert.

oVirt 3.4

Getreu der eigenen Philosophie stellte Red nicht nur den inzwischen im Linux-Kern verankerten KVM-Hypervisor, sondern auch das gesamte Management-Framework, samt sämtlicher Komponenten unter der Bezeichnung oVirt unter eine Open-Source-Lizenz. Seitdem eilt die quelloffene RHEV-Version oVirt der Unternehmensversion immer eine Versionssnummer voraus und dient den Entwicklern in ähnlicher Weise als Experimentierplattform für RHEV, wie Fedora für RHEL. Ovirt ist also quasi ein Upstream-Projekt für Red Hat Enterprise Virtualization. Die Version 3.4 ist seit dem 01. April verfügbar. Aktuell ist die oVirt-Version 3.4.1 vom 08. Mai. Ovirt, bzw. RHEV bündeln Qemu/KVM und libvirt mit weiteren von Red Hat akqurierten oder entwickelten Open-Source-Komponenten wie SPICE oder VDSM zu einem Enterprise-Framework zum Virtualisieren von Servern und Desktops .

RHEV 3.4 unter der Lupe

Red Hat Enterprise Virtualization 3.4 erscheint wie gewohnt rund 6 Monate nach der Version 3.3 und bringt viele Verbesserungen in den Bereichen Compute, Storage und Networking mit. Außerdem wurde die Zusammenarbeit mit OpenStack weiter ausgebaut. RHEV 3.4 bietet z.B. neue Funktionen, die das Verwalten von Multi-Host-Netzwerken verbessern sollen. So soll es etwa mit RHEV 3.4 deutlich einfacher sein, die Netzwerk-Konfiguration einer größeren Anzahl von Hosts zu aktualisieren. Dadurch soll sich auch die Verwendbarkeit von Virtual Local Area Networks (VLANs) verbessern. Darüber hinaus lassen sich mit REHV 3.4 mit Hilfe von Mixed storage domains unterschiedliche Storage-Techniken parallel verwenden, etwa iSCSI-/FC-SAN, NFS oder Gluster. Außerdem soll das Handling von VM-Templates einfacher sein, als beim Vorgänger. RHEV 3.4 kann zudem VM-Templates aus dem OpenStack Image Service (Glance) übernehmen und arbeitet allgemein besser mit OpenStack Networking (Neutron) zusammen. Ferner unterstützt RHEV jetzt das Simple Network Management Protocol (SNMP).

Weitere Details finden sich auf der Produktseite. Wie üblich können Inhaber einer RHEV-Subskription, das ein Abonnement von RHEL 6 vorausgesetzt (nicht im Lieferumfang) die neue Version 3.4 kostenlos herunterladen. Eine 60-Tage-Testversion ist ebenfalls verfügbar.

 

 

 

 

 

 

 

Taiwanische Photonik-Branche steht vor Zeitenwende

Temperaturen von 33 Grad Celsius am frühen Vormittag, hohe Luftfeuchtigkeit – aber wir sind nicht bei der Fußball-Weltmeisterschaft in Brasilien, sondern bei der Eröffnung des Photonics Festivals. Taiwans größte Messe zu den Themen LED-Beleuchtung, Photovoltaik, Displays und Elektronikfertigung findet heuer zum 23. Mal statt..

Über 640 Aussteller zeigen im Nangang-Messezentrum der taiwanischen Hauptstadt Taipei das Leistungsvermögen der Photonik-Industrie des Inselstaates. Dr. Peter Shih, Vorsitzender des Ausstellungskomitees PIDA (Photonics Industry and Technology Development Association) sprach in seiner Eröffnungsrede vor einer Zeitenwende für die taiwanische Photonikbranche. „Wir erleben den Übergang von einer fertigungsgetriebenen Industrie zu einer  mehr von Forschung und Entwicklung und Dienstleistungen getragenen Industrie“, erklärte Shih.

Das Photonics Festival schließt die Messen Opto Taiwan, LED Lighting Taiwan, Solar Taiwan, Optics Taiwan und Plant Factory ein. Der Plant Factory, die erst seit drei Jahren ein Teilbereich des Photonics Festivals ist, kommt laut PIDA eine besondere Bedeutung zu, da sie eine Verbindung zwischen den so unterschiedlichen Erwerbszweigen wie Elektronikindustrie und Landwirtschaft schaffen will. Ein Beispiel hierfür sind Gewächshäuser, in denen Nutzpflanzen unter LED-Licht gedeihern.

Die PIDA erwartet über 30.000 Besucher und Einkäufer aus mehr als 40 Ländern zum diesjährigen Photonics Festival und hofft auf ein Einkaufsvolumen von mehreren Millionen US-Dollar.  Parallel zur Messe findet eine Konferenz mit mehr als hundert Vorträgen statt.

Die Angst der Taxifahrer vor dem Smartphone

Auf der einen Seite um die Angst der Taxifahrer von dem Smartphone. 1.000 Taxifahrer demonstrierten mit ihren Fahrzeugen gegen das US-Unternehmen Uber, das Taxidienste von Kunden für Kunden im Internet organisiert. Proteste gibt es auch in Paris, Madrid, Barcelona, London und Hamburg. Die ganze Branche wendet sich gegen die neue Konkurrenz der App-Anbieter wie Uber. Sie sehen ihr klassisches Geschäftsmodell in Gefahr, wenn plötzlich Kunden sich mittels Plattformen im Internet ihre Fahrten selbst organisieren. Auf der anderen Seite wird in Berlin am gleichen Tag der neue Start-up-Campus „Factory“ eröffnet. Wandelstimmung ist an diesem Ort angesagt. „Digitales Unternehmertum“ heißt die Botschaft von Eric Schmidt, der Verwaltungsratsvorsitzende von Google, der nach Berlin zur Eröffnung des von Google unterstützen Campus kam. Auf mehr als 16.000 qm entsteht dort ein Zentrum für 22 junge Internetfirmen, der Tüftler, der Innovatoren, der Generation Y die in der Digitalisierung neue Geschäftsmodelle sehen, die mit Laptop, Smartphone und schnellen Netzen, soweit sie denn vorhanden sind, Berlin zum Siedepunkt der IT-Welt machen wollen. Aufbruchsstimmung ist angesagt.

Rund 40 Millionen Smartphones gibt es in Deutschland. Und es werden täglich mehr. Es geht längst nicht mehr nur ums telefonieren. Das Smartphone ist zur Fernbedienung in die Welt geworden. Navigation, Versand von E-Mails, Buchbestellungen, Kauf von Fahrkarten, Öffnen von Autotüren, Veröffentlichung von Artikeln in Blogs, Buchung von Reisen oder Hotels, all das ist möglich und noch vieles mehr. Als Nächstes kommen die Bankgeschäfte dran. Menschen teilen über Smartphones ihre Zimmer, übriggebliebene Speisen, verabreden sich mit Freunden, nutzen Carsharing und organisieren Repair-Cafes, treffen sich zu Lerngruppen oder organisieren Mitfahrten im eigenen Auto. Die Digitalisierung und die Globalisierung fordern mit Macht alle Branchen heraus. Es ist Transformationszeit. Die Unternehmen und Branchen, die klug mit der Transformation umgehen, ihre Chancen erkennen und diese konsequent nutzen, werden zu den Gewinnern gehören. Sie schaffen Wertschöpfung und Arbeitsplätze. Die anderen, sind sie auch noch so groß, werden scheitern. Kodak, ein Filmunternehmen war beispielsweise ein solches Unternehmen, was den Wandel nicht genutzt hat und nun vom Markt verschwunden ist. Das mobile Internet mit seinen fünf Dimensionen Inhalt, Personalisierung, Ortsbezug, Zeit und Geschwindigkeit macht neue Geschäftsbeziehungen zwischen Kunden und Kunden möglich. Die Kunden werden zum Prosument. Sie sind zugleich Produzent und Konsument. So ist es auch bei den digitalen Taxis. Das Unternehmen Uber, derzeit gelistet mit einem Börsenwert von 17 Milliarden Dollar, weit mehr als beispielsweise die Lufthansa, organisiert den Service im Netz, es wurde erst 2009 gegründet und ist in mittlerweile in 128 Städten in 37 Ländern tätig. Das Besondere ist, das dass der gesamte Service, von der Wagenbestellung bis zur Bezahlung, durch eine Smartphone-App abgewickelt wird. Einen eigenen Fuhrpark unterhält Uber nicht. Jahrzehnte alte Strukturen des Taxigewerbes kommen nun unter Druck. Fast überall kommt es zu Rechtsstreitigkeiten wegen Verstoß gegen rechtliche Rahmenbedingungen wie Konzessionen, Haftungsvorschriften, Zertifizierungen. Zwei Welten stoßen hier aufeinander. Dem Unternehmen wird vorgeworfen, die Sicherheit nicht gewährleisten zu können, weil es z.B. keine Sachkundeprüfungen für die Fahrer gibt oder die technische Überwachung von Fahrzeugen nicht in gleichem Maße gefordert wie bei Taxen. Taxiverbände rufen nach dem Staat. Er soll ihnen helfen und die lästige Konkurrenz vom Leibe halten. Viele Taxikunden sehen dies aber anders. Sie wollen als Nachfrager durch eigenes Verhalten mit entscheiden über Qualität und Service, der oftmals im Argen liegt. Neue Technologien und Angebote, die Marktransparenz schaffen, können aus Verbrauchersicht zu einer Qualitätssteigerung des Angebotes führen. Uber versteht sich nicht als Taxiunternehmern, sondern als Vermittler zwischen Fahrern und Fahrgästen. Sehr wohl müssten sich die Fahrer ordnungsgemäß für den Service anmelden. Die Lage ist in der Tat undurchsichtig. Hinzu kommt weitere Konkurrenz privater Anbieter. In Berlin kommt es dadurch zu kuriosen Forderungen der Taxibranche, dass zum Beispiel zwischen Bestellung und Aufnahme des Fahrgastes Mindestzeiträume vergehen müssen, oder das nach Beendigung von Fahrten die Fahrzeuge zu ihren Basisstation zurückkehren müssen, bevor sie neue Fahrgäste aufnehmen. Anstatt einer fundamentalen Verweigerungsstrategie wäre die Taxibranche vielleicht besser beraten, die digitalen Herausforderungen anzunehmen und selbst über neue Kooperationsmöglichkeiten mit den Kunden oder Anbietern von umfassenden Mobilitätsdiensten zu kooperieren und neue, ergänzende Geschäftsmodelle zu entwickeln. Durch den Ausbau der Schutzzäune wird der Wind der Veränderung nicht genutzt werden können. Fantasie und Kreativität sind gefragt. Vielleicht wäre es besser gewesen, an dem besagten Mittwoch nicht vor dem Olympiagelände mit den Taxen zu demonstrieren, sondern mit den Fahrzeugen zur Factory zu fahren um dort gemeinsam mit den Start-ups nach neuen Ideen und Geschäftsmodellen Ausschau zu halten. Der Taxi- und Limousinen-Service Uber war bei der Eröffnung nämlich auch vertreten.

Einrichtung einer Vertrauensstellung

Erst wenn die Namensauflösung stabil und zuverlässig funktioniert, sollten Sie die Vertrauensstellung einrichten.

  1. Um eine Vertrauensstellung einzurichten, rufen Sie im Snap-In „Active Directory-Domänen und Vertrauensstellungen“ die Eigenschaften der Domäne auf, von der die Vertrauensstellung ausgehen soll.
  2. Wechseln Sie in den Eigenschaften zur Registerkarte „Vertrauensstellungen“.
  3. Klicken Sie auf die Schaltfläche „Neue Vertrauensstellung“. Es erscheint der Assistent zur Einrichtung neuer Vertrauensstellungen. Bestätigen Sie das Fenster und geben Sie auf der zweiten Seite den Namen der Domäne an, zu der Sie eine Vertrauensstellung einrichten wollen.
  4. Wenn Sie eine Vertrauensstellung zu einer Active Directory-Domäne aufbauen wollen, verwenden Sie am besten den DNS-Namen. Wählen Sie als Nächstes die Art der Vertrauensstellung aus.

Bei einer externen Vertrauensstellung kann eine uni- oder bidirektionale Vertrauensstellung zu einer einzelnen Domäne (in einer separaten Gesamtstruktur) eingerichtet werden. Diese Art einer Vertrauensstellung ist nie transitiv. Eine externe Vertrauensstellung kann notwendig sein, wenn Benutzer Zugriff auf Ressourcen einer anderen Domäne in einer anderen Gesamtstruktur brauchen und keine Gesamtstrukturvertrauensstellung besteht.

Dadurch wird eine explizite Vertrauensstellung nur zu dieser einen Domäne erstellt. Wenn diese Domäne weiteren Domänen vertraut, bleibt der Zugriff auf die weiteren Domänen verwehrt. Gesamtstrukturvertrauensstellungen haben den Vorteil, dass diese eine vollständige Kerberos-Integration zwischen Gesamtstrukturen bieten, und zwar bidirektional und transitiv.

Nach der Auswahl der Art der Vertrauensstellung, können Sie festlegen, ob Sie eine unidirektionale oder bidirektionale Vertrauensstellung aufbauen wollen

Gebloggt: Univention gibt Univention Corporate Client 2.0 frei

Univention Corporate Client (UCC) ist eine Kombination eines auf Ubuntu und KDE beruhenden Linux-Client-Betriebssystems, sowie einer zentralen Domänen- und Richtlinien-basierten Verwaltung im, bzw. mit Hilfe von Univention Corporate Server (UCS).

Linux Unternehmens Desktops

Einen Linux-Unternehmens-Desktop an einem Linux-Server zu betreiben ist leider heute ein viel zu selten umgesetztes Szenario. Selbst Univention konzentriert sich mit Univention Corporate Server ja in erster Linie auf den Betrieb und die Verwaltung von Windows Clients. Das war aber nicht immer so, denn Univention Corporate Server ist primär eine Plattform für Identity- UND Infrastruktur-Management auf Basis auf einer mit OpenLDAP und Kerberos realisierten Linux-Domäne, samt zentraler Authentifizierung. Bis zum Jahr 2013 pflegte Univention dazu ein eigenes, wie Univention Corporate Server auf Debian beruhendes Client-Betriebssystem Univention Corporate Desktop (UCD).

Domänen-basierte Verwaltung von Linux-Desktops

Der erstmals zur CeBIT 2013 präsentierte Univention Corporate Client (UCC) ist das offizielle Nachfolge-Produkt des 2013 eingestellten UCD. Ein out-of-the-Box funktionierendes Domänen-basiertes Identity- und Client-Management auf Richtlinien-Basis gibt es bisher bei keinem anderen Hersteller, sieht man mal von den Bemühungen von Fedora und Red Hat ab, mit FreeIPA, bzw. dem in Red Hat Enterprise Linux 7 enthaltenen OMI (Open Linux Management Infrastructure) so etwas wie einen Distributions-übergreifenen Standard zu implementieren. Auch beim Univention Corporate Desktop (UCD) ging es primär darum, Unternehmen einen via Univention Corporate Server in einer UCS-Domäne zentral verwaltbaren Linux-Desktop zur Verfügung zu stellen. Allerdings zeichnete sich in den vergangenen Jahren ab, dass Unternehmen, sofern sie überhaupt Linux als Desktop-Betriebssystem nutzen, entweder zu einem weit verbreiteten und standardisierten System wie Ubuntu greifen oder sich gleich der Desktop-Virtualisierung (VDI), bzw. KIOSK/Terminalserver-Lösungen mit Thin-Clients zuwenden.

UCC 2.0

Univention Corporate Client (UCC) ist quasi die Antwort darauf. Laut Aussage von Univention wünschen sich Unternehmen in erster Linie ein einheitliches und zentralen Management von Desktops unabhängig vom Endgerät. UCC erlaubt einen Zugriff auf verschiedene Terminalserver- und Desktop-Virtualisierungsumgebungen und ermöglicht das Bereitstellen individuell vorkonfigurierter Desktops. Eine zentrale Eigenschaft besteht darin, dass die Softwareverteilung und -pflege mit Hilfe von Policies funktioniert. Die neue Version 2.0 von Univention Corporate Client wurde zur diesjährigen CeBIT erstmals gezeigt und ist ab sofort verfügbar. Kunden können Univention Corporate Client komfortabel über das App-Center von Univention Corporate Server installieren. Univention Corporate Client ist aber auch im Download-Bereich von Univention als ISO-Images oder VMware-Appliance zum Testen verfügbar.

Neuerungen in UCC 2.0

Eine wesentliche Neuerung in UCC 2.0 ist, dass die Entwickler die Konfiguration mit Hilfe des überarbeitete Einrichtungs-Assistenten vereinfacht haben, der jetzt viele Arbeitsschritte im Hintergrund automatisch ausführt. Ein neues UMC-Modul für Univention Corporate Server erlaubt zudem jetzt das zentrale Verwalten aller Clients. Ferner verwendet Univention nun RDP für die Verbindung zum Terminal-Server, was gegenüber VNC ein effizienteres Ausnutzen der verfügbare Bandbreite erlaubt. Zudem können Anwender via RDP auch von Windows- oder Mac OS X-Rechnern auf Remote-Desktops zugreifen, wozu UCC den Client NeutrinoRDP verwendet. UCC 2.0 unterstützt auch PXE-Installationen auf UEFI-PCs. Darüber hinaus haben die Entwickler das Einrichten verschlüsselter Festplatten und deren Konfiguration mit Hilfe der UMC-Console vereinfacht. Auch Print-Server, per CIFS eingebundene Home-Verzeichnisse und Proxy-Settings lassen sich in UCC 2.0 mit Hilfe von Richtlinien einrichten.

Auch beim Fundament gibt es zahlreiche Neuerungen, die schon allein daraus resultieren, dass UCC 2.0 jetzt auf Ubuntu 14.04 LTS mit Long Term Support basiert und damit von sämtlichen Updates profitiert, wie einem aktuellen Kernel 3.13 oder der verbesserten Hardwareunterstützung. Die verwendete KDE-Version ist jetzt auf dem Stand der Version 4.13; der X-Server wurde auf die Version Stand 1.15 aktualisiert und LibreOffice ist in Version 4.2.3 an Bord.

 

 

Kompensation von Kabelverlusten ohne Fernabtastung

Ein erstklassiges Beispiel hierfür ist ein Offline-USB-Ladegerät, bei dem das Netzteil den Spannungsabfall am Kabel in Höhe von 0,5 V kompensieren muss, ohne dass das Kabel hierfür um zwei Adern die den Querschnitt vergrößern würden, erweitert werden darf. Fest steht, dass die Spannung am Ausgang zwischen 4,75 und 5,25 V betragen muss. Legt man jedoch die typischen Bauelemente-Toleranzen zugrunde und kalkuliert ein  Spannungsabfall von 0,5 V am Kabel ein, lässt sich diese Forderung ohne Fernabtastung nicht erfüllen.

Die übliche Lösung für dieses Problem besteht darin, den Ausgangsstrom mithilfe eines Strommesswiderstands zu erfassen und das dabei entstehende Spannungssignal einem Differenzverstärker mit geringer Offsetspannung zuzuführen. Die Ausgangsspannung dieses Verstärkers wird von einer Stromquelle verarbeitet, deren Strom vom Spannungssignal abgezogen wird, was zum Anheben der Ausgangsspannung führt.

Bild 1: Ein einziger Operationsverstärker reicht aus, um den Spannungsabfall am Kabel zu kompensieren.  (Bild: TI) Bild 1: Ein einziger Operationsverstärker reicht aus, um den Spannungsabfall am Kabel zu kompensieren. (Bild: TI)

Ein einfacheres Konzept, das ohne den Transkonduktanz-Verstärker auskommt, ist in Bild 1 zu sehen. Am Ausgang des Verstärkers U1B liegt die Ausgangsspannung abzüglich der verstärkten Strommess-Spannung. Wenn der Verstärkerausgang durch eine Regelung konstant gehalten wird, wird die Ausgangsspannung U0 somit umso höher, je mehr der Laststrom ansteigt. Wenn man die Werte von R1, R3 und R4 passend wählt, lässt sich dieses Verhalten nutzen, um die Reduzierung von Vo durch den Spannungsabfall am Kabel genau auszugleichen.

Aus Bild 1 geht ebenfalls hervor, wie die Schaltung instabil werden kann. Die Gleichung für EAout gibt in vereinfachter Form die Abhängigkeit der Verstärker-Ausgangsspannung von U0 wieder. Bei dieser Vereinfachung sind der Kabel- und der Lastwiderstand in dem Term RLOAD zusammengefasst und es wird eine Lastkapazität von null angenommen. Wie man sieht, besteht die Verstärkerspannung aus zwei Termen – einem positiven und einem negativen.

Wenn bei einer bestimmten Frequenz der zweite Term betragsmäßig größer ist als der erste, verändert sich die Phasenlage des Verstärkerausgangs um 180°, was zur Bildung eines Oszillators führen kann. Dies ist normalerweise unproblematisch, solange der Strommesswiderstand zwischen Ausgangskondensator und Last liegt. Befindet sich der Messwiderstand dagegen zwischen der Ausgangsinduktivität und dem Ausgangskondensator, können gravierende Probleme entstehen.

Wie einfach sich das Kompensieren des Kabel-Spannungsabfalls gestalten kann, zeigt Bild 2. Es handelt sich hier um einen von 12 V auf 5 V umsetzenden Abwärtswandler, der sich als USB-Ladegerät für den Automotive-Bereich anwenden lässt. Der Wandler wäre in diesem Fall in einen Steckverbinder eingebaut, der in eine 12-V-Steckdose gesteckt wird und von dem ein Kabel zum jeweiligen Verbraucher führt. Herzstück der Schaltung ist das Regler-IC U1, das den Regelkreis schließt und die Leistungsschalter des Abwärtswandlers enthält. Innerhalb des IC wird die am Feedback-Pin liegende Spannung mit einer Referenzspannung von 1 V verglichen.

Bild 2: Diese Kompensationsmethode kommt mit einem Verstärker weniger aus als die traditionelle Lösung  (Bild: VBM-Archiv) Bild 2: Diese Kompensationsmethode kommt mit einem Verstärker weniger aus als die traditionelle Lösung (Bild: TI)

Mit dem Resultat dieses Vergleichs wird das Tastverhältnis der Leistungsschalter eingestellt. Da die Spannung am Feedback-Pin durch den Spannungsteiler R5/R7 bestimmt wird, regelt die Schaltung die an TP9 liegende Spannung auf 5 V. Der Verstärker U4A subtrahiert das an TP4 abgegriffene stromabhängige Spannungssignal. In dieser Schaltung beträgt der Ausgangsstrom 2,5 A, sodass am Strommesswiderstand eine Spannung von 125 mV abfällt. Die 3 mV betragende Offsetspannung des Differenzverstärkers wird auf etwa 10 mV verstärkt, was einen Anfangsfehler von rund 2 % ergibt. Dieser Fehler lässt sich reduzieren, wenn ein besserer und teurerer Verstärker verwendet wird. Diese Schaltung kann bei einer Stromabtast-Spannung von 125 mV und einer Verstärkung von 5 im Verstärker einen Kabel-Spannungsabfall von rund 625 mV kompensieren.

Bild 3: Die Kurven zeigen anschaulich, wie der Spannungsabfall am Kabel kompensiert wird  (Bild: TI) Bild 3: Die Kurven zeigen anschaulich, wie der Spannungsabfall am Kabel kompensiert wird (Bild: TI)

Bild 3 zeigt an drei Kurven die Leistungsfähigkeit dieser Schaltung. Dargestellt sind die unkorrigierte Ausgangsspannung bei einem Kabelwiderstand von 0,25 Ω , die Ausgangsspannung des Netzteils mit Kompensation des Kabel-Spannungsabfalls und schließlich die Spannung am Verbraucher mit kompensiertem Kabel-Spannungsabfall. Die mit ‚uncomp Vo‘ bezeichnete Kurve macht deutlich, dass die Ausgangsspannung ohne Kompensation des Spannungsabfalls aus dem 5-%-Fenster herausfallen würde.

An der Kurve ‚comp PS Vo‘ ist zu sehen, wie sich die Ausgangsspannung des Netzteils mit Kabel-Kompensation über einen Laststrombereich von 0 bis 2,5 A um etwa 600 mV verändert. Die Spannung wird ohne angeschlossenen Verbraucher auf 4,92 V geregelt, was bezogen auf den Sollwert von 5,00 V einem Fehler von ca. 1,6 % entspricht. Dies ist weniger als der potenzielle Worst-Case-Fehler.

Die entscheidenden Fehler-Terme sind die Referenz-Genauigkeit (0,7 %), die Spannungsteiler-Widerstände R4 und R7 (1,6 % bei Verwendung von 1-%-Widerständen) und die Offsetspannung von U4A (0,3 %). Die mit ‚comp cable Vo‘ bezeichnete Kurve schließlich zeigt, welche Spannung bei aktiver Kabel-Kompensation am Ende des Kabels am Verbraucher anliegt.

Wie man sieht, wird die angestrebte Genauigkeit von 5 % mit dieser Methode problemlos erreicht. Es sind also nur wenige preisgünstige Bauelemente erforderlich, um die Ausgangsspannung eines Netzteils mit zunehmendem Laststrom ansteigen zu lassen. In vielen Fällen fällt die zusätzliche Komplexität, die durch diese Schaltung entsteht, gegenüber dem Aufwand für eine Fernabtastung der Ausgangsspannung nicht ins Gewicht.

Nicht zuletzt ist diese Lösung sicherer, wenn man die möglichen Probleme mit den für die Fernabtastung erforderlichen Verbindungsleitungen betrachtet. Die Auswirkungen auf die Kompensation der Regelschleife sind gering, solange der Strom nach dem Ausgangskondensator abgetastet wird.

Gebloggt: Docker 1.0 angekündigt

In Docker-Container verpackte Apps lassen sich komfortabel ausliefern und umgebungsunabhängig ausführen.

In den vergangenen Monaten hat Docker einen regelrechten Hype erfahren. Als kleines Open-Source-Projekt von der Firma DotCloud im März 2013 gestartet, war das Interesse an der Software binnen kurzer Zeit so groß, dass sich das Unternehmen im Januar diesen Jahres an 15 Millionen Euro Risikokapital erfreuen konnte und sich damit ganz auf die professionelle Weiterentwicklung und Vermarktung der Software konzentriert. Aus diesem Grund firmierte DotCloud auch in Docker Inc. um.

Nach rund 15 Monaten Entwicklungszeit kann Docker jetzt auf über 8000 Commits von über 450 Beitragenden, rund 2,7 Millionen Downloads, sowie über 14.000 inzwischen „ver-docker-te“ Apps Docker verweisen . Potente Partner, wie Red Hat, Canonical oder Google geben sich bei Docker derweil die Klinke in die Hand. Der im vergangenen Monat veröffentlichte Release Candidaten 0.11 signalisierte bereits, dass Docker offenbar reif für den Produktiveinsatz ist, wobei laut Docker der derzeitige Funktionsumfang, die stabilen APIs, Rückwärtskompatibilität und die inzwischen vervollständigte und überarbeitete Dokumentation als Kriterien galten.

Trotz der Kommerzialisierungsmaßnahmen soll Docker auch in Zukunft quelloffen und zum freien Download verfügbar sein, wie CEO Ben Golub bei seinem Einstieg bei Docker im Juli letzten Jahres versprach. Das akquirierte Kapital soll dem Aufbau eines Ökosystems rund um Docker, dem Ausbau der Community-Plattform und der Vermarktung von Dienstleistungen rund um Docker dienen. Dies äußert sich mit dem Erscheinen der finalen  Docker-Version 1.0 unter anderem darin, dass sich Docker fortan in die eigentliche „Docker-Engine“ und einen mit Erscheinen der finalen Version 1.0 gestarteten neuen Cloud-Dienst Docker Hub aufteilt, wie das Unternehmen auf der dockercon 14 bekannt gab.

Docker Hub ist eine Art zentrales Repository für „dockerisierte“ Apps, die sich auf einem Docker-Host ausrollen lassen. Der Cloud-Dienst stellt zum Start bereits rund 14.000 Docker-Anwendungen zur Verfügung. Viele davon, lassen sich kostenlos verwenden. Einige sind nur im Zusammengang mit kommerziellen Dienstleistungen von Docker Inc. erhältlich. Passend dazu bietet Docker Inc. ab sofort offiziell Unterstützung für Unternehmen, die Docker einsetzen, einschließlich einer System-Integrations-Initiative mit angegliederten Trainingsprogrammen.

Docker 1.0 bringt neben den Stabilisierungsmaßnamen auch einige neue Funktionen mit. Ein neuer Befehl Copy erlaubt beispielsweise ein Kopieren von Dateien und Verzeichnissen direkt aus der Build-Umgebung. Auch der Device Mapper hat einige Verbesserungen erfahren und unterstützt jetzt XFS wird als Dateisystem. Darüber hinaus lässt sich die Docker Engine jetzt pausieren. Damit ist es möglich, vorübergehend Rechenzeit für andere Aufgaben freizugeben. Ferner hat Docker Inc. bei der IANA (Internet Assigned Numbers Authority) zwei offizielle Ports für Docker 2375 (HTTP) und 2376 (2376) registriert.

Weitere Informationen zu den Neuerungen und den Ankündigen auf der dockercon 14 vom Montag und Dienstag finden sich im Docker-Blog. Installationsmedien zum Herunterladen der Software, sowie diverse HowTos zum Inbetriebnehmen von Docker unter Linux, Windows und Mac OS X sind auf GitHub zu finden.

 

 

 

Testen von Netzteilen für hohe di/dt-Werte

Induktivitäten sind in jeder Testanordnung ein Problem, aber in Verbindung mit niedrigen Spannungen und steilen Stromflanken sind sie geradezu fatal. Man kann sich die Verwendung zwischen Last und Induktivität als eine einfache L-R-Schaltung vorstellen, die der Steilheit der Stromflanke (di/dt) eine Grenze setzt.

Gleichung (Bild: VBM-Archiv) Gleichung (Bild: VBM-Archiv)

Wenn beispielsweise der verwendete Prozessor 1 V benötigt und einen Strom von 10 A zieht, könnte man ihn mit einem 0,1-Ω-Widerstand (1 V/10 A) nachbilden. Würde man die Verbindung zu diesem Widerstand mit einem knapp 8 cm langen Draht herstellen, käme hierdurch eine Serieninduktivität von rund 50 nH hinzu. Die Zeitkonstante T dieser Schaltung ist L/R = 500 ns. Die Formel für den Strom ist nachfolgend angegeben. Die höchste Anstiegsrate existiert übrigens bei 0 und geht nach Ablauf einer Zeitkonstante auf 63 % zurück (Gleichung 1).

Die maximale Anstiegszeit für eine stufenförmige Stromänderung um 10 A beträgt I/T, also ungefähr 20 A/µs. Diese Anstiegsgeschwindigkeit ist somit deutlich geringer als die 100 A/µs, die von den Prozessor-Experten gefordert wird. Hier heißt es also, die Induktivität zu minimieren.

Es versteht sich, dass sich Drahtwiderstände und lange Widerstände aufgrund ihrer Eigeninduktivität nicht gut als Prüflast eignen. Als Faustregel können als Streuinduktivität eines Einzeldrahts 5,9 nH/cm angesetzt werden. Eine effektive Möglichkeit zur Senkung dieser Anschluss-Induktivität besteht darin, eine Parallelschaltung aus mehreren SMT-Widerständen über einer Massefläche anzuordnen. Zur Minimierung der Verbindungs-Induktivität sollten diese Lastwiderstände direkt auf der Platine des Netzteilprototyps angeordnet werden.

Bild 1: Die Einbindung des Lasttransienten-Testers in die Leiterplatte sorgt für niedrigere Verbindungs-Induktivitäten (Bild: TI Bild 1: Die Einbindung des Lasttransienten-Testers in die Leiterplatte sorgt für niedrigere Verbindungs-Induktivitäten (Bild: TI

Bild 1 zeigt eine exemplarische Lastprüfungs-Schaltung mit den Lastwiderständen, Serien-MOSFETs und Ansteuerschaltungen. Die zum Schalten der Last dienenden MOSFETs lassen sich hier auf zweierlei Weise gepuffert ansteuern, nämlich von einem Impulsgenerator oder von einem auf der Leiterplatte befindlichen Timer.

Bild 2 macht deutlich, wie schwierig es ist, mit einem 1-V-Netzteil steile Stromflanken zu generieren und das Einschwingverhalten zu messen. Die Grafik zeigt den in 2 µs von 0 auf 20 A ansteigenden Laststrom (grün), was einen di/dt-Wert von 10 A/µs ergibt. Diese Kurve wurde mit einer für 50 A/µs ausgelegten Last aufgezeichnet, bei einer Verbindungslänge von praktisch null. Zunächst schien hier ein Konflikt zu bestehen, da die Last für 50 A/µs ausgelegt war. Bei genauerer Untersuchung des Datenblatts der aktiven Last stellte sich jedoch heraus, dass eine Anstiegszeit von 2 µs für einen Strom von 100 A angegeben war, während der di/dt-Wert für Ströme unter 100 A proportional reduziert wurde.

Bild 2: Die für 50 A/µs ausgelegte Last weist tatsächlich Anstiegszeiten von 2 µs auf. (Bild: TI) Bild 2: Die für 50 A/µs ausgelegte Last weist tatsächlich Anstiegszeiten von 2 µs auf. (Bild: TI)

In Bild 2 ist in Gelb außerdem die Hüllkurve des Einschwingverhaltens dargestellt. Interessanterweise sind drei klar abgegrenzte Welligkeitsbereiche zu erkennen. Der erste besteht im Betrieb ohne Last, wo die Buck-Induktivität am höchsten ist. Beim zweiten Bereich handelt es sich um die Transiente. Hier tendiert die Leistungsstufe zum vollen Tastverhältnis, wodurch sich der Welligkeitsstrom in der Buck-Induktivität verringert. Der dritte Bereich schließlich befindet sich bei hohen Ausgangsströmen, wenn sich der Induktivitätswert durch die Bestromung verringert hat und die hochfrequenten Spitzen am höchsten sind.

Auf dem Markt gibt es Prüfstrom-Generatoren, die sehr schnelle Transienten erzeugen und auf diese Weise Einblick in die Resonanzen und die Stabilität eines Systems gewähren können. Bild 3 zeigt ein Beispiel. Das obere Oszillogramm zeigt in schwarz die Reaktion eines Netzteils auf eine sprungförmige Stromänderung (rot), die durch eine wenig leistungsfähige aktive Last verursacht wird. Das Netzteil zeigt praktisch keine Reaktion, da seine Regelschleife eine hohe Durchtrittsfrequenz aufweist und somit jegliche Regelabweichungen, die durch die sprungförmige Stromänderung entstehen, sofort ausregelt.

Bild 3: Ein Prüfstrom-Generator kann einen nahezu vertikalen Stromsprung von 50 mA erzeugen. (Bild: TI Bild 3: Ein Prüfstrom-Generator kann einen nahezu vertikalen Stromsprung von 50 mA erzeugen. (Bild: TI

Die unteren Kurven wurden unter Verwendung eines Prüfstrom-Generators mit hoher Flankensteilheit aufgezeichnet. Der rot wiedergegebene Stromverlauf verläuft nahezu vertikal und veranlasst das Netzteil zu einer Reaktion, die einer gedämpften Sinuswelle entspricht, was wiederum ein Indiz für eine geringe Phasenreserve des Regelkreises oder für eine Induktivität in Reihe mit den Ausgangskondensatoren sein könnte.

Allerdings wurden diese Kurven mit Strom-Sprüngen von nur 50 mA aufgezeichnet, sodass sich nur das Kleinsignal-Verhalten wiedergeben lässt. Diese Stromänderungen liegen weit entfernt von den 100 A/µs, die ein Prozessor unter Umständen erfordert, und eignen sich deshalb nicht zum Messen des Großsignal-Verhaltens.

Induktivitäten und die Eigenschaften der aktiven Last machen das korrekte Testen von Netzteilen für niedrige Spannungen und hohe Stromstärken zu einer recht schwierigen Aufgabe. Eine Induktivität von 50 nH, wie sie beispielsweise eine knapp 8 cm lange Verbindungsleitung aufweisen kann, kann die Anstiegsrate eines 10-A-Netzteils auf 20 A/µs begrenzen und bei höheren Strömen sogar eine noch weitere Zunahme der Anstiegszeiten verursachen. Es fehlt jedoch an Prüfinstrumenten, die hohe und steile Stromsprünge generieren können: entweder sind die Anstiegsgeschwindigkeiten zu gering oder die Ströme reichen nicht aus. Für Tests dieser Art ist es deshalb generell am besten, den Netzteil-Prototyp mit schaltbaren Lastwiderständen zu bestücken.

Erste Schritte beim Anpassen einer SharePoint-Site

Klicken Sie dann auf die Registerkarte  „Seite“ und anschließend auf „Bearbeiten“. Anschließend können Sie innerhalb der Seite Änderungen vornehmen. Die Bedienung entspricht dabei der Arbeit mit Office-Programmen und dem Menüband.

Sobald Sie sich im Bearbeitungsmodus einer Site befinden, ändern sich die Befehle im Menüband, und Sie können die Seite bearbeiten und formatieren.

Sie können auf den Seiten auch Funktionen ändern,  zum Beispiel den Inhalt von Listen oder Bibliotheken anzeigen. Dies kann sinnvoll sein, wenn Sie auf der Startseite zum Beispiel noch Ihre Liste mit den Weblinks integrieren wollen  Dazu klicken Sie im Bearbeitungsmodus auf den Bereich der Seite, in den Sie die Liste integrieren wollen.

 Wechseln Sie dann im Menüband zur Registerkarte „Bearbeitungstools/Einfügen“. Hier können Sie nun entweder über „Neue Liste“ eine neue SharePoint-Liste erstellen, die automatisch im ausgewählten Bereich der Seite erscheint, oder Sie können mit „Vorhandene Liste“ aus den bereits angelegten Listen eine Liste auswählen und an der entsprechenden Stelle einfügen.

Klicken Sie anschließend auf  „Hinzufügen“, nimmt SharePoint die Listenanzeige an der ausgewählten Stelle in die Seite auf und die Liste, deren Inhalt und die hinterlegten Aktionen stehen zur Verfügung. Die Anzeige der Listen ist im Endeffekt ein ganz normaler Webpart, also ein Programm mit Zusatzfunktionen für eine Seite.