MindSphere verbindet die reale Produktion mit der virtuellen Welt.

Siemens Schweiz AG
Verwandelt Daten in Wissen und Wissen in Geschäftserfolg.
Durchlaufzeiten senken, die Flexibilität erhöhen, individualisierte Massenproduktion ermöglichen sowie den Energie- und Ressourcenverbrauch optimieren — das sind die Herausforderungen, denen sich produzierende Unternehmen heutzutage stellen müssen. Dabei müssen sie die gesamte Wertschöpfungskette optimieren, vom Design über die Produktionsplanung und das Engineering bis zu den Services. Dazu gehört auch, eine Unmenge an gesammelten Daten — Big Data — auszuwerten und zu erkennen, die wirklich wichtig sind. So können frühzeitig die richtigen Entscheidungen getroffen werden.

MindSphere verbindet die reale Produktion mit der virtuellen Welt. Dabei werden zunächst alle durch den Kunden definierten Daten, zum Beispiel durch MindConnect Nano, erfasst und in festgelegten Zeitabständen an MindSphere übertragen. Mit MindSphere werden die Daten analysiert und die für die Optimierung relevanten Daten in Form von Handlungsempfehlungen bereitgestellt. Mit diesen sogenannten Smart Data lässt sich die Effizienz der Produktion steigern und das gesamte Potenzial der Anlage nutzen.

Gesamte Bandbreite an Möglichkeiten

Mit MindSphere können Sie sofort eigene digitale Services erarbeiten, anbieten und einsetzen sowie eigene Applikationen und sogar neue Geschäftsmodelle entwickeln.

Vorteile für den Maschinenbauer

– Service-Effizienz steigern und geringere Garantiekosten

– Zusätzliche Services anbieten, zum Beispiel für Verfügbarkeit

– Neue Geschäftsmodelle umsetzen, zum Beispiel Up-Time- oder Pay-per-use-Modelle, Product as a Service (Paas), Fleet Management

Vorteile für Anlagenbetreiber

– Transparenz über den Produktionsstatus der Maschinen

– Bessere Auslastung und Maschinen­verfügbarkeit (OEE)

– Potenzial zur Optimierung der Maschine

– Kürzere Reaktionszeit in kritischen Situationen

– Kleineres Ersatzteillager

siemens.de/mindsphere

MindSphere ist das Herzstück eines leistungsfähigen IoT-Betriebssystems. Es bietet Datenanalyse, vielfältige Konnektivität, Werkzeuge für Entwickler, Applikationen und Services. MindSphere unterstützt Sie beim Auswerten und Nutzen Ihrer Daten, um neuartige Einblicke zu erhalten. So optimieren Sie die Leistung Ihrer Betriebsmittel für maximale Verfügbarkeit.

Vorteile des Systems

– Offener Standard (OPC): Nahtlose Konnektivität zwischen den Produkten von Siemens und Drittanbietern

– Plug & Play: Einfache Projektierung von Siemens-Produkten

– Cloud-Infrastruktur: Öffentliche Cloud, private Cloud oder standortinterne Lösung als geschlossenes System

– Offene Schnittstellen: Offene Anwen­dungs­schnittstellen für individuelle Kundenanwendungen (MindApps)

– Transparentes Pay-per-use-Preismodell: Monatlich anpassbar bzw. kündbar

– Neue Geschäftsmodelle: Entwicklung neuer Geschäftsideen, zum Beispiel Verkauf von Maschinenstunden

Container-Cluster XXL

Die Neuerungen in Kubernetes 1.6 betreffen vor allem Skalierung und Automatisierung. So unterstützt Kubernetes 1.6 nun bis zu 5.000 Knoten und insgesamt ca. 150.000 Pods. Diese enorme Erweiterung wird durch das von CoreOS stammende etcd v3 ermöglicht.

Weitere Neuerungen

Mit dem „Federeration“-Feature lassen sich nun mehrere Cluster über einen API-Endpunkt ansprechen, sogar dann, wenn sie in verschiedenen Rechenzentren stehen. Darüber hinaus haben die Entwickler in Kubernetes 1.6 die Ablaufplanung, um Pods besser abgestimmt bereitstellen zu können, optimiert. So können Nutzer nun Pods mit

Node affinity/anti-affinity

nur auf bestimmten, auf Labels basierenden Nodes, aufsetzen. Dabei können sie mit „taints and tolerations“ markieren, welche Nodes für Pods nicht bereit stehen.

Neu ist auch, dass der Scheduler nun Regeln beherrscht, um Pods in bestimmten Zonen, basierend auf einer vorgegebenen Fehlertoleranz oder auf Nodes eines bestimmten Nutzers zu starten. Nutzer können aber auch eigene Scheduler erstellen. Darüber hinaus haben die Entwickler das Runtime-Interface, den etcd v3 (s. o) und die Daemon-Sets aktualisiert.

Storage-Bereitstellung

Ferner hat das Entwickler-Team die automatisierte Bereitstellung von Storage verbessert. So sind in Version 1.6 nun StorageClass und die dynamische Volume-Provisionierung als stabil gekennzeichnet. Damit können Nutzer jetzt Storage nach Bedarf erzeugen, so dass die bisher erforderliche Vorprovisionierung nicht mehr nötig ist. Per Default installiert Kubernetes 1.6 die StorageClass-Objekte für AWS, Azure, GCP, OpenStack und VMware vSphere, unterstützt aber zusätzlich auch ScaleIO (Plugin), Portworx (Plugin) und NFSv3, NFSv4 sowie GlusterFS (mit den COS Node Image).

Alpha und Beta

Neu eingeführt wurden einige Funktionen im Alpha-Stadium wie „Out-of-tree cloud provider“, „Per-pod-eviction“, die „Pod Injection Policy“ und „Custom metrics“. Dafür haben einige ältere Alpha-Features jetzt Beta-Status erlangt wie z. B. Das CLI-Tool „kubefed“. Es kann jetzt „kube-dns“ automatisch konfigurieren.

Ebenfalls neu im Beta-Stadium ist die rollenbasierte Zugriffskontrolle (RBAC). Administratoren damit nun fein granular bestimmen, welche Nutzer welche Komponenten eines Kubernetes-Clusters kontrollieren können. Dabei wird auch das ebenfalls als Beta-Version gekennzeichnete CLI-Tool kubeadm unterstützt.

Kubernetes ist unter der Apache License 2.0 veröffentlich und kann von Github heruntergeladen werden.

Cloud Foundry Foundation startet Zertifikationsprogramm

Entwickler, die in der Lage sind Cloud-Anwendungen zu schreiben sind derzeit hoch gefragt aber kaum verfügbar. Die Non-Profit-Organisation Cloud Foundry Foundation will die Lage nun mit einem neuen Zertifizierungsprogramm verbessern.

Cloud Foundry ist eine quelloffene Platform-as-a-Service (PaaS), die im Wesentlichen von der Cloud Foundry Foundation getragen wird. Die zugrunde liegende Software wurde ursprünglich von VMware entwickelt und später an Pivotal Software übergeben, ein Joint Venture mit der Konzernmutter EMC und General Electric. Im Jahr 2015 wurde das Projekt von Pivotal geöffnet und in die Cloud Foundry Foundation, eine unabhängige Non-Profit-Organisation überführt, die als kollaboratives Projekt unter dem Dach der Linux Foundation beheimatet ist, von dieser aber weitgehend unabhängig agiert.

Cloud Foundry versteht sich im Hinblick auf den Open-Source-Kern gern als das PaaS-Pendant zu OpenStack (IaaS).

Cloud Foundry Certified Developer

Da laut Aussage der Cloud Foundry Foundation ein eklatanter Mangels an fähigen Cloud-Entwicklern herrscht, startet die Stiftung nun unter dem Titel Cloud Foundry Certified Developer eine Initiative zur Zertifizierung von Entwicklern von Cloud-Anwendungen.

Das Programm soll aber gemeinsam mit der Linux Foundation angeboten werden. Ein genauer Starttermin ist noch nicht bekannt; er soll aber auf dem im kommenden Juni stattfindenden Cloud Foundry Summit Silicon Valley 2017 bekannt gegeben.

Die neue Cloud Foundry-Zertifizierung soll Distributions-unabhängig sein und erfolgreichen Absolventen als Nachweis über Praxiserfahrung mit Cloud-Foundry-Implementationen dienen. Kurse zur Cloud Foundry-Zertifizierung für Entwickler sollen online angeboten werden, damit Schulung und Zertifizierung standortunabhängig überall auf der Welt möglich ist.

Das Paket

Das Paket besteht aus einem kostenlosen Einführungskurs auf der edX-Plattform, einem E-Learning-Kurs „Cloud Foundry für Entwickler“« zum Selbststudium, sowie einem Schulungspartnerprogramm, einschließlich lizenziertem Material für Präsenz-Cloud-Foundry-Kurse für Entwickler. Dieses wird von den Mitgliedsunternehmen Dell EMC, EngineerBetter, IBM, Pivotal, Resilient Scale, SAP, Stark and Wayne und Swisscom angeboten.

Teilnehmer, die eine erfolgsabhängige Prüfung bestehen erhalten die „Cloud Foundry Certified Developer“-Zertifizierung.
Die Anmeldung zum kostenlosen Einführungskurs auf edx.org soll ab Anfang Mai möglich sein. Der E-Learning-Kurs „Cloud Foundry for Developers“ zum Selbststudium soll ab dem 13. Juni für 500 US-Dollar erhältlich sein.

Die bis zu vier Stunden dauernde Zertifizierungsprüfung kann ebenfalls online zu einem Preis von 300 Dollar abgelegt werden oder direkt auf dem vom 13. bis 15. Juni 2017 stattfindenden Cloud Foundry Summit Silicon Valley.

Windows Server 2012 R2/2016

Gehen Sie bei einem solchen Problem folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus
  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie files ein, um zu file maintenance zu gelangen.
  5. Geben Sie integrity ein, um einen Integritätstest der Datenbank durchzuführen. Wenn dieser Test eine Fehlermeldung anzeigt, können Sie versuchen, die Datenbank in Ntdsutil zu retten.
  6. Verlassen Sie mit quit die file maintenance, aber bleiben Sie in der Oberfläche von Ntdsutil.
  7. Geben Sie den Befehl semantic database analysis
  8. Geben Sie zunächst den Befehl verbose on ein, damit Sie detaillierte Informationen erhalten.
  9. Geben Sie als nächstes den Befehl go fixup
  10. Das Tool beginnt daraufhin mit der kompletten Diagnose der Active Directory-Datenbank und versucht eine Reparatur durchzuführen.
  11. Verlassen Sie im Anschluss Ntdsutil und starten Sie den Domänencontroller neu. Überprüfen Sie, ob die Active Directory-Datenbank wieder funktioniert. Sollten noch immer Schwierigkeiten auftreten, stellen Sie die Datenbank aus einer Datensicherung wieder her und überprüfen Sie im Anschluss, ob Active Directory bei diesem Stand noch konsistent war. Sie sollten so lange Backups zurückspielen, bis sichergestellt ist, dass die Datenbank wieder konsistent ist.

Windows Server 2012 R2/2016

Bevor Sie eine Offlinedefragmentation durchführen, sollten Sie eine Sicherung des Systemstatus Ihres Active Directory durchführen. Wie bei der Offlinedefragmentation von Exchange wird zunächst die Datenbank kopiert, dann offline defragmentiert und anschließend zurückkopiert. Stellen Sie daher sicher, dass sich auf dem Datenträger, auf dem Sie die Offlinedefragmentation durchführen, genügend Speicherplatz frei ist. Um eine Offlinedefragmentation durchzuführen, gehen Sie folgendermaßen vor:

  1. Starten Sie den Server im Verzeichnisdienst-Wiederherstellungsmodus. 

    Da Active Directory als Systemdienst läuft, kann dieser für die Defragmentation auch beendet werden. In diesem Fall muss der Server nicht im Verzeichnisdienst-Wiederherstellungsmodus gestartet werden, sodass andere Dienste auf dem Server weiter von den Anwendern verwendet werden können.

  2. Öffnen Sie eine Eingabeaufforderung und starten Sie Ntdsutil.
  3. Geben Sie anschließend den Befehl activate instance ntds
  4. Geben Sie den Befehl files ein, um zur file maintenance zu gelangen.
  5. Geben Sie den Befehl compact to <Laufwerk:\Ordner> Wählen Sie als Verzeichnis einen beliebigen Ordner auf der Festplatte aus. Ntdsutil kopiert die Datenbankdatei in diesen Ordner und defragmentiert sie.
  6. Wenn keine Fehlermeldungen während der Offlinedefragmentation auftreten, können Sie die Datei dit aus dem Ordner, in welchen sie defragmentiert wurde, zurück in den Datenbankpfad der produktiven Datenbank kopieren. Diesen Vorgang führt Ntdsutil nicht automatisch aus, Sie müssen die Datei manuell kopieren. Sichern Sie die alte Version der ntds.dit aus dem produktiven Datenbankordner. Verschieben Sie die defragmentierte Datei in den produktiven Ordner der Datenbank und überschreiben Sie die alte Version.
  7. Geben Sie in der file maintenance von Ntdsutil den Befehl integrity ein, um die Integrität der Datenbank festzustellen.

Wenn die Integrität der neuen Datenbank sichergestellt ist, können Sie den Domänencontroller ganz normal neu starten. Sollten Fehler auftreten, kopieren Sie die zuvor gesicherte Originalversion zurück und führen Sie einen erneuten Integritätstest durch. Ist der Test diesmal erfolgreich abgeschlossen, versuchen Sie erneut eine Offlinedefragmentation und starten Sie den Test erneut. Sie sollten den Domänencontroller erst in den normalen Modus starten, wenn sichergestellt ist, dass die Datenbank auch konsistent ist.

Die Bremskraft der Industrie

Als Unternehmer und Gründer eines Startups ist es ehrlich gesagt, frustrierend zu sehen, dass Industrie 4.0 bereits Realität sein könnte, wenn Startups nicht ständig Steine in den Weg gelegt werden würden. Bereits 2015 erschien auf welt.de ein Artikel von Jens Kohrs und Michael Posch[1] mit dem Titel „Misstrauen bremst die intelligente Fabrik aus“ zum Thema Industrie 4.0. Darin beschrieben die Autoren das Auseinanderklaffen der technologischen Möglichkeit und deren Anwendung. Ein Viertel der befragten Manager konnte demnach noch nicht einmal etwas mit dem Begriff Industrie 4.0 anfangen, obwohl mit dieser bzw. mit der vernetzten Produktion hohe wirtschaftliche Chancen verbunden sind. Einer der angeführten Gründe war das mit der neuen Technik verbundene Misstrauen. Wobei ich einmal in Frage stelle, ob es sich hier nicht eher um die Angst vor dem Neuen handeln könnte.

Startups versus etablierte Unternehmen

 

Industrie 4.0 ist nur ein Beispiel für technologischen Fortschritt, der durch etablierte Unternehmen ausgebremst wird. In der Regel sind Startups innovativer, agiler, flexibler, schneller und motivierter in der Umsetzung ihrer Projekte. Sie haben (noch) keine starren Unternehmensstrukturen ausgebildet, wodurch sie auch kurzfristig den Kurs wechseln und einen neuen Weg der Problemlösung einschlagen können. Das macht sie vor allem in technologieaffinen Branchen erfolgreich.

Ein gutes Produkt muss allerdings noch lange nicht zum erhofften Erfolg führen. Ein mir bekanntes Startup brachte 2016 ein Produkt auf den Markt, das zwar mehreren Unternehmen angeboten wurde, das aber letztendlich nie verkauft wurde. Eines der damals angefragten Unternehmen entwickelte jedoch kurz darauf ein ähnliches Produkt, das allerdings wesentlich komplizierter in der Anwendung war und nur zu einem Drittel die Funktionen des Originals besaß. Anstatt sich also auf das Neue ein- und möglicherweisen Veränderung zuzulassen, wurden hier Ressourcen darauf verschwendet eine gute Idee minderwertig umzusetzen.

Kooperation statt Widerstand

 

Der steigende Konkurrenzdruck zwingt auch etablierte Unternehmen vermehrt dazu, sich auf neues Terrain zu wagen. Eine Zusammenarbeit zwischen Startups und etablierten Unternehmen kann dabei Vorteile für beide Seiten haben. Während Startups alle oben genannten Fähigkeiten besitzen, sind Unternehmen effizienter. Sie können auf Bestehendes zurückgreifen, denn eine Unternehmensstruktur bedeutet nicht nur Starre, sondern auch Stabilität. Neue Ideen könnten durch eine Zusammenarbeit wesentlich schneller implementiert und umgesetzt werden. Eine wirkliche Kooperation zwischen Unternehmen und Startup kann jedoch nur funktionieren, wenn sich die Partner dabei auf Augenhöhe begegnen und nicht, aus Angst von den Emporkömmlingen überholt zu werden, mauern. Startups sind aber keine Bittsteller, sondern beide Seiten wollen etwas, dass der andere hat. Fragt sich nur, wie lange es dauern wird, bis der Groschen fällt.

 

Infokasten:           

Rachid Touzani ist CEO von CargoSteps, einem Logistik-Startup aus Frankfurt. Das unabhängige und neutrale Tracking-System von CargoSteps erlaubt es Unternehmen, firmenübergreifend, auch international, in einer Lösung zusammenzuarbeiten. Für mehr Informationen besuchen Sie www.cargosteps.com.

[1] Siehe: https://www.welt.de/sonderthemen/mittelstand/it/article139313724/Misstrauen-bremst-die-intelligente-Fabrik-aus.html.

Datengesteuerte Produktion mit dem Internet der Dinge

In der verarbeitenden Industrie gehören industrielle Mess- und Regeltechnik, hochvernetzte Systeme und Automatisierung seit Jahrzehnten zur Standardausrüstung, mit der Unternehmen die verfügbaren Daten verwerten können. Durch kontinuierliche Prozessoptimierung entstanden völlig neue Fachrichtungen und Anwendungen. Grenzen wurden vor allem durch den Stand der Technik definiert, während die potentiellen Kosten nur eine nachrangige Rolle spielten.

Mittlerweile sind die meisten Industrieunternehmen aber an die Grenzen des Machbaren gestoßen: Sie müssen nicht nur immer mehr, sondern auch zunehmend heterogene und unstrukturierte Daten von innerhalb und außerhalb des Produktionsprozesses verarbeiten. Zusätzlich bringt das industrielle Internet der Dinge (Industrial Internet of Things, IIoT) eine Unzahl an Maschinen und Sensoren ins Spiel, die mit ihren gewaltigen Datenströmen die Fertigungsbranche zu überfluten drohen.

Mit neuen Tools allein ist es nicht getan

Mit den bisher eingesetzten Werkzeugen sind diese Informationsflüsse nicht in den Griff zu bekommen. Zudem suchen die Unternehmen auch nach Wegen, die ausufernden Kosten wieder unter Kontrolle zu bekommen. Die Hersteller wollen ihre Innovationsfähigkeit stärken, im Wettbewerb mithalten und sich gleichzeitig differenzieren. Um verwertbare Erkenntnisse über Produkte, Kunden und Lieferketten zu erhalten, müssen sie ihre Strategie im Umgang mit Daten grundlegend ändern.

 

Einsatzgebiete in der Produktion

Die möglichen Anwendungsgebiete sind vielfältig und sehr heterogen. Es lassen sich aber drei Bereiche herausfiltern, die das größte Potential bieten:

  • Vernetzung in der Produktion: Durch das Internet der Dinge können Hersteller zu jedem Zeitpunkt eine umfassende Übersicht darüber erhalten, was gerade im Fertigungsprozess passiert. Anpassungen können in Echtzeit erfolgen, um die störungsfreie Fertigstellung von Produkten zu gewährleisten und Mängel zu vermeiden. Eine Datenmanagementplattform ermöglicht es Unternehmen, Daten aus Produktionsprozessen und IoT-Sensoren zu sammeln, zu speichern, zu analysieren und daraus verwertbare Erkenntnisse zu gewinnen.
  • Optimierung von Lieferkette und Beständen: Mittels eines ausgeklügelten Systems an Voraussage- und Logistikmodellen lässt sich ein Hub für Unternehmensdaten als Echtzeit-Liefernetzwerk (Supply Network) nutzen, um Vorlaufzeiten mit Nachfragesignalen, ERP- und MES-Daten, Warenbeständen, Lagerkapazitäten und Lieferantendurchsatz für einen reibungslosen Betrieb abzugleichen.
  • Proaktive Qualitätssicherung: Ein Problem nach der Produktion zu beheben, kostet hundertmal mehr, als es bereits vor der Produktion aus der Welt zu schaffen. Durch eine einzige Datenplattform lassen sich Entwicklungszeiten um bis zu 50 Prozent verkürzen, während auf Leistungsprobleme in Echtzeit reagiert und Mängel vor der Herstellung beseitigt werden können.

Hadoop – Datenmanagement für die Fertigungsbranche

Produktions- und IoT-Daten sind allerdings derart komplex, dass Unternehmen ihre Strategie zur Datenverwaltung anpassen müssen. Benötigt wird eine Plattform, die optimal auf die genannten Herausforderungen getrimmt ist und mit der Hersteller die Vorteile der Cloud wahrnehmen und gleichzeitig ihre bestehende Infrastruktur weiter nutzen können.

Führende Unternehmen aus der Fertigungsbranche setzen zunehmend auf das Apache Hadoop-Ökosystem als Basis für Datenmanagement- und -analyse. Mit Hadoop lassen sich Daten  praktisch ohne Limits speichern, verwalten, verarbeiten und vor allem analysieren. Daten aus Sensorablesungen, Anlagenproduktivität, Transaktionsdaten, Lieferantendaten und mehr lassen sich leicht und kostengünstig aus verschiedenen Quellen in einer einzigen, vereinheitlichten Plattform zusammenführen.

Da Hadoop darüber hinaus auf einem höchst skalierbaren und flexiblen Datensystem beruht, kann jede Art von Daten – sowohl strukturiert als auch unstrukturiert – ohne Änderung des Formats geladen werden, so dass sowohl die Integrität der Daten als auch die Flexibilität der Analyse gewährleistet sind. Daten, die von Maschinen und Sensoren generiert werden, darunter Zeitreihendaten sowie Anwendungs- und Weblog-Dateien, können in Echtzeit gesammelt und direkt in Hadoop eingespeist werden, anstatt in temporären Dateisystemen oder Data Marts bereitgestellt zu werden. Hadoop läuft auf branchenüblicher Standard-Hardware oder in der Cloud, wodurch die Kosten für Speicher und Rechenleistung pro Terabyte durchschnittlich ein Zehntel von denen eines herkömmlichen relationalen Data-Warehouse-Systems betragen.

Lösungen auf Basis von Apache Hadoop haben in der Verwaltung und Analyse von Produktionsdaten zu einem Paradigmenwechsel geführt. Organisationen können damit problemlos nahezu unbegrenzte Mengen und Arten von Sensor-, Prozess- und IoT-Daten  sammeln und speichern, leistungsfähige Verarbeitungs- und Analysewerkzeuge für Data in Motion und Data at Rest nutzen sowie sofortige Such-, Abfrage- und Visualisierungsoptionen von Daten im Petabytebereich zur Verfügung stellen, um mehr verwertbare Erkenntnisse zu gewinnen. Mit einer professionellen Hadoop-Distribution wie Cloudera Enterprise erhalten Unternehmen außerdem zahlreiche weitere Enterprise-Funktionen, Support, Training und vieles mehr.

Big Data: Industrial Analytics — Mehrwert generieren

Daten sind das Gold des 21. Jahrhunderts, auch für Industrieunternehmen. In den Anlagen der Industrie fallen viele Daten an — Temperatur, Druck, Energieverbrauch, Vibrationen, diese Werte werden von Sensoren ständig gemessen, überwacht und für die Steuerung bereitgestellt. Die Ingenieure von Weidmüller starten mit allen vorhandenen Prozess- und Maschinendaten, aus denen das Maschinen­verhalten gelernt wird. Anschliessend werden die Daten reduziert und nur jene betrachtet, die zum eigentlichen Maschinenverständnis erforderlich sind. Abhängig vom Maschinentyp geschieht die Konfiguration einer appli­kationsspezifischen Analytics Engine. Dabei handelt es sich um eine Software, mit der sich das Maschinenverhalten überwachen und prognostizieren lässt. Weidmüller nennt das «Advanced Analytics». Den getroffenen Vorhersagen werden mathematische und statistische Verfahren zugrundegelegt, um daraus das Maschinen­verhalten zu analysieren.

weidmueller.ch

Relais für die Unterverteilung

Die Relais der Reihe DRK und ISR sind ideal für den Einbau in Unterverteilungen. Die 1 Modul breiten Gehäuse können hinter der Abdeckung mit einem 45 mm Ausschnitt montiert werden. Dabei bleiben die LEDs zur Zustandsanzeige sichtbar, während die Klemmen geschützt hinter der Abdeckung liegen. Die DRK-1 und DRK-2 können mit 24 V AC/DC angesteuert werden. Die DRK-1 mit 1 und DRK-2 mit 2 unabhängigen Wechselkontakten verfügen über eine Schaltleistung von 12 A/250 V AC1. Für die Ansteuerung von Beleuchtungen mit elektronischen Vorschaltgeräten oder LED, die hohe Einschaltspitzen verursachen, kommen die L-Typen zum Einsatz. Um dem Kontakt­verkleben vorzubeugen, verfügen die DRK-1/L und DRK-2/L einen voreilenden Wolfram-­Kontakt. Damit können Einschaltspitzen von 800 A/200 µs geschaltet werden. Die ISR verfügen über Wechselkontakte mit einer Schaltleistung von 16 A/250 V AC1.

relmatic.ch

LH-Stromwandler erhebt Halleffekt in neue Dimensionen

Die LH-Stromwandler nutzen die aktuellste LEM-ASIC-Spitzentechnologie, die sich bereits in der kürzlich vor­gestellten LEM-LF-xx10-Stromwand­lerserie be­­währt hat. Das mit Hall­effekt-Technik arbeitende ASIC der neuen LH-Familie bietet ein Betriebsverhalten, das mit der teureren Fluxgate-Tech­nologie vergleichbar ist und dem Anwender ein besseres Steuerungsverhalten und einen höheren System­wirkungsgrad gewähren. So kann die Bewegungs­genauigkeit von Robotern bei der Verwendung von LEM-LH-­Strom­wandlern spürbar gesteigert werden bei gleichzeitig optimiertem Energieverbrauch. Parallel können aber die Nachteile der Fluxgate-Technologie wie Rauschen, Probleme mit Anlaufströmen und Verzögerungen vor einem Neustart nach einer Über­lastung vermieden werden. LEM-LH-­Strom­wandler bieten über den gesamten Arbeitstemperaturbereich eine bis zu 3,5 mal höhere Gesamtgenauigkeit als Halleffekt-Kompen­sa­tions­strom­wandler früherer Generationen.

simpex.ch