Programm 2020*

Montag, 21. September 2020

08:30 Uhr
Registrierung zur Veranstaltung
09:15 Uhr
Begrüßung durch den Veranstalter

SEMINARE VORMITTAG

09:30 Uhr

Parallele Seminare Vormittag (Pause 11:00-11:30)
Online-Seminar 1 - Softwaremetriken zur Bewertung von IEC 61131-3-konformen Steuerungssoftwarevarianten als Basis für geplante Wiederverwendung mehr
Steuerungssoftware in automatisierten Produktionssystemen (aPS) ist gekennzeichnet durch eine hohe Variantenvielfalt, die beispielsweise aus der starken Heterogenität von Kundenanforderungen oder durch Einflüsse anderer Disziplinen wie der verwendeten Hardware resultiert. Detaillierte Codeanalysen von Industriesoftware zeigen, dass die systematische Identifikation von Softwarevarianten und insbesondere das Variantenmanagement eine Kernherausforderung für geplante Wiederverwendung darstellt.
Häufig gibt es innerhalb eines Unternehmens keine globale Wissensbasis zu allen existierenden Varianten und trotz bekannter Nachteile, wie z.B. schlechte Wartbarkeit, ist die ungeplante Wiederverwendung mittels „Copy, Paste and Modify“ noch immer weit verbreitet.
So zeigt eine Studie, dass selbst marktführende Unternehmen oftmals keine eindeutigen Strategien der geplanten Wiederverwendung verwenden, sondern Mischformen durch die Kombination von Templates und Bibliotheksbausteinen nutzen.
Die so gewachsene Software weist oftmals Mängel bzgl. ihrer Verständlichkeit, Wartbarkeit, Testbarkeit, Wiederverwendbarkeit oder gar Fehlerfreiheit auf und ist zudem nicht selten schlecht bis gar nicht dokumentiert, was Doppelimplementierungen und falsche Verwendung bereits existierender Softwareteile nach sich zieht.

Ziel des Kompaktseminars ist es deshalb, aufzuzeigen, wie die Verwendung von Softwaremetriken, statischer Codeanalyse und geeigneten Werkzeuge den Entwicklungsprozess und den Transfer zu geplanter Wiederverwendung von qualitativ „hochwertiger“ Software unterstützen kann. Dazu wird zunächst eine Übersicht vorhandener Metriken zur quantitativen Bewertung von IEC 61131-3-konformer Steuerungssoftware sowie deren Vorteile präsentiert.
Anschließend wird im Rahmen eines Hands-on-Workshops anhand prototypischer Tools des Lehrstuhls für Automatisierung und Informationssysteme der Technischen Universität München demonstriert, wie Entwickler bei der Identifikation, Bewertung, Refaktorisierung und Wiederverwendung von Softwarevarianten unterstützt werden können. Als Fallbeispiel dienen dazu ausgewählte Evolutionsszenarien einer Demonstratoranlage des Lehrstuhls.

Der Ablauf des Kompaktseminars gliedert sich demnach in folgende Abschnitte:
  • Einführung zu Metriken und statischer Codeanalyse: Vorstellung des Stands der Technik sowie Präsentation von Vorarbeiten des Lehrstuhls für Automatisierung und Informationssysteme
  • Toolgestützter Hands-on-Workshop am Beispiel der Steuerungssoftware eines Demonstrators:
    • Metrikbasierte Ähnlichkeitsidentifikation zur Detektion von sog. „Code Clones“ in der Steuerungssoftware mit Hilfe des Variability Analysis Toolkit
    • Visualisierung der identifizierten Variabilität zur Ableitung möglicher Bibliotheksbausteine zur geplanten Wiederverwendung mit dem Variability Visualization Toolkit
    • Konfiguration und Generierung von Softwarevarianten mit dem Tool VarApp
Nach der Teilnahme am Kompaktseminar sind die Teilnehmer für die Identifikation und Wiederverwendung von Softwarevarianten sensibilisiert. Außerdem wird als Ausblick vermittelt, wie systematisches Variantenmanagement und kontinuierliche Qualitätskontrolle mit Hilfe von Metriken und Codeanalyse mittels geeigneter Toolunterstützung auch im eigenen Unternehmen etabliert werden kann.

Referent: Prof. Dr.-Ing. Birgit Vogel-Heuser | TU München

Prof. Vogel-Heuser studierte Elektrotechnik (1987, Dipl. Ing.) und promovierte im Bereich Maschinenbau an der RWTH Aachen (1990, Dr. Ing.). Sie sammelte zehn Jahre Industrieerfahrung, u.a. als technischer Geschäftsführer in der Siempelkamp Gruppe (Anlagenbau). Nach Berufungen in Hagen, Wuppertal und Kassel übernahm sie den Lehrstuhl für Automatisierung und Informationssysteme an der TUM (2009). Sie ist Sprecherin des Sonderforschungsbereichs 768: „Zyklenmanagement von Innovationsprozessen“, Mitglied im Coordination Board des DFG-Schwerpunktprogramms 1593 „Design for Future“ und Mitglied in der Deutschen Akademie der Technikwissenschaften e.V. (acatech). Die Forschungsschwerpunkte von Prof. Vogel-Heuser (*1961) liegen im Bereich des System- und Software-Engineerings sowie in der Modellierung von verteilten und zuverlässigen eingebetteten Systemen. Insbesondere stehen die Herausforderungen, welche sich aus der steigenden Nachfrage nach kundenspezifischen Produkten im Anlagenbau ergeben, im Fokus. Zudem sind auch hybride Prozesse und heterogen verteilte, intelligente Systeme unter Einbezug der Mensch-Maschine-Interaktion Teil ihrer Forschung.

Referent: Eva-Maria Neumann | TU München

Eva-Maria Neumann absolvierte 2018 ihren Master in Maschinenwesen. Im Januar 2019 startete sie ihre Promotion am Lehrstuhl für Automatisierung und Informationssysteme der Technischen Universität München. Zu ihren Schwerpunkten zählt unter anderem die Entwicklung objektiver Indikatoren und Metriken zur Messung verschiedener Qualitätsattribute von IEC 61131-3 Steuerungssoftware.

Referent: Juliane Fischer  | TU München
Online-Seminar 2 - Linux als guter Integrator in der Automatisierungstechnik mehr
Will man Linux in der Automatisierung einsetzen, steht einem eine große Anzahl an unterschiedlichen Schnittstellen mit erprobten und stabilen Treibern zur Verfügung. Dadurch kann Linux hervorragend als Integrator zwischen unterschiedlichen Bussystemen eingesetzt werden.
Referent: Andreas Klinger | IT-Klinger

Andreas Klinger ist selbständiger Trainer und Entwickler. Seit Abschluss des Studiums der Elektrotechnik im Jahre 1998 arbeitet er im Bereich der systemnahen Softwareentwicklung mit den Schwerpunkten Treiberentwicklung, Embedded Linux und Echtzeit. Als Spezialist für Linux beschäftigt er sich mit dem internen Aufbau des Kernels, den Systemmechanismen sowie vor allem mit deren Einsatz in Embedded Systemen. ESE-Kongress-Referent 2008 bis 2018; Speaker-Award erhalten in 2011, 2014 und 2018; zahlreiche Fachartikel unter anderem im ESE-Report u. in der Elektronik-Praxis

Online-Seminar 3 - Digitale Zwillinge in 3D zum Testen von Steuerungssoftware mehr
In einem Workshop mit Theorie- und Praxisteil zeigen wir, wie Digitale Zwillinge in 3D zum Testen von Steuerungssoftware von Grund auf erstellt werden bis hin zur Anbindung und Steuerung des Digitalen Zwillings mit einer realen SPS (Hardware bzw. Software in the Loop).
Die Teilnehmer erfahren, wie Sie alle Steuerungskomponenten, für die ein Code geschrieben wird (SPS, Robotercontroller, Leitsysteme, ...), realistisch testen können, ohne dass die reale zu steuernde Maschine/Anlage vorhanden ist.
Referent: Michael Eberle | Eberle Automatische Systeme GmbH & Co KG

Michael Eberle studierte Elektrotechnik an der TU Graz und leitet bei Eberle Automatische Systeme GmbH & Co KG die Abteilung für Modellierung und Simulation. In seiner Funktion ist er unter anderem für die Entwicklung einer intelligenten Software zur Erstellung und Simulation modellbasierter digitaler Zwillinge verantwortlich.

13:00 Uhr
Mittagspause

SEMINARE NACHMITTAG

14:00 Uhr

Parallele Online-Seminare Nachmittag (Pause 15:30-16:00)
Online-Seminar 4 - Eigene Apps für die Anlagensteuerung: Mit Open Source Software die Funktionen der SPS flexibel erweitern mehr
Das Erfassen von Prozess- oder Diagnosedaten aus der Anlagensteuerung wird gerade vor der stetig voranschreitenden Digitalisierung immer wichtiger. Stichwörter wie Big Data, Predictive Maintenance oder Smart Service dominieren das Bild von der Industrie 4.0 und der Smart Factory. Diese Themen können aber nur erfolgreich angegangen werden, wenn die eigenen Prozessdaten erfolgreich aus dem eigenen Produktionsprozess bzw. der Steuerung ausgelesen und gespeichert werden können. Insbesondere das Auslesen der Prozessdaten stellt viele Unternehmen vor Herausforderungen, da SPS oder HMI-Bedienpanel nur über proprietäre Schnittstellen verfügen – für die Nutzung werden häufig Lizenzkosten fällig und es wird zusätzliche Software benötigt.
In Abhängigkeit der bisher eingesetzten Software und Geräte entstehen oft Kompatibilitätsprobleme, die Systemarchitektur wird komplexer und wartungsanfälliger. Dies hat nicht selten ein verzögertes Projekt zur Folge, das zudem auch durch erhöhte Kosten auffällig wird.
Um diesen Problemen vorzubeugen, kann der Einsatz von Open Source Software sinnvoll sein. Offene Schnittstellen, gute Dokumentation, die Verfügbarkeit von quelloffenen Bibliotheken und die Erweiterbarkeit sind nur einige nennenswerte Vorteile.
In diesem Seminar möchte ich Interessierten exemplarisch näher bringen, wie Prozessdaten mittels Open Source Software aus einer Siemens Simatic S7-1500 ausgelesen werden können und in einer relationalen Datenbank (PostgreSQL, Open Source) abgespeichert werden. Anschließend wird gezeigt, wie mit einer offenen Schnittstelle auf die Daten in der Datenbank zugegriffen wird, um diese in einer App auf einem Tablet darzustellen und verarbeiten zu können. Die Programmierung der Tablet App erfolgt mit Open Source Software und ist ebenfalls Teil des Seminars.
Referent: Johannes Kinzig | Spektrum Ingenieurgesellschaft mbH
Online-Seminar 5 - Condition-Monitoring-Anwendungen per Machine Learning realisieren mehr
Zielsetzung und Vorgehensweise klingen zunächst recht einfach: Man installiert zusätzliche Sensoren an einer Maschine oder in einer Produktionsumgebung, um in Zukunft mittels künstlicher Intelligenz (KI) den aktuellen Maschinen- bzw. Anlagenzustand so genau wie möglich zu bestimmen. Damit sollen möglichst vollständig automatisierte Entscheidungen entstehen, um ungeplante Maschinenausfälle zu verhindern. Also sammelt und speichert man mit Hilfe der neuen Sensoren zunächst einmal ein paar Daten, um so etwas wie „Big Data“ zu schaffen. Anschließend wird ein Algorithmus aus dem Umfeld der künstlichen Intelligenz eingesetzt, um die Sensordaten auszuwerten. Als Ergebnis werden weitreichende Erkenntnisse und Effizienzsteigerungen erwartet, von denen man bisher nicht einmal zu träumen wagte – soweit zumindest die Theorie.

In der Praxis läuft gerade einmal der erste Schritt (Sensoren installieren) noch relativ problemlos ab. In der Regel werden die Daten dann vor Ort oder mit Hilfe einer IoT-Cloud visualisiert. Danach kommen die meisten Vorhaben schon ins Stocken. Man versucht vielleicht noch auf einem PC oder in einer Cloud die Sensordaten an einen Machine-Learning-Algorithmus zu übergeben, kommt aber nur sehr selten zu einem verwertbaren Ergebnis. Manchmal wird dann noch ein externer Data Scientist für ein paar Tage angeheuert, der einem klarmacht, dass die Sensordaten eigentlich nicht zur Aufgabe passen oder umgekehrt.

Genau hier soll das Kompaktseminar ansetzen. Im ersten Teil wird zunächst ein Engineering-Prozess für Condition-Monitoring-Softsensoren als Einführung vorgestellt. Dabei lernen die Teilnehmer das Supervised Machine Learning und die Anwendung dieses KI-Bausteins auf an Maschinen gewonnene Sensordaten kennen.
Im Rahmen der Einführung kommen des Weiteren die wichtigsten Werkzeuge zur Sprache, um sowohl an der Edge als auch in der Cloud das maschinelle Lernen aus Sensordaten einzusetzen und per Klassifizierung und Regression verständliche und hilfreiche Ergebnisse für Condition-Monitoring-Anwendungen zu erzielen.

Im zweiten Teil des Kompaktseminars kann jeder Teilnehmer unter fachlicher Anleitung auf einem eigenen Notebook den zuvor vorgestellten Engineering-Prozess ausprobieren. Dafür werden am Demonstrator des Seminarleiters gemeinsam Sensordaten an Antriebselementen erfasst und in eine Datei geschrieben. Dann wird die Datei in eine Cloud hochgeladen. Dort kann jeder Teilnehmer mit dem eigenen Notebook per Webbrowser aus den Daten ein Machine-Learning-Modell erzeugen.
Mit diesem Modell werden anschließend auf dem Demonstrator aus in Echtzeit gewonnenen Sensordatenvektoren verschiedene Antriebszustände automatisch klassifiziert und die Ergebnisse gemeinsam analysiert sowie diskutiert.
Final wird das Zusammenspiel der einzelnen Bausteine an einer realen Condition-Monitoring-Anwendung aus der Praxis noch einmal abschließend erläutert. Dabei kommen auch die Unterschiede des Machine-Learning-Einsatzes in der Cloud und an der Edge zur Sprache.

Referent: Klaus-Dieter Walter | SSV Software Systems GmbH

Klaus-Dieter Walter ist CEO der SSV Software Systems GmbH in Hannover und durch Vorträge auf internationalen Veranstaltungen sowie Beiträge in Fachzeitschriften bekannt und hat vier Fachbücher zum Themenbereich Embedded Systeme veröffentlicht. 2007 hat er den M2M Alliance e.V. mitgegründet und war viele Jahre im Vorstand. Außerdem ist er Vorstandsmitglied des Industrieforums VHPready, um einen Kommunikationsstandard für Virtuelle Kraftwerke zu schaffen und ist seit 2012 in der Expertengruppe Internet der Dinge innerhalb der Fokusgruppe Intelligente Vernetzung des Digital Gipfel der Bundesregierung.

Online-Seminar 6 - Echtzeit, Rechtzeitigkeit und Gleichzeitigkeit – Zeitsynchronisation über Netzwerke als Grundlage von Gleichzeitigkeit mehr
Die Welt der eingebetteten Systeme und der damit gesteuerten Maschinen spricht von Echtzeit. Damit ist gemeint, dass eine Reaktion des steuernden Rechners in jedem Fall rechtzeitig sein muss, auch vorzeitig ist kein Problem, denn Verzögern kann man ja eigentlich immer.
Kann man wirklich immer verzögern, mit einfachen Mitteln? Genau das sieht im Fall einer verteilten Steuerung schon ganz anders aus, denn wenn die Reaktion – eine gezielte Ausgabe an Aktuatoren o.ä. – gleichzeitig sein soll, ist die Lösung nicht ein einfaches Warten (bei gegebener Rechtzeitigkeit), sondern ein synchrones Verzögern über Netzwerk.
Mit aufkommendem TSN-Standard und dem Versprechen, eine Uhrzeit-Synchronisation im µs- und Sub-µs-Bereich durchführen zu können, entstehen auch Wünsche zur Gleichzeitigkeit im Rahmen dieser Zeitbereiche. Die Frage, wie weit man etwa Aktivitäten in verteilten Systemen synchronisieren kann, wird ebenfalls diskutiert. Das Kompaktseminar führt in die Themen
  • Echtzeitfähigkeit, Rechtzeitigkeit, Nachweis von Echtzeit bei Multitaskingsystemen,
  • Echtzeitfähige Netzwerke,
  • Zeitsynchronisation über Netzwerke als Grundlage von Gleichzeitigkeit,
  • mögliche Sprachkonstrukte zur Definition gleichzeitiger Aktionen,
  • Hardware-Voraussetzungen für Gleichzeitigkeit im µs-Bereich
ein und versucht, einen Ausblick auf künftige Entwicklungen zu geben.
Referent: Prof. Dr. Christian Siemers | TU Clausthal

Geboren in Kiel verblieb er dort bis zum Ende des (Physik- und Mathematik-) Studiums und der Promotion. Darauf folgten einige Jahre in der Industrie, so in München bei Siemens und in Lübeck bei der Dräger AG. Seit 1993 ist er Professor an einer Fachhochschule, zunächst in Stralsund, später in Heide (Holstein), seit 2002 in Nordhausen. Sein Fachgebiet ist im Bereich der Technischen Informatik, seine besonderen Interessen liegen bei programmierbaren Systemen, Rechnerarchitektur und FPGAs, dem Hardware/Software Interface, Hardware/Software Co-Design und der hardwarenahen Softwareentwicklung. Seit 2008 ist er ständig zu 50%, aktuell zu 80% an der TU Clausthal tätig, im Bereich der Technischen Informatik sowie der Automatisierungstechnik.

17:30 Uhr
Ende des ersten Veranstaltungstages

Dienstag, 22. September 2020

08:00 Uhr
Registrierung zur Veranstaltung
08:45 Uhr
Begrüßung durch den Veranstalter

TRACK 1 VORMITTAGS

09:00 Uhr

Track 1 Vormittags
09:00 Uhr (bis 10:20): Modellierung vernetzter Eingebetteter Steuerungssysteme mit der IEC 61499 – Effiziente Entwicklung verteilte Steuerungssysteme für die Industrieautomatisierung (80 min) mehr
Diskussionen zu Industrie 4.0 auf der Steuerungsebene beinhalten stets Forderungen nach einer stärkeren Vernetzung der Steuergeräte untereinander, dezentralen autonomen Steuerungseinheiten sowie einer dynamischen Adaptivität. Dies kann nur durch wesentlich erweiterte und komplexere Steuerungsprogramme erreicht werden. Aktuelle Technologien stoßen hierbei bereits an ihre Grenzen.

Damit die Komplexität und der Aufwand für den Menschen noch beherrschbar bleibt, wurde eine domänenspezifische Modellierungssprache entworfen und im IEC 61499 Standard festgehalten. Seit 2007 steht mit Eclipse 4diac die erste vollwertige Echtzeit-Implementierung dieses Standards auf Open-Source Basis zur Verfügung und zeigt in ersten industriellen Anwendungen das Potential von IEC 61499 auf. Ziel dieses Vortrags ist es deshalb, einen Überblick über die Kernelemente der IEC 61499 zu geben und Umsetzungsmöglichkeiten von verteilten Steuerungslösungen für die Industrieautomatisierung zu beleuchten.

Inhaltliche Gliederung
Der Vortrag besteht aus folgenden Abschnitten:
• Anforderungen an Steuerungssysteme im Kontext der Industrie 4.0
• Überblick über die Kernmodelle des IEC 61499 Standards
o Der Funktionsbaustein als wiederverwendbare Softwarekomponente
o Das Applikationsmodel zur Definition von Steuerungsanwendungen unabhängig von den eingesetzten Steuerungskomponenten
o Das Systemmodel zur Beschreibung der eingesetzten Steuerungskomponenten und Kommunikationssysteme
o Verteilung der Applikation auf die Steuerungskomponenten und plattformspezifische Konfiguration
• Veranschaulichung der Modelle anhand eines praxisnahen Beispiels und dessen Umsetzung mit der Open-Source-Lösung 4DIAC
• Zusammenfassung

Nutzen und Besonderheiten
Die Teilnehmer verfügen über einen Einblick in die Anforderungen an Steuerungssysteme der Industrie 4.0 und kennen die wesentlichen Modelle und Eigenschaften der domänenspezifischen Modellierungssprache IEC 61499, um diese zu erfüllen. Es wird den Teilnehmern die Fähigkeit vermittelt, verteilte Automatisierungslösungen mit Hilfe von IEC 61499 und der Open-Source-Lösung Eclipse 4diac umzusetzen.


Referent: Prof. Dr. Alois Zoitl | Johannes Kepler Universität Linz
10:30 Uhr: Zielsystemunabhängiger modellbasierter Entwurf auf der Basis von MATLAB/ Simulink mit automatischer Code-Generierung für einen Mischprozess mehr
Auf der Basis eines zielsystemunabhängigen modellbasierten Entwurfs mit MATLAB/Simulink wird der Entwurf für einen Mischprozess vorgenommen. Für die Generierung des Quellcodes für das Zielsystem wird die Toolbox PLC Coder von MATLAB/Simulink eingesetzt, weswegen diverse Automatisierungssysteme verschiedener Hersteller eingesetzt werden können.
Exemplarisch wird im vorliegenden Fall eine SIMATIC ET 200SP Open Controller mit entsprechenden Erweiterungsmodulen (digitale und analoge Ein- und Ausgänge usw.) der Fa. Siemens eingesetzt.
Für diesen Mischprozess werden Flüssigkeiten aus drei verschiedenen Behältern in verschiedenen vorgegebenen Mischverhältnissen und Mengen dosiert und in einen Mischbehälter geleitet. Hierfür wird der Entwurf primär mittels endlicher Zustands-automaten mit einer unterlagerten Durchflussregelung durchgeführt.

Es wird der gesamte Entwicklungsprozess vom modellbasierten Entwurf inkl. der Modelle über die automatische Codegenerierung und deren Implementierung dargelegt. Abschließend werden die Vor- und Nachteile des modellbasierten Entwurfs behandelt.

Referent: Prof. Dr.-Ing. Bernd Büchau | Hochschule Stralsund
Referent: Gerald Gröbe | Hochschule Stralsund
11:15 Uhr: Architekturen für das Industrial IoT mehr
Zur Identifikation der Anforderungen mit dem größten Einfluss auf die Qualität eines System wird eine einfache Klassifikation betrachtet. Diese Anforderungen sind die Architekturtreiber und müssen bereits am Anfang der Entwicklung berücksichtigt werden. Sie prägen die Architektur, indem weitreichende Entscheidungen auf dieser Basis getroffen werden.
Im Vortrag wird eine in der Praxis erprobte Vorlage zur Dokumentation von Entscheidungen vorgestellt. Die Umsetzung erfolgt auf der Architekturebene durch zu den Anforderungen passende Architekturmuster (wie zum Beispiel Schichtenarchitektur).
Die Entscheidungen und die resultierende Architektur müssen in geeigneter Form dokumentiert werden. Dazu sind Architekturmodelle gut geeignet, auch als wichtiges Vehikel zur Kommunikation im Entwicklungsteam.

Das lernen die Teilnehmer im Vortrag:

  • Klassifikation von Anforderungen
  • Dokumentation von Design-Entscheidungen
  • Nutzen von Architekturmodellen

Referent: Dr. Andreas Angerer | XITASO GmbH

Dr. Andreas Angerer studierte Software Engineering an der Universität Augsburg, der TU München und der LMU München. In seiner Promotion an der Universität Augsburg beschäftigte er sich über mehrere Jahre intensiv damit, wie industrielle Steuerungstechnik von modernem Software Engineering profitieren kann. Bei XITASO ist Andreas Angerer als Head of Research & Innovation für die Zusammenarbeit mit internationalen Partnern aus Wissenschaft und Wirtschaft in Spitzentechnologiebereichen verantwortlich.

TRACK 2 VORMITTAGS

09:00 Uhr

Track 2 Vormittags
09:00 Uhr: Gleichzeitigkeit durch streng synchrones Netzwerk mehr
Der Beitrag diskutiert die Möglichkeiten zur Realisierung von Gleichzeitigkeit in verteilten Automatisierungssystemen im Fall eines streng synchronen Netzwerks.
Hierunter ist zu verstehen, dass eine (konstante) Anzahl von Knoten durch ein synchronisiertes Netzwerk (gleichzeitige Übertragung von Clock und Daten) so eng miteinander gekoppelt werden, dass ein konstanter Zeitoffset der Informationen zwischen den Knoten gegeben ist.Dieser bekannte Zeitoffset zwischen den Knoten kann in Richtung Gleichzeitigkeit nur minimalen Abweichungen korrigiert werden.

Das Paper stellt das Verfahren sowie die erreichbare Unsicherheit in der Gleichzeitigkeit vor.


Referent: Prof. Dr. Christian Siemers | TU Clausthal

Geboren in Kiel verblieb er dort bis zum Ende des (Physik- und Mathematik-) Studiums und der Promotion. Darauf folgten einige Jahre in der Industrie, so in München bei Siemens und in Lübeck bei der Dräger AG. Seit 1993 ist er Professor an einer Fachhochschule, zunächst in Stralsund, später in Heide (Holstein), seit 2002 in Nordhausen. Sein Fachgebiet ist im Bereich der Technischen Informatik, seine besonderen Interessen liegen bei programmierbaren Systemen, Rechnerarchitektur und FPGAs, dem Hardware/Software Interface, Hardware/Software Co-Design und der hardwarenahen Softwareentwicklung. Seit 2008 ist er ständig zu 50%, aktuell zu 80% an der TU Clausthal tätig, im Bereich der Technischen Informatik sowie der Automatisierungstechnik.

09:45 Uhr: Messung des Zeitverhaltens beim Hardwarezugriff im Betriebssystem Linux mehr
Agenda:
  • Toggeln von GPIO und Messung mit Oszilloskop:
  • Raw-Registerzugriff
  • Linux-Kernel-Treiber
  • Userspace-Applikation
  • Versenden von I2C-Telegrammen:
  • Rechenzeit im Kernel
  • eigentliche Übertragungszeit
  • Antwortzeit auf einen Interrupt:
  • Antwortzeit von der ISR über Applikation zurück zur Hardware
  • Vergleich mit / ohne Echtzeit-Erweiterung
  • Auswirkungen der Kernelkonfiguration auf das Zeitverhalten?
  • Debugging- und Tracing-Features
  • Preemption
  • Schlussfolgerungen:
  • Welche Aufgaben können mit Linux durch das Betriebssystem erledigt werden und was gehört in die Hardware?
  • Wo geht die Zeit verloren?

Referent: Andreas Klinger | IT-Klinger

Andreas Klinger ist selbständiger Trainer und Entwickler. Seit Abschluss des Studiums der Elektrotechnik im Jahre 1998 arbeitet er im Bereich der systemnahen Softwareentwicklung mit den Schwerpunkten Treiberentwicklung, Embedded Linux und Echtzeit. Als Spezialist für Linux beschäftigt er sich mit dem internen Aufbau des Kernels, den Systemmechanismen sowie vor allem mit deren Einsatz in Embedded Systemen. ESE-Kongress-Referent 2008 bis 2018; Speaker-Award erhalten in 2011, 2014 und 2018; zahlreiche Fachartikel unter anderem im ESE-Report u. in der Elektronik-Praxis

10:30 Uhr: Vereinfachung der Sicherheitsentwicklung durch die Integration fertiger modularer Sicherheitsfunktionen mehr
Beispiele für produktspezifische Sicherheitsnormen in der Industrieautomatisierung sind:
  • IEC61800-5-2: Sie beschreibt die heute so gefragten Sicherheitsfunktionen für elektrische Antriebe.
  • IEC 10218-1: Sie beschreibt die Anforderungen an Sicherheitsfunktionen für Roboter.
Viele Hersteller von Geräten der Industrieautomatisierung wie Antriebsregler oder Robotersteuerungen stehen damit vor großen Herausforderungen. Während namhafte deutsche Anbieter, die schließlich selbst an den Normen mitgearbeitet haben, selbstverständlich längst solche normgerechten Funktionen integriert haben, bleiben kleinere und international beheimatete Unternehmen allein gelassen. Denn der Aufbau der Prozesse und des spezifischen Knowhows für Safety-Entwicklungen sind Mammutaufgaben und häufig in der Kultur der Unternehmen schwer realisierbar.

Methoden: Integration fertiger modularer Sicherheitsfunktionen
Mit der Integration von bereits fertig entwickelten Sicherheitsfunktionen entfallen aufhaltende Faktoren wie hohe Kosten und Zeit für eine Eigenentwicklung. Kleineren und internationalen Unternehmen wird also mit dieser Lösung der Zugang zu Sicherheitsfunktionen ermöglicht.
Bevor die Prüfer vom TÜV o.ä. auf solche Lösungen ihren Stempel drücken, ist jedoch notwendig, dass auch die Integration fertiger Sicherheitsfunktionen in Produkte fachgerecht und mit der notwendigen Sorgfalt ausgeführt und durch Tests und Dokumentation nachgewiesen wird. Hier ist ein großes Potenzial für vereinfachte digitalisierte Prozesse zu sehen.

Ergebnisse: Trotz der Herausforderungen wagen wir die Hypothese, dass in wenigen Jahren leistungsfähige Sicherheitsfunktionen überall auf der Welt zur Standardausstattung gehören werden. Dazu sehen wir zwei Faktoren:
1. Der Marktdruck: Kunden der Antriebstechnik sowie der Robotertechnik werden nur noch sichere Technik einsetzen, schließlich ist diese bereits verfügbar. Sowohl die europäische Maschinenrichtlinie wie auch die US-amerikanische Schadensersatz-Rechtsprechung drängen die Anwender schlicht in die Richtung.
2. Die Vereinfachung der Sicherheitstechnik: Hier sehen wir großes Potenzial durch die Multiplikation der bereits vorliegenden Lösungen und die Digitalisierung der Prozesse.

Fazit: In wenigen Jahren werden Funktionen, die heute noch aus der Hand nur weniger großer Anbieter verfügbar sind, quasi für alle günstig verfügbar werden. Sogar Open Source für Safety-Funktionen ist in Zukunft denkbar.

Referent: Peter Brinkmann | Brinkmann Electronic Berlin GmbH

Brinkmann Electronic Berlin GmbH (BEL) ist ein junges Dienstleistungsunternehmen für Elektronik- und Embedded Software-Entwicklung. Schwerpunkte liegen in der industriellen Automatisierung und im Internet of Things (IoT). Das Team bietet langjährige Erfahrung der funktionalen Sicherheit sowie in der Datensicherheit für Kommunikationslösungen. BEL bedient Kunden über den Lebenszyklus von der Beratung und Spezifikation bis zu Serienlieferung und Produktbetreuung.

11:15 Uhr: With a little help from my cloud: Wie Industrie 4.0 beim Software-Engineering unterstützt mehr
Beim Thema Industrie 4.0 denken meist alle an Big Data, Künstliche Intelligenz oder Machine Learning. Aber auch das herkömmliche Engineering von Steuerungsapplikationen kann unmittelbar von der Cloud-Anbindung profitieren.
Einige Stichwörter:
  • Social Coding: Statt auf dem heimischen PC oder Server lassen sich Projekte in Quellcode und kompilierte Applikationen in der Cloud hinterlegen. Was für die eigenen Fotos, Dokumente und Musik nützlich ist, unterstützt auch die Arbeit mit IEC-61131-3-Projekten. Voraussetzung dafür ist eine geeignete Server-Infrastruktur. Ist diese gegeben, so kann der Quell- und der Binärcode per Cloud einfach mit berechtigten Entwicklern geteilt werden.
  • Remote Debugging ohne zusätzliche Infrastruktur: Um einen Fernzugriff via Internetanbindung auf die SPS zu realisieren, muss man sich heute erst mal selbst um eine sichere Infrastruktur kümmern, z. B. per VPN-Verbindung oder verschlüsselter Datenkommunikation. Ist dagegen die SPS bereits an einen geeigneten Cloudserver angebunden, so nutzt man die dafür ohnehin eingerichtete Datenanbindung sofort, um sich in die Steuerung einzuloggen – mit der ganzen bereits bestehenden Absicherung.
  • Zusatztools zur Qualitätsverbesserung: Solche Tools sind heute meist als Plug-In für die Entwicklungsplattformen verfügbar. Mittelfristig könnten sie aber auch als Softwaredienste in der Cloud beim Engineering unterstützen. Und das ohne, dass man sich selbst um Rechnerstruktur, Installation oder Updates kümmern muss.
  • Komplette Entwicklungsumgebung in der Cloud: Diese Aussicht ist reizvoll und auch sinnvoll. Doch ist es für Anwender ideal, wenn sie beide Möglichkeiten parallel nutzen können: Eine Installation der Entwicklungsumgebung auf dem lokalen PC UND in der Cloud. So ist man beim Engineering je nach Situation unabhängig von der Internetverbindung oder auch einer lokalen Installation.
Diese Stichwörter zeigen bereits, wie man beim Engineering unmittelbar von Industrie 4.0 profitieren kann. Im Rahmen des Vortrags werden einige Aspekte dieses Nutzens anhand des CODESYS Automation Servers, einer cloudbasierten Administrationsplattform, live vorgeführt.
Referent: Roland Wagner | CODESYS GmbH

Roland Wagner ist seit 1999 bei 3S-Smart Software Solutions tätig, die 2020 in die CODESYS GmbH übergangen ist. Seit einigen Jahren ist er verantwortlich für das Produktmarketing des Unternehmens. Durch häufige Teilnahme an Kongressen und Vortragsveranstaltungen sowie zahlreiche Publikationen in Fachzeitschriften ist er als Redner und Autor in Automatisierungs-Fachkreisen bekannt. Seine CODESYS-Seminare zeichnen sich durch hohe Praxisrelevanz und breite Fachkenntnis aus.

12:00 Uhr
Gemeinsame Keynote ASE & i-edge: Maschinelles Lernen on-the-edge: Alles andere als Stand der Technik
Referent: Prof. Dr. Oliver Niggemann | Universität der Bundeswehr Hamburg

Oliver Niggemann studierte Informatik an der Universität Paderborn, wo er 2001 mit dem Thema „Visual Data Mining of Graph-Based Data“ promoviert wurde. Anschließend arbeitete er als Software-Entwickler bei der Firma Acterna in der Telekommunikationsbranche. Bis 2008 war als Lead-Produktmanager bei der Firma dSPACE tätig. Niggemann war aktiv im AUTOSAR-Gremium und bis 2008 Beiratsvorsitzende des s-labs der Universitat Paderborn. 2008 folgte Niggemann dem Ruf auf die neu eingerichtete Professur für Technische Informatik an der Hochschule Ostwestfalen-Lippe, wo er das Labor für „Artificial Intelligence in Automation“ leitete. Von 2008 bis 2019 war er Vorstandsmitglied des Instituts für industrielle Informationstechnologien (inIT). Bis 2019 war Niggemann auch stellv. Leiter des Fraunhofer IOSB-INA Institutsteil für industrielle Automation. Am 1. April 2019 übernahm Niggemann die Universitätsprofessur „Informatik im Maschinenbau“ an der Helmut-Schmidt-Universität der Bundeswehr Hamburg. Dort forscht er am Institut für Automatisierungstechnik im Bereich der Künstlichen Intelligenz und des Maschinellen Lernens für Cyber-Physische Systeme.

12:45 Uhr
Mittagspause

TRACK 1 NACHMITTAGS

13:45 Uhr

Track 1 Nachmittags
13:45 Uhr: Von der Hochsprachenprogrammierung lernen: Methodische Entwicklung von IEC-61131-3-Software-Applikationen mehr
Nach der Hardware-Konfiguration eines neuen Steuerungsprojekts beginnen Applikationsentwickler oft sofort mit der Programmierung des Logikprogramms der Maschine und Anlage. Allerdings ist dieses „Coding“ nur ein Aspekt der Software-Entwicklung. Probleme bei Inbetriebnahme, produktivem Betrieb und Updates können die Ursache darin haben, dass die Projektierung eine methodisch-strukturierte Vorgehensweise vermissen lässt.
In der Entwicklung von Softwareprojekten im IT-Umfeld haben sich methodische Zwischenschritte für das Coding bewährt.
  • So macht es Sinn, sich den Ablauf des Prozesses erst einmal unabhängig vom Programmcode zu überlegen und mit dem verantwortlichen Technologen durchzusprechen. Ein UML-Zustandsdiagramm kann helfen, ein gemeinsames Verständnis herbeizuführen.
  • Insbesondere bei größeren und komplexeren Projekten ist es unabdingbar, dass mehrere Entwickler an einer Applikation arbeiten. Versions¬verwaltungs-systeme wie Subversion oder Git vereinfachen die Zusammenarbeit auf einer gemeinsamen Projektbasis, ohne sich gegenseitig ins Gehege zu kommen.
  • Bereits während der Programmierung der Applikation ist es hilfreich, die Laufzeiten des erzeugten Binärcodes kontinuierlich zu überprüfen. So lassen sich sprunghafte Ausreißer frühzeitig detektieren und eingreifen, wenn die Applikation die Leistungsdaten der geplanten Steuerung zu sprengen drohen.
  • Ein umfangreiches Code-Review, also eine Prüfung des Programmcodes auf kritische Passagen, hilft spätere Probleme zu vermeiden. Solche syntaktisch korrekten Codestellen erzeugen zwar keine Übersetzungsfehler, können dennoch zur Laufzeit oder beim Update für ein ungewolltes Verhalten und falschen Programmablauf sorgen. Zusatztools erledigen solche Aufgaben und erübrigen das bewährte, aber doch meist lästige „4-Augen-Prinzip“.
  • Ist die Programmierung abgeschlossen, dann ist eine strukturierte Überprüfung des Applikationscodes dringend anzuraten. Manuell durchgeführt ist das eine mühsame und undankbare Aufgabe. Insbesondere, wenn der Programmcode aufgrund von Updates und Weiterentwicklungen immer wieder überprüft werden muss. Testautomatisierung erspart hierbei einen enormen Aufwand.
Im Rahmen des Vortrags auf dem ASE-Kongress wird gezeigt, wie solche Methodiken bei der Applikationsentwicklung von IEC-61131-3-Steuerungsprojekten genutzt werden können. Anhand der marktführenden Entwicklungsumgebung CODESYS wird gezeigt, wie integrierte Zusatztools aussehen können und sich benutzen lassen.

Referent: Martin Decker | CODESYS GmbH
14:30 Uhr: Code Smells: Stinkt Ihr SPS-Code? Wie Sie Stinker finden und beseitigen
Referent: Roland Wagner | CODESYS GmbH

Roland Wagner ist seit 1999 bei 3S-Smart Software Solutions tätig, die 2020 in die CODESYS GmbH übergangen ist. Seit einigen Jahren ist er verantwortlich für das Produktmarketing des Unternehmens. Durch häufige Teilnahme an Kongressen und Vortragsveranstaltungen sowie zahlreiche Publikationen in Fachzeitschriften ist er als Redner und Autor in Automatisierungs-Fachkreisen bekannt. Seine CODESYS-Seminare zeichnen sich durch hohe Praxisrelevanz und breite Fachkenntnis aus.

15:15 Uhr: Steuerungssoftware auf Knopfdruck – Softwareautomatisierung im Maschinen- und Anlagenbau mehr
Im Maschinen- und Anlagenbau entwickeln Unternehmen häufig Anlagen, die zwar kundenindividuell angepasst werden, aber zu großen Teilen aus ähnlichen Teilsystemen bestehen. Der Steuerungscode dieser Anlagen wird dabei typischerweise nicht auf Basis anerkannter Softwaretechnik-Methoden entwickelt und nur unsystematisch wiederverwendet.Eine zentrale Herausforderung ist daher, wie die Effizienz der Softwareentwicklung gesteigert und gleichzeitig die Qualität des Steuerungscodes gesichert werden kann.

Dieser Vortrag stellt ein Stufen-Modell für die Verbesserung der Softwareentwicklung im Maschinen- und Anlagenbau vor. Insbesondere wird die Einführung standardisierter Softwarebausteine thematisiert, um zum einen Fehler frühzeitig projektübergreifend zu beheben und zum anderen die Entwicklung neuer Produkte durch die systematische Wiederverwendung von Softwarebausteinen zu beschleunigen.
Referent: Thorsten Koch | Fraunhofer IEM

Thorsten Koch ist wissenschaftlicher Mitarbeiter im Forschungsbereich Softwaretechnik & IT-Sicherheit des Fraunhofer IEM in Paderborn. Seit 2014 leitete und bearbeitete er verschiedenste Projekte mit Forschungs- und Industriepartnern, u.a. aus dem Maschinen- und Anlagenbau, zu den Themenfeldern modellbasierte Softwareentwicklung und Security by Design.

16:00 Uhr: Mit Git Zeit sparen und Sicherheit gewinnen: Wie Sie die drei häufigsten Fehler bei der Verwendung der Quellcodeverwaltung git vermeiden mehr
Welche speziellen Anforderungen hat die Embedded-Software-Entwicklung an eine Quellcodeverwaltung und wie können diese am besten praktisch umgesetzt werden? Antworten darauf gibt es anhand von Case Studies und daraus abgeleiteten Best-Practises.
Außerdem werden die drei häufigsten Fehler und deren Vermeidung erläutert, z.B. wie vermeide ich doppelten Quellcode bei mehrfach genutzten Modulen.

Art der Vermittlung: Vortrag und Case Studies mit daraus abgeleiteten Best-Practises
Nutzen: Effizienter und sicher mit git arbeiten und Ideen für einen möglichst einfachen Git Workflow sowie ein fehlerfreies Releasemanagement erhalten. Die Quellcodeverwaltung git als Hilfe und Unterstützung und nicht als notwendiges Übel kennenlernen.
Referent: Stefan Munz

TRACK 2 NACHMITTAGS

13:45 Uhr

Track 2 Nachmittags
13:45 Uhr: Entwickeln und Testen von Automatisierungssystemen der Zukunft mehr
  • Wie verändern sich Produktionsmaschinen?
  • Wie verändert sich die Steuerungssoftware?
  • Warum ganzheitliches Testen von Steuerungssoftware notwendig wird
  • Der Digitale Zwilling und Simulation in 3D
Referent: Michael Eberle | Eberle Automatische Systeme GmbH & Co KG

Michael Eberle studierte Elektrotechnik an der TU Graz und leitet bei Eberle Automatische Systeme GmbH & Co KG die Abteilung für Modellierung und Simulation. In seiner Funktion ist er unter anderem für die Entwicklung einer intelligenten Software zur Erstellung und Simulation modellbasierter digitaler Zwillinge verantwortlich.

14:30 Uhr: Schnell zu sicheren Anwendungen: Ein Safety-Baukasten für das IIoT-Zeitalter mehr
Der funktionalen Sicherheit gehört die Zukunft: Sie kommt in immer mehr Bereichen zur Anwendung, von der Windenergie bis hin zu Elektrowerkzeugen. Viele Hersteller stehen daher vor der Herausforderung, (zusätzliche) Sicherheitsfunktionen in ihre Komponenten und Anwendungen zu integrieren. Zudem soll diese Sicherheit heute möglichst ‘smart‘ sein, d. h. über ein einfaches Stromlos-Schalten oder Zuhalten einer Tür hinausgehen.
Referent: Axel Helmerth | ISH GmbH
Referent: Heinrich Steininger | logi.cals GmbH
15:15 Uhr: Test the Test – Automatische Qualitätsprüfung von Testfällen durch Mutationstests mehr
Die Entwicklung sicherheitskritischer Systeme erfordert gemäß den gängigen Sicherheitsstandards genau definierte funktionale und nicht-funktionale Tests – sowohl unter normalen als auch unter ungewöhnlichen Bedingungen. Die Qualität der Tests ist entscheidend für eine sichere Embedded-Applikation.
Leider kann die Einhaltung der Methoden gemäß den Normen und die Qualität der Tests nur in einem manuellen Review geprüft werden. Mit Hilfe von Mutationstests lässt sich bei vorhandenen Testfällen die Tauglichkeit einer Fehlererkennung automatisch prüfen – damit sind sie ein geeignetes Werkzeug für das Prüfen der Qualität der Testfälle.

Die Idee hinter den Mutationstests von Testfällen ist, absichtlich Fehler in die Software einzubringen und diese mutierte Software dann den Tests zu unterziehen. Im Falle einer Embedded-Anwendung wird der zu testende C/C++-Code leicht verändert („mutiert“), so dass typische Programmierfehler vorliegen. Wenn die eingesetzten Unit- und Integrationstests die Mutation erkennen, werden sie als „nützlich“ bewertet. Diese Methode deckt schwache Testfälle auf und gibt Hinweise, wo die Testfälle verbessert werden können. Das hilft dabei, eine bessere Testqualität zu erreichen und damit die Anforderungen der Standards zu erfüllen.

Inhaltliche Gliederung
  • Aktuelle Ansätze
  • Was prüft ein Test tatsächlich?
  • Wurden alle Ausgangswerte wirklich berechnet oder sind sie nur zufällig?
  • Erkennt ein Test unbeabsichtigte Codeänderungen?
  • Begriffe und Definitionen für Mutationstests
  • Wirksamkeit von Mutationstests
  • Probleme und Herausforderungen
  • Mutationstests in Normen
Referent: Michael Wittner | Razorcat Development GmbH

Dipl.-Inform. Michael Wittner ist seit vielen Jahren im Bereich Software-Entwicklung und Test tätig. Nach dem Studium der Informatik an der TU Berlin arbeitete er als wissenschaftlicher Mitarbeiter der Daimler AG an der Entwicklung von Testmethoden und Testwerkzeugen. Seit 1997 ist er geschäftsführender Gesellschafter der Razorcat Development GmbH, dem Hersteller des Unit-Testtools TESSY und CTE sowie des Testmanagement-Tools ITE und der Testspezifikationssprache CCDL.

16:00 Uhr: The Pursuit of Perfection – An Effective Embedded Unit Test Process for Efficient Testing mehr
As Embedded software developers, our focus is to accelerate and improve software development in the pursuit of perfection. In this session we will look at elements that come together to make a successful, fully tested, embedded application. Important aspects discussed include requirements traceability, software metrics, testing frameworks, code coverage and automation.
Abstract: A specialist lecture on methods, techniques and tools to achieve robust embedded testing.
It’ll never happen in the field
Optimise later
Perfection is the enemy of good
It’s good enough


Every developer has heard at least one of these phrases. I’m sure you have. You may have even used them yourself. They hold some truth for developers of enterprise or front-end software. However, if you have used these in embedded software, you are very wrong.
Flawless embedded software is important in many industries… Embedded code underpins everything; it’s the fundamental layer of all devices. All other software - middleware logic, databases, web servers, user interfaces - everything depends on a functioning bottom layer of software.
And in the top layer of software - and with all due respect to those who attempt to get it right - it rarely matters if the pixels are out in the user interface, or it’s the wrong colour. It doesn’t affect the functionality of the software.

As Embedded software developers, our focus is to accelerate and improve software development in the pursuit of perfection. In this session we will look at elements that come together to make a successful, fully tested, embedded application. Important aspects discussed include requirements traceability, software metrics, testing frameworks, code coverage and automation. An outline of the topics covered is included…

Referent: Adam Mackay | QA Systems GmbH
17:00 Uhr
Ende des zweiten Veranstaltungstages

Mittwoch, 23. September 2020

08:00 Uhr
Registrierung der Teilnehmer
08:45 Uhr
Begrüßung durch den Veranstalter
09:00 Uhr
Digitaler Zwilling, Drilling oder doch ein HMI? mehr
Was wäre, wenn es einen Digitalen Zwilling meines Produkts gäbe? In diesem Vortrag geht es um die Verwirklichung von Visionen. Darum, wie man aus einem disruptiven Impuls ein konkretes Projekt initiiert und umsetzt.
Am Beispiel eines Weltmarktführers im Bereich Maschinen und Anlagenbau mit Schwerpunkt Förder und Verarbeitungslogistik gehen wir auf die Voraussetzungen und Chancen ein, die ein Digitaler Zwilling mit sich bringt. Dabei beleuchten wir neue Use Cases, gänzlich neue Geschäftsmodelle und wie diese gewinnbringend umgesetzt werden können.

Referent: Jannes Rühmann | UXMA
09:45 Uhr
Zeit für Engineering 4.0 – Automatisierung für das industrielle Internet der Dinge mehr
Im Bereich automatisierter Produktionssysteme (aPS) ist Softwaremodularität eine entscheidende Grundvoraussetzung für Unternehmen, um die aktuellen Herausforderungen in der Automatisierungstechnik zu meistern und wettbewerbsfähig zu bleiben. Aus vorangegangenen Codeanalysen in der Industrie geht jedoch hervor, dass Unternehmen in der Automatisierungstechnik immer noch Schwierigkeiten haben, Software gezielt wiederzuverwenden sowie geeignete Softwarehierarchien für individuelle Randbedingungen zu definieren und umzusetzen. Dazu werden in der Informatik u.a. Softwaremetriken genutzt, um bestimmte Eigenschaften der Software zu quantifizieren und somit auf einer objektiven Basis Schwachstellen zu identifizieren. In der Automatisierungstechnik hingegen finden solche Metriken bisher nur wenig Anwendung: Software in aPS geht mit bestimmten Randbedingungen einher wie beispielsweise harten Echtzeitanforderungen, Einflüssen aus anderen Disziplinen (z.B. Elektrotechnik oder Mechanik) oder der Verwendung spezieller Programmiersprachen, die durch die Norm IEC 61131-3 definiert sind. Diese Randbedingungen werden von etablierten Metriken aus der Informatik nicht berücksichtigt. Folglich ist es Ziel dieses Beitrags, aufzuzeigen, wie geeignete Metriken für Software in aPS definiert werden können und welche Vorteile die Anwendung von Metriken in Bezug auf die Softwarequalität mit sich bringen. Konkret werden dazu Metriken vorgestellt, die speziell für die Anwendung in der Automatisierungstechnik konzipiert wurden, sowie die Ergebnisse aus entsprechenden Industrieevaluationen.
In einer vorangegangenen Arbeit wurde bereits untersucht, wie mit Hilfe einer Metrik die Reife eines Softwaremoduls bestimmt werden kann, um ein objektives Maß für die Wiederverwendbarkeit eines Bausteins abzuleiten. Darauf aufbauend wurde die Metrik im Rahmen einer Evaluation an Industriecode erweitert und optimiert mit dem Ziel, besonders kritische Bausteine zu identifizieren, die ggf. individuell getestet werden sollten. Außerdem werden die Ergebnisse einer weiteren Metrik vorgestellt, die für die Anwendung auf Funktionsbausteinsprache (FBD) entwickelt wurde – eine graphische, netzwerkbasierte Sprache der IEC 61131-3, die in aPS häufig zum Einsatz kommt. Ziel der Metrik ist die Bestimmung der strukturellen Komplexität von Netzwerken. Die resultierende Metrik wurde in Kooperation mit einem Unternehmen aus der Verpackungsindustrie evaluiert, das die Ergebnisse nutzt, um besonders komplexe Netzwerke zu identifizieren und diese – wenn möglich – nachzubessern. Darüber hinaus wird derzeit im Rahmen eines aktuellen Forschungsprojektes des Lehrstuhls AIS in Zusammenarbeit mit Schneider Electric zum Thema Softwarearchitekturen in aPS untersucht, wie bestimmte Einflussfaktoren auf die Architektur mit Hilfe von Metriken quantifiziert werden können. Die Ergebnisse sowie die Vorteile für potentielle Anwender dieser Metriken werden vorgestellt. Zudem werden die Vorteile einer cloud-basierten Codeanalyse präsentiert, die es ermöglicht, Metrikergebnisse einerseits zu visualisieren und andererseits die analysierten Daten zu nutzen, um Änderungen von Qualitätsattributen während eines bestimmten Zeitraums zu identifizieren und Trends zu erkennen.

Das lernen die Teilnehmer im Vortrag:

  • Herausforderungen und Strategien zur objektiven Qualitätsbewertung von IEC 61131-3 Steuerungssoftware
  • Vorteile und Chancen durch cloud-basierte Codeanalyse

Referent: Marcus Mittermayr | logi.cals GmbH
10:30 Uhr
Sigfox 0G-Netz in der digitalisierten Fabrik 4.0 mehr
Software Architektur ist eine anerkannte Disziplin des System und Software Engineerings. Software Architektur legt das Fundament für eine effiziente und nachhaltige Software-Entwicklung. Veraltete Architekturmodelle stellen ein Risiko für die Modelle selbst und den Erfolg des Projekts insgesamt dar. Durch den Einsatz hierarchischer Reflexionsmodelle gleicht die Axivion Suite kontinuierlich das Architekturmodell mit seiner Implementierung ab, so dass die Architekturmodelle ihre Hebelwirkung auf die Qualität der Systemstrukturen über den gesamten Lebenszyklus des Systems hinweg entfalten können.
Continuous Refactoring: In den vergangenen Jahrzehnten entwickelten sich die Vorgehensmodelle von wasserfallartigen Entwicklungsprozessen hin zu agilen Ansätzen. Diese agilen Ansätze versprechen ein flexibles, schnelles und nutzerorientiertes Vorgehen. Durch mehrere Iterationen in der Software-Entwicklung wurde die Idee des “Refactorings” populär.
Refactoring vereinfacht zukünftige Entwicklungszyklen durch die Verbesserung der inneren Qualität der Software unter gleichzeitiger Beibehaltung der Funktionalität für den Endnutzer. Dadurch kann man die Komplexität einer Software einige Zeit oder Iterationen lang anwachsen lassen und dabei akzeptieren, dass Software Erosion (auch bekannt als technische Schulden und “software decay”) entsteht. Diesen Effekten muss man durch explizit geplante Aufräumschritte entgegentreten. Aufräumaktionen werden typischerweise kurz bevor oder nach einem Produktionsrelease eingeplant. Auch wenn dieser Ansatz des “software gardenings”, inspiriert durch die Idee des Wachsenlassens und Zurückschneidens (“grow and prune”), faszinierend klingt, geht er in der Praxis kaum auf, denn “das Release ist morgen/war gestern, daher …”
  1. Zeit – “… haben wir jetzt nicht die Zeit fürs Aufräumen.”
  2. Risiko – “… wollen wir keine neuen Fehler einführen.”
  3. Budget – “…warum sollten wir etwas ändern, was der Endnutzer nicht einmal wahrnimmt?”
Die Lösung für solche frustrierenden und fruchtlosen Diskussionen ist ein kontinuierlicher Refactoring-Ansatz. Durch Continuous Refactoring auf einer täglichen Basis werden Zeit, Risiko und Budget viel einfacher einzuschätzen und damit akzeptabel. Anstatt darauf zu warten, dass Software erodiert und erst dann darauf zu reagieren, agiert man sofort und direkt bevor die Erosion ihren Preis fordert. Erfahrung und Forschung zeigen, dass eine aktuelle und erosionsfreie Software Architektur ein großer Hebel für die Produktivität ist. Idealerweise ist daher die Software Architektur ein Ansatzpunkt für Continuous Refactoring.

Das lernen die Teilnehmer im Vortrag:
  1. Warum Architekturen eine wichtige Rolle spielen
  2. Wie Architekturen "lebendig" werden
  3. Wie Architekturen effektiv genutzt werden können

Referent: N. N. | Sigfox Germany GmbH
11:15 Uhr
Sind Industrie 4.0 und IoT wirklich disruptive? mehr
Eingeleitet wird der Vortrag über die Einführung der sogenannten 4. Revolution in der bereits von Anfang an alle mitwirken wollten, obwohl die meisten davon keine Ahnung hatten. Entstanden ist ein Buzzword Bingo, das seinesgleichen in der Technik Historie sucht.
Aber dann entstanden die sehr zentralen Referenzdokumente:

  • Referenzarchitektur Industrie 4.0 (RAMI4.0)
  • Industrial Internet Reference Architecture (IICRA)
Sie führten zu einem einheitlichen Verständnis, das eine wichtige Voraussetzung für die weitere Entwicklung darstellte.
Mit den Kommunikationsstandards OPC UA für Industrie 4.0 und DDS für IIoT wurde es dann zwar greifbar, aber auch mit vielen Problemen. Der Vortrag zeigt hier die technologischen Ansätze mit den jeweiligen Vor- und Nachteilen. Daraus wird es dann aber nachvollziehbar, warum und wie sich diese Standards weiterentwickelt haben und auch weiter entwickeln werden.
Den dritten technologischen Ansatz bilden die Cloud basierten Technologien. Sie gewinnen zunehmend an Bedeutung, unterscheiden sich aber auch von den bereits vorgestellten Kommunikationsstandards.
Der letzte Teil des Vortrags zeigt nun Vorgehensweisen in einer Brownfield Umgebung, die im Spannungsfeld vorgestellter Technologien, trotzdem eine erfolgreiche Digitalisierung ermöglichen.
Referent: Robert Schachner | Embedded4You e.V.
12:00 Uhr
Gemeinsame Keynote ASE & i-edge: How a Cloud/Edge paradigm is disrupting the Automation Industry and why Software is a key Success Driver mehr
In the past decade, software-driven innovations, such as AI and machine learning, have revolutionized the information technology used in other areas of business and society. The result is an automation gap that creates barriers to unleashing the step-change productivity improvements that manufacturers aspire to achieve. Cloud/Edge computing as bridging technology enables true, enterprise ready, software
defined shopfloor solutions. In this talk we discuss Six Key Ingredients of Shop-Floor Automation, or, how can manufacturers and automation providers use edge computing and cloud paradigms to enhance productivity on the shop floor?
Referent: Johannes Boyne | Boston Consulting Group
12:45 Uhr
Mittagspause
13:45 Uhr
Prozess- und Maschinen-Regelung mittels AI basiertem Closed Loop Controller – Moderne Automatisierungstechnik durch künstliche Intelligenz mehr
Moderne Automatisierungstechnik durch künstliche Intelligenz.
Vorstellung eines Entwurf Musters für einen AI basierten Closed Loop Controllers, der vom geschlossenen Wirkungskreis ähnlich zu einem PID Controller ist. Der neue AI Controller dient der Erweiterung der bisherigen Automatisierung. Er muss ähnlich wie der PID Controller parametriert werden, allerdings auf eine völlig neue Art und Weise.
Inhalt des Vortrags sind das Wirkprinzip des AI Controllers als auch dessen neuartige Parametrierung. Vorgestellt wird zunächst das allgemeine Entwurfsmuster zur Erstellung einer AI basierten Regelung. Sie basiert auf Methoden des Reinforcement- sowie des Supervised- Learning. Die Motivation zur Erstellung eines funktionalen Digital Twins des Prozesses oder der Maschine wird im Zusammenhang mit dem AI Closed Loop Controller thematisiert.
Der AI Controller ist so allgemein anwendbar, dass das Optimierungsziel fast beliebig sein kann. Es muss jedoch elektronisch erfassbar sein. Beispielsweise: Energie minimieren oder Durchsatz maximieren oder Qualität maximieren oder…
Während des Vortrags wird neben den Grundlagen zum Verständnis des AI Controllers auch auf die Tools „graphicx.ai und graphicx.io“ eingegangen. Diese sind so konzipiert, dass sie ohne weiterführende Programmierung der zugrunde liegenden Machine Learning Verfahren benutzt werden können.
Zielgruppe und Anwender des AI-Controllers sind interessierte Ingenieure, die die zu optimierende Anlage oder Maschine kennen und den Wunsch haben diese in verschiedenste Richtungen zu optimieren.

Referent: Christoph Voigt | Recogizer Analytics

Christoph Voigt ist IoT & AI Solution Manager von Recogizer Analytics. Er implementiert mit Kunden gemeinsam den neuartigen AI Controller, den man sich stark vereinfacht als eine AI basierte Weiterentwicklung eines PID Controllers mit geschlossenem Wirkungskreis vorstellen kann. Christoph Voigt ist Diplom Ingenieur der Elektrotechnik, der in den letzten Jahren die AI als neue Grundlage für die moderne Automatisierungstechnik für sich entdeckt hat. Seit 2019 IoT & AI Solution Manager bei Recogizer Analytics GmbH. 2006-2019 Kautex Maschinenbau, Softwareentwickler F&E Prozess. 2002-2006 Hennecke GmbH, Programmierer für Anlagensteuerungen und HMI. 2001-2002 VAW Aluminum, Software Engineer Embedded Systems. 1998-2001 Coperion Werner & Pfleiderer, Softwareentwickler für Maschinensteuerungen. 1997-1998 Grundwehrdienst. 1993-1997 Studium der Elektrotechnik

14:30 Uhr
Einsatz immersiver Assistenzsysteme bei operativen (Planungs)-Prozessen mehr
In Forschungsprojekten, empirischen Studien und kritischen Reviews untersuchen wir am Institut Digital Engineering (IDEE) der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt die koinzidenten Einflüsse und Auswirkungen des industriellen Spannungsfelds Technik, Organisation und Mensch. Demnach lassen sich Treiber zukünftiger Anforderungs- und Kompetenzentwicklungen sowie die Trends der digitalen Transformation klar bestätigen. Es zeigt sich, dass sich zukünftig in der Mensch-Maschine-Interaktion zwei dominierende Szenarien ausbilden werden - das Automatisierungs- und das Werkzeugszenario.
Zum einen wird nach Hirsch-Kreinsen und Weyer (2014) menschliche Arbeitsleistung durch intelligente Produktionssysteme substituiert. Die hierdurch freigewordenen menschlichen Ressourcen können durch Erhöhung ihres Kompetenzlevels für neue Aufgabenbereiche eingesetzt werden.
Zum anderen wird beim Werkzeugszenario nach Winde und Spött sowie Dombrowski et al. (2014) menschliches Handlungsvermögen durch intelligente Assistenten befähigt, rudimentäre Aufgabengebiete um Optimierungstätigkeiten zu erweitern und somit die Vernetzung von Mensch-Maschine intensiviert.

Gerade der Steigerung der Mehrwerte digitaler Treiber auch für kleine und mittelständigen Unternehmen, der Erforschung der Wechselwirkungen sowie dem anwendungsbezogenen Technologietransfer dieser immanenten Technologien haben wir uns am IDEE im Center Intelligent Production Systems (CIPS) verschrieben. …

Referent: Prof. Dr.-Ing. Jan Schmitt | Hochschule Würzburg-Schweinfurt
Referent: Maximilian Rosilius | Hochschule Würzburg-Schweinfurt
Referent: Prof. Dr.-Ing. Volker Bräutigam | Hochschule Würzburg-Schweinfurt
15:15 Uhr
IIoT für die digitale Fabrik: Mit dem Digitalen Zwilling sicher und effizient zu einem Produktionsleit- und -liniensystem am Beispiel einer Montagelinie für Wasserzähler mehr
Lorenz ist ein Spezialist für Durchflussmessung. Sie produzieren mehr als 1 Million Wasserzähler pro Jahr. Für die Herstellung einer neuen Generation von intelligenten vernetzten Wasserzählern muss eine komplett neue Montagelinie entwickelt und aufgebaut werden, einschließlich der Hard- und Softwarekomponenten innerhalb von 8 Monaten.
Die Softwarekomponenten umfassen die Auftragssteuerung ebenso wie die Werkerführung und die Datenerfassung sowie die Anbindung der SPSen. Die Anlagenhardware wird parallel dazu entwickelt.
Neben dem Einsatz von Standard-MES-Komponenten basiert die Lösung auf einem Digitalen Zwilling der Produktion als integraler Bestandteil des Produktionsleit- und -liniensystems, um die hohen individuellen Anforderungen abzudecken. Das Software Engineering wurde mit Hilfe von Model Based Systems Engineering und angeschlossener Simulation des Digitalen Zwillings in sicheren Bahnen geführt.
Referent: Andreas Gallasch | Software Factory GmbH
16:00 Uhr
Vergleich Predictive-Maintenance-Methoden für Thermosysteme
Referent: Christoph Kammerer | Hochschule Heilbronn
17:00 Uhr
Ende der Veranstaltung
*Programmänderungen vorbehalten

Premium-Sponsor 2020

Aussteller 2020

Partner