Programm 2020*

Das Programm des ASE Kongress und der parallelen i-edge conference im Überblick: Download PDF

Montag, 16. November 2020

08:30 Uhr
Registrierung zur Veranstaltung
09:15 Uhr
Begrüßung durch den Veranstalter

SEMINARE VORMITTAG

09:30 Uhr

Parallele Seminare Vormittag (Pause 11:00-11:30)
Online-Seminar 1 - Softwaremetriken zur Bewertung von IEC 61131-3-konformen Steuerungssoftwarevarianten als Basis für geplante Wiederverwendung mehr
Steuerungssoftware in automatisierten Produktionssystemen (aPS) ist gekennzeichnet durch eine hohe Variantenvielfalt, die beispielsweise aus der starken Heterogenität von Kundenanforderungen oder durch Einflüsse anderer Disziplinen wie der verwendeten Hardware resultiert. Detaillierte Codeanalysen von Industriesoftware zeigen, dass die systematische Identifikation von Softwarevarianten und insbesondere das Variantenmanagement eine Kernherausforderung für geplante Wiederverwendung darstellt.
Häufig gibt es innerhalb eines Unternehmens keine globale Wissensbasis zu allen existierenden Varianten und trotz bekannter Nachteile, wie z.B. schlechte Wartbarkeit, ist die ungeplante Wiederverwendung mittels „Copy, Paste and Modify“ noch immer weit verbreitet.
So zeigt eine Studie, dass selbst marktführende Unternehmen oftmals keine eindeutigen Strategien der geplanten Wiederverwendung verwenden, sondern Mischformen durch die Kombination von Templates und Bibliotheksbausteinen nutzen.
Die so gewachsene Software weist oftmals Mängel bzgl. ihrer Verständlichkeit, Wartbarkeit, Testbarkeit, Wiederverwendbarkeit oder gar Fehlerfreiheit auf und ist zudem nicht selten schlecht bis gar nicht dokumentiert, was Doppelimplementierungen und falsche Verwendung bereits existierender Softwareteile nach sich zieht.

Ziel des Kompaktseminars ist es deshalb, aufzuzeigen, wie die Verwendung von Softwaremetriken, statischer Codeanalyse und geeigneten Werkzeuge den Entwicklungsprozess und den Transfer zu geplanter Wiederverwendung von qualitativ „hochwertiger“ Software unterstützen kann. Dazu wird zunächst eine Übersicht vorhandener Metriken zur quantitativen Bewertung von IEC 61131-3-konformer Steuerungssoftware sowie deren Vorteile präsentiert.
Anschließend wird im Rahmen eines Hands-on-Workshops anhand prototypischer Tools des Lehrstuhls für Automatisierung und Informationssysteme der Technischen Universität München demonstriert, wie Entwickler bei der Identifikation, Bewertung, Refaktorisierung und Wiederverwendung von Softwarevarianten unterstützt werden können. Als Fallbeispiel dienen dazu ausgewählte Evolutionsszenarien einer Demonstratoranlage des Lehrstuhls.

Der Ablauf des Kompaktseminars gliedert sich demnach in folgende Abschnitte:
  • Einführung zu Metriken und statischer Codeanalyse: Vorstellung des Stands der Technik sowie Präsentation von Vorarbeiten des Lehrstuhls für Automatisierung und Informationssysteme
  • Toolgestützter Hands-on-Workshop am Beispiel der Steuerungssoftware eines Demonstrators:
    • Metrikbasierte Ähnlichkeitsidentifikation zur Detektion von sog. „Code Clones“ in der Steuerungssoftware mit Hilfe des Variability Analysis Toolkit
    • Visualisierung der identifizierten Variabilität zur Ableitung möglicher Bibliotheksbausteine zur geplanten Wiederverwendung mit dem Variability Visualization Toolkit
    • Konfiguration und Generierung von Softwarevarianten mit dem Tool VarApp
Nach der Teilnahme am Kompaktseminar sind die Teilnehmer für die Identifikation und Wiederverwendung von Softwarevarianten sensibilisiert. Außerdem wird als Ausblick vermittelt, wie systematisches Variantenmanagement und kontinuierliche Qualitätskontrolle mit Hilfe von Metriken und Codeanalyse mittels geeigneter Toolunterstützung auch im eigenen Unternehmen etabliert werden kann.

Referent: Prof. Dr.-Ing. Birgit Vogel-Heuser | TU München

Prof. Vogel-Heuser studierte Elektrotechnik (1987, Dipl. Ing.) und promovierte im Bereich Maschinenbau an der RWTH Aachen (1990, Dr. Ing.). Sie sammelte zehn Jahre Industrieerfahrung, u.a. als technischer Geschäftsführer in der Siempelkamp Gruppe (Anlagenbau). Nach Berufungen in Hagen, Wuppertal und Kassel übernahm sie den Lehrstuhl für Automatisierung und Informationssysteme an der TUM (2009). Sie ist Sprecherin des Sonderforschungsbereichs 768: „Zyklenmanagement von Innovationsprozessen“, Mitglied im Coordination Board des DFG-Schwerpunktprogramms 1593 „Design for Future“ und Mitglied in der Deutschen Akademie der Technikwissenschaften e.V. (acatech). Die Forschungsschwerpunkte von Prof. Vogel-Heuser (*1961) liegen im Bereich des System- und Software-Engineerings sowie in der Modellierung von verteilten und zuverlässigen eingebetteten Systemen. Insbesondere stehen die Herausforderungen, welche sich aus der steigenden Nachfrage nach kundenspezifischen Produkten im Anlagenbau ergeben, im Fokus. Zudem sind auch hybride Prozesse und heterogen verteilte, intelligente Systeme unter Einbezug der Mensch-Maschine-Interaktion Teil ihrer Forschung.

Referent: Eva-Maria Neumann | TU München

Eva-Maria Neumann absolvierte 2018 ihren Master in Maschinenwesen. Im Januar 2019 startete sie ihre Promotion am Lehrstuhl für Automatisierung und Informationssysteme der Technischen Universität München. Zu ihren Schwerpunkten zählt unter anderem die Entwicklung objektiver Indikatoren und Metriken zur Messung verschiedener Qualitätsattribute von IEC 61131-3 Steuerungssoftware.

Referent: Juliane Fischer  | TU München
Online-Seminar 2 - Linux als guter Integrator in der Automatisierungstechnik mehr
Will man Linux in der Automatisierung einsetzen, steht einem eine große Anzahl an unterschiedlichen Schnittstellen mit erprobten und stabilen Treibern zur Verfügung. Dadurch kann Linux hervorragend als Integrator zwischen unterschiedlichen Bussystemen eingesetzt werden.
Referent: Andreas Klinger | IT-Klinger

Andreas Klinger ist selbständiger Trainer und Entwickler. Seit Abschluss des Studiums der Elektrotechnik im Jahre 1998 arbeitet er im Bereich der systemnahen Softwareentwicklung mit den Schwerpunkten Treiberentwicklung, Embedded Linux und Echtzeit. Als Spezialist für Linux beschäftigt er sich mit dem internen Aufbau des Kernels, den Systemmechanismen sowie vor allem mit deren Einsatz in Embedded Systemen. ESE-Kongress-Referent 2008 bis 2018; Speaker-Award erhalten in 2011, 2014 und 2018; zahlreiche Fachartikel unter anderem im ESE-Report u. in der Elektronik-Praxis

Online-Seminar 3 - Digitale Zwillinge in 3D zum Testen von Steuerungssoftware mehr
In einem Workshop mit Theorie- und Praxisteil zeigen wir, wie Digitale Zwillinge in 3D zum Testen von Steuerungssoftware von Grund auf erstellt werden bis hin zur Anbindung und Steuerung des Digitalen Zwillings mit einer realen SPS (Hardware bzw. Software in the Loop).
Die Teilnehmer erfahren, wie Sie alle Steuerungskomponenten, für die ein Code geschrieben wird (SPS, Robotercontroller, Leitsysteme, ...), realistisch testen können, ohne dass die reale zu steuernde Maschine/Anlage vorhanden ist.
Referent: Michael Eberle | Eberle Automatische Systeme GmbH & Co KG

Michael Eberle studierte Elektrotechnik an der TU Graz und leitet bei Eberle Automatische Systeme GmbH & Co KG die Abteilung für Modellierung und Simulation. In seiner Funktion ist er unter anderem für die Entwicklung einer intelligenten Software zur Erstellung und Simulation modellbasierter digitaler Zwillinge verantwortlich.

13:00 Uhr
Mittagspause

SEMINARE NACHMITTAG

14:00 Uhr

Parallele Online-Seminare Nachmittag (Pause 15:30-16:00)
Online-Seminar 4 - Eigene Apps für die Anlagensteuerung: Mit Open Source Software die Funktionen der SPS flexibel erweitern mehr
Das Erfassen von Prozess- oder Diagnosedaten aus der Anlagensteuerung wird gerade vor der stetig voranschreitenden Digitalisierung immer wichtiger. Stichwörter wie Big Data, Predictive Maintenance oder Smart Service dominieren das Bild von der Industrie 4.0 und der Smart Factory. Diese Themen können aber nur erfolgreich angegangen werden, wenn die eigenen Prozessdaten erfolgreich aus dem eigenen Produktionsprozess bzw. der Steuerung ausgelesen und gespeichert werden können. Insbesondere das Auslesen der Prozessdaten stellt viele Unternehmen vor Herausforderungen, da SPS oder HMI-Bedienpanel nur über proprietäre Schnittstellen verfügen – für die Nutzung werden häufig Lizenzkosten fällig und es wird zusätzliche Software benötigt.
In Abhängigkeit der bisher eingesetzten Software und Geräte entstehen oft Kompatibilitätsprobleme, die Systemarchitektur wird komplexer und wartungsanfälliger. Dies hat nicht selten ein verzögertes Projekt zur Folge, das zudem auch durch erhöhte Kosten auffällig wird.
Um diesen Problemen vorzubeugen, kann der Einsatz von Open Source Software sinnvoll sein. Offene Schnittstellen, gute Dokumentation, die Verfügbarkeit von quelloffenen Bibliotheken und die Erweiterbarkeit sind nur einige nennenswerte Vorteile.
In diesem Seminar möchte ich Interessierten exemplarisch näher bringen, wie Prozessdaten mittels Open Source Software aus einer Siemens Simatic S7-1500 ausgelesen werden können und in einer relationalen Datenbank (PostgreSQL, Open Source) abgespeichert werden. Anschließend wird gezeigt, wie mit einer offenen Schnittstelle auf die Daten in der Datenbank zugegriffen wird, um diese in einer App auf einem Tablet darzustellen und verarbeiten zu können. Die Programmierung der Tablet App erfolgt mit Open Source Software und ist ebenfalls Teil des Seminars.
Referent: Johannes Kinzig | Spektrum Ingenieurgesellschaft mbH

Johannes Kinzig hat nach seinem Masterstudium in Informatik das Ingenieurbüro seines Vaters übernommen und das Unternehmen strategisch in Richtung Industrie 4.0, IoT und Industrial IT-Security entwickelt. Seine Tätigkeitsschwerpunkte sind industrielle Ethernet Netze sowie die sichere Datenübertragung zwischen Maschinen und deren Steuerungen untereinander.

Online-Seminar 5 - Condition-Monitoring-Anwendungen per Machine Learning realisieren mehr
Zielsetzung und Vorgehensweise klingen zunächst recht einfach: Man installiert zusätzliche Sensoren an einer Maschine oder in einer Produktionsumgebung, um in Zukunft mittels künstlicher Intelligenz (KI) den aktuellen Maschinen- bzw. Anlagenzustand so genau wie möglich zu bestimmen. Damit sollen möglichst vollständig automatisierte Entscheidungen entstehen, um zum Beispiel ungeplante Maschinenausfälle zu verhindern. Also sammelt und speichert man mit Hilfe der neuen Sensoren zunächst einmal ein paar Daten, um so etwas wie „Big Data“ zu schaffen. Anschließend wird ein Algorithmus aus dem Umfeld der künstlichen Intelligenz eingesetzt, um die Sensordaten auszuwerten. Als Ergebnis werden weitreichende Erkenntnisse und Effizienzsteigerungen erwartet, von denen man bisher nicht einmal zu träumen wagte – soweit zumindest die Theorie.
   
In der Praxis läuft gerade einmal der erste Schritt (Sensoren installieren) noch relativ problemlos ab. In der Regel werden die Daten dann vor Ort oder mit Hilfe einer IoT-Cloud visualisiert. Danach kommen die meisten Vorhaben schon ins Stocken. Man versucht vielleicht noch auf einem PC oder in einer Cloud die Sensordaten an einen Machine-Learning-Algorithmus zu übergeben, kommt aber nur sehr selten zu einem verwertbaren Ergebnis. Manchmal wird dann noch ein externer Data Scientist für ein paar Tage angeheuert, der einem klarmacht, dass die Sensordaten eigentlich nicht zur Aufgabe passen oder umgekehrt.

Genau hier soll das Kompaktseminar ansetzen. Im ersten Teil wird zunächst ein Engineering-Prozess für Condition-Monitoring-Softsensoren als Einführung vorgestellt. Dabei lernen die Teilnehmer das Supervised Machine Learning und die Anwendung dieses KI-Bausteins auf an Maschinen gewonnene Sensordaten kennen.  
Im Rahmen der Einführung kommen des Weiteren die wichtigsten Werkzeuge zur Sprache, um sowohl an der Edge als auch in der Cloud das maschinelle Lernen aus Sensordaten einzusetzen und per Klassifizierung und Regression verständliche und hilfreiche Ergebnisse für Condition-Monitoring-Anwendungen zu erzielen.

Im zweiten Teil des Kompaktseminars kann jeder Teilnehmer unter fachlicher Anleitung auf dem eigenen Notebook den zuvor vorgestellten Engineering-Prozess teilweise ausprobieren. Dafür werden in der Seminarvorbereitungsphase vom Seminarleiter mit einen Demonstrator geeignete
Sensordaten an Antriebselementen erfasst, in eine Datei geschrieben und in einer Cloud gespeichert. Dort kann jeder Teilnehmer mit dem eigenen Notebook per Webbrowser aus den Daten ein Machine-Learning-Modell erzeugen. Mit diesem Modell werden anschließend auf dem Demonstrator aus in Echtzeit gewonnenen Sensordatenvektoren verschiedene Antriebszustände automatisch klassifiziert und die Ergebnisse gemeinsam analysiert sowie diskutiert.   

Final wird das Zusammenspiel der einzelnen Bausteine an einer realen Condition-Monitoring-Anwendung aus der Praxis noch einmal abschließend erläutert (siehe folgende Abbildung). Dabei kommen auch die Unterschiede des Machine-Learning-Einsatzes in der Cloud und an der Edge zur Sprache.

Was benötigen Seminarteilnehmer für das virtuelle Seminar?

Die Teilnehmer benötigen lediglich ein Notebook mit Webbrowser (Chrome oder Firefox) sowie einen Internetzugang.

Welche Ziele hat dieses Seminar

Zunächst einmal soll das ganze Thema weitestgehend wissenschaftsfrei, aber sehr problemorientiert und detailliert, mit den Augen eines Praktikers aus dem Umfeld der Automatisierung betrachtet werden (Condition Monitoring per Machine Learning mit Sensoren ist nicht immer gleich Rocket Science).

Anschließend wird verdeutlicht, wie das gesamte Zusammenspiel der einzelnen Bausteine funktioniert (Sensor, Trainings- und Testdaten für das Supervised Machine Learning, die Modellbildung und Modellevaluierung, der Einsatz in der Inferenzmaschine). Mit Hilfe des zweiten Seminarteils kann der Teilnehmer im Rahmen des interaktiven Hands-on das alles gleich ausprobieren, damit die Vorgehensweise einprägsam klar wird.

Referent: Klaus-Dieter Walter | SSV Software Systems GmbH

Klaus-Dieter Walter ist CEO der SSV Software Systems GmbH in Hannover und durch Vorträge auf internationalen Veranstaltungen sowie Beiträge in Fachzeitschriften bekannt und hat vier Fachbücher zum Themenbereich Embedded Systeme veröffentlicht. 2007 hat er den M2M Alliance e.V. mitgegründet und war viele Jahre im Vorstand. Außerdem ist er Vorstandsmitglied des Industrieforums VHPready, um einen Kommunikationsstandard für Virtuelle Kraftwerke zu schaffen und ist seit 2012 in der Expertengruppe Internet der Dinge innerhalb der Fokusgruppe Intelligente Vernetzung des Digital Gipfel der Bundesregierung.

Online-Seminar 6 - Echtzeit, Rechtzeitigkeit und Gleichzeitigkeit – Zeitsynchronisation über Netzwerke als Grundlage von Gleichzeitigkeit mehr
Die Welt der eingebetteten Systeme und der damit gesteuerten Maschinen spricht von Echtzeit. Damit ist gemeint, dass eine Reaktion des steuernden Rechners in jedem Fall rechtzeitig sein muss, auch vorzeitig ist kein Problem, denn Verzögern kann man ja eigentlich immer.
Kann man wirklich immer verzögern, mit einfachen Mitteln? Genau das sieht im Fall einer verteilten Steuerung schon ganz anders aus, denn wenn die Reaktion – eine gezielte Ausgabe an Aktuatoren o.ä. – gleichzeitig sein soll, ist die Lösung nicht ein einfaches Warten (bei gegebener Rechtzeitigkeit), sondern ein synchrones Verzögern über Netzwerk.
Mit aufkommendem TSN-Standard und dem Versprechen, eine Uhrzeit-Synchronisation im µs- und Sub-µs-Bereich durchführen zu können, entstehen auch Wünsche zur Gleichzeitigkeit im Rahmen dieser Zeitbereiche. Die Frage, wie weit man etwa Aktivitäten in verteilten Systemen synchronisieren kann, wird ebenfalls diskutiert. Das Kompaktseminar führt in die Themen
  • Echtzeitfähigkeit, Rechtzeitigkeit, Nachweis von Echtzeit bei Multitaskingsystemen,
  • Echtzeitfähige Netzwerke,
  • Zeitsynchronisation über Netzwerke als Grundlage von Gleichzeitigkeit,
  • mögliche Sprachkonstrukte zur Definition gleichzeitiger Aktionen,
  • Hardware-Voraussetzungen für Gleichzeitigkeit im µs-Bereich
ein und versucht, einen Ausblick auf künftige Entwicklungen zu geben.
Referent: Prof. Dr. Christian Siemers | TU Clausthal

Geboren in Kiel verblieb er dort bis zum Ende des (Physik- und Mathematik-) Studiums und der Promotion. Darauf folgten einige Jahre in der Industrie, so in München bei Siemens und in Lübeck bei der Dräger AG. Seit 1993 ist er Professor an einer Fachhochschule, zunächst in Stralsund, später in Heide (Holstein), seit 2002 in Nordhausen. Sein Fachgebiet ist im Bereich der Technischen Informatik, seine besonderen Interessen liegen bei programmierbaren Systemen, Rechnerarchitektur und FPGAs, dem Hardware/Software Interface, Hardware/Software Co-Design und der hardwarenahen Softwareentwicklung. Seit 2008 ist er ständig zu 50%, aktuell zu 80% an der TU Clausthal tätig, im Bereich der Technischen Informatik sowie der Automatisierungstechnik.

17:30 Uhr
Ende des ersten Veranstaltungstages

Dienstag, 17. November 2020

08:00 Uhr
Registrierung zur Veranstaltung
08:45 Uhr
Begrüßung durch den Veranstalter

TRACK 1 VORMITTAGS

09:00 Uhr

Track 1 Vormittags
09:00 Uhr (bis 10:20): Modellierung vernetzter Eingebetteter Steuerungssysteme mit der IEC 61499 – Effiziente Entwicklung verteilte Steuerungssysteme für die Industrieautomatisierung (80 min) mehr
Diskussionen zu Industrie 4.0 auf der Steuerungsebene beinhalten stets Forderungen nach einer stärkeren Vernetzung der Steuergeräte untereinander, dezentralen autonomen Steuerungseinheiten sowie einer dynamischen Adaptivität. Dies kann nur durch wesentlich erweiterte und komplexere Steuerungsprogramme erreicht werden. Aktuelle Technologien stoßen hierbei bereits an ihre Grenzen.

Damit die Komplexität und der Aufwand für den Menschen noch beherrschbar bleibt, wurde eine domänenspezifische Modellierungssprache entworfen und im IEC 61499 Standard festgehalten. Seit 2007 steht mit Eclipse 4diac die erste vollwertige Echtzeit-Implementierung dieses Standards auf Open-Source Basis zur Verfügung und zeigt in ersten industriellen Anwendungen das Potential von IEC 61499 auf. Ziel dieses Vortrags ist es deshalb, einen Überblick über die Kernelemente der IEC 61499 zu geben und Umsetzungsmöglichkeiten von verteilten Steuerungslösungen für die Industrieautomatisierung zu beleuchten.

Inhaltliche Gliederung
Der Vortrag besteht aus folgenden Abschnitten:
• Anforderungen an Steuerungssysteme im Kontext der Industrie 4.0
• Überblick über die Kernmodelle des IEC 61499 Standards
o Der Funktionsbaustein als wiederverwendbare Softwarekomponente
o Das Applikationsmodel zur Definition von Steuerungsanwendungen unabhängig von den eingesetzten Steuerungskomponenten
o Das Systemmodel zur Beschreibung der eingesetzten Steuerungskomponenten und Kommunikationssysteme
o Verteilung der Applikation auf die Steuerungskomponenten und plattformspezifische Konfiguration
• Veranschaulichung der Modelle anhand eines praxisnahen Beispiels und dessen Umsetzung mit der Open-Source-Lösung 4DIAC
• Zusammenfassung

Nutzen und Besonderheiten
Die Teilnehmer verfügen über einen Einblick in die Anforderungen an Steuerungssysteme der Industrie 4.0 und kennen die wesentlichen Modelle und Eigenschaften der domänenspezifischen Modellierungssprache IEC 61499, um diese zu erfüllen. Es wird den Teilnehmern die Fähigkeit vermittelt, verteilte Automatisierungslösungen mit Hilfe von IEC 61499 und der Open-Source-Lösung Eclipse 4diac umzusetzen.


Referent: Prof. Dr. Alois Zoitl | Johannes Kepler Universität Linz
10:30 Uhr: Zielsystemunabhängiger modellbasierter Entwurf auf der Basis von MATLAB/ Simulink mit automatischer Code-Generierung für einen Mischprozess mehr
Auf der Basis eines zielsystemunabhängigen modellbasierten Entwurfs mit MATLAB/Simulink wird der Entwurf für einen Mischprozess vorgenommen. Für die Generierung des Quellcodes für das Zielsystem wird die Toolbox PLC Coder von MATLAB/Simulink eingesetzt, weswegen diverse Automatisierungssysteme verschiedener Hersteller eingesetzt werden können.
Exemplarisch wird im vorliegenden Fall eine SIMATIC ET 200SP Open Controller mit entsprechenden Erweiterungsmodulen (digitale und analoge Ein- und Ausgänge usw.) der Fa. Siemens eingesetzt.
Für diesen Mischprozess werden Flüssigkeiten aus drei verschiedenen Behältern in verschiedenen vorgegebenen Mischverhältnissen und Mengen dosiert und in einen Mischbehälter geleitet. Hierfür wird der Entwurf primär mittels endlicher Zustands-automaten mit einer unterlagerten Durchflussregelung durchgeführt.

Es wird der gesamte Entwicklungsprozess vom modellbasierten Entwurf inkl. der Modelle über die automatische Codegenerierung und deren Implementierung dargelegt. Abschließend werden die Vor- und Nachteile des modellbasierten Entwurfs behandelt.

Referent: Prof. Dr.-Ing. Bernd Büchau | Hochschule Stralsund
Referent: Gerald Gröbe | Hochschule Stralsund
11:15 Uhr: Architekturen für das Industrial IoT mehr
Zur Identifikation der Anforderungen mit dem größten Einfluss auf die Qualität eines System wird eine einfache Klassifikation betrachtet. Diese Anforderungen sind die Architekturtreiber und müssen bereits am Anfang der Entwicklung berücksichtigt werden. Sie prägen die Architektur, indem weitreichende Entscheidungen auf dieser Basis getroffen werden.
Im Vortrag wird eine in der Praxis erprobte Vorlage zur Dokumentation von Entscheidungen vorgestellt. Die Umsetzung erfolgt auf der Architekturebene durch zu den Anforderungen passende Architekturmuster (wie zum Beispiel Schichtenarchitektur).
Die Entscheidungen und die resultierende Architektur müssen in geeigneter Form dokumentiert werden. Dazu sind Architekturmodelle gut geeignet, auch als wichtiges Vehikel zur Kommunikation im Entwicklungsteam.

Das lernen die Teilnehmer im Vortrag:

  • Klassifikation von Anforderungen
  • Dokumentation von Design-Entscheidungen
  • Nutzen von Architekturmodellen

Referent: Dr. Andreas Angerer | XITASO GmbH

Dr. Andreas Angerer studierte Software Engineering an der Universität Augsburg, der TU München und der LMU München. In seiner Promotion an der Universität Augsburg beschäftigte er sich über mehrere Jahre intensiv damit, wie industrielle Steuerungstechnik von modernem Software Engineering profitieren kann. Bei XITASO ist Andreas Angerer als Head of Research & Innovation für die Zusammenarbeit mit internationalen Partnern aus Wissenschaft und Wirtschaft in Spitzentechnologiebereichen verantwortlich.

TRACK 2 VORMITTAGS

09:00 Uhr

Track 2 Vormittags
09:00 Uhr: Gleichzeitigkeit durch streng synchrones Netzwerk mehr
Der Beitrag diskutiert die Möglichkeiten zur Realisierung von Gleichzeitigkeit in verteilten Automatisierungssystemen im Fall eines streng synchronen Netzwerks.
Hierunter ist zu verstehen, dass eine (konstante) Anzahl von Knoten durch ein synchronisiertes Netzwerk (gleichzeitige Übertragung von Clock und Daten) so eng miteinander gekoppelt werden, dass ein konstanter Zeitoffset der Informationen zwischen den Knoten gegeben ist.Dieser bekannte Zeitoffset zwischen den Knoten kann in Richtung Gleichzeitigkeit nur minimalen Abweichungen korrigiert werden.

Das Paper stellt das Verfahren sowie die erreichbare Unsicherheit in der Gleichzeitigkeit vor.


Referent: Prof. Dr. Christian Siemers | TU Clausthal

Geboren in Kiel verblieb er dort bis zum Ende des (Physik- und Mathematik-) Studiums und der Promotion. Darauf folgten einige Jahre in der Industrie, so in München bei Siemens und in Lübeck bei der Dräger AG. Seit 1993 ist er Professor an einer Fachhochschule, zunächst in Stralsund, später in Heide (Holstein), seit 2002 in Nordhausen. Sein Fachgebiet ist im Bereich der Technischen Informatik, seine besonderen Interessen liegen bei programmierbaren Systemen, Rechnerarchitektur und FPGAs, dem Hardware/Software Interface, Hardware/Software Co-Design und der hardwarenahen Softwareentwicklung. Seit 2008 ist er ständig zu 50%, aktuell zu 80% an der TU Clausthal tätig, im Bereich der Technischen Informatik sowie der Automatisierungstechnik.

09:45 Uhr: Messung des Zeitverhaltens beim Hardwarezugriff im Betriebssystem Linux mehr
Agenda:
  • Toggeln von GPIO und Messung mit Oszilloskop:
  • Raw-Registerzugriff
  • Linux-Kernel-Treiber
  • Userspace-Applikation
  • Versenden von I2C-Telegrammen:
  • Rechenzeit im Kernel
  • eigentliche Übertragungszeit
  • Antwortzeit auf einen Interrupt:
  • Antwortzeit von der ISR über Applikation zurück zur Hardware
  • Vergleich mit / ohne Echtzeit-Erweiterung
  • Auswirkungen der Kernelkonfiguration auf das Zeitverhalten?
  • Debugging- und Tracing-Features
  • Preemption
  • Schlussfolgerungen:
  • Welche Aufgaben können mit Linux durch das Betriebssystem erledigt werden und was gehört in die Hardware?
  • Wo geht die Zeit verloren?

Referent: Andreas Klinger | IT-Klinger

Andreas Klinger ist selbständiger Trainer und Entwickler. Seit Abschluss des Studiums der Elektrotechnik im Jahre 1998 arbeitet er im Bereich der systemnahen Softwareentwicklung mit den Schwerpunkten Treiberentwicklung, Embedded Linux und Echtzeit. Als Spezialist für Linux beschäftigt er sich mit dem internen Aufbau des Kernels, den Systemmechanismen sowie vor allem mit deren Einsatz in Embedded Systemen. ESE-Kongress-Referent 2008 bis 2018; Speaker-Award erhalten in 2011, 2014 und 2018; zahlreiche Fachartikel unter anderem im ESE-Report u. in der Elektronik-Praxis

10:30 Uhr: Vereinfachung der Sicherheitsentwicklung durch die Integration fertiger modularer Sicherheitsfunktionen mehr
Beispiele für produktspezifische Sicherheitsnormen in der Industrieautomatisierung sind:
  • IEC61800-5-2: Sie beschreibt die heute so gefragten Sicherheitsfunktionen für elektrische Antriebe.
  • IEC 10218-1: Sie beschreibt die Anforderungen an Sicherheitsfunktionen für Roboter.
Viele Hersteller von Geräten der Industrieautomatisierung wie Antriebsregler oder Robotersteuerungen stehen damit vor großen Herausforderungen. Während namhafte deutsche Anbieter, die schließlich selbst an den Normen mitgearbeitet haben, selbstverständlich längst solche normgerechten Funktionen integriert haben, bleiben kleinere und international beheimatete Unternehmen allein gelassen. Denn der Aufbau der Prozesse und des spezifischen Knowhows für Safety-Entwicklungen sind Mammutaufgaben und häufig in der Kultur der Unternehmen schwer realisierbar.

Methoden: Integration fertiger modularer Sicherheitsfunktionen
Mit der Integration von bereits fertig entwickelten Sicherheitsfunktionen entfallen aufhaltende Faktoren wie hohe Kosten und Zeit für eine Eigenentwicklung. Kleineren und internationalen Unternehmen wird also mit dieser Lösung der Zugang zu Sicherheitsfunktionen ermöglicht.
Bevor die Prüfer vom TÜV o.ä. auf solche Lösungen ihren Stempel drücken, ist jedoch notwendig, dass auch die Integration fertiger Sicherheitsfunktionen in Produkte fachgerecht und mit der notwendigen Sorgfalt ausgeführt und durch Tests und Dokumentation nachgewiesen wird. Hier ist ein großes Potenzial für vereinfachte digitalisierte Prozesse zu sehen.

Ergebnisse: Trotz der Herausforderungen wagen wir die Hypothese, dass in wenigen Jahren leistungsfähige Sicherheitsfunktionen überall auf der Welt zur Standardausstattung gehören werden. Dazu sehen wir zwei Faktoren:
1. Der Marktdruck: Kunden der Antriebstechnik sowie der Robotertechnik werden nur noch sichere Technik einsetzen, schließlich ist diese bereits verfügbar. Sowohl die europäische Maschinenrichtlinie wie auch die US-amerikanische Schadensersatz-Rechtsprechung drängen die Anwender schlicht in die Richtung.
2. Die Vereinfachung der Sicherheitstechnik: Hier sehen wir großes Potenzial durch die Multiplikation der bereits vorliegenden Lösungen und die Digitalisierung der Prozesse.

Fazit: In wenigen Jahren werden Funktionen, die heute noch aus der Hand nur weniger großer Anbieter verfügbar sind, quasi für alle günstig verfügbar werden. Sogar Open Source für Safety-Funktionen ist in Zukunft denkbar.

Referent: Peter Brinkmann | Brinkmann Electronic Berlin GmbH

Brinkmann Electronic Berlin GmbH (BEL) ist ein junges Dienstleistungsunternehmen für Elektronik- und Embedded Software-Entwicklung. Schwerpunkte liegen in der industriellen Automatisierung und im Internet of Things (IoT). Das Team bietet langjährige Erfahrung der funktionalen Sicherheit sowie in der Datensicherheit für Kommunikationslösungen. BEL bedient Kunden über den Lebenszyklus von der Beratung und Spezifikation bis zu Serienlieferung und Produktbetreuung.

11:15 Uhr: With a little help from my cloud: Wie Industrie 4.0 beim Software-Engineering unterstützt mehr
Beim Thema Industrie 4.0 denken meist alle an Big Data, Künstliche Intelligenz oder Machine Learning. Aber auch das herkömmliche Engineering von Steuerungsapplikationen kann unmittelbar von der Cloud-Anbindung profitieren.
Einige Stichwörter:
  • Social Coding: Statt auf dem heimischen PC oder Server lassen sich Projekte in Quellcode und kompilierte Applikationen in der Cloud hinterlegen. Was für die eigenen Fotos, Dokumente und Musik nützlich ist, unterstützt auch die Arbeit mit IEC-61131-3-Projekten. Voraussetzung dafür ist eine geeignete Server-Infrastruktur. Ist diese gegeben, so kann der Quell- und der Binärcode per Cloud einfach mit berechtigten Entwicklern geteilt werden.
  • Remote Debugging ohne zusätzliche Infrastruktur: Um einen Fernzugriff via Internetanbindung auf die SPS zu realisieren, muss man sich heute erst mal selbst um eine sichere Infrastruktur kümmern, z. B. per VPN-Verbindung oder verschlüsselter Datenkommunikation. Ist dagegen die SPS bereits an einen geeigneten Cloudserver angebunden, so nutzt man die dafür ohnehin eingerichtete Datenanbindung sofort, um sich in die Steuerung einzuloggen – mit der ganzen bereits bestehenden Absicherung.
  • Zusatztools zur Qualitätsverbesserung: Solche Tools sind heute meist als Plug-In für die Entwicklungsplattformen verfügbar. Mittelfristig könnten sie aber auch als Softwaredienste in der Cloud beim Engineering unterstützen. Und das ohne, dass man sich selbst um Rechnerstruktur, Installation oder Updates kümmern muss.
  • Komplette Entwicklungsumgebung in der Cloud: Diese Aussicht ist reizvoll und auch sinnvoll. Doch ist es für Anwender ideal, wenn sie beide Möglichkeiten parallel nutzen können: Eine Installation der Entwicklungsumgebung auf dem lokalen PC UND in der Cloud. So ist man beim Engineering je nach Situation unabhängig von der Internetverbindung oder auch einer lokalen Installation.
Diese Stichwörter zeigen bereits, wie man beim Engineering unmittelbar von Industrie 4.0 profitieren kann. Im Rahmen des Vortrags werden einige Aspekte dieses Nutzens anhand des CODESYS Automation Servers, einer cloudbasierten Administrationsplattform, live vorgeführt.
Referent: Roland Wagner | CODESYS GmbH

Roland Wagner ist seit 1999 bei 3S-Smart Software Solutions tätig, die 2020 in die CODESYS GmbH übergangen ist. Seit einigen Jahren ist er verantwortlich für das Produktmarketing des Unternehmens. Durch häufige Teilnahme an Kongressen und Vortragsveranstaltungen sowie zahlreiche Publikationen in Fachzeitschriften ist er als Redner und Autor in Automatisierungs-Fachkreisen bekannt. Seine CODESYS-Seminare zeichnen sich durch hohe Praxisrelevanz und breite Fachkenntnis aus.

12:00 Uhr
Gemeinsame Keynote ASE & i-edge: Maschinelles Lernen on-the-edge: Alles andere als Stand der Technik mehr

Herausforderungen beim Einsatz von Maschinellem Lernen für technische Systeme

Schaut man auf Anwendungen wie Bildverarbeitung entsteht oft der Eindruck, maschinelles Lernen (ML) sei heute einfach anwendbar und ein Zukaufprodukt. Aber gerade in technischen Gebieten wie z.B. der Produktion stellt sich schnell heraus, dass viele ingenieurtechnische Anforderungen wie Zuverlässigkeit, Ausfallsicherheit oder Verwendbarkeit in Regelkreisen nicht erfüllt sind. In diesem Vortrag soll der aktuelle Stand der Technik sowohl aus Sicht der Forschung und der Industrie analysiert werden. Ein Ergebnis der Analyse ist die Notwendigkeit, Weiterbildung, Ausbildung und Lehre im Bereich des maschinellen Lernen zu verstärken. Parallel dazu bedarf es einer Intensivierung der Forschung und Entwicklung. Industrievertretern soll durch den Vortrag geholfen werden, eine Strategie für den zukünftigen Einsatz datenbasierter Geschäftsmodelle zu entwickeln. Hierzu werden Themen wie Weiterbildung, Forschung und maschinelle Lernmethoden diskutiert. Ein Schwerpunkt ist die Entscheidung zwischen Zukauf von ML-Software und dem Aufbau von firmeninternen Knowhow.

Referent: Prof. Dr. Oliver Niggemann | Universität der Bundeswehr Hamburg

Oliver Niggemann studierte Informatik an der Universität Paderborn, wo er 2001 mit dem Thema „Visual Data Mining of Graph-Based Data“ promoviert wurde. Anschließend arbeitete er als Software-Entwickler bei der Firma Acterna in der Telekommunikationsbranche. Bis 2008 war als Lead-Produktmanager bei der Firma dSPACE tätig. Niggemann war aktiv im AUTOSAR-Gremium und bis 2008 Beiratsvorsitzende des s-labs der Universitat Paderborn. 2008 folgte Niggemann dem Ruf auf die neu eingerichtete Professur für Technische Informatik an der Hochschule Ostwestfalen-Lippe, wo er das Labor für „Artificial Intelligence in Automation“ leitete. Von 2008 bis 2019 war er Vorstandsmitglied des Instituts für industrielle Informationstechnologien (inIT). Bis 2019 war Niggemann auch stellv. Leiter des Fraunhofer IOSB-INA Institutsteil für industrielle Automation. Am 1. April 2019 übernahm Niggemann die Universitätsprofessur „Informatik im Maschinenbau“ an der Helmut-Schmidt-Universität der Bundeswehr Hamburg. Dort forscht er am Institut für Automatisierungstechnik im Bereich der Künstlichen Intelligenz und des Maschinellen Lernens für Cyber-Physische Systeme.

12:45 Uhr
Mittagspause
13:15 Uhr
Gemeinsamer Science Lunch Talk ASE & i-edge: Silicon Brains und Neuromorphic Computing (DE) mehr
m Human Brain Project (HBP) arbeiten seit 2013 um die 500 Wissenschaftler an mehr als 100 Universitäten, Lehrkrankenhäusern und Forschungszentren in ganz Europa gemeinsam an der Vision, das menschliche Gehirn zu simulieren. Dazu vernetzten sie Ansätze aus der Hirnforschung und der Informationstechnologie.

Sechs IKT-Forschungsplattformen bilden das Herzstück der HBP-Infrastruktur: Neuroinformatik, Brain Simulation, High Performance Analytics und Computing, Medizininformatik, Neuromorphic Computing, Neurorobotics. Einer der Hauptakteure bei Entwurf und Aufbau der Neuromorphic Computing-Plattform ist die Stiftungsprofessur Hochparallele VLSI-Systeme und Neuromikroelektronik der TU Dresden. Zusammen mit der Ruprecht-Karls Universität-Heidelberg und der University of Manchester werden hier fundamental neue Rechnerarchitekturen entworfen, die physikalische Modelle der Gehirnvernetzung und -funktionalität in Silizium darstellen.

Im Human Brain Project arbeitet die TU Dresden in großem Maßstab an der vordersten Front der Neurowissenschaften mit, um völlig neuartige kognitive Informationsverarbeitung in VLSI-Schaltkreise umzusetzen. Im ESE Science Dialog am 1. Dezember auf dem ESE Kongress erhalten Teilnehmer exklusive Einblicke in eines von vier FET-Flaggschiffen (Future and Emerging Technology), den größten wissenschaftlichen Projekten, die jemals von der Europäischen Union finanziert wurden.

Im Science Lunch Talk sprechen die Fachjournalist*innen Martina Hafner und Michael Eckstein mit dem Wissenschaftler über Herausforderungen, Chancen sowie ethische und soziale Perspektiven.
Referent: Prof. Dr.-Ing. Christian Mayr | Technische Universität Dresden

Prof. Dr.-Ing. habil. Christian Mayr leitet seit 2015 die Professur für Hochparallele VLSI-Systeme und Neuromikroelektronik an der Technischen Universität Dresden. Sein Forschungsinteresse gilt insbesondere bio-inspirierten IC-Systemen, biologisch inspirierter künstlicher Intelligenz, Brain-Computer-Schnittstellen, A/D-Wandlern, sowie allen Aspekten des Mixed-Signal VLSI-Entwurfs. An seiner Professur arbeitet Christian Mayr im Rahmen des EU Flagships „Human Brain Project“ (HBP) an der Forschung neuromorpher Schaltungen. Insbesondere entwickelt seine Professur im HBP zusammen mit der Universität Manchester die zweite Generation der SpiNNaker-Plattform zur Gehirnsimulation/künstlichen Intelligenz. Darüber hinaus verfolgt Mayr das Ziel, mit Hilfe herkömmlicher Silicium-CMOS-Technologien bzw. mit neu erforschten nano-Materialien bisher einzigartige SoCs zu entwickeln, die neben konventionellen Prozessorkernen auch aus biologischen neuronalen Netzen abgeleitete Prozessorelemente enthalten.

TRACK 1 NACHMITTAGS

13:45 Uhr

Track 1 Nachmittags
13:45 Uhr: Von der Hochsprachenprogrammierung lernen: Methodische Entwicklung von IEC-61131-3-Software-Applikationen mehr
Nach der Hardware-Konfiguration eines neuen Steuerungsprojekts beginnen Applikationsentwickler oft sofort mit der Programmierung des Logikprogramms der Maschine und Anlage. Allerdings ist dieses „Coding“ nur ein Aspekt der Software-Entwicklung. Probleme bei Inbetriebnahme, produktivem Betrieb und Updates können die Ursache darin haben, dass die Projektierung eine methodisch-strukturierte Vorgehensweise vermissen lässt.
In der Entwicklung von Softwareprojekten im IT-Umfeld haben sich methodische Zwischenschritte für das Coding bewährt.
  • So macht es Sinn, sich den Ablauf des Prozesses erst einmal unabhängig vom Programmcode zu überlegen und mit dem verantwortlichen Technologen durchzusprechen. Ein UML-Zustandsdiagramm kann helfen, ein gemeinsames Verständnis herbeizuführen.
  • Insbesondere bei größeren und komplexeren Projekten ist es unabdingbar, dass mehrere Entwickler an einer Applikation arbeiten. Versions¬verwaltungs-systeme wie Subversion oder Git vereinfachen die Zusammenarbeit auf einer gemeinsamen Projektbasis, ohne sich gegenseitig ins Gehege zu kommen.
  • Bereits während der Programmierung der Applikation ist es hilfreich, die Laufzeiten des erzeugten Binärcodes kontinuierlich zu überprüfen. So lassen sich sprunghafte Ausreißer frühzeitig detektieren und eingreifen, wenn die Applikation die Leistungsdaten der geplanten Steuerung zu sprengen drohen.
  • Ein umfangreiches Code-Review, also eine Prüfung des Programmcodes auf kritische Passagen, hilft spätere Probleme zu vermeiden. Solche syntaktisch korrekten Codestellen erzeugen zwar keine Übersetzungsfehler, können dennoch zur Laufzeit oder beim Update für ein ungewolltes Verhalten und falschen Programmablauf sorgen. Zusatztools erledigen solche Aufgaben und erübrigen das bewährte, aber doch meist lästige „4-Augen-Prinzip“.
  • Ist die Programmierung abgeschlossen, dann ist eine strukturierte Überprüfung des Applikationscodes dringend anzuraten. Manuell durchgeführt ist das eine mühsame und undankbare Aufgabe. Insbesondere, wenn der Programmcode aufgrund von Updates und Weiterentwicklungen immer wieder überprüft werden muss. Testautomatisierung erspart hierbei einen enormen Aufwand.
Im Rahmen des Vortrags auf dem ASE-Kongress wird gezeigt, wie solche Methodiken bei der Applikationsentwicklung von IEC-61131-3-Steuerungsprojekten genutzt werden können. Anhand der marktführenden Entwicklungsumgebung CODESYS wird gezeigt, wie integrierte Zusatztools aussehen können und sich benutzen lassen.

Referent: Martin Decker | CODESYS GmbH
14:30 Uhr: Code Smells: Stinkt Ihr SPS-Code? Wie Sie Stinker finden und beseitigen mehr
„Code Smells“, also „stinkender Programmcode“, wird in der Entwicklung von PC-Software oder Handy-Apps als syntaktisch korrekter Code bezeichnet, der jedoch schlecht strukturiert bzw. schwer verständlich ist und somit ein Risiko darstellt – insbesondere bei späteren Korrekturen und Erweiterungen. Solcher Code entsteht beim Engineering von SPS-Applikationen, z. B. wenn Ausgänge mehrfach geschrieben, im Projekt angelegte Programmzeilen bzw. Bausteine nicht aufgerufen, bestimmte Variablen geschrieben, aber nie wieder gelesen werden, zu wenig Kommentare hinterlegt sind, identisch deklarierte Variablen in unterschiedlichen Objekten auftreten und somit verwechselt werden können.

Im Gegensatz zu den Hochsprachen der Softwareentwicklung stehen dem SPS-Programmierer kaum Tools zur Verfügung, um per statischer Analyse solche Codestellen zu identifizieren.

Anhand des IEC-61131-3-Tools CODESYS wird im Rahmen des Vortrags live gezeigt, wie „Stinker“ sowie duplizierter Code schnell gefunden und behoben werden können. Benutzt wird hierzu ein optionales Tool zur statischen Codeanalyse in CODESYS. Es ermöglicht eine aktive Qualitätssicherung und verhilft zu einer soliden Strukturierung der gesamten Applikation.

Referent: Roland Wagner | CODESYS GmbH

Roland Wagner ist seit 1999 bei 3S-Smart Software Solutions tätig, die 2020 in die CODESYS GmbH übergangen ist. Seit einigen Jahren ist er verantwortlich für das Produktmarketing des Unternehmens. Durch häufige Teilnahme an Kongressen und Vortragsveranstaltungen sowie zahlreiche Publikationen in Fachzeitschriften ist er als Redner und Autor in Automatisierungs-Fachkreisen bekannt. Seine CODESYS-Seminare zeichnen sich durch hohe Praxisrelevanz und breite Fachkenntnis aus.

15:15 Uhr: Steuerungssoftware auf Knopfdruck – Softwareautomatisierung im Maschinen- und Anlagenbau mehr
Im Maschinen- und Anlagenbau entwickeln Unternehmen häufig Anlagen, die zwar kundenindividuell angepasst werden, aber zu großen Teilen aus ähnlichen Teilsystemen bestehen. Der Steuerungscode dieser Anlagen wird dabei typischerweise nicht auf Basis anerkannter Softwaretechnik-Methoden entwickelt und nur unsystematisch wiederverwendet.Eine zentrale Herausforderung ist daher, wie die Effizienz der Softwareentwicklung gesteigert und gleichzeitig die Qualität des Steuerungscodes gesichert werden kann.

Dieser Vortrag stellt ein Stufen-Modell für die Verbesserung der Softwareentwicklung im Maschinen- und Anlagenbau vor. Insbesondere wird die Einführung standardisierter Softwarebausteine thematisiert, um zum einen Fehler frühzeitig projektübergreifend zu beheben und zum anderen die Entwicklung neuer Produkte durch die systematische Wiederverwendung von Softwarebausteinen zu beschleunigen.
Referent: Thorsten Koch | Fraunhofer IEM

Thorsten Koch ist wissenschaftlicher Mitarbeiter im Forschungsbereich Softwaretechnik & IT-Sicherheit des Fraunhofer IEM in Paderborn. Seit 2014 leitete und bearbeitete er verschiedenste Projekte mit Forschungs- und Industriepartnern, u.a. aus dem Maschinen- und Anlagenbau, zu den Themenfeldern modellbasierte Softwareentwicklung und Security by Design.

16:00 Uhr: Mit Git Zeit sparen und Sicherheit gewinnen: Wie Sie die drei häufigsten Fehler bei der Verwendung der Quellcodeverwaltung git vermeiden mehr
Welche speziellen Anforderungen hat die Embedded-Software-Entwicklung an eine Quellcodeverwaltung und wie können diese am besten praktisch umgesetzt werden? Antworten darauf gibt es anhand von Case Studies und daraus abgeleiteten Best-Practises.
Außerdem werden die drei häufigsten Fehler und deren Vermeidung erläutert, z.B. wie vermeide ich doppelten Quellcode bei mehrfach genutzten Modulen.

Art der Vermittlung: Vortrag und Case Studies mit daraus abgeleiteten Best-Practises
Nutzen: Effizienter und sicher mit git arbeiten und Ideen für einen möglichst einfachen Git Workflow sowie ein fehlerfreies Releasemanagement erhalten. Die Quellcodeverwaltung git als Hilfe und Unterstützung und nicht als notwendiges Übel kennenlernen.
Referent: Stefan Munz

TRACK 2 NACHMITTAGS

13:45 Uhr

Track 2 Nachmittags
13:45 Uhr: Entwickeln und Testen von Automatisierungssystemen der Zukunft mehr
  • Wie verändern sich Produktionsmaschinen?
  • Wie verändert sich die Steuerungssoftware?
  • Warum ganzheitliches Testen von Steuerungssoftware notwendig wird
  • Der Digitale Zwilling und Simulation in 3D
Referent: Michael Eberle | Eberle Automatische Systeme GmbH & Co KG

Michael Eberle studierte Elektrotechnik an der TU Graz und leitet bei Eberle Automatische Systeme GmbH & Co KG die Abteilung für Modellierung und Simulation. In seiner Funktion ist er unter anderem für die Entwicklung einer intelligenten Software zur Erstellung und Simulation modellbasierter digitaler Zwillinge verantwortlich.

14:30 Uhr: UI-Technologien für industrielle HMIs
Referent: Stefan Niermann | INOSOFT GmbH

Stefan Niermann ist bei der INOSOFT GmbH verantwortlich für den Bereich Vertrieb. Auf Basis seiner langjährigen Erfahrung in der Entwicklung des Prozessvisualisierungssystems VisiWin berät er heute Interessenten und Kunden.

15:15 Uhr: Test the Test – Automatische Qualitätsprüfung von Testfällen durch Mutationstests mehr
Die Entwicklung sicherheitskritischer Systeme erfordert gemäß den gängigen Sicherheitsstandards genau definierte funktionale und nicht-funktionale Tests – sowohl unter normalen als auch unter ungewöhnlichen Bedingungen. Die Qualität der Tests ist entscheidend für eine sichere Embedded-Applikation.
Leider kann die Einhaltung der Methoden gemäß den Normen und die Qualität der Tests nur in einem manuellen Review geprüft werden. Mit Hilfe von Mutationstests lässt sich bei vorhandenen Testfällen die Tauglichkeit einer Fehlererkennung automatisch prüfen – damit sind sie ein geeignetes Werkzeug für das Prüfen der Qualität der Testfälle.

Die Idee hinter den Mutationstests von Testfällen ist, absichtlich Fehler in die Software einzubringen und diese mutierte Software dann den Tests zu unterziehen. Im Falle einer Embedded-Anwendung wird der zu testende C/C++-Code leicht verändert („mutiert“), so dass typische Programmierfehler vorliegen. Wenn die eingesetzten Unit- und Integrationstests die Mutation erkennen, werden sie als „nützlich“ bewertet. Diese Methode deckt schwache Testfälle auf und gibt Hinweise, wo die Testfälle verbessert werden können. Das hilft dabei, eine bessere Testqualität zu erreichen und damit die Anforderungen der Standards zu erfüllen.

Inhaltliche Gliederung
  • Aktuelle Ansätze
  • Was prüft ein Test tatsächlich?
  • Wurden alle Ausgangswerte wirklich berechnet oder sind sie nur zufällig?
  • Erkennt ein Test unbeabsichtigte Codeänderungen?
  • Begriffe und Definitionen für Mutationstests
  • Wirksamkeit von Mutationstests
  • Probleme und Herausforderungen
  • Mutationstests in Normen
Referent: Michael Wittner | Razorcat Development GmbH

Dipl.-Inform. Michael Wittner ist seit vielen Jahren im Bereich Software-Entwicklung und Test tätig. Nach dem Studium der Informatik an der TU Berlin arbeitete er als wissenschaftlicher Mitarbeiter der Daimler AG an der Entwicklung von Testmethoden und Testwerkzeugen. Seit 1997 ist er geschäftsführender Gesellschafter der Razorcat Development GmbH, dem Hersteller des Unit-Testtools TESSY und CTE sowie des Testmanagement-Tools ITE und der Testspezifikationssprache CCDL.

16:00 Uhr: The Pursuit of Perfection – An Effective Embedded Unit Test Process for Efficient Testing mehr
As Embedded software developers, our focus is to accelerate and improve software development in the pursuit of perfection. In this session we will look at elements that come together to make a successful, fully tested, embedded application. Important aspects discussed include requirements traceability, software metrics, testing frameworks, code coverage and automation.
Abstract: A specialist lecture on methods, techniques and tools to achieve robust embedded testing.
It’ll never happen in the field
Optimise later
Perfection is the enemy of good
It’s good enough


Every developer has heard at least one of these phrases. I’m sure you have. You may have even used them yourself. They hold some truth for developers of enterprise or front-end software. However, if you have used these in embedded software, you are very wrong.
Flawless embedded software is important in many industries… Embedded code underpins everything; it’s the fundamental layer of all devices. All other software - middleware logic, databases, web servers, user interfaces - everything depends on a functioning bottom layer of software.
And in the top layer of software - and with all due respect to those who attempt to get it right - it rarely matters if the pixels are out in the user interface, or it’s the wrong colour. It doesn’t affect the functionality of the software.

As Embedded software developers, our focus is to accelerate and improve software development in the pursuit of perfection. In this session we will look at elements that come together to make a successful, fully tested, embedded application. Important aspects discussed include requirements traceability, software metrics, testing frameworks, code coverage and automation. An outline of the topics covered is included…

Referent: Adam Mackay | QA Systems GmbH
17:00 Uhr
Ende des zweiten Veranstaltungstages

Mittwoch, 18. November 2020

08:00 Uhr
Registrierung der Teilnehmer
08:45 Uhr
Begrüßung durch den Veranstalter
09:00 Uhr
Digitaler Zwilling, Drilling oder doch ein HMI? mehr
Was wäre, wenn es einen Digitalen Zwilling meines Produkts gäbe? In diesem Vortrag geht es um die Verwirklichung von Visionen. Darum, wie man aus einem disruptiven Impuls ein konkretes Projekt initiiert und umsetzt.
Am Beispiel eines Weltmarktführers im Bereich Maschinen und Anlagenbau mit Schwerpunkt Förder und Verarbeitungslogistik gehen wir auf die Voraussetzungen und Chancen ein, die ein Digitaler Zwilling mit sich bringt. Dabei beleuchten wir neue Use Cases, gänzlich neue Geschäftsmodelle und wie diese gewinnbringend umgesetzt werden können.

Referent: Jannes Rühmann | UXMA
09:45 Uhr
Zeit für Engineering 4.0 – Automatisierung für das industrielle Internet der Dinge mehr
Das Consumer-Internet der Dinge macht es schon lange vor: Der Nutzer kauft ein Gerät mit einem bestimmten Funktionsumfang. Doch das ist erst der Anfang. Durch Weiterentwicklungen der Software werden während des Lebenszyklus die Fähigkeiten des Gerätes immer weiter verbessert und an aktuelle Gegebenheiten angepasst. Es vernetzt sich mit Geräten, die beim Kauf nicht einmal erfunden waren, tauscht mit anderen Systemen problemlos Daten aus und arbeitet auf Wunsch nahtlos mit anderen Geräten zusammen. Das Produkt wird für den Käufer immer weiter optimiert und er hat das gute Gefühl, damit immer ‘Up to Date‘ zu sein. Der Maschinen- und Anlagenbau ist von solchen Vorgehensweisen und Geschäftsmodellen noch weit entfernt.

Die Herausforderungen für Automatisierungsprojekte steigen stetig und die Aufgabenbewältigung ähnelt manchmal der Quadratur des Kreises: Trotz zunehmender Komplexität wird die Zeitspanne für die Entwicklung neuer Lösungen immer kürzer. Zudem werden die Anforderungen an die Individualisierung von Produkten immer vielfältiger, die Produktionskosten sollen aber nicht steigen. Individualisierte Produkte zum Preis von Massenprodukten können jedoch nur durch eine flexiblere Produktion erreicht werden. Schließlich sorgen neue Geschäftsmodelle wie vorausschauende Wartung oder andere Services für zusätzlichen Entwicklungsaufwand, weil sie eine hohe Datenqualität und -verfügbarkeit verlangen.
Referent: Heinrich Steininger | logi.cals GmbH

Heinrich Steininger ist der verbliebene Gründer der kirchner SOFT (1987), heute logi.cals GmbH und seit 2016 deren CTO. Er ist ein erfahrener Software-Architekt und hat seit 20 Jahren in einer Reihe von Forschungskooperationen (Christian Doppler Labor „Software Engineering Integration for Flexible Automation Systems“, kooperatives Forschungsprojekt INTEGRATE etc.) mit den Bedarfen des modernen Automations-Engineerings auseinandergesetzt.

Referent: Marcus Mittermayr | logi.cals GmbH

Marcus Mittermayr ist seit April 2017 Teil des logi.cals Teams und verantwortet den Bereich Business Development & Innovationen. Auf Basis seiner Erfahrung im Bereich Cloud- und Weblösungen liegt sein Schwerpunkt in der Weiterentwicklung der logi.cals Lösungen um unseren Kunden die effiziente Entwicklung vernetzter, flexibler und sicherer Industrie 4.0 Lösungen zu ermöglichen. Der kontinuierliche Aufbau eines Netzwerks aus Technologie- und Industriepartnern rundet seinen Aufgabenbereich ab und unterstreicht den Fokus der logi.cals GmbH auf eine vernetzte Zukunft.

10:30 Uhr
Aktuelles Thema folgt
Referent: Oliver Niedung | Microsoft

Oliver Niedung stammt aus Hannover. Vor und nach seinem Studium der Medizinischen Informatik arbeitete er an der Universität Hildesheim in der objektorientierten Softwareentwicklung. Er hatte ferner Funktionen in Entwicklung und Vertrieb bei Berner & Mattner und Visio inne, das 1999 von Microsoft übernommen wurde. Bei Microsoft leitete Oliver bis 2015 die Embedded Server-Aktivitäten in EMEA bei weltweit führenden OEMs. Seitdem arbeitet Oliver mit den strategischsten OEMs und Partnern von Microsoft in Europa an der digitalen Transformation und hochinnovativen IoT-Lösungen.

11:15 Uhr
Sind Industrie 4.0 und IoT wirklich disruptive? mehr
Eingeleitet wird der Vortrag über die Einführung der sogenannten 4. Revolution in der bereits von Anfang an alle mitwirken wollten, obwohl die meisten davon keine Ahnung hatten. Entstanden ist ein Buzzword Bingo, das seinesgleichen in der Technik Historie sucht.
Aber dann entstanden die sehr zentralen Referenzdokumente:
- Referenzarchitektur Industrie 4.0 (RAMI4.0)
- Industrial Internet Reference Architecture (IICRA)
Sie führten zu einem einheitlichen Verständnis, das eine wichtige Voraussetzung für die weitere Entwicklung darstellte.
Mit den Kommunikationsstandards OPC UA für Industrie 4.0 und DDS für IIoT wurde es dann zwar greifbar, aber auch mit vielen Problemen. Der Vortrag zeigt hier die technologischen Ansätze mit den jeweiligen Vor- und Nachteilen. Daraus wird es dann aber nachvollziehbar, warum und wie sich diese Standards weiterentwickelt haben und auch weiter entwickeln werden.
Den dritten technologischen Ansatz bilden die Cloud basierten Technologien. Sie gewinnen zunehmend an Bedeutung, unterscheiden sich aber auch von den bereits vorgestellten Kommunikationsstandards.
Der letzte Teil des Vortrags zeigt nun Vorgehensweisen in einer Brownfield Umgebung, die im Spannungsfeld vorgestellter Technologien, trotzdem eine erfolgreiche Digitalisierung ermöglichen.
Referent: Robert Schachner | Embedded4You e.V.

Embedded4You e.V.

12:00 Uhr
Gemeinsame Keynote ASE & i-edge: How a Cloud/Edge paradigm is disrupting the Automation Industry and why Software is a key Success Driver mehr
In the past decade, software-driven innovations, such as AI and machine learning, have revolutionized the information technology used in other areas of business and society. The result is an automation gap that creates barriers to unleashing the step-change productivity improvements that manufacturers aspire to achieve. Cloud/Edge computing as bridging technology enables true, enterprise ready, software
defined shopfloor solutions. In this talk we discuss Six Key Ingredients of Shop-Floor Automation, or, how can manufacturers and automation providers use edge computing and cloud paradigms to enhance productivity on the shop floor?
Referent: Johannes Boyne | Boston Consulting Group
12:45 Uhr
Mittagspause
13:15 Uhr
Gemeinsamer Industry Lunch Talk ASE & i-edge: AI and 5G - What’s Happening? mehr
Als Wirtschaftswissenschaftler und Senior Fellow am Economic Strategy Institute in Washington beschäftigt Robert Cohen sich seit vielen Jahrzehnten mit den Fortschritten von Kommunikations- und Computertechnologien und ihren Auswirkungen auf Industrie und Wirtschaft. In seiner aktuellen Forschungstätigkeit beschäftigt er sich mit Künstlicher Intelligenz und Machine Learning und ihren Auswirkungen auf die fertigende Industrie.

In unserem Lunch Talk sprechen wir mit Robert Cohan über folgende Themen:
  • Wie verändern künstliche Intelligenz und maschinelles Lernen die Produktionshallen - heute und in Zukunft? 
  • In welchen Branchen und Unternehmen hat der Wandel bereits begonnen? 
  • Welche qualifizierten Jobs in der Fertigungsindustrie werden dadurch verschwinden, welche entstehen?
  • Wie wird 5G Wertschöpfung und Lieferketten verändern?
Freuen Sie sich auf spannende Einblicke!


Referent: Robert Cohen | Economic Strategy Institute

Robert Cohen is an economist and senior fellow at the Economic Strategy Institute in Washington, USA. He has been Associate Professor of International Business and Finance at New York University Business School, Associate Professor of Finance and Economics at York College of the City University of New York, and Senior International Economist at the Futures Group. Dr. Cohen served as executive director for the TM Forum’s Enterprise Cloud Leadership Council. He is a past president of the Forecasters Club of New York.

13:45 Uhr
Prozess- und Maschinen-Regelung mittels AI basiertem Closed Loop Controller – Moderne Automatisierungstechnik durch künstliche Intelligenz mehr
Moderne Automatisierungstechnik durch künstliche Intelligenz.
Vorstellung eines Entwurf Musters für einen AI basierten Closed Loop Controllers, der vom geschlossenen Wirkungskreis ähnlich zu einem PID Controller ist. Der neue AI Controller dient der Erweiterung der bisherigen Automatisierung. Er muss ähnlich wie der PID Controller parametriert werden, allerdings auf eine völlig neue Art und Weise.
Inhalt des Vortrags sind das Wirkprinzip des AI Controllers als auch dessen neuartige Parametrierung. Vorgestellt wird zunächst das allgemeine Entwurfsmuster zur Erstellung einer AI basierten Regelung. Sie basiert auf Methoden des Reinforcement- sowie des Supervised- Learning. Die Motivation zur Erstellung eines funktionalen Digital Twins des Prozesses oder der Maschine wird im Zusammenhang mit dem AI Closed Loop Controller thematisiert.
Der AI Controller ist so allgemein anwendbar, dass das Optimierungsziel fast beliebig sein kann. Es muss jedoch elektronisch erfassbar sein. Beispielsweise: Energie minimieren oder Durchsatz maximieren oder Qualität maximieren oder…
Während des Vortrags wird neben den Grundlagen zum Verständnis des AI Controllers auch auf die Tools „graphicx.ai und graphicx.io“ eingegangen. Diese sind so konzipiert, dass sie ohne weiterführende Programmierung der zugrunde liegenden Machine Learning Verfahren benutzt werden können.
Zielgruppe und Anwender des AI-Controllers sind interessierte Ingenieure, die die zu optimierende Anlage oder Maschine kennen und den Wunsch haben diese in verschiedenste Richtungen zu optimieren.

Referent: Christoph Voigt | Recogizer Analytics

Christoph Voigt ist IoT & AI Solution Manager von Recogizer Analytics. Er implementiert mit Kunden gemeinsam den neuartigen AI Controller, den man sich stark vereinfacht als eine AI basierte Weiterentwicklung eines PID Controllers mit geschlossenem Wirkungskreis vorstellen kann. Christoph Voigt ist Diplom Ingenieur der Elektrotechnik, der in den letzten Jahren die AI als neue Grundlage für die moderne Automatisierungstechnik für sich entdeckt hat. Seit 2019 IoT & AI Solution Manager bei Recogizer Analytics GmbH. 2006-2019 Kautex Maschinenbau, Softwareentwickler F&E Prozess. 2002-2006 Hennecke GmbH, Programmierer für Anlagensteuerungen und HMI. 2001-2002 VAW Aluminum, Software Engineer Embedded Systems. 1998-2001 Coperion Werner & Pfleiderer, Softwareentwickler für Maschinensteuerungen. 1997-1998 Grundwehrdienst. 1993-1997 Studium der Elektrotechnik

14:30 Uhr
Einsatz immersiver Assistenzsysteme bei operativen (Planungs)-Prozessen mehr
In Forschungsprojekten, empirischen Studien und kritischen Reviews untersuchen wir am Institut Digital Engineering (IDEE) der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt die koinzidenten Einflüsse und Auswirkungen des industriellen Spannungsfelds Technik, Organisation und Mensch. Demnach lassen sich Treiber zukünftiger Anforderungs- und Kompetenzentwicklungen sowie die Trends der digitalen Transformation klar bestätigen. Es zeigt sich, dass sich zukünftig in der Mensch-Maschine-Interaktion zwei dominierende Szenarien ausbilden werden - das Automatisierungs- und das Werkzeugszenario.

Zum einen wird nach Hirsch-Kreinsen und Weyer (2014) menschliche Arbeitsleistung durch intelligente Produktionssysteme substituiert. Die hierdurch freigewordenen menschlichen Ressourcen können durch Erhöhung ihres Kompetenzlevels für neue Aufgabenbereiche eingesetzt werden.

Zum anderen wird beim Werkzeugszenario nach Windelband und Spöttl (2012) sowie Dombrowski et al. (2014) der Mensch durch intelligente Assistenten befähigt, simple Tätigkeiten um Optimierungstätigkeiten zu erweitern und somit die Vernetzung von Mensch-Maschine intensiviert.

Gerade der Steigerung der Mehrwerte digitaler Treiber auch für kleine und mittelständigen Unternehmen, der Erforschung der Wechselwirkungen sowie dem anwendungsbezogenen Technologietransfer dieser immanenten Technologien haben wir uns am IDEE im Center Intelligent Production Systems (CIPS) verschrieben. …

Referent: Maximilian Rosilius | Hochschule Würzburg-Schweinfurt

Maximilian Rosilius absolvierte 2015 sein Studium zum Diplom-Ingenieur mit der Fachrichtung Produkt- und Technologiemanagement an der Universität Bayreuth. Nach einer 5-jährigen automotiven Berufserfahrung in verschiedenen Positionen und nebenberuflicher Selbstständigkeit als IoT-Entwickler, kehrte er in das wissenschaftliche Umfeld der Hochschule für angewandte Wissenschaften Würzburg-Schweinfurt zurück. Seit Anfang 2020 arbeitet und promoviert er am "Institut Digital Engineering" im "Center Intelligent Production Systems". Neben der operativen Betreuung des Forschungsprojekts PlanAR - „Einsatz von Augmented Reality bei Anlagenplanung und Materialflussoptimierung - Effizienzpotenziale und psychologische Wirkungen auf den/die Nutzer“ - (BayVFP Förderlinie Digitalisierung IUK-1811-0022) bemüht er sich um die Erforschung der Einflüsse und Auswirkungen von produktiven Assistenzsystemen sowie um den Anwendungstransfer neuartiger Technologien.

15:15 Uhr
IIoT für die digitale Fabrik: Mit dem Digitalen Zwilling sicher und effizient zu einem Produktionsleit- und -liniensystem am Beispiel einer Montagelinie für Wasserzähler mehr
Lorenz ist ein Spezialist für Durchflussmessung. Sie produzieren mehr als 1 Million Wasserzähler pro Jahr. Für die Herstellung einer neuen Generation von intelligenten vernetzten Wasserzählern muss eine komplett neue Montagelinie entwickelt und aufgebaut werden, einschließlich der Hard- und Softwarekomponenten innerhalb von 8 Monaten.
Die Softwarekomponenten umfassen die Auftragssteuerung ebenso wie die Werkerführung und die Datenerfassung sowie die Anbindung der SPSen. Die Anlagenhardware wird parallel dazu entwickelt.
Neben dem Einsatz von Standard-MES-Komponenten basiert die Lösung auf einem Digitalen Zwilling der Produktion als integraler Bestandteil des Produktionsleit- und -liniensystems, um die hohen individuellen Anforderungen abzudecken. Das Software Engineering wurde mit Hilfe von Model Based Systems Engineering und angeschlossener Simulation des Digitalen Zwillings in sicheren Bahnen geführt.
Referent: Andreas Gallasch | Software Factory GmbH
16:00 Uhr
Vergleich Predictive-Maintenance-Methoden für Thermosysteme
Referent: Christoph Kammerer | Hochschule Heilbronn
17:00 Uhr
Ende der Veranstaltung
*Programmänderungen vorbehalten

Premium-Sponsor 2020

Partner