Programm

Montag, 16. September 2019

08:00 Uhr
Registrierung zur Veranstaltung
08:50 Uhr
Begrüßung durch den Veranstalter

SEMINARE VORMITTAG

09:00 Uhr

Parallele Seminare Vormittag
Seminar 1 - Virtuelle Inbetriebnahme am digitalen Zwilling mehr
Qualitätssteigerung und Risikominimierung in der Entwicklung von Steuerungssoftware, darum geht es. In diesem Workshop mit Theorie- und Praxisteil wird gezeigt, wie digitale Zwillinge in 3D das realistische Testen von Steuerungssoftware ermöglichen. Beginnend von den 3D-CAD-Daten einer Maschine wird ein digitaler Zwilling von Grund auf erstellt. Am Ende des Workshops wird eine reale SPS den digitalen Zwilling steuern, ohne das Anpassungen am SPS-Programm notwendig sind. Die Teilnehmer erfahren, warum das realistische und ganzheitliche Testen von Steuerungssoftware immer wichtiger wird und wie Sie alle Steuerungskomponenten, für welche Code geschrieben wird (SPS, Robotercontroller, Leitsysteme, …) testen können, ohne dass die reale zu steuernde Maschine bzw. Anlage vorhanden ist.

Das lernen die Teilnehmer im Vortrag:

  • Warum ist realistisches und ganzheitliches Testen von Steuerungssoftware wichtig
  • Wie helfen digitale Zwillinge und Maschinensimulation in 3D dabei
  • Wie können digitale Zwillinge erstellt und mit realen Steuerungen verbunden werden

Referent: Dominik Schuster | Eberle Automatische Systeme GmbH & Co. KG

Dominik Schuster studiert Mechatronik an der FH Vorarlberg und ist Spezialist im Gebiet Modellierung und Simulation. Bei Eberle Automatische Systeme GmbH & Co KG ist er für die Erstellung digitaler Zwillinge für die virtuelle Inbetriebnahme zuständig.

Referent: Michael Eberle | Eberle Automatische Systeme GmbH & Co KG

Michael Eberle studierte Elektrotechnik an der TU Graz und leitet bei Eberle Automatische Systeme GmbH & Co KG die Abteilung für Modellierung und Simulation. In seiner Funktion ist er unter anderem für die Entwicklung einer intelligenten Software zur Erstellung und Simulation modellbasierter digitaler Zwillinge verantwortlich.

Seminar 2 - Von formalisierten Anforderungen zur automatischen Testausführung – Testmanagement im Maschinen- und Anlagenbau mehr
In diesem Kompaktseminar werden Ansätze und Konzepte vorgestellt, mittels derer der Komplexität moderner automatisierter Produktionsanlagen im Bereich der Qualitätssicherung und Fehlersuche sowie heterogen qualifiziertem Testpersonal Rechnung getragen werden kann. Die vorgestellten Methoden fundieren dabei jeweils auf einem tiefgehenden Branchenüberblick über aktuell gängige Testpraktiken und Defizite der einzelnen Domänen. Durch Identifizierung kritischer Bereiche im Testmanagement, die automatisiert werden können, gelingt es, Unternehmen und Tester bei Routinearbeiten zu entlasten sowie wertvolle Testerfahrung und-wissen zu formalisieren, zu bewahren und weiterzugeben. Abgerundet wird das Kompaktseminar durch einen Einblick in mögliche Unterstützungstools und Prototypen für die Homogenisierung und effizientere Durchführung von Tests durch teils heterogen qualifizierte Tester.

Das lernen die Teilnehmer im Vortrag:

  • Generierung vollautomatische Testabläufe aus Dokumenten der Elektrokonstruktion, Testauswahl für komplexe Familien von Produktvarianten und -versionen, Metrikenbasierte Testpriorisierung
Referent: Kathrin Land | TU München

Kathrin Land studierte Elektro- und Informationstechnik an der Universität Stuttgart. Seit 2018 promoviert sie am Lehrstuhl für Automatisierung und Informationssysteme der Technischen Universität München im Bereich Modellbasiertes Testen. Während ihrer Promotion befasst sie sich vornehmlich mit Testpriorisierung und Test Scheduling.

Seminar 3 - Evolution der Applikationsentwicklung mit IEC61131-3 mehr
Die IEC61131-3 wurde vor über 25 Jahren erstmalig veröffentlicht und hat sich schnell als der Standard für die Programmierung von Steuerungen etabliert.
So wie sich der Standard selbst über die Jahre weiter entwickelte und heute in dritter Edition vorliegt, so durchlief die Art und Weise seiner Anwendung eine Evolution, wurde verfeinert und optimiert und bedient sich immer mehr der neuen Konzepte und Erweiterungen.
In der Praxis sieht man jedoch, dass nicht allen Nutzern diese Möglichkeiten (etwa Verwendung von Bibliotheken, objektorientierte Programmierung) genügend bekannt sind.
In diesem Vortrag wird diese Entwicklung vorgestellt und anhand praxisbezogener Beispiele werden die Vorteile der neuen Methodiken aufgezeigt. Er richtet sich insbesondere an Anwender und Entscheider, die daraus neue Impulse für Ihre tägliche Arbeit gewinnen möchten.

Das lernen die Teilnehmer im Vortrag:

  • Strukturierung der Steuerungsapplikation
  • Vorteile der objektorientierten Steuerungs-Programmierung
  • Best Practices

Referent: Hilmar Panzer | CODESYS/3S-Smart Software Solutions GmbH

Hilmar Panzer studierte von 1997-2002 Techno-Mathematik an der Technischen Universität München (TUM). Seither ist er bei der 3S-Smart Software Solutions GmbH, später CODESYS Development GmbH in verschiedenen Positionen und Bereichen der Entwicklung tätig, beteiligte sich u.a. an Arbeitsgruppen der PLCopen und arbeitete an diversen Förderprojekten mit. Seit 2009 fungiert er als Head of Application Technology, dem Entwicklungsbereich, in dem u.a. CODESYS Visualization, CODESYS SoftMotion und alle Feldbusanbindungen entstehen. Zudem bietet er mit seinem Team seit vier Jahren ein CODESYS Anwender-Consulting an, in dem er zusammen mit seinen erfahrenen Entwicklerkollegen CODESYS-Nutzer im Rahmen von Workshops und Dienstleistungen unterstützen.

Referent: Wolfgang Doll | CODESYS Development GmbH

Wolfgang Doll hat in Stuttgart an der Berufsakademie in einem dualen Studium Technischen Informatik studiert. Seither beschäftigt er sich mit der Automatisierungstechnik im Allgemeinen und der Softwareentwicklung für diesen Bereich im Besondern. Für die 3S-Smart Software Solutions GmbH, später CODESYS Development GmbH arbeitet er seit 2004 in verschiedenen Positionen und Bereichen des Unternehmens. Training, kundenspezifische Embedded Systeme und die Qualitätssicherung gehörten zu seinen Wirkungsfeldern. Seit vier Jahren arbeitet er im Bereich CODESYS Anwender-Consulting, dort kann er zusammen mit seinen erfahrenen Entwicklerkollegen, CODESYS-Nutzern im Rahmen von Workshops und Dienstleistungen darin unterstützen, die CODESYS Werkzeuge optimal einzusetzen. Er beteiligt sich u.a. an Arbeitsgruppen der PLCopen und arbeitet an diversen Förderprojekten mit.

12:30 Uhr
Mittagspause

SEMINARE NACHMITTAG

13:30 Uhr

Parallele Seminare Nachmittag
Seminar 4 - Machine-Learning-Anwendungen im Schaltschrank mehr
Varianten des maschinellen Lernens (ML): Es werden Supervised Learning, Unsupervised Learning und Reinforcement Learning vorgestellt, und begründet, warum das Supervised ML für Condition Monitoring und Predictive Maintenance in der Automatisierung das geeignete Verfahren ist.

Vergleich „Code-basierter vs. Daten-basierter Lösungsansatz“: Anhand einer typischen Aufgabenstellung aus der Automatisierung (Schalten eines Aktors als Folge bestimmter Sensormessdaten) wird die Vorgehensweise beim Supervised ML mit einer klassisch programmierten Lösung verglichen, die den Zusammenhang anhand von statischen Regeln herstellt.

Vorgehensweise bei einem ML-Projekt in der Automatisierung: Möchte man ein ML-Projekt in der Automatisierung starten, ist ein geeignetes Vorgehen sehr wichtig. Dabei kann man sich z. B. an CRISP-DM (Cross Industry Standard Process for Data Mining) orientieren.


Das lernen die Teilnehmer im Vortrag:

  • Den Teilnehmern wird aufgezeigt, dass sich viele Aufgabenstellungen in der Feld- bzw. OT-Ebene durch einen Daten-basierten Lösungsansatz und dem Einsatz von Machine-Learning-Algorithmen lösen lassen.
Referent: Klaus-Dieter Walter | SSV Software Systems GmbH

Klaus-Dieter Walter ist CEO der SSV Software Systems GmbH in Hannover und durch Vorträge auf internationalen Veranstaltungen sowie Beiträge in Fachzeitschriften bekannt und hat vier Fachbücher zum Themenbereich Embedded Systeme veröffentlicht. 2007 hat er den M2M Alliance e.V. mitgegründet und war viele Jahre im Vorstand. Außerdem ist er Vorstandsmitglied des Industrieforums VHPready, um einen Kommunikationsstandard für Virtuelle Kraftwerke zu schaffen und ist seit 2012 in der Expertengruppe Internet der Dinge innerhalb der Fokusgruppe Intelligente Vernetzung des Digital Gipfel der Bundesregierung.

Seminar 5 - Rechtzeitigkeit und Gleichzeitigkeit – Zeit als funktionaler Parameter in Steuerungsprogrammen mehr
Die Welt der eingebetteten Systeme und der damit gesteuerten Maschinen spricht von Echtzeit. Damit ist gemeint, dass eine Reaktion des steuernden Rechners in jedem Fall rechtzeitig sein muss, auch vorzeitig ist kein Problem, denn Verzögern kann man ja eigentlich immer.

Die Welt der Automatisierer fordert allerdings Gleichzeitigkeit. Wenn jetzt der Fall einer verteilten Steuerung nach IEC 61499 betrachtet wird, stellen sich neue Probleme, denn dies bedeutet ein synchrones Verzögern über das Netzwerk.

Das Kompaktseminar führt hierzu in die Themen
  • Echtzeitfähigkeit, Rechtzeitigkeit
  • Echtzeitfähige Netzwerke
  • Zeitsynchronisation über Netzwerke
  • Mögliche Sprachkonstrukte zur Definition gleichzeitiger Aktionen
ein.


Das lernen die Teilnehmer im Vortrag:

  • Echtzeitfähigkeit
  • Gleichzeitigkeit
  • Synchronisation über Netzwerk

Referent: Prof. Dr. Christian Siemers | TU Clausthal

Geboren in Kiel verblieb er dort bis zum Ende des (Physik- und Mathematik-) Studiums und der Promotion. Darauf folgten einige Jahre in der Industrie, so in München bei Siemens und in Lübeck bei der Dräger AG. Seit 1993 ist er Professor an einer Fachhochschule, zunächst in Stralsund, später in Heide (Holstein), seit 2002 in Nordhausen. Sein Fachgebiet ist im Bereich der Technischen Informatik, seine besonderen Interessen liegen bei programmierbaren Systemen, Rechnerarchitektur und FPGAs, dem Hardware/Software Interface, Hardware/Software Co-Design und der hardwarenahen Softwareentwicklung. Seit 2008 ist er ständig zu 50%, aktuell zu 80% an der TU Clausthal tätig, im Bereich der Technischen Informatik sowie der Automatisierungstechnik.

Seminar 6 - Rapid Prototyping von Linux – Wie erstelle ich in kurzer Zeit ein Embedded-Linux-System? mehr
In diesem Kompaktseminar wird gezeigt, wie der Entwickler für ein neues Board die Komponenten eines Embedded Linux Systems in sehr kurzer Zeit erstellt. Dazu gehören die Toolchain, Bootloader, Linux-Kernel und Root-Filesystem. Ziel ist dabei zügig zu einem funktionierenden Prototypen zu gelangen, mit welchem dann weiter projektiert werden kann. Mit diesem Erstsystem kann die Anwendung oder Teile davon getestet werden, Abschätzungen hinsichtlich Boot-Zeit und Footprint durchgeführt werden oder auch fehlende Komponenten wie Treiber identifiziert werden. Der Übergang vom Prototypen in das Deployment wird am Ende des Seminars skizziert und Hinweise zu möglichen Build-Systemen gegeben.

Das lernen die Teilnehmer im Vortrag:
  • Wie erstelle ich ein individuelles Linux-System?
  • Was benötige ich dazu alles?

Referent: Andreas Klinger | IT-Klinger

Andreas Klinger ist selbständiger Trainer und Entwickler. Seit Abschluss des Studiums der Elektrotechnik im Jahre 1998 arbeitet er im Bereich der systemnahen Softwareentwicklung mit den Schwerpunkten Treiberentwicklung, Embedded Linux und Echtzeit. Als Spezialist für Linux beschäftigt er sich mit dem internen Aufbau des Kernels, den Systemmechanismen sowie vor allem mit deren Einsatz in Embedded Systemen. ESE-Kongress-Referent 2008 bis 2018; Speaker-Award erhalten in 2011, 2014 und 2018; zahlreiche Fachartikel unter anderem im ESE-Report u. in der Elektronik-Praxis

17:00 Uhr
Ende des ersten Veranstaltungstages

Dienstag, 17. September 2019

08:00 Uhr
Registrierung zur Veranstaltung
08:50 Uhr
Begrüßung durch den Veranstalter

TRACK 1 Vormittags

09:00 Uhr

Track 1 Vormittags
09:00 Uhr: Von der Idee zum Produkt – Agile Entwicklung in Projekten mit sicherheitsbezogener Anwendungssoftware mehr
In der ersten Phase des Produktentstehungsprozesses steht die Idee. Das Zertifizierungs-Institut bei der Entstehung von Ideen zu einem Produkt mit einzubinden ist nicht allzu üblich, hat sich aber als idealer Weg zu einem zertifizierten Software Produkt herausgestellt.
Agile Entwicklung bedeutet für Phoenix Contact, dass während des gesamten Entwicklungsprozesses der Stakeholder als auch das Zertifizierungs-Institut mit eingebunden wird und Einfluss auf die einzelnen Entwicklungsschritte nehmen kann.
Nicht zertifizierbare oder auch nicht den Anforderungen vom Markt entsprechende Entwicklungen können auf diese Art und Weise frühestmöglich identifiziert und angepasst werden.
Die Software PLCnext Engineer dient unter anderem zur Programmierung von sicherheitsbezogener Anwendungssoftware und wurde auf diese agile Art und Weise zusammen mit dem TÜV Rheinland als Zertifizierungs-Institut und dem Produktmarketing als Stakeholder entwickelt und erfolgreich nach IEC 61508, EN ISO 13849 und EN 62061 zertifiziert.

Referent: Carsten Weber | PHOENIX CONTACT Electronics GmbH
Referent: Harry Koop | PHOENIX CONTACT Software GmbH

Harry Koop - Manager Safety Software

- Born 1978 in Lage (Lippe)

- 2001 Qualification as communication electronics technician

- 2005 certified computer scientist

- Since 2006 working for PHOENIX CONTACT Software in the Safety area in the functions of quality assurance, development and project management

- Since 2017 responsible for all safety-related developments at PHOENIX CONTACT Software GmbH

- Functional Safety Engineer (TÜV Rheinland)

09:30 Uhr: Model-gestützte MES / Manufacturing Operations Transformation mehr
Optimierung der Anlagenleistung, Steigerung der Produktivität, Verbesserung der Qualität: es gibt zahllose Gründe für die digitale Transformation der Produktionsebene, die sogenannte „Manufacturing Operations Transformation“ (MOT). Gemeint ist die Weiterführung der Umwandlungsmaßnahmen, die alle produktionsrelevanten IT-Systeme eines Unternehmens miteinander verzahnt, um Verbesserungen sowohl auf der operativen als auch geschäftlichen Ebene zu erreichen. Häufig müssen dazu papiergestützte und ältere Systeme durch Software ersetzt werden, die automatisierte Abläufe überhaupt erst ermöglicht und dafür sorgt, dass die Arbeitsabläufe mit den Zielvorgaben übereinstimmen. Dieser Vortrag erläutert die Triebfedern der digitalen Transformation in der Produktionsumgebung und zeigt, wie Prozesse, KPIs und Anlagenintegration auch standortübergreifend standardisiert werden können.

Das lernen die Teilnehmer im Vortrag:

  • Integration von Business Process Management
  • standortübergreifende Standardisierung von Prozessen, KPIs und Anlagenintegration
  • Auswahlkriterien für die passende MOT-Lösung

Referent: Andreas Holz | Schneider Electric Software Germany GmbH

Andreas Holz hat mehr als 30 Jahre Erfahrung im Bereich industrieller Software. Nach seinem Elektrotechnik- und Geologie-Studium an der FAU Erlangen-Nürnberg hat er in den Abteilungen Softwareentwicklung, Projektmanagement und Vertrieb gearbeitet. Zwischen den Jahren 2010 und 2018 war er für das Thema MES/MOM Systeme bei der SEAR GmbH zuständig. Andreas Holz ist seit September 2018 Teamleiter - vertikaler Vertrieb für die Marke Wonderware. Als Teil von AVEVA gehört Wonderware zu einem weltweit führenden Anbieter von Engineering- und Industrie-Software, der die digitale Transformation kapitalintensiver Branchen über den gesamten Asset- und Betriebslebenszyklus hinweg vorantreibt.

Referent: Michael Schwarz | AVEVA
10:00 Uhr: DevOps im industriellen Umfeld mehr
Viele Unternehmen im Automatisierungsumfeld sehen sich aktuell mit großen Herausforderungen konfrontiert: Stetig wachsende Forderung nach regelmäßigen Updates, Erweiterungen, Fehlerbehebungen und Sicherheits-Patches analog zum WWW und den Consumer Electronics führen klassische Prozesse und Unternehmensstrukturen an ihre Grenzen. Gleichzeitig bieten sie jedoch die Chance durch schnelle und kundenorientierte Anpassungen einen entscheidenden Wettbewerbsvorteil zu erlangen.
DevOps erweitert hierfür die agile Entwicklung (Development) um die Aspekte des operativen Betriebs (Operations). Durch die Zusammenlegung der beiden Bereiche wird ein direkter und ungefilterter Informationsgewinn aus dem Betrieb gewährleistet und die Verantwortung für das Produkt dorthin übertragen, wo sie real gelebt werden kann: in das Entwicklungsteam. Bei Amazon wurde hierfür der Slogan „You build it, you run it!“ geprägt. Der direkte Kontakt zwischen Entwicklern und dem Kunden schärft zudem den Fokus auf den Kundennutzen (customer centric development) und das richtige Qualitätsmaß.
Neben der technischen Umsetzung des hierfür notwendigen hohen Automatisierungsgrades, welcher vor allem im Automatisierungsumfeld eine große Herausforderung darstellt, müssen einige organisatorische Voraussetzungen gegeben sein, damit aus dem Erfolgsmodell kein Fiasko wird. Ähnlich wie das Schlagwort „agil“ darf auch DevOps dabei eher als Mindset, denn als Prozess verstanden werden.

Referent: David Wida | TRUMPF Laser und Systemtechnik GmbH
10:30 Uhr: Kaffeepause und Besuch der Ausstellung
11:10 Uhr: Ökosysteme sind der Schlüssel zu IoT und Embedded Systeme – Kombination spezifischer Funktionen auf nahezu jeder Embedded-Hardware mehr
Derzeit basieren die meisten Maschinensteuerungen auf sogenannte „Speicherprogrammierbaren Steuerungen“. Klassische Steuerungsanforderungen lassen sich damit sehr einfach realisieren.
Industrie 4.0 und IoT stellen aber viel höhere Anforderungen an Steuerungssysteme. Flexible und leicht wartbare Kommunikationsnetze mit den dazugehörigen Services sind nötig. Diese münden dann in neuartige Geschäftsmodelle, die sich von klassischen Herangehensweisen deutlich unterscheiden. Die Möglichkeiten von mehr oder weniger geschlossenen SPS-Technologien reichen dafür meistens nicht mehr aus.
Auf der anderen Seite wird es immer schwieriger mit den klassischen IT-Methoden Steuerungssoftware zu entwickeln, die neben den Steuerungsanforderungen und den immer komplexer werdenden Kommunikationsnetzen und Services gerecht wird.
Den Begriff „From Scatch“, also die Entwicklung einer Plattform aus eigenem Programmcode ist schlichtweg nicht mehr möglich.
Damit steht man vor dem Dilemma, auch weiterhin die sehr teuren SPS Systeme einzusetzen oder in das Entwicklungsabenteuer der individuellen Embedded Entwicklung einzusteigen.
Der Vortrag zeigt, wie man mit einem Ökosystem an Firmen und aufeinander abgestimmte Technologien einen sehr effizienten Weg gehen kann, der sich gegenüber klassischen Steuerungssystemen innerhalb kürzester Zeit amortisiert und die ganze Welt der günstigen Embedded Hardware erschließt.
Fast wie von selbst lösen sich mit dieser Herangehensweise auch gleich die wichtigsten Kernfragen mit denen man vor einer Entwicklung beginnen muss:
  • Wie wird der zukünftige IoT-Standard aussehen und wie kann ich flexibel darauf reagieren?
  • Welche Werkzeuge und Technologien passen zu mir?
  • Wie lassen sich die Kosten gegenüber den aktuellen Systemen reduzieren?
  • Wie kann die Software Qualität gesteigert werden?
Neben den rein technischen Vorteilen eines Ökosystems bietet die dazugehörige Community auch den persönlichen Rahmen, in dem man seine eigenen Kernkompetenzen einbringen kann und im Gegenzug auch auf die Erfahrungen der Mitglieder zurückgreifen kann. Am Beispiel von Embedded4You zeigt der Vortrag so einen alternativen Weg zu individuellen Steuerungssystemen mit der Lust auf mehr!

Referent: Robert Schachner | RST Industrie Automation GmbH
11:40 Uhr: Fieldware – So wird das IoT heute programmiert! mehr
Fieldware bezeichnet den Teil einer Softwarelösung, welcher bei der Installation eines Automatisierungsgerätes – im Feld – also direkt vor Ort programmiert wird. Die Fieldware ist so zu sagen die dritte Programmierebene und wird für die Umsetzung von IoT-Devices immer wichtiger.

Es braucht Programmierwerkzeuge, die so einfach zu bedienen sind, dass hierfür keine Programmierer notwendig sind. Diejenige Person, welche die Geräte installiert, d.h. Elektriker oder Instandhalter, sollte auch die Programmierung selbst durchführen können. Dafür muss das Programmiertool auf dem Gerät installiert sein und sich mit jedem Standard HTML5 Browser bedienen lassen. So ist die Programmierung mit jeglichem Tablet, Smartphone oder PC einfach möglich, ohne dass darauf zuvor eine Software installiert werden muss.


Das lernen die Teilnehmer im Vortrag:

  • Edge Computing im SCADA-Server: Funktionsplan (FUPLA) ruft Python und NodeJS
  • IoT Programmierung nur mit dem Browser: Einfacher ist besser
  • Programmieren mit dem Browser: Wo macht es Sinn, wo nicht

Referent: Peter Brügger | iniNet Solutions GmbH

- Abgeschlossenes Studium Elektrotechnik an der ETH Zürich

- Verschiedene Tätigkeiten mit SPS und Visualisierungen in der Prozessautomation (Fa. Hoffman La-Roche) während des Studiums

- Anstellung bei einem Hersteller von C-Cross-Compilern für Microcontroller (Fa. Hiware, wurde von Motorola übernommen)

- Anstellung im Engineering von ASIC/FPGA

- Designs und Echtzeitsoftware (Fa. Initec), Projekte im Bereich Kryptologie, Digitalsignalverarbeitung, Automation

- Seit 2003 Geschäftsleiter der iniNet Solutions GmbH

12:10 Uhr: Overcoming critical challenges of mission-critical IoT solution development mehr
Successful implementation of the Internet of Things (IoT) can accelerate your digital transformation activities to improve business operation, bring more value to your customers and/or enable new business models. The rapid growth of the contribution of software and the ability to interconnect devices easily has created a completely new world for product manufacturers filled with monumental opportunities and challenges. Software-intensive products can do more — better, faster and more reliably — than their mechatronic counterparts.
However, these advantages also result in a higher complexity. Each new feature, behavior or non-functional capability adds its own additional complexity and affects the existing product design as well. This results in an increase in cost to develop solutions and also has a negative impact on the time-to-market.
The goal of this presentation is to educate the audience on some of the key aspects that drive the complexity, like for instance: determinism, fault-tolerance, scalability and evaluability as well as elaborate on an approach that can be taken to make development of IoT solutions simpler.

Referent: Niels Kortstee | ADLINK Technology GmbH

Niels Kortstee, Product Manager Communication Software at ADLINK – Over 15 years of experience in architecting complex distributed real-time mission-critical systems for Mil/Aero, Telco, Simulation Robotics & Smart Energy sectors.

TRACK 2 VORMITTAGS

09:00 Uhr

Track 2 Vormittags
09:00 Uhr: Gleichzeitigkeit durch Programmbefehle im Source Code erzeugen mehr
Gleichzeitigkeit lässt sich in komplexen Steuerungsvorgängen durch Programmbefehle im Source Code erzeugen. Diese Möglichkeit ist sehr wichtig und besonders, weil dadurch – ziemlich einmalig in der Welt der Rechner – der Zeitbegriff als funktionales Element (= durch den Compiler in echten Code umsetzbar) in einer Programmiersprache landet.
Referent: Prof. Dr. Christian Siemers | TU Clausthal

Geboren in Kiel verblieb er dort bis zum Ende des (Physik- und Mathematik-) Studiums und der Promotion. Darauf folgten einige Jahre in der Industrie, so in München bei Siemens und in Lübeck bei der Dräger AG. Seit 1993 ist er Professor an einer Fachhochschule, zunächst in Stralsund, später in Heide (Holstein), seit 2002 in Nordhausen. Sein Fachgebiet ist im Bereich der Technischen Informatik, seine besonderen Interessen liegen bei programmierbaren Systemen, Rechnerarchitektur und FPGAs, dem Hardware/Software Interface, Hardware/Software Co-Design und der hardwarenahen Softwareentwicklung. Seit 2008 ist er ständig zu 50%, aktuell zu 80% an der TU Clausthal tätig, im Bereich der Technischen Informatik sowie der Automatisierungstechnik.

09:30 Uhr: Guidelines are a Modeler's best friends – ein Einstieg in die statische Modellanalyse mehr
MISRA- und ISO-konforme Software-Modelle erstellen – so geht’s! Dieser Vortrag ist ein Einstieg in die Welt der Modellierungsrichtlinien und der statischen Modellanalyse am Beispiel von MATLAB Simulink/Stateflow und TargetLink-Modellen. Neben Best Practices für Modellierungsrichtlinien und Modell-Komplexität erläutern wir die grundsätzliche Funktionsweise einer statischen Modellanalyse. Wir zeigen Methoden für die automatische Richtlinienprüfung, Korrektur, die Komplexitätsanalyse und das Auffinden von identischen Subsystemen (Clones) in Software-Modellen.
  • statische Modellanalyse: Die Anwendung von Richtlinien und Standards
  • Quellen für Modellierungsrichtlinien, Beispiele
  • Ziele für den Einsatz von Modellierungsrichtlinien
  • Modellstruktur-Analyse und Komplexitätsreduzierung
  • Vorgaben von Standards wie IEC61508 zu Richtlinien und Designprinzipien
Eine knackige Einführung in eine oft vernachlässigte aber unerlässliche Qualitätssicherungsmaßnahme. Der Vortrag enthält zudem eine praktische Anleitung, wie Schritt für Schritt die Anforderungen von ISO und IEC an die modellbasierte Softwareentwicklung erfüllt werden können.

Referent: Dr. Simon Rösel | Model Engineering Solutions GmbH

Dr. Simon Rösel ist seit 2017 Software Engineer für den MES Model Examiner® (MXAM). Er hat an der Humboldt-Universität zu Berlin im Bereich Mathematische Optimierung promoviert. Im Zentrum seiner Tätigkeit bei MES stehen die Entwicklung von Checks zur automatisierten Richtlinienüberprüfung, z.B. im ISO 26262-Kontext, und die Unterstützung von Kunden- und Forschungsprojekten. Dabei gilt Simons besonderes Interesse der Frage, wie Modelle effizient in Entwicklungsprozessen eingesetzt werden können.

10:00 Uhr: Virtuelle Inbetriebnahme auf Basis von
Model-Based Design mehr
Während sich herkömmliche Ansätze für die virtuelle Inbetriebnahme von Maschinen und Anlagen ausschließlich darauf konzentrieren, Teile der Inbetriebnahme vorzuziehen und in einer digitalen Repräsentation des Systems zu testen, verfolgt die modellbasierte Entwicklung („Model-Based Design“) hier einen ganzheitlicheren Ansatz, bei dem ein Modell bereits zu Entwicklungsbeginn erstellt und in iterativen Schritten sukzessive erweitert wird. Damit kann nicht nur eine signifikante Verkürzung der Inbetriebnahmezeit erreicht werden, sondern auch sichergestellt werden, dass die erforderlichen Anforderungen und Spezifikationen eingehalten werden. Das in der Entwicklungsphase erstellte Modell dient danach in vielen Fällen als Grundlage für die Erstellung eines digitalen Zwillings, der über die gesamte Laufzeit einer Maschine oder Anlage parallel zu dieser im Einsatz ist.

Das lernen die Teilnehmer im Vortrag:

  • Verkürzung von Inbetriebnahmezeiten durch Virtuelle Inbetriebnahme mittels Model-Based Design
Referent: Philipp Wallner | MathWorks

Als Industry Manager für den Bereich Industrial Automation & Machinery in Europa ist Philipp Wallner für den Auf- und Ausbau des Industriebereichs bei MathWorks verantwortlich, der die Energieerzeugung, die Entwicklung von Automatisierungskomponenten und den Maschinenbau umfasst. Ein Schwerpunkt ist dabei die Ausrichtung des Lösungsportfolios von MathWorks auf Industrietrends wie Industrie 4.0, Industrial IoT und Digital Twins. Vor seinem Eintritt in das Unternehmen hat Philipp Wallner unterschiedliche Positionen in der Technik und im Management im Maschinen- und Anlagenbau innegehabt (u.a. bei B&R und ThyssenKrupp). Philipp Wallner hat Elektrotechnik mit Schwerpunkt Regelungstechnik (Dipl.-Ing.) an der TU Graz und Projekt- und Prozessmanagement (Executive MBA) an der Salzburg Management & Business School studiert.

10:30 Uhr: Kaffeepause und Besuch der Ausstellung
11:10 Uhr: Wie Maschinensimulation in 3D das Testen von Steuerungssoftware revolutioniert mehr
Maschinen und Anlagen werden heute komplexer, effizienter und in kürzerer Zeit gebaut. Alles kein Problem. Auch wenn manchmal die Qualität der Steuerungssoftware darunter leidet. Und in weiterer Folge auch ein bisschen die Zufriedenheit unserer Kunden. Aber muss das wirklich so sein? Wir von Eberle Automatische Systeme sind überzeugt, dass gute Steuerungssoftware die Basis für erfolgreiche Projekte ist. In diesem Vortrag erfahren Sie, wie die Qualität von Steuerungssoftware durch frühzeitiges und realistisches Testen verbessert werden kann. Das Werkzeug dazu ist Maschinensimulation in 3D. Und schlussendlich sind alle zufriedener: Kunden, Vorgesetzte und Angestellte.

Das lernen die Teilnehmer im Vortrag:

  • Warum das realistische Testen von Steuerungssoftware wichtiger wird
  • Wie Maschinen realistisch getestet werden können, ohne dass sie real vorhanden sind
  • Wie Maschinensimulation in 3D hilft, die Qualität in der Steuerungssoftware zu steigern

Referent: Michael Eberle | Eberle Automatische Systeme GmbH & Co KG

Michael Eberle studierte Elektrotechnik an der TU Graz und leitet bei Eberle Automatische Systeme GmbH & Co KG die Abteilung für Modellierung und Simulation. In seiner Funktion ist er unter anderem für die Entwicklung einer intelligenten Software zur Erstellung und Simulation modellbasierter digitaler Zwillinge verantwortlich.

11:40 Uhr: Objektorientierte Programmierung von Automatisierungsapplikationen im Kontext der IEC61131-3 mehr
Dieser Vortrag gibt Antworten auf folgende Fragen: Was sind die Vorteile der objektorientierten Programmierung für die Automatisierung? Wie genau funktioniert OOP im Kontext der IEC61131-3? Und wie nimmt man die „alte Welt“ mit?

Das lernen die Teilnehmer im Vortrag:

  • Vorteile der objektorientierten SPS-Programmierung (OOP)
  • Anwendung gemäß IEC 61131-3 3rd Edition in CODESYS
  • Übergang zwischen prozeduraler und obketorientierter Programmierung für Anwender ohne OOP-Kenntnisse

Referent: Roland Wagner | CODESYS/3S-Smart Software Solutions GmbH

Roland Wagner ist seit 1999 bei 3S-Smart Software Solutions tätig. Seit einigen Jahren ist er verantwortlich für das Produktmarketing des Unternehmens. Durch häufige Teilnahme an Kongressen und Vortragsveranstaltungen sowie zahlreiche Publikationen in Fachzeitschriften ist er als Redner und Autor in Automatisierungs-Fachkreisen bekannt. Seine CODESYS-Seminare zeichnen sich durch hohe Praxisrelevanz und breite Fachkenntnis aus.

12:10 Uhr: Vorgehensweise bei Machine-Learning-Projekten in der Automatisierung mehr
Wenn man ein Machine-Learning-Projekt in der Automatisierung starten will, ist eine geeignete Vorgehensweise von großer Bedeutung. Dabei kann man sich z. B. an CRISP-DM (Cross Industry Standard Process for Data Mining) orientieren. CRISP-DM besteht aus sechs Schritten, die gewisse Abhängigkeiten aufweisen. Da man es in der Automatisierung – anders als beim Data Mining in Datenbanken – in der Feld- bzw. OT-Ebene mit strukturierten Sensordaten zu tun hat, sind einige CRISP-DM-Schritte durch anwendungsbezogene Besonderheiten gekennzeichnet. 
Referent: Klaus-Dieter Walter | SSV Software Systems GmbH

Klaus-Dieter Walter ist CEO der SSV Software Systems GmbH in Hannover und durch Vorträge auf internationalen Veranstaltungen sowie Beiträge in Fachzeitschriften bekannt und hat vier Fachbücher zum Themenbereich Embedded Systeme veröffentlicht. 2007 hat er den M2M Alliance e.V. mitgegründet und war viele Jahre im Vorstand. Außerdem ist er Vorstandsmitglied des Industrieforums VHPready, um einen Kommunikationsstandard für Virtuelle Kraftwerke zu schaffen und ist seit 2012 in der Expertengruppe Internet der Dinge innerhalb der Fokusgruppe Intelligente Vernetzung des Digital Gipfel der Bundesregierung.

12:40 Uhr
Keynote ASE & 360°: Industrie 4.0 braucht Education 4.0 mehr
Gesellschaft, Arbeitswelt und Ausbildungswesen sind geprägt von technologischen Umbrüchen, Demografie-Wandel, Migration und zunehmender Digitalisierung in allen Lebensbereichen. Dieser Wandel bedingt ganz neue Unternehmens- und Ausbildungskonzepte, um diesen Herausforderungen gerecht zu werden. Der Schlüssel, um eine Vorreiterrolle auf dem Feld innovativer Arbeitsorganisationen und Ausbildungskonzepte einzunehmen, ist das Arbeiten und Denken in Netzwerken, das eigenverantwortliche Agieren und selbstbestimmte Arbeiten, um die Stärken der einzelnen Individuen maximal einzusetzen. Dies impliziert einen Managementansatz, bei dem nicht Hierarchien, sondern Aufgaben im Fokus stehen. Dafür benötigen wir analog zur Industrie 4.0 die passende Education 4.0 – d.h. Möglichkeiten und Konzepte, um junge, vor allem technisch gut ausgebildete Menschen, die neben dem fachlichen Know-how ein hohes Maß an Kommunikationsfähigkeit, Flexibilität und Motivation mitbringen, einzubinden und dauerhaft zu fördern.
Referent: Dr. Rainer Stetter  | ITQ GmbH

Dr.-Ing. Rainer Stetter, geboren 1963, studierte Maschinenbau an der Technischen Universität München (TUM) und promovierte am Institut für Werkzeugmaschinen und Betriebswissenschaften (iwb), unter der Führung von Prof. Milberg. 1993 trat er als Entwicklungsleiter der Materialprüfung in die Zwick GmbH Ulm ein. Seit 1997 ist er Inhaber und Geschäftsführer der Software Factory GmbH und gründete 1998 die ITQ GmbH. Von 1998 - 2006 war er Gründungsvorstand des Fachverbands Software und ist seit 2002ist Mitglied des Ausschusses Forschung & Innovation im VDMA sowie seit 2004 Mitglied im Lenkungskreis der Fachgruppe Automatisierung des ASQF. Sein Engagement gilt insbesondere der praxisnahen, modernen Technik-Ausbildung, welche er durch die von ihm ebenfalls ins Leben gerufenen Gerda Stetter Stiftung weltweit fördert. Im Jahr 2016 hat Dr. Stetter in Las Palmas (Gran Canaria) die Tochtergesellschaft Dr. Stetter ITQ S.L.U. gegründet. Der Fokus liegt auf „Smart and Green“ zur Entwicklung zukünftiger Technologien und innovativer Ausbildungsformate. Um Innovationen und "verrücktes Denken" zu fördern und zu verbreiten, werden innovative Veranstaltungen wie Makeathons auf der ganzen Welt organisiert.

13:20 Uhr
Mittagspause und Besuch der Ausstellung

TRACK 1 NACHMITTAGS

14:20 Uhr

Track 1 Nachmittags
14:20 Uhr: Vorteile eines agilen Entwicklungsvorgehens für mittelständische Anlagenbetreiber mehr
Die Lorenz GmbH & Co. KG stellt Wasserzähler her – aktuell in nahezu vollständiger Transformation auf Funkwasserzähler.
Erarbeitung einer führenden Stellung durch Entwicklung eines hochflexiblen Funkwasserzählerbaukastens.
Neben Produktentwicklung musste eine hochflexible Fertigungsanlage umgesetzt werden. Diese musste in kurzer Zeit Millionenstückzahlen pro Jahr fertigen können, bei anfänglich jedoch nur überschaubaren Aufträgen.
Produktionsanlage musste sich schnell an einen steigenden Bedarf anpassen lassen, aber auch Änderungen und funktionale Erweiterungen am Produkt schnell und kostengünstig umsetzen können.
Entwicklung zusammen mit ITQ und SF. Fertigungs- und Montagefunktionen frühzeitig in Software abgebildet und an Simulationsmodellen getestet, so schnelle reale Umsetzung.
Entwicklung ist der realen Anlage immer 1-2 Entwicklungsstufen voraus.
Kosten passend zu Bedarf und Umsatz.


Das lernen die Teilnehmer im Vortrag:

  • Langfristiges Gesamtkonzept bei schrittweiser Umsetzung
Referent: Wilhelm Mauß | Lorenz GmbH & Co. KG

Wilhelm Mauß schlug zunächst eine Offizierslaufbahn bei der Bundeswehr ein, wo er nach zwölf Jahren mit Stationen in München, Füssen und Donauwörth zuletzt Hauptmann und Batteriechef war. Als studierter Maschinenbau- und Wirtschaftsingenieur wechselte er 1994 in die freie Wirtschaft zu einem weltmarktführenden Prüfmaschinenhersteller aus Ulm, wo er zunächst Vertriebsleiter wurde und im Jahr 2000 als Geschäftsführer Asien nach Singapur wechselte. Zurück in Deutschland übernahm er im Jahr 2003 die Geschäftsführung der Lorenz GmbH & Co. KG. Das Unternehmen hat sich seitdem hinsichtlich Umsatz und Mitarbeiterzahl verdreifacht und wurde mehrfach für F&E, Ressourceneffizienz und praktizierte Unternehmensverantwortung ausgezeichnet, zuletzt mit dem MOVECO Innovation Award für das "Kreislaufwirtschaftsprodukt des Jahres 2019" und dem Digital Leader Award in der Kategorie Strategie.

14:50 Uhr: Sein oder Nichtsein – Die Konvergenz von OT und IT im Maschinenbau – Herausforderungen und Lösungen im mittelständischen Maschinenbau mehr
Das gemeinsame strategische Ziel, das deutsche Unternehmen mit Industrie 4.0 erreichen wollen, ist die Entwicklung hoch innovativer Produktionskonzepte in einer Smart Factory. Diese muss eine effiziente, wirtschaftliche Produktion einer Losgröße 1 ohne qualitative Einbußen gegenüber einer Massenproduktion ermöglichen. Flexible und wandlungsfähige Produktionsanlagen bilden die Basis dafür. Mit neuen modularen, autark dezentralen und weitgehend selbstorganisierenden Anlagen- und Maschinenkonzepten, welche sowohl horizontal als auch vertikal hoch performant und durchgängig vernetzt sind, wird es möglich diese „individuelle Massenproduktion“ zu realisieren.  Im Maschinen- und Anlagenbau ist dazu aber ein Paradigmenwechsel notwendig.  Die klassische Trennung von Automatisierungssoftware (OT) und Informations- und Datenverarbeitung (IT) ist deshalb nicht länger möglich. Die Integration von OT und IT auf allen Stufen der Wertschöpfungskette ist unabdingbare Voraussetzung für Industrie 4.0. Des Weiteren gewinnen Themen wie Data Science & Analytics, Predictive Maintenance, selbstoptimierende Prozesse, Security, Safety, Usability sowie Web- und Cloud-Technologien enorm an Bedeutung. So müssen Maschinen- und Anlagenbauer die vormals getrennten Disziplinen heute gemeinsam betrachten, um langfristig am Markt erfolgreich zu sein. Die meisten großen Unternehmen im Maschinenbau haben dies erkannt und entsprechende Lösungen konzipiert, entwickelt und teilweise auch schon in den Markt eingeführt. Anders schaut das bei den mittelständischen Maschinenbauern aus.
Die aktuelle technologische Basis dieser Unternehmen ist häufig eine über 10 bis 20 Jahre entwickelte Software-Plattform, die oft auf teilweise veralteten Technologien und Programmiermethoden basiert und das Ende ihrer wirtschaftlichen Innovationsfähigkeit meist schon lange überschritten hat. Dies hat zur Folge, dass bereits heute deutlich zu hohe und stetig steigende Programmieraufwände, bei kontinuierlich sinkendem Wirkungsgrad, generiert werden und eine wirtschaftliche und technologiegerechte Realisierung aktueller und zukünftiger Kunden- und Marktanforderungen unmöglich macht. Die Anforderungen hinsichtlich Industrie 4.0, Integration von OT und IT, neuen Technologien und zukünftigen wirtschaftlichen Herausforderungen sind damit nicht realisierbar.
Der Vortrag geht auf die aktuelle Situation und die zukünftigen Anforderungen im mittelständischen Maschinenbau ein. Es wird der Weg aus dem „Jetzt“, über die zukünftigen technologischen und wirtschaftlichen Anforderungen bis hin zur Realisierung einer zukunftsfähigen und wettbewerbsfähigen Software-Plattform für den mittelständischen Maschinenbauer aufgezeigt. Im Fokus stehen die strategischen, wirtschaftlichen und technologischen Ziele des Maschinenbauers und ein agiles Vorgehensmodell zur Umsetzung dieser Ziele. Das Ziel dieses Vortrages ist es dem Management im mittelständischen Maschinenbau ein konkretes Vorgehensmodell zur Realisierung einer zukunftsfähigen Automatisierungsplattform in seinem Unternehmen zu vermitteln.

Das lernen die Teilnehmer im Vortrag:

  • Industrie 4.0, Agilität im Maschinenbau, Innovative Softwareplattformen für den Maschinenbau
Referent: Siegfried Schülein | infoteam Software AG

12/2016 – heute

Senior Market Expert
infoteam Software AG

01/2014 – 12/2016

Business Segment Manager Maschinenbau
infoteam Software AG

01/2011 – 12/2013

Vertriebsleiter Automatisierungssysteme
Baumüller Nürnberg GmbH

03/1989 – 12/2010

Entwicklungsleiter Automatisierungssysteme
Baumüller Nürnberg GmbH

05/1984 – 02/1989

Gruppenleiter Automatisierungssysteme
OMIK-Industrie-Elektronik GmbH

10/1980 – 05/1985

Studium Elektrotechnik
Friedrich-Alexander-Universität Erlangen-Nürnberg

15:20 Uhr: Zwei Anwendungsbeispiele für Machine Learning in industriellen Projekten – Reinforcement Learning und Supervised Learning mehr
Beispiel 1: Anwendung von Reinforcement Learning für einen intelligenten Airhockey-Tisch. Normalerweise spielen an einem Airhockey zwei menschliche Gegner miteinander. Ziel ist es den Spiel-Puck mittels eines Striker in das Tor des Gegenspielers zu befördern. Für einen Machine-Learning-Demonstrator haben die ITQ GmbH und AMK einen Airhockey Tisch mit Automatisierung ausgestattet, damit eine Seite des Tisches durch einen Computer gesteuert werden kann.
Die Bewegung durch den Computer erfolgt dabei jedoch nicht mittels programmierter Regeln, sondern mit Hilfe eines neuronalen Netzes. Dieses neuronale Netz wurde mittels Reinforcement Learning in einer Simulation des Tisches mittels vieler tausend Spielzüge vortrainiert. Im Anschluss wurde das trainierte neuronale Netz auf den Computer mit der echten Hardware transferiert und dort ausgeführt.
Dieser Vortragsteil gibt einen Überblick über die Möglichkeiten, Voraussetzungen und Grenzen von neuronalen Netzen und Reinforcement Learning zur Anwendung an Demonstratoren mit industrieller Hardware.
Beispiel 2: Anwendung von Supervised Learning zur Defekterkennung in industrieller Fertigung. Das italienische Unternehmen GRUPPO ASA ist industrieller Produzent von Metalldosen. Dieser verwendet derzeit klassische Bilderkennungssysteme um Fehler auf den Metalldosen wie Fingerabdrücke, Kratzer und Dellen zu erkennen und auszusortieren. Die klassische Bilderkennung hat dabei Grenzen hinsichtlich der Erkennungsrate und Übernahme der Klassifizierungsrichtlinien auf andere Geometrien.
Deshalb wurde ein Prototyp entwickelt, der aufgenommene Bilder von Dosendeckeln mittels neuronaler Netze nach Fehlern klassifizieren kann. Das neuronale Netz wurde dabei mittels Supervised Learning trainiert. Später wurde das neuronale Netz in einer Echtzeitanwendung mit Grafikkarten-Beschleunigung eingesetzt und zeigte weit bessere Erkennungsraten als die klassischen Bilderkennungssysteme.
Der Vortragteil gibt einen Überblick über die Möglichkeiten, Voraussetzungen und Grenzen von neuronalen Netzen und Supervised Learning zur Anwendung in industriellen Bildverarbeitungsprozessen.

Referent: Michael Enslin | ITQ GmbH

Der Maschinenbauingenieur Michael Enslin arbeitet seit 2012 bei der ITQ GmbH und ist für verschiedene Kunden aus dem Maschinen- und Anlagenbau in Deutschland und Europa mit dem Fokus Software für Maschinen tätig. Neben Projekten aus den Bereichen Simulation, Steuerungstechnik und Bedienoberflächen beschäftigt er sich in den letzten Jahren vermehrt mit den Themen Anbindung von Maschinen an die Cloud und Auswertung von Daten über Machine-Learning-Methoden.

15:50 Uhr: Kaffeepause und Besuch der Ausstellung
16:30 Uhr: Modellierung und Test: Software für Industrie-Transportroboter mehr
Der Vortrag stellt Ergebnisse eines internationalen Forschungsprojektes vor, das sich mit der Modellierung und Analysemethoden für adaptive Systeme beschäftigt. Dabei wurde mit Simulink ein Softwaremodell zur Simulation einer Flotte von Transportrobotern entwickelt und getestet. Der Schwerpunkt lag auf der Adaptivität des Systemverhaltens hinsichtlich dynamisch veränderlicher Kontextvariablen. Dazu wurde u.a. ein Kontextmodell um eine Einheit erweitert, die ein Manufacturing Execution System repräsentiert. Diese Einheit steuert zur Laufzeit verschiedene Produktionsziele, wie z.B. die Maximierung von Sparsamkeit, Robustheit oder Performance oder die Minimierung des Wartungsaufwandes. Die Anforderungen an die Adaptivität des Systemverhaltens wurden mit Hilfe einer formalen Spezifikationssprache formuliert.

Das lernen die Teilnehmer im Vortrag:

  • Wie werden Transportroboter modellbasiert programmiert?
  • Wie werden Testsequenzen dafür formuliert?
  • Virtuelle Systemspezifikation und -validation


Referent: Dr. Simon Rösel | Model Engineering Solutions GmbH

Dr. Simon Rösel ist seit 2017 Software Engineer für den MES Model Examiner® (MXAM). Er hat an der Humboldt-Universität zu Berlin im Bereich Mathematische Optimierung promoviert. Im Zentrum seiner Tätigkeit bei MES stehen die Entwicklung von Checks zur automatisierten Richtlinienüberprüfung, z.B. im ISO 26262-Kontext, und die Unterstützung von Kunden- und Forschungsprojekten. Dabei gilt Simons besonderes Interesse der Frage, wie Modelle effizient in Entwicklungsprozessen eingesetzt werden können.

17:00 Uhr: Einsatz von Machine Learning und Deep Learning in industriellen Applikationen mehr
In diesem Beitrag wird die zunehmend wichtigere Rolle diskutiert, die Datenanalyse, Machine Learning und Deep Learning in der Fabrik einnehmen. Megatrends wie Künstliche Intelligenz und Digitale Transformation fördern flexiblere Produktionsmethoden und die Entwicklung neuer Geschäftsmodelle für datenbasierte Serviceleistungen. In diesem Beitrag werden Machine Learning Anwendungen genauer betrachtet, die sowohl Messdaten als auch synthetisierte Daten aus der Systemsimulation nutzen. Dargestellt wird der Mehrwert dieser Methoden an mehreren Beispielen - zum einen an der Leistungsüberwachung einer Windkraftanlage in einem Windpark und zum anderen anhand eines Digitalen Zwillings eines Pumpensystems für die vorausschauende Wartung. Zudem wird ein Vergleich einer Vorhersage des Energie Verbrauch mittels Machine Learning und Deep Learning dargestellt.

Das lernen die Teilnehmer im Vortrag:

  • Predictive Analytics Workflow mit MATLAB
  • Automatische Feature Erkennung mit MATLAB

Referent: Dr. Rainer Mümmler  | MathWorks

Dr. Rainer Mümmler arbeitet als Senior Application Engineer bei MathWorks und beschäftigt sich mit Themen wie Datenanalytik, Künstliche Intelligenz, Predictive Maintenance, Hardware Connectivity, Image Processing und dem Internet der Dinge. Vor seiner Tätigkeit bei MathWorks war er für unterschiedliche Unternehmen aus dem Luftfahrtbereich tätig. Rainer Mümmler hat Luft- und Raumfahrttechnik an der TU München studiert und während seiner Promotion an der Universität der Bundeswehr München einen Windkanal modernisiert und Forschung im Bereich der Aerodynamik durchgeführt.

17:30 Uhr: Predictive Maintenance in der Theorie und Praxis mehr
Predictive Maintenance bietet laut Studien von namhaften Unternehmensberatungen erhebliche Einspar- und Optimierungspotentiale. Es ist daher ein wichtiger Bestandteil von Automatisierungs- und Digitalisierungsstrategien industrieller Unternehmen.
Der Vortrag stellt verschiedene Wartungsstrategien vor und gibt Orientierungshilfe zur Fragestellung wann Predictive Maintenance gewinnbringend angewendet werden kann. Weiterhin wird ein Überblick über relevante maschinelle Lernverfahren und Problemstellungen sowie über den zugehörigen Entwicklungszyklus vermittelt. Zur Veranschaulichung des theoretischen Grundgerüsts werden mehrere Use-Cases betrachtet.

Das lernen die Teilnehmer im Vortrag:

  • Potenziale von Predictive Maintenance
  • Abwägungen zum Einsatz von Predictive Maintenance

Referent: Richard Nordsieck  | XITASO GmbH

Richard Nordsieck studierte Informatik an der Universität Augsburg und arbeitet seit 2 Jahren als Softwareentwickler und Data Scientist bei der XITASO GmbH – aktuell an einem Forschungsprojekt zur automatisierten Parameteroptimierung der Inbetriebnahme durch Persistierung von Expertenwissen.

TRACK 2 NACHMITTAGS

14:20 Uhr

Track 2 Nachmittags
14:20 Uhr: Linux in Automatisierung – Grundlegendes, Potenzial und Beispiele mehr
In vielen Branchen gehört das Open Source-Betriebssystem Linux zu den am häufigsten verwendeten Betriebssystemen. Die Bezeichnung „Betriebssystem Linux“ steht hier für eine Sammlung von sehr unterschiedlichen Softwarekomponenten bestehend aus der „Toolchain“ zur Herstellung von Programmen und Bibliotheken, dem eigentlichen Linuxkernel und vielen tausend Anwenderbibliotheken und -programmen. Warum aber ist dies so erfolgreich? Liegt es daran,
  • dass Linux unter einer speziellen Open Source-Lizenz steht?
  • dass Linux kostenlos ist?
  • dass Linux so wenige Fehler aufweist?
  • dass Linux so weitgehend skaliert?
  • dass Linux so viele Architekturen unterstützt?
  • dass Linux bei Studienabgängern so gut bekannt ist?
  • dass Linux nicht abgekündigt werden kann?
Im hier vorgestellten Beitrag wird den genannten Fragen im Einzelnen nachgegangen – mit dem Ziel, die Erfolgsgeschichte von Linux zu erklären.

Referent: Dr. Carsten Emde  | OSADL
14:50 Uhr: Einbindung von Sensoren und Aktoren mit Industrial-IO in Linux mehr
Für das Industrial-Input-Output-Subsystem IIO im Linux-Kernel gibt es mittlerweile mehr als 250 Treiber für Sensoren und Aktoren. Wie Sie eine solche Applikation schnell und richtig realisieren, zeigt der Referent am Beispiel einer Bienenwaage.
Seit 2011 gibt es im Linux-Kernel das Industrial-Input-Output-Subsystem, kurz IIO. Inzwischen wurden von der recht eifrigen Community rund um die Mailingliste linux-iio mehr als 250 IIO-Treiber (stable v4.13, ohne Variationen und Staging) mainline gebracht. Beispiele sind A/D- und D/A-Wandler, Beschleunigungssensoren, Licht-, Feuchte-, Luftdruck-, Temperaturmessung usw.
Was sind die Besonderheiten von IIO-Treibern und wie kann ich diese in meinem Projekt verwenden? Genau davon handelt dieser Vortrag. Damit es nicht zu theoretisch sondern anschaulich wird, zeigt der Referent ein Anschauungsobjekt in etwas vereinfachter Darstellung.

Referent: Andreas Klinger | IT-Klinger

Andreas Klinger ist selbständiger Trainer und Entwickler. Seit Abschluss des Studiums der Elektrotechnik im Jahre 1998 arbeitet er im Bereich der systemnahen Softwareentwicklung mit den Schwerpunkten Treiberentwicklung, Embedded Linux und Echtzeit. Als Spezialist für Linux beschäftigt er sich mit dem internen Aufbau des Kernels, den Systemmechanismen sowie vor allem mit deren Einsatz in Embedded Systemen. ESE-Kongress-Referent 2008 bis 2018; Speaker-Award erhalten in 2011, 2014 und 2018; zahlreiche Fachartikel unter anderem im ESE-Report u. in der Elektronik-Praxis

15:20 Uhr: Objektorientierung vs. Globale Daten oder Funktionale Programmierung mehr
Die Objektorientierung als Softwaretechnologie ist präsent in Programmiersprachen C++, Java, C# als typischer Vertreter. Nicht eine Sprache ist aber "Objektorientiert" sondern es ist ein Programmierstil oder -paradigma, der kurz und prägnant als "Bindung von Daten (Objekte) an die Verarbeitungsroutinen (Methoden, Operationen) charakterisiert werden kann. Vererbung, Abstraktion, Interfaces, privat-Kapselung sind Verfeinerungen des Konzepts, nicht aber das Wesen. Das bedeutet, man kann man "objektorientiert" programmieren auch ohne Anwendung der Vererbung, nur durch klare Verbindung Daten und Operationen. Das ist jedenfalls auch in C möglich, oder wenn man so will mit einem bestimmten Programmierstil auch in Assembler. Markant für die Objektorientierung ist die Referenzierung der Daten (this-Zeiger in C++, Java, C#).
Das ältere Gegenparadigma ist die Verwendung von globalen Daten, wie sie oft noch in C vorgefunden wird, aber auch in Programmierungen der Automatisierungstechnik. In der Automatisierungstechnik (nach IEC61131-3) ist aber ebenfalls ein Objektorientierter  Ansatz möglich, der bereits durch Verbinden von Function Blocks mit den entsprechenden Data Blocks gegeben ist.
Ein anderer Ansatz als Gegenüberstellung zur Objektorientierung ist der in grafischen Function-Block-Programmierung typisch verwendete Datenfluss. Dieser scheint eher einem weiteren Paradigma, der Funktionalen Programmierung, zu folgen.
Der Vortrag beleuchtet diese verschiedenen Aspekte der Programmierung oder Paradigmen und zeigt Gemeinsamkeiten der Ansätze der Datenfluss/Funktionaler Programmierung und der Objektorientierung auf.     

Das lernen die Teilnehmer im Vortrag:

  • Die direkte Verwendung globaler Ressourcen (E/A, Speicher) ist zwar einfach und zielsicher, aber ungeeignet für komplexe Aufgabenstellungen.
  • Die Objektorientierte Herangehensweise bedeutet, Bindung der Daten an Verarbeitungsoperationen. Das ist nicht auf die objektorientierten Programmiersprachen beschränkt.
  • Die "Funktionale Programmierung" als modernes Paradigma ist mit dem objektorientierten Herangehensweise gut zu verbinden.

Referent: Dr. Hartmut Schorrig | vishia

Ausbildung Technische Kybernetik und Automatisierunstechnik, Dissertation auf dem Gebiet Programmiersprachen, Berufserfahrung Leistungselektronik und deren Regelung.

15:50 Uhr: Kaffeepause und Besuch der Ausstellung
16:30 Uhr: Typische Vorgehensweise bei Automatisierungsprojekte mit Entwicklungsdienstleister und Forschungspartner mehr
Dieser Vortrag geht der Frage nach, welche besonderen Aspekte bei gemeinsamen Automatisierungsprojekten im vermeintlichen Spannungsfeld zwischen Entwicklungsdienstleistern und Forschungspartnern zu beachten sind. Oder entsteht dieses Spannungsfeld erst gar nicht, wenn die Vorgehensweisen auf die Erfordernisse der Entwicklungsdienstleister und der Forschungspartner abgestimmt werden? Wie sollten Prozesse optimal organisiert werden, um zu einer Win-Win-Situation für Praxis und Forschung zu gelangen bzw. eine Balance zwischen notwendigem Praxisbezug und Innovationskraft zu erzielen? Welche Schlussfolgerungen lassen sich diesbezüglich aus den Erfahrungen bei Automatisierungsprojekten ziehen, um in Zeiten von IoT und I4.0 nachhaltige Projekte im kooperativen Teamwork entwickeln zu können?
Referent: Jochen Weber | ProNES Automation GmbH

Jochen Weber (Dipl.-Ing. (FH) im Bereich Elektrotechnik, Elektronik und Kommunikationstechnik) ist seit mehr als 17 Jahren Geschäftsführer der ProNES Automation GmbH. ProNES entwickelt Komplettlösungen für die Fertigungsindustrie, die im Sinne der Qualitätssicherung optimiert werden. In dieser Zeit gab es auch eine intensive Zusammenarbeit bei Forschungsprojekten. Neben der Automatisierung und Digitalisierung von Fertigungsprozessen ist er aktiv an der Entwicklung von Projekten zur Gebäudeautomatisierung sowie der Konzeption von Gewerbegebieten beteiligt, bei denen Nachhaltigkeit und E-Mobilität sowie gemeinsame Ressourcennutzung an erster Stelle stehen. Idealvorstellung ist ein Gewerbegebiet in Form eines „Campus“, auf dem Forschung und Praxis gemeinsam an zukunftsorientierten Projekten arbeiten und ihre Ressourcen den Anforderungen und Zielen entsprechend einbringen.

17:00 Uhr: Continuous Integration in der Automation mehr
Maschinenbauer und damit Entwickler stehen vor der Herausforderung immer schneller mit immer höherer Qualität Maschinen zu realisieren. Ein wesentlicher Teil der Wertschöpfung und Aufwände ist die Software-Entwicklung für SPS und HMI. Die digitale Transformation im Unternehmen ermöglicht die Parallelisierung von Arbeitsschritten und die disziplin-übergreifende Zusammenarbeit entlang des Wertschöpfungsprozesses von der Planung über das Engineering bis hin zu Inbetriebnahme und Service.Neben der Optimierung des Engineering Workflow und der Software-Qualität mit Bord-Mitteln der Automatisierungshersteller, halten auch immer mehr IT-basierte Verfahren Einzug in den Workflow. Die Zielsetzung ist, einen sogenannten Continuous Integration Prozess umzusetzen, der es möglich macht die parallele Entwicklung an Software-Projekten in Teams kontinuierlich zu optimieren.

Das lernen die Teilnehmer im Vortrag:

  • Transparenz im Entwicklungsprozess
  • Optimierung der Zusammenarbeit im Automation Team
  • Automatisieren von Software-Tests und deren Dokumentation

Referent: Florian Gröbel | Siemens AG

Ich bin seit dem 05.11.2018 für die Region Südwest (Baden-Württemberg) für Automatisierungslösungen als Sales Specialist tätig. Neue Technologien in Konzepte für den Kunden einzubinden erfordert überzeugungskraft. Nach meiner Ausbildung bei der Firma Siemens im Jahr 2013 war ich im Projektgeschäft als Softwareentwickler hauptsächlich in der Automobilindustrie unterwegs, kenne somit die Anforderungen der internationalen Industrie an die Automatisierung.

17:30 Uhr: Usability im Engineering mit modularem HMI-Baukasten: Ein HMI aus wiederverwendbaren Modulen – Wunschvorstellung oder praxistaugliches Konzept? mehr
HMI und SCADA Anwendungen für Maschinen und Anlagen übernehmen immer mehr Aufgaben. Sie sollen komplexe Technik sicher, ergonomisch bedien- und beherrschbar machen, mit modernem Design Kunden gewinnen, den Produktionsprozess lückenlos dokumentieren und vieles mehr.
Zusätzlich soll eine hohe Qualität bei immer kürzeren Durchlaufzeiten für die Erstellung erreicht werden.
Der Weg dorthin führt zwangsläufig zu möglichst wiederverwendbaren Modulen und wenig individueller Handarbeit - Usability für den Ingenieur.
Der Vortrag beleuchtet das klassische Vorgehen, den Weg zur Modularisierung sowie mögliche Synergien.

Das lernen die Teilnehmer im Vortrag:

  • Die Problematik der klassischen Vorgehensweise
  • Möglichkeiten zur Modularisierung eines HMI
  • Geschäftsmodell

Referent: Stefan Niermann | INOSOFT GmbH

Stefan Niermann ist bei der INOSOFT GmbH verantwortlich für den Bereich Vertrieb. Auf Basis seiner langjährigen Erfahrung in der Entwicklung des Prozessvisualisierungssystems VisiWin berät er heute Interessenten und Kunden.

18:00 Uhr
Ende des zweiten Veranstaltungstages
18:30 Uhr
Abendveranstaltung - Get together

Mittwoch, 18. September 2019

08:00 Uhr
Registrierung der Teilnehmer
08:50 Uhr
Begrüßung durch den Veranstalter
09:00 Uhr
Wie kommen wir systematisch von Anforderungen zum Systemdesign? Und welche Rolle spielt Architektur dabei? mehr
Zur Identifikation der Anforderungen mit dem größten Einfluss auf die Qualität eines System wird eine einfache Klassifikation betrachtet. Diese Anforderungen sind die Architekturtreiber und müssen bereits am Anfang der Entwicklung berücksichtigt werden. Sie prägen die Architektur, indem weitreichende Entscheidungen auf dieser Basis getroffen werden.
Im Vortrag wird eine in der Praxis erprobte Vorlage zur Dokumentation von Entscheidungen vorgestellt. Die Umsetzung erfolgt auf der Architekturebene durch zu den Anforderungen passende Architekturmuster (wie zum Beispiel Schichtenarchitektur).
Die Entscheidungen und die resultierende Architektur müssen in geeigneter Form dokumentiert werden. Dazu sind Architekturmodelle gut geeignet, auch als wichtiges Vehikel zur Kommunikation im Entwicklungsteam.

Das lernen die Teilnehmer im Vortrag:

  • Klassifikation von Anforderungen
  • Dokumentation von Design-Entscheidungen
  • Nutzen von Architekturmodellen

Referent: Prof. Dr. Jens Liebehenschel  | Frankfurt University of Applied Sciences

Prof. Dr. Jens Liebehenschel verfügt über langjährige Erfahrung in der Methoden- und Produktentwicklung sicherheitskritischer und variantenreicher Software-Systeme. Er arbeitet seit 2002 an verschiedenen Produkten im Automotive-Bereich in unterschiedlichen Rollen, zum Beispiel als System- und Software-Architekt. Seit 2015 ist er an der Frankfurt University of Applied Sciences Professor für Mobile Systems Engineering. Schon zuvor hat er sein Wissen in Form von Seminaren, Lehrveranstaltungen an Hochschulen und Vorträgen weitergegeben.

09:30 Uhr
Metriken für Softwarequalität in der Automatisierungstechnik mehr
Im Bereich automatisierter Produktionssysteme (aPS) ist Softwaremodularität eine entscheidende Grundvoraussetzung für Unternehmen, um die aktuellen Herausforderungen in der Automatisierungstechnik zu meistern und wettbewerbsfähig zu bleiben. Aus vorangegangenen Codeanalysen in der Industrie geht jedoch hervor, dass Unternehmen in der Automatisierungstechnik immer noch Schwierigkeiten haben, Software gezielt wiederzuverwenden sowie geeignete Softwarehierarchien für individuelle Randbedingungen zu definieren und umzusetzen. Dazu werden in der Informatik u.a. Softwaremetriken genutzt, um bestimmte Eigenschaften der Software zu quantifizieren und somit auf einer objektiven Basis Schwachstellen zu identifizieren. In der Automatisierungstechnik hingegen finden solche Metriken bisher nur wenig Anwendung: Software in aPS geht mit bestimmten Randbedingungen einher wie beispielsweise harten Echtzeitanforderungen, Einflüssen aus anderen Disziplinen (z.B. Elektrotechnik oder Mechanik) oder der Verwendung spezieller Programmiersprachen, die durch die Norm IEC 61131-3 definiert sind. Diese Randbedingungen werden von etablierten Metriken aus der Informatik nicht berücksichtigt. Folglich ist es Ziel dieses Beitrags, aufzuzeigen, wie geeignete Metriken für Software in aPS definiert werden können und welche Vorteile die Anwendung von Metriken in Bezug auf die Softwarequalität mit sich bringen. Konkret werden dazu Metriken vorgestellt, die speziell für die Anwendung in der Automatisierungstechnik konzipiert wurden, sowie die Ergebnisse aus entsprechenden Industrieevaluationen.
In einer vorangegangenen Arbeit wurde bereits untersucht, wie mit Hilfe einer Metrik die Reife eines Softwaremoduls bestimmt werden kann, um ein objektives Maß für die Wiederverwendbarkeit eines Bausteins abzuleiten. Darauf aufbauend wurde die Metrik im Rahmen einer Evaluation an Industriecode erweitert und optimiert mit dem Ziel, besonders kritische Bausteine zu identifizieren, die ggf. individuell getestet werden sollten. Außerdem werden die Ergebnisse einer weiteren Metrik vorgestellt, die für die Anwendung auf Funktionsbausteinsprache (FBD) entwickelt wurde – eine graphische, netzwerkbasierte Sprache der IEC 61131-3, die in aPS häufig zum Einsatz kommt. Ziel der Metrik ist die Bestimmung der strukturellen Komplexität von Netzwerken. Die resultierende Metrik wurde in Kooperation mit einem Unternehmen aus der Verpackungsindustrie evaluiert, das die Ergebnisse nutzt, um besonders komplexe Netzwerke zu identifizieren und diese – wenn möglich – nachzubessern. Darüber hinaus wird derzeit im Rahmen eines aktuellen Forschungsprojektes des Lehrstuhls AIS in Zusammenarbeit mit Schneider Electric zum Thema Softwarearchitekturen in aPS untersucht, wie bestimmte Einflussfaktoren auf die Architektur mit Hilfe von Metriken quantifiziert werden können. Die Ergebnisse sowie die Vorteile für potentielle Anwender dieser Metriken werden vorgestellt. Zudem werden die Vorteile einer cloud-basierten Codeanalyse präsentiert, die es ermöglicht, Metrikergebnisse einerseits zu visualisieren und andererseits die analysierten Daten zu nutzen, um Änderungen von Qualitätsattributen während eines bestimmten Zeitraums zu identifizieren und Trends zu erkennen.

Das lernen die Teilnehmer im Vortrag:

  • Herausforderungen und Strategien zur objektiven Qualitätsbewertung von IEC 61131-3 Steuerungssoftware
  • Vorteile und Chancen durch cloud-basierte Codeanalyse

Referent: Eva-Maria Neumann | TU München

Eva-Maria Neumann absolvierte 2018 ihren Master in Maschinenwesen. Im Januar 2019 startete sie ihre Promotion am Lehrstuhl für Automatisierung und Informationssysteme der Technischen Universität München. Zu ihren Schwerpunkten zählt unter anderem die Entwicklung objektiver Indikatoren und Metriken zur Messung verschiedener Qualitätsattribute von IEC 61131-3 Steuerungssoftware.

Referent: Sebastian Diehm | Schneider Electric SE

Sebastian Diehm, Dipl-Inf.(FH) mit Studienabschluss 2005, ist bei Schneider Electric als System Architekt für High-Performance Steuerungen tätig. Zu seinen Schwerpunkten gehört die Disziplin-übergreifende Definition von Produktfunktionen und Konzepten für die Automatisierungsplattform PacDrive. Lösungen umfassen dabei Aspekte von Cloudsoftware, Programmiersystem und embedded Software. Bereits seit einigen Jahren beschäftigt er sich mit verschiedenen Aspekten der Software Qualität und effizienter Software-Entwicklung im Maschinenbau. Daraus resultierten Forschungsbeiträge in Zusammenarbeit mit der TU München und wegweisende Funktionen für die Platformen EcoStruxure Machine Expert bzw. Machine Advisor.

10:00 Uhr
Simulation als Basis-Werkzeug für mechatronischen Entwicklungen im Zeichen von Industrie4.0 mehr
Nachdem in den letzten Jahren zunehmend eine agile Entwicklungsmethodik auch im Maschinen- und Anlagenbau notwendig erscheint, stellt sich die Frage, wie diese Ansätze, die ursprünglich aus der Software-Entwicklung kommen, auch im mechatronisch geprägten Umfeld Anwendung finden können.
Ein Kernelement ist dabei der Einsatz von Simulationswerkzeugen, die über den gesamten Entwicklungsprozess möglichst durchgängig eingesetzt werden können.
Die Anforderung aus agilen Entwicklungsprozessen (wie z.B. SCRUM), am Ende eines Sprints eine lauffähige Lösung darstellen zu können, stellt in mechatronischen Umgebungen eine schwer einzuhaltende Bedingung dar. Mit Hilfe von Simulationswerkzeugen können auch in frühen Produktentwicklungsphasen jederzeit lauffähige (virtuelle) Maschinen generiert werden, die genau den Status der inkrementellen Produktentwicklung darstellen.


Das lernen die Teilnehmer im Vortrag:

  • Durch die Vorstellung einer konkreten Anwendung können die Zuhörenden leicht eine Übertragbarkeit des Einsatzes von Simulationsmethoden auf das eigene Unternehmen beurteilen.
  • Die Darstellung von verschiedenen Einsatzfeldern und die Erfahrungen in einer Vielzahl von Unternehmen geben wertvolle Hinweise, wie ein Einstieg in das Thema möglichst leicht und mit hohem Nutzen geschehen kann.

Referent: Anton Fritsch | ITQ GmbH

Dipl.-Ing. Anton Fritsch, geboren 1967, studierte Maschinenbau an der Technischen Universität München (TUM) und bearbeitete seine Diplomarbeit zum Thema „Physikalische Effekte in der Simulation des Industrierobotereinsatzes“ am Institut für Werkzeugmaschinen und Betriebswissenschaften (iwb). Seit 1993 baute er die Firma Software Factory mit auf und war dort für den Bereich Datenbankentwicklung in Anwendungen des Maschinen- und Anlagenbaus tätig. Im Jahr 2000 wechselte er in die ITQ GmbH und ist seit dem dort als Senior Consultant tätig. Schwerpunkte der Arbeit sind mechatronische Entwicklungsprozesse und der Einsatz geeigneter Methoden und Werkzeuge inkl. des Einsatz von virtuellen Umgebungen (Simulationen). Neben den rein fachlichen Schwerpunkten stellt die Entwicklung und Etablierung von geeigneten sozialen Strukturen beim Kunden einen wichtigen Aspekt dar.

10:30 Uhr
Kaffeepause und Besuch der Ausstellung
11:10 Uhr
Continuous Refactoring mit Software-Architektur als Game Changer mehr
Software Architektur ist eine anerkannte Disziplin des System und Software Engineerings. Software Architektur legt das Fundament für eine effiziente und nachhaltige Software-Entwicklung. Veraltete Architekturmodelle stellen ein Risiko für die Modelle selbst und den Erfolg des Projekts insgesamt dar. Durch den Einsatz hierarchischer Reflexionsmodelle gleicht die Axivion Suite kontinuierlich das Architekturmodell mit seiner Implementierung ab, so dass die Architekturmodelle ihre Hebelwirkung auf die Qualität der Systemstrukturen über den gesamten Lebenszyklus des Systems hinweg entfalten können.
Continuous Refactoring: In den vergangenen Jahrzehnten entwickelten sich die Vorgehensmodelle von wasserfallartigen Entwicklungsprozessen hin zu agilen Ansätzen. Diese agilen Ansätze versprechen ein flexibles, schnelles und nutzerorientiertes Vorgehen. Durch mehrere Iterationen in der Software-Entwicklung wurde die Idee des “Refactorings” populär.
Refactoring vereinfacht zukünftige Entwicklungszyklen durch die Verbesserung der inneren Qualität der Software unter gleichzeitiger Beibehaltung der Funktionalität für den Endnutzer. Dadurch kann man die Komplexität einer Software einige Zeit oder Iterationen lang anwachsen lassen und dabei akzeptieren, dass Software Erosion (auch bekannt als technische Schulden und “software decay”) entsteht. Diesen Effekten muss man durch explizit geplante Aufräumschritte entgegentreten. Aufräumaktionen werden typischerweise kurz bevor oder nach einem Produktionsrelease eingeplant. Auch wenn dieser Ansatz des “software gardenings”, inspiriert durch die Idee des Wachsenlassens und Zurückschneidens (“grow and prune”), faszinierend klingt, geht er in der Praxis kaum auf, denn “das Release ist morgen/war gestern, daher …”
  1. Zeit – “… haben wir jetzt nicht die Zeit fürs Aufräumen.”
  2. Risiko – “… wollen wir keine neuen Fehler einführen.”
  3. Budget – “…warum sollten wir etwas ändern, was der Endnutzer nicht einmal wahrnimmt?”
Die Lösung für solche frustrierenden und fruchtlosen Diskussionen ist ein kontinuierlicher Refactoring-Ansatz. Durch Continuous Refactoring auf einer täglichen Basis werden Zeit, Risiko und Budget viel einfacher einzuschätzen und damit akzeptabel. Anstatt darauf zu warten, dass Software erodiert und erst dann darauf zu reagieren, agiert man sofort und direkt bevor die Erosion ihren Preis fordert. Erfahrung und Forschung zeigen, dass eine aktuelle und erosionsfreie Software Architektur ein großer Hebel für die Produktivität ist. Idealerweise ist daher die Software Architektur ein Ansatzpunkt für Continuous Refactoring.

Das lernen die Teilnehmer im Vortrag:
  1. Warum Architekturen eine wichtige Rolle spielen
  2. Wie Architekturen "lebendig" werden
  3. Wie Architekturen effektiv genutzt werden können

Referent: Dr. Daniel Simon  | Axivion GmbH

Dr. Daniel Simon ist bei der Axivion GmbH für Professional Services zuständig. Er unterstützt Kunden bei der Einführung, dem Aufbau und der Etablierung von Qualitäts- und Risikomanagement Maßnahmen. Er hat umfangreiche Erfahrungen im Qualitätsmanagement von IT- und Software-Systemen und beim Einsatz von Kennzahlensystemen als Lenkungsinstrument zur Unterstützung im Projekt- und Produktmanagement.

Referent: Thomas Eisenbarth | Axivion GmbH
11:40 Uhr
Statische Codeanalyse im Entwicklungsprozess für SPS-Code – Nutzen und Herausforderungen für Entwickler, Projektleiter und Management mehr
In diesem Vortrag wird die statische Codeanalyse als nutzbringendes Instrument zur kontinuierlichen Verbesserung der Softwarequalität mit Fokus auf Automatisierungssysteme betrachtet. Zur thematischen Einordnung wird zunächst auf den Wandel der Mechatronik im Maschinen- und Anlagenbau mit einem stetig steigenden Softwareanteil eingegangen, der vor allem dazu führt, dass die Anforderungen an mechatronische Systeme immer komplexer werden. In diesem Wandel gewinnt die Qualitätssicherung von Software für Windmöller & Hölscher und viele andere Firmen zunehmend an Bedeutung.
Eine erfolgreiche Differenzierung im Markt gelingt immer mehr durch Softwareprodukte und intelligente Lösungen. Eine große Herausforderung dabei ist, ein generelles Bewusstsein für die Relevanz von Software- und Softwarequalität zu schaffen, um so auf allen Ebenen im Unternehmen nachhaltig Strategien, Strukturen, Systeme, Prozesse und Verhaltensweisen zu verändern. Dieser Vortrag wird jeweils auf grundsätzliche Themen auf den einzelnen Ebenen eingehen, sowie einfache Beispiele zur Realisierung benennen.
Auf Managementebene ist der Nutzen von Softwarequalität unter anderem durch Minimierung der Zeit zur Markteinführung greifbar. Im Ergebnis entstehen langfristig wartbare Systeme, die durch die hohe Qualität Nacharbeiten vermeiden.  Hohe Softwarequalität führt also direkt zur Ergebnisverbesserung des Unternehmens. Die schwer greifbaren monetären Auswirkungen guter Softwarequalität müssen vor allem durch gute Abschätzungen beziffert werden. Im Vortrag werden einige einfache Beispiele für solche Abschätzungen aufgeführt.
Auf Entwicklungsleiter- und Projektleiterebene ist häufig das Erreichen von messbaren Qualitätszielen relevant. Hierzu ist es oftmals notwendig, die Leistung mehrerer Entwicklungsteams im Sinne von Softwarequalität mit Hilfe von eindeutig definierten Kennzahlen erfassen und diese kontinuierlich verbessern zu können. Auf der Grundlage einer fortlaufenden Analyse dieser Kennzahlen ist es möglich, die Veränderungen in den betroffenen Teams über die Zeit darzustellen und wo notwendig, weitere Maßnahmen einzuleiten. Weiterhin kann entweder teamintern, bereichsübergreifend oder unternehmensweit über diese Kennzahlen ein gemeinsamer Standard definiert werden – somit wird Qualität vergleichbar.
Auf fachlicher Ebene sind Auswahl und Einsatz der richtigen Werkzeuge und Methoden an den richtigen Stellen im Softwareentwicklungsprozess zentral, um eine kontinuierliche Verbesserung zu etablieren. Der Vortrag geht auf einen gemeinsamen Softwareentwicklungsprozess für Applikationen und Automatisierungsprojekte ein und greift die erste Station des Prozesses, die Implementierung als größte Chance zur Verbesserung mit hohem Nutzen-zu-Aufwand-Verhältnis heraus. Hier wird zur Qualitätssteigerung in der Hochsprachenprogrammierung unter anderem die sogenannte „statische Codeanalyse“ verwendet. Im Gegensatz zum Hochsprachenbereich, in dem eine Vielzahl an Tools zur statischen Codeanalyse angeboten wird, gibt es für den Bereich der speicherprogrammierbaren Steuerungen nur vereinzelt Tools. Deshalb entwickeln derzeit die Firmen ITQ und TIOBE ein Tool zur statischen Codeanalyse für SPS-Code und werden dabei von einem Industrie Konsortium unterstützt. Der aktuelle Stand der Entwicklung wird dargestellt und Potenziale sowie Grenzen bewertet.

Referent: Dr. Thomas Rietmann  | ITQ GmbH

Dr. Thomas Rietmann verfügt über weitreichende Erfahrungen in der Produktentwicklung komplexer Hardware- und Software-Systeme. Er arbeitet seit 2014 an verschiedenen Produkten in der Druckmaschinenentwicklung in unterschiedlichen Rollen. Schon zuvor hat er sein Wissen in Form von Seminaren und wissenschaftlichen Veröffentlichungen an Hochschulen und in Vorträgen weitergegeben.

12:10 Uhr
Durch Standards in Rekordzeit von der Maschine zur Linie – Standardisierung als Basis eines digitalen Engineering Workflows mehr
Maschinenbauer und damit Entwickler stehen vor der Herausforderung immer schneller mit immer höherer Qualität Maschinen zu realisieren.
Ein wesentlicher Teil der Wertschöpfung und Aufwände ist die Software-Entwicklung für SPS und HMI. Die digitale Transformation im Unternehmen ermöglicht die Parallelisierung von Arbeitsschritten und die disziplin-übergreifende Zusammenarbeit entlang des Wertschöpfungsprozesses von der Planung über das Engineering bis hin zu Inbetriebnahme und Service.
Basierend auf einer durchgängigen Tool-Kette und digitalisierten Engineering-Workflows kann die Entwicklungszeit verkürzt und gleichzeitig die Software-Qualität nachhaltig gesteigert werden.
Grundlage für diesen Digital Workflow ist neben der durchgängigen Tool-Kette auch die Standardisierung der Automatisierung.


Das lernen die Teilnehmer im Vortrag:

  • Gestaltung von Automatisierungsstandards
  • Simulation und der Funktionstest von Software als integraler Bestandteil im Entwicklungsprozess
  • Integration von Maschinen in Produktionsanlagen mit standardisierten Schnittstellen

Referent: Thomas Kersting | Siemens AG

2011 Abitur Gymnasium Aspel

2011-2014 DHBW Studium Elektrotechnik Automatisierungstechnik in Kooperation mit der Siemens AG

2014-2017 Siemens AG Fachberater SCADA Systeme

Seit 2017 Sales Specialist für Advanced Automation

12:40 Uhr
Keynote ASE & 360°: Forever Young Software – Wie kann man Softwareevolution managen? mehr
Die steigende Nachfrage von Kunden nach individualisierten Massenprodukten sowie die damit einhergehende Forderung nach mehr Flexibilität und Wandelbarkeit im Produktionsprozess hat in der Entwicklung von automatisierten Produktionssystemen (aPS) nicht nur Einfluss auf die verwendete Hardware, sondern vor allem auf die entsprechende Steuerungssoftware. Nach aktuellen Studien sind jedoch, trotz vieler bekannter Nachteile, ungeplante Wiederverwendungsstrategien wie „Copy, Paste and Modify“ noch immer die am häufigsten eingesetzten Methoden in der Steuerungsentwicklung neuer aPS. Diese Methode, bei der bestehende Teile oder ganze Softwareprojekte kopiert und an die Anforderungen des aktuell zu entwickelnden aPS angepasst werden, birgt unter anderem das Risiko beim Ändern nicht alle notwendigen Teile korrekt zu adaptieren.
In dieser Keynote wird ein gesamtheitlicher Überblick über die Konzeptionierung, Implementierung, Wiederverwendung, Dokumentation, Wartung und Evolution von modularer Steuerungssoftware dargestellt. Der Fokus liegt hierbei auf aktuellen Herausforderungen und Lösungsansätzen aus der Forschung in den einzelnen Phasen der Softwareevolution.

Referent: Prof. Dr.-Ing. Birgit Vogel-Heuser | TU München

Prof. Vogel-Heuser studierte Elektrotechnik (1987, Dipl. Ing.) und promovierte im Bereich Maschinenbau an der RWTH Aachen (1990, Dr. Ing.). Sie sammelte zehn Jahre Industrieerfahrung, u.a. als technischer Geschäftsführer in der Siempelkamp Gruppe (Anlagenbau). Nach Berufungen in Hagen, Wuppertal und Kassel übernahm sie den Lehrstuhl für Automatisierung und Informationssysteme an der TUM (2009). Sie ist Sprecherin des Sonderforschungsbereichs 768: „Zyklenmanagement von Innovationsprozessen“, Mitglied im Coordination Board des DFG-Schwerpunktprogramms 1593 „Design for Future“ und Mitglied in der Deutschen Akademie der Technikwissenschaften e.V. (acatech). Die Forschungsschwerpunkte von Prof. Vogel-Heuser (*1961) liegen im Bereich des System- und Software-Engineerings sowie in der Modellierung von verteilten und zuverlässigen eingebetteten Systemen. Insbesondere stehen die Herausforderungen, welche sich aus der steigenden Nachfrage nach kundenspezifischen Produkten im Anlagenbau ergeben, im Fokus. Zudem sind auch hybride Prozesse und heterogen verteilte, intelligente Systeme unter Einbezug der Mensch-Maschine-Interaktion Teil ihrer Forschung.

13:20 Uhr
Mittagspause und Besuch der Ausstellung
14:20 Uhr
SPS-IP-Schutz: Wirkungsvoller Schutz für SPS-Software, um den Nachbau von Maschinen und Anlagen zu erschweren mehr
Software schützen ist nicht nur bei PC-Software ein Thema. Ein wirkungsvoller Schutz für SPS-Software hilft, den Nachbau von Maschinen und Anlagen zu erschweren, das Knowhow, das mehr und mehr in der Embedded-Software steckt vor Reverse-Engineering zu schützen, neue Geschäftsmodelle zu ermöglichen und die Integrität des Systems zu gewährleisten.
Hat sich das Bewusstsein der Hersteller und Anwender aus der Bedrohung durch Stuxnet gesteigert und haben Sie sich entsprechend gegen mögliche Angriffe durch Viren & Co. gewappnet? Im Bewusstsein der Anwender und Maschinenbauer ist das Thema Sicherheit von Automatisierungs- und Embedded Systemen heute stärker verankert als dies vor Stuxnet der Fall war. Die Regierungen vieler Länder starten Programme und gründen „Cyber-Abwehrzentren“, um kritische Infrastrukturen zu schützen. Dabei geht es entweder um den Schutz gegen terroristische Angriffe oder um Hackerangriffe auf kritische Infrastrukturen wie Verkehrsleitsysteme oder die Energie- und Wasserversorgung.
Daneben gewinnt der Aspekt der unerlaubten Manipulation immer stärker an Bedeutung. Ein Beispiel: Hersteller von Windkraftanlagen sind bestrebt zu verhindern, dass Betreiber etwa durch Tuning mehr Energie als vorgesehen aus ihrem Windrad erzeugen, sofern dies zu Lasten des Verschleißes und damit auf Kosten der Gewährleistung durch den Hersteller geht.
Wie lässt sich heute ein wirksamer Manipulationsschutz von Automatisierungs-Systemen erreichen? Technische Schutzsysteme erschweren den Nachbau von Geräten, Steuerungen und Maschinen, indem sie die eingebaute Software wirkungsvoll durch Verschlüsselung des Programm-Codes schützen. Die sichere Schlüsselspeicherung erfolgt entweder in einer Art Dongle oder durch software-basierte Aktivierung und Bindung an ein bestimmtes Gerät oder eine bestimmte Steuerung.
Schutz vor Reverse Engineering wird erreicht, da der Programm-Code nur verschlüsselt im Speicher des Zielsystems liegt und somit eine statische Analyse durch Disassemblieren nicht möglich ist. Darüber hinaus gibt es Mechanismen, die einen „Angriff“ erkennen und sofort die Lizenz sperren, so dass keine Entschlüsselung des Codes mehr erfolgen kann.
Um eine Manipulation, das heißt eine unberechtigte Veränderung des Programm-Codes, zu verhindern, wird der Programm-Code beim Hersteller digital signiert. Der Schutzmechanismus auf dem Zielsystem lässt nur das Laden und Ausführen korrekt signierter Programmteile zu. Kurzum: Ein manipuliertes Programm wird nicht ausgeführt.


Das lernen die Teilnehmer im Vortrag:

  • Kopierschutz, Integritätsschutz, Zahlungsmoral steigern
Referent: Guenther Fischer | WIBU SYSTEMS AG

Günther Fischer arbeitet bei der WIBU-SYSTEMS AG als Senior Licensing and Protection Consultant. Er berät Hersteller bei der Planung und Umsetzung von geschützter Software. Sein Ziel ist es, Know-how- und Manipulationsschutz und gleichzeitig neue Geschäftsmodelle zu ermöglichen. In der Softwareindustrie ist er seit mehr als dreißig Jahren tätig.

14:50 Uhr
Security-Schwachstellen mit Fuzzing aufdecken mehr
Sicherheit im Sinne von Security ist für Automatisierungssysteme ebenso wichtig wie Safety. Seit Stuxnet rückt dies immer stärker ins Bewusstsein. Security hat viele Ausprägungen und Anforderungen. Beispielsweise fordert die Security-Norm IEC 62443 in ihrem Teil 3-3 für das Foundational Requirement „System integrity“ das System Requirement „Input validation“ (in Abschnitt 7.7). Beispielsweise soll die Einhaltung von Wertebereichen für Datenfelder oder die Wohlgeformtheit von Datenpaketen geprüft werden. Wie kann man dynamisch testen, ob solche Prüfungen implementiert sind und ob sie funktionieren? Eine geeignete Testmethode ist „Fuzz Testing“ bzw. „Fuzzing“. Durch Fuzz Testing werden mehr oder weniger zufällige Eingangsdaten an das zu testende System übertragen und dann beobachtet, ob eine Fehlfunktion ausgelöst wurde. Fuzz Testing wird auch explizit in Teil 4-1 der IEC 62443 genannt, und zwar in Abschnitt 9.4 „Vulnerability testing“. Fuzz Testing kann Zero-Day- Vulnerabilities aufdecken, also Security-Schwachstellen, die bis dato noch niemandem bekannt waren. Fuzz Testing ist ein Black-Box-Test und benötigt keinen Quellcode. Der Bezug von Fuzz Testing zum Robustheitstest und zum Fault-Injection-Test wird hergestellt.

Das lernen die Teilnehmer im Vortrag:

  • Was sagt die IEC 62443 bezüglich Fuzzing? Was ist Fuzzing? Vor- und nachteile von Fuzzing.
Referent: Frank Büchner | Hitex GmbH

Frank Büchner hat ein Diplom in Informatik von der Technischen Hochschule Karlsruhe. Seit mehreren Jahren widmet er sich dem Thema Testen und Software-Qualität. Seine Kenntnisse vermittelt er regelmäßig durch Vorträge und Fachartikel. Momentan arbeitet er als „Principal Engineer Software Quality“ bei der Fa. Hitex GmbH in Karlsruhe.

15:20 Uhr
Die Robustheit sicherheitskritischer Software mit Fault-Injection-Tests prüfen mehr
Aufgrund geltender Sicherheitsnormen müssen bei der Zertifizierung sicherheitskritischer Systeme umfangreiche Tests sowohl unter normalen als auch unter abnormalen Betriebsbedingungen durchgeführt werden. Der Einsatz von Fault-Injections  ist eine gut anwendbare Methode, um die korrekte Funktionsweise einer Software auch unter störenden äußeren Einflüssen sowie bei Hardware-Fehlern zu prüfen. Diese Testmethode injiziert fehlerhafte Werte in Variablen einer Software und prüft, ob das Programm darauf angemessen reagiert.
Spezielle Programmierungsmethoden wie Diversität, Defensivität, Selbsttests und ständige Überprüfungen sind notwendig, um sicherzustellen, dass eine Software auch unter abnormalen Bedingungen korrekt arbeitet. Bei der Definition von Tests ist es in der Regel schwierig, auf interne Daten zuzugreifen oder Bitfehler zu simulieren. Daher können meist nicht alle Zweige einer solchen Software angesprochen werden, wodurch nicht die vorgeschriebene Testabdeckung erreicht wird.
Die Präsentation beschreibt einen Ansatz für Fault-Injection-Tests von C/C++ Software, die eine einfache Identifizierung der zu instrumentierenden Stelle in der Software sowie eine automatische Anpassung bei Software-Änderungen erlaubt. Sämtliche Arten von unter normalen Umständen nicht erreichbaren  Programmzweigen können mit diesem Ansatz getestet werden.
Inhaltliche Gliederung:
  • Übersicht typischer Code-Beispiele mit  nicht erreichbaren Programmzweigen
  • Lösung mit manueller Code-Instrumentierung und daraus resultierende Probleme
  • Zuordnung von Fault-Injections über den Flow-Graphen einer Software
  • Betrachtung funktionaler Testergebnisse und Ergebnisse von Fault-Injection-Tests
  • Umgang mit Software-Änderungen
Nutzen und Besonderheiten:
Übliche Fehlersituationen, wie das Erreichen eines default-Pfades einer switch-Anweisung oder das Beenden von Endlosschleifen, sind über eine Fault-Injection einfach zu realisieren. Liegt eine neue Version des Quellcodes vor, so kann die Fault Injection automatisch wieder an die richtige Stelle im Code platziert werden. Da die Fault-Injection nicht im Quellcode verbleibt, ist eine weitere Iteration durch den Entwicklungsprozess nicht mehr notwendig und die Unit Tests können in einem Arbeitsgang erstellt werden, um eine vollständige Testüberdeckung zu erreichen – dies spart Zeit und Kosten.

Referent: Michael Wittner | Razorcat Development GmbH

Dipl.-Inform. Michael Wittner ist seit vielen Jahren im Bereich Software-Entwicklung und Test tätig. Nach dem Studium der Informatik an der TU Berlin arbeitete er als wissenschaftlicher Mitarbeiter der Daimler AG an der Entwicklung von Testmethoden und Testwerkzeugen. Seit 1997 ist er geschäftsführender Gesellschafter der Razorcat Development GmbH, dem Hersteller des Unit-Testtools TESSY und CTE sowie des Testmanagement-Tools ITE und der Testspezifikationssprache CCDL.

15:50 Uhr
Kaffeepause und Besuch der Ausstellung
16:30 Uhr
Moderne Methoden des modellbasierten Testens von variantenreichen Systemen des Maschinen- und Anlagenbaus mehr
Durch flexiblere Produktionsanlagen im Rahmen von Industrie 4.0 müssen Hersteller mechatronischer Produkte heute in der Lage sein, ihr Angebot immer stärker an individuelle Kundenwünsche anzupassen. Dies erfordert ebenso eine drastisch steigende Flexibilität der in den Produktionsanlagen enthaltenen Komponenten. Durch diese Flexibilität entsteht bei den Komponentenherstellern eine deutlich größere Varianten- und Versionsvielfalt ihrer Produkte bei gleichzeitig stetig komplexer werdenden Maßnahmen der Qualitätssicherung.
Die steigende Anzahl an Varianten zieht eine steigende Anzahl an notwendigen Tests nach sich. Die Zeit zum Durchführen der Tests ist jedoch meist begrenzt, sodass nur eine ausgewählte Anzahl an Testfällen ausgeführt werden kann. Diese Auswahl wird bisher noch manuell und anhand der Erfahrung des zuständigen Testers getroffen. Hier besteht durch die steigende Variantenvielfalt und der folgenden Unübersichtlichkeit die Gefahr, dass bereits evaluierte Testfälle wiederholt und kritische Testfälle vergessen werden. Diese ineffiziente Testpraxis spiegelt sich direkt in der Qualität der Produkte wieder und verursacht einen Zeit- und Geldverlust in den Unternehmen.
In diesem Vortrag werden Methoden vorgestellt, mittels derer die Komplexität moderner automatisierter Produktionsanlagen im Bereich der Qualitätssicherung und Fehlersuche sowie heterogen qualifiziertem Testpersonal berücksichtigt und den entstehenden Herausforderungen entgegengekommen werden kann. Basierend auf üblicherweise bereits vorhandenen Dokumenten des Engineerings wie Stromlaufplänen, Feature-Modellen von Produktfamilien sowie formalisierten Anforderungen können moderne Softwarewerkzeuge Ingenieure im Bereich Testen unterstützen. Durch vollautomatische Testfallgenerierung von (semi-)automatischen Produkttests können sowohl die Abdeckung komplexer Anlagen erhöht als auch die Variabilität von Produktfamilien berücksichtigt werden. Einhergehend mit der automatisierten Generierung entsteht jedoch auch eine größere Anzahl an Testfällen. Kontextsensitives Management, Selektion und Priorisierung der Tests sind bereits jetzt essentiell für die erfolgreiche Qualitätssicherung moderner Automatisierungsprodukte. Auch auf diesem Feld führen innovative Softwarewerkzeuge zur Verbesserung bzw. ermöglichen überhaupt erst die Beherrschung der enormen Anzahl an automatisiert generierten Testfällen. Darüber hinaus wird ein Überblick über aktuelle Fortschritte der Forschung im Bereich Generierung, Priorisierung und Durchführung von Tests der Automatisierungstechnik gegeben. Abgesichert durch umfangreiche Kooperationen mit der Industrie fundieren die vorgestellten Methoden auf einem tiefgehenden Branchenüberblick über aktuell gängige Testpraktiken und Defizite der einzelnen Domänen.

Referent: Eva-Maria Neumann | TU München

Eva-Maria Neumann absolvierte 2018 ihren Master in Maschinenwesen. Im Januar 2019 startete sie ihre Promotion am Lehrstuhl für Automatisierung und Informationssysteme der Technischen Universität München. Zu ihren Schwerpunkten zählt unter anderem die Entwicklung objektiver Indikatoren und Metriken zur Messung verschiedener Qualitätsattribute von IEC 61131-3 Steuerungssoftware.

17:00 Uhr
Herausforderungen und Chancen bei der Entwicklung verteilter Automation-Softwaresysteme im Maschinen- und Anlagenbau mehr
Die SW-Entwicklungsarbeit im Bereich der Automatisierungstechnik steht in der industriellen Praxis großen Herausforderungen gegenüber durch stetig steigende Anforderungen an funktionalem Umfang bei hoher Qualität und Flexibilität.
In diesem Vortrag wird ein kurzer Einblick in diese Herausforderungen mit aktuellen Ansätzen und Werkzeugen in der Praxis gegeben, sowie die Chancen und Herausforderungen neuer Entwicklungsansätze und Werkzeuge exemplarisch herausgestellt.

Das lernen die Teilnehmer im Vortrag:

  • Herausforderungen mit aktuellen Ansätzen und Werkzeugen in der Praxis
  • Chancen und Herausforderungen neuer Entwicklungsansätze und Werkzeuge

Referent: Dr. Martin Obermeier | KRONES AG

Wissenschaftliche Forschung und Lehre an der TU München:

• Publikation und Vorträge bei internationalen Journalen und Konferenzen mit Schwerpunkt Gebrauchstauglichkeit innovativer Programmieransätze im Maschinen und Anlagenbau und deren Modularisierungsauswirkungen

• Entwicklung und Analyse von hybriden Softwareplattformen für multiagentenbasierte Systeme und mobile Manipulatoren

Angewandte Entwicklung und Forschung in der Krones AG :

• Entwicklung und Erprobung von neuen Systemarchitekturen für die Maschinensoftware

• Entwicklung und Erprobung von Datenmodellen

• Identifikation von Anwendungsmöglichkeiten von KI-Technologien in Prozessen und Produkten

• Entwicklung von Prototypen von KI-Technologien in Prozessen und Produkten

17:30 Uhr
Verbesserung der Qualität von Softwaretests durch Mutation Testing mehr
Mutation Testing ist ein Ansatz zur Bewertung von Softwaretests, der darauf basiert, gezielt Fehler in den Produktivcode einzubauen und zu überprüfen, ob diese von den Tests erkannt werden. Die Erkennungsquote dieser Fehler kann somit ein Maß für die Qualität der Tests liefern und Ansätze für mögliche Verbesserungen der Tests aufzeigen.

Inhalt dieses Vortrags ist ein Überblick über das Konzept des Mutation Testing, die Vorstellung aktueller Tools und möglicher Anwendungsgebiete sowie einen Erfahrungsbericht über den praktischen Einsatz.
Weiterhin wird das durch das „Zentrales Innovationsprogramm Mittelstand" (ZIM) geförderte Kooperationsprojekt „Test the Test“ vorgestellt, in dem die Idee des Mutation Testings auch auf Hardware- und Modell-Ebene angewendet wird.


Das lernen die Teilnehmer im Vortrag:
  • Schwächen konventioneller Metriken zur Testbewertung
  • Idee des Mutation Testing
  • Aktuelle Mutation Testing Tools

Referent: Michael Wißner | XITASO GmbH

Michael Wißner hat an der Universität Augsburg Informatik studiert und arbeitet seit drei Jahren als Softwareentwickler bei der XITASO GmbH. Durch die Arbeit in der Auftragsentwicklung von komplexen individuellen Softwarelösungen wird er täglich mit der Relevanz von Softwaretests und deren Qualität konfrontiert.

18:00 Uhr
Ende der Veranstaltung

Premium-Sponsor

Aussteller

Partner