Skip to main content
Safety Corner

Safety Corner

By Florian Wagner

Der Podcast für die Safety Community. Expert:inn:en im Gespräch über Safety Engineering und Management im Kontext von großen, komplexen Systemen.

About the host: Florian Wagner is a Functional Safety Consultant with msg Plaut Austria. He has worked in Automotive, Railway and Aerospace projects. Mehr erfahren: safetycorner.wagnerflorian.eu/index.php/de/der-host
Available on
Google Podcasts Logo
Pocket Casts Logo
RadioPublic Logo
Spotify Logo
Currently playing episode

Episode 4: Systems Engineering und Safety - mit Andreas Gerstinger

Safety CornerMay 22, 2020

00:00
29:34
Episode 22 (German) - Fit for NIS2: Wie erfüllt man die neue EU-Cybersicherheits-Vorgaben? - mit Simon Leitner

Episode 22 (German) - Fit for NIS2: Wie erfüllt man die neue EU-Cybersicherheits-Vorgaben? - mit Simon Leitner

Simon Leitner ist CEO und Founder von Condignum, einer Cybersecurity-Firma mit Sitz in Wien. Er beschäftigt sich vor allem in den letzten 10 Jahren mit Cybersecurity.

NIS2, eine neue EU-Richtlinie zur Cybersicherheit, tritt ab Oktober 2024 in Kraft. Die darin definierten verschärften Maßnahmen und Meldepflichten betreffen viele Unternehmen. Im Gespräch mit Simon Leitner wurde erörtert, was genau NIS2 fordert, wen es alles betrifft und wie man diese Anforderungen erfüllen kann.

Die erwähnten Ressourcen:

Jan 23, 202449:22
Episode 21 (English) - STPA in practice and SAE J3187 - with Mark A. Vernacchia

Episode 21 (English) - STPA in practice and SAE J3187 - with Mark A. Vernacchia

Mark A. Vernacchia is a GM Technical Fellow and is the Principal System Safety Engineer for all GM propulsion systems worldwide. Mark received a BS in Mechanical Engineering from Purdue University and an MS in Engineering Sciences from Rensselaer Polytechnic Institute (RPI). He has been listed on 24 control system based patents as an inventor. Mark is a Professional Engineer in the State of Michigan and is recognized as an Expert Systems Engineering Professional (ESEP) by the International Council of Systems Engineers (INCOSE).

In this episode, Mark talked about SAE J3187, a recommended practice for evaluations of automotive related safety-critical systems using the system-theoretic process analysis STPA. Goal of this document is to provide both educational materials and lessons-learned gained by STPA practitioners. Further, Mark talked about his experiences using STPA and being a task force leader developing the recommened practice.

There will be a major update of SAE J3187 in the first quarter of 2023.

Additional sources of information and links mentioned in the podcast:

  • For info about STAMP and the next STAMP workshop go to: PSAS website
  • A list of presentations by Mark on STPA can be found here: Vernacchia STPA presentations
  • The STPA-handbook can be found here: STPA-handbook
  • You may reach out to Mark A. Vernacchia via email: firstname.a.lastname [a] gm.com (replace firstname and lastname by, ail address is not pasted directly to avoid spam mails)
Dec 14, 202253:17
Episode 20 (German) - Systems Engineering Methoden in Lehre, Forschung und Praxis - mit Lydia Kaiser
Dec 13, 202240:39
 Episode 19 (English) - STAMP and STPA - A systems approach for complex systems - with Michael Schmid

Episode 19 (English) - STAMP and STPA - A systems approach for complex systems - with Michael Schmid

Michael Schmid is a Technology Architect and Loss Prevention Specialist in the field of autonomous systems. His research focuses on preventing losses related to the use of Artificial Intelligence (AI) and making AI safe for use in everyday technology.

Previously, Michael has worked on automation features in cars, self-driving software, and has developed a certification approach for automated vehicles. Michael has a Master‘s degree from the Massachusetts Institute of Technology (MIT) and is currently a PhD candidate in the Group for System Safety and Cybersecurity at MIT. He is the second time guest in this podcast.

In this episode, Michael gave a thorough introduction to STAMP and STPA. STAMP is an accident causality model that was developed by prof. Nancy Leveson at MIT. It is based on systems theory and systems thinking. It is well-suited to addresses the challenges in engineering when working with critical complex systems. STPA is an analysis method based on STAMP to analyze systems to proactively avoid accidents. In comparison, CAST is the a method to analyse accidents that already happened.

Additional sources of information:

  • To learn more about Michael, his projects and current work, or to download his Master‘s thesis on the certification of automated vehicles visit his webpage: michael.systems
  • For info about STAMP and the next STAMP workshop go to: PSAS website
  • The STPA-handbook can be found here: STPA-handbook
May 17, 202252:34
Episode 18 (German) - Einfluss von 5G auf die Avionik von Flugzeugen - mit Holger Flühr

Episode 18 (German) - Einfluss von 5G auf die Avionik von Flugzeugen - mit Holger Flühr

Dr. Holger Flühr ist seit 2003 an der FH Joanneum tätig und seit 2006 ist er dort Professor für Avionik und Flugsicherungstechnik. Zudem agierte er zeitweise auch als Instituts- und Studiengangsleiter. Davor war nach jahrelanger Tätigkeit in der Forschung im Forschungszentrum Karlsruhe (aufgegangen im KIT) und der TU Graz eine Zeit lang auch bei einem Unternehmen beschäftigt, das sich mit der Entwicklung von Hochfrequenz-Bauteilen für Mobilfunkanwendungen beschäftigt. Abschließend wären noch die Mitgliedschaften in Beratungsgremien und Interessensvertretungen zu erwähnen.

In den letzten Wochen war in Zeitungen und Online-Medien vermehrt über den Mobilfunkstandard 5G und mögliche Komplikationen mit Flugzeugen zu lesen. Kurz gesagt besteht die Gefahr, dass die 5G-Mobilfunkwellen Flugzeuge während der Landung stören könnten. Und während die Luftfahrt grundsätzlich als sehr sicher gilt, gehören Start und eben auch Landung zu den kritischeren Phasen eines Flugs. Was hat es nun mit den Berichten auf sich? Auf diese und weitere Fragen ist Herr Flühr im Podcast eingegangen. Am Anfang wurde vor allem das geklärt was die Avionik überhaupt ist und anhand welcher Grundidee man Flugzeuge und deren Systeme sicher gestaltet.

Weitere Ressourcen:

OpenAcess Literatur

Mar 14, 202253:45
Episode 17 (English) - Verification and standardization of autonomous vehicles - with Siddartha Khastgir

Episode 17 (English) - Verification and standardization of autonomous vehicles - with Siddartha Khastgir

Dr Siddartha Khastgir is the Head of Verification & Validation of collaborative autonomous vehicles (CAV) at WMG, University of Warwick, UK. His research areas in the CAV domain include test scenario generation, safety, simulation-based testing, Safe AI among many others. He has received numerous national and international awards for his research contributions, including the prestigious UKRI Future Leaders Fellowship, a seven-year Fellowship focused on safety evaluation of CAVs, and is a Forbes 30 Under 30 Europe list maker. He is also the project leader for ASAM standardisation project - OpenODD, and an active participant at ASAM, SAE, ISO and UNECE discussions.

In this episode we talked about verification and validation of autonomous vehicles. This includes the advantages and challenges of simulations and how one research question raises several more questions. We also talked about the low-speed autonomous driving and about the new standard ISO 22737 “Low-Speed Automated Driving (LSAD) systems”. He was the lead author of that standard, as well as of ISO 34503 “Taxonomy for ODD”, where ODD stands for Operational design domain.

Further resources:

  • BSI PAS 1883 - The publicly available standard on how to define an ODD can be found here
  • ISO 22737:2021 - The new standard on low-speed autonomous vehicles can be found here
  • More on openODD can be found here
  • Check out Siddarthas website
Nov 24, 202140:30
Episode 16 (English) - Systems approach to Safety - with Michael Schmid

Episode 16 (English) - Systems approach to Safety - with Michael Schmid

Michael Schmid is a Technology Architect and Loss Prevention Specialist in the field of autonomous systems. His research focuses on preventing losses related to the use of Artificial Intelligence (AI) and making AI safe for use in everyday technology.

Previously, Michael has worked on automation features in cars, self-driving software, and has developed a certification approach for automated vehicles. Michael has a Master‘s degree from the Massachusetts Institute of Technology (MIT) and is currently a PhD candidate in the Group for System Safety and Cybersecurity at MIT.

In this episode, Michael provided some insights into his research and explained why we need a systems approach to solve many of today‘s problems in technology. As an example, Michael and I discussed some of the challenges of autonomous cars and he outlined a systems-based approach for their certification. Michael provided a quick overview of his current research, making AI-based technology safe, and described some of his main ideas. STAMP, a new accident causality model developed by Nancy Leveson, Michael‘s supervisor at MIT, serves as the basis for his approach.

Additional sources of information:

To learn more about Michael, his projects and current work, or to download his Master‘s thesis on the certification of automated vehicles visit his webpage: michael.systems

For info about STAMP and the next STAMP workshop go to: PSAS website

Oct 07, 202141:32
Episode 15 - Das Boeing 737 MAX Desaster - mit Andreas Gerstinger

Episode 15 - Das Boeing 737 MAX Desaster - mit Andreas Gerstinger

Andreas Gerstinger ist System-Safety-Experte mit Erfahrung verschiedenen sicherheitskritischen Bereichen, vor allem in der Flugsicherungs- und Bahnindustrie. Er ist bei Frequentis angestellt und zudem Lehrender an der FH Campus Wien und dem FH Technikum Wien .

In dieser Episode haben wir über die Boeing 737 MAX Abstürze vom Oktober 2018 und März 2019 gesprochen, bei denen insgesamt mehr als 300 Menschen gestorben sind. Als Ursache wurde ein System ausgemacht, dass die Fluglage eigentlich stabilisieren sollte. Wir haben ausführlich besprochen, welche Umstände zu dieser Fehlkonstruktion und schlussendlich zum System-Safety-Versagen geführt haben.

Hier sind die im Podcast angesprochenen Dokumente und weiterführende Informationsquellen:

Jun 18, 202159:01
Episode 14 - Neuronale Netze in sicherheitskritischen Systemen - mit Mathias Lechner

Episode 14 - Neuronale Netze in sicherheitskritischen Systemen - mit Mathias Lechner

Mathis Lechner ist PhD-Student und Machine Learning Forscher am Institute of Science and Technology Austria in Maria Gugging bei Klosterneuburg. Seine Forschungsschwerpunkte sind Machine Learning, Formale Methoden und Robotik. In diesem Zusammenhang kam es zur Zusammenarbeit mit Forscherinnen und Forschern des IST, der TU Wien und dem MIT .

In dieser Episode haben wir darüber gesprochen, welche Aspekte beachtet werden müssen, um Systeme mit neuronalen Netzen in sicherheitskritischen Systemen einsetzen zu können. Spezieller Fokus wurde auf eine Arbeit vom letzten Jahr gelegt. Zusammen mit Ramin Hasani war er Hauptautor einer Arbeit die gezeigt hat, dass mit wenigen Neuronen in autonomen Fahrsituationen teilweise bessere Ergebnisse erzielt werden können, als mit komplexen neuronalen Netzen, wenn man sich an der Natur orientiert. Diese Arbeit wurde in Nature Machine Intelligence publiziert.

Das sind die im Podcast angesprochenen Paper:

May 10, 202148:24
Episode 13 - Ada und Spark - mit Ingo Houben

Episode 13 - Ada und Spark - mit Ingo Houben

Ingo Houben ist Business Development und Account Manager bei AdaCore und verantwortlich für den deutschsprachigen Raum. Er langjährige Berufserfahrung in der EDA-, Embedded- und Automobilindustrie. Dort hat er sich mit Mikroelektronik und Softwaretechnik beschäftigt.

In diesem Podcast haben wir über Ada und Spark gesprochen. Ada ist eine Programmiersprache, die sich aufgrund der strengen Anforderungen an validierte Compiler gut für sicherheitskritische Anwendungen eignet. Spark ist eine Variante von Ada mit zusätzlichen Regeln. Diese Regeln ermöglichen es, Programme automatisch auf Korrektheit zu prüfen.

Die von Ingo erwähnte Studie kann hier heruntergeladen werden: Controlling Costs with Software Language Choice

Bei Fragen kann man sich über LinkedIn an Ingo wenden: Ingo Houben - LinkedIn

Apr 07, 202147:23
Episode 12 - Gemeinsame Ziele von Safety und Security - mit Sarah Fluchs

Episode 12 - Gemeinsame Ziele von Safety und Security - mit Sarah Fluchs

Sarah Fluchs ist CTO von Admeritia und zudem die Verfasserin der monatlichen Security-Briefing für Hard Hats. In Arbeitsgruppen der ISA und der IEC beschäftigt sie sich zudem mit der Normung.

In dieser Episode haben wir Gemeinsamkeiten und Unterschiede von Safety und Security erörtert. Dabei sind wir auf Themen gestoßen, bei der die eine Disziplin von der anderen lernen kann oder bei denen beide Disziplinen gemeinsam noch dazulernen müssen.

Das Security-Briefing kann hier abonniert werden.

Mar 03, 202101:03:20
Episode 11: Human Centered Design - mit Hilda Tellioğlu

Episode 11: Human Centered Design - mit Hilda Tellioğlu

Mein erster Gast im neuen Jahr ist Hilda Tellioğlu, außerordentliche Professorin am Institut für Visual Computing & Human-Centered Technology an der TU Wien. Und Studiendekanin für Informatik. Zudem hat sie Leitungspositionen bei diversen Forschungsinitiativen inne, wie zum Beispiel beim Multidisciplinary Design & User Research Unit, dem Centre for Informatics and Society und im Centre for Technology and  Science.

Mit Ihr habe ich über das Thema User Centered Design gesprochen. Dabei ging es zuerst um die Frage, warum das Thema Safetyrelevanz hat. Zum anderen stellt sich vor allem die Frage, was Human-Centered Design ist. Neben aktuellen Möglichkeiten um mit User Centered Design Systeme sicherer zu machen, wurden auch innovative Möglichkeiten besprochen.

Frau Tellioğlu hat unter anderem die folgende Literatur zum Thema empfohlen:

  • User-Centered Design: Why and How to Put Users First in Software Development von Dieter Wallach und Sebastian C. Scholz (2012)
  • Socio-technical Systems von Emery und Trist (1960)
  • Interaction Design: Beyond Human-Computer Interaction von Helen Sharp, Jennifer Preece und Yvonne Rogers (5. Auflage von 2019)
Jan 08, 202147:59
Episode 10 (English) - Safety in the mining industry - with Sean Brady

Episode 10 (English) - Safety in the mining industry - with Sean Brady

Sean Brady is a forensic engineer who works with business, government and the legal sector to understand and resolve complex issues that typically require a whole of system approach.

Sean has just completed the Brady Review, an investigation into the causes of fatalities in the mining industry in Queensland, Australia. This review analysed 20 years of incident and fatality information and culminated in 11 recommendations for both industry and the regulator.

In this episode Sean talks about the mining industry and why there is a need for change to prevent fatalities in the future. He discussed so-called High Reliability Organisations (HROs) and how they achieve high levels of safety. One key takeaway was: Feedback is vital to avoid drift into failure.

Sean is also a fellow podcaster. His recent podcasting project, Rethinking Safety, is based on the investigations he made for the Brady review.

The mentioned report and podcast can be found here:

Nov 27, 202046:24
Episode 9: Flugsicherung - mit Alfred Vlasek

Episode 9: Flugsicherung - mit Alfred Vlasek

Alfred Vlasek ist Safety Instructor bei der IFATCA (International Federation of Air Traffic Controllers Association) und Mitglied der IFATCA Safety und Just Culture Advisors. Zudem ist er Nebenberuflich Lehrernder an der FH Campus Wien am Studiengang für Safety and Systems Engineering. Er ist zum zweiten Mal zu Gast im Podcast.

Diesmal sprach Vlasek über Flugsicherung: Wie Fluglotsinnen und Fluglotsen einen sicheren Flugbetrieb gewährleisten und wie sich die Corona-Krise auf die Flugsicherungen auswirkt.

Sep 25, 202040:52
Episode 8 (English) - Safety-Validation of autonomous systems (using Machine Learning) - with Anthony Corso

Episode 8 (English) - Safety-Validation of autonomous systems (using Machine Learning) - with Anthony Corso

Anthony Corso is a Ph.D. student in the Aeronautics and Astronautics Department at Stanford University where he is advised by Professor Mykel Kochenderfer in the Stanford Intelligent Systems Laboratory (SISL). He studies approaches for the validation of safety-critical autonomous systems with an emphasis on interpretability and scalability.
In this podcast he talked about safety-validation of autonomous systems. The latter includes systems such as robots, cars, aircraft, and planetary rovers equally. In May he published a paper which deals with different algorithms for black-box safety validation. One of the approaches is to use reinforcement learning, which was discussed in the podcast in more detail. He also briefly introduced the Next-Generation Airborne Collision Avoidance System ACAS X, in which development Professor Kochenderfer was heavily involved. ACAS X takes advantage of Dynamic Programming, an algorithm for optimal decision making.
The mentioned papers, further readings and an interesting podcast can be found here:

The paper mentioned above: A Survey of Algorithms for Black-Box Safety Validation
The paper on Adaptive Stress Testing (AST): Adaptive stress testing with reward augmentation for autonomous vehicle validation
The AST toolbox mentioned in the podcast: AST-Toolbox
The CARLA simulator mentioned in the podcast: CARLA
A paper on ACAS X: Next-Generation Airborne Collision Avoidance System
An episode of Standford University's podcast The Future of Everything with Mykel Kochenderfer where he talkes about ACAS X and Artificial Intelligence (AI) in safety-critical systems: Mykel Kochenderfer: AI and safety-critical systems

Aug 28, 202035:21
Episode 7 - Sicherheit fahrerloser U-Bahnen - Markus Rubner

Episode 7 - Sicherheit fahrerloser U-Bahnen - Markus Rubner

Markus Rubner ist technischer Referent in der Schienenfahrzeugtechnik bei den Wiener Linien und zuständig für die U-Bahn-Beschaffung. Aktuell ist er mit der Beschaffung des X-Wagens beschäftigt. Der wird im gesamten Netz zum Einsatz kommen, auf der zukünftigen U5 sogar fahrerlos.

Er hat über die notwendig Maßnahmen gesprochen, um den fahrerlosen Betrieb sicher zu machen. Es erzählt wie Unfälle vermieden werden und was passiert, falls doch mal etwas passiert.

Im U-Bahn-Infocenter kann man sich über den U-Bahn-(Aus)Bau und vor allem über die zukünftige fahrerlose U5 informieren.

Jul 31, 202026:21
Episode 6: Security for Safety - mit Thomas Bleier

Episode 6: Security for Safety - mit Thomas Bleier

Thomas Bleier ist Informationssicherheits-Experte im industriellen Umfeld. Im Zuge seiner selbstständigen Tätigkeit ist er unter anderem auch FH-Lektor an der FH Campus Wien und Vorsitzender der Arbeitsgruppe "IACS Security" (Industrial Automation and Control Systems Security) im OVE. Diese stellt das nationale Spiegelkomittee für die Entwicklung der Normenreihe IEC 62443 dar.

Im Podcast ging neben allgemeinen Betrachtungen zu Security im industriellen/maschinenellem Umfeld um das Thema, warum Security-Betrachtungen in Zukunft nicht außer Acht gelassen werden können, wenn man ein safes/sicheres System haben möchte. Die IEC-62443-Reihe beschäftigt sich mit Security im IACS-Umfeld.

Die angesprochenen Normen bzw. Entwürfe waren die IEC-62443-Reihe und IEC PAS 63325 ED1 (Lifecycle requirements for Functional Safety and Security for IACS).

Jun 26, 202037:26
Episode 5: Human Factors in Safety - mit Thomas Fränzl

Episode 5: Human Factors in Safety - mit Thomas Fränzl

Thomas Fränzl, Domain Manager Air Traffic Control Tower & Airport bei Frequentis, ist ehemaliger Fluglotse und langjähriger Human Factors und Usability Experte mit Erfahrung in sicherheitskritischen Systemen. Zudem ist er Nebenberuflich Lehrender an den Fachhochschulen FH Campus Wien und FH St. Pölten.

Er hat über die Anfänge von Human Factors gesprochen und wie Human Factors die Sicherheit von Systemen beeinflusst. Dabei wurden positive und negative Beispiele angesprochen und gezeigt, dass der Mensch auch in hochautomatisierten Systemen präsent ist und mitbedacht werden muss.

Die angesprochenen Buch-Tipps sind

Human Factors - Psychologie sicheren Handelns in Risikobranchen von Petra Badke-Schaub, Gesine Hofinger, Kristina Lauche

Don't make me think!: Web Usability: Das intuitive Web von Steve Krug

The Design of Everyday Things und The Design of Future Things von Donald Norman

Alle Bücher sind in der lokalen Buchhandlung Ihrer Wahl oder auf Amazon erhältlich und sind auf safetycorner.wagnerflorian.eu verlinkt.

May 29, 202037:36
Episode 4: Systems Engineering und Safety - mit Andreas Gerstinger

Episode 4: Systems Engineering und Safety - mit Andreas Gerstinger

Andreas Gerstinger ist System Engineering bzw. System Safety Experte mit Erfahrung in Flugsicherungs- und Bahnsystemen. Zudem ist er Nebenberuflich Lehrender an den Fachhochschulen FH Campus Wien und FH Technikum Wien.

Er hat über die Bedeutung von Systems Engineering in sicherheitsrelevanten Projekten gesprochen. Dabei kam auch das Thema Software-Fehler auf: Ob es Software-Fehler überhaupt gibt bzw. was in den meisten Fällen eigentlich damit gemeint ist.

Das angesprochene Buch von Crawley, Cameron und Selva heißt System Architecture: Strategy and Product Development for Complex Systems und ist auf safetycorner.wagnerflorian.eu verlinkt.

May 22, 202029:34
Episode 3: Safety in der Auto- und Bahnindustrie - mit Thomas Schiffer

Episode 3: Safety in der Auto- und Bahnindustrie - mit Thomas Schiffer

Thomas Schiffer ist Head of Safety und Project Quality bei der in-tech. In diesem Gespräch über Safety Engineering und Safety Management wurde vor allem auf die unterschiedliche Mentalität in der Auto- und in der Bahnindustrie eingegangen.

May 15, 202030:23
Episode 2: Just Culture - mit Alfred Vlasek

Episode 2: Just Culture - mit Alfred Vlasek

Alfred Vlasek ist Safety Instructor bei der IFATCA (International Federation of Air Traffic Controllers Association) und Mitglied der IFATCA Safety und Just Culture Advisors. Zudem ist er Nebenberuflich Lehrernder an der FH Campus Wien am Studiengang für Safety and Systems Engineering.

Apr 26, 202024:24
Episode 1 - Einführung

Episode 1 - Einführung

Herzlich willkommen zu Safety Corner! Diese Folge gibt einen kurzen Einblick darauf, was zu von diesem Podcast zu erwarten ist!

Apr 25, 202003:38