Modelle richtig testen

Von den Anforderungen bis zum Modelltest - 2 Tage

 

Datum Standort Sprache
04.-05. Mai 2021 Online
Anmeldung
Englisch

 

Diese Schulung vermittelt umfassend die Prinzipien, Arbeitsabläufe und Ziele des Modelltests – von den Anforderungen bis zum funktionalen Test. Schritt für Schritt führt die Schulung durch das Erstellen anforderungsbasierter Testspezifikationen, das Testen von TargetLink-/Embedded Coder-Modellen sowie die automatische Testevaluierung anhand von Testassessments und Back-to-Back/Regressionstests. Dabei werden insbesondere das ISO-26262 konforme Testmanagement und die Testdurchführung für MiL und SiL erläutert sowie das Tracing der Anforderungen zu Testspezifikationen und Testassessments gezeigt. Alle Schritte lernen Sie in praktischen Übungen selbst anzuwenden. Hierfür werden Simulink- bzw. TargetLink-/Embedded Coder-Modelle verwendet und der MES Test Manager (MTest) als Modelltest-Framework eingesetzt. Dieses Training ist jedoch für alle geeignet, die lernen wollen, wie man Modelle auf die richtige Art und Weise testet – unabhängig davon, welches Werkzeug Sie verwenden möchten.

Zielgruppe

Die Schulung richtet sich an Entwickler*innen, Tester*innen, Testmanager*innen und Qualitätsmanager*innen, in deren Fokus die modellbasierte Entwicklung eingebetteter Software auf Basis von MATLAB/Simulink in Verbindung mit TargetLink/Embedded Coder steht.
Wenn Sie an einer detaillierteren Tool-Schulung mit dem MES Test Manager (MTest) interessiert sind, schauen Sie sich bitte folgende Schulung an: "Modelle mit MTest testen - Von den Anforderungen bis zum Modelltest".

Highlights

  • Testziele und Workflow
  • Testmanagement
  • Testspezifikation
  • Test von TargetLink- und Embedded Coder-Modellen
  • Regressions- und Back-2-Back Vergleich
  • Automatische Testevaluierung mit Testassessments
  • Model- und Code Coverage
  • Einsicht in Testfortschritt und Testqualität (RCT)

★★★★★ Teilnehmer*in, Valeo Siemens

„Die beste Möglichkeit beides zu Lernen - Theorie und Praxis des Testens.”

Sprachen

auf Deutsch oder Englisch

Formate

Piktogramm On Site Training

Vor Ort
an einem unserer Schulungsstandorte

Piktogramm Online Training

Online
wo immer Sie gerade sind

Piktogramm Inhouse Training

Spezifisch für Ihr Unternehmen
online oder vor Ort in Ihrem Unternehmen

Preise und Geschäftsbedingungen

Die Preise und Geschäftsbedingungen entnehmen Sie bitte der PDF-Datei oder fordern Sie Ihr individuelles Angebot unter sales@model-engineers.com an.

Agenda

Tag 1

Einführung in den Modelltest

  • Ziele, Arbeits- und Prozessschritte des Modelltests
  • Testspezifikationsmethoden
  • Testauswertungssmethoden
  • Testdokumentation
  • Nachvollziehbarkeit der Anforderungen im Modelltest

Anforderungsbasierte Definition von Testfällen

  • Einrichten der Testumgebung
  • Einführung in die Beispiel-Modelle

Systematische anforderungsbasierte Spezifikation von Testsequenzen

  • Testfälle: Was sind die typischen Grundelemente?
  • Definition der Testgruppen und Testsequenzen mit MTCD
  • Spezifikationsfunktionen und Umgang mit Parametern
  • Best-Practices für Testspezifikationen

Hands-on: Systematische anforderungsbasierte Spezifikation von Testsequenzen mit MTCD

  • Erstellen von Testsequenzen
  • Ausführen der Testsequenzen
  • Verwenden von Parametern, um Testsequenzen effizient anzupassen
  • Import von Messdaten zum Testen (Import von MAT-Dateien)

Signalvergleich im Regressions- und Back-to-Back-Test

  • Anwendungsbereiche (MiL – SiL – PiL)
  • Kombination von Back-to-Back und Regressions-Test

Hands-on: Signalvergleich

  • Konfigurieren und Durchführen einer Testauswertung
  • Definition von Toleranzen
  • Dokumentation der Testauswertungs-Ergebnisse in Berichten und Katalogen
  • Umwandlung von Ausgangssignalen in Referenzsignale

Tag 2

Test von TargetLink- sowie Embedded Coder-Modellen und Modell-/Code-Coverage

  • Automatische Testbetterstellung und Modultests für Subsysteme
  • Erweiterte Unterstützung der Codegenerierung im Modelltest
  • Modell-Coverage für alle MiL-Testplattformen
  • Code-Coverage für SiL-/PiL-Testplattformen

Hands-on: Erhöhung der Modell-/Code-Coverage

  • Automatische Testausführung für MiL/SiL/PiL
  • Interpretation und Auswertung von Coverage-Reports
  • Erhöhung der Modell-/Code-Coverage durch strukturbasierte Testfälle
  • Protokollierung interner Signale

Einführung in die Testauswertung mit Test-Assessments

  • Grundsätze und Ziele von Test-Assessments
  • Struktur und Inhalt von Test-Assessments

Assessment-Generierung aus Anforderungen

  • Arten von Anforderungsmustern
  • Vorteile einer formalen Syntax zur Spezifikation von Anforderungen

Hands-on: Formale Anforderungen und Assessment-Generierung

  • Schreiben typischer formaler Anforderungen
  • Erstellen und Durchführen von Test-Assessments
  • Testablauf mit erstellten Assessments

Hands-on: Funktionale Testauswertung mit Test-Assessments

  • Manuelles Schreiben typischer Assessments oder Erweiterung von Assessments
  • Test-Assessment-Auswertung im Assessment-Katalog
  • Best-Practices für Test-Assessments

Übersicht über Ergebnisse und Fortschritt des Modelltests

  • Beurteilen des Fortschritts eines Testprojekts (Nachverfolgung, Coverage)
  • Wie korrekt sind die Anforderungen im Testobjekt umgesetzt?
  • Beurteilen der Qualität der Testergebnisse (Testkatalog, Testbericht)
  • Wann ist das Testen abgeschlossen? (Testprojektprotokoll)

Hands-on: Ergebnis- und Fortschrittsübersichten des Modelltests

  • Effizienter Workflow bei geänderten Anforderungen
  • Anpassen von Testspezifikationen und Test-Assessments nach Änderung von Anforderungen
  • Überprüfen der Testspezifikationen und Test-Assessments