Ein Sicherheitsnachweis fuer Machine-Learning im Kontext des automatisierten Fahrens

Methoden zum Maschinellen Lernen, wie zum Beispiel Neuronale Netze, weisen ein grosses Potenzial fuer Funktionen zum automatisierten Fahren im offenen Kontext auf. Zu diesen Funktionen gehoeren videobasierte Objekterkennung und -klassifikation wie auch Trajektorienplanung. Trotz allem koennen diese Ansaetze nur fuer die Serienproduktion freigegeben werden, wenn ausreichend hohe Sicherheitsanforderungen nachgewiesen werden koennen. Bereits bestehende Standards zur Funktionalen Sicherheit, wie beispielsweise ISO 26262, koennen nur bedingt auf Maschinelles Lernen und insbesondere auf funktionale Unzulaenglichkeiten im offenen Kontext uebertragen werden. Daher muss eine ueberzeugende Argumentation fuer die Sicherheit des automatisierten Fahrens mit solchen Methoden aufgezeigt werden. Hierfuer wird mithilfe der Goal Structuring Notation (GSN) ein strukturierter Sicherheitsnachweis eingefuehrt. Dabei ist eine systemanalytische Betrachtung noetig, um eine genaue Definition der Funktionsanforderungen an Leistung und Ausfuehrung ableiten und schliesslich darauf den Sicherheitsnachweis aufbauen zu koennen. Diese Definition enthaelt eine explizite Formulierung der Annahmen und kontextbezogenen Informationen, die eine bestimmte Anwendung betrifft. (A)

Language

  • German

Media Info

  • Media Type: Print
  • Features: Figures; References;
  • Pagination: pp 60-74
  • Serial:

Subject/Index Terms

Filing Info

  • Accession Number: 01666378
  • Record Type: Publication
  • Source Agency: Forschungsgesellschaft für Straßen- und Verkehrswesen (FGSV)
  • ISBN: 978-3-81-69-3405-9
  • Files: ITRD
  • Created Date: Mar 27 2018 8:21AM