Funkční bezpečnost systémů strojového vidění v autonomních vozidlech
Date issued
2024-02-23
Authors
Journal Title
Journal ISSN
Volume Title
Publisher
Západočeská univerzita v Plzni
Abstract
Ačkoli umělá inteligence obecně a zejména hluboké neuronové sítě (DNN) již dokážou překonat člověka v různých úlohách, bezpečnostní aspekty a hluboké porozumění procesům jsou stále nejednoznačné. V minulosti bylo prokázáno, že rozhodovací proces modelu strojového učení (ML) lze ovlivnit mnoha způsoby. V případě řízení automobilu mohou zavádějící informace způsobit nehodu nebo vést k náhlé a neočekávané interakci mezi řidičem a automobilem. Dosažení třetí a vyšší úrovně autonomního řízení přináší velký důraz na kritické operace v neuronových sítích. Rozsah kritických součástí a bezpečného stavu není definován normou ISO 26262 ani normou Safety Of The Intended Functionality (SOTIF), což nutí výrobce originálního vybavení (OEM) pracovat nezávisle na vlastních bezpečnostních koncepcích.
V této práci hledám odpovědi na standardizovaný proces vývoje funkční bezpečnosti týkající se DNN nasazených v automobilovém průmyslu. V úvodu shrnuji motivaci a definuji aktuální problém dosažení důvěryhodného a robustního ML algoritmu. Svou argumentaci nejčastěji vztahuji k nejmodernějším metodám softwarového (SW) vývoje v automobilovém průmyslu, zejména zdůrazňuji dvě normy funkční bezpečnosti, které se používají při vývoji a nasazování aplikací důležitých z hlediska bezpečnosti, jako je například pokročilá autonomní asistence při řízení. Ve druhé části, která se skládá ze 4 kapitol, se zaměřuji na oblast počítačového vidění a zdroje možných selhání. Konkrétně v kapitole 4 popisuji, jaký vliv má datová sada na robustnost natrénovaného modelu a jak v ní zabránit chybějícím rysům. V kapitole 5 se zabývám problematikou rozhodování. nejistoty, která je důsledkem neschopnosti modelu plně zobecňovat a uvažovat.
Dále je představen nový přístup k odhadu, zda nasazený model funguje v rámci oblasti působnosti modelu nebo mimo ni. V kapitole 6, věnované hodnotícím metrikám, je pozornost zaměřena na to, jak lze metody, které se již léta používají v automobilovém průmyslu, využít k hodnocení současných modelů počítačového vidění typu black-box. Na základě nejnovějších výsledků a závěrů z nich vyvozených jsem vytvořil přehled mezer mezi očekáváními
odvozenými z funkční normy a opatřeními, která byla vyvinuta k odstranění nejasností kolem vývoje modelu počítačového vidění typu black-box. Informace v této práci lze využít a měly by rozšířit proces vývoje a hodnocení DNN používaných v počítačovém vidění v oblasti automobilového průmyslu na základě norem ISO26262 dodatek 6 a ISO/PAS 21448:2019.
Description
Subject(s)
Doménově orientované dataset, rozpoznávání detekce mimo distribuci modelu, bezpečnostně kritické aplikace, kritičnost neuronů, robustnost systémů počítačového vidění