Funkční bezpečnost systémů strojového vidění v autonomních vozidlech

Date issued

2024-02-23

Journal Title

Journal ISSN

Volume Title

Publisher

Západočeská univerzita v Plzni

Abstract

Ačkoli umělá inteligence obecně a zejména hluboké neuronové sítě (DNN) již dokážou překonat člověka v různých úlohách, bezpečnostní aspekty a hluboké porozumění procesům jsou stále nejednoznačné. V minulosti bylo prokázáno, že rozhodovací proces modelu strojového učení (ML) lze ovlivnit mnoha způsoby. V případě řízení automobilu mohou zavádějící informace způsobit nehodu nebo vést k náhlé a neočekávané interakci mezi řidičem a automobilem. Dosažení třetí a vyšší úrovně autonomního řízení přináší velký důraz na kritické operace v neuronových sítích. Rozsah kritických součástí a bezpečného stavu není definován normou ISO 26262 ani normou Safety Of The Intended Functionality (SOTIF), což nutí výrobce originálního vybavení (OEM) pracovat nezávisle na vlastních bezpečnostních koncepcích. V této práci hledám odpovědi na standardizovaný proces vývoje funkční bezpečnosti týkající se DNN nasazených v automobilovém průmyslu. V úvodu shrnuji motivaci a definuji aktuální problém dosažení důvěryhodného a robustního ML algoritmu. Svou argumentaci nejčastěji vztahuji k nejmodernějším metodám softwarového (SW) vývoje v automobilovém průmyslu, zejména zdůrazňuji dvě normy funkční bezpečnosti, které se používají při vývoji a nasazování aplikací důležitých z hlediska bezpečnosti, jako je například pokročilá autonomní asistence při řízení. Ve druhé části, která se skládá ze 4 kapitol, se zaměřuji na oblast počítačového vidění a zdroje možných selhání. Konkrétně v kapitole 4 popisuji, jaký vliv má datová sada na robustnost natrénovaného modelu a jak v ní zabránit chybějícím rysům. V kapitole 5 se zabývám problematikou rozhodování. nejistoty, která je důsledkem neschopnosti modelu plně zobecňovat a uvažovat. Dále je představen nový přístup k odhadu, zda nasazený model funguje v rámci oblasti působnosti modelu nebo mimo ni. V kapitole 6, věnované hodnotícím metrikám, je pozornost zaměřena na to, jak lze metody, které se již léta používají v automobilovém průmyslu, využít k hodnocení současných modelů počítačového vidění typu black-box. Na základě nejnovějších výsledků a závěrů z nich vyvozených jsem vytvořil přehled mezer mezi očekáváními odvozenými z funkční normy a opatřeními, která byla vyvinuta k odstranění nejasností kolem vývoje modelu počítačového vidění typu black-box. Informace v této práci lze využít a měly by rozšířit proces vývoje a hodnocení DNN používaných v počítačovém vidění v oblasti automobilového průmyslu na základě norem ISO26262 dodatek 6 a ISO/PAS 21448:2019.

Description

Subject(s)

Doménově orientované dataset, rozpoznávání detekce mimo distribuci modelu, bezpečnostně kritické aplikace, kritičnost neuronů, robustnost systémů počítačového vidění

Citation