Marcel Kraus, autor: TA ČR

Východisko: Autonomní řízení vozů může přispět k výraznému snížení nehodovosti a ke kvalitě životního prostředí (což přináší monetizační beneft a udržitelnější životní prostor) i k nižšímu početu zranění či úmrtí při dopravních nehodách (což se promítá do bezpečnosti provozu a kvality lidského života). Autonomní vozidla nicméně mohou být v případech nevyhnutelné nehody postavena před morální rozhodování o zdraví, životech a majetku lidí, či o životním prostředí.

Základní výzkumné otázky: Některé výzkumné otázky spojené s etikou autonomního řízení nemusejí být samy o sobě etické. Např. při kolizích je důležité umět minimalizovat utilizační prncip využívající algorytmus vážení hodnoty lidských životů vůči sobě navzájem (Trolley Problem) a maximalizovat virtuální princip navýsost lidský – etický a morální (Robot Ethics). Usmrtí-li autonomně řízené vozidlo člověka, je to program, co rozhodne o zabití. Resp. druhotně - programátor. Při hledání etické dimenze v autonomně řízených vozech je nutné vedle základní otázky „koho mají autonomně řízená auta zranit, zabít či ujmout na majetku“ (Trolley Problem – Utilitarian Ethics) pokládat i otázku „jak mohou morálně a eticky jednající auta zvýšit bezpečí pasažérů a chodců a příp. uchránit škody na životním prostředí a majetku“ (Virtual Morality Problem – Robot Ethics).

Důvěra společnosti: Úspěch autonomního řízení vozů – se všemi jeho benefity a riziky – závisí na jeho přijetí společností. Jak reflektovat veřejné mínění v rozvoji autonomního řízení v době, kdy jsou rozhodovací procesy o životech lidí předávány umělé inteligenci? V případě autonomního řízení je inteligentní rozhodování lidské odevzdáváno do rukou inteligenímu rozhodování umělému. Nevznikne-li důvěra lidí v programátory a v morální algorytmy strojů samotných, které autonomně rozhodují (dokonce i) o životech lidí, může to rozvoj autonomního řízení vozů velmi výrazně zbrzdit. Bez důvěry společnost nemůže fungovat. A stejně tak autonomní řízení vozů. 

Několik otázek: Převezmou-li auta od lidí rozhodování o řízení, měly by převzít i způsob jejich myšlení? Připusťme, že morální algorytmus autonomně řízeného vozidla bere při rozhodování o žovotech lidí při hrozící kolizi v úvahu věk. Bude brána v úvahu i jiná identita člověka jako etnicita, společenský status, pohlaví? Jaký je vztah morálního a etického algorytmu vůči morálním a etickým hodnotám těch, jež programují a technologie vytvářejí? Neměli bychom zaměřit výzkum morálního algorytmu i na – poněkud futuristickou vizi - virtualizaci např. loajality, diskrétnosti, respektu k svébytnosti, dobročinnosti, ohleduplnosti, spravedlnosti atp.? 

Principy odpovědného výzkumu: V souvislosti s autonomně řízenými vozidly je důležité, aby výzkum, vývoj a inovace a s nimi spojené inženýrské a programátorské činnosti byly podnikány za využití principů odpovědného výzkumu a inovací (Responsible Research and Innovation – RRI): Ethics, Public Engagement, Gender Equality, Science Education, Governance, Open Access).

Pro implementaci těchto principů může sloužit program ÉTA na podporu společenskovědní a humanitní dimenze ve výzkumu, jehož první veřejná soutěž je plánována na polovinu srpna 2017.

Marcel Kraus
analytik TA ČR
(CV Marcela Krause)

Související