Úvodní stránka
Přehled článků
Metodická pomoc
Zpravodaj
O Spomocníkovi
Podcast
RSS RSS
Titulka RVP > Úvodní stránka Spomocníka > Tramvajové dilema a informatické myšlení

Ikona informativni

Tramvajové dilema a informatické myšlení

Autor: Bořivoj Brdička
Článek je součástí Učitelského spomocníka na adrese https://spomocnik.rvp.cz.
Anotace: Článek vysvětluje zajímavý problém, na který narážejí vývojáři systémů řízení autonomních (samořídicích) vozidel. Komu v případě nevyhnutelnosti nehody více ublížit?
Klíčová slova: tramvajové dilema, informatické myšlení, autonomní vozidla, Philippa Foot, trolleyologie, princip dvojího účinku, Iyad Rahwan, Moral Machines, veřejný zájem

Tramvajové dilema (trolleyologie) existuje již hodně dlouho. V roce 1967 s ním přišla filozofka Philippa Foot v souvislosti s problematikou potratů. Jedná se o etický problém původně řešený již v antice a později katolickou církví (Tomáš Akvinský), s nímž se dnes nejčastěji setkávají lékaři (kromě potratů též např. eutanázie) a dostává se i do roviny právní. Vžilo se pro něj též označení Princip dvojího účinku. Právě Philippa pro vysvětlení původně použila příklad, který dal tomuto dilematu název.

Tramvaj se řítí na pět lidí, kteří o tom nevědí. Na vedlejší koleji je jen jedna osoba, kterou vůz srazí, dojde-li k přehození výhybky. Náhodný kolemjdoucí situaci sleduje a výhybku může přehodit. Otázka zní: je eticky legitimní to udělat? [1]

Ve skutečnosti jednoznačně správné řešení neexistuje. Je-li tím, kdo má aktivně zasáhnout a přehodit výhybku člověk, je to skutečně těžké dilema. Je to totiž on, kdo způsobí smrt jednoho člověka, zatímco, když neudělá nic, odpovědnost neponese. Přitom navíc neví, co se může přihodit během zbývajícího času, než vůz dojede na místo. My necháme filozofy, ať si tímto hypotetickým etickým problémem lámou hlavu, a podíváme se na věc trochu praktičtěji.

Ten, kdo přehazuje výhybku, dnes nutně nemusí být člověk. Je-li to automat (robot), celá věc bude vypadat docela jinak. Stejný problém musí občas řešit například autonomní (samořízené) vozidlo. Představte si analogickou situaci: Auto se řítí na stánek se zeleninou, u něhož stojí 5 lidí. Existuje možnost strhnout řízení směrem, kde stojí jeden člověk. Co se má stát? [2]

Problém najednou dostává úplně jiné dimenze. Už tu není řidič, který se musí ve zlomku vteřiny rozhodnout, co udělá (skoro jistě by v té situaci dal přednost tomu řešení, které by bylo nejvýhodnější pro něj samotného). Je zde umělá inteligence pracující s funkcí strojového učení, které lze určitý postup ve specifických situacích vnutit. Má preferovat minimalizaci následků, tj. zabít jen jednoho člověka? Co když je to dítě? Která varianta znamená větší riziko pro cestující? Má dát přednost ochraně majitele (cestujících)?

Zvolené řešení přestává být etickým problémem řidiče a stává se problémem vývojářů společností, které autonomní vozidla vyvíjejí. Jak se k tomuto problému staví lidé napříč etniky a kontinenty s pomocí svých studentů zkoumá Iyad Rahwan, profesor MIT Media Lab a ředitel Max Planck Institute for Human Development. Vyvinuli nástroj, který prostřednictvím webu měří reakce návštěvníků na různé problémové situace (Moral Machine). Řekl bych, že by jeho vyzkoušení mohlo být docela zajímavým doplňkem výuky. Výsledky shrnuje článek v Nature [3] a následující video:

Moral Machines: How culture changes values

Ukazuje se, že navzdory různým etnickým odlišnostem je deklarovaným převažujícím zájmem většiny nastavit algoritmy autonomních vozidel na minimalizaci následků bez ohledu na pasažéry (majitele). Problém však nastává v okamžiku, kdy se z globálně myslícího občana stane zákazník. Většina by si nakonec vybrala vůz, který poskytuje maximální ochranu cestujícím na úkor ostatních účastníku silničního provozu (viz Iyad Rahwan - What moral decisions should driverless cars make?, TEDxCambridge, 2016).

To znamená, že je třeba, aby si společnost potřebné řešení vynutila. Z pohledu státu však není na první pohled jasné, jak se zachovat. V úvahu je třeba vzít též tu skutečnost, že již stávající úroveň schopností automatů řídit je vyšší než u živých řidičů. Neusínají, nepijí, netelefonují, nenechají se rozptylovat spolujezdkyní apod. [4] Následky nehod lze proto snižovat dokonce i zaváděním zákazníky žádaných sobecky se chovajících algoritmů. Zdá se, že nastal čas problematiku nastavení preferencí u autonomních vozidel diskutovat a řešit. Lze na ní též ukázat, jak naše životy již dnes ovlivňují technologie vybavené umělou inteligencí, i to, že jejich činnost lze potřebám lidí přizpůsobit.

Vypadá to, že nejdále jsou v této věci v Německu. Již v roce 2017 Etická komise automatického řízení publikovala závazná pravidla, kde, kromě jiného, stojí: V případě neodvratné nehody je přísně zakázáno dělat rozdíly mezi účastníky na základě jejich osobních vlastností (věk, pohlaví, fyzický či mentální stav). Systém automatizovaného řízení je eticky ospravedlnitelný pouze tehdy, když povede ke snížení počtu nehod. [5]

Na odlehčení celkem vážného problému přidám nakonec specifické řešení tramvajového dilematu dvouletým dítětem.

A two-year-old's solution to the trolley problem

Citace:
[1] - ČERNÝ, David. Trolleyologie: díl první. 2014. [cit. 2019-3-5]. Dostupný z WWW: [http://kontrafikce.blogspot.com/2014/08/trolleyolo...].  
[2] - CASSANI DAVIS, Lauren. Would You Pull the Trolley Switch? Does it Matter?. 2015. [cit. 2019-3-5]. Dostupný z WWW: [https://www.theatlantic.com/technology/archive/201...].  
[3] - MAXMEN, Amy. Self-driving car dilemmas reveal that moral choices are not universal. 2018. [cit. 2019-3-5]. Dostupný z WWW: [https://www.nature.com/articles/d41586-018-07135-0].  
[4] - WAMSLEY, Laurel. Should Self-Driving Cars Have Ethics?. 2018. [cit. 2019-3-5]. Dostupný z WWW: [https://www.npr.org/2018/10/26/660775910/should-se...].  
[5] - Ethics Commission on Automated Driving presents report. 2017. [cit. 2019-3-5]. Dostupný z WWW: [https://www.bmvi.de/SharedDocs/EN/PressRelease/201...].  
Anotované odkazy:
Příspěvek nemá přiřazeny žádné anotované odkazy.
Přiřazené DUM:
Příspěvek nemá přiřazeny žádné DUM.
 
INFO
Publikován: 01. 04. 2019
Zobrazeno: 952krát
Hodnocení příspěvku
Hodnocení týmu RVP:
Hodnocení článku : 0

Hodnocení uživatelů:
Hodnocení článku : 5
Hodnotit články mohou pouze registrovaní uživatelé.

2 uživatelé Hodnocení článku : 5
zatím nikdo Hodnocení článku : 4
zatím nikdo Hodnocení článku : 3
zatím nikdo Hodnocení článku : 2
zatím nikdo Hodnocení článku : 1
Jak citovat tento materiál
BRDIČKA, Bořivoj. Tramvajové dilema a informatické myšlení. Metodický portál: Články [online]. 01. 04. 2019, [cit. 2019-05-22]. Dostupný z WWW: <https://spomocnik.rvp.cz/clanek/22042/TRAMVAJOVE-DILEMA-A-INFORMATICKE-MYSLENI.html>. ISSN 1802-4785.
Doporučte materiál
Licence Licence Creative Commons

Všechny články jsou publikovány pod licencí Creative Commons.


Komentáře
Příspěvek nebyl zatím komentován.