Nedávno jsem se zúčastnil kurzu European Schoolnet Academy AI Basics for Schools vyvinutého v rámci známého CodeWeeku. Skutečně se jednalo hlavně o základy umělé inteligence, které každý čtenář Spomocníka již zná. Přesto jsem tam našel dvě témata, která stojí za vypíchnutí.
Evropské etické pokyny
Málo se u nás mluví o tom, že EU již v roce 2019 vydala Etické pokyny pro zajištění důvěryhodnosti UI [1] (Dosud jsem používal výhradně anglickou zkratku AI, tak teď nevím. Toto je ale oficiální překlad Evropské komise.). Vyberu to nejdůležitější.
Základní pokyny pro vývojáře:
- Vyvíjet, zavádět a používat systémy UI způsobem, který dodržuje etické zásady týkající se: respektování lidské autonomie, předcházení újmám, spravedlnosti a vysvětlitelnosti. Uznat potenciální konflikty mezi těmito zásadami a zabývat se jimi.
- Věnovat zvláštní pozornost situacím, v nichž vystupují zranitelnější skupiny obyvatel, jako jsou děti, osoby se zdravotním postižením a jiné skupiny, které byly v minulosti znevýhodněny, jsou ohroženy vyloučením a/nebo čelí situacím, ve kterých existuje mocenská nebo informační asymetrie, jako například ve vztazích mezi zaměstnavateli a zaměstnanci nebo mezi podniky a spotřebiteli.
- Uvědomit si a zohlednit skutečnost, že přes veškeré výhody, které jednotlivcům i společnosti obecně přinášejí, mohou mít některé aplikace UI také negativní dopady, včetně dopadů, které lze obtížně předjímat, určit nebo měřit (např. na demokracii, právní stát, spravedlivé rozdělování nebo na samotnou lidskou mysl). Přijmout náležitá opatření k zmírnění těchto rizik, je-li to vhodné a přiměřené vzhledem k velikosti rizika.
Dále dokument definuje 7 základních požadavků, které mají tyto systémy splňovat:
 |
Vzájemný vztah 7 požadavků definovaných evropskými etickými pokyny UI |
- Lidský faktor a dohled
Zahrnuje lidská práva, lidský faktor a lidský dohled.
- Technická robustnost a bezpečnost
Zahrnuje odolnost vůči útokům a zabezpečení, nouzový plán a obecnou bezpečnost, přesnost, spolehlivost a reprodukovatelnost.
- Ochrana soukromí a správa dat
Zahrnuje ochranu soukromí, kvalitu a integritu údajů a přístup k údajům.
- Transparentnost
Zahrnuje sledovatelnost, vysvětlitelnost a komunikaci.
- Rozmanitost, nediskriminace a spravedlnost
Zahrnuje předcházení nespravedlivé podjatosti, přístupnost a univerzální design a zapojení zúčastněných stran.
- Dobré sociální a environmentální podmínky
Zahrnuje udržitelnost a šetrnost k životnímu prostředí, sociální dopad, společnost a demokracii.
- Odpovědnost
Zahrnuje auditovatelnost, minimalizaci negativních dopadů a podávání zpráv o těchto dopadech, kompromisy a možnost zjednání nápravy.
Na pokynech pracuje tzv. Odborná skupina na vysoké úrovni zřízená Evropskou komisí. Slibují, že budou dokument podle potřeby průběžně aktualizovat. Celé to má ale jeden háček. Jedná se jen o doporučení, které není právně závazné. Hlavním jeho cílem je otevřít diskuzi a pomoci těm vývojářům, kteří chtějí pravidla dodržovat. Obávám se, že ovlivnit největší hráče v této oblasti působící (nadnárodní korporace) tak snadné nebude. I tak se jedná o počin, který je bohulibý a je v souladu se snahou mnoha světových expertů – připomeňme si alespoň některé: Harris, Harari, Rushkoff, Pesce, Zuboff, Doctorow.
Pět algoritmických zkreslení
Na existenci problémů vzniklých nedokonalou analýzou velkých dat umělou inteligencí narážíme opakovaně (naposledy viz Dezinformace na Facebooku se nedají zastavit). Kurz AI Basics for Schools přináší klasifikaci těchto zkreslení, která stojí za zaznamenání (3.1. AI Ethics) převzatou z MS In Pursuit of Inclusive AI:
 |
Pět algoritmických zkreslení způsobujících chyby při vyhodnocování dat |
- Dataset bias (zkreslení dat)
Analýza dat, která pracuje spolehlivě pouze u některých lidí, protože na nich byl příslušný algoritmus trénován. Např. rozpoznávání obrazu (typicky snímaného kamerou) fungující dobře jen u určité rasy (bělochů) nebo automatizovaný výběr při náboru zaměstnanců mající podobné problémy.
- Association bias (zkreslení asociační)
Analýza dat, která pracuje s určitou skutečností vytvořenou na základě mylných předpokladů. Např. genderově předpojatý automatický překlad (pilot je muž, letuška žena).
- Automation bias (automatizované zkreslení)
Používání filtrů, které automaticky upravují parametry některých objektů. Např. vylepšování vzhledu postavy podle obecného vkusu.
- Interaction bias (zkreslení interakce)
Záměrně vyvolaný dojem, že má umělá inteligence sklony k rasizmu či sexismu. Např. tehdy, když je slovník chatbota vytvářen otevřenou diskuzí s veřejností, jíž se zúčastní právě takto orientovaní jedinci (jev na internetu běžný).
- Confirmation bias (zkreslení potvrzení)
Chybná nabídka některých e-shopů doporučující zboží, které jste si již koupili.
Určitě bychom měli uvažovat o tom, jak toto téma zařadit do výuky. Třeba nechat žáky, aby se pokusili porovnat algoritmická zkreslení umělé inteligence se zkresleními, která přináší běžný život. Kurz doporučuje použít metodické materiály Data Bias in AI australského portálu Digital Technologies Hub a aplikaci My Computer Brain taktéž australského Digital Technologies Institute.