Chceme-li něco vysvětlit, často používáme podobenství. Spomocník je má ve zvláštní oblibě (Wellerovy metafory vzdělávacích technologií). Podívejme se na jedno, které se aktuálně těší značné přízni odborníků zkoumajících využití AI ve vzdělávání. Jedná se o analogii mezi strojovou inteligencí a dortem.
Přišel s ní poprvé již v roce 2016 tehdejší šéf výzkumné AI sekce Facebooku Yann LeCun: „Pokud je inteligence dort, pak jeho korpus tvoří učení nekontrolované (unsupervised), polevou je kontrolované (supervised) a třešničkou na dortu je učení zpětnovazební (reinforcement).“[1]
Pozor ale. LeCun mluví výhradně o učení strojovém. Máme-li disponovat AI gramotností, potřebujeme chápat, jak to myslel.
LeCunův dort má tedy 3 části. Korpus u současných velkých AI modelů vzniká z vnějšku nekontrolovaným (nebo píše samokontrolovaným) tréningem po načtení velkého množství dat (textů, obrázků). Poleva představuje tzv. dolaďování s dohledem, což je zdokonalování a rozšiřování možností modelu na specifických úkolech. Děje se tak, že jsou k načteným datům lidmi přiřazovány kategorie tak dlouho, až model dokáže všechny další výskyty podobných objektů rozpoznat (např. kočka, viz AI vizualizace podle Philippy Hardman).
Docela specifickou funkci realizuje učení zpětnovazební (s posilováním) – např. řízení autonomního vozidla či hraní her (vzpomeňme na AlphaGo). Zde se AI musí orientovat v konkrétním prostředí a své schopnosti prostřednictvím zpětné vazby (havárie, prohra) sama zdokonalovat. Typicky se tedy jedná o aplikace jednoúčelové.
Analogie s dortem naznačuje, že největší podíl na fungování velkých AI modelů má nekontrolované učení (korpus). Někdy bývá označováno též jako prediktivní. Snaží se předpovídat určité (třeba chybějící) části minulých, současných nebo budoucích vjemů z jakýchkoli dostupných informací. Místo ručního označování dat anotátory toto samoučicí se učení automaticky přiřazuje kategorie objektů ze vstupních dat. Čím více od stroje požadujete, tím větší množství různých dat musí mít.
How Does an AI Actually Learn?
Techniky strojového učení, jako je učení s dohledem a učení s posilováním, jsou příliš úzké pro vytvoření inteligentních strojů na lidské úrovni (AGI). Jedině učení nekontrolované lze podle LeCuna použít k trénování vysoce složitých (univerzálních) strojů pracujících bez lidského dohledu. Trochu to připomíná pravidlo 70:20:10 vypovídající o tom, že člověk se až 70 % všeho naučí sám (informálně), 20 % kontaktem s okolím (neformálně) a jen 10 % prostřednictvím cíleného formálního vzdělávání.
My lidé si však nebudujeme chápání světa proséváním obrovského množství označených dat jako AI. Místo toho využíváme takové schopnosti, jako je předpovídání a uvažování k odvození poznatků z dostupných informací. I když máme k dispozici neúplný předpoklad (např. chybějící segmenty v textech nebo neúplné obrázky), stále můžeme extrapolovat výsledky pomocí selského rozumu – což je schopnost, která strojům chybí.
Profesorka Americké univerzity v Káhiře Maha Bali vztáhla LeCunovo podobenství zajímavým způsobem na učení lidí [2]. Přirovnává využití AI k různým způsobům přípravy dortu. Dort můžeme získat tak, že ho koupíme hotový v cukrárně či supermarketu, přičemž nutně dražší nemusí být lepší, můžeme ho upéct z hotové směsi a podle chuti doladit, nebo si můžeme vyrobit vlastní těsto ze základních surovin.
Infografika vytvořená pomocí NotebookLM
Analogie pro vzdělávání je zřejmá. V každém případě se uplatní různá míra spoléhání se na AI. Cílem tohoto podobenství je uvědomit si důsledky každého způsobu a odhalovat takové souvislosti, jako je kvalita produktu, čas, náklady a osobní investice [3].
Zkoumat souvislosti můžeme začít od surovin. Surovinami pro AI jsou data. Výsledný dort bude jistě závislý na jejich kvalitě. Potíž je v tom, že současné AI modely se vyhýbají tomu, aby ukazovaly, z jakých dat své výstupy generují. V rámci analogie si můžeme představit i to, že si sami nameleme mouku a utlučeme máslo z vlastního mléka. Jakmile ale budeme potřebovat takové komodity, jako je cukr, nebo dokonce kakao, budeme závislí na vnějších výrobcích a dodavatelích. Přesto jsme schopni ve velké míře výsledek ovlivnit. U AI by to znamenalo ji buď vůbec nepoužít a vhodné zdroje si vygooglovat nebo použít vlastní AI, která pracuje s daty, která jí sami poskytneme (důvěryhodná AI). Tak jako tak je to postup velice náročný na čas a vlastní úsilí.
Dort, který bychom dělali zcela intuitivně, by nám asi moc nechutnal. Proto nejspíše použijeme nějaký recept nebo předem připravenou směs. Pokud se recept přesně dodržuje, dokáže dort úspěšně bez velkého přemýšlení upéct téměř kdokoli. Jestliže si však někdo přeje do směsi na úrovni korpusu zařadit určitou novou ingredienci, pak se pečení stává velice komplikovanou experimentální vědou.
Stejně jako se při přípravě dortu nakonec kombinují ingredience dohromady, tak i systémy AI propojují svá trénovací data. Naše analogie zde bohužel úplně nesedí, neboť u AI převládá přesvědčení, že přidání dalších dat do metaforického těsta je výhodné. Jen málo odborníků, pokud vůbec někteří, chápe důsledky příslušného přidávání. Není jasné, které kombinace dat mohou zlepšit schopnosti modelu a které přidání dat má negativní důsledky. Důležitá je komplexní souhra se zbytkem neprůhledné směsi dat ve výsledném korpusu. Smíchání všech ingrediencí dohromady po vzoru těsta na dort s sebou nese výhody obecné využitelnosti, ale zároveň ztěžuje možnost upéct něco specifického.
Když se dohodneme na ingrediencích a receptu, pečení dortu je pak jednosměrný proces. Jakmile je dort v troubě, není cesty zpět. Zapomněli jsme na ingredienci, udělali jsme chybu při dodržování pokynů, nelíbí se nám výsledek – vždy musíme začít znovu. Ukazuje se, že dodatečné úpravy včetně posilovacího učení z lidské zpětné vazby (poleva v podobě specifických promptů) primárně ovlivňují hlavně styl výstupu základního modelu spíše než jeho základní schopnosti.
V naší analogii to znamená, že můžeme hotový dort pouze ozdobit, nikoli změnit jeho základní složení, což má za následek nepřiměřené množství opakování pečení pro každou zásadní změnu. Takový pokus o modifikaci (tj. přetrénování) si může dovolit jen majitel modelu, stojí miliony dolarů a spotřebovává mimořádné množství energie.
Dort se nám sice podařilo upéct, ale je také chutný? Některé jeho vlastnosti lze všeobecně považovat za „jisté“ – třeba, že má být sladký, ale jiné, a to včetně míry sladkosti, se mohou místně velmi lišit. Při zvažování geografických a kulturních vlivů bude nevyhnutelně nemožné vybrat jednu chuť. Samotná představa průměrného lahodného dortu je jistě velkým zjednodušením, a to i v rámci jednoho regionu. Koneckonců každý člověk má své vlastní chuťové preference.
Tváří v tvář složitosti a množství chuťových hodnocení se pekaři AI typicky rozhodují pro vlastnosti, které lze snadno splnit, nebo jsou většinově přijatelné. To vede k používání všemi stejných povrchních měřítek. Problém s integrací různých preferencí je opakujícím se úkolem ve výzkumu strojového učení. Nejvíce se zkoumá dopad na marginalizované nebo ekonomicky znevýhodněné skupiny.
Je otázkou, do jaké míry lze dort v podobě AI z našeho podobenství poskytnout lidem, kteří jsou „hladoví“. Připomeňme údajný citát Marie Antoinetty, která vzkázala chudým: „Nemají-li chléb, ať jedí koláče!“ Je to samozřejmě nesmysl. Hladovějící populace nemá prostředky na nákup hotového produktu, přístup k ingrediencím, nerozumí receptu, nemá nástroje na pečení.
Je velmi důležité se věnovat promyšlené diskusi o roli AI při učení a jejímu potenciálu buď podporovat, nebo brzdit vzdělávací proces. Velká část současné populace ve skutečnosti z deklarovaného pokroku v oblasti AI zatím neprofituje. Nemá dostatečnou AI gramotnost, aby ji dokázala využít ke svému prospěchu.
Asi bychom se měli zamyslet, co dělat, aby si na AI dortech nakonec nepochutnávali jen vyvolení.
Článek je publikován pod licencí Creative Commons BY-NC-ND 4.0 (Uveďte autora-Neužívejte komerčně-Nezasahujte do díla).
Článek nebyl prozatím komentován.
Pro vložení komentáře je nutné se nejprve přihlásit.
Článek není zařazen do žádného seriálu.

Národní pedagogický institut České republiky © 2025