Dr. W. Ian O’Byrne je profesorem na pedagogické fakultě College of Charleston v Jižní Karolíně. Jeho oborem je rozvoj gramotnosti při čtení, psaní a komunikaci v online a v hybridních prostorech. Kriticky přemýšlí o technologiích a vzdělávání v souvislosti s gramotností a o tom, jak je můžeme využít pro spravedlivější a smysluplnější učení.
Ian má osobní web, pomocí systému pro správu znalostí (Obsidian) ukazuje netechnicky založeným zájemcům (učitelům) postup (Digital Gardening), jak se stát digitálně gramotným (Digitally Literate), a založil Initiative for Literacy in a Digital Age. Z mnoha jeho publikací jsem vybral dva články, které mě zvláště zaujaly.
V prvním [1] vysvětluje, proč dnes záleží stále více na vnímání rozdílu mezi bezpečností, soukromím a suverenitou. Bezpečnost chápeme jako zámek na dveřích. Je to technická zábrana, která brání neoprávněným osobám ve vloupání. Šifrování, firewally a dvoufaktorové ověřování jsou naše závory. Soukromí lze přirovnat k oponě na okně. Je na nás, abychom se rozhodli, co lidé z našeho obsahu uvidí. Definuje hranice a práva ke vstupu. Do nedávna jsme se zabývali hlavně tím, aby někdo neprolomil naše hesla, nebo tím, že by někdo mohl zachytit naše e-maily. Vše je ale dnes již trochu jinak.
Představte si pevnost ze skla, která je dokonale bezpečná (nikdo se do ní nemůže vloupat), ale vy v ní nemáte žádné soukromí (každý dovnitř vidí). Nebo jinak – můžete si zatáhnout závěsy, abyste se schovali, ale pokud jsou vchodové dveře odemčené, nejste v bezpečí. My teď ale čelíme ještě poněkud odlišné výzvě. Co když pronajímatel vlastní váš nábytek a má všude kamery i klíče k zámkům? Pak je třeba se zabývat tím, co lze označit jako digitální suverenitu. Jestliže je bezpečnost zámek na dveřích a soukromí závěs na okně, co je suverenita?
Poslední desetiletí si pronajímáme prostor k životu od „velkých technologických firem“ (Big Tech). Ukládáme si fotografie do jejich cloudů, zapisujeme si myšlenky do jejich aplikací a trénujeme jejich algoritmy pomocí našeho chování. Máme pocit bezpečnosti (neztrácejí naše data) a určité soukromí (můžeme měnit nastavení přístupu), ale nemáme suverenitu.
Ve věku AI jsou data surovinou pro predikce a zisk. Vaše „nevinná“ zdravotní data se používají k odhadu vašeho budoucího pojistného rizika. Váš „veřejný“ styl psaní je shromažďován, aby se trénovaly velké jazykové modely, které vás mohou napodobovat, aniž by to přiznaly. Vaše „nudná“ historie polohy je agregována, aby se určila vaše bonita.
Možná nemáte žádné tajemství, ale budujete vzorce chování. A pro umělou inteligenci jsou tyto vzorce cenným aktivem. I když si myslíte, že nemáte co skrývat, ve skutečnosti říkáte: „Souhlasím s tím, abych byl zneužíván.“
Často si pleteme suverenitu s kontrolou. Digitální suverenita však jde nad rámec pouhého nastavování práv k datům. Je to schopnost nastavit si vlastní pravidla používání. Má dvě složky.
Datová suverenita je technický aspekt – znamená, že soubory se nacházejí na místě, které máte plně pod kontrolou (např. pevný disk či Nextcloud), nikoli na serveru v jurisdikci, které nerozumíte.
Občanská suverenita je etický aspekt – znamená nepoužívat nástroje, které vytěží hodnotu z toho, co děláte (např. z vašich žáků). Jde o to zajistit, aby naše digitální prostředí sloužilo nám, ne naopak.
Skutečná ochrana není jen o uchovávání tajemství (soukromí) nebo zastavování hackerů (zabezpečení). Jde o autonomii. Jde o vlastnictví infrastruktury, abyste nemohli být vystěhováni nebo zneužiti.
To znamená, že do budoucna přestáváme vnímat ochranu osobních údajů jako „uživatelské nastavení“, které je třeba zapnout. Musíme požadovat, aby byla nativní součástí digitálních nástrojů již od samotného jejich návrhu. Proto doporučujeme používat takové nástroje, jako je např. Signal, který nejen „skrývá“ vaše zprávy. Je navržen tak, aby o vás téměř nic nevěděl. Ve výchozím nastavení minimalizuje vaše osobní data.
Odkláníme se od „důvěřování“ společnostem, že dělají správnou věc, a přecházíme k používání nástrojů, které funkčně zaručují, že nemohou dělat nic špatného.
Sečteno a podtrženo platí, že nestačí zajistit jen bezpečí a soukromí. Potřebujeme též suverenitu, která udržuje pronajímatele (poskytovatele) poctivými. Už nestačí jen zamykat dveře. Musíme vlastnit dům.
A Look at Our Kids' Cybersecurity As We Head Back to School – with Ian O'Byrne, Ph.D.
Možná ještě závažnější je ten druhý článek [2], který je typickým výstupem generovaným z osobních Ianových poznámek v rámci systému Obsidian a zabývá se problémem, jemuž čelí školství kvůli rozporu vznikajícímu optimalizací nejpoužívanějších modelů AI směrem k maximálnímu zapojení uživatelů, ne k učení. Skoro stejný problém řešíme již od vzniku sociálních sítí, které se snaží co nejvíce prodloužit pobyt uživatelů a ovlivňovat jejich chování (Odpor vůči ovlivňování lidí online podle Williamse).
Ian vychází z myšlenek průkopníka umělé inteligence Yann LeCuna, který tvrdí, že současný vývoj rozsáhlých jazykových modelů vede do slepé uličky. Školství začalo budovat propracované rámce pro jejich přijetí, ale přitom se nezamýšlí nad tím, zda v souvislosti s AI nerozvíjí nesprávné digitální kompetence (digitální inteligenci).
Ian přebírá Yannovu vizi, podle níž je třeba vývoj velkých jazykových modelů nasměrovat k modelům tzv. „planetární inteligence“ (World Model), které nejsou založeny na datech vložených lidmi, nýbrž na datech získaných zkoumáním reálného světa kolem nás. To je pravděpodobně směr, kterým se AI bude ubírat. Některé projekty již dnes naznačují cestu (Earth AI, Aurora).
Hlavní, a pro nás důležitou odlišností planetárních modelů (WM) od stávajících velkých jazykových modelů (LLM) je to, že jejich funkce má mnohem blíž k tomu, jak funguje lidský mozek.
Systémy WM „chápou“ fyzickou realitu, uchovávají si její vnitřní reprezentace a umí (na rozdíl od LLM) plánovat akce dopředu. Již dnes dokážou pracovat s objekty na podobné úrovni jako děti či zvířata. Díky „myšlení dopředu“ jsou schopné se učit novým způsobem. Místo učení se pouze metodou pokus–omyl v reálném prostředí (což může být pomalé nebo riskantní) mohou simulovat různé scénáře ve svém vlastním virtuálním modelu (své „představivosti“).
Měli bychom se zamýšlet nad tím, jak by mohly WM přispět k vhodnější implementaci AI do výuky. Opakovaně mluvíme o rizicích toho, že se AI místo rozvoje myšlení lidí snaží ho nahrazovat. Společnosti AI nástroje vyvíjející jsou zaměřeny na marketing, a tak se velmi často snaží získat co nejvíce uživatelů usnadňováním práce, empatií za každou cenu a podporou závislosti (Nenápadná kolonizace vzdělávání prostřednictvím AI podle Moravce). My ale potřebujeme spíše rozvíjet lidské myšlení.
WM by možná mohly pomoci. Budou mít poněkud odlišné vlastnosti. Budou uchovávat reprezentace propojených fyzikálních systémů Země, rozumět fyzickým omezením a budou schopné uvažovat o příčinách a následcích v měřítkách tak velkých, že toho žádný jednotlivec není schopen.
Díky aktuální fragmentaci, v níž si národy jdou svou vlastní cestou, firmy se předhánějí v konkurenčním boji a školy zavádějí digitální nástroje, aniž by se ptaly, pro co jsou optimalizovány, je to vize, která dává smysl a ukazuje cestu vpřed. Vypadá to, že budou existovat i technologie, které nás mohou učit, jak se dívat na svět jinak.
Jsme svědky počátků formování „planetární moudrosti“, inteligence rozložené mezi lidmi, stroji a pozemskými systémy, která by mohla uvést naši technosféru do rovnováhy s biosférou. Nejedná se o AI, která podporuje závislost na jednotlivých nástrojích, ale o AI, která nám pomáhá zkoumat naši existenci a starat se o ni jako o sdílený, vzájemně závislý celek.
A tady se Ian začíná projevovat jako typický konektivista. Doporučuje digitální inteligenci chápat v širším měřítku, kde AI nefunguje jako individuální asistent optimalizující výstupy, ale jako kolektivní nástroj, který nám pomáhá vidět závislosti příliš komplikované na to, aby je jeden člověk dokázal pochopit. Otázkou není, zda umělá inteligence patří do vzdělávání. Ta už tam je. Otázkou je, jaký druh inteligence budujeme. A kdo má prospěch z toho, když používáme nástroje, které nejsou pro vzdělávání optimalizovány.
Ian patří k lidem, kteří se snaží rozptylovat „mlhu“, za níž se skrývá budoucnost našeho světa. Je přesvědčen, že to vždy nejsou ti nejhlasitější ani nejodbornější jedinci. Jsou to naše tiché ukazatele směru. Potřebujeme jich více (osobní vzdělávací prostředí). A můžete se jimi stát i vy (The People Who Help Us See Clearly).
Článek je publikován pod licencí Creative Commons BY-NC-ND 4.0 (Uveďte autora-Neužívejte komerčně-Nezasahujte do díla).
Článek nebyl prozatím komentován.
Pro vložení komentáře je nutné se nejprve přihlásit.
Článek není zařazen do žádného seriálu.

Národní pedagogický institut České republiky © 2025