Kdybyste za mnou přišli s nápadem zavést do školy novou digitální technologii, položím vám 3 základní otázky:
Co to umí? Jak to využijete? Jak to zabezpečíte?
Otázka na bezpečnost je u mne hned na třetím místě. Ale klidně bych si ji dovedl představit na místě prvním. Je to právě oblast technologického zabezpečení, na kterou často zapomínáme nebo včas neřešíme a v horším případě neřešíme vůbec.
Pod zájmenem to si přitom můžete představit jakoukoli službu či aplikaci včetně umělé inteligence, jež v posledním letech ve školách (a nejen v nich) v různých podobách zavádíme asi nejčastěji.
Zabezpečení umělé inteligence proto musíme věnovat zvýšenou pozornost a dát mu v procesu integrace daného řešení vysokou prioritu.
Co si ale pod zabezpečením AI přesně představit?
Clara Lin Hawking, spoluzakladatelka a výkonná ředitelka společnosti Kompass Education ho vysvětluje takto:
„Bezpečnost AI není jen o vybudování lepšího firewallu nebo používání lepších hesel. Jde o porozumění rizikům, příležitostem a omezením, které používání umělé inteligence přináší, a to se týká všech zainteresovaných aktérů ve škole.“
Zabezpečení AI ve školách podle Hawking také vyžaduje změna kultury a pochopení toho, na koho má tato technologie dopad, spíše než jen zavedení nové IT infrastruktury.
[1]
Stejně jako u jakékoliv jiné technologie, také u umělé inteligence je oblast týkající se bezpečnosti velmi komplexní a zahrnuje mimo jiné dodržování pravidel jejího používání nebo absolvování vzdělávání všech cílových skupin ve škole na připravenost v oblasti bezpečnosti AI v podobě různě tematicky zaměřených kurzů (realizovaných či zprostředkovaných školním AI týmem) např. o pochopení toho, jak aplikace shromažďují data nebo jak z dat nahraných do velkých jazykových modelů (LLM) odstranit osobně identifikovatelné informace. Součástí těchto kurzů mohou být i workshopy o tom, jak interně využívat modely AI nebo jak realizovat strategie správy, analýzy dat předtím, než jsou přidána do AI modelu, či takové, které poskytují doporučení k zavedení technologií, jež brání uživatelům zadávat soukromé informace do veřejných nástrojů.
Je přitom důležité mít na paměti slova Peta Johnsona, technického ředitele pro oblast umělé inteligence ve společnosti CDW:
„Jakékoli AI řešení, které zavedete, zesílí vaše stávající bezpečnostní a datové slabiny. AI žádný z těchto problémů nevyřeší. Naopak zesílí jejich dopad napříč celou organizací.“
[1]
Johnson a Hawking současně nabízí několik návrhů, které mohou školám pomoci používat umělou inteligenci bezpečným způsobem.
Používejte interní (in-house) řešení, které umožní žákům, učitelům i zaměstnancům experimentovat s chatovací aplikací založenou na umělé inteligenci, aniž by se data vystavovala ve veřejném prostoru. Můžete též pracovat s veřejným modelem, který má správně nastavené mechanismy ochrany soukromí.
„Všichni tři největší poskytovatelé, Amazon, Microsoft a Google, mají ve svých dohodách o ochraně osobních údajů uvedeno, že nebudou používat obsah vašich promptů k dalšímu trénování modelů. Tím jste chráněni i v případě, že nemáte AI systém provozovaný lokálně. Pokud jej používáte v cloudu, dohoda o ochraně dat zaručuje, že vaše data nebudou použita k dalšímu tréninku modelů,“ říká Johnson.
Akční plán by měl podrobně popisovat postup v případě úniku dat nebo například při šíření hromadného phishingového e-mailu v rámci pokusu o finanční podvod.
„Je naprosto zásadní, aby IT pracovníci přesně chápali, jaké nové možnosti útoků vznikají a jak vypadají, a následně začali budovat rámec pro jejich řešení. To zahrnuje vše – hardware, software i samotnou IT architekturu, ale také politiky a pravidla nastavené na úrovni jednotlivých škol, které se těmito otázkami zabývají,“ uvádí Hawking.
Při AI experimentování ve škole začínejte postupně. Například můžete využít data k analýze výsledků testů nebo k vytváření zpráv o studijním pokroku pro rodiče, aniž byste najednou zpřístupnili veškerá data AI systému.
„Nedávejte celý svůj datový ekosystém k dispozici nějakému AI botovi. Místo toho buďte velmi konkrétní v tom, jaké problémy se snažíte řešit,“ doporučuje Johnson.
Nepoužívejte osobní e-mailové účty u poskytovatelů vzdělávacích technologií, protože to může vytvářet vstupní body pro sdílení dat, která by mohla být bez souhlasu využita k trénování modelů, varuje Hawking.
Vytvořte kontrolní (dozorový) tým pro prověřování AI nástrojů. Tento tým by mohl zahrnovat zástupce IT oddělení, rodiče i představitele studentské samosprávy, radí Hawking.
„Neznamená to zakázat veškerou AI, ale přesně vědět, co se ve škole používá a proč se to používá,“doplňuje.
Důkladné posouzení rizik vám umožní identifikovat rizika spojená s dodržováním legislativy a vytvořit politiky a postupy pro využívání generativní AI.
„V rámci AI auditu je opravdu důležité získat celkový přehled o tom, jak všechny procesy využívání AI na škole probíhají. To je výchozí bod pro kvalitní správu a řízení,“ uzavírá Hawking.
[1]
Mám pocit, že se ten scénář opakuje stále dokola: býváme tak nadšeni z nových technologií (internetu, sociálních sítí, mobilních zařízení, AI,…), až nás tato euforie zcela pohlcuje a zaslepuje, že pak přestáváme vidět jejich rizika a zapomínáme se soustředit na to, co je podstatné, tedy na jejich zabezpečení. U AI by však mohlo jít o chybu naprosto fatální.
*
Článek je publikován pod licencí Creative Commons BY-NC-ND 4.0 (Uveďte autora-Neužívejte komerčně-Nezasahujte do díla).
Článek nebyl prozatím komentován.
Pro vložení komentáře je nutné se nejprve přihlásit.
Článek není zařazen do žádného seriálu.

Národní pedagogický institut České republiky © 2025