Grafika: vectorjuice, Freepik
K transparentnosti tvorby, ať už generované umělou inteligencí nebo lidské, se na Spomocníkovi vracíme opakovaně. Jedna z otázek, které se v souvislosti s touto problematikou neustále objevuje, zní, proč lidé, kteří konkrétní obsah tvoří, jeho původ zatajují?
V případě AI obsahu jsou jejich motivace značně odlišné, často i několikavrstevnaté a podmiňuje je celá řada vnitřních i vnějších faktorů. Pojďme si ty nejčastější stručně představit.
Generovaný obsah bývá obecně vnímán jako méně autentický, méně důvěryhodný a méně hodnotný. Pokud se skutečnost, že jde o AI, skryje, publikum reaguje spontánněji a pozitivněji.
Neoznačený obsah víc láká k prohlížení, častěji vzbuzuje emoce a podporuje sdílení. To vede k více kliknutím, komentářům a virálnímu šíření.
AI obsah, který je navíc záměrně zavádějící, šokující nebo hraniční, vyvolává diskuze, spory a tím i větší dosah. Označení jako AI může tento efekt oslabit.
Více pozornosti následně znamená více příjmů z reklamy a podporu monetizace na konkrétních platformách. Skrývání původu obsahu tak zvyšuje pravděpodobnost zisku.
Sociální sítě a vyhledávače často upřednostňují obsah, který generuje interakce a udržuje pozornost uživatelů. Obsah, který tyto metriky zvyšuje, je algoritmem šířen dál, bez ohledu na to, kdo ho vytvořil.
AI obsah může být optimalizován právě pro tento druh metrik. Pokud lidé vědí, že jde o AI obsah, méně reagují a tím tyto metriky snižují.
Použití AI je často spojeno s nižším hodnocením kompetence a kvality práce, což může vést k reputační ztrátě autora. Z toho důvodu lidé AI raději neuvádějí, aby se vyhnuli negativnímu profesnímu hodnocení.
Pravidla pro uvádění AI původu nejsou jednotná a liší se mezi institucemi i platformami, což vytváří nejistotu ohledně správného postupu. V této nejistotě pak lidé často neuvádění AI volí jako „bezpečnější“ variantu.
Autoři často nevědí, zda mají AI uvádět při úpravě textu, generování nápadů nebo jen drobných korektur, protože neexistuje jednotná definice „významného použití AI“. Tato nejasnost vede k tomu, že lidé raději neuvádějí AI vůbec.
Lidé mají tendenci připisovat kreativní obsah lidskému autorovi a označení, že jde o AI obsah může tuto iluzi narušit a snížit vnímanou originalitu. Neuvádění AI proto podporuje silnější dojem lidského autorství a kreativní tvorby.
V akademickém prostředí i v některých profesích může přiznání AI vést k obavám z porušení pravidel, ztráty kredibility nebo omezení publikace či hodnocení. Velmi nízká míra deklarace AI je i tam, kde je povinná, což naznačuje strach z následků. Transparentnost může vést k nižšímu hodnocení práce nejen lidmi, ale i hodnotícími systémy nebo platformami, které upřednostňují „čistě lidský“ obsah.
Použití AI může být interpretováno jako indikátor, že tvorba vyžadovala málo času a úsilí, což snižuje vnímanou hodnotu výsledku. Lidé proto mohou AI skrývat, aby neoslabili dojem poctivé práce a investovaného úsilí nebo naopak, aby tento fakt zakryli.
Výše uvedené důvody mají jeden společný jmenovatel: ukazují, že jak lidé, tak technologie deklaraci AI obsahu spíše sankcionují, než aby jej oceňovali. Jako bychom stále nechápali, že v éře hybridního obsahu, v níž se nacházíme, musíme nejen změnit paradigmata kreativity, autenticity a autorství, jak o tom mluví např. Nina Beguš (Deklarace lidské tvorby a její překážky), ale také si musíme uvědomit, že nakonec nemusí být ani tak důležité, jak to které dílo vzniklo, ale co nám přináší a zda a jak nás obohacuje.
*
Poznámka:
Výčet bodů 1–11 je syntézou poznatků z více odborných studií, nikoli výstupem jedné konkrétní výzkumné práce. Na přípravě této syntézy byl využit nástroj ChatGPT jako podpůrný prostředek pro rešerši a strukturaci informací; odpovědnost za finální podobu interpretace nese autor textu.
Článek je publikován pod licencí Creative Commons BY-NC-ND 4.0 (Uveďte autora-Neužívejte komerčně-Nezasahujte do díla).
Článek nebyl prozatím komentován.
Pro vložení komentáře je nutné se nejprve přihlásit.
Článek není zařazen do žádného seriálu.

Národní pedagogický institut České republiky © 2025