Zdroj: Terence Broad
Terence Broad měl toho všeho dost.
Když v roce 2016 po dlouhém hledání práce v oblasti strojového učení nakonec získal místo ve firmě spravující síť dopravních kamer s důrazem na ochranu osobních údajů v malém městě Milton Keynes na jihovýchodě Anglie, dostal za úkol trénovat zdejší modely a starat se o obrovské databáze čítající na 150 tisíc snímků. Neustálá správa datasetů ho však otrávila natolik, že když se později začal věnovat vlastní umělecké dráze, zařekl se, že tohle nikdy dělat nebude – že nikdy nebude vytvářet žádné datasety. A neblahá zkušenost s dopravními kamerami nebyla jediným důvodem, který ho k jeho rozhodnutí dovedl.
Další přišel ze strany nadnárodní korporace s hrozbou žaloby za porušení autorských práv.
Jeden z jeho prvních uměleckých úspěchů totiž spočíval v tom, že vytrénoval neuronovou síť zvanou autoencoder na každém snímku kultovního filmu Blade Runner (1982) a následně ji požádal, aby vytvořila vlastní kopii tohoto filmu. Výsledek představoval demonstraci tehdejšího omezení generativní AI (stále se psal rok 2016) obsahující ironický komentář ke světlým i temným stránkám AI vytvořené člověkem. Broad video zveřejnil na internetu, kde vzápětí upoutalo velkou pozornost.
Výzva na odstranění obsahu od společnosti Warner Bros. na základě amerického zákona o autorských právech Digital Millennium Copyright Act (zkráceně DMCA), zaměřující se na digitální obsah a internet, na sebe nenechala dlouho čekat.
Broad se proti žalobě mohl bránit, ale coby čerstvý absolvent s hromadou dluhů si řekl, že případný soud raději nebude riskovat.
Poté, co chtěl novinář z Voxu po Warner Bros. k celé záležitosti vyjádření, společnost výzvu k odstranění videa stáhla, aby ji však brzy opět uplatnila. Po každém novém vložení videa na internet přišla další výzva k jeho odstranění. Krátce nato se Broadovi začali ozývat kurátoři a brzy získal příležitosti vystavovat svá díla v institucích, jako je Whitney Museum, Barbican Centre, Ars Electronica a dalších. Nejistota a úzkost z možné žaloby však pro něj byla vyčerpávající. Při jedné z cest na vernisáž své výstavy ve Whitney seděl v letadle vyděšený z představy, že ji Warner Bros. kvůli vystavenému videu v poslední chvíli zastaví. Naštěstí ho nikdy nezažalovali, ale hlubokou stopu to v něm zanechalo.
Po této zkušenosti si řekl, že ve svých uměleckých pracích nechce vytvářet díla, která jen vycházejí z cizí tvorby, bez souhlasu druhých a bez toho, aby jim za to musel platil. Od té doby už nikdy netrénoval generativní AI model na cizích datech kvůli své vlastní uměleckou tvorbě.
V roce 2018 zahájil doktorandské studium informatiky na Londýnské univerzitě Goldsmiths. A právě tam se začal důkladněji zabývat všemi důsledky svého rozhodnutí o „datovém půstu“. Položil si přitom jednoduchou otázku: Jak bychom mohli trénovat generativní AI model bez napodobování dat? A došlo mu, že je to vlastně oxymóron. Generativní model je totiž ve své podstatě statistický model dat, který pouze napodobuje ta data, na kterých byl natrénován. Nezbývalo než hledat jiné způsoby, jak danou otázku zodpovědět.
Brzy obrátil svou pozornost k populárnímu modelu umělé inteligence nazvanému generative adversarial network (GAN). V konvenčním GAN systému spolupracují dvě neuronové sítě, discriminátor a generátor, které se během tréninku vzájemně zdokonalují. Obě sítě analyzují tréninkový dataset a poté se generátor snaží oklamat diskriminátor tím, že vytvoří falešná data. Když selže, upraví své parametry, a když uspěje, upraví se diskriminátor. Na konci celého procesu, tedy určitého přetahování mezi generátorem a diskriminátorem, by podle teorie mělo dojít k ideální rovnováze, která umožní, aby GAN produkoval data, jež jsou kvalitou srovnatelná s původním tréninkovým datasetem.
Broada přitom napadlo, že by v GAN mohl nahradit tréninková data jinou generátorskou neuronovou sítí, propojit ji se sítí první a nasměrovat je, aby napodobovaly jedna druhou. Jeho první pokusy však vedly k takzvanému „mode collapse“, tedy stavu, kdy síť generuje stále stejný, nebo velmi podobný výstup, a výsledkem byly jen šedé skvrny a nic zajímavého. Když ale do systému přidal parametr color variance loss (ztrátovou funkci penalizující nedostatečnou barevnou variabilitu), generované obrazy se začaly jevit složitěji a živěji.
Díky dalším experimentům s vnitřními prvky GAN posunul svou práci ještě dál. Díky latentnímu vektoru coby vstupu do sítě GAN je možné se plynule pohybovat mezi různými body v prostoru možných výsledků a tímto prostorem, který obě sítě společně vytvářejí, cestovat. Fascinující věcí podle Broada bylo, že daný systém může v podstatě donekonečna generovat nové a nové věci.
Jakmile Broad spatřil první výsledky své práce, okamžitě v ní viděl podobnosti s obrazy amerického malíře Marka Rothka.
Když následně prezentoval výsledné dílo (ne)stabilní rovnováhy – anglicky (un)stable equilibrium – na technologické konferenci, jeden z účastníků jej rozzlobeně obvinil ze lži, pokud tvrdí, že do GANu nevložil žádná vstupní data, a trval na tom, že Broad musel model trénovat na barevných obrazech. Dané srovnání však poněkud míjí podstatu věci: genialita Broadovy práce totiž nespočívá ve výsledném vizuálním výstupu, ale v samotném tvůrčím procesu.
Broad si nekladl za cíl vytvořit obrazy podobné Rothkovi ani nikomu jinému. Jeho záměrem bylo odhalit latentní kreativitu neuronových sítí, se kterými pracoval.
Zda se mu to podařilo, si není jist ani on sám. Když je dotázán, zda jsou jeho obrazy z (ne)stabilní rovnováhy skutečným produktem „čisté“ umělé kreativity, odpovídá: „Na výstupy sítí není kladen žádný vnější požadavek ani funkce, ale domnívám se, že mé osobní estetické preference měly na tento proces určitý vliv jako forma „metaheuristiky“. Také si myslím, že důvod, proč systém generuje uvedené výstupy, je trochu záhadou. Mnoho akademiků mi navrhovalo, abych se pokusil prozkoumat a pochopit, proč systém právě takovéto výstupy generuje, ale upřímně, jsem s touto záhadou docela spokojený.“
Broadovy experimenty s generováním výstupů bez vstupních dat tak částečně odhalují vnitřní procesy umělé inteligence. Odkrývání fungování AI modelů je přitom důležité, obzvlášť v době, kdy se řada lidí stále dívá na AI jako na cosi všemocného či téměř mystického.
Broad to komentuje slovy: „Máme tendenci si myslet, že toho dělají mnohem víc, než ve skutečnosti dělají. Ale ve výsledku je to jen hromada maticových násobení. Je vlastně dost snadné se do toho systému dostat a začít věci měnit.“
[1]
Terence Broad: (un)stable equilibrium 1:2 [40 minute loop]
Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.
Článek nebyl prozatím komentován.
Pro vložení komentáře je nutné se nejprve přihlásit.
Tento článek je zařazen do seriálu Lidé a umělá inteligence.
Ostatní články seriálu:
Národní pedagogický institut České republiky © 2025