Geoffrey Hinton je známý počítačový vědec, který se zasloužil o pokrok umělé inteligence díky zdokonalení metodiky hlubokého učení. V minulých letech pracoval (kromě University of Toronto) pro Google. V důsledku nedávného boomu způsobeného aplikací ChatGPT v režii OpenAI (s podporou Microsoftu) se rozhodl Google opustit a zařadit se mezi skeptiky varující před pokračováním dalšího nekontrolovaného vývoje AI (Regulovat, či neregulovat rozvoj AI?). Asi bychom měli vědět proč? Z rozhovoru, který s ním vedl Will Douglas Heaven z MIT Technology Review, vyberu to podstatné [1].
Geoffrey připouští, že AI dokáže vykonat mnoho dobrého. Tvrdí dokonce i to, že Google patří k firmám, které na bezpečnost svých produktů dbají značnou měrou. Díky mimořádným znalostem oboru si však dokáže další vývoj představit mnohem lépe než my. Tvrdí, že stávající situace se podobá tomu, jako kdyby „na Zemi přistáli mimozemšťané, a lidé by si toho vůbec nevšimli, protože dokonale mluví lidskou řečí“.
Skutečnost je taková, že v lidském mozku existuje cca 100 trilionů synapsí. Současné nejvyspělejší systémy generativní AI obsahující jazykové modely, snažící se pomocí neuronových sítí simulovat funkci biologického mozku, mají sice zatím asi 100x méně synapsí, zato ale mají poněkud odlišné vlastnosti.
Dosud se věřilo, že neuronové sítě je obtížné něco naučit. Vyžaduje to obrovské množství dat a energie. Naproti tomu lidé snadno získávají nové nápady i dovednosti, a přitom využívají zlomek energie, kterou potřebují neuronové sítě. Jenže to se zásadně mění při nasazení největších jazykových modelů, jako je GPT. Ty se dokážou nové věci naučit extrémně rychle.
Geoffrey mluví o „skokovém učení“, ve kterém lze předtrénované velké neuronové sítě naučit něco nového na základě několika málo příkladů. Konstatuje, že některé z největších jazykových modelů dokážou spojit sérii logických výroků do argumentu, i když k tomu nebyly nikdy přímo trénovány. V rychlosti učení se již dnes nemůže člověk těmto systémům vyrovnat.
Je pravdou, že AI občas generuje chyby. Kvůli tomu mnozí odborníci tvrdí, že nemá skutečné pochopení toho, co říká. I na to má Geoffrey odpověď: „Omyly jsou funkce, ne chyba“. Lidé se také pletou. Polopravdy a špatně zapamatované detaily jsou charakteristickým znakem lidské konverzace. „Konfabulace je podpisem lidské paměti. AI modely jen dělají něco velmi podobného.“ Rozdíl je v tom, že lidé obvykle konfabulují víceméně správně. Podle Geoffreyho není vymýšlení věcí nic divného. Počítače prostě potřebují trochu více praxe. Očekáváme, že budou fungovat buď správně, nebo špatně – ne něco mezi tím. Lidské mozky samozřejmě umí stále dělat mnoho věcí lépe než počítače: řídit auto, učit se chodit, představovat si budoucnost. A navíc to dělají za zlomek energie v porovnání s technologiemi. „Když se biologická inteligence vyvíjela, neměla přístup k jaderné elektrárně“.
Dalším Geoffreyovým varovným argumentem je schopnost sdílení. Když se lidé učí, nestačí jim dostat kopii učebního materiálu. Musí ho studovat a promýšlet. U neuronových sítí je to jinak. Každá své vlastní zkušenosti může okamžitě předat jiné, a sdílet tak, co se naučila. To je obrovský rozdíl. „Je to, jako kdyby nás bylo 10 tisíc, a jakmile se jeden člověk něco naučí, všichni to víme.“
Podle Geoffreyho na světě nyní existují dva typy inteligence – biologická a nová digitální neuronová. A ta nová neuronová se rychle zdokonaluje.
Dalším krokem ve vývoji chytrých strojů je možnost vytvořit si vlastní dílčí cíle, tedy přechodné kroky potřebné k provedení určitého úkolu. U takových nástrojů již člověk nebude dávat otázky, rovnou stanoví cíle, jichž má technologie dosáhnout (Je Auto-GPT prvním krokem k AGI?). Je otázka, co by se mohlo stát, kdyby tato schopnost byla zneužita k řešení něčeho, co je ze své podstaty nemorální.
Pro lidstvo je zásadní, zda mu tato nová superinteligence bude pomáhat, či mu bude škodit. Geoffrey si je sice vědom toho, že tyto úvahy jsou zatím do značné míry pouze hypotetické, je však pouhou existencí možného katastrofického vývoje velmi znepokojen.
Je přesvědčen, že existuje nezanedbatelné riziko, že AI technologie budou nepřipravené lidi manipulovat a představitelná je i možnost jejich využití na jejich likvidaci. Dá se proto očekávat snaha s pomocí nových nástrojů posílit záměry autokrativních režimů k ovlivnění voleb, či dokonce tuto schopnost využít k vedení válek.
Potřeba řešit otázky spojené s vývojem AI je evidentní. Lidstvo však není připraveno. Asi jedinou možností, jak se se současnou situací vyrovnat, je vytvořit poněkud odlišný model fungování společnosti na planetě Zemi. Zatím to spíše vypadá, že tváří v tvář skutečným hrozbám nejsme schopni jednotně reagovat. To znamená, že roste riziko velkých změn na trhu práce, zhoršování nerovností, rasizmu, válek ad.
Jestliže neuronové sítě nakonec skutečně překonají biologický mozek, může to znamenat konec lidské civilizace. Ale třeba to tak má být. Na světě už je to tak zařízeno. Lepší vítězí!
Possible End of Humanity from AI? Geoffrey Hinton at MIT Technology Review's EmTech Digital
Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.
Článek nebyl prozatím komentován.
Pro vložení komentáře je nutné se nejprve přihlásit.
Tento článek je zařazen do seriálu Umělá inteligence.
Ostatní články seriálu: