Maciej Cegłowski (česky Matěj, anglicky Matthew) je Američan polského původu. Z Polska odešel s rodiči jako šestiletý v době, kdy se tehdejší prezident Jaruzelski rozhodl potlačit protestní celonárodní hnutí Solidarność silou vojenské junty (1981). Dnes žije v San Franciscu a stal se z programátora webů úspěšným realizátorem počítačových projektů. Tím posledním je placená služba na správu webových zdrojů Pinboard. Dění v Silicon Valley sleduje z bezprostřední blízkosti.
Možná proto ho organizátoři nedávného setkání vývojářů webu (WebCamp Zagreb 2016) pozvali, aby jim řekl něco o současném vývoji v oblasti umělé inteligence (AI). Maciej svou přednášku nazval Superintelligence: The Idea That Eats Smart People (Superinteligence: Představa požírající chytré lidi). Jak již asi tušíme, je to problematika ovlivňující též budoucnost školství. Podívejme se, s čím Maciej do Záhřebu přijel. Z hodinové přednášky vyberu jen to nejdůležitější.
V zásadě se jedná o polemiku s katastrofickým chápáním směřování umělé inteligence k převzetí kontroly nad vývojem Země a lidstva spolu s ní. Na počátku současného pojetí této, zatím spíše vědecko-fantastické poplašné předpovědi tzv. alarmistů, byl nejspíše Ray Kurzweil a jeho Zákon zrychlujících se změn (viz Ray Kurzweil, umělá inteligence a výuka jazyků), který předpovídá, že AI svými schopnostmi v docela blízké budoucnosti překoná lidskou inteligenci. Podle těchto teorií by měl současný exponenciálně se zrychlující vývoj světa dospět až k nespojitosti (Singularita podle Vinge, Superpočítače, singularita a učitelé 21. století). Maciej se vymezuje vůči jednomu z významných představitelů alarmistů Nicku Bostromovi, který vede oxfordský Future of Humanity Institute. Do této skupiny však patří i mnoho dalších známých osobností a investorů ze Silicon Valley (Peter Thiel a volba amerického prezidenta).
Maciej nejprve shrnuje základní teze Bostromovy poslední knihy Superintelligence: Paths, Dangers, Strategies:
Pokud všechny tyto teze přijmeme, nezbývá nám než očekávat katastrofu. Technologie svými schopnostmi předčí člověka a budou se dále zdokonalovat, dokud nedospějí k limitům, které jim dosažené technické řešení umožní. O lidstvo se přestanou starat.
To jsou typické hypotézy alarmistů, jež poněkud připomínají konspirační teorie, jako je třeba UFO. V situaci, kdy se vás někdo snaží o čemkoli nejistém přesvědčit, je vhodné věc prozkoumat epistemologickým pohledem. To znamená zamyslet se nad tím, jak takový alarmista dospěl k přesvědčení, které má? Zda jsou teze, z nichž vychází, správné? Určité podezření je od počátku při pohledu zvnějšku na místě, protože tyto předpovědi jsou často šířené jako memy se záměrem upoutat pozornost a nasměrovat finanční toky. Jelikož však jsou lidé, kteří patří k alarmistům, často velmi chytří, je vhodné se nad jejich vývody opravdu důkladně zamyslet.
A to je přesně to, co Maciej udělal. Předkládá celou řadu Bostromovým tezím odporujících argumentů. Vyberu ty nejpádnější:
Přesto mnoho chytrých a bohatých lidí věří, že superinteligence si podmaní nejen náš svět, ale celý vesmír. Dostávají se tak do polohy poněkud připomínající středověké alchymisty, kteří věří, že „vyrobí zlato ze rtuti“. Všichni nemají jen čistě sobecké cíle. Sami sebe vidí jako hrdiny komiksových seriálů (supermany), kteří svým přispěním k vývoji AI pomohou zachránit celou naši civilizaci, protože problémy, které před námi stojí, lidstvo samo (bez AI) není schopno vyřešit. Asi proto se o jejich řešení ani nepokoušejí (ekologie, chudoba, uprchlická krize apod.).
S těmi, kdo nejsou na záchranu dost bohatí či v superinteligenci nevěří, ve svých grandiózních megalomanských plánech bohužel vůbec nepočítají. Poznáte je tak, že si přejí rozšířit své schopnosti prostřednictvím technologií (kyborg), věří v umělé prodloužení života (Life extension technology), dávají svá těla během úmrtí zmrazit (kryonika), vyvíjejí nástroje na skenování obsahu mozku s možností následné obnovy (mind uploading), pokoušejí se rekonstruovat osobu zemřelého ze vzpomínek pamětníků (Preserved Memories) apod.
Na vrcholu víry v superinteligenci je opravdový Matrix, tj. hypotéza, že nejen budoucí svět, ale i ten náš je naprogramovanou simulací. To by znamenalo, že i samotný Bůh je stroj. Raději ani nebudu tuto představu dále rozvíjet. Ono ani není co, protože o tom světě, v němž v takovém případě naše aplikace běží, nic nevíme a dovědět se ani nemůžeme.
A tak Maciej dospívá k závěru, že je smutné sledovat, jak se z chytrých lidí stávají „herci hrající kostýmovou hru“ (cosplay) neodpovídající realitě. Připomíná, že anglosaský svět je předurčen k tomu, aby věci viděl zkresleně, protože velmi dlouho nezažil nedostatek. Domnívá se, že to je i ten důvod, proč anglicky psané sci-fi není zdaleka tak dobré jako to pocházející z bývalého východního bloku (Lem, bratři Strugačtí). Možnou cestu k nápravě vidí ve zkvalitnění současné sci-fi literatury.
Maciej Ceglowski – Superintelligence: The Idea That Eats Smart People (Keynote)
Maciej Ceglowski se ve skutečnosti nepokouší problém superinteligence bagatelizovat. Netvrdí, že žádná rizika neexistují. Své chápání současné situace dokumentuje příběhem, který stojí v pozadí celé jeho přednášky:
„V roce 1945, když američtí vědci připravovali první test atomové bomby, přišel někdo z nich s varováním, že se reakce může vymknout kontrole a může dojít k výbuchu celé atmosféry. Vědci se tím problémem skutečně vážně zabývali a s tehdejšími (nedostatečnými) znalostmi problematiky spočítali, že existuje přijatelná míra pravděpodobnosti, že se to nestane. Dnes je samozřejmě možné spočítat důsledky nukleárního výbuchu mnohem přesněji.“ (více zde)
Závěr je zřejmý. Superinteligence znamená podobný předěl ve vývoji naší společnosti, jako byl vynález atomové bomby. Rizika jsou obrovská, ale neznamená to nutně konec naší civilizace. Pořád máme možnost ovlivňovat vývoj technologií a vnutit jim takové vlastnosti, které budou v souladu s lidskou etikou a morálkou. Znamená to do AI integrovat snahu pomáhat lidem, neubližovat jim a poslouchat, co chtějí (Friendly artificial intelligence). Existuje pro to dokonce specializovaný termín vyjadřující princip sebezdokonalování AI – Coherent Extrapolated Volition (soustavně se rozšiřující vůle). Přišel s ním další kalifornský odborník na umělou inteligenci a autor sci-fi Eliezer Yudkowsky. Tento směr vývoje by měl mít naši podporu, jakkoli se možná zdá být utopický.
Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.