Domů > Spomocník > Základní vzdělávání > Superinteligence podle Macieje Cegłowského
Odborný článek

Superinteligence podle Macieje Cegłowského

13. 2. 2017 Základní vzdělávání Spomocník
Autor
Bořivoj Brdička

Anotace

Výtah z přednášky kalifornského počítačového experta Macieje Cegłowského se zabývá budoucím vývojem umělé inteligence a katastrofickými předpověďmi, že ovládne svět a zničí naši civilizaci.

Maciej Cegłowski (česky Matěj, anglicky Matthew) je Američan polského původu. Z Polska odešel s rodiči jako šestiletý v době, kdy se tehdejší prezident Jaruzelski rozhodl potlačit protestní celonárodní hnutí Solidarność silou vojenské junty (1981). Dnes žije v San Franciscu a stal se z programátora webů úspěšným realizátorem počítačových projektů. Tím posledním je placená služba na správu webových zdrojů Pinboard. Dění v Silicon Valley sleduje z bezprostřední blízkosti.

Možná proto ho organizátoři nedávného setkání vývojářů webu (WebCamp Zagreb 2016) pozvali, aby jim řekl něco o současném vývoji v oblasti umělé inteligence (AI). Maciej svou přednášku nazval Superintelligence: The Idea That Eats Smart People (Superinteligence: Představa požírající chytré lidi). Jak již asi tušíme, je to problematika ovlivňující též budoucnost školství. Podívejme se, s čím Maciej do Záhřebu přijel. Z hodinové přednášky vyberu jen to nejdůležitější.

V zásadě se jedná o polemiku s katastrofickým chápáním směřování umělé inteligence k převzetí kontroly nad vývojem Země a lidstva spolu s ní. Na počátku současného pojetí této, zatím spíše vědecko-fantastické poplašné předpovědi tzv. alarmistů, byl nejspíše Ray Kurzweil a jeho Zákon zrychlujících se změn (viz Ray Kurzweil, umělá inteligence a výuka jazyků), který předpovídá, že AI svými schopnostmi v docela blízké budoucnosti překoná lidskou inteligenci. Podle těchto teorií by měl současný exponenciálně se zrychlující vývoj světa dospět až k nespojitosti (Singularita podle Vinge, Superpočítače, singularita a učitelé 21. století). Maciej se vymezuje vůči jednomu z významných představitelů alarmistů Nicku Bostromovi, který vede oxfordský Future of Humanity Institute. Do této skupiny však patří i mnoho dalších známých osobností a investorů ze Silicon Valley (Peter Thiel a volba amerického prezidenta).

Maciej nejprve shrnuje základní teze Bostromovy poslední knihy Superintelligence: Paths, Dangers, Strategies:

  1. Člověk je schopen racionálně myslet a tento proces lze simulovat.
  2. V lidském mozku se neděje nic nadpřirozeného, čili strukturu i obsah lze teoreticky sejmout, kopírovat a emulovat pomocí neuronové sítě.
  3. Rozvoj inteligence (schopnosti myslet) je založen na přirozeném vývoji.
  4. Úroveň myšlení je závislá na podmínkách rozvoje. V prostředí, které bude mít pro tento rozvoj lepší podmínky (rychlost, kapacita paměti), může dospět dále.
  5. AI nemusí u každého jedince (stroje) začínat znovu s učením. Potřebné „poznatky“ přebírá hotové.
  6. AI má přirozenou snahu sebe sama stále zdokonalovat.

Pokud všechny tyto teze přijmeme, nezbývá nám než očekávat katastrofu. Technologie svými schopnostmi předčí člověka a budou se dále zdokonalovat, dokud nedospějí k limitům, které jim dosažené technické řešení umožní. O lidstvo se přestanou starat.

To jsou typické hypotézy alarmistů, jež poněkud připomínají konspirační teorie, jako je třeba UFO. V situaci, kdy se vás někdo snaží o čemkoli nejistém přesvědčit, je vhodné věc prozkoumat epistemologickým pohledem. To znamená zamyslet se nad tím, jak takový alarmista dospěl k přesvědčení, které má? Zda jsou teze, z nichž vychází, správné? Určité podezření je od počátku při pohledu zvnějšku na místě, protože tyto předpovědi jsou často šířené jako memy se záměrem upoutat pozornost a nasměrovat finanční toky. Jelikož však jsou lidé, kteří patří k alarmistům, často velmi chytří, je vhodné se nad jejich vývody opravdu důkladně zamyslet.

A to je přesně to, co Maciej udělal. Předkládá celou řadu Bostromovým tezím odporujících argumentů. Vyberu ty nejpádnější:

  1. AI je jiná než lidská. Ve skutečnosti je diskutabilní, zda je správné ji tímto termínem vůbec označovat. Pokud připustíme, aby sebe sama zdokonalovala, je obtížné se zkušenostmi zatíženými dosavadní evolucí na Zemi předvídat, kterým směrem se bude ubírat.
  2. Totéž platí i obráceně. AI nebude myslet jako člověk. Nedokáže tak snadno lidstvo ovládnout. To otevírá prostor pro výhodnou spolupráci (Přichází druhá počítačová revoluce).
  3. Je skoro nemožné, aby se nám podařilo stvořit nezávislou AI bez chyby. Zatím vše, co člověk udělal, mělo na počátku nějakou chybu a muselo se to opravovat. To znamená, že i AI nebude jistě dělat přesně to, co si dnes představujeme. Maciej tento argument označuje za „slovanský pesimismus“ a dává takovýto příklad: „Pokud AdSense (služba Google umožňující příjem z reklamy) bude schopná samostatně vnímat, možná přidá sama sebe do systému samořízených aut a nechá je sjet ze skály.
  4. Nejlepších výsledků AI doposud dosahuje při zpracování opravdu velkých dat pomocí poměrně málo inteligentních algoritmů založených na neuronových sítích (Co dokáží stroje schopné hlubokého učení). K superinteligenci má daleko.
  5. Superinteligence nebude na počátku skoro nic umět a bude se muset učit. Při tom bude interagovat s naším světem. Ten ale funguje v mnohem pomalejším čase, jemuž se bude muset přizpůsobit.

Přesto mnoho chytrých a bohatých lidí věří, že superinteligence si podmaní nejen náš svět, ale celý vesmír. Dostávají se tak do polohy poněkud připomínající středověké alchymisty, kteří věří, že „vyrobí zlato ze rtuti“. Všichni nemají jen čistě sobecké cíle. Sami sebe vidí jako hrdiny komiksových seriálů (supermany), kteří svým přispěním k vývoji AI pomohou zachránit celou naši civilizaci, protože problémy, které před námi stojí, lidstvo samo (bez AI) není schopno vyřešit. Asi proto se o jejich řešení ani nepokoušejí (ekologie, chudoba, uprchlická krize apod.).

S těmi, kdo nejsou na záchranu dost bohatí či v superinteligenci nevěří, ve svých grandiózních megalomanských plánech bohužel vůbec nepočítají. Poznáte je tak, že si přejí rozšířit své schopnosti prostřednictvím technologií (kyborg), věří v umělé prodloužení života (Life extension technology), dávají svá těla během úmrtí zmrazit (kryonika), vyvíjejí nástroje na skenování obsahu mozku s možností následné obnovy (mind uploading), pokoušejí se rekonstruovat osobu zemřelého ze vzpomínek pamětníků (Preserved Memories) apod.

Na vrcholu víry v superinteligenci je opravdový Matrix, tj. hypotéza, že nejen budoucí svět, ale i ten náš je naprogramovanou simulací. To by znamenalo, že i samotný Bůh je stroj. Raději ani nebudu tuto představu dále rozvíjet. Ono ani není co, protože o tom světě, v němž v takovém případě naše aplikace běží, nic nevíme a dovědět se ani nemůžeme.

A tak Maciej dospívá k závěru, že je smutné sledovat, jak se z chytrých lidí stávají „herci hrající kostýmovou hru“ (cosplay) neodpovídající realitě. Připomíná, že anglosaský svět je předurčen k tomu, aby věci viděl zkresleně, protože velmi dlouho nezažil nedostatek. Domnívá se, že to je i ten důvod, proč anglicky psané sci-fi není zdaleka tak dobré jako to pocházející z bývalého východního bloku (Lem, bratři Strugačtí). Možnou cestu k nápravě vidí ve zkvalitnění současné sci-fi literatury.

Maciej Ceglowski – Superintelligence: The Idea That Eats Smart People (Keynote)

Maciej Ceglowski se ve skutečnosti nepokouší problém superinteligence bagatelizovat. Netvrdí, že žádná rizika neexistují. Své chápání současné situace dokumentuje příběhem, který stojí v pozadí celé jeho přednášky:

V roce 1945, když američtí vědci připravovali první test atomové bomby, přišel někdo z nich s varováním, že se reakce může vymknout kontrole a může dojít k výbuchu celé atmosféry. Vědci se tím problémem skutečně vážně zabývali a s tehdejšími (nedostatečnými) znalostmi problematiky spočítali, že existuje přijatelná míra pravděpodobnosti, že se to nestane. Dnes je samozřejmě možné spočítat důsledky nukleárního výbuchu mnohem přesněji.“ (více zde)

Závěr je zřejmý. Superinteligence znamená podobný předěl ve vývoji naší společnosti, jako byl vynález atomové bomby. Rizika jsou obrovská, ale neznamená to nutně konec naší civilizace. Pořád máme možnost ovlivňovat vývoj technologií a vnutit jim takové vlastnosti, které budou v souladu s lidskou etikou a morálkou. Znamená to do AI integrovat snahu pomáhat lidem, neubližovat jim a poslouchat, co chtějí (Friendly artificial intelligence). Existuje pro to dokonce specializovaný termín vyjadřující princip sebezdokonalování AI – Coherent Extrapolated Volition (soustavně se rozšiřující vůle). Přišel s ním další kalifornský odborník na umělou inteligenci a autor sci-fi Eliezer Yudkowsky. Tento směr vývoje by měl mít naši podporu, jakkoli se možná zdá být utopický.

Literatura a použité zdroje

[1] – CEGŁOWSKI, Maciej. Superintelligence: The Idea That Eats Smart People. 2016. [cit. 2017-1-10]. Dostupný z WWW: [http://idlewords.com/talks/superintelligence.htm].

Licence

Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.

Hodnocení od uživatelů

Bořivoj Brdička
11. 3. 2017, 11:32
Další velmi zajímavá Matějova přednáška nazvaná Who Will Command Robot Armies? s podporou na webu.

Váš komentář

Pro vložení komentáře je nutné se nejprve přihlásit.

Článek není zařazen do žádného seriálu.