Domů > Spomocník > Základní vzdělávání > Co bychom měli vědět o botech
Odborný článek

Co bychom měli vědět o botech

18. 4. 2017 Základní vzdělávání Spomocník
Autor
Bořivoj Brdička

Anotace

Základní informace o aktuálním stavu vývoje aplikací, které disponují umělou inteligencí, existují v online prostoru a chovají se jako člověk (robot bez těla).

Úvod

Význam Čapkova pojmu „robot“ v současném světě prudce roste. Spolu s tím se vyvíjí i jeho obsah. Přestává být hypotetickým protagonistou vědecko-fantastických románů popisujících vzdálenou budoucnost a stává se realitou dneška. Již nevystačíme s představou umělé kybernetické bytosti napodobující lidské chování. Umělá inteligence nachází uplatnění i jinde, například v online aplikacích schopných komunikovat s uživateli a předkládat jim individuálně modifikované zprávy. Takové aplikace používají zkratku „bot“ (nebo chatbot, orientují-li se na textovou komunikaci).

Vývojáři botů se primárně orientují hlavně na zařízení mobilní, u nichž je stále obtížnější dosáhnout úspěchu při šíření nových aplikací. Často mají podobu osobních asistentů použitelných v různých situacích (viz Horizon 2014), například u takovýchto činností [1]:

  • Kontakt se zákazníkem – bot pomáhá realizovat složité transakce, získává data a dává doporučení. Například dokáže vyhledat a rezervovat letenku či hotel. Pracuje se známými informacemi o zákaznících, takže přizpůsobuje nabídku jejich osobním preferencím.
  • Zjednodušení práce – bot dokáže zefektivnit mnoho pomalých činností při práci s počítačem pomocí ovládání hlasem. Příkladem může být např. vyhledání archivních údajů o datech z vyšetření pacienta, zápis akce do kalendáře apod.
  • Kontrola publikací – bot funguje jako dynamické rozhraní pro vydavatele. Pomocí něj lze konverzační formou zobrazovat články či videa, upravuje zobrazený obsah podle preferencí ad.

Na následující ukázce je demonstrace schopností konverzačního bota Google Allo:

Google Allo – Live-Demo (Google IO 2016)

Dá se očekávat, že v blízké budoucnosti počítačovou komunikaci boti doslova ovládnou. Nebudou již, jako u výše popsaných typů aplikací, komunikovat jen s uživatelem, ale také sami mezi sebou. Automaticky generovaná konverzace ovládne sociální sítě a bude téměř k nerozeznání od lidské. Stroje budou přesvědčovat, prodávat, podvádět, zastrašovat, manipulovat, a budou až neuvěřitelně dokonalé v tom, k čemu byly naprogramovány.

Schopnosti botů odpovídají úrovni zabudované umělé inteligence. U té se předpokládají 3 vývojové stupně [2]:

  1. ANI (Artificial Narrow Intelligence) – slabá umělá inteligence schopná pracovat jen v určité oblasti či řešit jen jeden typ problému (např. hrát GO jako Google Deepmind AlphaGo).
  2. AGI (Artificial General Intelligence) – silná umělá inteligence na úrovni lidské schopná pracovat napříč obory (dosud neexistuje).
  3. ASI (Artificial Superintelligence) – superinteligence, která možná jednou ve všech směrech předčí inteligenci lidskou (blíže viz Superinteligence podle Macieje Cegłowského).

Vývoj je překotný, největší hráči se snaží za každou cenu předčit své konkurenty. Momentálně se nacházíme někde mezi 1. a 2. stupněm. Čím více se bude umělá inteligence schopnostmi blížit lidské, tím složitější problémy budeme nuceni řešit.

Počítačová propaganda

Jedním z nejpalčivějších problémů dneška se stává boty podporovaná počítačová propaganda. Je to typ činnosti, při níž se různé zájmové skupiny snaží pomocí vzájemně spolupracujících botů ovlivnit mínění jiné skupiny lidí (voličů) tak, aby se chovala požadovaným způsobem – viz Tři současné trendy schopné zničit web. Pro nás je tato oblast mimořádně zajímavá, protože propaganda staví na poznatcích kognitivní psychologie, a má tudíž některé společné prvky se vzděláváním. Má pochopitelně hodně blízko k behaviorismu.

Typicky se zde uplatňují například tyto 3 techniky [3]:

  • Přesvědčování – masivní šíření pravdivých informací, polopravd či přímo dezinformací, a to různými cestami i formami, avšak vedoucími vždy ke stejným závěrům. Pro boty jsou často zakládány fiktivní účty na sociálních sítích, které využívají vrozené samolibosti (implicit egotism) příslušníků cílové skupiny – tj. snaží se dělat dojem, že patří někomu, kdo do této skupiny patří.
  • Sledování – předstírání velkého zájmu a podpory určité myšlenky či osoby. Děje se tak strojovým „lajkováním“, tj. ovlivňováním algoritmu, který automaticky vyhodnocuje oblibu zájmové záležitosti.
  • Potlačování – oslabování myšlenky či osoby odváděním pozornosti k jiným tématům, zahlcováním konverzace určité skupiny nevyžádanými zprávami či přímým útokem na komunikační kanály vybraných novinářů či aktivistů s cílem je umlčet.

Nově vznikající specialisté na počítačovou propagandu využívají i celou řadu dalších principů, které sice nejsou nové, ale při nasazení moderních technologií se jejich možnosti výrazně umocňují. Tak třeba obrácená teorie vlivu minority (Conversion theory of minority influence) Serge Moscoviciho vysvětluje, že i malé sociální skupiny mohou mít velký vliv na majoritu. Princip autority Roberta Cialdiniho ukazuje, jak lidé daleko víc věří někomu, kdo vypadá, že ví, co dělá. Efekt iluzorní pravdy (Illusory truth effect) dokonale odpovídá u nás oblíbenému rčení „stokrát opakovaná lež se stává pravdou“. Nakonec se ukazuje, že i v případech, kdy se lidé dozvědí, že je nějaká informace lživá, mají tendenci jí i nadále věřit a nechce se jim svůj již jednou vytvořený názor změnit (Belief perseverance).

To vše bohužel znamená, že je naše demokracie ve vážném ohrožení. Dokonce i malé skupiny extremistů či teroristů dokáží v online světě s pomocí botů napáchat nenapravitelné škody. Co teprve k tomu účelu vyškolení experti některých států specializující se na nové formy vyvolávání konfliktů (hybridní válka). Velmi účinně všechny zde naznačené postupy včetně tradičních hackerských útoků využívá např. ruská propaganda (podrobně ve zprávě RAND The Russian „Firehose of Falsehood“ Propaganda Model [4]).

Přehled nejznámějších botů

Je mimo možnosti tohoto článku popisovat, co umějí jednotlivé aplikace botů. Podívejme se s využitím infografiky Jona Brunera alespoň na přehled těch nejznámějších [1]:

Obecné boty podle platforem
Siri (Apple) Now (Google) Alexa (Amazon) Cortana (Microsoft) Viv (Viv Labs)
Boty pro zasílání zpráv
iMessage (Apple) Allo (Google) Messenger (Facebook) WhatsApp (Facebook) Slack
Skype (Microsoft) WeChat (Tencent) Line (Naver) Kik Twilio
Služby ovládané hlasem
Cloud platform Speech (Google) Watson (IBM) LUIS (Microsoft)    
Služby pro tvorbu botů
Wit.ai (Facebook) Api.ai (Google) Bot Framework (Microsoft) Chatfuel Automat
Botkit (Howdy) Pandorabots MindMeld Gupshup Sequel

Závěr

Možná máte neodbytný pocit, že se svět řítí do záhuby. Mnoho zde popisovaných indicií tomu sice nasvědčuje, ale není třeba propadat panice. Vývoj se neustále zrychluje, ale základní principy existence života na Zemi zůstávají neměnné. Doposud měl vývoj vždy znaky komplexního systému, který se neobejde bez různosti (Různost je obtížná). U botů ji zajistíme jedině tak, že proti nekalým záměrům nasadíme síly pozitivní. Ty musí disponovat obdobnými, neli mocnějšími prostředky.

Musíme tedy vyvinout boty schopné eliminovat snahy o ovládnutí světa ve prospěch jen jedné skupiny či státu. Snad budou mít vývojáři umělé inteligence dost rozumu, aby se touto cestou vydali. Je zřejmé, že nutnou podmínkou úspěchu je alespoň základní pochopení stávající situace též ze strany veřejnosti a zvýšení informační gramotnosti celé populace.

To mi připomnělo můj oblíbený citát H. G. Wellse – „Lidské dějiny se stále více stávají závodem mezi výchovou a katastrofou“.

Literatura a použité zdroje

[1] – BRUNER, Jon. Bots: What you need to know. 2017. [cit. 2017-4-4]. Dostupný z WWW: [https://www.oreilly.com/ideas/bots-what-you-need-to-know].
[2] – BARRAT, James. How will AI affect UX?. 2017. [cit. 2017-4-4]. Dostupný z WWW: [https://medium.com/becoming-human/how-will-ai-affect-ux-53f346e16da0].
[3] – CHESSEN, Matt. Artificial intelligence chatbots will overwhelm human speech online; the rise of MADCOMs. 2016. [cit. 2017-4-4]. Dostupný z WWW: [https://medium.com/short-bytes/artificial-intelligence-chatbots-will-overwhelm-human-speech-online-the-rise-of-madcoms-e007818f31a1].
[4] – PAUL, Christopher; MATTHEWS, Miriam. The Russian “Firehose of Falsehood” Propaganda Model. 2016. [cit. 2017-4-4]. Dostupný z WWW: [http://www.rand.org/content/dam/rand/pubs/perspectives/PE100/PE198/RAND_PE198.pdf].

Licence

Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.

Hodnocení od uživatelů

Bořivoj Brdička
6. 5. 2017, 08:55
Lauren C. Williams - Where are they now? The Russian bots that disrupted the 2016 electionČlánek popisující současné praktiky využívající boty k ovlivňování veřejného mínění - nyní ve francouzských prezidetských volbách. Pokoušejte se sledovat, jak jsou používány u nás. Jsem si jist, že je možné je identifikovat.

Váš komentář

Pro vložení komentáře je nutné se nejprve přihlásit.

Článek není zařazen do žádného seriálu.