Tak tu máme další Horizon Report [1]. Samozřejmě zatím jen pro vysoké školy, ten pro ZŠ a SŠ vychází obvykle až v létě a je jen upravenou verzí téhož ideového základu – stejného výběru zásadních vývojových trendů vzdělávacích technologií ovlivňujících budoucnost školství. Těmto zprávám z dílny amerického sdružení New Media Consortium, které spolupracuje podle potřeby s dalšími institucemi, se věnuji dlouhodobě od roku 2009.
V roce 2013 jsem zmapoval celý dosavadní vývoj těchto zpráv (10 let Horizon Reportů) a v roce 2014 jsem se zabýval novými trendy a překážkami rozvoje regionálního školství (Horizon Report 2014 pro základní a střední školy). V roce 2015 jsem měl pocit, že zpráva nic převratně nového nepřináší, a proto jsem jen zaktualizoval svou výukovou prezentaci (Vzdělávací technologie – LS2016 KOMPLET), která se Horizonu věnuje od strany 53. Je to, mimochodem, jediný učební materiál, který (kromě záznamů přednášek) pro vlastní studium poskytuji studentům. Totéž jsem samozřejmě již stihl udělat i letos, jenže tentokrát to nestačí. V nejnovější zprávě se objevila pro Horizon dosud neznámá aplikace technologií – Affective Computing neboli počítačová emoční analýza. Na tu se potřebujeme podívat trochu podrobněji.
Popisem emocí se psychologové zabývají již více než 100 let. Vyvinuli celou řadu klasifikací a postupů jejich zjišťování, díky nimž detailně zkoumají takové lidské pocity jako štěstí, smutek, překvapení, strach, hněv, odpor, opovržení ad. S rozvojem technologií a umělé inteligence však dostává možnost zkoumání emocí docela jiný rozměr.
Hlavní líhní poznatků pro dnes již samostatný vědní obor byla v 50. letech minulého století MIT Artificial Intelligence Lab (dnes CSAIL), jmenovitě Marvin Minsky spolu se Seymourem Papertem. Zatímco Seymour se pak věnoval hlavně konstrukcionismu a dětskému programování v MIT Media Lab (Učit se znamená zamazat si ruce), Marvin zůstal až do své smrti (v lednu 2016) věrný umělé inteligenci. Jeho poslední kniha, která vyšla v roce 2006, má název The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. Dnes však již štafetu převzali jejich následovníci. Možná nebude zas až tak překvapivé, když se jedná o emoce, že to jsou převážně ženy.
Profesorka Rosalind Picard nastoupila do MIT Media Lab v roce 1991 s diplomem z Georgijské techniky a se zkušenostmi s konstrukcí integrovaných obvodů. V druhé polovině 90. let se v rámci svých vědeckých aktivit začala specializovat na souvislosti umělé inteligence s lidskými emocemi. Svou knihou Affective Computing dala v roce 1997 tomuto novému oboru název. Dnes vede v rámci Media Lab stejnojmennou výzkumnou skupinu.
Ve své činnosti se zaměřuje na vývoj aplikací zjišťujících emoční stav zkoumaných osob. Proslavila se například výzkumem stresu taxikářů v Bostonu, vyvinula (a nechala si patentovat) celou řadu snímačů různých parametrů emočním stavem člověka ovlivněných a algoritmů, které tato data zpracovávají. Jedná se o biometrická data v podobě srdeční činnosti, změn vodivosti kůže, dynamiky hlasového projevu, „řeči těla“ (např. gesta či pohyby obličejových svalů).
Sama říká, že „jestliže chceme, aby počítače byly opravdu inteligentní, musíme je naučit interagovat s námi přirozeně, dát jim schopnost rozeznávat, chápat a dokonce i vyjadřovat emoce.“ [2] Vývoj začal tím, že výzkumníci pozorovali sami sebe. Přišli na to, že při dlouhodobém sledování lze vystopovat určité zákonitosti při výskytu různých emocí. Pak své výzkumy rozšířili na velké množství dobrovolníků z celého světa a přenesli vývoj praktických aplikací z akademické do komerční sféry, kde lze získat daleko větší objem investic.
Rosalind se v současné době věnuje hlavně využití Affective Computing v medicíně. Ukazuje se totiž, že pomoc při rozpoznávání emocí jiných lidí může pomáhat např. autistům nebo že snímače emočního stavu mohou varovat pacienty trpící epilepsií i několik minut před záchvatem.
Reading Emotions Through Affective Computing: Rosalind Picard (Future of StoryTelling 2014)
Doktorka Rana el Kaliouby je významnou a zároveň velmi pozoruhodnou představitelkou oboru Affective Computing. Pochází z Egypta. Po vystudování počítačové vědy na Americké univerzitě v Káhiře pokračovala doktorandským studiem v Cambridgi. Právě zde se začala věnovat metodám počítačového rozpoznávání emocí. Asi proto se po dokončení doktorátu v roce 2005 přesunula do Bostonu a zahájila svou kariéru v MIT Media Lab, kde setrvala až do roku 2012.
V roce 2009 byla u zrodu samostatné firmy (startupu) Affectiva, která patří MITu a kde dochází k rychlejšímu rozvoji prakticky použitelných aplikací s podporou mnoha sponzorů a investorů (Google, Microsoft, Intel, Samsung, Toyota, Sony, BBC, CBS, Disney, Coca-Cola a mnoho dalších). Také proto dnes již začínají být produkty Affectivy komerčně úspěšné. Rana je v této firmě vedoucí výzkumu. Jejich aplikace, která rozpoznává emoce tváře snímané kamerou v reálném čase, pracuje s algoritmem analyzujícím pohyb 45 obličejových svalů. Je pravděpodobně v současné době na trhu tím vůbec nejpokročilejším produktem.
Affectiva se chlubí tím, že jejich analytický nástroj je založen na datech získaných od téměř 4 milionů dobrovolníků z celého světa. Dosáhli toho prostě tím, že každému návštěvníkovi jejich webu umožňují si aplikaci rozpoznávání emocí se zapnutou kamerou na sobě vyzkoušet a výsledky pak porovnat s ostatními pokusnými osobami. Právě tento online experiment pracující s velkými daty má za sebou již některá velmi zajímavá zjištění. Nikoho asi nepřekvapí, že starší lidé jsou citlivější než mladší nebo že totéž platí i pro ženy při srovnání s muži. Rozdíly mezi pohlavími ve skutečnosti nejsou všude na světě stejné. Ženy v USA se smějí o 40 % více než muži. Ve Francii a Německu je to jen o 25 % a v Británii nebyl zaznamenán vůbec žádný rozdíl. Důvod zatím odhalen nebyl.
Vtipný je příběh televize CBS, jejíž sitcom byl použit jako generátor emocí při experimentu. Ukázalo se, že mezi 6 vystupujícími postavami je pár, který vyvolává místo smíchu hněv. V důsledku tohoto odhalení byl nahrazen.
Affectiva pracuje na mnoha dalších aplikacích, které mají nepochybně velkou budoucnost. Pro Toyotu například vyvíjí systém, který rozpoznává únavu řidiče a je schopný varovat ho při nedostatečném soustředění i předejít jeho usnutí za volantem. Hodně zajímavé jsou aplikace, které umožňují sledovat zájem posluchačů při přednášce a poskytují tak přednášejícímu okamžitou zpětnou vazbu (ukázka na konci tohoto záznamu).
Rana zdůrazňuje, že ve skutečnosti nejde jen o interakci mezi člověkem a počítačem: „Zjistila jsem, že vybavíme-li počítače emoční inteligencí, zlepší se i naše vlastní schopnost komunikovat.“ [2]
Rana el Kaliouby: This app knows how you feel – from the look on your face
Další prominentní inovátorkou MIT Media Lab je profesorka Cynthia Breazeal. Po ukončení bakalářského studia počítačové techniky v Kalifornii v roce 1989 pokračovala magisterským a doktorandským studiem na MIT, kde zůstala dodnes a kde vede Personal Robots Group. Zde vyvíjí tzv. „sociální roboty“, kteří disponují emoční analýzou i umělou inteligencí.
Za svou popularitu vděčí hlavně svému právě se rodícímu „dítku“ – robotu Jibo. Jedná se o osobního rodinného asistenta, který se proaktivně snaží lidem usnadňovat každodenní rutinní činnosti. Vidí, slyší, mluví a umí se učit tomu, co od něj jeho majitelé chtějí. Kromě takových banálních úkolů, jako přečíst dětem pohádku na dobrou noc (naprosto nevhodná náhrada za rodiče) či upozornění na událost zaznamenanou v kalendáři, umí rozeznávat obličeje, a obrací se tak ke členům rodiny jménem.
Cynthia, na rozdíl od své kolegyně z MIT psycholožky Sherry Turkle (Spojeni, ale sami!), překvapivě tvrdí, že Jibo dokáže pomáhat lidem posilovat přímou komunikaci a bojovat se závislostí na tradičních displejem vybavených přístrojích. Říká: „Jibo je konstruován jako osobnost. Není jen studeným předkladatelem holých informací.“ [3] Je schopen odpoutat pozornost závislých členů rodiny od přístrojů a vtáhnout je do přímé diskuze.
Jibo The World First Family Robot For The Home
Nesmíte si myslet, že tento výběr 3 nejznámějších expertek oboru Affective Computing je úplný. Snadno byste našli další, třeba Dariu Loi u Intelu nebo Michalu Shmueli-Scheuer v IBM.
Všichni emocemi se zabývající vědci se shodují v tom, že již brzy bude k dispozici specializovaný chip schopný vybavit emoční inteligencí libovolné zařízení, takže se s ní začneme setkávat i na nečekaných místech. K přijatelně přesné analýze ani nutně nebude potřebovat vidět obličej. Týká se to primárně nositelných technologií, jako jsou například brýle nebo chytré hodinky, které pracují hlavně s fyziodetekcí. U jiných metod může být základem emoční analýzy třeba pouhý zvukový záznam hlasu. Velmi zajímavé možnosti možná nabídne osobní asistent, který bude pomáhat majiteli předcházet stresovým situacím.
To, proč experti Horizonu zařadili Affective Computing do letošní zprávy o budoucnosti školství, lze asi nejlépe demonstrovat na jiném robotu z dílny Personal Robots Group, jehož vývoj dosud nebyl dokončen. Jmenuje se Tega. Specializuje se na výuku malých dětí v předškolním věku. Experiment na následujícím videu ukazuje celkem běžnou výuku slovíček španělštiny na tabletu obohacenou o opravdovou personalizaci, při níž Tega kamerou snímá reakce dítěte a analyzuje je pomocí software Affectivy, který běží na běžném chytrém mobilu s Androidem. Systém tak může reagovat nejen na faktickou správnost odpovědi, ale též na skutečný emoční stav dítěte, tj. může činnost modifikovat i podle okamžitého zájmu (či nezájmu). [4]
Doposud jsme tvrdili, že umělá inteligence ještě dlouho nebude disponovat takovou schopností vcítění, která je vlastní zkušeným pedagogům (Přichází druhá počítačová revoluce). Zatím sice není třeba toto tvrzení přehodnocovat, bohužel to ale vypadá, že v dlouhodobém horizontu si již tak úplně jisti být nemůžeme.
Všechny články jsou publikovány pod licencí Creative Commons BY-NC-ND.
Pro vložení komentáře je nutné se nejprve přihlásit.
Tento článek je zařazen do seriálu Horizon Reports.
Ostatní články seriálu: