Simulační argument a Doomsday argument: publicistický přístup
Martin Prokop
V rozhovoru pro Lidové noviny (HOUDA, 2017) vyjadřuje švédský filosof Nick Bostrom znepokojení nad nepřipraveností vědců v oblasti výzkumu umělé inteligence. Vědci se stále přibližují realizaci AI1, nemají ale zdaleka dostatek poznatků, aby byli schopni řešit nové problémy, které s sebou umělá inteligence může přinést. Velmi málo odborníků se věnuje prognózám budoucích problémů, natož jejich možným řešením, přesto pracují na výzkumu, který zásadně změní život na Zemi.
Bostrom se odkazuje na své dřívější práce týkající se prognóz konce lidstva a možnosti vytvoření AI, které jsem studoval ve své diplomové práci. Konkrétně jsem analyzoval tzv. simulační argument a doomsday argument, hledal jejich předpoklady, popsal způsob, jak fungují, a díky tomu odpověděl na otázku, zda je můžeme přijmout.
V tomto textu se budu věnovat Bostromovým tvrzením z citovaného rozhovoru, okomentuji ta důležitá, zasadím je do kontextu svých zjištění a vyjádřím se k jejich použití v rozhovoru. Zatímco v diplomové práci jsem studoval užití argumentů ve filosofickém textu, zde poukáži na jejich užití ve volnějším, publicistickém žánru.
Zajímavá je především vnitřní logika argumentů, která je sice banální, ale přesto (a právě proto) přijatelná. Výsledkem jsou stabilní argumenty, které jsou ale relativně málo informativní. Cílem tohoto článku je představit čtenáři velmi dobré argumenty, které patří k tomu nejlepšímu, co bylo k problémům AI a predikci jevů v poslední době řečeno. A dále chci poukázat na způsob, jakým oba argumenty používá Bostrom v diskurzu publicistického žánru.
***
Na začátku rozhovoru se Bostrom vyjadřuje k tomu, že je znám jako osobnost, která varuje před nebezpečím, jenž může umělá inteligence přinést. Ohrazuje se proti tomu, že by byl „prorok zkázy“, jak bývá označován. Podle něj vede toto karikující označení k tomu, že jsou výsledky jeho práce nespravedlivě bagatelizovány.
Bostrom je považován za futurologa, což je z podstaty věci obor, ve kterém je velmi těžké nalézt tenkou hranici mezi seriózními předpověďmi a spekulací – říci málo, ale nespekulovat; spekulovat, ale říci „odvážné“ predikce. Jeho dva argumenty mají být prostředkem, jak se spekulaci vyhnout. Mistr futurologie Stanisław Lem, kterého lze považovat za jednoho ze zakladatelů spekulativních prognóz o umělé inteligenci, si byl vědom toho, jak málo lze o budoucnosti vědy vyvodit z dostupných faktů, aniž bychom se pustili do spekulace, a že věda daleko předbíhá naše možnosti předvídat svůj pokrok: „exaktní vědy nyní vstoupily širokou frontou do takové fáze, že vyhlašované nové hypotézy, stále hůře experimentálně ověřitelné (či neověřitelné) – corroboration v pojetí Karla Raimunda Poppera – se jaksi začínají blížit oblastem vyhrazeným dosud jen vědeckofantastické literatuře.“ (LEM, 1999, s. 208) Bostrom se pokouší předvídat události z oblastí, které jsou zdánlivě blízké fantastické literatuře, ale přitom se drží faktů a vědecké metody, jak tvrdí.
Dále se hovoří o možném zániku lidstva, což je otázka, kterou zkoumá v doomsday argumentu. Zánik je dán do souvislosti s ohrožením lidstva jinou inteligencí – možnost existence takové civilizace určuje simulační argument. Redaktor předpokládá, že Bostrom je z důvodu této souvislosti odpůrcem umělé inteligence. Bostrom takový výklad odmítá a upozorňuje, že umělá inteligence nemusí být nutně jediná jiná inteligence, se kterou se můžeme setkat a která může lidstvo ohrozit.
I když jsou si oba argumenty velmi podobné, nenašel jsem při jejich studiu přímou souvislost zmiňovanou tazatelem. Bostrom předkládá argumenty odděleně, nesouvisí tak úzce, aby implikovaly závěr, který předjímá redaktor. Bostrom zachovává neutrální pozici v hodnocení prognóz, nepožaduje opuštění od výzkumu AI, pouze předkládá výsledky výzkumů.
Doomsday argument slouží jako model výpočtu pravděpodobnosti zániku lidské civilizace. Pokud máme dostatečné množství faktů o lidské civilizaci, můžeme je složit do struktury argumentu, čímž získáme odhad konce civilizace v čase. Samotný argument bez faktů ale žádnou konkrétní předpověď neurčuje.
Druhý argument je modelem výpočtu pravděpodobnosti existence jiné civilizace v univerzu. Funguje podobně jako první. Sesbíráme dostatek informací o naší civilizaci, konfiguraci vesmíru a všech dalších faktorech, které můžou ovlivnit existenci jiné civilizace, a složíme je do formy argumentu, jehož výstupem je pravděpodobnost existence jiné civilizace.
Pochopitelně si lze představit soubor faktů, které mohou vést k závěru, že naše civilizace zanikne díky jiné inteligentní civilizaci, třeba na polovodičové bázi. Pokud bychom například věděli, že lze sestrojit AI, že sestrojené bytosti mají tendenci soupeřit s lidmi o zdroje a že se výroba těchto bytostí vymkla naší kontrole, oba argumenty bychom mohli spojit do jednoho, který by s určitou pravděpodobností predikoval zánik lidstva vlivem umělé inteligence.
K takto konkrétnímu závěru je ale potřeba mnoho výzkumů a času a konfigurace faktů by zdaleka nemohla být tak triviální jako ve zmíněném příkladu. Úkolem futurologie je studovat i takovou možnost, pokud se bude jevit jako pravděpodobná. Prognostik může určit, jaká fakta signalizují, že je situace pravděpodobnější. Byla-li by taková fakta potvrzena, může se možností futurolog seriózně zabývat, jinak ale taková hypotéza spadá spíše do sféry vědeckofantastické literatury.
Jako futurolog se Bostrom jistě často setkává se situací, kdy jen naznačení výše zmíněné možnosti v médiích vede k tomu, že je označen za „proroka zkázy“. Podle mého názoru se zveřejňování podobně „atraktivních“ predikcí vyhýbá. Na druhou stranu, titulky, které odkazují k podobným scénářům, jsou mediálně atraktivní a dávají jeho hlasu prostor. I titulek Umělá inteligence tiká jako bomba z toho těží.
Dobrým příkladem Bostromovy vědecké střízlivosti je odpověď na klíčovou otázku rozhovoru, která přímo odkazuje k simulačnímu argumentu, a to kdy by mohla být umělá inteligence vytvořena: „Nevím a neví to vůbec nikdo. Je okolo toho až příliš nejistot a proměnných. Před několika lety jsme nicméně udělali průzkum mezi předními světovými odborníky ve zdokonalování strojů a jedna z otázek byla, v jakém roce bude s 50 % pravděpodobností vyvinuta umělá inteligence s intelektem na úrovni lidské bytosti. Jinak řečeno, ptali jsme se, kdy budou stroje schopné s 50 % pravděpodobností vykonávat vše, co člověk. Podle mediánu odpovědí někdy v letech 2040 až 2045. To není tak daleko – i kdyby to bylo o něco později, než říká medián.“ (HOUDA, 2017, s. 13)
Ačkoliv pouze představil výsledek banálního dotazníku, jedná se ve skutečnosti o formu aplikace simulačního argumentu. Máme fakta – názory odborníků na to, kdy dojde ke vytvoření AI – která spojíme dohromady s jejich pravděpodobnostmi a dojdeme k závěru. Přestože se i závěr může jevit banálně, zdá se, že k dané otázce nemůžeme najít žádnou přesnější a kvalifikovanější odpověď. Bostrom i proto poukazuje, že v odpovědi na otázku je mnoho „nejistot a proměnných“.
Bylo by možné Bostromovu předpověď rozporovat? Nepochybně se ptal nejvýznamnějších odborníků, vysvětlil jim otázku a oni kvalifikovaně odpověděli. Mohli bychom zpochybnit jejich výběr, ale případné zpochybnění lze vždy napravit opětovný dotázáním upravené skupiny; nejspíše ale Bostrom vyhledal největší odborníky.
Mohli bychom dále zpochybnit výzkumnou otázku jako spekulativní, ale to by nikam nevedlo, protože právě na ni chceme znát odpověď. Pokud klademe spekulativní otázku, musíme očekávat i stejně spekulativní odpověď (v ideálním případě).
Mohli bychom se nakonec ptát, jestli neexistují přesnější fakta. Nepochybně o nich budou vědět právě odborníci na umělou inteligenci. Pokud by Bostrom znal lepší zdroj informací o umělé inteligenci, určitě by ho ve svém výzkumu použil. Jak ostatně zmiňuje, ptal se odborníků na více otázek, ostatní se určitě také týkaly umělé inteligence a při robustnějším výzkumu mohou sloužit jako zdroj dalších faktů o umělé inteligenci.
Určitě byl ale Bostrom omezen časem, prostředky, svým hodnocením toho, kdo je odborník, a podobně. Pochopitelně je ovlivněn tím, že ho provádí on sám. Jako vědec by nám měl být ochoten sdělit podmínky, za jakých výzkum prováděl. Při hodnocení předpovědi musíme tyto okolnosti brát v potaz.
Zdá se, že Bostrom předložil nejlepší možnou předpověď (s ohledem k výše řečeným výhradám), kdy budou vědci schopni vytvořit umělou inteligenci. Právě to je podstatou simulačního argumentu. Stojíme před složitou otázkou a snažíme se najít všechna relevantní fakta a vyvodit z nich pravděpodobnosti různých scénářů. Může se zdát, že Bostromova práce spočívala v sepsání dotazníků a oslovení několika vědců. Ano, tak to bylo, ovšem za tímto postupem se skrývá práce s mnoha fakty, které jednotliví dotazovaní vědci brali do úvahy.
„Banální dotazník“ je v případě otázky na konstrukci AI zřejmě to nejlepší, co můžeme udělat, chceme-li získat kvalifikovanou odpověď. Neodpovídá na ni „filosof ze své lenošky“, ale skutečně kvalifikovaní odborníci. Filosof zde slouží jako médium, odborník, který se umí ptát, interpretovat odpovědi, skládat je a vyvozovat z nich další fakta.
Čtenář populárního rozhovoru může být zklamán, protože bude závěr úvahy futurologa považovat za banální, ale podle Bostroma ho neodmítne. Způsob uvažování použitý při této předpovědi totiž konvenuje přirozenému souzení člověka: hledáme relevantní fakta, spojujeme je do možných závěrů a těm přisuzujeme pravděpodobnost, volíme pak tu nejpravděpodobnější. Bostrom tvrdí, že stejně jeho argumenty uspějí i při filosofickém prozkoumání.
V rozhovoru nevysvětluje simulační argument, ani proč bychom měli věřit odborníkům na vývoj umělé inteligence, ani proč kladl otázku s predikátem pravděpodobnosti 50 %. Není na to prostor, možná se domnívá, že nikdo nebude mít důvod tento postup zpochybňovat, a také prostota postupu obhajuje jeho užití.
Z hlediska diskurzu publicistického článku to nemusíme Bostromovi vytýkat. Pokud je jeho předpoklad, že úvaha argumentu konvenuje přirozenému souzení člověka, pravdivý, bude čtenář s jeho tezí o realizaci AI mezi lety nejspíše 2040 až 2045 souhlasit.
Podle mého názoru je v rozhovoru argument předložen vstřícně a nejjednodušeji, jak jen to jde, ale mám jednu výhradu. Bostrom tvrdí, že pravděpodobnost scénáře, že vědci vytvoří AI, je podle odborníků 50 %. Taková míra pravděpodobnosti je relativně velmi nízká. Běžné hypotézy v matematice nebo finančnictví se testují s mírou pravděpodobnosti 95 %. Dokázat o nějakém jevu, že nastane na 50 %, nám tam totiž nepřináší velký epistemický benefit.
To ovšem platí pro jevy modelované v ideálních podmínkách, které ovlivňuje malé množství faktorů. Jev tak komplexní jako je vytvoření AI je s takovými modelovými hypotézami nesouměřitelný, aby mohla znít Bostromova obrana. Lze považovat predikci s pravděpodobností 50 % za epistemicky přínosnou v běžném životě, natož ve vědecké praxi?
Představme si, že plánujeme výlet do přírody. Pokud se dozvíme, že v den výletu bude pršet na 50 %, nepřinese nám to významný benefit. Spíše naopak, je to nejhorší možná informace, kterou můžeme získat. Díky ní totiž musíme počítat s tím, že nastanou nejméně tři varianty: bude pršet nebo nebude pršet nebo oboje. Pro naše rozhodování, jak se na výlet vybavit, by bylo mnohem lepší vědět, že bude pršet na 100 %, nebo na 75 %, možná dokonce na 51 %, protože bychom počítali s tím, že pršet spíše bude a mohli se podle toho zařídit. Tato úvaha platí při jednání v běžném životě, kde musíme zaujmout stanovisko, protože jinak zkrátka nebudeme připraveni na výlet. Platí toto ale ve futurologii?
Nejspíše ne. Pro futurologa platí jiné zásady. První z nich zní, že je lepší jakákoliv informace než žádná, a druhá, že není nutné zastávat stanovisko, lze se zdržet úsudku a čekat na lepší informace. Bostrom může být spokojen s předloženou predikcí, protože je lepší než žádná predikce. Možná bychom po něm požadovali více, protože na něj aplikujeme požadavky, které používáme v běžném souzení, ale to není možné. Máme zde proti sobě přirozený požadavek na vysokou míru jistoty a nutnosti zaujmout stanovisko, a proti němu zásady, které jsou vlastní vědě. Jejich rozpornost je pravděpodobně to, co způsobuje, že předpovědi futurologa neuspokojí nezasvěceného člověka; spíše vedou k tomu, že považuje futurologii za spekulaci.
To ovšem není nedostatkem futurologie. Vědět, že nějaký jev může nastat i na pouhých 25 % je při určitých okolnostech epistemicky přínosné. Jedli bychom jídlo, které je na 25 % otrávené? Nejspíše ne. Míra epistemické přínosnosti je tedy relativní vzhledem k jevu, který popisuje, a našemu zájmu na tom mít jistotu při souzení. Futurolog, který je bez zájmu, je méně ovlivnitelný a jeho předpovědi jsou proto důvěryhodnější.
Nakonec, předpověď, že za 23 let vytvoří vědci na 50 % umělou inteligenci, se sice může zdát jako málo informativní, ale ve skutečnosti je velmi odvážná. I proto, že to bude v době, kdy bude nejen Bostrom, ale i my, nejspíše žít a budeme schopni si jí ověřit. Futurolog, který předkládá hypotézy, o kterých ví, že budou moc být ověřeny v dostupné době, si je určitě jejich zněním jistý. V opačném případě velmi riskuje – není to futurolog.
Pokud tedy Bostrom předložil hypotézu, je vstřícné vysvětlit, jakou funkci má predikát pravděpodobnosti a proč je ho nutné použít. Většina čtenářů si je toho snad vědoma, ale považuji za důsledné tuto nejasnou část Bostromovy predikce vysvětlit.
Dalším příkladem Bostromovy vědecké střízlivosti je odpověď na otázku, zda by mohla stvořená inteligence něco cítit: „To je otevřená otázka. Ale nevylučuji to.“ Nemůže říct ani ano, ani ne, pokud si není jist. Jedná se o situaci podobnou jako v otázce možnosti vytvoření umělé inteligence. Bostrom by jistě chtěl odpovědět konkrétněji, ale nemůže; ostatně proto přišel se simulačním argumentem, protože si je vědom, že je vlastně pořád lepší ukázat výsledek dotazníků mezi odborníky, než opovědět způsobem „ale nevylučuji to“.
Zajímavým bodem rozhovoru je i otázka možného zániku naší civilizace díky jiné inteligentní civilizaci. Bostrom poukazuje na to, že k zániku lidstva nemusí dojít pouze tak, že bude mít ona jiná civilizace zájem nás zahubit, ale i nepřímo: „Lidský konec může nastat, i když se o nás superinteligence vůbec nebude zajímat, budeme jí zcela lhostejní, nebudeme v ní vzbuzovat touhu, vůbec nic, co by šlo popsat těmito pojmy.“ (HOUDA, 2017, s. 14). Zánik civilizace může být vedlejším produktem její činnosti – například jako součást optimalizace využití přírodních zdrojů. V soutěži o jejich využití bychom se chovali méně efektivně. Inteligence, která to způsobí, nemusí být nutně „umělá“, může se jednat o jinou civilizaci – to je jeden z možných scénářů simulačního argumentu. Bostrom formuluje simulační argument tak, že dovede predikovat výskyt nejen simulované civilizace, ale i jakékoliv jiné inteligentní civilizace v univerzu. Fakt, že mohou existovat i jiné inteligentní civilizace, je vědeckou komunitou přijatý; a možná je dokonce považován za více pravděpodobný než možnost, že budeme schopni vytvořit AI. Bostrom tyto úvahy připojil k simulačnímu argumentu a v rozhovoru je zmiňuje.
Bostrom dále připojuje úvahu o možnosti existence dalších civilizací ve vesmíru. Pokud stvoříme AI, „přidala [by se] k dalším inteligentním bytostem, které obývají vesmír.“ A poukazuje na to, že: „Vesmír je nesmírný a mohou v něm existovat i další civilizace, které koneckonců mohou vytvářet vlastní umělé inteligence, a to je docela hezké.“ (HOUDA, 2017, s. 13). Podle simulačního argumentu je možné počítat s tím, že pokud vytvoříme AI, bude velice pravděpodobné, že ona sama bude schopna vytvářet své vlastní AI. V tom případě by nastala situace, kdy by v univerzu existovalo více stupňů inteligentních bytostí, přičemž každý by byl potenciálně schopný vytvořit stupeň jemu podřazený.
Tato úvaha je součást simulačního argumentu, výrazně zvyšuje pravděpodobnost toho, že jsme sami AI. V kostce řečeno, pokud vytvoříme umělou inteligenci, prokážeme skutečnost, že lze vytvářet umělé bytosti. Dále tím prokážeme, že v univerzu existuje mnohem více umělých bytostí. A čím více umělých bytostí bude vzhledem k bytostem skutečným, tím větší je šance, že jsme právě my umělé bytosti. Tuto úvahu předložil Bostrom velmi zjednodušeně, vlastně pouze vybral zajímavý závěr o mnohonásobně umělých civilizacích, aniž by ji podrobně vysvětlil.
Použití předpokladu jako kroku argumentu vede k závěru, že můžeme být sami AI. Tento předpoklad Bostrom vytvořil ad hoc proto, aby zlepšil informační přínosnost simulačního argumentu. Pokud bude platit, tvrdí Bostrom, simulační argument bude poskytovat mnohem pravděpodobnější výsledek. Naopak, pokud bude neplatný, oslabí se schopnost argumentu předpovídat. Díky tomu je predikce argumentu falsifikovatelná. Ad hoc předpoklad tak testuje funkčnost argumentu.
Ad hoc předpoklad simulačního argumentu je v rozhovoru použit jako definitivně platný, ale tak tomu není. Není prokázáno, že pokud existuje nějaká civilizace, která je schopna vytvořit umělou civilizaci, dovede to i ona umělá civilizace. Je to sice velmi atraktivní teze opírající se o analogii umělých bytostí a jejich autorů, ale její platnost může být ověřena až pozorováním. V rozhovoru je ale předložena jako fakt, což považuji za problém.
Na konci rozhovoru Bostrom obhajuje výzkumy predikce konce civilizace. Jeho argumentace je jasná a přijatelná. Má smysl zkoumat to, co se může v relativně blízké době stát. Stejně jako odhadovat rizika a snažit se zjistit, jak se tomu případně vyhnout. „Neustále se setkávám s otázkou, proč se zabývat věcmi, které se zdají efemérní a nemají vztah s ničím, co způsobuje utrpení v současnosti. Rád bych všem těmto lidem odpověděl otázkou: ... Je správné, že lidstvo mnohem více peněz vydává na výzkum rtěnek, všelijakých hadříků a piva než na výzkum existenčních rizik?“ (HOUDA, 2017, s. 14)
***
Bostrom v krátkém rozhovoru použil relativně velkou část úvah, které jsou součástí dvou zmiňovaných argumentů. Vybírá si zajímavé části a zapojuje je do svých dalších úvah. Je patrné, že je přesvědčen o přesvědčivosti obou argumentů. K podobnému závěru jsem došel i já v diplomové práci, ovšem upozorňoval jsem na to, že predikce nepřinášejí velkou míru jistoty.
Upozornil jsem také na to, že všechny předpovědi, které Bostrom zmiňuje, jsou založeny pouze na modelových faktech. Nejedná se o skutečné předpovědi, ale pouze o ukázku toho, jak prostřednictvím argumentů získat předpověď. Bostrom vezme pouze dílčí fakta, ukáže, jakou funkci by v argumentu plnila, a k jakému závěru by nejspíše vedla. Ilustruje tím, jak argumenty fungují, specifikuje druhy faktů, které jsou pro argument relativní, a konečně tím testuje i samotné argumenty.
Bostromovy předpovědi proto nejsou skutečné předpovědi, ale pouze příklady toho, jak by mohly předpovědi vypadat, pokud bychom měli dostatek faktů a zdrojů a rozhodli bychom se podle návodů předpovědi určit. Tento postup má svá pro i proti. Na jednu stranu díky němu Bostrom promýšlí problém, hledá jeho součásti a neformuluje zbytečně předpovědi, které jsou spekulativní, protože nejsou založené na fragmentárních, nepřesných faktech. Na druhou stranu se ale vyhýbá tomu, aby určil konkrétní předpověď. Argumentuje přitom tím, že jako filosof pouze ukazuje způsob, jak předpověď určit, ale samotné určení přesné předpovědi je na odbornících. Dá vědcům do ruky bezchybný nástroj a nechá je, aby ho použili – jako by konkrétní určení předpovědi už nebyla práce pro filosofa, ale vědce.
Přesto Bostrom chce předvídat, ale teze, které ho zajímají, ovlivňuje mnoho faktorů, a není proto snadné zaujmout jednoznačné a přesné stanovisko. Při předpovědích takových jevů musí futurolog pracovat s fakty a nepouštět se do spekulací, nemusí zastávat stanovisko, může se zdržet úsudku. Futurologie je v tomto pojetí jako jakákoliv jiná vědecká disciplína opírající se o výzkumná fakta. Výzkumná fakta futurologů pak mají nejčastěji charakter hypotetických tvrzení („Jev A nastane na 50 %.“), hypotéz o budoucích pozorováních („Pokud bude platit A, bude pravděpodobnější B.“), vyvozování z dostupných faktů („Provádí-li A činnost X, bude B, které je podobné A, také schopno provádět činnost X.“).
Předpovědi i s relativně nízkou pravděpodobností jsou v oboru futurologie informativní, pokud jsou založeny na důvěryhodném výzkumu. Požadavek po vysoké míře jistoty je dán tím, že po futurologii požadujeme stejné předpovědi jako ty, které používáme jako základ běžného souzení. Stojíme ovšem před mnohem komplikovanějšími jevy. Množství faktorů, které ovlivňují studované jevy, je omezeno pouze našimi epistemickými možnostmi a výpočetním výkonem. V zásadě platí, že jsme schopni předkládat jen tak dobré předpovědi, nakolik jsme ochotni do nich investovat výzkumného času.
Literatura
BOSTROM, N. Anthropic bias: observation selection effects in science and philosophy. New York: Routledge. 2002.
BOSTROM, N. Are You Living In a Computer Simulation? Philosophical Quarterly LIII. No. 211. 2003. [online]. [Cit. 11. 09. 2016]. Dostupné z: http://www.simulation-argument.com/simulation.pdf.
BOSTROM, N. – KULCZYCKI, M. A Patch for the Simulation Argument. Analysis LXXI. No. 1. 2011, pp. 54–61. [online]. [Cit. 1. 08. 2017]. Dostupné z: http://www.simulation-argument.com/patch.pdf.
HOUDA, P. Umělá inteligence tiká jako bomba. Lidové noviny XXX. Č. 146. 2017, s. 13–14.
LEM, S. Tajemství čínského pokoje. Praha: Mladá fronta. 1999.
PROKOP, M. Klamavý démon u Descarta a Lema. Brno. 2013. Bakalářská práce. Filozofická fakulta Masarykova univerzita. Vedoucí práce Marek Picha. [online]. [Cit. 03. 09. 2017]. Dostupné z: http://is.muni.cz/th/256158/ff_b/.
PROKOP, M. Simulační argument a Doomsday argument: zobecnění, použití, důsledky. Brno. 2016. Diplomová práce. Filozofická fakulta Masarykova univerzita. Vedoucí práce Marek Picha. [online]. [Cit. 03. 09. 2017]. Dostupné z: http://is.muni.cz/th/256158/ff_m/.
Mgr. Martin Prokop je absolventem Katedry filozofie FF MUNI, kde v současné době studuje doktorský program. Zabývá se především teorií argumentace a epistemologií.
Kontakt: martin.prokop@mail.muni.cz
[1] Artificial intelligence.
Mohlo by vás z této kategorie také zajímat
- Čo je prosté, nemusí byť iba zvyčajné (Viera Žemberová)
- Karbovanec (Dana Ferenčáková)
- Byl jednou jeden král... (Ivo Pospíšil)
- Pošta i pro tebe (Ivo Pospíšil)