Zotročí nás umělá inteligence?

Zotročí nás umělá inteligence?

IBM PC 5150 – první úspěšný osobní počítač – byl uveden na trh v roce 1981. Od té doby se výkon počítačů zvýšil o několik řádů a stále rychle roste. Jejich výpočetní schopnost už je srovnatelná s výkonem lidského mozku a pravděpodobně ji brzy převýší. Předčí nás kapacitou pracovní a dlouhodobé paměti i rychlostí práce.


Zatímco axony nervových buněk vedou signál rychlostí asi 120 m/s nebo nižší a maximální frekvence, s níž pracují neurony, je kolem 200 Hz, elektronická zařízení mohou komunikovat rychlostí světla (300 000 000 m/s) a jejich procesory mají frekvenci 2 GHz.

Plasticita softwaru i hardwaru je (potenciálně) také mnohem vyšší: programy lze přepisovat, vylepšovat i nahrazovat a hardware lze teoreticky rekonfigurovat v závislosti na měnících se potřebách. Architektura biologických mozků je proti tomu víceméně daná, jen synaptické propojení (mezi nervovými buňkami) je proměnlivé.

Některé systémy umělé inteligence (UI) už dnes nedostávají přímé zadání od člověka, ale řeší problémy mezi sebou, učí se, samy hledají a nacházejí řešení. Například softwaroví roboti používaní při editaci Wikipedie komunikují samostatně a jsou schopni práci si navzájem neúnavně vracet a donekonečna opravovat jeden druhého.

Spektrum toho, co strojová kognice (poznávání) dokáže, je proti naší kognici stále velmi úzké. Nicméně rychle se rozšiřuje a někteří badatelé nepochybují, že nastane den, kdy nás stroje předčí ve všem – a staneme se zbytečnými.

Stanou se lidé opravdu zbytečnými?

Varování před nekontrolovaným vývojem UI zaznívá od významných vědců, myslitelů i špiček v oboru informačních technologií; někteří dokonce hovoří i o možnosti zotročení či vyhubení lidí. Nick Bostrom, vyučující na Oxfordské univerzitě, líčí ve své knize Superinteligence několik scénářů, jak by mohla UI ukončit existenci lidstva.

Například: Pokud by si UI byla jistá, že ji lidé nemohou ohrozit, přímo by na nás útočit nemusela. Náš zánik by byl způsoben destrukcí přirozeného prostředí, ke které by došlo, jakmile by UI začala s masivními projekty celosvětové výstavby, využívajícími nanotechnologické montéry a továrny. Tyto konstrukční projekty by celý povrch Země rychle (možná během dnů či týdnů) pokryly solárními panely, jadernými reaktory, závody se superpočítači a vysokými chladicími věžemi, odpalovacími zařízeními pro vesmírné rakety nebo jinými stavbami, jejichž prostřednictvím by se UI snažila maximalizovat celkovou míru, v níž jsou realizovány její hodnoty.

Není nic paradoxního na představě UI, jejímž jediným konečným cílem by bylo spočítat zrnka písku na ostrově Boracay, prodloužit desetinný rozvoj čísla pí nebo maximalizovat množství kancelářských sponek na světě, píše Bostrom a vysvětluje, že dostane-li umělá superinteligence řídící výrobu kancelářských sponek za svůj konečný cíl maximalizaci produkce, hrozí, že v kancelářské sponky přemění nejprve Zemi a poté další části dosažitelného vesmíru …

K podobné chybě by přitom mohlo dojít, i kdyby cílem nebyla maximalizace výroby, ale určitý počet sponek, třeba jeden milion. UI by je totiž mohla donekonečna přepočítávat a kontrolovat – a za tím účelem vytvořit neomezené množství „kompjútoria“, výpočetního arzenálu, v nějž by opět přeměnila cokoli.

Může to být nebezpečná hra

Stvořit UI s primitivními cíli je samozřejmě jednodušší než vybudovat mnohem komplexnější systém. Není pravděpodobné, že by UI schopná tak komplexní superinteligence vznikla se specifickým úkolem typu maximalizace výroby konkrétní továrny. Bostromův příklad však dobře ilustruje selhávání UI v tom, co nazýváme rozumem či moudrostí.

Ani složitější, či dokonce velmi komplexní cíle totiž nejsou imunní vůči logickým zkratkám. Bostrom např. uvažuje o UI, jejímž konečným cílem je „dělat radost zadavateli projektu“. Vše probíhá podle plánu – dokud se UI nestane dost chytrou na to, aby jí došlo, že svůj konečný cíl může úplněji a spolehlivěji uskutečnit tak, že implantuje elektrody do centra slasti v zadavatelově mozku.

Podobně hovoří i vizionář a podnikatel Elon Musk. Stroje by podle něj mohly dospět třeba k názoru, že eliminovat nevyžádanou poštu znamená zbavit se lidí, kteří jsou jejím zdrojem.


Podle teoretického fyzika Stephena Hawkinga by u umělé inteligence, jež se bude vylepšovat bez lidského zásahu, mohlo dojít k tak rychlému vývoji, že ho nakonec nebudeme schopni ani chápat. Bostrom nás zase přirovnává k dětem, které si hrají s bombou. Taková je naše naivita v kontrastu s mocí a nebezpečností této hračky.