Tato otázka stojí na pomezí filozofie, psychologie i informatiky. A není nová. Debata o vztahu mezi vědomím, myslí a odpovědností probíhá už stovky let – dávno před vznikem moderních algoritmů.
Vědomí jako základ lidské odpovědnosti
V běžném morálním myšlení je odpovědnost úzce spojena s vědomím. Lidé považují za odpovědné ty bytosti, které chápou své jednání, dokážou rozlišovat mezi dobrem a zlem a mohou své rozhodnutí reflektovat.
Právě tato schopnost sebeuvědomění byla dlouho považována za jednu z hlavních vlastností lidské mysli. Filozof René Descartes v 17. století formuloval slavnou větu „Cogito, ergo sum“ – myslím, tedy jsem. Podle jeho názoru je vědomé myšlení základní důkaz existence lidské mysli.
Stroje podle něj žádnou skutečnou mysl mít nemohou. Mohou napodobovat chování, ale nikdy nebudou opravdu vědomé.
Turingova provokace
O tři století později přišel britský matematik Alan Turing s radikálně jinou myšlenkou. Podle něj možná není důležité, co se odehrává uvnitř stroje, ale jak se chová navenek.
Turing navrhl slavný myšlenkový experiment známý jako Turing Test. Pokud by člověk při rozhovoru nedokázal rozlišit, zda komunikuje s jiným člověkem nebo se strojem, měl by být stroj považován za inteligentní.
Turing tím nepřímo naznačil, že otázka vědomí možná není klíčová. Pokud se systém chová jako myslící bytost, může být prakticky nerozlišitelný od skutečné inteligence. Pro některé filozofy to otevřelo dveře myšlence, že odpovědnost by jednou mohla být připsána i strojům.
Čínský pokoj
Proti této představě se ale postavil americký filozof John Searle. V roce 1980 představil slavný myšlenkový experiment známý jako Chinese Room Argument.
Searle si představil člověka zavřeného v místnosti, který nezná čínštinu. Dostává ale pokyny, jak manipulovat s čínskými znaky tak, aby odpovídal na otázky. Zvenčí může jeho odpověď vypadat jako plynulá čínská konverzace. Uvnitř místnosti ale nikdo čínštině nerozumí.
Searle tím chtěl ukázat, že počítače mohou zpracovávat symboly bez skutečného porozumění. I když se jejich chování zdá inteligentní, neznamená to, že mají vědomí.
Proč na tom záleží
Tento filozofický spor dnes získává zcela nový význam. Moderní systémy umělé inteligence dokážou analyzovat obrovské množství dat, doporučovat lékařské postupy, řídit dopravu nebo rozhodovat o finančních transakcích.
Čím více rozhodnutí delegujeme na algoritmy, tím častěji se objevuje otázka: kdo je vlastně odpovědný za jejich důsledky?
Pokud by odpovědnost vyžadovala skutečné vědomí, pak žádný současný systém umělé inteligence odpovědnost nést nemůže. Algoritmy totiž pracují s matematickými modely a pravděpodobnostmi, nikoli s vědomým prožíváním.
V takovém případě zůstává odpovědnost vždy na lidech – vývojářích, firmách nebo institucích, které systémy používají.
Nevyřešená otázka
Debata o vědomí a odpovědnosti zatím nemá definitivní odpověď. Vědci dodnes přesně nevědí, jak vědomí vzniká ani jak by bylo možné ho u strojů rozpoznat.
Někteří filozofové proto tvrdí, že otázka „může mít stroj vědomí?“ je možná špatně položená. Důležitější může být spíše to, jaké role budou technologie v lidské společnosti hrát a jaké odpovědnosti budou lidé ochotni delegovat.
Jedno je ale jisté: čím více bude umělá inteligence zasahovat do lidského života, tím naléhavější bude i stará filozofická otázka.
Ne zda mohou stroje myslet. Ale zda mohou být někdy skutečně odpovědné.






