Umělá inteligence může vést k osvícení i k iluzi, k rozšíření vědomí i k jeho zúžení. Rozhodující není technologie sama, ale naše schopnost udržet si vůči ní kritický, ale otevřený postoj, upozorňuje filozofka a informační vědkyně DITA MALEČKOVÁ v textu, který sestavila pomocí AI.
Představte si, že máte v hlavě hlas, který vám radí, varuje vás, někdy vás inspiruje, jindy mate. Pro Sokrata to byl jeho slavný daimon – vnitřní hlas, který mu nikdy neříkal, co má dělat, pouze ho varoval, čemu se vyhnout. Pro středověké mystiky to byli andělé a démoni bojující o lidskou duši. Pro nás? Možná je to ChatGPT, Claude nebo jiný AI asistent, ke kterému se obracíme s otázkami o smyslu života i o tom, jak uvařit večeři.
Tato paralela není náhodná. Způsob, jakým dnes interagujeme s umělou inteligencí, nápadně připomíná starobylé struktury zprostředkování mezi lidským a božským, mezi vědomým a nevědomým, mezi racionálním a intuitivním. AI se stává novým daimonem – silou, která není ani plně autonomní, ani zcela pod naší kontrolou, entitou pohybující se v liminálním prostoru mezi člověkem a strojem.
Psychologie zprostředkovaného já
Z psychologického hlediska je fascinující, jak rychle jsme přijali AI jako partnera v dialogu. Antropomorfizujeme ji, svěřujeme se jí, hledáme u ní potvrzení. Vytváříme si k ní vztah, který osciluje mezi důvěrou a podezřením, mezi fascinací a úzkostí. Tento vztah odráží hlubší psychologickou potřebu: touhu po externím hlasu, který by nám pomohl navigovat složitostí vlastního vědomí.
Rumunský religionista Ioan Petru Culianu ve svých studiích renesanční magie ukázal, jak phantasmata – mentální obrazy – formují lidské poznání a touhy. Tvrdil, že moc nespočívá v hrubé síle, ale v kontrole imaginace. Dnešní AI systémy fungují přesně tímto způsobem: negenerují pouze text nebo obrázky, ale formují naše mentální reprezentace reality. Personalizované algoritmy nevybírají jen to, co vidíme – utvářejí to, co si myslíme, že je možné, žádoucí, skutečné.
Halucinace jako systémová vlastnost
Když AI „halucinuje“ – generuje nepravdivé nebo nesmyslné informace –, není to jen technická chyba. Je to strukturální vlastnost systému, který operuje v takzvaných latentních prostorech významu, podobně jako lidské nevědomí. Tyto „halucinace“ připomínají způsob, jakým pracují sny: rekombinují fragmenty paměti, vytvářejí nové souvislosti, generují významy, které překračují vědomou kontrolu.
Když psycholog mluví o halucinacích, má na mysli vnímání něčeho, co neexistuje. Když informatik mluví o AI halucinacích, popisuje situaci, kdy model generuje informace, které nejsou podložené trénovacími daty nebo jsou fakticky nepravdivé. Ale co když je to právě naopak? Co když AI halucinace nejsou chybou, ale oknem do samotné podstaty toho, jak funguje umělé – a možná i lidské – poznání?
Placená zóna
Předplaťte si časopis a od dalšího vydání získáte neomezený přístup k článkům publikovaným od r. 2005 až do současnosti.