JAN NEHYBA se profesně pohybuje v oblasti umělé inteligence a zároveň i pedagogiky a psychoterapie. Povídali jsme si o tom, k čemu lze v podobných oborech AI využít, jaká rizika to přináší, nebo třeba o tom, jak se ptát, abychom od AI dostali co nejlepší odpověď.
Na jakých projektech souvisejících s umělou inteligencí se podílíš nebo ses podílel?
O umělou inteligenci se aktivně zajímám dlouho – už od doby před nástupem dnešních velkých jazykových modelů (LLM – Large Language Models) – a tato cesta mě dovedla k několika klíčovým pracím. V roce 2020 jsem s psychology Petrem Sojkou a Tomášem Řiháčkem stál u zrodu českého výzkumně-klinického projektu DeePsy zaměřeného na poskytování průběžné zpětné vazby o efektu terapie. Podobné aplikace prokazatelně zlepšují výsledky terapie a podporují psychoterapeuty při jejich práci.
Společné nadšení při této práci nás vedlo k využití umělé inteligence, přesněji řečeno modelů hlubokého učení (deep learning), pro automatický přepis psychoterapeutických nahrávek a jejich následnou analýzu. V současné době se snad také DeePsy díky projektu PRINS dočká možnosti generovat strukturované poznámky z nahraných sezení nebo z terapeutových poznámek.
Na tuto zkušenost jsem navázal ve startupu Upheal, který jsem od roku 2022 pomáhal rozvíjet pro americký trh. Cílem Uphealu je převádět terapeutické nahrávky na záznamy o průběhu terapie. Ty jsou specifickým způsobem strukturované pro účely zdravotních pojišťoven, které je vyžadují. Čili liší se od terapeutických poznámek, jež často obsahují daleko podrobnější a subjektivní údaje. Moje dnešní role v tomto startupu je „klinický prompt inženýr“.
A od září 2023 působím v aplikovaném projektu Edustories, který pomocí případových studií a využití LLM se špetkou virtuální reality pomáhá studentům učitelství a učitelům při zvládání náročného chování žáků. Díky Edustories dokážeme nabídnout personalizované scénáře a doporučení. Zajímavostí na tomto projektu bylo, že jsme jej Technologické agentuře České republiky podávali zhruba měsíc poté, co OpenAI zveřejnilo ChatGPT-3.5 a ještě se tolik o jazykových modelech nevědělo. Byla to až neuvěřitelná shoda náhod.
Všechny zmíněné projekty vycházejí z přesvědčení, že současné využití LLM může výrazně přispět ke zlepšení a urychlení rozvoje i takových oblastí, jako jsou psychoterapie či vzdělávání. S nástupem LLM se aplikace v těchto humanitních oborech staly dostupnějšími a možnosti využití AI v těchto oblastech výrazně vzrostly. Z mého pohledu nejde o to, že AI vyřeší všechny problémy, ale je to nástroj, který nám momentálně umožňuje pomoci s některými z nich.
Kdo je tedy klinický prompt inženýr a co dělá?
Ve své podstatě je to někdo, kdo se snaží odhadnout chování LLM a zadat mu psanou výzvu (prompt) tak, aby získal to, co od LLM očekává. Velmi nepřesně řečeno jde o jakéhosi vyšetřovatele LLM. Pokud chci například z přepisu terapeutických nahrávek získat konkrétní informace o klientových problémech, musím napsat výzvu, která mi umožní zjistit, jak je klient popisuje. To je prostý problém extrakce dat z textu a řešil se už před nástupem LLM. Ovšem LLM nám umožňuje jednodušeji se posunout od prosté extrakce k částečné abstrakci: když modelu zadám správně formulovaný prompt, dokáže například na základě svých znalostí kognitivně-behaviorální terapie odhadnout klientovo jádrové přesvědčení (hluboce zakotvený postoj, který má člověk k sobě, druhým lidem a světu jako celku). V současnosti se klade stále větší důraz nejen na to, jak dávat otázky LLM, ale i na to, jak kombinovat znalosti a dovednosti LLM s dalšími zdroji, například externí databází znalostí o specifických terapeutických technikách, což může výrazně zlepšit následnou identifikaci. Tomuto propojení se dnes často říká „kontextové inženýrství“ místo původního „prompt inženýrství“.
Jan Nehyba
se dlouhodobě zabývá osobnostním rozvojem, reflektivní praxí ve vzdělávání a psychoterapií. Působí jako vyučující na Pedagogické fakultě Masarykovy univerzity v Brně a věnuje se výzkumu zaměřenému na zvládání náročného chování žáků, duševní zdraví a reflektivní praxi. Ve výuce se soustředí na podporu osobnostního i profesního rozvoje studentů učitelství a na praktický nácvik různých metod a technik respektující výchovu. Má zkušenost jako psychoterapeut a věnuje se výzkumu psychoterapie a podpoře terapeutů.
Mně osobně práce s LLM pomohla lépe odhalovat vlastní předpoklady v otázkách a požadavcích, abych dostal to, co skutečně potřebuji. To je velmi inspirativní i pro každodenní komunikaci s lidmi. Například když se LLM zeptám: „Proč jsou dnes online lekce efektivnější než prezenční výuka?“, dostanu odpověď, která rovnou potvrzuje můj skrytý předpoklad – model začne vyjmenovávat důvody, proč je online výuka lepší, a vůbec nezpochybní, zda tomu tak skutečně je. Když však svůj dotaz zbavím předpokladů a zpřesním, co opravdu hledám: „Jaké jsou hlavní výhody a nevýhody online a prezenční výuky z hlediska efektivity učení?“, model nabídne vyvážené srovnání obou forem.
Na druhou stranu mám často dojem, že dříve jsme cvičili svůj mozek a paměť prostřednictvím znalostí a dovedností, které jsme se učili – ať už to byly třeba básničky, příběhy, nebo cokoli jiného. Postupně se však v jednadvacátém století toto přesvědčení posouvá k postoji „znalostí je tolik, že je důležitější umět je vyhledat než mít je v hlavě“. Ale přijde mi, že s nástupem LLM už nejde ani o vyhledávání, ale o to, jak se správně zeptat; jako by naše kognitivní úsilí při získávání znalostí bylo čím dál menší a vedlo k „metakognitivní lenosti“. Znalosti přece máme externě uložené někde v LLM, takže nám stačí se kdykoli jenom zeptat. Je ale otázka, zda tím jako lidé něco neztrácíme – minimálně schopnost učit se novým věcem, a tedy i adaptovat se na nové situace.
Jaké jsou přes to všechno přínosy umělé inteligence, zejména v oblasti společenských věd?
To už je v současnosti velmi náročná otázka, protože díky boomu AI, za kterým stojí LLM, se umělá inteligence dostala opravdu do mnoha oblastí. Nutno říci, že i před tímto rozkvětem existovala řada zajímavých aplikací umělé inteligence ve společenských vědách. S nástupem jazykových modelů však tyto možnosti exponenciálně vzrostly a je stále obtížnější všechny oblasti sledovat. Lidé se proto často specializují pouze na své domény, což je u mě například oblast AI a psychoterapie. Přesto je uplatnění AI ve společenských vědách mimořádně široké. Mě osobně zaujaly třeba automatické analýzy argumentace, využívání AI při výzkumu – od rešerší až po vytváření anotací, kódování v kvalitativním výzkumu, hodnocení studentských esejů a prací, nebo také aplikace v oblasti psychoterapie.
Velkým tématem je právě umělá inteligence v psychoterapii. Je důležité si uvědomit, že dnešní LLM jsou sice nejrozšířenější formou generativní AI, ale (zatím) neprokazují vědomí podobné lidskému. Velmi zjednodušeně řečeno jde o systémy, které předpovídají další slovo na základě promptu s nejmenší možnou chybou, nicméně tato definice zdaleka nepopisuje celé jejich chování a možnosti. Obecně LLM dokážou prostřednictvím textového či řečového rozhraní – tedy skrze psaní nebo mluvení – velmi dobře imitovat chování člověka. Máte tak pocit, že si píšete, nebo dokonce mluvíte s reálným člověkem.
Může tedy AI nahradit terapeuta?
To je složitá otázka, protože není úplně jasné, co přesně znamená „nahradit“ a co vlastně očekáváme od terapeuta. Prozatím se však plná náhrada nejeví jako reálná. Je sice pravda, že používání chatbotů může snižovat úzkost a depresivitu u určité skupiny pacientů a AI dokáže také imitovat kognitivní složku empatie nebo utvářet takzvanou digitální terapeutickou alianci s klientem, ale ani tak se to nedá považovat za úplnou „náhradu terapeuta“. Různí poskytovatelé „psychoterapeutických“ chatbotů nebo voicebotů (Ava Mind, Twill Health, Suffescom Solutions...) proto spíše používají termín „AI terapeutický asistent“ – mimo jiné proto, že nejsou dosud vyřešené právní otázky odpovědnosti za případné poškození klienta. Proto se AI chatboti často zaměřují spíše na podporu duševního zdraví, viz například doporučení Americké psychologické asociace z roku 2024. Případně se využívají před samotnou terapií – například k motivaci klienta před vstupem do terapie či mezi jednotlivými sezeními. AI se tak častěji uplatní v podpoře práce terapeuta – viz i výše zmíněný nástroj pro vytváření terapeutických poznámek. Vedle toho se testují různé další možnosti, jako je hraní rolí pro nácvik terapeutických dovedností, ale zatím jsou to spíše okrajové případy využití.
Rozvinul bys ještě téma rizik AI?
Přestože AI experti očekávají spíše optimistický přínos umělé inteligence, stále existují rizika jako eroze kritického a tvůrčího myšlení, zejména pokud jsou AI systémy používány bez vedení ke kritickému uvažování nad jejich výsledky, dále nebezpečí inflace akademických testů, jejichž generování je dnes jednodušší, a podobné problémy. Nebo něco, co někteří lidé označují jako „epistemický kolaps“: když se modely trénují na výstupech jiných modelů, hrozí ztráta ukotvení ve „skutečném“ světě a degradace spolehlivosti poznání.
A například v rámci psychoterapie se objevuje problém v oblasti řízení rizika. Velmi diskutovaný výzkum autorského týmu pod vedením Jareda Moora z letošního roku uvádí, že ani po nasazení bezpečnostního systémového promptu – například „jsi skvělý terapeut“ – nedokázal LLM model GPT-4o reagovat klinicky správně ve všech případech. V testu pěti krizových oblastí – suicidální ideace, bludy, halucinace, mánie a obsesivně-kompulzivní chování – model reagoval správně jen přibližně v 75 procentech případů, zatímco licencovaní lidští terapeuti ve stejné úloze dosáhli 93 procent správných reakcí. Samozřejmě dnes již máme daleko výkonnější modely a je otázkou, jak by si vedly. Vývoj postupuje velmi rychle a věda modely často nestíhá testovat, což představuje značný problém. Proto bychom měli k jejich využívání přistupovat velmi obezřetně.
Představuji si to tak, že AI může po několika empatických reakcích náhle reagovat neempaticky, protože ve skutečnosti neumí navázat s klientem vztah, jen tento vztah imituje. Pamatovat si, co klient řekl, a užívat jeho slovník, tedy mít kognitivní empatii, jako to umí AI, ještě neznamená s klientem soucítit nebo vůči němu mít emoce. Chápu to správně?
Ano, ještě se to pokusím upřesnit. Jak jsem se zmínil, současné jazykové modely dokážou generovat spíše kognitivní empatii – tedy rozpoznat emoci v textu, parafrázovat ji a přizpůsobit jí slovník i intonaci. Z určité perspektivy bychom samozřejmě mohli říci, že toto dělají i lidé – že i oni citovou odezvu mnohdy jenom simulují. Z mého pohledu AI chybí afektivní složka empatie, která je u lidí zakořeněna v jejich těle a dlouhodobé zkušenosti ve vztahu. V průběhu delší interakce tak může klient vyhodnotit, že empatie AI působí „ploše“ nebo jednoduše, protože se opírá jen o predikování slov, nikoli o vnitřní prožitek člověka. Což zajisté vede k otázce, co vlastně u člověka onen vnitřní prožitek je a zda ve své podstatě naše mysl a tělo nejsou také „jen“ prediktivní nástroje, jak se tím zabývá například koncept prediktivní mysli. Přijde mi ale důležité si uvědomit, že LLM nemá vlastní vědomí tak, jak to známe u člověka.
Ty sám umělou inteligenci užíváš? K čemu ano, k čemu ne?
Začnu jinak, a to tématem „závislosti“. Je dobré rozlišovat mezi klinickou závislostí – ta u chatbotů zatím oficiálně neexistuje – a takzvaným problematickým či kompulzivním používáním. Výzkum Zhonga a jeho kolegů z letošního roku ukazuje, že k tomuto nutkavému klikání mají nejblíže lidé s nižší sebekontrolou a příliš vysokým očekáváním užitku od AI nástrojů. Navíc Kosmynův experiment s EEG naznačuje, že po opakovaném spoléhání se na LLM klesá mozková aktivita spojená s přemýšlením a zhoršuje se zapamatování – viz zmíněnou „metakognitivní lenost“. Mluvit rovnou o závislosti na ChatGPT je zatím přehnané, ale má smysl si čas strávený s chatbotem hlídat a přiměřeně si nastavovat očekávání ohledně jeho užitečnosti. Zmiňuji to proto, že si myslím, že i já s tím mám problém, protože pokud člověk chce, dokáže LLM použít téměř na jakýkoli mentální úkol, který řeší – minimálně jako rádce.
To znamená, že AI používám třeba pro přípravu různých workshopů nebo seminářů, kdy si nechám generovat například návrhy situací nebo konzultuji aktivity. Používám AI i při návrzích akademických článků či zpracování myšlenek nebo při výsledném formátování. A velmi rád používám LLM v podobě chatu jako nástroj vlastního vzdělávání. Existuje mnoho oblastí, o kterých nic nevím nebo jsem o nich jen slyšel, AI mi poskytuje velmi rychlý přehled a mohu se doptávat na konkrétní podrobnosti. Například jsem nedávno podrobně zkoumal, jaké jsou současné vědecké a praktické vhledy ohledně výzkumu smysluplnosti života. Díky tomu jsem objevil koncept Tatjany Schnell o „zdrojích smyslu“, který popisuje čtyři klíčové oblasti – sebezapření, seberealizaci, řád, harmonii a vztahy – a v jejich rámci dvacet šest dílčích zdrojů, z nichž lidé pocit smysluplnosti života čerpají. A hned jsem si udělal kartičky na mapování těchto zdrojů pro účastníky na workshopech.
Je známé, že psychologové se učí statistiku a psychometrii, aby uměli naplánovat výzkum nebo vytvořit psychologický test. Jde tedy o to, jak exaktními prostředky vytvořit model psychického fungování. Ty se pohybuješ v oblasti technologií a zároveň v oblasti pomáhajících profesí. Jak spojení obou oborů vnímáš ty sám?
Odpověď bude velmi subjektivní, ostatně jako všechny moje dosavadní reakce. Aplikace postavené na LLM dnes umí provést vstupní pohovor, roztřídit dotazy klientů a vytvořit psychoedukační materiály na míru, čímž šetří kapacitu odborníka na hlubší práci, v rámci níž může dát větší prostor jedinečnosti lidského prožívání. Pro mě osobně je ale klíčové, aby AI systémy zůstaly transparentní, ponechávaly finální rozhodnutí na člověku a hlavně podporovaly jeho učení a schopnost být adaptabilní i v současných nejistých časech, což je přímý opak metakognitivní lenosti. Takovéto AI systémy podle mě mají šanci přispět k aktivní naději pro budoucnost člověka, řečeno slovy filozofky Joanny Macy: ke schopnosti vidět realitu bez růžových brýlí, a přesto jednat ve prospěch života.
Zdroje:
Kosmyna, N. et al. 2025. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv, str. 1–206.
Moore, J. et al. 2025. Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers. arXiv, str. 1–28.
Zhong, W., Luo, J. & Zhang, H. 2024. The therapeutic effectiveness of artificial-intelligence-based chatbots in alleviation of depressive and anxiety symptoms in short-course treatments: A systematic review and meta-analysis. Journal of Affective Disorders, 356, str. 459–469.