Na této dvoustraně obvykle píšeme o novějších výzkumech, které třeba navazují na starší poznatky, málokdy u nich však hrozí riziko z prodlení – od prezentace výzkumných závěrů k jejich věrohodnému vyvrácení zpravidla vede poměrně dlouhá cesta. Ostatně i díky tomu pro nás mohou mít velkou platnost a užitečnost mnoho dekád staré experimenty, či přímo staletími ošlehané filozofické domněnky: poznávání lidského myšlení skýtá mnoho dlouhodobě neprobádaných tajemství. S umělou inteligencí je však situace dramaticky odlišná.
Letos v únoru tak kupříkladu vyšel odborný článek mapující nedostatky v „přemýšlení“ běžně používaných modelů umělé inteligence. Výzkumnice Martha Lewis a Melanie Mitchell v něm popisovaly, že AI má velké mezery v zobecňování či vytváření analogií. „Analogie vycházející z písmenných řad může znít třeba takto: pokud se ‚abcd‘ změní na ‚abce‘, na co se změní ‚ijkl‘? Většina lidí odpoví ‚ijkm‘ a AI k této správné odpovědi dospěje také. Ale když se zeptáme, co se stane z ‚ijkkl‘, když se ‚abbcd‘ změní na ‚abcd‘, nastává problém. Lidé nejspíš odpoví ‚ijkl‘, jelikož prostě odstraní opakující se prvek. Ale umělá inteligence v podobných případech selhává,“ popisovala tehdy Lewis. Výzkumnice tudíž nabádaly k obezřetnosti při používání AI modelů třeba k legislativním účelům, jako jsou analýzy soudních spisů, rešerše či doporučování rozsudků. Schopnost umělé inteligence vytvářet analogie a „myslet“ ve větším měřítku se v tu chvíli zdála jako značně nedostatečná.
Uplynulo pár měsíců, a pokud výše zmíněnou úlohu zadáte třeba veřejně přístupnému modelu ChatGPT, dostanete už správnou odpověď. Vývoj jde tedy kupředu mílovými kroky a relevantní výzkumné snahy zastarávají dříve, než se dostanou do veřejného povědomí. Možná tudíž i v tomto čísle Psychologie dnes naleznete (lidské) úsudky o možnostech a omezeních umělé inteligence, které v době čtení už budou vypadat jinak. V tichosti jsme se ocitli uprostřed digitální revoluce, jejíž další směřování – natožpak vyvrcholení – můžeme odhadovat pouze velmi hrubě.
Zdroj:
Lewis, M. & Mitchell, M. 2025. Evaluating the Robustness of Analogical Reasoning in GPT Models. Transactions on Machine Learning Research, 2, str. 1–33.