- Každý velký jazykový model se potýká s nepříjemnými halucinacemi
- Vědci přišli na systém, jak halucinace potlačit a přidat odpovědím na správnosti
- Stoprocentní to ale pořád není a práce na řešení halucinací budou pokračovat
Naprosto zásadním pokrokem v oblasti umělé inteligence je fakt, že vědci z Katedry informatiky Oxfordské univerzity vyvinuli algoritmus, který dokáže odhalit, kdy jsou odpovědi generované umělou inteligencí vymyšlené nebo zavádějící.
Protože co si budeme povídat, zdaleka největším problémem generativní AI je její nespolehlivost. V řadě případů je to buď jedno, nebo má AI pravdu, ale všechny systémy se s problémem tzv. halucinací potýkají neustále. A ještě nedávno to vypadalo, že se s halucinacemi s každým dalším modelem budeme sice setkávat méně a méně, ale že se jich definitivně jen tak nezbavíme.
Průlom v oblasti umělé inteligence
Tento průlom přichází v době, kdy se velké technologické společnosti, včetně Applu a Googlu, potýkají s přetrvávajícím problémem halucinací umělé inteligence, kdy modely produkují nepřesné, zavádějící, nesmyslné nebo regulérně absurdní výstupy. Pokud vám například ChatGPT sebevědomě tvrdí absolutní nesmysl, je to právě kvůli halucinacím.
Nová metoda detekce, podrobně popsaná v článku zveřejněném v Nature, dokáže přesně identifikovat halucinace AI přibližně v 79 % případů. To je o celých 10 % vyšší než u současných špičkových technik, což představuje velké zlepšení v řešení spolehlivosti odpovědí AI.

Halucinace umělé inteligence byly zdrojem různých známých omylů. Google nedávno čelil kritice, když jeho umělá inteligence navrhovala nebezpečné činnosti, jako je pojídání kamenů a nanášení lepidla na pizzu. Podobně se právníci spoléhající na AI při přípravě dokumentů setkali s problémy, včetně generování fiktivních právních citací, což vedlo k pokutám. Podobných méně známých incidentů bude nejspíš nespočet, a tak je skvělé, že na tomhle poli uvidíme znatelný progres možná ještě před spuštěním ChatGPT 5 nebo jiného podobně velkého modelu, od kterého by se takový progres mohl očekávat.
Opakování je matka moudrosti
Přístup výzkumníků spočívá v tom, že model umělé inteligence reaguje na danou výzvu několikrát, obvykle v pěti až deseti iteracích. Poté vyhodnocují konzistenci odpovědí pomocí metriky zvané „sémantická entropie“, která měří variabilitu významu odpovědí. Vysoké skóre sémantické entropie naznačuje, že umělá inteligence může mít halucinace, zatímco nižší skóre naznačuje konzistentní a potenciálně věcnou odpověď.
Metoda je tak v kontrastu s tradičními technikami, které měří „naivní entropii“, jež zohledňuje pouze variabilitu formulací, nikoli význam. Tím, že se nový algoritmus zaměřuje na sémantický obsah, poskytuje robustnější mechanismus pro odhalování halucinací. Jak je ale vidno, ani tak nejde o stoprocentní systém a s halucinacemi se budeme chtě nechtě potýkat i nadále, byť pravděpodobně v menší míře.
Velký potenciál je na obzoru
Potenciál využití této technologie je obrovský. Výzkumníci navrhují začlenit tento algoritmus do stávajících platforem umělé inteligence, jako je ChatGPT, prostřednictvím funkce aktivované uživatelem, která nabízí jakési „skóre jistoty“, jež udává spolehlivost generované odpovědi. Tato integrace by mohla výrazně zvýšit důvěryhodnost a užitečnost systémů AI pro běžné uživatele a časem bychom se mohli snad i zbavit oněch všudypřítomných varování o nespolehlivosti odpovědí.

Nepřehlédněte
Umělá inteligence může způsobit jadernou válku, varuje Donald Trump. Sám ji ale používá
Vzhledem k tomu, že se umělá inteligence nadále vyvíjí a stále více se začleňuje do různých aspektů technologií a každodenního života, bude schopnost odhalovat a zmírňovat halucinace naprosto zásadní. I když aktuální ChatGPT 4o a třeba i Gemini Advance už umějí procházet internet a při troše štěstí a velké dávce trpělivého promptingu se většinou kvalitní a pravdivé odpovědi doberete, pořád to není stoprocentní a pořád to od uživatele vyžaduje příliš mnoho.