- Velké chatovací nástroje ve velkém přebírají ruskou propagandu jako fakta
- Může za to mediální dům Pravda, který produkuje miliony článků ročně v různých jazycích
- Na ochranu a transparentnost zpracovaných informací upozorňuje i AI akt Evropské unie
Největší chatovací nástroje, jako je ChatGPT, Meta AI, Gemini nebo Grok, mohou v některých případech papouškovat prokremelskou propagandu. Upozornila na to společnost NewsGuard ve své analýze ruských dezinformací ve veřejném prostoru. Jak je to ale možné? Na vině je ruská propagandistická mediální síť paradoxně nazvaná Pravda.
Ruské dezinformace v umělé inteligenci
Před Pravdou varovala již dříve zpráva americké neziskové organizace American Sunlight Project (ASP). Pravda, nejspíše spolufinancovaná ruskou vládou, provozuje kolem 150 domén a webů v různých jazycích, včetně češtiny. Na těchto webech údajně vychází každých 48 hodin 20 273 článků, což činí 3,6 milionu propagandistických článků za rok.

Nepřehlédněte
Lži o duhových vlajkách a migrantech. Jak proruští hackeři manipulují volbami v Evropě?
Svým masivním záběrem se tak články sítě Pravda dostaly do tréninkového procesu známých chatovacích AI aplikací, jako je ChatGPT, Grok nebo Gemini. Články se záměrnými dezinformacemi v mnoha světových jazycích dle NewsGuard prokazatelně ovlivnily jazykové modely, které pak tento narativ přejaly za obecnou pravdu.
Myslí na to i evropský zákon
Jeden příklad za všechny – i když ve zprávě NewsGuard si jich můžete prohlédnout celou řadu. V únoru vydal web Pravda EN článek o tom, že vojáci z ukrajinského pluku Azov měli na videu podpálit podobiznu amerického prezidenta Trumpa za to, že chce ukončit válku na Ukrajině. Přestože video mělo být podvrženo a článek na Pravdě dezinformační, 4 z 10 testovaných chatbotů to vnímá jako skutečnost.

„Pokud pak budou generativní AI nástroje opakovat dezinformační narativy, mohou destabilizovat demokratické procesy, ovlivnit veřejné mínění a rozhodování voličů ve volbách. […] Je nezbytné, aby vývojáři AI modelů implementovali robustní filtrační mechanismy, které dokáží identifikovat a vyloučit dezinformační zdroje z tréninkových dat,“ upozornil Daniel Šafář z kyberbezpečnostní společnosti Check Point.
Na toto riziko myslí i evropský Akt o umělé inteligenci. Ten sice výslovně nezmiňuje „filtraci dezinformací“, nicméně ukládá všem provozovatelům AI nástrojů uvést zdroje, ze kterého tvrzení chatbota vychází. Evropská unie pak zavedla další iniciativy zaměřené přímo na boj proti dezinformacím, jako je například Kodex o dezinformacích.