TOPlist

Ruská propaganda v ChatGPT. Kreml obelstil nástroje umělé inteligence

Ruský hacker
  • Velké chatovací nástroje ve velkém přebírají ruskou propagandu jako fakta
  • Může za to mediální dům Pravda, který produkuje miliony článků ročně v různých jazycích
  • Na ochranu a transparentnost zpracovaných informací upozorňuje i AI akt Evropské unie

Největší chatovací nástroje, jako je ChatGPT, Meta AI, Gemini nebo Grok, mohou v některých případech papouškovat prokremelskou propagandu. Upozornila na to společnost NewsGuard ve své analýze ruských dezinformací ve veřejném prostoru. Jak je to ale možné? Na vině je ruská propagandistická mediální síť paradoxně nazvaná Pravda.

Ruské dezinformace v umělé inteligenci

Před Pravdou varovala již dříve zpráva americké neziskové organizace American Sunlight Project (ASP). Pravda, nejspíše spolufinancovaná ruskou vládou, provozuje kolem 150 domén a webů v různých jazycích, včetně češtiny. Na těchto webech údajně vychází každých 48 hodin 20 273 článků, což činí 3,6 milionu propagandistických článků za rok.



Ruský hacker a dezinformace (ilustrační obrázek)



Nepřehlédněte

Lži o duhových vlajkách a migrantech. Jak proruští hackeři manipulují volbami v Evropě?

Svým masivním záběrem se tak články sítě Pravda dostaly do tréninkového procesu známých chatovacích AI aplikací, jako je ChatGPT, Grok nebo Gemini. Články se záměrnými dezinformacemi v mnoha světových jazycích dle NewsGuard prokazatelně ovlivnily jazykové modely, které pak tento narativ přejaly za obecnou pravdu.

Myslí na to i evropský zákon

Jeden příklad za všechny – i když ve zprávě NewsGuard si jich můžete prohlédnout celou řadu. V únoru vydal web Pravda EN článek o tom, že vojáci z ukrajinského pluku Azov měli na videu podpálit podobiznu amerického prezidenta Trumpa za to, že chce ukončit válku na Ukrajině. Přestože video mělo být podvrženo a článek na Pravdě dezinformační, 4 z 10 testovaných chatbotů to vnímá jako skutečnost.

AI chatboti uvádějící ruské dezinformace
AI chatboti uvádějící ruské dezinformace

„Pokud pak budou generativní AI nástroje opakovat dezinformační narativy, mohou destabilizovat demokratické procesy, ovlivnit veřejné mínění a rozhodování voličů ve volbách. […] Je nezbytné, aby vývojáři AI modelů implementovali robustní filtrační mechanismy, které dokáží identifikovat a vyloučit dezinformační zdroje z tréninkových dat,“ upozornil Daniel Šafář z kyberbezpečnostní společnosti Check Point.

Na toto riziko myslí i evropský Akt o umělé inteligenci. Ten sice výslovně nezmiňuje „filtraci dezinformací“, nicméně ukládá všem provozovatelům AI nástrojů uvést zdroje, ze kterého tvrzení chatbota vychází. Evropská unie pak zavedla další iniciativy zaměřené přímo na boj proti dezinformacím, jako je například Kodex o dezinformacích.

Autor článku Jakub Fišer
Jakub Fišer
Novinář, fanoušek moderních technologií, letních měsíců a asijského jídla. Mám rád filmy od Lynche, obrazy od Pollocka, french house a fotbalový klub Arsenal. Ve volném čase hraju na PlayStationu a chodím běhat.

Kapitoly článku