- Po spamu a telefonických hovorech začínají být hrozbou i podvržená videa
- Tzv. deepfake videa jsou nebezpečná, působí důvěryhodně a mohou vést k obrovským ztrátám
- Reality Defender se s nimi snaží bojovat v reálném čase, byť zatím není pro veřejnost
Reality Defender, technologický startup zaměřený na boj proti dezinformacím řízeným umělou inteligencí, představil nástroj pro detekci deepfake videí. Což by samo o sobě nebylo zas tak světoborné, jenže tentokrát jde o detekci v reálném čase. Automaticky se tak nabízí například odchycení deepfakes při podvodných videohovorech.
Milionová hrozba
Během nedávné ukázky předvedl produktový manažer Reality Defender Christopher Ren tento nástroj tak, že vytvořil deepfake Elona Muska. Zatímco Ren mluvil, software společnosti průběžně analyzoval video a okamžitě upozornil účastníky, že vidí podvrh vytvořený umělou inteligencí. Naklonovat něčí hlas je triviální a můžete to udělat během chvilky, a je tak jen otázkou času, než budou i videohovory či videa obecně plná deepfake obsahu. Ostatně už dnes opravdu není těžké narazit na internetu na deepfake politiků či hollywoodských celebrit nabízejících kde co.
Deepfakes jsou stále častěji využívány ke škodlivým účelům a jejich množství bude nejspíš jen narůstat. Na začátku tohoto roku přišla například jedna mezinárodní strojírenská společnost o miliony poté, co jeden ze zaměstnanců naletěl na falešný videohovor. Obětí obdobných podvodů se měli stát také někteří vládní úředníci a dnes už asi nespočet soukromých osob.
Detekce, kam se podíváš?
Přestože je detekční nástroj Reality Defender stále v rozpracované betaverzi a zatím není veřejně dostupný, testuje se jako plugin pro Zoom, kde dokáže v reálném čase předpovědět, zda je účastník videokonference skutečný, nebo se jedná o deepfake.
Co je to deepfake video?
Deepfake video je digitálně upravené video, které pomocí umělé inteligence (zejména technik strojového učení, jako jsou generativní neuronové sítě) mění nebo generuje realistické obličeje, výrazy a pohyby, často tak, že napodobuje skutečné osoby.
Nejčastěji se používá k manipulaci se záznamy tak, aby vypadaly, že daná osoba říká nebo dělá něco, co ve skutečnosti nikdy neřekla nebo neudělala. Ačkoli má tato technologie potenciál pro kreativní nebo zábavní účely, její využití často vyvolává obavy z dezinformací, podvodů nebo narušení soukromí. Jednou z posledních ukázek využití deepfake je nedávné podvodné video s Elonem Muskem.
Společnost provádí srovnávací testy přesnosti softwaru a plánuje jeho zavedení u vybraných klientů. Jestli Reality Defender nakonec někdo koupí, je zatím ve hvězdách, nicméně dá se očekávat, že tento či podobný systém bude časem přítomen ve všech mainstreamových nástrojích pro videohovory.
Ani první, ani poslední
Reality Defender není první firmou, která se zabývá rostoucí hrozbou deepfakes. Intel představil v roce 2022 nástroj nazvaný FakeCatcher, který analyzuje krevní oběh obličeje a odhaluje padělky. Ani ten ale zatím není k dispozici veřejnosti. Mezitím akademičtí výzkumníci, například z New York University, vyvíjejí alternativní přístupy k boji proti nárůstu deepfakes v reálném čase. V budoucnu by se podobná technologie měla objevit i v operačních systémech pro chytré telefony, Honor už například práci na podobné technologii oznámil na letošním veletrhu IFA v Berlíně.
Nepřehlédněte
AI Agent od Honoru odhalí deepfake video a zruší předplatné. Poprvé se objeví u tohoto modelu
S tím, jak se vyvíjí technologie, která stojí za deepfakes, je pro jednotlivce stále obtížnější identifikovat je vlastními silami. S postupným a ve výsledku vlastně asi docela rychlým rozšiřováním deepfakes bude ještě mnoho problémů. Stávající systémy nedokáží dokonale odchytit ani textový spam a tu a tam něco proklouzne – ať už do emailu, nebo v rámci sociálních sítí. O několik úrovní těžší to mají systémy s podvrženým audiem a další na řadě je právě video. Internet tak bude, respektive je, pro některé méně znalé a méně obezřetné skupiny obyvatel rok od roku méně bezpečný.