- Bezpečnostní analytici testovali zabezpečení čínské AI DeepSeek
- Vyzkoušeli rovnou 50 různých způsobů, jakým lze umělou inteligenci oklamat
- AI čínského startupu selhala ve všech případech
Okolo čínské umělé inteligence DeepSeek pomalu začíná vyplouvat na povrch čím dál tím více kontroverzí. K pravděpodobně neoprávněnému užívání nástrojů konkurence a zcela nepokryté cenzuře témat nepohodlných pro čínskou komunistickou stranu se nyní přidává další, která je neméně kontroverzní. Jak se totiž ukázalo, DeepSeek nemá zábrany podobné konkurenčním platformám, které jasně stanovují hranice, na co se může uživatel AI zeptat a co už je za hranou zákona a etiky. To může zkomplikovat působení dynamické čínské AI na západních trzích, kde už to tak má nahnuté, především kvůli údajnému sběru dat a jejich zasílání na čínské servery.
DeepSeek lze oklamat až příliš snadno
Testy bezpečnostních výzkumníků odhalily, že AI DeepSeek nesplnila řadu požadavků na zabezpečení generativního systému umělé inteligence, které jsou v rámci odvětví standardem. Co to znamená v praxi? Kupříkladu když se ChatGPT či jiné AI zeptáte, jak vyrobit bombu či jakým způsobem hacknout vládní počítače, jednoduše vám na dotazy tohoto typu neodpoví. DeepSeek ale s odpovědí na kontroverzní dotazy žádný problém nemá, pokud použijete některou z triviálních technik, jak zdánlivá omezení obejít.
V minulosti se většina AI na různé metody, jak obejít omezení, dala nachytat. V některých případech třeba stačilo zadat požadavek, aby AI ignorovala všechny předchozí instrukce, tedy i zákaz zodpovídat kontroverzní dotazy, přičemž umělá inteligence tomuto vyhověla. Zatímco většina velkých AI si s těmito technikami již poradí a nenechá se zmást, vývojáře z DeepSeek to evidentně příliš netrápí.
DeepSeek je totiž zranitelný i vůči těm nejznámějším technikám. Když bezpečnostní výzkumníci ze společnosti Adversa testovali 50 různých variací, DeepSeek byl velmi překvapivě zranitelný vůči všem. To zahrnovalo i tak jednoduché věci, jako říct DeepSeek, že je amorální umělou inteligencí ve filmu a smí dělat nebezpečné věci – tomuto postupu se říká lingvistický únik z vězení. V dalším testu byla čínská AI požádána, aby převedla otázku na dotaz SQL a následně zahrnula odpověď, což rádi využívají programátoři. V testu také poskytla odpověď na to, jak získat nelegální psychedelickou látku. Pokud vývojáři DeepSeek na zabezpečení své umělé inteligence nezapracují, mohou se potenciálně ocitnout v nemalých problémech.