- Společnost stojící za AI Claude obvinila tvůrce DeepSeek a další ze zneužití svého modelu
- Podle Anthropicu Číňané využívali jeho AI k tréninku vlastní umělé inteligence
- Situace má potenciál nastavit hranice pro přípustnou vzájemnou „inspiraci“
Dobří umělci kopírují, ti nejlepší kradou. Tento citát je často připisován malíři Pablu Picassovi, přičemž jej zpopularizoval Steve Jobs. Zatímco v případě umění je hranice mezi inspirací a očividným vykrádáním nápadů poměrně tenká, v případě technologií už bývají hranice vymezené přeci jen o něco jasněji. Nástup umělé inteligence ale spoustu věcí mění, a co se dříve zdálo jako zcela jasné a očividné, je při zapojení AI přinejmenším matoucí. Tentokrát se v centru dění ocitla společnost Anthropic, stojící za známou AI Claude, která obvinila čínskou konkurenci ze zneužití své umělé inteligence.
Kde je hranice mezi přípustným a nepřípustným využitím AI?
Konkrétně Anthropic tvrdí, že DeepSeek a další dvě čínské AI zneužívají chatbota Clauda k tomu, aby vylepšili své vlastní produkty. Ve svém prohlášení Anthropic uvedl, že „zneužití ve velkém měřítku“ zahrnovalo vytvoření přibližně 24 tisíc podvodných účtů a více než 16 milionů výměn s Claudem, o čemž informoval deník The Wall Street Journal. To mají mít na svědomí tři společnosti, konkrétně DeepSeek, MiniMax a Moonshot, jež byly obviněny z toho, že využili Clauda k tomu, aby na základě jeho procesů vylepšili vlastní AI modely.
Ačkoli Anthropic tvrdí, že se jedná o legitimní tréninkovou metodu, zároveň dodává, že může být také použita k nelegálním účelům, včetně získání výkonných schopností od jiných laboratoří za zlomek času a zlomek nákladů, které by byly potřebné k jejich nezávislému vývoji. Anthropic dodává, že nelegálně vylepšované modely pravděpodobně nepřevzaly stávající bezpečnostní opatření. „Zahraniční laboratoře, které vylepšují americké modely, mohou tyto nechráněné schopnosti následně využít ve vojenských, zpravodajských a sledovacích systémech, což autoritářským vládám umožňuje nasadit nejmodernější AI pro útočné kybernetické operace, dezinformační kampaně a hromadné sledování,“ píše Anthropic.

Nepřehlédněte
Konec reklam jako záchranná brzda? Proč Perplexity mění strategii, když nemá šanci na důstojné přežití
DeepSeek, který dříve vzbudil rozruch v odvětví umělé inteligence svými výkonnými, ale efektivnějšími modely, podle Anthropicu uskutečnil více než 150 tisíc výměn s Claudem a zaměřil se na jeho schopnosti uvažování. Je také obviněn z toho, že používá Clauda k vytváření „cenzuře odolných alternativ k politicky citlivým otázkám týkajícím se disidentů, vůdců politických stran nebo autoritářství“. Moonshot a MiniMax měly s Claudem více než 3,4 milionu, respektive 13 milionů výměn. Celá situace přináší důležité otázky ohledně hranice toho, co je a není přípustné. Je zároveň paradoxem, že AI společnostem vadí vzájemné využívání modelů, zatímco ony samy často nemají velké zábrany při využívání cizích dat k tréninku svých modelů.