- Grok se ve svém generování sexualizovaného obsahu vymknul kontrole
- Trojice teenagerů z Tennessee nyní žaluje jeho tvůrce
- Podle jejich tvrzení neudělala xAI nic proti tomu, aby Grok deepfake obrázky a videa mohl vytvářet
Umělá inteligence může lidstvu pomoci v řadě odvětví, od zdravotnictví až po složité matematické výpočty. Než se ale dostaneme do chvíle, kdy začneme využívat její plný potenciál, budeme se muset překlenout přes aktuální fázi, kdy se firmy snaží AI propašovat do veškerých svých projektů (ať už dávají, či nedávají smysl) a přes všudypřítomné chatboty, jejichž využití běžnými spotřebiteli je diskutabilní. Dobrým důkazem je Grok, který nejenže odpovídá na řadu dotazů položených na síti X, ale pozornost na sebe strhla vytvářením sexualizovaných obrázků na různá témata.
Tvůrci AI Grok možná stanou před soudem
Tři teenageři z Tennessee podali žalobu na společnost xAI Elona Muska s tvrzením, že chatbot Grok generoval sexualizované obrázky a videa, na nichž byli zachyceni jako nezletilí, o čemž informoval The Washington Post. V návrhu na hromadnou žalobu se Muskovi a dalším vedoucím pracovníkům xAI vytýká, že při loňském spuštění „pikantního režimu“ věděli, že Grok bude vytvářet mimo jiné také materiál zobrazující sexuální zneužívání dětí.
Jedna z obětí, označená jako „Jane Doe 1“, tvrdí, že se loni v prosinci dozvěděla, že na platformě Discord jsou k dispozici explicitní obrázky vygenerované umělou inteligencí, na nichž je zachycena ona sama a nejméně 18 dalších nezletilých osob. „Nejméně pět z těchto souborů, jedno video a čtyři obrázky, zachycovalo její skutečný obličej a tělo v prostředí, které dobře znala, avšak v pozicích s explicitním sexuálním obsahem,“ stojí v žalobě.
Musk a xAI se stali předmětem intenzivního zájmu poté, co systém Grok zaplavil platformu X explicitními obrázky dospělých i nezletilých. Tento incident vyvolal výzvy k tomu, aby Federální obchodní komise zahájila vyšetřování Muskovy AI, a také vedl k vyšetřování ze strany Evropské unie. Senát USA také v lednu schválil návrh zákona, který by obětem deepfaků vytvořených bez jejich souhlasu umožnil žalovat osoby, které daný obrázek vytvořily, zatímco zákon Take It Down Act, který prezident Donald Trump podepsal v roce 2025, po svém vstupu v platnost v květnu kriminalizuje šíření deepfaků vytvořených umělou inteligencí bez souhlasu dotčených osob.
„Jedná se o děti, jejichž školní a rodinné fotografie byly pomocí nástroje umělé inteligence společnosti s obratem v řádu miliard dolarů přeměněny na materiál zobrazující sexuální zneužívání dětí a následně obchodovány mezi pedofily,“ zmiňuje v prohlášení Annika K. Martinová z advokátní kanceláře Lieff Cabraser, jedna z právniček zastupujících oběti. „Máme v úmyslu xAI přivést k odpovědnosti za každé dítě, kterému tímto způsobem ublížila.“ Ačkoli se síť X snažila uživatelům úpravy obrázků pomocí služby Grok ztížit, server The Verge zjistil, že s obrázky nahranými na tuto platformu lze stále manipulovat.