- Nová koalice se chce podílet na vývoji bezpečné umělé inteligence
- Mezi členy patří Google, OpenAI, Anthropic, Microsoft i Nvidia
- „Chybí“ tu ale třeba Meta, xAI nebo Apple
Přední technologické společnosti včetně Googlu, OpenAI, Microsoftu, Amazonu a dalších spojily své síly a vytvořily Koalici pro bezpečnou umělou inteligenci (CoSAI).
Jeden za všechny, všichni za jednoho
Cílem této iniciativy, která byla oznámena ve čtvrtek na bezpečnostním fóru v Aspenu, je řešit roztříštěnou situaci v oblasti bezpečnosti AI vývojem a sdílením metodik, rámců a nástrojů s otevřeným zdrojovým kódem.
CoSAI bude fungovat pod organizací OASIS (Organization for the Advancement of Structured Information Standards), což je nezisková skupina podporující vývoj otevřených standardů. Koalice se primárně zaměřuje na vytváření systémů umělé inteligence „bezpečných již od návrhu“, a to ve třech počátečních pracovních směrech – ve vývoji osvědčených postupů pro zabezpečení umělé inteligence, řešení problémů při implementaci umělé inteligence a nakonec zabezpečení aplikací umělé inteligence.

Mezi zakládající sponzory patří technologičtí giganti Google, IBM, Intel, Microsoft, NVIDIA a PayPal. Dalšími zakládajícími členy jsou Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI a Wiz.
Očekává se, že CoSAI bude své řady pomalu, ale jistě rozšiřovat, nicméně za zmínku stojí, že takhle na začátku chybí pár jmen, která se tam objevit mohla. Jmenovitě například Meta nebo xAI. Teoreticky se mohl CoSAI upsat i Apple, byť ten se na pole generativní umělé inteligence teprve chystá vstoupit, a to velice pozvolna, a ještě z velké části ve spolupráci s jinými.
Bezpečnost především
„Umělou inteligenci používáme již mnoho let a vidíme její potenciál pro obránce, ale také si uvědomujeme její příležitosti pro protivníky. CoSAI pomůže velkým i malým organizacím bezpečně a zodpovědně integrovat AI – pomůže jim využít její výhody a zároveň zmírnit rizika,“ tvrdí v oznámení Google.
Koalice se zabývá bezpečným vytvářením, integrací, nasazením a provozem systémů umělé inteligence. Jejím cílem je zmírnit rizika, jako jsou krádeže modelů, otravy dat, prompt injection, škálované zneužití a inferenční útoky.

„Vývoj a nasazení bezpečných a důvěryhodných technologií umělé inteligence je ústředním posláním OpenAI. Jsme přesvědčeni, že vývoj spolehlivých standardů a postupů je nezbytný pro zajištění bezpečného a zodpovědného využívání AI, a jsme odhodláni spolupracovat v tomto směru napříč celým odvětvím. Prostřednictvím naší účasti v CoSAI chceme přispět svými odbornými znalostmi a zdroji k vytvoření bezpečného ekosystému AI, který bude přínosem pro všechny,“ řekl zase zástupce OpenAI.
Nová doba
Vytvoření CoSAI přichází v době, kdy narůstají obavy o bezpečnost, soukromí a ochranu proti zneužití AI. Problémy, jako je potenciální únik důvěrných informací a automatická diskriminace, vyvolávají otázky ohledně odpovědného vývoje a použití generativní technologie AI.
Koalici povede správní rada projektu, která bude řídit její celkovou technickou agendu, a technický řídicí výbor složený z odborníků na AI z akademické sféry a průmyslu, kteří budou dohlížet na její pracovní směry.