- Neznámý hacker naboural interní systémy OpenAI
- K únikům dat zákazníků prý ale nedošlo
- Hacker měl získat konverzace zaměstnanců, ke zdrojům ChatGPT se nedostal
Počátkem loňského roku došlo k poměrně zásadnímu bezpečnostnímu incidentu, kdy hacker pronikl do interních systémů pro zasílání zpráv společnosti OpenAI. To následně vyvolalo obavy z možnosti zneužití těchto zranitelností nepřátelskými státy.
Interní komunikace je venku
Hacker měl odhalit a získat interní komunikaci mezi výzkumníky OpenAI, ale k páteřním systémům a zdrojovým kódům samotného ChatGPT se nedostal.
Vedení OpenAI o incidentu informovalo zaměstnance během celofiremní porady už v loni v dubnu, ale rozhodlo se incident nezveřejnit ani nekontaktovat FBI či policii. Vedení firmy si totiž vyhodnotilo, že nedošlo k úniku žádných dat zákazníků či obchodních partnerů a že hacker byl zřejmě pouze soukromou osobu, nijak nenapojenou na jakoukoliv zahraniční vládu.
Celý hack ale upozornil na interní obavy ohledně bezpečnostních opatření firmy, která jednoduše není jen jednou z mnoha technologických společností. Mezi některými zaměstnanci OpenAI tak prý kolují obavy, že by se o hack mohly pokoušet zahraniční subjekty, včetně například hackerských skupin napojených na Čínu, a tím pádem by mohlo ve výsledku dojít třeba až ke krádeži všech pokročilých technologií umělé inteligence, které v OpenAI mají.
Ohrožení národní bezpečnosti?
De facto by tak mohlo podle některých zdrojů dojít až k potenciálnímu ohrožení národní bezpečnosti, protože jakkoliv se zatím nástroje jako ChatGPT využívají spíše pro vědu, výzkum, práci a zábavu, potenciál jejich budoucích verzí se zdá být násobně větší. Případná krádež takových pokročilých technologií a jejich možné zneužití „znepřátelenou mocností“ je tak něco, čeho se někteří současní i bývalí zaměstnanci OpenAI obávají, jak reportují například The New York Times.
Jedním z nich je i Leopold Aschenbrenner, bývalý technický programový manažer v OpenAI. Ten na tyto obavy a potenciální rizika upozorňoval v memorandu adresovaném představenstvu firmy, kde mimo jiné tvrdil, že OpenAI svá tajemství dostatečně nechrání. Aschenbrenner byl později z OpenAI propuštěn kvůli údajnému úniku informací, což bylo podle něj politicky motivováno.
„Oceňujeme obavy, které Leopold během svého působení v OpenAI vyjádřil, ale ty k jeho odchodu nevedly,“ uvedla mluvčí OpenAI Liz Bourgeois pro NYT.
Chrání se OpenAI dostatečně?
Obavy z důsledků hackerského útoku spojeného s Čínou sice mohou na první dobrou působit skoro až poplašně, nicméně nejsou neopodstatněné. Při nedávném incidentu čínští hackeři zneužili systémy Microsoftu k útoku na sítě americké federální vlády.
Současné systémy umělé inteligence sice mohou usnadnit šíření dezinformací a podílet se na zrušení některých pracovních míst, ale zatím existuje jen minimum důkazů, že by ve své současné podobě představovaly v rukou cizí mocnosti velké riziko pro národní bezpečnost.
Za zmínku jistě stojí, že OpenAI nedávno rozšířila řady své správní rady o Paula Nakasoneho, bývalého armádního generála, který vedl Národní bezpečnostní agenturu a měl na svědomí kybernetické hrozby. Vedení firmy si tak potenciální rizika svých systémů – nebo minimálně atraktivity svých systémů pro cizí mocnosti – uvědomuje, jen je otázkou, zda podniká dostatečné kroky a zda jsou obavy Aschenbrennera a jiných oprávněné.