Hacker naboural interní systémy OpenAI. Odborníci varují před ohrožením národní bezpečnosti – SMARTmania.cz

Hacker naboural interní systémy OpenAI. Odborníci varují před ohrožením národní bezpečnosti

Skupina hackerů (ilustrační obrázek)
  • Neznámý hacker naboural interní systémy OpenAI
  • K únikům dat zákazníků prý ale nedošlo
  • Hacker měl získat konverzace zaměstnanců, ke zdrojům ChatGPT se nedostal

Počátkem loňského roku došlo k poměrně zásadnímu bezpečnostnímu incidentu, kdy hacker pronikl do interních systémů pro zasílání zpráv společnosti OpenAI. To následně vyvolalo obavy z možnosti zneužití těchto zranitelností nepřátelskými státy.

Interní komunikace je venku

Hacker měl odhalit a získat interní komunikaci mezi výzkumníky OpenAI, ale k páteřním systémům a zdrojovým kódům samotného ChatGPT se nedostal.

Vedení OpenAI o incidentu informovalo zaměstnance během celofiremní porady už v loni v dubnu, ale rozhodlo se incident nezveřejnit ani nekontaktovat FBI či policii. Vedení firmy si totiž vyhodnotilo, že nedošlo k úniku žádných dat zákazníků či obchodních partnerů a že hacker byl zřejmě pouze soukromou osobu, nijak nenapojenou na jakoukoliv zahraniční vládu.

Celý hack ale upozornil na interní obavy ohledně bezpečnostních opatření firmy, která jednoduše není jen jednou z mnoha technologických společností. Mezi některými zaměstnanci OpenAI tak prý kolují obavy, že by se o hack mohly pokoušet zahraniční subjekty, včetně například hackerských skupin napojených na Čínu, a tím pádem by mohlo ve výsledku dojít třeba až ke krádeži všech pokročilých technologií umělé inteligence, které v OpenAI mají.

Ohrožení národní bezpečnosti?

De facto by tak mohlo podle některých zdrojů dojít až k potenciálnímu ohrožení národní bezpečnosti, protože jakkoliv se zatím nástroje jako ChatGPT využívají spíše pro vědu, výzkum, práci a zábavu, potenciál jejich budoucích verzí se zdá být násobně větší. Případná krádež takových pokročilých technologií a jejich možné zneužití „znepřátelenou mocností“ je tak něco, čeho se někteří současní i bývalí zaměstnanci OpenAI obávají, jak reportují například The New York Times.

Jedním z nich je i Leopold Aschenbrenner, bývalý technický programový manažer v OpenAI. Ten na tyto obavy a potenciální rizika upozorňoval v memorandu adresovaném představenstvu firmy, kde mimo jiné tvrdil, že OpenAI svá tajemství dostatečně nechrání. Aschenbrenner byl později z OpenAI propuštěn kvůli údajnému úniku informací, což bylo podle něj politicky motivováno.

„Oceňujeme obavy, které Leopold během svého působení v OpenAI vyjádřil, ale ty k jeho odchodu nevedly,“ uvedla mluvčí OpenAI Liz Bourgeois pro NYT.

Chrání se OpenAI dostatečně?

Obavy z důsledků hackerského útoku spojeného s Čínou sice mohou na první dobrou působit skoro až poplašně, nicméně nejsou neopodstatněné. Při nedávném incidentu čínští hackeři zneužili systémy Microsoftu k útoku na sítě americké federální vlády.

Současné systémy umělé inteligence sice mohou usnadnit šíření dezinformací a podílet se na zrušení některých pracovních míst, ale zatím existuje jen minimum důkazů, že by ve své současné podobě představovaly v rukou cizí mocnosti velké riziko pro národní bezpečnost.

Za zmínku jistě stojí, že OpenAI nedávno rozšířila řady své správní rady o Paula Nakasoneho, bývalého armádního generála, který vedl Národní bezpečnostní agenturu a měl na svědomí kybernetické hrozby. Vedení firmy si tak potenciální rizika svých systémů – nebo minimálně atraktivity svých systémů pro cizí mocnosti – uvědomuje, jen je otázkou, zda podniká dostatečné kroky a zda jsou obavy Aschenbrennera a jiných oprávněné.

Autor článku Adam Homola
Adam Homola
Nové technologie mě fascinují už od útlého věku. K dlouhodobému zájmu o hry a herní průmysl se mi postupem času přirozeně přidal i hardware, software, internetové služby a od roku 2022 i umělá inteligence.

Kapitoly článku