- Prominentní pracovnice OpenAI opustila firmu ve chvíli, kdy začala experimentovat s reklamami
- Obává se, že by se model ChatGPT mohl začít podobat Facebooku
- Navrhla i několik řešení, jak lze reklamy s klidným svědomím implementovat do AI
Umělá inteligence sice plní stránky novin a webových portálů, a to nejen se zaměřením na technologie, nicméně krutou pravdou je, že se prozatím jedná o velkou díru na peníze. Prakticky žádná AI prozatím nepřišla s uspokojivým monetizačním modelem, který by velké jazykové modely udržel na nohou bez masivních investic velkých hráčů na trhu, jako je Nvidia. Spolehlivou cestou k zisku je sice zavedení komerčních sdělení, nicméně z povahy AI se většina společností jejich implementaci brání. Tuto bariéru se nicméně nyní pokouší probourat OpenAI u svého modelu ChatGPT, který patří mezi nejpopulárnější AI na trhu.
Jakým způsobem implementovat reklamy?
V den, kdy OpenAI začala testovat reklamy pro část svých uživatelů v rámci ChatGPT, podala výpověď výzkumná pracovnice Zoë Hitzig. Toho by si patrně nikdo nevšimnul, kdyby v souvislosti se svým odchodem nepublikovala dlouhou esej v The New York Times. Podle jejího tvrzení dělá firma velkou chybu a její reklamní strategie údajně riskuje opakování stejných chyb, které před deseti lety udělal Facebook.

„Kdysi jsem věřila, že mohu pomoci lidem, kteří vyvíjejí umělou inteligenci, předvídat problémy, které by mohla způsobit,“ napsala Hitzig. „Tento týden se potvrdily mé obavy, že OpenAI zřejmě přestala klást otázky, na jejichž zodpovězení jsem se podílela.“ Hitzig neoznačila samotnou reklamu za nemorální, namísto toho argumentovala, že povaha dotčených údajů činí reklamy ChatGPT obzvláště riskantními. Uživatelé s chatbotem sdílejí své obavy týkající se zdraví, problémů ve vztazích a náboženského přesvědčení, což jsou velmi citlivá témata.
Také přímo poukázala na počátky Facebooku a připomněla, že tato sociální síť kdysi slíbila uživatelům kontrolu nad jejich daty a možnost hlasovat o změnách zásad. Varovala, že podobný vývoj by mohl nastat i u ChatGPT: „Věřím, že první verze reklam bude pravděpodobně tyto zásady dodržovat. Obávám se však, že následující verze již ne, protože společnost buduje ekonomický motor, který vytváří silné pobídky k porušování vlastních pravidel.“ Bez ohledu na debatu o tom, zda by chatboti s umělou inteligencí měli zobrazovat reklamy, dostupné zdroje ukazují, že personalizace reklam je ve výchozím stavu zapnutá. Pokud to tak zůstane, reklamy budou vybírány na základě informací z aktuálních a minulých chatových vláken.
Ve své eseji Hitzig poukázala na to, co nazvala „existujícím napětím v principech OpenAI“. Poznamenala, že zatímco společnost uvádí, že neoptimalizuje aktivitu uživatelů výhradně za účelem generování příjmů z reklamy, zprávy naznačují, že OpenAI již svého chatbota optimalizuje pro denní aktivní používání. Hitzig navrhla několik strukturálních alternativ – mezi nimi byly dotace podle vzoru fondu univerzálních služeb FCC, nezávislé dozorčí rady se závaznou pravomocí nad tím, jak se konverzační data používají v cílení reklam, a datové trusty nebo družstva, v nichž si uživatelé zachovávají kontrolu nad svými informacemi. Kudy se nakonec nejen OpenAI vydá, ale ukáže až budoucnost.
