TOPlist

Microsoft vytvořil praktickou umělou inteligenci, sebe sama dokáže opravovat

Bill Gates před budovou Microsoftu (ilustrační obrázek)
  • Nová funkce Correction zvyšuje přesnost AI obsahu
  • Umí totiž automaticky identifikovat a opravovat faktické chyby
  • Stoprocentně spolehlivá ale není, byť jde o krok správným směrem

Microsoft představil novou funkci s názvem Correction, jejímž cílem je zvýšit přesnost obsahu generovaného umělou inteligencí automatickou identifikací a opravou faktických chyb. Nástroj, který je součástí rozhraní API Azure AI Content Safety, odhaluje nepřesnosti ve výstupech umělé inteligence jejich porovnáním s ověřenými zdroji, jako jsou třeba nahrané dokumenty, a opravuje text dříve, než jej uvidí uživatel.

Když AI opravuje AI

Funkce, která je v současné době k dispozici ve formě předběžného přístupu, má za cíl výrazně zvýšit spolehlivost umělé inteligence. A to zejména pro odvětví, jako je například medicína, kde je přesnost klíčová. Ostatně halucinace jsou pořád jedním z velkých problémů prakticky jakéhokoliv velkého jazykového modelu, a jakkoliv se s tím firmám daří bojovat, zcela vymýtit všechny halucinace se zatím nikomu nepodařilo.

Systém Correction využívá malé i velké jazykové modely ke vzájemné kontrole textu generovaného AI s podkladovými dokumenty. Podle Microsoftu nástroj sice pomáhá sladit výstupy AI s faktickými údaji, ale ani on nezaručuje absolutní přesnost. „Detekce podloženosti neřeší přesnost, ale pomáhá sladit generativní výstupy AI s podkladovými dokumenty,“ uvedl mluvčí Microsoftu pro TechCrunch.

Nedostižná dokonalost

Halucinace umělé inteligence, tedy případy, kdy AI generuje nesprávné nebo zavádějící informace, jsou dobře známým problémem a nástroj Microsoft Correction se jej snaží řešit. Odborníci jsou ale i navzdory novému nástroji skeptičtí. Os Keyes, výzkumník z Washingtonské univerzity, poznamenal, že halucinace jsou fungování modelů AI vlastní. „Snažit se odstranit halucinace z generativní umělé inteligence je jako snažit se odstranit vodík z vody,“ řekl Keyes a varoval, že Correction sice může omezit některé chyby, ale může také přinést nové problémy.

S halucinacemi se perou všichni, ostatně podobná řešení představili i další velcí hráči v oboru, například Google. Platforma Vertex AI od Googlu nabízí funkci pro „uzemnění“ modelů AI pomocí křížového porovnání výstupů se soubory dat třetích stran, interními daty nebo vyhledávačem Google. Ale ani tyto systémy nejsou stoprocentně spolehlivé.

Poptávka po přesnosti

Kromě technických obav visí otazníky také nad obchodním modelem, protože jakkoliv je Correction ve fázi předběžného přístupu zdarma, používání systému detekce uzemnění je po překročení určitého limitu zpoplatněno. Je pak otázkou, kdy budou podobné technologie automatickou součástí všech velkých jazykových modelů a budeme je brát jako samozřejmost.

Jedno je ale jisté – s tím, jak se nástroje umělé inteligence dostávají stále více do všemožných odvětví, poroste i tlak na zvyšování jejich přesnosti a spolehlivosti. Correction tak může být v současné chvíli krok správným směrem, ale na definitivní řešení to zatím nevypadá.

Autor článku Adam Homola
Adam Homola
Nové technologie mě fascinují už od útlého věku. K dlouhodobému zájmu o hry a herní průmysl se mi postupem času přirozeně přidal i hardware, software, internetové služby a od roku 2022 i umělá inteligence.

Kapitoly článku