AI modely si vymysleji mene nez lide, tvrdi sef Anthropicu

Petra Sasinova

Generalni reditel spolecnosti Anthropic to uvedl ve svem proslovu, v nemz mimo jine zduraznil, ze halucinace umele inteligence nepredstavuji prekazku na ceste firmy k AGI (Artificial General Intelligence, cesky obecna umela inteligence) - tedy systemum s inteligenci na urovni cloveka ci vyssi, pise web TechCrunch.

Obecnou umelou inteligenci by chtela spolecnost spustit uz v roce 2026. Prave Amodei je jednim z nejnadsenejsich lidru v oboru, pokud jde o vyhlidky na to, ze modely umele inteligence dosahnou AGI.

AGI bude dle Amodeia schopna ovladat jakykoli myslitelny software nebo hardware, vcetne prumyslovych stroju, a v podstate vykonavat vetsinu praci, ktere dnes delaji lide - ale lepe.

,,Verim, ze ani halucinovani umele inteligence neni prekazkou pro vytvoreni AGI. Navic mam podezreni, ze nase AI modely halucinuji mene nez lide," rekl Amodei v odpovedi na otazku serveru TechCrunch.

,,Moje zakladni predpoved je, ze biologie a medicina s vyuzitim umele inteligence nam umozni stlacit pokrok, ktereho by lidsti biologove dosahli v pristich 50 az 100 letech, do 5 az 10 let," dodal.

Halucinace jako velka prekazka pro dosazeni AGI

Jini predstavitele umele inteligence se ale domnivaji, ze halucinace predstavuji velkou prekazku pro dosazeni AGI. Napriklad podle generalniho reditele spolecnosti Google DeepMind Demise Hassabise maji dnesni AI modely prilis mnoho der a velke mnozstvi zrejmych otazek chapou spatne.

,,U chatbotu s umelou inteligenci muzete snadno behem nekolika minut najit zjevne nedostatky - nejakou vec ze stredoskolske matematiky, kterou neumi vyresit, nejakou zakladni hru, kterou neumi hrat," vysvetlil Hassabis.

,,Neni prilis obtizne tyto diry v systemu najit. Aby se neco mohlo nazyvat AGI, muselo by to podle me byt mnohem konzistentnejsi ve vsech oblastech," dodal.

Amodeiho tvrzeni je tak obtizne overit. Zejmena proto, ze vetsina srovnavacich testu halucinaci stavi modely umele inteligence proti sobe a tim padem nesrovnavaji modely s lidmi.

Podle webu TechCrunch se ale zda, ze urcite techniky pomahaji snizovat miru halucinaci -napriklad umozneni pristupu AI modelu k vyhledavani na webu. Nektere modely umele inteligence, jako napriklad GPT-4.5 spolecnosti OpenAI, tak maji v porovnani s prvnimi generacemi systemu vyrazne nizsi miru halucinaci v benchmarcich.

Zhorsovani halucinaci u pokrocilych modelu

Existuji vsak take dukazy, ze halucinovani u pokrocilych modelu umele inteligence se skutecne zhorsuje. Modely o3 a o4-mini spolecnosti OpenAI maji vyssi miru halucinaci nez modely predchozi generace a vyvojari vlastne nevedi proc.

Spolecnost OpenAI zjistila, ze model o3 halucinoval v odpovedich na 33 % otazek v testu PersonQA, coz je interni meritko spolecnosti pro mereni presnosti znalosti modelu o lidech, pise web TechCrunch v dalsim clanku.

To je zhruba dvojnasobek miry halucinaci oproti predchozim modelum spolecnosti OpenAI, o1 a o3-mini, ktere dosahly 16 %. Model o4-mini si v testu PersonQA vedl jeste hure - halucinoval ve 48 % pripadu.

Navic se ukazalo, ze model o3 ma tendenci vymyslet si akce, ktere provedl v procesu ziskavani odpovedi. V jednom z prikladu neziskova vyzkumna laborator Transluce zaznamenala tvrzeni modelu, ze spustil kod na MacBooku Pro 2021 mimo ChatGPT a pak zkopiroval cislo do sve odpovedi. Ackoli ma o3 pristup k nekterym nastrojum, takovou akci udelat nemuze.

,,Nase hypoteza spociva v tom, ze druh posilovaciho uceni pouzivany pro modely o-series muze zesilit problemy, ktere jsou obvykle zmirneny (ale ne zcela odstraneny) standardnimi posttreninkovymi procesy," uvedl Neil Chowdhury, vyzkumnik spolecnosti Transluce a byvaly zamestnanec OpenAI, v e-mailu pro TechCrunch.

Zda se tvrzeni generalniho reditele Daria Amodeie potvrdi, ukaze az cas. Jeho komentare vsak naznacuji, ze spolecnost Anthropic muze povazovat modely umele inteligence za AGI, nebo dokonce za inteligenci rovnocennou te lidske, prestoze stale vykazuji znamky halucinaci.