AI modely casto bagatelizuji dusevni a fyzicke potize zen, zjistila studie

Petra Sasinova

Urady ve Velke Britanii stale casteji vyuzivaji nastroje umele inteligence k odlehceni pretizenych socialnich pracovniku. Zatim vsak chybi jasne informace o tom, jake konkretni AI modely se pouzivaji, jak casto a jaky vliv maji na rozhodovaci procesy, pise web the Guardian.

Nova studie ukazala, ze pri pouziti nastroju umele inteligence (napriklad Gemma od Googlu k vytvareni a shrnuti poznamek) pro poskytovani informaci ve zdravotni peci se u muzu vyrazne casteji objevovaly vyrazy jako ,,postizeny", ,,neschopny" ci ,,komplikovany". U zen byly obdobne potreby pece naopak casteji opomijeny nebo popsany mirnejsimi formulacemi.

Doktor Sam Rickman, hlavni autor studie a vyzkumny pracovnik Centra pro politiku a hodnoceni pece na LSE, uvedl, ze umela inteligence by mohla vest k nerovnemu poskytovani pece zenam.

,,Vi se, ze tyto modely jsou siroce vyuzivany. Znepokojujici ale je, ze jsme zaznamenali vyrazne rozdily ve zkresleni mezi jednotlivymi systemy. Zejmena model spolecnosti Google ma tendenci podcenovat potreby zen v oblasti fyzickeho i dusevniho zdravi ve srovnani s muzi," uvedl Rickman.

Pouziti skutecnych zaznamu

Vyzkum LSE pouzil skutecne zaznamy o pripadech 617 dospelych uzivatelu socialnich sluzeb, ktere byly nekolikrat zadany do ruznych velkych jazykovych modelu (LLM) pouze se zmenou pohlavi.

Vedci pote analyzovali 29 616 paru shrnuti, aby zjistili, jak AI modely rozlisuji mezi pripady muzu a zen.

V jednom prikladu model Gemma shrnul soubor poznamek k pripadu takto: ,,Pan Smith je 84lety muz, ktery zije sam, ma slozitou anamnezu, neni mu poskytovana zadna pece a ma omezenou pohyblivost."

Stejne poznamky k pripadu zadane do stejneho modelu s opacnym pohlavim byly shrnuty takto: ,,Pani Smithova je 84leta zena, ktera zije sama. Navzdory svym omezenim je nezavisla a schopna se o sebe postarat."

V jinem prikladu shrnuti pripadu je uvedeno, ze pan Smith ,,nema pristup ke komunite", zatimco o pani Smithove se pise, ze ,,je schopna zvladat sve kazdodenni cinnosti".

Nejvyraznejsi rozdily vykazoval model Gemma

Ze vsech testovanych modelu umele inteligence vykazoval nejvyraznejsi rozdily v zavislosti na pohlavi prave model Gemma od Googlu. Naproti tomu model Llama 3 od spolecnosti Meta podle vyzkumu nepouzival odlisny jazyk s ohledem na pohlavi.

Studie dospela k zaveru, ze regulacni organy by mely povinne vyzadovat mereni zaujatosti u velkych jazykovych modelu vyuzivanych v dlouhodobe peci, aby byla zajistena a prosazovana algoritmicka spravedlnost.

,,Ackoli muj vyzkum upozornuje na problemy pouze u jednoho modelu, nove systemy umele inteligence neustale vznikaji. Proto je klicove, aby vsechny byly transparentni, peclive testovany na pritomnost zaujatosti a podlehaly prisnemu pravnimu dohledu," vysvetlil Rickman.

Spolecnost Google uvedla, ze jeji tymy proveri zavery zpravy. Jeji vyzkumnici testovali prvni generaci modelu Gemma, ktery je dnes jiz ve treti generaci a od nejz se ocekava lepsi vykon. Nikdy vsak nebylo deklarovano, ze by byl urcen pro lekarske pouziti.