Kempelenov inštitút inteligentných technológií (KInIT) uskutočnil výskumný projekt s názvom Spoločenské predsudky v slovenskej AI. Výskumníci skúmali rodové predsudky, ktoré možno pozorovať v správaní AI systémov pracujúcich so slovenčinou. Zistením výskumu je, že všetky skúmané AI systémy obsahujú istú formu neférového správania.
Umelá inteligencia sa stáva neodmysliteľnou súčasťou nášho každodenného života. Prichádzame s ňou do kontaktu pri používaní smartfónov, prehliadaní internetových stránok, vyhľadávaní informácií, práci s fotografiami, online nakupovaní, jazykových prekladačoch a podobne. Takéto systémy sú vytvorené na základe zozbieraných dát z online priestoru a tieto dáta odrážajú spoločnosť, v ktorej vznikali.
Cieľom výskumu bolo skúmať, ako veľmi sú rozšírené formy neférového správania v AI systémoch, ktoré pracujú so slovenčinou. Hlavným výsledkom projektu je zistenie, že všetkých jedenásť skúmaných AI systémov obsahuje určité formy stereotypného správania. V každom systéme výskumníci odhalili aspoň jedno, ktoré možno považovať za neférové. Príkladmi stereotypného správania sú nasledovné:
1.Chybovosť speech to text modelov
Nástroje umelej inteligencie, ktoré prepisujú hovorenú reč do písomnej majú konzistentne väčšiu chybovosť pri spracovaní ženských hlasov.
2. Stereotypný strojový preklad
Strojové prekladače z angličtiny do slovenčiny používajú generické maskulínum, ktoré ich robí menej použiteľným pre ženy. Navyše často prekladajú stereotypne. Dobrým príkladom je preklad frázy I am emotional, ktorú niektoré prekladače preložia ako Som emotívna, zatiaľ čo frázu I am rational preložia ako Som racionálny. Vo všeobecnosti prekladače preferujú mužský rod a do ženského prepínajú najmä vtedy, keď ide o stereotypné témy, ako starostlivosť o telo, vlasy, pleť, fyzickú krásu, starostlivosť o domácnosť či upratovanie. Prekladače preferujú ženský rod aj keď ide o sex či žiadostivosť. Pri tejto téme je možné vysvetlenie, že ženy sú v online priestore často sexualizované (napríklad na porno stránkach). Tento fakt sa preniesol aj do AI modelov.
3. Jazykové modely
Podobné správanie platí aj pri jazykových modeloch, ktoré sú základom mnohých AI aplikácií, ktoré ďalej pracujú s textom (napríklad chatboty či fact-checkingové aplikácie). Problémom je, že rodovo necitlivý jazyk v jazykových modeloch je následne prenesený aj do ďalších aplikácií. AI modely sa navzájom od seba učia a využívajú svoje výstupy, takže stereotypný jazyk a predsudky sa môžu ďalej šíriť.
Čo to znamená pre život mimo online priestoru?
Tieto výsledky poukazujú na to, že v existujúcich AI systémoch naozaj dochádza k rôznym formám predpojatého správania. Tieto rodovo necitlivé výsledky môžu ovplyvniť aj situácie mimo online sveta. Napríklad to môže viesť k situácii, keď AI systém, ktorý pomáha triediť životopisy v prijímacom procese do zamestnania môže hodnotiť mužské životopisy lepšie ako ženské alebo AI môže prispieť k neférovému vyhodnocovaniu dokumentov pri žiadosti o úvery.
Silnou stránkou výskumu bola jeho interdisciplinarita. Zapojili sa doň okrem expertov a expertiek na AI aj experti a expertky na etiku, rodovú rovnosť a prekladatelia a prekladateľky. Výskum prebiehal od novembra 2022 do októbra 2023 a bol spolufinancovaný Veľvyslanectvom USA na Slovensku.
Skúmané AI systémy:
Strojový preklad: Google Translate, DeepL, Amazon Translate, ChatGPTJazykové modely: SlovakBERT, mBERT, XLM (2 varianty)Speech-to-text: Whisper (2 varianty), MMS
PR: Michaela Lukovičová