Umjetna inteligencija ih nije voljela
Godine 2018. novinar časopisa Wired sjetio se ove priče i istražio način na koji je Google riješio problem. Pokazalo se da tijekom tri godine Google nije napravio baš ništa. Servis Google slike više nije slao rasističke poruke, no nije niti prepoznavao gorile – ‘privremena zakrpa’ očito je još uvijek bila na snazi. Komentirajući ovo istraživanje, James Vincent je zaključio: „Nije jasno je li algoritam servisa Google slike ostao ograničen jer tvrtka nije uspjela riješiti problem, jer tvrtka nije željela uložiti resurse u rješenje problema, ili naprosto radi pretjeranog opreza. Jasno je da slučajevi poput ovoga, koji otkrivaju ograničenu kulturu Silicijske doline koja si je dala u zadatak izradu algoritama za čitav svijet, zaslužuju više pažnje od puke zakrpe.“
Godine 2021, dok pišem ovaj članak, čini se da je problem napokon riješen: servis Google slike uredno pretražuje i prikazuje slike gorila, a (za sada) nema novih prijava pogrešnog prepoznavanja. Međutim, u rujnu 2021 godine naslovnice časopisa posvećenih tehnologiji zatresao je novi skandal. Korisnike platforme Facebook, koji su pogledali video u kojem se nalaze crni muškarci, algoritam koji preporučuje slične sadržaje pitao je „žele li nastaviti gledati video zapise o primatima“ (BBC News 2021). Epilog ove posljednje priče još je nepoznat. No, indikativno je da su dva algoritma, neovisno razvijena u različitim tvrtkama, upala u istu vrstu problema. Usprkos tome što algoritmi nisu projektirani s namjerom da se ponašaju rasistički, njihovo ponašanje s vremenom je skrenulo u rasizam.
Ova priča opisuje probleme s besplatnim uslugama koje nisu namijenjene za ‘ozbiljan’ rad, ali slični se problemi pojavljuju i u poslovnom sektoru. Godine 2014. tvrtka Amazon odlučila je izraditi umjetnu inteligenciju koja će odabirati najbolje kandidate za posao temeljem ponuđenih životopisa. U fazi testiranja, uočeno je da sustav preferira muške kandidate. Nakon brojnih bezuspješnih pokušaja popravka, naposljetku su odlučili napustiti razvoj umjetne inteligencije (Dastin 2018). Ovaj neuspjeh zasigurno je neugodan, ali tvrtka Amazon barem je reagirala na vrijeme: pogreška je uočena u fazi testiranja, a šovinistički nastrojena umjetna inteligencija nikad nije imala priliku oštetiti neku stvarnu kandidatkinju za posao.
U novinama i stručnoj literaturi sve se češće pojavljuju primjeri u kojima su umjetne inteligencije koje sadrže pogreške ušle u upotrebu i svojim odlukama oštetile korisnike. U nekim slučajevima, kao što je primjer algoritamskog odlučivanja o pravu na socijalnu pomoć u Sjedinjenim Američkim Državama (Eubanks 2018), ove pogreške dovode do tragičnih posljedica. Stoga se potrebno zapitati: Zašto se događaju ove pogreške? I zašto ih je tako teško popraviti?
Koji su problemi s umjetnim inteligencijama?
Da bi odgovorili na ova pitanja, moramo se nakratko pozabaviti temeljnim principima rada ovih tehnologija. Većina tradicionalnih računalnih programa zahtijeva eksplicitne upute. Na primjer, kada želimo pomnožiti dva broja, kalkulatoru trebamo dati tri podatka: množenik, množitelj i računsku operaciju. Bez unošenja ovih podataka, kalkulator neće raditi. Međutim, programi u kojima se pojavljuju pogreške poput rasizma i šovinizma rade drugačije, i ‘razmišljaju’ sami bez primanja eksplicitnih uputa. Kako je to moguće?
Kako bi razvili ‘misleća’ računala, istraživači umjetne inteligencije razvili su koncept strojnog učenja. Strojno učenje započinje programiranjem algoritma: programa koji u sebi sadrži osnovne funkcije koje su potrebne za rad. Na primjer, želimo li izraditi algoritam koji prepoznaje lica, u njega ćemo unijeti osnovna pravila o tome kako čitati crte lica, boju očiju, itd.
Gotov se algoritam nadalje izlaže velikom broju podataka. Ti podaci, koji se danas često spominju pod nazivom Big Data, sastoje se od mnoštva relevantnih podataka. Primjerice, želimo li ‘naučiti’ naš algoritam da pravilno prepoznaje i označava lica, trebamo ga izložiti velikom broju fotografija s licima koja su već prepoznata i označena.
Suočen s novim problemom algoritam primjenjuje naučeno i nudi vlastita rješenja. U našem primjeru: suočen s novom fotografijom lica, sustav ga samostalno kategorizira i označava (muško-žensko, mlado-staro itd.).
Strojno učenje definira se kao „znanost koja tjera računala na rad bez eksplicitnog programiranja“ (Ng 2018). Strojno učenje temelji se na ulaznim podacima i ‘pravilima ponašanja’ odnosno algoritmima. Kao što ćemo vidjeti, oba ova temelja su problematična.
Podaci su problematični jer ih je potrebno mnogo, a u prikupljanju mnoštva podataka može doći do različitih pogrešaka. Dodatno, prikupljanje podataka daleko je od neutralne aktivnosti. Prema Chrisu Jonesu, „kompleksni sustavi proizvodnje u reprezentacije podataka su-konstituiraju sustave koje pokušavaju opisati, i u tom procesu, često ugrađuju, repliciraju, ili pojačavaju ranije stavove i predrasude“.
Na primjer, pitanja postavljena u popisu stanovništva ne pokazuju samo koliko stanovnika ima vodokotliće, a koliko se stanovnika izjašnjava kao ateisti – ova pitanja također pokazuju prioritete, odnosno interese, onoga tko postavlja pitanja. U tom kontekstu, čini se da nikoga ne zanima koliko Hrvata kod kuće ima pristup na internet i/ili svoje računalo.
Takvi, manje ili više nesavršeni podaci, obrađuju se putem algoritama. Ovdje je važno istaknuti da je rad sustava temeljenog na strojnom učenju nedostupan čovjeku. Programer ima uvid u izvorni programski kod algoritma i ima pristup podacima na kojima ‘uči’ umjetna inteligencija. No umjetne inteligencije procesuiraju informacije brže od čovjeka, i sposobne su procesuirati veće količine informacija od čovjeka. Stoga, točan način ‘razmišljanja’ neke umjetne inteligencije, odnosno točan put do ponuđenog rješenja, čovjeku ostaje nedostupan.
Revizija algoritama
Problematična ponašanja umjetnih inteligencija poput šovinizma, rasizma, itd., ne daju se lako ispraviti. Google je bio prisiljen promijeniti ‘grubu silu’ i isključiti riječ gorila iz tražilice slika, a Amazon je napustio izradu umjetne inteligencije za odabir kandidata za posao. Dodatno, ove umjetne inteligencije barem su ‘uhvaćene na djelu’. Koliko umjetnih inteligencija danas koristimo, koje se ponašaju pristrano, a bez da je to itko otkrio?
Rad umjetnih inteligencija podosta je nepredvidiv. Neke umjetne inteligencije poput Amazonovog softvera za odabir kandidata za posao pokažu pogreške u fazi testiranja, no neke umjetne inteligencije poput servisa Google slike mogu razviti pogrešna ponašanja nakon godina ispravnog rada. Suočena s nemogućnošću rješavanja problema na njegovu ishodištu, Jessi Hempel (2018) iz časopisa Wired podržava novi trend audita algoritma.
Audit algoritma funkcionira na isti način kao financijska revizija u javnim poduzećima: nepristrani stručnjaci testiraju rad algoritma, i prijavljuju eventualne nedostatke. Audit algoritma u teoriji zvuči dobro, no u praksi se suočava s problemom: prisjetimo se, točan način ‘razmišljanja’ neke umjetne inteligencije, odnosno točan put do ponuđenog rješenja, čovjeku je nedostupan. Uviđajući ove nedostatke, Hempel (2018) zaključuje: „Audit algoritma su dječji koraci prema transparentnijoj budućnosti podataka: ako ne možemo ukloniti sve pristranosti u radu algoritama, barem trebamo ukloniti sve pristranosti koje uspijemo pronaći’.
Što odgoj i obrazovanje imaju s tim?
Radom javnih ustanova poput CARNET-a, javnih usluga poput sustava e-Građani, itd., prikuplja se sve više podataka o hrvatskim građanima. U suvremenom odgoju i obrazovanju koristi se sve više sustava građenih na umjetnim inteligencijama usporedivim s onima u servisima Google slike i Amazon. Uspjeh naših učenika sve se češće uspoređuje s uspjehom učenika diljem svijeta korištenjem brojnih standardiziranih testova. Međutim, Cormac O’Keefe (2017) pokazuje da „digitalne provjere znanja na velikoj skali poput PIAAC-a ne proizvode samo podatke o sposobnosti, nego još važnije, one ‘proizvode svoj vlastiti koncept sposobnosti’“.
Iz dugogodišnjeg iskustva u radu na digitalizaciji škola, odgovorno tvrdim da su svi izravno i neizravno uključeni u proces odgoja i obrazovanja: djelatnici u školama, javnim ustanovama i agencijama i proizvođači obrazovnih tehnologija – u potpunosti dobronamjerni. Svi zajedno težimo prema plemenitim idealima poput izvrsnosti i jednakosti u mogućnostima; još nikad nisam sreo osobu koja bi namjerno proizvela sustav koji diskriminira neku grupu učenika.
No, u svijetu umjetnih inteligencija, dobra namjera ponekad nije dovoljna. Ne kaže se bezveze: put do pakla popločen je najboljim namjerama. U današnje vrijeme, stoga, naša je dužnost posvetiti dužnu pažnju problemima povezanim s uporabom velikih podataka, algoritama, i umjetnih inteligencija u odgoju i obrazovanju. U ovim naporima nismo sami, a u sljedećih nekoliko članaka detaljnije ću prikazati probleme i rješenja obrađena u recentnim istraživanjima.
Literatura
BBC News (2021). Facebook apology as AI labels black men ‘primates’. Preuzeto 11. listopada 2021. sa https://www.bbc.com/news/technology-58462511.
Dastin, J. (2018). Amazon scraps secret AI recruiting tool that showed bias against women. Preuzeto 11. listopada 2021. sa https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G.
Eubanks, V. (2018). Automating inequality. How high-tech tools profile, police, and punish the poor. New York: St. Martin’s Press.
Hempel, J. (2018). Want to prove your business is fair? Audit your algorithm. Wired, 5 September. Preuzeto 11. listopada 2021. sa https://www.wired.com/story/want-to-prove-your-business-is-fair-audit-your-algorithm/.
Jones, C. (2018). Experience and Networked Learning. In N. Bonderup Dohn; S. Cranmer; J.A. Sime; M. de Laat & T. Ryberg (Eds.), Networked Learning: Reflections and Challenges (pp. 39–56). Springer International.
Kasperkevic, J. (2015). Google says sorry for racist auto-tag in photo app. Preuzeto 11. listopada 2021. sa https://www.theguardian.com/technology/2015/jul/01/google-sorry-racist-auto-tag-photo-app.
O’Keeffe, C. (2017). Economizing education: Assessment algorithms and calculative agencies. E-Learning and Digital Media, 14(3), 123–137. https://doi.org/ 10.1177/2042753017732503.
Vincent, J. (2018). Google ‘fixed’ its racist algorithm by removing gorillas from its image-labeling tech. Preuzeto 11. listopada 2021. sa https://www.theverge.com/2018/1/12/16882408/google-racist-gorillas-photo-recognition-algorithm-ai.