prodaja@stozacibrid.com hr@hardtechnique.com vjeko.kovacicek@coolintunit.com info@tehnikhard.net mail@coolintunit.com webmaster@stozacibrid.com admin@hardtechnique.com tehnikhard.net web.stozacibrid.com www.coolintunit.com

Etički izazovi umjetne inteligencije

Korištenje umjetne inteligencije u obrazovanju praćeno je nizom etičkih problema, kao što su pitanja privatnosti i sigurnosti, potencijalne pristranosti u algoritmima te mogućnost zamjene učitelja automatizacijom procesa poučavanja.

Stoga je važno osigurati da se umjetna inteligencija na odgovoran i etičan način koristi u obrazovnim okruženjima.

Ovim poglavljem [iz gore navedenog priručnika, op. ur.] želimo podići razinu osviještenosti o rizicima povezanima s umjetnom inteligencijom, potaknuti kritičke poglede na umjetnu inteligenciju te potaknuti uravnotežena promišljanja o konkretnim prednostima i mogućnostima koje donosi umjetna inteligencija, kao što je predloženo u UNICEF-ovom izvještaju “Perspektive adolescenata o umjetnoj inteligenciji” (Adolescent Perspectives on Artificial Intelligence). UNESCO u “Preporukama za umjetnu inteligenciju” (UNESCO Recommendation on the Ethics of Artificial Intelligence, 2021) ističe da umjetna inteligencija pokreće nove vrste etičkih pitanja, uključujući utjecaj umjetne inteligencije na obrazovanje, čime se stvaraju novi etički izazovi zbog potencijala algoritama umjetne inteligencije da pogoršaju već postojeće pristranosti i diskriminacije. Prepoznavanje obrazaca i automatiziranje odluka karakteristični su postupci umjetne inteligencije koji u procesu razvoja sustava umjetne inteligencije mogu dovesti do pristranosti u načinu na koji se obrasci otkrivaju te nepravednosti u načinu na koji se odluke automatiziraju.

Nekoliko primjera etičkih izazova 

Pojasnimo neke od etičkih izazova umjetne inteligencije koji su već zamijećeni i dokumentirani u raznim istraživanjima i člancima, a i prepoznati kao rizici u UNICEF-ovom izvještaju. Umjetna inteligencija nije čovjek. Iako odgovori koje dobivamo ili razgovori koje vodimo sa sustavima umjetne inteligencije mogu stvoriti iluziju komunikacije sa živom osobom, na drugoj strani je računalo koje ne može osjećati, nije empatično, a nema ni inteligenciju kao što je imaju ljudi.

Pristranost (bias) je tendencija prema određenom stavu ili mišljenju, često bez obzira na dokaze ili argumente. Može biti inherentna predispozicija algoritma ili modela da donosi pogrešne ili neobjektivne zaključke. Primjerice, odbacivanje ženskih kandidatkinja za neki posao jer su prijašnji zaposlenici bili većinom muškarci pa baza podataka koja je korištena za treniranje umjetne inteligencije sadrži većinom podatke o muškim zaposlenicima. Pristranost je zamijećena i u programima koji pomoću umjetne inteligencije stvaraju slike, primjerice direktori su uvijek prikazani kao muške osobe, a čistači kao ženske osobe.

Zaštita podataka je proces osiguravanja da se podaci čuvaju na siguran način kako bi se spriječilo neovlašteno pristupanje ili zloupotreba. Prilikom stvaranja programa umjetne inteligencije koriste se velike baze podataka iz raznih izvora tako da postoji mogućnost iskorištavanja osobnih podataka dobivenih na nelegalan način (prikupljeni su i korišteni bez znanja i suglasnosti osoba na koje se odnose). Primjerice, dijeljenjem učeničkih radova ili podataka prikupljenih istraživanjem, tj. stavljanjem tuđih podataka i informacija u sustave umjetne inteligencije možemo prekršiti zakon o zaštiti osobnih podataka. Također, postoji mogućnost da bez dopuštenja dijelimo podatke koje sustav umjetne inteligencije može iskoristiti za daljnji razvoj pa se tako ti sadržaji mogu pojaviti u odgovorima koje sustav daje potpuno nevezano za naš rad. Uspješnost sustava umjetne inteligencije u analiziranju i vizualizaciji podataka može nas potaknuti da nesmotreno u sustav unesemo podatke koje ne bismo smjeli, primjerice prepoznatljive karakteristike naših učenika, poslovne tajne ili podatke koje smo prikupili uz dopuštenje koje ne obuhvaća korištenje umjetne inteligencije.

Podatkofikacija (datification) se odnosi na način na koji se sve više aspekata naših života, aktivnosti i okoline pretvara u digitalne podatke te na proces preoblikovanja podataka u format prikladan za daljnju analizu. Računalni sustavi rade s podacima u digitalnom obliku pa je pitanje mogu li se svi aspekti naših života preoblikovati u podatke te na koji način se ti podaci dalje koriste za donošenje odluka u sustavima umjetne inteligencije. Primjerice, način na koji umjetna inteligencija prepoznaje osjećaje.

Sustavi umjetne inteligencije često se koriste za predviđanja (predictions) budućih rezultata ili događanja, primjerice uspjeha na ispitima, napuštanja školovanja, rizika oboljenja itd. Pouzdanost i točnost takvih predviđanja ovisi o algoritmima i skupovima podataka na kojima su sustavi umjetne inteligencije trenirani. Primjerice, ako su predviđanja osmišljena na bazi podataka o učenicima iz američkih škola, vjerojatno taj sustav neće raditi dobra predviđanja za učenike iz hrvatskih škola.

Personalizacija i prilagođavanje (adaptivity) učestali su pojmovi kojima se opisuju mogućnosti sustava umjetne inteligencije, a koji se odnose na mogućnost sustava da prati korisničke podatke i postupke (primjerice, odabir sadržaja, točnost rješavanja zadataka i sl.) te prema prikupljenim podacima predlaže obrazovne sadržaje i prilagođava razinu složenosti zadataka. Na taj način stvara se rizik zatvaranja u informacijski mjehurić u kojem nam sustav servira samo one sadržaje koji su usklađeni s našim dotadašnjim postupcima te na taj način ograničava slobodan odabir i istraživanje. Prilagođavanje složenosti zadataka koje učenici dobivaju može voditi prema blokadi napredovanja jer učenici ne dobivaju priliku rješavati teže zadatke koji su izvan okvira koji sustav umjetne inteligencije prepoznaje.

Umjetna inteligencija griješi (halucinira). Sustavi umjetne inteligencije osmišljeni su na modelima vjerojatnosti i statistike te kao takvi daju odgovore koji su najvjerojatniji za dani kontekst. Stoga se može dogoditi da, u nedostatku poznavanja točnog odgovora, sustav da odgovor koji je potpuno netočan te čak i tvrdi kako je upravo taj odgovor točan. Primjerice, učestale su greške iz matematike, hrvatske povijesti itd. Ako neko područje nije pokriveno skupom podataka na kojem je sustav treniran, pogreške će biti učestalije. Imajte na umu da je većina današnjih sustava umjetne inteligencije trenirana na sadržajima s engleskog govornog područja pa sustavi griješe kad se radi o sadržajima koji su dostupni samo na drugim jezicima.

Umjetno stvorene lažne slike i videozapisi su digitalno manipulirani medijski sadržaji koji su namjerno stvoreni kako bi prevarili ili obmanuli gledatelje da vjeruju kako su stvarni. Umjetna inteligencija se pokazuje kao dobar alat za stvaranje uvjerljivih krivotvorina koje se sve češće koriste za dovođenje ljudi u zablude. Primjerice, korištenje slika s društvenih mreža za stvaranje slika razodjevene osobe ili seksualno eksplicitnih sadržaja koji se koriste za elektroničko nasilje i ucjenjivanje. Sustavi umjetne inteligencije vrlo su se brzo počeli koristiti za stvaranje lažnih profila i objava na društvenim mrežama s ciljem vabljenja i iskorištavanja djece i mladih.

Većina sustava umjetne inteligencije koji su trenutačno dostupni nije osmišljena za djecu i mlade. Dobna granica za njihovo korištenje je najčešće 18 godina, u nekim zemljama 16, a u posebnim slučajevima uz pisani pristanak roditelja 13 godina. No sigurnosni sustavi tih programa nisu postavljeni dovoljno dobro, tako da maloljetnici često dolaze u priliku koristiti sustave umjetne inteligencije bez da su dovoljno zaštićeni ili informirani te se tako izlažu raznim rizicima i neprimjerenim sadržajima. Još uvijek nisu postavljene jasne granice i ograničenja kako bi se omogućilo sigurno korištenje sustava umjetne inteligencije od strane djece i mladih.

 

Tekst je u potpunosti prenesen s mrežnih stranica Medijska pismenost – abeceda za 21. stoljeće.