Reid Blackman, po vokaciji profesor filozofije, upustio se u oblikovanje pristupa nužnog za uspostavu i održavanje etički prihvatljivog djelovanja sustava umjetne inteligencije. Prema tržišnoj prihvaćenosti svojih ideja, čini se da to radi dobro.

Nakon univerzitetske karijere na Colgate univerzitetu i Univerzitetu sjeverne Karoline, krenuo je u poduzetničku avanturu u okviru vlastite tvrtke Virtue, nudeći konzultantske usluge na području etičkih rizika u primjeni umjetne inteligencije. Reid Blackman se često se pojavljuje u svojstvu predavača na svjetskim korporacijskim i znanstvenim događajima, a angažiran je i kao savjetnik Kanadske vlade za poslove AI regulative.

Filozofska pozadina i konkretni, konzultantski zadaci čiju uspješnost provjerava tržište – dobra su preporuka knjizi Ethical Machines, koju je Reid Blackman objavio prije nekoliko mjeseci i prezentirao u vrlo zanimljivom webinaru Harvard Business Reviewa, emitiranom u studenom prošle godine.

Autorov pristup etici u primjeni je vrlo pragmatičan i odstupa od onog kojeg nalazimo u filozofskim teorijama, iako se na njih oslanja. Autor, naime, odbacuje uobičajene ideje o nemogućnosti primjene etike u konkretnoj poslovnoj primjeni zbog subjektivnosti te ju promatra praktično i poslovno primjenjivo.

U svom pristupu, Reid Blackman se usredotočuje na konstruiranje metode za izbjegavanje konkretnih, poslovno loših i uglavnom nenamjernih efekata primjene umjetne inteligencije. Uz štetu koje neetično poslovanje može uzrokovati korisnicima, autor ističe reputacijske rizike koji su prisutni bez obzira na uspješnost primjene, moguće kršenje propisanih ili prešutno priznatih normi, kao i narušavanje ili izravno kršenje zakonske regulative.

Da bi se implementacija sustava umjetne inteligencije uspješno nosila s poslovnim rizicima, autor se primarno osvrće na tri glavna prigovora funkcioniranju umjetne inteligencije. Radi se o ugrađenoj pristranosti koja je rezultat neuravnoteženosti podataka, nesagledivosti algoritama te narušavaju privatnosti. Iako postoje i drugi rizici, analizom ovih najčešće prisutnih moguće je steći nužan uvid za samostalno produbljivanje teme.

Glavni pristup analizi i glavna teza koju promovira autor je suzbijanje rizika vođenjem postupka na dva kolosijeka – s jedne strane treba uložiti napor u dobro razumijevanje podataka koji se koriste u postupku inteligentnog strojnog zaključivanja, a s druge strane je potrebno planski uspostavljati i unaprjeđivati organizaciju koja će biti u stanju dovoljno rano prepoznati prijeteće rizike koje postojeći podaci i primijenjeni postupci otvaraju pa onemogućiti njihovu manifestaciju ili eskalaciju.

Da bi se teorija demistificirala te da bi se rizici bolje razumjeli, autor nudi kratki uvod u etiku s pojašnjenjem što se od filozofskog pristupa treba i može očekivati u praktičnoj primjeni. Autor odmah odbacuje ideju općih i univerzalnih etičkih principa – poput konzekvencijalizma ili deontologije – jer se oni ne mogu objektivno preslikati u realne i vrlo konkretne situacije.

Upravo nerealna težnja univerzalnoj primjeni općih filozofskih ideja vodi u skepticizam, najčešće formuliran kao etički subjektivizam – koji tvrdi da su etički principi neprimjenjivi zbog izrazite subjektivnosti. Naime, različite filozofske škole nisu suglasne o kriteriju etičnosti. O etičnosti nema znanstvenog stava, a ne postoji niti vrhovni autoritet koji bi definirao etično ponašanje. Sve su to prepreka objektivnoj etičkoj interpretaciji, što bi značilo da nema upotrebljivog mjerila o tome što je ispravno, a što pogrešno.

S druge strane, postoje ideje o pragmatičnoj zamjeni etičkog djelovanja s djelovanjem u skladu s pozitivnim korisničkim dojmom (percepcijom). To bi značio da treba težiti onim vrijednostima koje korisnik doživljava kao pozitivne, odnosno da treba izbjegavati sve ono što korisnik doživljava kao negativno. Nažalost, iako djeluje praktično, no taj pristup nije provediv jer korisnici redovito nemaju stav prema situacijama koje ne poznaju ili za njih ne znaju, a ishod njegove percepcije je nužan daleko prije nego se takve situacije pojave, već u procesu pripreme podataka ili podešavanja algoritama umjetne inteligencije.

Univerzalne etičke norme su potrebne, tvrdi autor, ali se ne mogu primjenjivati u općem slučaju – već isključivo u konkretnim situacijama.

Da bi to dodatno pojasnio, autor daje opsežan pregled etičkih problema koji proizlaze iz tri osnovna ograničenja sustava umjetne inteligencije: pristranih podataka, nerazumijevanje primijenjenih algoritama te ugrožavanje privatnosti.

Sva tri ograničenja su kompleksna. Primjerice, pristranost podataka je realnost, pa je diskriminacija prirodno utkana u informacije koje prikupljamo i na temelju kojih sustavi umjetne inteligencije procjenjuju okruženje u kojem djeluju te na temelju kojih donose odluke (real world discrimination). Problem pristranosti podataka proizlazi i iz korištenja nedovoljne količine podataka, odnosno njihove nereprezentativnosti (under sampling) te iz korištenja zamjenskih podataka zbog nedostatka originalnih (proxy data) u fazi pripreme sustava. Konkretnije, primjer pristranosti zamjenskih podataka je korištenje informacija o uhapšenima ili okrivljenima, kao zamjene za podatke o stvarnim prekršiteljima zakona.

Osim problema pristranosti koji započinje već u fazi prikupljanja testnih podataka, problem pristranosti se proširuje u fazi testiranja te odabira testnih scenarija. Najčešće se radi o pojednostavljenju kompleksnih okolnosti (simplification) pa neke bitne okolnosti zbog složenosti ili nerazumijevanja ne ulaze u proces analize. Autor navodi primjer etničke pripadnosti koja je neopravdano ispuštena iz sustava za analizu rizika od dijabetesa. Slično se događa i kod usporedbe rezultata obrade pa se može dogoditi da se rezultati uspoređuju s pogrešnim uzorom (benchmark-testing bias). Konačno, sofisticirana pristranost koja proizlazi iz različitih vrijednosti pojedinih parametara za različite grupe podataka unutar iste kategorije (objective – function bias). Za to je dobar primjer negativna ocjena trajanja preostalog životnog vijeka čovjeka crne boje kože radi procjene isplativosti transplantacije organa, ne uzimajući u obzir da crnačka populacija u prosjeku živi kraće od ljudi bijele boje kože. Uz takav algoritam prednost pri transplantacijama bi uvijek bila na strani bijelaca.

Da bi se izbjegli rizici koji proizlaze iz pristranih podataka – kako u fazi prikupljanja, tako i u fazi učenja i testiranja sustava umjetne inteligencija, potrebno je uspostaviti organizacijsku strukturu koja će ove probleme uočiti i spriječiti prije realizacije i implementacije sustava.

Najprije, potrebno je angažirati jednog ili više eksperata koji će razumjeti odnos između etičkih, pravnih i poslovnih zahtjeva unutar organizacije koja razvija i primjenjuje sustav umjetne inteligencije. Potrebno je, dakle, razumjeti poslovanje – pa onda zaključiti koji su konkretni rizici povezani s podacima kojima se u procesu barata. Između prepoznatih karakterističnih poslovnih situacija sigurno ima i onih o kojima ne treba voditi računa jer ne predstavljaju stvaran rizik, ali isto tako ima i onih kojima se treba posebno baviti. Na primjer, jedno od pitanja na koje bi trebali odgovoriti eksperti je treba li Netflix brinuti o mehanizmu filmske preporuke – radi li se o postupku koji nosi poslovne rizike, koji su i treba li ih sprječavati.

Osim stručnjaka za definiranje glavnih etičkih problema vezanih uz poslovne procese i podatke koji taj proces podržavaju, nužno je uspostaviti grupu eksperata koji će predložiti strategiju uravnoteženja podataka radi kontrolirane i planske minimizacije rizika. Naime, podatke treba uravnotežiti prema očekivanim poslovnim situacijama – jer ne postoji univerzalni postupak koji bi sve podatke pripremio za univerzalno uklanjanje svih rizika. Zbog toga autor naglašava da je u svim fazama etičke analiza nužno poznavanje poslovnih procesa, zakonske regulative i podataka.

Jedno od važnih pravila kojeg se treba držati u pripremi uvođenja sustava umjetne inteligencije i njegovom etičkom usklađivanju je pravovremeni početak procesa uravnoteženja podataka. On bi morao započeti prije definiranja izvora podataka, a svakako prije početka njihovog prikupljanja i prije definiranja modela učenja (trening) sustava umjetne inteligencije. Razlog je samorazumljiv – mnogo je teže naknadno ispravljanje ponašanja koje je usklađeno s pogrešno odabranim podacima, nego njihovo pravovremeno uravnoteženje.

Osim toga, ne treba zaboraviti na potrebu sudjelovanja pravnih stručnjaka u procjeni etičke primjenjivosti podataka jer je potrebno voditi računa o ugrađenoj kulturološkoj pristranosti pa bi uravnoteženje takvih, često vrlo osjetljivih podataka, moglo biti u sukobu s anti-diskriminatornim dijelovima zakonske regulative. U tom slučaju se postavlja pravno pitanje – kako osjetljive podatke uravnotežiti bez narušavanja odredbi zakona koje inzistiraju na jednakosti – a koja bi u konkretnim slučajevima vodila do pristranih odluka sustava umjetne inteligencije.

U raspravama koje ističu prepreke primjeni sustava inteligentnog odlučivanja, osim pristranosti podataka, često se ističe nesagledivost metode odlučivanja (explainability). Kako se radi o vrlo sofisticiranim, samoučećim računalnim algoritmima – čovjek ih nije u stanju logički pratiti pa su ishodi strojne analize teško provjerivi.

Autor knjige se slaže da problem postoji, ali je on daleko teži kad se promatra u općem slučaju, nego kad ga se analizira u konkretnim slučajevima poslovne primjene. Naime, ne treba težiti općoj, idealnoj razumljivosti načina djelovanja sustava umjetne inteligencije, već se treba zapitati u kojem slučajevima je objašnjenje potrebno i koje objašnjenje je dovoljno dobro.

Najprije, autor pojašnjava da objašnjenje ima svoju racionalnu – ljudsku komponentu, te računalnu komponentu. Ova prva se odnosi na objašnjenje kriterija koji su izabrani za procjenu podataka i donošenje odluka, dok se računalna komponenta objašnjenja odnosi na pojašnjavanje općih (globalnih) pravila koji se primjenjuju u algoritmu procjene te njihove primjene (lokalizacija) na konkretan slučaj koji treba razjasniti.

Ovako postavljen problem diktira organizaciju koja podupire mogućnost formulacije poslovno racionalnih objašnjenja, kod kojih je moguće slijediti hijerarhiju algoritamskih odluka.

Za to je potrebno odrediti jednu ili više osoba koje mogu za svaki ranije definiran etički osjetljiv slučaj odluke sustava umjetne inteligencije definirati koja vrsta objašnjenja je potrebna (racionalno, strojno globalno, lokalno ili oboje). Pri tome treba imati u vidu razlog zbog kojeg je objašnjenje nužno. Najčešće su to osjećaj narušenog poštovanja prema korisniku sustava, opće razumijevanje pravila po kojem sustav funkcionira te objašnjenje koje bi omogućile korekciju ponašanja radi promjene ishoda.

U situacijama kad je postoji potreba za općim (globalnim) računalnim objašnjenjem prema kojem se procjena podataka provodi, potrebna je ekspertiza koja će pojasniti pravednost pravila. Karakteristična situacija za ovu vrstu objašnjenja može se pronaći u primjenu sustava umjetne inteligencije u medicini. Naime, za ovakvim pojašnjenjima se poseže u slučajevima osjećaja narušenog poštovanja, kad korisnik želi znati nešto više o načinu kako je njegova situacija analizirana kako bi procijenio što mu je dalje za činiti. Objašnjenje je još nužnije u slučaju kad je ishod analize čudan ili kad želi procijeniti ispravnost i primjenjivost ishoda.

U postupku određivanja vrste objašnjenja nužno je mišljenje korisnika. Zbog toga unutar organizacije treba biti predviđena funkcija prikupljanja i obrade stavova korisnika prema vrsti i širini zadovoljavajućih, dobrih objašnjenja. Te informacije se koriste za oblikovanje i doradu sustava da bi se iz njega mogle dobiti informacije nužne za oblikovanje objašnjenja koje korisnici žele i smatraju zadovoljavajućim.

Možda najviše sumnji vezanih uz primjenu sustava umjetne inteligencije proizlazi iz potrebe za velikom količinom podataka koji opisuju ponašanje i navike korisnika. Prikupljanje takvih podataka, pa i zaključci koje inteligentni računalni sustavi mogu donositi na temelju takvih podataka vrlo lako prelaze granicu osobnog informacijskog prostora, ponekad vrlo agresivno narušavajući privatnost.

Promatrajući problem na općoj razini, on izgleda nerješiv – jer je u osnovi mehanizma umjetne inteligencije je zaključivanje na temelju velike količine što osobnijih informacija pa je teško u potpunosti isključiti povredu privatnosti. Ipak, problem se može i mora postaviti konkretnije pa najprije definirati etičke razine privatnosti, a onda ponuđene usluge ili proizvode bazirane na korištenu osobnih podataka razmjestiti u te kategorije te razmatrati njihovu etičku prihvatljivost.

Autor najprije definira principe na kojima se zasniva osjećaj zaštićene privatnosti i njene eventualne povrede. Prema autorovoj sistematizaciji, osjećaj privatnosti počiva na principu otvorenosti (transparentnosti) korištenih podataka jer se time garantira upućenost korisnika u vrstu i izvor prikupljenih informacija. Osim uvida u podatke, važan je i princip kontrole nad podacima (data control) – što omogućuje puni pregled prikupljenih osobnih podatka kao mogućnost njihove korekcije. Autor, također, upozorava na važnost principa dobrovoljnog pristanka na prikupljanje podataka koji sprječava njihovo prikupljanje bez eksplicitnog pristanka (opt out by default), a naglašava i princip pune dostupnosti usluga koji ima za cilj onemogućiti diskriminaciju korisnika temeljem dostupnosti osobnih podataka.

Na temelju ovih principa autor predlaže pet stupnjeva privatnosti koji se kreću od najnižeg stupnja, simbolično nazvanog slijepog i sputanog, unutar kojeg korisnik ne zna koji se podaci o njegovom interesu i ponašanju prikupljaju, niti zna za što se koriste, ne može ih pregledati niti mijenjati, automatski je uključen u proces prikupljanja podataka i ponuđene su mu usluge samo u skladu s automatskom procjenom njegovih podataka.

Slijede kategorije vezanih (handcuffed) i stiješnjenih (pressured) korisnika od kojih obje grupe imaju uvid u prikupljene podatke (transparentnost) ali vezani ne mogu utjecati na vrstu ponuđene usluge, dok stiješnjeni ipak imaju mogućnost utjecaj na razinu usluge promjenom podataka (data control).

U boljoj poziciji od stiješnjenih su lagano prikraćeni korisnici (slightly curtailed) jer oni, uz istu razinu privatnosti ,mogu birati žele li pristupiti programu prikupljanja podataka (opt out by default).

Konačno, najvišu razinu zaštite uživaju korisnici koje autor naziva zahvalnima (grateful) jer su u njihovom slučaju podržani svi principi na kojima se zaštita privatnosti zasniva.

U skladu s ovako definiranim pristupom zaštite privatnosti, autor sugerira organizacijske pretpostavke koji bi trebalo zadovoljiti radi njene uspješne provedbe. Naime, organizacija bi prije početka prikupljanja podataka trebala odlučiti koje razine zaštite želi osigurati i onda uspostaviti poslovnu funkciju zaduženu za rješavanje konflikata koji proizlaze iz procjene pojedinih, etičkih rubnih ili nejasnih okolnosti.

Karakteristični primjer situacije u kojoj takav odjel treba djelovati je pretplatnički poslovni model. Radi se o modelu koji nudi visoku zaštitu privatnosti jer pojedinac ima kontrolu ulaska u sustav kao i kontrolu nad podacima koje želi učiniti dostupnima, zadržavajući punu slobodu uvida i korekcije prikupljenih podataka. No, taj model je istovremeno direktno suprotstavljen želji organizatora usluge za što širim dostupom bazi korisnika uz masivno automatsko prikupljanje podata radi prilagođene ponude. Hoće li se izabrati pretplatnički model i kako će on biti koncipiran – pitanje je za funkcijsku jedinicu koja se bavi rješavanjem etičkih konflikata u domeni zaštite privatnosti.

Pristranost podataka, sagledivost primijenjenog algoritma odlučivanja kao i privatnost, predstavljaju tri najčešća problema pri uvođenju sustava umjetne inteligencije. Oni, naravno, nisu jedini – ali predstavljaju temelj za oblikovanje praktične politike za rješavanje etičkih dilema koje se pri uvođenju takvog sustava mogu pojaviti. Organizacije koje svoje poslovanje, iako i djelomično, oslanjaju na inteligentno i masovno prikupljanje te inteligentnu obradu podataka ovom problemu, uglavnom, pristupaju deklarativno.

Izjave o etičnom poslovanju redovito spominju termine poput poštenja, anti-diskriminacije, sagledivost, poštovanja, točnosti, sigurnosti, pouzdanosti, privatnosti, ljudskom nadzoru ili čovječnosti. Nažalost nikad, ili gotovo nikad nema riječi o načinu na koji su ti principi utkani u konkretni poslovni proces.

Da bi se izjava o etičnosti u poslovanju mogla smatrati konkretnom i primjenjivom, a onda i vjerodostojnom – morala bi izbjeći karakteristična pojednostavljenja ili greške koje se u takvim izjavama redovito pojavljuju.

Najprije, nužno je prepoznati razliku između ciljeva i taktike jer, na primjer, organizacija može iskazati odgovornost kao cilj, iako se radi o poslovnoj strategiji. Naime, ne treba organizacija težiti odgovornosti – iako takav cilj u izjavi o etičnosti dobro zvuči – već odgovorno ponašanje treba biti strategija koju organizacija primjenjuje da bi postigla svoje, vrlo konkretne, poslovne ciljeve.

Slično, vrlo često se izjednačuju etičke i ne etičke vrijednosti, poput sigurnosti i točnosti. Takva izjednačavanja treba izbjeći, pa u izjavi o etičnosti u poslovanju precizno naznačiti pristup zaštiti onih etičnih, ne pokušavajući ih nadomjestiti ili zamijeniti tehničkim karakteristikama koje s etičnošću nemaju veze. Naime, jasno je da organizacija mora težiti točnosti podataka, ali to nije pitanje etičnosti već profesionalnosti. No, kako će organizacije osigurati da ti podaci ne budu iskorišteni protiv interesa svojih korisnika, to je etičko pitanje.

Prilikom oblikovanja konkretne i dobre izjave o etičnom poslovanju nužno je razlikovati i instrumentalne i intrinzične, ne-instrumentalne modele. Naime, neki postupci su etični u svojoj prirodi, dok su drugi etički neutralni ali se mogu primijeniti da bi se postigao određeni etički cilj. Tako, na primjer izjava u kojoj se naglašava uključivanje čovjeka u proces odlučivanja ne znači da je taj proces etički ispravan. Uključivanje čovjeka, naime, nema nikakvu unutrašnju etičku vrijednost pa je i takva izjava etički besmislena.

Također, besmisleno je koristiti previše apstrakte termine jer, osim lijepih želja, ne daju nikakvu konkretnu informaciju o etičkoj kvaliteti. Dobar primjer je pravednost, koja bez konkretnog konteksta može značiti bilo što.

Uz pridržavanje ovih prijedloga o izbjegavanju pojednostavljenja i semantičkih grešaka u oblikovanju izjave o etičnosti, knjiga sadrži i načelni vodič za oblikovanje izjave koja će imati operativnu vrijednost.

Najprije je potrebno definirati organizacijske vrijednosti imajući u vidu najgore konkretne scenarije narušavanja etičkih normi i tako oblikovati praktični katalog etički nedopustivih situacija. Takav katalog će biti konkretna pomoć u izbjegavanju etički devastirajućih okolnosti. Također, dobra praksa sugerira jasno povezivanje konkretnih korporativnih vrijednosti s glavnim poslovnim ciljem, odnosno misijom organizacije. Dodatno, najvažnije organizacijske vrijednosti treba artikulirati tako da jasno pokazuju smjer djelovanja kako bi se izbjegle etički nedopustivi ishodi poslovanja. Konačno, efektiva izjava o etičnom poslovanju sadrži jasnu artikulaciju načina uspostave etičkih ciljeva, kao i pregled konkretnih koraka u zaštiti od grubih i poslovno opasnih etičkih propusta.

Uspije li organizacija oblikovati izjavu o etičnom poslovanju sljedeći ove principe, izgradit će alat koji je daleko više od propagandne floskule. Pomoću konkretne formulacije etičkog poslovanja, organizacija definira ciljeve i strategiju poslovanja iz koje proizlazi taktika, kao i konkretne akcije za uspostavu etičkog poslovanja. Osim toga, moguće je provoditi analizu razlika između trenutnog stupnja zaštite korisnika od ne-etičnog poslovanja u odnosu na ciljani stupanj zaštite. Dodatno, jasna izjava o ciljevima kojima se teži kao i naznačena metoda kojom će se ti ciljevi ostvariti pomaže u stvaranju ozračja uspostave zajedničkih težnji duž svih poslovnih funkcija. Posebno se ističe kvaliteta dobro oblikovane izjave radi ukazivanje na kritične etičke okolnosti pa postaje djelotvorni alat u situacijama njihovog prepoznavanja i otklanjanja. Konačno, ovakav dokument je dobra osnova za sve marketinške aktivnosti kao i jasnu komunikaciju u javnosti.

Autor knjige naglašava da se uspostava etičkih standarda ne dešava spontano, niti je to tehničko pitanje. Za njihovo oblikovane i provedbu kritična je mobilizacija uprave. Njihova uključenost morala bi se temeljiti na punom razumijevanju problema i vrlo konkretnim zadacima.

Najprije, uprava mora dobro razumjeti koje će konkretne etičke odluke morati donositi u procesu primjene umjetne inteligencije. Drugim riječima, uprava mora znati za sve moguće etičke konflikte koji bi mogli ugroziti poslovanje kompanije. Za to je dobra podloga ranije sistematiziran katalog etičkih prijetnji. Posebno se moraju koncentrirati na slučajeve u kojima nema poznate analogije ili ne postoji iskustvo u rješavanju, kao i na one u kojima postoji neslaganje o primjerenom postupku. Posebno je važno naglasiti da uprava o odgovorima na teška etička pitanja mora razmišljati unaprijed, a ne tek kad ih nametnu poslovne okolnosti.

Uprava nosi glavni teret uspostave organizacije etičkog poslovanja, ali i teret razvoja aktivnog odnosa prema etičkim rizicima na sve službe i pojedince. Naime, cijela organizacija mora biti svjesna i aktivno uključena na izbjegavanju etički rizičnih okolnosti, a to se postiže edukacijom i treningom te stalnim razvijanjem poslovne kulture.

Važan zadatak uprave je, također, organizirati i pripremiti alate koji će razvojnom timu, koji je neposredno odgovoran za tehničku uspostavu sustava umjetne inteligencije, garantirati jasne smjernice primjenjive u procesu razvoja proizvoda ili usluga. Naime, osim razumijevanja problema i prepoznavanja karakterističnih situacija, razvojni tim treba alate koji će mu pomoći da efikasno rješava sporne ili nejasne okolnosti koje se pojavljuju tijekom razvoja.

Osim dobro osmišljenih alata, za produktivno i efikasno rješavanje složenih situacija vrlo korisno je imati raspoložive domenske stručnjake. Takvi stručnjaci bi trebali biti u stanju na vrijeme uočiti rizike koji se ne mogu tolerirati pa, ako je to nužno, zaustaviti ili preusmjeriti razvoj. U najboljem slučaju, takvi stručnjaci bi mogli potvrditi izostanak nedopustivih rizika, odnosno predložiti izmjenu u funkcionalnostima koji bi omogućili etičko usklađenje, odnosno novu procjenu.

Zadatak uprave je, također, uspostaviti i održati djelovanje u skladu s usvojenim etičkim smjernicama, kao i osigurati redovitost u korištenju pripremljenih alata – motivirajući i penalizirajući timove i pojedince financijskim bonusima te razvojem i unaprjeđenjima profesionalnog statusa. Da bi to bilo moguće, nužno je uspostaviti i indeks praćenja ispunjenja zadanih ciljeva (KPI).

Iako je uvođenje i održavanje etičkih standarda vezanih uz primjenu umjetne inteligencije zadatak cijele organizacije, on je posebno važan za članova razvojnog tima. Razvojni tim, naime, može djelovati efikasno samo ako primjenjuje etičke principe u konkretnim situacijama i na vrlo praktičan način. Pri tome se razvojni tim , sugerira autor, mora rukovoditi idejom izbjegavanja nepravde prema korisnicima, daleko više nego izbjegavanje nanošenja štete. Važno je uočiti, naglašava autor, da su nepravedne poslovne odluke jednako etički negativne i rizične kao i nanošenje izravne štete, a moguće su čak i kad šteta nije direktno nanesena. Posebno je korisno, prema mišljenju autora, u tom procesu tražiti mišljenje specijalista koji se etičkim problemima profesionalno bavi, ne zato što bi takav stručnjak imao bolje ideje – nego jer se često nalaze u situacijama osjetljivih procjena pa su brzi u sagledavanju problema i pronalaženju analogija, odnosno rješenja koja su se pokazala efikasnim.

Glavne točke o kojima razvojni tim mora voditi računa, a vezane su uz identifikaciju etičkih rizika, mogu se sistematizirati u pet pitanja. Autor knjige smatra da su to pitanja: što razvijamo i koji etički rizici su uključeni u naš produkt, kako to radimo i proizvodimo li usput etički rizik, što će korisnici s tim rješenjem raditi i mogu li pri korištenju prouzročiti etički negativne efekte pogrešnom ili malicioznom uporabom, koji utjecaj rješenje ima na korisnike nakon implementacije i je li ono etički sigurno te možemo li djelovati na taj utjecaj tijekom cijelog životnog ciklusa proizvoda.

Alat koji bi razvojnom timu pomogao u sistematizaciji etičkih rizika, klasifikacijom odgovora na ova ključna pitanja – predstavlja svojevrsni etički due diligence. Naime, na temelju prikupljenih odgovora moguće je definirati tablicu koja bi sadržavala etičke rizike poput izazivanja fizičke ili psihičke štete, izazivanja navike, depresije, gubitak autonomije, nasrtaj na privatnost kao i brojne druge – sve identificirate tijekom analize. Svi ti rizici se pridružuju različitim dionicima, uz konstatiranje načina na koji je povreda nastala i stupnja štete. Takva tablica predstavlja analitički alat za sagledavanje i konstruktivno izbjegavanje potencijalno devastirajućih okolnosti za korisnika, ali i za organizaciju koja uslugu ili proizvod izlaže tržištu.

Primjer etičkog due dilligence-a neke korporacije koja primjenjuje umjetnu inteligenciju u oblikovanju svojih proizvoda bi mogao pokazati da su pojedinci, korisnici proizvoda ili usluga  koji pripadaju općoj populaciji manje izloženi fičkim rizicima nego marginalne skupine. Ili bi se moglo pokazati da se psihička šteta manifestira najviše na društvanu zajednicu kao cjelinu, s posebnim naglaskom na djecu.

Reid Blackman u zaključku knjige naglašava da je ona svojevrsni pregled glavnih tehničkih prepreka uspostavi etički nepogrešivih sustava umjetne inteligencije – posebno uzimajući u obzir pristranost podataka, nesagledivost algoritama odlučivanja i izravan nasrtaj na privatnost intenzivnim prikupljanjem osobnih podataka. Taj pregled je iskorišten kako bi se definirale organizacijske pretpostavke uspješnoj implementaciji sustava umjetne inteligencije s minimizacijom etičkih rizika. U drugom dijelu knjige, rezimira autor, izložen je svojevrsni alat koji organizaciju vodi i usmjerava u procesu razvoja sustava umjetne inteligencije maksimalno otpornog na etičke izazove.

Iako je autor pokušao biti vrlo konkretan, ne radi se o priručniku – već o sistematičnom prikazu korisnih koncepata kojih bi se trebalo držati. Ipak, ideje su dovoljno primjenjive da ih je moguće slijediti i konstruktivno nadograđivati.



Ethical Machines

Pitanja vezana uz knjigu Ethical Machines i temu minimizacije etičkih rizika u poslovnoj primjeni umjetne inteligencije.

1 / 11

Glavni alat koji se koristi za procjenu etičkih rizika u procesu razvoja sustava umjetne inteligencije zove se:

2 / 11

U praktičnoj procjeni etičkog rizika treba se rukovoditi:

3 / 11

Tko je u organizaciji zadužen za minimizaciju etičnih rizika u primjeni sustava umjetne inteligencije?

4 / 11

Kako konkretizirati izjavu o pridržavanju visokih etičkih standarda u primjeni umjetne inteligencije?

5 / 11

Koja je najčešća kritika uobičajenih izjava o etičnosti kojima korporacije definiraju svoj stav prema zaštiti korisnika od negativnog utjecaja primijenjenog sustava umjetne inteligencije?

6 / 11

Sustavi umjetne inteligencije se baziraju na osobnim podacima pa je narušavanje privatnosti neminovno.

7 / 11

Čovjek ne može pratiti algoritam zaključivanja sustava umjetne inteligencije, da li to znači da se ne može znati kako sustava umjetne inteligencije donosi odluke?

8 / 11

Da li je prikupljanje velike količine podataka i reprezentativnost njihovog uzorka garancija nepristranosti odluka koje donose sustavi umjetne inteligencije

9 / 11

Koje su tri glavne funkcionalne prepreke implementciji etički nerizičnih sustava umjetne inteligencije (više ispravnih odgovora)?

10 / 11

Može li se se procjena etičnosti i pripadajućih poslovnih rizika zamijeniti procjenom korisničkog dojma (percepcije) i rizika koji iz tog dojma proizlaze?

11 / 11

Je li etika previše subjektivna disciplina da bi se mogla primjeniti u procjeni objektivnih etičkih rizika kod korištenja sustava umjetne inteligenciji?

Your score is

0%


Povezani sadržaji...

The Precipice
Nedavno sam se zainteresirao za pisanje Toby Orda, engleskog filozofa...
Exponential
Često i sa zanimanjem slušam podcast Exponential view koji u...
Artificial Intelligence
Česti medijski napisi o novim i sve složenijim primjenama umjetne...