Etika Vještačke Inteligencije: Bias, Pravednost i Odgovornost u 2026

Etika Vještačke Inteligencije: Bias, Pravednost i Odgovornost
78% organizacija danas koristi AI u poslovanju — ali samo jedna trećina postigla je visoku zrelost u AI upravljanju i etičkim praksama.
Vještačka inteligencija više nije eksperimentalna tehnologija. Ona donosi odluke o kreditnim zahtjevima, zapošljavanju, medicinskim dijagnozama i krivičnoj pravdi — svakodnevno, za milione ljudi. Upravo zbog toga pitanje etike AI sistema postaje jedno od najvažnijih pitanja savremenog društva. AI sistemi nisu neutralni: oni uče iz istorijskih podataka koji nose duboko ukorijenjene društvene predrasude, i bez pažljive intervencije, te predrasude ne samo da se reproduciraju — one se pojačavaju.
Šta je AI Bias i Zašto je Opasan?
AI bias (pristranost) nastaje kada algoritmi donose odluke koje sistematski favoriziraju ili diskriminiraju određene grupe ljudi. Prema istraživanjima objavljenim u časopisu Frontiers in Digital Health (2025), predrasude u AI sistemima mogu "negativno uticati na pojedince i društvo pojačavajući diskriminaciju brzinom i razmjerom daleko izvan tradicionalnih diskriminatornih praksi" — što je potvrđeno i u izvještaju američkog NIST-a.
Predrasude su često latentne: ne pojavljuju se odmah, već tek nakon dugotrajna korišćenja sistema, što ih čini posebno teškim za otkrivanje i ispravljanje.
Vrste AI Biasa
Data Bias
Nastaje kada su podaci za treniranje neuravnoteženi ili ne predstavljaju stvarnu populaciju. Primjer: sistemi prepoznavanja lica trenirani pretežno na fotografijama bijelih muškaraca.
Algoritmski Bias
Nastaje tokom dizajna i optimizacije modela. Ako algoritam optimizira za većinsku grupu, manjinske grupe trpe lošije rezultate čak i s uravnoteženim podacima.
Interaction Bias
Pojavljuje se tek u realnoj primjeni — korisnici različito komuniciraju s AI sistemom, što uvodi nove obrasce pristranosti koji nisu bili vidljivi tokom razvoja.
Stvarni Primjeri AI Diskriminacije
Pristranost AI sistema nije teorijska opasnost — ona ima konkretne, dokumentovane posljedice po stvarne ljude:
Dokumentovani Slučajevi AI Diskriminacije
-
✗
Prepoznavanje lica (Gender Shades studija): MIT-ovo istraživanje pokazalo je da komercijalni sistemi prepoznavanja lica imaju stopu greške od svega 0,8% za muškarce svjetle puti, ali čak 34,7% za žene tamne puti. Sistemi poput Amazon Rekognition, IBM Watson i Microsoft Face API propuštali su prepoznati do 37% lica tamnoputih žena.
-
✗
Amazon-ov algoritam za zapošljavanje: Amazon je bio prisiljen ugasiti AI sistem za selekciju CV-ova koji je sistematski penalizovao prijave koje su sadržavale riječ "women's" (npr. "women's chess club") i kandidate s ženskih fakulteta — jer je treniran na istorijskim podacima o zapošljavanju koji su bili dominantno muški.
-
✗
COMPAS sistem za krivičnu pravdu: Algoritam za predviđanje recidivizma koji se koristi u sudovima SAD-a pokazao je značajnu rasnu pristranost — crni okrivljeni su dvostruko češće pogrešno klasifikovani kao visoki rizik u poređenju s bijelim okrivljenima.
-
✗
Google-ov sistem za zapošljavanje: Google je napustio AI eksperiment u zapošljavanju jer je sistem, treniran na historijskim Google podacima o zapošljavanju, reproducirao pristranost prema kandidatima koji nisu bili muškarci s prestižnih univerziteta — "nevidljiva pristranost bila je ugrađena u sistem od prvog dana".
-
✗
LLM-ovi i starosna diskriminacija (2025): Studija objavljena u časopisu Nature (oktobar 2025) otkrila je da veliki jezički modeli poput ChatGPT-a sistematski prikazuju starije žene kao manje iskusne i manje kompetentne od muškaraca istih kvalifikacija pri generisanju CV-ova i njihovoj evaluaciji.
Jeste li znali?
Prema istraživanju iz 2024. godine, AI sistemi ne samo da kopiraju ljudske predrasude — oni ih mogu pojačati i do 2,9 puta. Tržište alata za detekciju bias-a procjenjuje se na 2,34 milijarde dolara u 2024. godini, s projekcijom rasta na 7,44 milijarde dolara do 2030. Istovremeno, prema Gallagherovom istraživanju iz 2026, aktivno je više od 200 pravnih slučajeva koji uključuju AI i mašinsko učenje, pokrenuto zbog bias-a u podacima, diskriminacije i regulatornih kršenja.
EU AI Act: Prva Sveobuhvatna Regulativa na Svijetu
Evropska unija donijela je prvi sveobuhvatni pravni okvir za regulaciju vještačke inteligencije na svijetu. EU AI Act stupio je na snagu 1. avgusta 2024. godine, s postupnom primjenom kroz nekoliko faza. Prema zvaničnim podacima Evropske komisije, zabrane određenih AI praksi i obaveze AI pismenosti primjenjuju se od 2. februara 2025, dok su pravila za modele opšte namjene (GPAI) postala obavezna od 2. avgusta 2025. Puna primjena zakona predviđena je za 2. august 2026.
| Datum | Obaveza / Rok | Ko je obuhvaćen |
|---|---|---|
| 2. februar 2025. | Zabrana zabranjenih AI praksi, AI pismenost | Svi provajderi i korisnici AI sistema u EU |
| 2. august 2025. | Pravila za GPAI modele (LLM, multimodalni AI) | Provajderi modela opšte namjene |
| 2. august 2026. | Puna primjena zakona, transparentnost AI sadržaja | Svi akteri u lancu vrijednosti AI |
| 2. august 2027. | Stroža pravila za AI u regulisanim proizvodima | AI u medicinskim uređajima, vozilima, igračkama |
| Do 2027. | Svaka zemlja EU mora imati AI Sandbox (testno okruženje) | Države članice EU |
EU AI Act prati pristup zasnovan na riziku: što je veći rizik AI sistema po temeljne ljudske vrijdnosti, to su stroži regulatorni zahtjevi. Zabranjeni su sistemi poput socijalnog bodovanja, manipulativnih AI alata i biometrijske identifikacije u realnom vremenu na javnim mjestima (uz uske izuzetke). Za kršenje zakona predviđene su kazne do 35 miliona eura ili 7% globalnog godišnjeg prometa, što je iznos koji prevazilazi čak i GDPR sankcije.
Šta EU AI Act Zahtijeva od Kompanija (Prema Greenberg Traurig, 2025)
- ✓ Uspostavljanje kompletnog AI inventara s klasifikacijom rizika
- ✓ Jasno definisanje uloge kompanije (provajder, modifikator ili korisnik AI)
- ✓ Priprema tehničke dokumentacije i dokumentacije o transparentnosti
- ✓ Implementacija zahtjeva za zaštitu autorskih prava i podataka
- ✓ Obuka i provjera AI kompetencija zaposlenih
- ✓ Prilagođavanje internih upravljačkih struktura, uključujući imenovanje odgovornih lica
GDPR i Automatsko Odlučivanje: Član 22
Opšta uredba o zaštiti podataka (GDPR) već godinama pruža ključnu zaštitu od nepravednog automatskog odlučivanja. Član 22 GDPR-a daje pojedincima pravo da ne budu podvrgnuti odluci zasnovanoj isključivo na automatizovanoj obradi — uključujući profilisanje — koja ima pravne ili slično značajne efekte po njih.
U praksi to znači: banka koja koristi AI za odbijanje kreditnih zahtjeva bez ikakvog ljudskog pregleda, kompanija koja automatski odbacuje CV-ove bez da ih pregledava regruter, ili zdravstveni sistem koji donosi dijagnoze bez ljekara — sve su to scenariji koji vjerovatno krše Član 22 GDPR-a.
Što GDPR Čl. 22 Garantuje
- → Pravo na smislen ljudski pregled automatske odluke
- → Pravo na objašnjenje logike algoritma
- → Pravo na osporavanje automatske odluke
- → Pojačana zaštita za osjetljive kategorije podataka (rasa, vjera, zdravlje, biometrija)
Što Kompanije Moraju Izbjegavati
- ✗ Automatske odluke bez ikakvog ljudskog uvida
- ✗ Formalni pregled koji je samo "gumeni pečat" bez stvarnog uticaja
- ✗ Profilisanje zasnovano na osjetljivim kategorijama bez izričitog pristanka
- ✗ Nedostatak mehanizma za osporavanje odluke — kazna do 20 mil. EUR ili 4% prometa
Važan presedan postavio je Evropski sud pravde u predmetu SCHUFA (C-634/21), gdje je utvrđeno da automatski kreditni skorovi koji suštinski određuju pristup finansijskim uslugama potpadaju pod Član 22 GDPR-a — i da pojedinci imaju pravo na objašnjenje, ljudski pregled i osporavanje takvih odluka.
"GDPR Član 22 nije anti-tehnološki — on je pro-ljudski. Prepoznaje da dok automatizacija može poboljšati efikasnost, ona ne smije ići na račun dostojanstva, pravednosti i odgovornosti.
— GDPR Local, analiza Člana 22, 2025
Alati za Detekciju i Smanjenje Biasa
Ekosistem alata za pravednost AI doživio je značajan rast. Prema pregledu objavljenom na DevOpsSchool (2026), danas postoje specijalizovani alati za svaku fazu životnog ciklusa AI sistema — od pripreme podataka do produkcijskog monitoringa.
| Alat | Razvijač | Ključne Karakteristike | Idealno Za |
|---|---|---|---|
| AI Fairness 360 (AIF360) | IBM / Linux Foundation | 70+ metrika pravednosti, 11 algoritama za smanjenje biasa, Python/R | Istraživači, enterprise, akademska zajednica |
| Microsoft Fairlearn | Microsoft | Integracija s Azure ML, demografski paritet, izjednačene šanse | Microsoft/Azure okruženja |
| Google What-If Tool | Vizualna analiza bez pisanja koda, hipotetički scenariji | Prezentacije, TensorFlow timovi | |
| Aequitas | Univ. of Chicago | Web audit alat, demografski paritet, Python biblioteka | Javna politika, nezavisne revizije |
| Fiddler AI | Fiddler AI | Produkcijski monitoring, detekcija drift-a, explainability | Enterprise produkcija, real-time praćenje |
| Credo AI | Credo AI | Upravljanje tokom cijelog životnog ciklusa AI, compliance dokumentacija | Regulisane industrije, EU AI Act usklađenost |
IBM AI Fairness 360 ostaje najsveobuhvatniji open-source alat za mjerenje i smanjenje biasa, s više od 70 metrika pravednosti i algoritmima koji pokrivaju sve tri faze ML pipeline-a: pre-processing (analiza podataka za treniranje), in-processing (praćenje tokom treniranja) i post-processing (analiza izlaznih predikcija). Alat je dostupan u Pythonu i R-u i besplatan je za korišćenje.
Pet Principa Etičnog AI Razvoja
Izgradnja etičnih AI sistema zahtijeva sistemski pristup koji obuhvata tehničke, organizacione i pravne dimenzije. Prema istraživanju objavljenom u časopisu AI and Ethics (Springer, 2026), etična upotreba AI podrazumijeva razvoj i primjenu tehnologije na način koji poštuje ljudska prava, pravednost, transparentnost i odgovornost.
Ključni Principi Etičnog AI
-
✓
Raznovrsni i reprezentativni podaci: Osigurati da podaci za treniranje odražavaju sve populacije, posebno marginalizovane grupe. Redovno revidirati uzorkovanje i ažurirati baze podataka kako se demografija mijenja.
-
✓
Kontinuirano testiranje i monitoring: Provoditi analizu podpopulacija radi otkrivanja disparatnih uticaja. Implementirati kontinuirani monitoring i retraining kako bi se adresirao "data drift" i novi rizici.
-
✓
Transparentnost i objašnjivost: Koristiti explainable AI (XAI) tehnike poput LIME i SHAP-a. Operacija i procesi donošenja odluka AI sistema moraju biti jasno razumljivi svim zainteresovanim stranama.
-
✓
Human-in-the-loop: Zadržati smislen ljudski nadzor za kritične odluke. Formalni pregled mora biti suštinski — ne samo "gumeni pečat". Ovo je i zakonska obaveza prema GDPR Članu 22.
-
✓
Multidisciplinarni timovi: Uključiti etičare, društvene naučnike i raznovrsne dionike u dizajn i evaluaciju modela. Uspostaviti interne etičke odbore koji nadgledaju AI projekte od koncepta do produkcije.
Stanje Odgovornog AI u 2026: Gdje Smo?
Prema McKinsey-evom istraživanju AI Trust Maturity Survey za 2026. godinu, koje je obuhvatilo oko 500 organizacija globalno, prosječni rezultat zrelosti odgovornog AI (RAI) porastao je na 2,3 u 2026. godini, u poređenju s 2,0 u 2025. — ali samo oko jedne trećine organizacija dostiglo je visoku zrelost u strategiji, upravljanju i kontroli agentic AI sistema. Ovo ukazuje da, dok tehničke i upravljačke sposobnosti napreduju, organizaciona usklađenost i nadzorne strukture teško prate brzu ekspanziju AI primjene.
Masovna Adopcija
Prema podacima iz 2025, 78% organizacija koristi AI u najmanje jednoj poslovnoj funkciji — dramatičan skok s 55% godinu ranije.
Upravljački Jaz
Samo trećina organizacija dostigla je visoku zrelost u AI upravljanju i etičkim praksama, unatoč rastu ulaganja u odgovorni AI.
Kriza Povjerenja
Samo 25% Amerikanaca izražava povjerenje u konverzacijske AI sisteme, a javno povjerenje u AI nastavlja da opada zbog dokumentovanih slučajeva pristranosti.
Praktični Savjeti za Implementaciju Etičnog AI
Za organizacije koje žele graditi AI sisteme koji su pravedni, transparentni i usklađeni s regulativom, ključno je pristupiti etici AI kao živom sistemu, a ne statičnom okviru. Prema PwC-evom istraživanju Responsible AI iz 2025, osnove politika i upravljačkih okvira su samo polazišna tačka — pravi izazov je provedba tih programa u punom obimu.
Praktični Koraci za Etičan AI Razvoj
- ✓Provesti Data Protection Impact Assessment (DPIA): GDPR Član 35 obavezuje DPIA za sve automatizovane procese odlučivanja. DPIA mora sistematski procijeniti rizike po prava ispitanika i identificirati mjere za smanjenje tih rizika.
- ✓Implementirati alate za detekciju biasa: Koristiti IBM AIF360 ili Microsoft Fairlearn za mjerenje statističkog pariteta, izjednačenih šansi i disparatnog uticaja kroz sve faze ML pipeline-a.
- ✓Uspostaviti AI inventar s klasifikacijom rizika: EU AI Act zahtijeva jasnu evidenciju svih AI sistema, njihove namjene i rizičnog profila. Visokorizični sistemi zahtijevaju stroži nadzor i dokumentaciju.
- ✓Redovne treće strane revizije: Koristiti nezavisne revizije i red teaming pristup kako bi se otkrile ranjivosti prije produkcije. Za regulisane industrije razmotriti enterprise alate poput Truera ili Monitaur.
- ✓Obuka zaposlenih: Etika AI nije samo zadatak IT tima. Prema Deloitte istraživanju za 2026, edukacija je bila primarni način na koji su kompanije prilagodile strategije talenta zbog AI.
UNESCO i Globalni Standardi Etike AI
Na globalnom nivou, UNESCO je 2021. godine usvojio prvi globalni standard za etiku AI — "Preporuku o etici vještačke inteligencije" — koja se primjenjuje na svih 194 država članica. Zaštita ljudskih prava i dostojanstva temelj je ove preporuke, koja naglašava transparentnost, pravednost i važnost ljudskog nadzora nad AI sistemima.
Paralelno, NIST (Američki nacionalni institut za standarde i tehnologiju) razvio je AI Risk Management Framework (AI RMF), koji postaje de facto standard za upravljanje rizicima AI sistema u SAD-u i šire. Alati poput IBM AIF360 i Microsoft Fairlearn usklađeni su s IEEE 7003-2024 standardom i različitim državnim AI regulativama.
"Pravednost u AI znači da AI sistemi donose odluke bez diskriminacije ili pristranosti i tretiraju sve korisnike i grupe ravnopravno. Postizanje pravednosti zahtijeva da AI sistemi budu transparentni, odgovorni i objašnjivi.
— Rauhala, Drake & Saaranen, AI and Ethics (Springer), 2026
Zaključak
Etika vještačke inteligencije nije luksuz niti puka regulatorna formalnost — ona je preduslov za dugoročno povjerenje u AI sisteme i njihovu društvenu korisnost. Dokumentovani slučajevi diskriminacije u zapošljavanju, kreditiranju, krivičnoj pravdi i zdravstvenoj zaštiti jasno pokazuju da AI bez etičkih garancija može produbiti, a ne smanjiti, društvene nejednakosti. EU AI Act i GDPR postavljaju jasan regulatorni okvir koji će u potpunosti stupiti na snagu 2026. godine, s kaznama koje čine neusklađenost finansijski neprihvatljivom. Organizacije koje već sada ulažu u odgovorni AI — kroz alate poput IBM AIF360, Microsoft Fairlearn i Credo AI, kroz DPIA procjene, raznovrsne timove i smisleni ljudski nadzor — ne samo da ispunjavaju zakonske obaveze, već grade sisteme koji su dugoročno pouzdaniji, pravedniji i konkurentniji na globalnom tržištu.


