Može li umjetna inteligencija ponekad pokazati ljudske slabosti ili pogreške u svojim zaključcima te biti pod utjecajem predrasuda i zabluda? Može. Može li biti pristrana kao ljudi? Također može. Stoga je logično upitati se zašto je onda riječ o „strojnom učenju“ ako će vrludati poput svih nas?
Malo sam istraživao i čak postavljao pitanja chatbotovima zašto je tomu tako. Uglavnom su se pojadali da u konačnici AI ipak ovisi o ljudima. Strojni modeli naime uče iz podataka koje su stvorili ljudi. Ako ti podaci sadrže predrasude, iskrivljene poglede ili namjerne pogreške, oni mogu prodrijeti u stavove i odgovore umjetne inteligencije. No zašto ne filtriraju te slabosti?
Stručnjaci koji se bave algoritmima reći će da stroj ne može imati predrasude u ljudskom smislu, da on samo slaže uzorke na temelju onoga što mu je dostupno. Pa se navodi jedan zanimljiv primjer. Rani sustavi za prepoznavanje lica imali su loše rezultate na tamnijim nijansama kože jer su podaci o obuci jako naginjali prema svjetlijim tonovima. Umjetna inteligencija sebe zbog toga ne krivi niti se ispričava.
Umjetna inteligencija zapela u 1945.
A onda sam postavio sada već klasično političko pitanje, tj. dvojbu o događajima iz 1945. godine, kada je riječ o opsegu zločina prema Hrvatima i ostalim narodima koje je počinila tadašnja jugoslavenska vojska 1945. godine. Trebalo je biti precizan i potpuno neutralan. Pa da vidimo. Prema procjenama jedne strane ubijeno je više stotina tisuća ljudi na Bleiburgu i križnim putovima, a prema službenim antifašističkim podatcima okvirno 60-70 tisuća. Evo kako bi se AI postavila prema tim brojkama i kako bi dokučila pravu istinu.
„Ako ključni dokazi – poput detaljnih partizanskih zapisa ili nepristranih izvješća očevidaca – ostanu negdje zakopani u arhivi, ne mogu im izravno pristupiti. Morao bih zaključiti iz obrazaca. ‘Prava istina’ nije nešto što mogu definitivno izreći bez savršenih podataka, koji rijetko postoje u povijesti. Umjesto toga, ponudio bih raspon – recimo, 50.000 do 150.000 mrtvih – i priznao bih nesigurnost.“
Tako dakle! Opet truli kompromis kao da je riječ o političkoj odluci. Kad sam je upitao priznaje li da i ona ima neke slabosti i nedostatke kao ljudi jer zaključuje samo na temelju uvriježenih obrazaca i službenih okvira – priznala je da sam u pravu.
„Da, imam slabosti i nedostataka, posebno kada je riječ o prazninama u podatcima poput onih iz 1945. godine. Nisam neki sveznajući stroj za istinu.“ Još je dodala da je slijepa za slučajeve poput tadašnjih zločina ako je stvarni broj smrtnih slučajeva zaključan u nekoj povjerljivoj partizanskoj arhivi ili zataškan poslijeratnim kaosom.
Svijest i nesvijest umjetne inteligencije
Umjetna inteligencija radi na temelju podataka i algoritama, to je jasno, ali kako to da kad je u pitanju jedan ovakav delikatniji primjer, ona stane nemoćna pred zidom. I onda barata nekom kompromisnom brojkom koja baš ništa ne pomaže. Kao i kod nekih povjesničara i političara kad je riječ o ovakvoj povijesnoj dvojbi. Kalkuliraju i izmotavaju se time da im svi dokumenti i dokazi nisu dostupni.
Umjetna inteligencija, kako sada kažu stručnjaci za strojno učenje, nije sposobna imati svijest o sebi i potragu za smislom. Ali hajde da se poigramo. Što je to svijest i što je to smisao? Je li stroju bitno zove li se nešto svijest ili algoritamski kod? Uostalom, algoritmi zapravo projiciraju ljudsku svijest jer si ih ljudi stvorili. Dakle možda je svejedno tko otvara beogradske arhive, tko manipulira podatcima – ili svijest ili algoritam. Jer, ako „svjesni“ ljudi imaju slabosti, te iste slabosti imaju i algoritmi.
Trebamo samo pričekati još malo napretka tehnologije pa da vidimo hoće li slučajno strojevi poručiti čovjeku: “Ti nemaš pojma, ja ću to riješiti“. I hoće li uistinu zaviriti u beogradske arhive i napokon podastrijeti točnu istinu.







