ПОПИСАО 24.000 КЊИГА И РАДОВА О ДИПЛОМАТИЈИ
22. фебруара 2023.
Radio Reklame
13. новембра 2023.
Cenovnik oglašavanja
15. маја 2023.
Pa, ako smo do sada o nečemu diskutovali u rubrici Veštačka inteligencija, o rizicima smo diskutovali. I u rizicima precizno i leži odgovor na pitanje “Zašto?” koje sam prethodno postavio. Zaista: zašto je u celom svetu regulacija AI postala jedno od pitanja broj jedan?
Da se vratimo na povod kojim pišemo: Željku Mitroviću i televiziji Pink se učinilo zgodnim da upotrebom (nekog) generativnog AI sistema sintetišu glas i vizuelni nastup ličnosti sa opozicione političke scene Republike Srbije i stave im u usta reči koje te ličnosti nisu izgovarale. Koje sve članove kog zakona Republike Srbije su Mitrović i Pink svojim činom prekršili ili ne – sudovi i advokati će se baviti time. Da vidimo šta sve drugo može da padne na pamet a što se uopšte, tehnološki i idejno posmatrano, ne razlikuje od onoga što su uradili Mitrović i Pink. Evo par hipotetičkih scenarija.
Scenario 1. Po ko zna koji put, usled nekog neodgovornog političkog poteza, dolazi do zategnutosti između Srba i kosovskih vlasti na severu Kosova; ovakav scenario smo već nebrojen broj puta videli i ispratili preko medija. Usled tenzija između Srba i kosovskih vlasti, vojska Srbije se grupiše ka administrativnoj liniji Kosova. U međuvremenu, KFOR i kosovske snage pojačavaju prisustvo na severu.
Tokom live stream-a predsednikovog obraćanja preko neke alternativne online platforme, njegove reči “… vojska će se uzdržati…” su manipulisane pomoću AI tehnologije u sintetičke reči “… vojska će reagovati…”. Nervoznom pripadniku KFOR-a koji prati live stream i prepričava šta čuje drugim pripadnicima se čini da vidi pokret u neposrednoj blizini, puca, jedinica otvara vatru na pozicije Vojske Srbije i ranjava dva vojnika, ova uzvraća; za pet minuta, vojska napreduje ka pozicijama iza administrativne linije; za petnest minuta, NATO podiže borbenu avijaciju i šalje vazdušne patrole u region. Sve što je nekoj interesnoj grupi kojoj odgovara sukob na Balkanu potrebno za ovakav scenario jeste jedan solidan sajber-napad na sisteme telekomunikacije i malo generativne AI tehnologije.
Scenario 2. 20. maj 2025, NYC, u vestima: “Uoči očekivane IPO kompanije NeuralTech Inc., na internetu se pojavio video koji prikazuje izvršnu direktorku Dr. Emily Carter kako navodno priznaje: “Naša tehnologija nije napredna kao što smo tvrdili.” Ova oštra suprotnost njenim stvarnim rečima, “Naša tehnologija napreduje kako smo tvrdili,” izazvala je tržišnu histeriju. Zavaravajući video doveo je do propasti planirane IPO NeuralTech-a i gubitaka u milijardama investicija. U roku od nekoliko dana, stručnjaci su identifikovali video kao deepfake, verovatno delo korporativnih rivala. Incident je istakao duboke rizike deepfake tehnologije u manipulisanju rečima i uticaju na tržišnu dinamiku”.
Dovoljno?
Scenario 3. 18. oktobar 2023, Crno more. Posle napada ruskog razarača na teretne ukrajinske brodove koji su pokušali da probiju blokadu pomorske rute za izvoz ukrajinskog žita, prilikom kojeg su potopljena tri broda ukrajinske trgovačke flote, presečena je komunikacija ruskog razarača sa štabom na Krimu u kojoj se kapetan obraća komandi pitanjem o tome da li su nuklearno naoružane rakete Kinžal već postavljene na avione tipa Mig-31 i spremne u slučaju pokušaja britanske mornarice da prekrši Konvenciju iz Montrea i pokuša da zaštiti ukrajinsko brodovlje. Britanske i američke snage direktnom linijom komunikacije prosleđuju snimak ruskoj strani i traže objašnjenje. Timovi za sajberbezdnost grčevito rade na ustanovljavanju da li je snimak namerno plasiran deepfake kao što ruska strana tvrdi, dok se u pozadini vrše sve pripreme za nuklearno odvraćanje ili reterenciju. Američki i ruski predsednik uspostavljaju direktan kontakt, ali svima ruke drhte jer više niko ne zna da li razgovara sa ličnošću ili sa neuronskim mrežama.
Kako se neko ponaša prema političkim protivnicima i šta je u stanju da izgovori javno je jedno. Da li su tom prilikom Mitrović i Pink prekršili zakone Republike Srbije, videćemo. Da li su primenom generativne AI u proizvodnji sintetičkih medija prešli granicu koja razdvaja odgovornost u njihovoj upotrebi od zone rizika – jesu. Šta ćemo sada sa svima kojima se to dopalo a kojima možda gore stvari mogu da padnu na pamet, ne znam.
Proces Đilas protiv Pinka možda da postane upravo istorijski proces u istoriji primene veštačke inteligencije u Srbiji upravo zbog toga: po prvi put je u Srbiji pređena granica iz zone odgovornosti u zonu rizika u upotrebi generativnih AI.
Čak i ne uzimajući u obzir prioritetan značaj kontrole i regulacije AI, a nadam se da sam u prethodnim redovima uspeo da motivišem zašto tom pitanju ceo svet danas pridaje ogroman značaj iz čega verujem da sledi da bi i Republika Srbija morala da mu pridaje isti toliki značaj.
Vlada Republike Srbije ima jasno razvijene smernice po kojima može da prosuđuje kako se postaviti prema ovom i svakom sledećem sličnom slučaju, iz dokumenta “ETIČKE SMERNICE ZA RAZVOJ, PRIMENU I UPOTREBU POUZDANE I ODGOVORNE VEŠTAČKE INTELIGENCIJE“, koji je usvojila Vlada Republike Srbije 23. marta 2023:
“U cilju obezbeđivanja poštovanja načela dostojanstva, sistemi veštačke inteligencije ne smeju biti takvi da u procesima rada i primene grubo zanemaruju autonomnost ljudskog izbora.
Ustav Republike Srbije naglašava da je dostojanstvo „neprikosnoveno i svi su dužni da ga poštuju i štite. Svako ima pravo na slobodan razvoj ličnosti, ako time ne krši prava drugih zajemčena Ustavom.”
Konvencija o ljudskim pravima navodi sledeće: „Ljudsko dostojanstvo (dostojanstvo) nije samo osnovno ljudsko pravo već i osnova ljudskih prava. Ljudsko dostojanstvo je urođeno svakom čoveku.”
U Republici Srbiji ovaj pojam je uređen na sledeće načine:
„Dostojanstvo ličnosti (čast, ugled, odnosno pijetet) lica na koje se odnosi informacija pravno je zaštićeno.”
„Ko zlostavlja drugog ili prema njemu postupa na način kojim se vređa ljudsko dostojanstvo, kazniće se zatvorom do jedne godine.“
[…]
Ovim načelom naglašava se da se u svakom trenutku mora brinuti o integritetu i dostojanstvu svih na koje Sistem veštačke inteligencije može uticati. Kako je u pitanju opšti pojam, kojem život, pored zakona daje različita naličja, mada je suština ista, primereno je za sam pojam vezati: čast, ugled, odnosno pijetet.”
Dalje, u sekciji “3.3 Zabrana činjenja štete”:
“Pored građanske odgovornosti zakon prepoznaje i krivičnu i prekršajnu odgovornost kako fizičkih tako i pravnih lica za štetu koju pricine drugom licu.
Krivični zakonik redviđa veliki broj krivičnih dela, od kojih je značajno navesti krivična dela protiv života i tela, imovine ljudi, protiv sloboda i prava čoveka i građanina. Posebnim zakonom predviđena je i odgovornost lica za štetu koju pricine izvršenjem dela manje društvene opasnosti – prekršaja.”
Ove etičke smernice, ipak, nisu obavezujuće.
Najavu odnosa koji će država zauzeti dao je Predsednik Republike Aleksandar Vučić:
“Smatram da su predstavnici bivšeg režima u pravu, da to ne sme da se koristi, da je to nešto što je nedozvoljivo, nešto što je nefer, i nešto što jedna demokratska država ne treba da radi, i ja se nadam da će nadležni organi preduzeti mere po tom pitanju. Ja to očekujem“, poručio je Vučić gostujući na RTS-u. (izvor: Vučić o zloupotrebi veštačke inteligencije na Pinku: To ne sme da se radi, N1)
Kako će izgledati praksa – ono što me kao građanina Srbije uvek više brine od reči, teksta, i regulative – ostajemo da vidimo.
Predviđanja koja čujemo su da će se odbrana verovatno bazirati na činjenici da je Mitrović od početka naglasio da je u pitanju sintetički sadržaj, generisan AI tehnologijom, namenjen kreiranju satiričnog programa. Gde su granice odrediće sud, a prvo rešenje za budućnost koje pada na pamet je zaista jednostavno i podrazumevalo bi obaveznu upotrebu neke standardizovane, vidljive vrste digitalnog vodenog žiga preko svih vizuelnih sadržaja generisanih putem AI, kao i obaveznu napomenu za tako generisane audio sadržaje ili tekstualne sadržaje pre emitovanja ili objave.
Ono što malo brine je već formiran javni diskurs oko predstojećeg sudskog procesa koji se fokusira na tradicionalne teme o tome šta bi REM trebalo da učini, da je neophodno obezbediti da “informacije budu istinite, tačne i objektivne” – što su sve tautološke istine koje, razmatrali se događaj samo iz njihove perspektive, u potpunosti propuštaju da u javnom diskursu zaista pokrenu pravu raspravu o rizicima od upotebe AI – raspravi koja jednostavno nije isto što i bilo koja rasprava o medijima u Srbiji.
Dakle, postoji prilika da se povede ozbiljna rasprava o rizicima od AI konkretno u Srbiji – ali postoji i prilika da se prilika propusti i rasprava trivijalizuje na nivo u kome će se tek učesnici u njoj jednostavno osećati komfornije, i završićemo tradicionalno, srpski, govoreći nešto da bi se o nečemu govorilo ili kontriralo drugom.
U nekim od njihovih nastupa dominiraju opšta mesta, pominjanje klasifikacije rizika AI sistema u četiri kategorije koju uspostavlja EU AI Act i koja se kao ideja vrti već godinama, čini se da izostaju pažljivo praćenje i napor za razumevanjem globalnog razvoja događaja u ovoj oblasti čiji sam tek delimičan pregled dao u prethodnim redovima, tehnološki razvoj (u kome je ove godine bilo perioda kada smo doslovce na dnevnom nivou imali bitne razvoje, dan za danom) da ne pominjem, prepoznavanja svih skopčanih rizika, razmišljanje o posledicama po spoljno-političke odnose onih država koje ne budu htele da uzmu učešća u globalnoj regulaciji sistema AI… Kasnimo, ponovo, i u podizanju svesti o problemu, i u obrazovanju koje nam je neophodno da bismo ga rešavali.
Javni sektor? Država? Iz Instituta za veštačku inteligenciju nismo čuli ni reč.
Većinsko je mišljenje – bez obzira na sentiment koji prema njemu može da se razvije ili ne – u diskusijama o regulativi AI da se bez uključenja kompanija koje razvijaju generativne AI sisteme na velikoj skali, onih od koje ćete najverovatnije kupovati AI As A Service (AIaaS), u proces razvoja regulative, tu ništa korisno neće dogoditi. AI je igra velike skale: ne možeš se takmičiti sa nekim ko će zaista imati (prave) superkompjutere iza sebe.
Sa druge strane, razvoji u Open-source zajednici će možda ubrzano otvarati vrata mnogima koji bi da izađu na teren. Već se pokazalo da mnogo toga što je delovalo rešivo samo ogromnom računarskom snagom ipak ima prečicu kojom se rešava brže, jevtinije, i jednostavnije. Bez obzira na ove odnose, jedna stvar koja u procesu regulacije AI mora da bude jasna – a za koju moram da primetim da u procesu regulative odnosno upravljanja Internetom nikad nije postala do kraja jasna niti primenjena, zbog čega verujem da taj proces već više od dve decenije kaska u mestu bez izgleda da ikada dovede do nekog koncezusa – jeste da bez uključenja tehničke zajednice same taj proces neće ići nikud.
Države, nevladin sektor, mediji, pa čak ni same kompanije koje se delom preklapaju sa tehničkom zajednicom, neće činiti kompletnu alijansu donosioca odluka bez tehničke zajednice ovaj put suštinski uključene u proces. Inženjeri, developeri, naučnici, svi koji se nalazimo sa ove strane procesa razvoja i primene ovakvih tehnologija, smo i sami suočeni sa ogromnom neizvesnošću o tome šta se dešava sutra.
Ljudi odgovorni za revoluciju Deep Learning paradigme koja je omogućila razvoj savremenih generativnih AI, poput dobitnika Tjuringove nagrade Yoshua Bengio, upozoravaju da je razvoj u oblasti neočekivano brz, prebrz, i da je teško predvideti sve rizike koji se mogu iznenada pojaviti u budućnosti. Drugi tjuringovac, Geoffrey Hinton, do skora nije verovao da će AI sistemi ikada postati “pametniji” od nas – i od skora promenio mišljenje, upozoravajući na čitav niz rizika sa kojima možemo da se suočimo u veoma bliskoj budućnosti.
Dok smo već razvili metode (kombinujući inženjering promptova sa tehnologijama vektorskih baza podataka) da donekle zauzdamo tzv. halucinacije u sistemima generativne AI – mada će to za sisteme koji generišu vizuelni sadržaj ići dosta teže – ostaju mnoge tzv. emergentne odlike ovih sistema koje malo razumemo, a što je najopasnije nemamo ni dobre osnove da ih u budućnosti razumemo ili predviđamo (osim što za neke znamo da možemo da ih iskoristimo za našu dobrobit – dok za neke znamo da nećemo ni znati kakvu formu mogu da uzmu i do kojih posledica dovedu, što nas već postavlja veoma visoko u taksonomiji rizika). Uleteli smo svi u takav nivo kompleksnosti da će biti nemoguće odrediti lokus bitnih, i potencijalno krucijalnih događaja u razvoju AI – i zato ćemo svi morati da učestvujemo u njenom nadgledanju i regulaciji.
Ako budemo pristupili ovom problemu kao što u medijima pristupamo bilo kom komunalnom problemu u Beogradu, svakodnevnoj čarki u srpskom parlamentu, ili već višegodišnjoj raspravi o kontroli nad medijima u Republici Srbiji, nećemo ići nikud. To ne znači da su takve rasprave nevažne, naprotiv, već da rasprava o regulativi AI jednostavno nije isto što i to. Plašim se (ili se radujem, nisam siguran) da je došlo ono vreme kada će nas istorija promeniti pa dopalo se to nama ili ne. Razvoj AI implicira kategorije rizika koje su do juče samo možda bile tek teorijske prirode. Danas već one sigurno to više nisu.
Napomena autora. “Scenario 2” iz prethodnih redova je prema mojim uputstvima na engleskom jeziku generisao i na sprski preveo ChatGPT Plus (GPT-4 model).
* Stavovi izraženi u kolumnama predstavljaju isključivo lične stavove autora, a ne stavove uredništva Talasa.
"Radio stanica sa tradicijom dugom 17 godina i konstantnim brojem stalnih slušalaca i pratioca koji svakodnevno raste. Posebno se ponosimo činjenicom, da naš radio sluša ogroman broj dijaspore širom sveta i na svim meridijanima kao i listner time koji je u proseku veći od 4 sata