STEGA: Vještačka inteligencija i digitalna transformacija crnogorskog društva između zloupotrebe i razvoja
Ukoliko ne želi da joj se ponovi današnji scenario „jes/nije original, jes Miloš/nije Miloš“, odgovorna vlast mora prije svega reagovati proaktivno u nekoliko paralelnih pravaca

U slučaju snimaka koji se ovih dana dovode u vezu sa odbjeglim osuđenikom Milošem Medenicom, reakcija u crnogorskom javnom diskursu pokazuje koliko snažan može biti efekat ovakvih sadržaja koji se pojavljuju u medijima i na društvenim mrežama kada se o njima ne može dobiti autentična potvrda ili dati populaciji objektivan odgovor po pitanju njihove istinitosti, navode u saopštenju iz Strategije za evropsku i građansku Crnu Goru (STEGA).
Digitalna transformacija crnogorskog društva u XXI-om vijeku i razvoj vještačke inteligencije otvorilo je pitanje pravne i društvene odgovornosti u digitalnom prostoru, naročito kada je, kako kažu, riječ o generisanju audio i video sadržaja koji mogu imitirati stvarne osobe i događaje
Prioritetna potreba, ističu, crnogorskog društva je jasno prepoznavanje i definisanje zloupotrebe vještačke inteligencije kada se manifestuje kroz prezentaciju digitalne manipulacije, posebno kada je cilj obmana javnosti, izazivanje panike ili nanošenje reputacione štete.
Zato, dodaju iz STEGA-e, pitanje više nije da li će se takve zloupotrebe dešavati, već kako će država na njih odgovoriti.
- Ukoliko ne želi da joj se ponovi današnji scenario „jes/nije original, jes Miloš/nije Miloš“, odgovorna vlast mora prije svega reagovati proaktivno u nekoliko paralelnih pravaca - naglasili su u saopštenju.
Prvi pravac djelovanja u predupređivanju nastanka štete, koji STEGA prepoznaje, jeste, pojašnjavaju, izmjena i dopuna zakonskog okvira kroz učinkovitiju i ažurniju implementaciju evropskih zakonodavnih rješenja, naročito u svjetlu već vjerovatnog skorog pristupanja Evropskoj uniji.
- Implementacija bi se prije svega sprovela kroz prilagođavanje krivičnog zakonodavstva. Dopune odredbi ili definisanje posebnog poglavlja koje bi prepoznalo društvenu štetnost i rangiralo kaznenu odgovornost pojedinca, privrednog ili političkog subjekta prvi su korak koji mora pratiti kreiranje i usvajanje niza novih, kao i dopuna postojećih pravnih akata iz srodnih oblasti u cilju sveobuhvatne zaštite populacije. Osim krivičnog zakonodavstva, u cilju usklađivanja sa već usvojenim evropskim propisima kao što su Artificial Intelligence Act (EU) 2024/1689, Digital Services Act (EU) 2022/2065, Data Act (EU) 2023/2854, Cyber Resilience Act (EU) 2024/2847, GDPR (EU) 2016/679, Digital Markets Act (EU) 2022/1925, NIS2 Directive (EU) 2022/2555 i Data Governance Act (EU) 2022/868, kao nužnost nameće se usvajanje i niza potpuno novih zakona koji do sada nijesu postojali, kao što su Zakon o vještačkoj inteligenciji, Zakon o digitalnim uslugama, Zakon o čuvanju i manipulaciji digitalnim podacima, Zakon o bezbjednosti digitalnih proizvoda, kao i izmjene i dopune postojećih zakona: Zakona o zaštiti podataka o ličnosti, Zakona o zaštiti konkurencije, Zakona o informacionoj bezbjednosti i Zakona o upravljanju podacima - podvlači se u saopštenju.
Drugi pravac, kako poručuju, koji STEGA prepoznaje kao nužan i proaktivan način djelovanja jeste institucionalni odgovor. Država mora razviti operativne kapacitete za digitalnu forenziku.
- To podrazumijeva formiranje specijalizovanih timova unutar specijalizovane nezavisne Vladine agencije zadužene za forenziku, koja ne smije biti unutar policije, sudstva ili tužilaštva, ali bi radila i za njihove potrebe. Pripadnici ove agencije bili bi obučeni za prepoznavanje i analizu deepfake sadržaja, kao i ostvarivali kontinuiranu institucionalnu saradnju sa domaćim i stranim univerzitetima, drugim forenzičkim tijelima i institutima, kao i tehnološkim sektorom. Bez tehničkog znanja institucije ostaju spore, dok se manipulativni sadržaji šire brže od sistema koji treba da ih kontroliše - upozoravaju iz STEGA-e.
Treći pravac proaktivnog djelovanja vlasti, kako kažu, jeste organizacioni i razvojni aspekt. STEGA prepoznaje potrebu kreiranja digitalnog kompasa do 2030. godine kroz uspostavljanje nacionalne strategije za vještačku inteligenciju koja bi istovremeno regulisala rizike i podsticala inovacije i bila u skladu sa Sofijskom deklaracijom i EU Digital Decade Policy Programme 2030. To, dodaju, uključuje podršku domaćim projektima, korišćenje AI rješenja u javnoj upravi radi efikasnijeg pružanja usluga građanima, kao i transparentno korišćenje algoritama u javnom sektoru.
- Četvrti pravac proaktivnog djelovanja vlasti, koji STEGA smatra nužnim, jeste veća informisanost i transparentnost kroz promociju medijske i digitalne pismenosti. Nijedan zakon ne može zamijeniti informisanog građanina, a građanin je informisan ako su mu podaci javno dostupni. Uvođenje medijske i digitalne pismenosti u obrazovni sistem, kao i javne kampanje koje objašnjavaju kako nastaju manipulativni sadržaji, predstavljaju pravce dugoročne zaštite društva. Povjerenje se ne brani zabranama, već edukacijom, transparentnošću i razumijevanjem. STEGA cijeni da je uvijek bolje proaktivno reagovati u cilju sprečavanja ili umanjenja efekata nego retroaktivno djelovati na otklanjanju ili umanjenju nastale štete, a medijsko i digitalno opismenjavanje populacije razvija unutrašnje pojedinačne proaktivne mehanizme odbrane - ističu u saopštenju.
Prema njihovim riječima, svjesno, namjerno i ciljano generisanje i distribucija digitalnog sadržaja nastalog u cilju obmane, a u svrhu ostvarivanja koristi ili nanošenja štete, manipulacijom nad originalnim ili stvaranjem potpuno novog digitalnog sadržaja sa stvarnim akterima koji se nije desio, treba i mora biti detaljno prepoznato i kroz izmjene ili dopune uneseno u crnogorsko zakonodavstvo.
- Razlike u regulaciji vještačke inteligencije jasno odražavaju šire političke i društvene modele tri najveća globalna tehnološka prostora — Sjedinjenih Američkih Država i Kine s jedne strane i Evropske unije sa druge strane. Iako se sve tri strane suočavaju sa istim tehnološkim izazovima, posebno u oblasti manipulativnih audio i video sadržaja, njihovi odgovori značajno se razlikuju. Američki pristup je znatno decentralizovaniji i tržišno orijentisan. U Sjedinjenim Američkim Državama ne postoji jedinstveni federalni zakon ekvivalentan AI Act-u, već se regulacija razvija kroz kombinaciju sektorskih pravila, preporuka i sudske prakse. Naglasak je na inovaciji i brzom tehnološkom razvoju, dok se problem zloupotrebe, uključujući deepfake sadržaje, uglavnom rješava kroz postojeće zakone o prevari, kleveti i zaštiti potrošača. Prednost ovog modela je fleksibilnost i brzina razvoja, ali nedostatak predstavlja neujednačena zaštita i sporija reakcija na sistemske rizike - dodaje se u saopštenju.
Kineski model, kako istilu, s druge strane, karakteriše snažna centralna kontrola i regulatorna intervencija države. Kina je među prvim državama koja je donijela posebna pravila za „generisani sadržaj“, uključujući obavezno označavanje sintetičkih medija i registraciju određenih AI sistema kod regulatora.
Međutim, ističu iz STEGA-e, za razliku od evropskog pristupa, fokus nije primarno na zaštiti individualnih prava, već na očuvanju društvene stabilnosti i državne kontrole nad informacijama. Regulacija je stroga i operativno efikasna, ali sa manjim naglaskom na transparentnosti prema korisnicima.
- Evropski model pokušava zauzeti srednji put između američke deregulacije i kineske centralizacije. Cilj je omogućiti razvoj tehnologije uz očuvanje demokratskih standarda i povjerenja u javni prostor. Upravo zbog toga evropski pristup danas sve češće služi kao referentni okvir državama koje nastoje uskladiti tehnološki razvoj sa pravnom sigurnošću i društvenom odgovornošću. Evropska unija razvila je proaktivni pristup koji STEGA smatra imanentnim crnogorskom putu kao skorašnjem dijelu EU prostora, zasnovan na regulaciji rizika i zaštiti osnovnih prava. AI Act (EU) 2024/1689 polazi od pretpostavke da tehnologija mora biti usklađena sa demokratskim standardima, zaštitom privatnosti i transparentnošću. Fokus nije na zabrani razvoja, već na obavezi proizvođača i korisnika da jasno označe „generisani sadržaj“, spriječe obmanu javnosti i preuzmu odgovornost za posljedice upotrebe sistema. Evropski model, koji STEGA preferira, naglašava povjerenje, pravnu sigurnost i dugoročnu stabilnost digitalnog prostora kao pretpostavku skladnog i neometanog ekonomskog, socijalnog, naučnog i obrazovnog razvoja društva - zaključuje se u saopštenju.