DRAGOŞ TUDORACHE: ‘Za razliku od Kineza, mi u Europskoj uniji želimo spriječiti zloporabe umjetne inteligencije’

Autor:

Europski parlament

Rumunjski liberal, potpredsjednik Kluba zastupnika Renew Europe u Europskom parlamentu, govori o novom zakonu EU-a kojem je cilj zaustaviti uplitanje umjetne inteligencije u demokratske i izborne procese u EU-u i utjecaj na javnost u europskim zemljama

Prošloga tjedna Elon Musk i skupina stručnjaka za umjetnu inteligenciju, u otvorenom pismu koje je objavio neprofitni institut Future of Life, zatražili su šestomjesečnu pauzu u sustavima za obuku umjetne inteligencije. Pismo je osim Elona Muska, izvršnog direktora Stability AI-a, potpisalo tisuću vodećih poslovnih ljudi svijeta koji smatraju da su AI sustavi moćniji otkad je lansirana naprednija verzija chatbota ChatGPT. Zato pozivaju na pauzu u razvoju umjetne inteligencije dok neovisni stručnjaci ne razviju, implementiraju i revidiraju zajedničke sigurnosne protokole. “Moćne AI sustave treba razvijati tek kada budemo sigurni da će njihovi učinci biti pozitivni i da će se rizicima moći upravljati”, stoji u pismu. Uplitanje umjetne inteligencije u demokratske i izborne procese u EU-u, zloupotreba algoritama i utjecaj na javnost u europskim zemljama s ciljem destabiliziranja legalno izabrane vlasti, teme su kojima se intenzivno bave institucije Europske unije u kontekstu ruske agresije na Ukrajinu i pokušaja utjecaja Rusije na javno mnijenje u europskim zemljama, ali i uoči izborne godine 2024. kada će se birati novi saziv Europskog parlamenta, kao i povjerenici i predsjednik Europske komisije i ostali visoki dužnosnici EU-a.

Europska komisija još u veljači 2020. objavila je „Bijelu knjigu o umjetnoj inteligenciji“ i predložila uspostavu europskog regulatornog okvira. Europski parlament donio je u listopadu 2020. tri zakonodavne rezolucije o umjetnoj inteligenciji koje pokrivaju etiku, građansku odgovornost i intelektualno vlasništvo, a Europska komisija predstavila je prijedlog novog zakona o umjetnoj inteligenciji (AI Act) u travnju 2021.

Zbog važnosti tog zakona na njemu su radila dva odbora Europskog parlamenta i dvoje izvjestitelja. U ime Odbora za umjetnu inteligenciju u digitalno doba izvjestitelj je bio njegov predsjednik, Rumunj Dragoş Tudorache, a u ime Odbora za unutarnje tržište i zaštitu potrošača izvjestitelj je bio Talijan Brando Benifei iz Kluba zastupnika Progresivnog saveza socijalista i demokrata. Oni su predstavili svoj nacrt izvješća u travnju 2022. On prepoznaje nekoliko razina rizika primjene umjetne inteligencije (AI): štetnu upotrebu umjetne inteligencije u suprotnosti s vrijednostima EU-a, AI visokog rizika, AI ograničena rizika i AI minimalna rizika, dok se svi ostali sustavi umjetne inteligencije mogu razvijati i koristiti u EU-u bez dodatnih pravnih obveza osim postojećeg zakonodavstva. Za nekoliko tjedana završni nacrt zakona bit će poslan u Europsko vijeće na odobrenje, a zakon o umjetnoj inteligenciji trebao bi biti donesen do kraja godine.

O toj temi s grupom hrvatskih novinara razgovarao je rumunjski liberal Dragoş Tudorache, potpredsjednik Kluba zastupnika Renew Europe u Europskom parlamentu. Dragoş inače dolazi iz stranke Reînnoim Proiectul European al României, iza njega je bogata politička karijera koju je započeo u Misiji UN-a na Kosovu, a radio je i kao šef odsjeka za pravosudne programe u OESS-u. U Rumunjskoj je obnašao dužnost ministra unutarnjih poslova, ministra komunikacija i digitalnog društva, a bio je i voditelj Ureda predsjednika Vlade . U ovom sazivu Europskog parlamenta član je Odbora za vanjske poslove, Istražnog odbora PEGA za istraživanje upotrebe Pegasusa i ekvivalentnog špijunskog softvera za nadzor, Odbora za građanske slobode, pravosuđe i unutarnje poslove LIBE, kao i pododbora za sigurnost i obranu SEDE. Od 2020-2022. bio je i predsjednik posebnog Odbora za umjetnu inteligenciju u digitalno doba Europskog parlamenta.

NACIONAL: Zašto je važno u ovom trenutku donijeti zakon o umjetnoj inteligenciji?

Mislim da nije potrebno napominjati koliko je umjetna inteligencija važna. Novinari ste, pratite medije i vjerujem da ste vidjeli otvoreno pismo koje je objavio Future of Life Institute, a u kojem Elon Musk i skupina stručnjaka za umjetnu inteligenciju pozivaju na šestomjesečnu pauzu u sustavima za obuku umjetne inteligencije. To pismo potpisalo je tisuće vodećih biznismena svijeta koji se bave umjetnom inteligencijom, oni su zazvonili na alarm tražeći ograničavanje njenog razvoja. To je i razlog zbog kojeg EU ima prijedlog tog zakona na stolu, a kao što znate, rasprave o umjetnoj inteligenciji vode se već neko vrijeme. Obični građani možda toga nisu bili svjesni, ali otkad se pojavio ChatGPT, svi o tome govore. Pojavili su se i strahovi, tenzije i zabrinutost zato što nitko ne zna u kojem će smjeru to ići i kako će utjecati na ljudske živote.

‘Zloupotreba AIa doista bi mogla ugroziti koheziju svakog društva i ako pogledate algoritme koji stoje iza društvenih medija i društvenih mreža, jasno je da oni utječu na političke debate koje se vode ovih dana’

NACIONAL: Postoji li zakon o umjetnoj inteligenciji negdje izvan EU-a?

Ne, mi smo kao EU ispred svih ostalih. I to zato što je već u prethodnom mandatu, za vrijeme prijašnje Komisije, postojala grupa ljudi i eksperata koja je izradila osnovne principe koji bi trebali služiti kao putokaz i orijentacija za budući Zakon. Međutim, oni su već tada, radeći na tim principima, uočili više razloga za zabrinutost zbog utjecaja koje umjetna inteligencija može imati na sve segmente naših života – od obrazovanja do radnog mjesta. I tada se postavilo pitanje jesu li te preporuke i principi dovoljni ili treba donijeti zakon. Hoće li velike tvrtke staviti te principe iznad svog profita ili postoji rizik da će one i dalje nastaviti razvijati umjetnu inteligenciju bez ikakve kontrole, jer će im profit ipak biti najvažniji? Osim toga, vrlo skoro na tom će se području razviti oštra konkurencija, bez obzira na interese društva. No naravno da ne postoje samo prava pojedinaca, već postoje i interesi društva u cjelini.

NACIONAL: Kako bi zloupotreba umjetne inteligencije mogla naštetiti društvu?

Zloupotreba bi doista mogla ugroziti koheziju svakog društva i ako pogledate algoritme koji stoje iza društvenih medija i društvenih mreža i ako su vam poznati razgovori koji se ovih dana vode o Tik-Toku ili možda Facebooku, jasno je da ti algoritmi prilično utječu na političke debate koje se vode ovih dana. Tako društvene mreže vrše utjecaj i na politiku i na demokracije, pa i na zdravlje naših društava kao takvih. A te procese zapravo ubrzava umjetna inteligencija.

NACIONAL: Znamo li kako ti algoritmi funkcioniraju i postoje li strukturalni rizici koji su ugrađeni u način na koji funkcioniraju?

To su pitanja na koja još uvijek nemamo konačne odgovore. Kao ni na pitanje mogu li se ti algoritmi replicirati i narasti na tim platformama. To su sve bila pitanja koja smo si postavljali i koja su se sama nametala, sve do početka mandata ove aktualne Europske komisije koja je konačno odlučila donijeti zakon o umjetnoj inteligenciji. I ponavljam – mi smo prvi koji smo to napravili.

NACIONAL: Što se događalo sa sličnim inicijativama u kojima je EU pokušavao biti prvi?

Jedna od njih bio je zakon, odnosno, Direktiva o zaštiti osobnih podataka (GDPR). I onda je bilo mnogo onih koji su zbog toga kritizirali EU. Govorili su da Europa, umjesto da se fokusira na inovacije i razvoj tehnologija, isključivo djeluje tako da ih regulira. Uostalom, znate onaj famozni vic – Amerikanci inoviraju, Kinezi kopiraju, a Europljani reguliraju. Do određene razine na različitim područjima to je svakako bila istina. No ovoga puta sa Zakonom o umjetnoj inteligenciji ipak je drugačije. I to ne zato što sam bio uključen u njegovo donošenje kao izvjestitelj, već zato što sam ovoga puta uvjeren da doista postoji potreba za uspostavljanjem određenih pravila. I kada pogledam reakcije na globalnoj razini, sve zemlje svijeta koje dijele sličan sustav vrijednosti i slično razmišljaju – od SAD-a, preko Australije, Sjeverne Koreje, Japana, Indije, Brazila do Kanade – sve dijele istu zabrinutost. Zapravo, vode se rasprave na otprilike istoj razini, a ono u čemu se razlikuju jest činjenica da neke od njih imaju problema s aktiviranjem političke volje da se u njihovim zemljama donese takav zakon. Smatram zato da će europski zakon o umjetnoj inteligenciji, koji ćemo donijeti ove godine, postati model koji će slijediti veliki broj zemalja koje slično razmišljaju.

‘Ovim zakonom ne želimo regulirati umjetnu inteligenciju, već način na koji se ona koristi’, rekao je Tudorache. FOTO: Emilie GOMEZ/Europski parlament

NACIONAL: Kakvu to ima težinu u kontekstu globalne sigurnosne krize izazvane ratom u Ukrajini?

Ponavljam taj izraz „zemlje istomišljenice“ zato što u ovom specifičnom geopolitičkom kontekstu postoji različiti set globalnih aktera koji imaju drugačije vrijednosti od naših, ali jednako dobro poznaju modernu tehnologiju. Pogledajte kako Kina upotrebljava umjetnu inteligenciju posljednjeg desetljeća. Iza toga sasvim sigurno stoje potpuno drugačija filozofija i drugačiji model, koji će biti u potpunom kontrastu s našom vizijom o tome kako bi se trebala razvijati tehnologija i kako bi trebala pomagati, a ne uništavati društva i demokraciju. To je, dakle, razlog zbog kojeg EU želi donijeti takav zakon, kako bi se i vanjski igrači, kada djeluju na prostoru europskog tržišta, ponašali u skladu s time.

NACIONAL: Dokle ste stigli s procesom donošenja zakona?

To je dugotrajni proces za koji postoji određena procedura koja je i politički uvjetovana. Odbori Europskog parlamenta izašli su s nacrtom prijedloga zakona u travnju 2022., a Europsko vijeće odradilo je svoj posao i usvojilo zajedničko stajalište o Zakonu o umjetnoj inteligenciji u prosincu prošle godine. Budući da je to tako važan zakon i da se radi o vrlo kompliciranom tekstu, koji će imati snažan utjecaj, imali smo preko tri tisuće dopuna i izmjena. Mislim da po broju amandmana držimo rekord u ovom mandatu. Bojim se da će konačna verzija, kada dođe na glasanje, imati preko nekoliko stotina stranica. Žalim svoje kolege zastupnike u Europskom parlamentu koji će za to morati glasati. jer će provesti pola dana glasajući. Radilo se o vrlo kompleksnim pregovorima zbog kojih je sve to potrajalo. Ovih dana odradili smo sastanke s izvjestiteljima različitih političkih stranaka. Ali sada smo doslovce na zadnjoj dionici.

NACIONAL: Što je onda preostalo za pregovaranje?

Kao dragulj na kruni, ostalo je da se dogovorimo kako ćemo regulirati opću namjenu Zakona, kao i ChatGPT. To u početku nije ni bilo u prijedlogu Komisije. Iz niza razloga. Naime, u vrijeme kada je Komisija izašla s tim prijedlogom prije dosta godina, tko je znao da će postojati GPT? Tko je razmišljao o općoj namjeni? Nitko. Možemo se kladiti da će stvari za godinu dana izgledati radikalno drugačije, jer je brzina kojom se neki od tih algoritama razvijaju nevjerojatna. No ja isto tako ne vjerujem da će se u godinu ili dvije algoritmi okrenuti protiv nas i sve nas pobiti. Ipak, činjenica jest da su algoritmi vrlo moćni i vrlo raznoliki i da mogu postati vrlo opasno oruđe u pogrešnim rukama, ako se koriste za pogrešne ciljeve. No nije li tako sa svom tehnologijom? Kao i s nožem – njime možete rezati kruh, ali i možete nekoga ubiti. I zato upotreba tehnologije mora biti vrlo strogo regulirana i vođena, jer u suprotnom može izazvati vrlo negativne posljedice za sve nas kao ljudski rod, ali i društvo. Zato je bolje da upotrebu umjetne inteligencije reguliramo što prije. I zato treba uzeti u obzir apel koji je objavio Future of Life Institut, čiji je osnivač Elon Musk, s još nekoliko drugih velikih imena. Usput rečeno, mi smo s tim ljudima u kontaktu preko godinu dana i smatram da rade odličan posao. Njihov apel odnosi se upravo na to o čemu govorim. Brzina kojom se umjetna inteligencija razvija je zastrašujuća i zato se potrebno s tim procesima suočiti i regulirati ih. Mi smo ponosni što ćemo kao Europljani biti prvi koji će uspostaviti skup pravila za to područje.

NACIONAL: Kada će se glasati o tom zakonu?

Za nekoliko tjedana, a prije toga posljednja slagalica koja nedostaje je uspostavljanje režima nad kojim smo puno razmišljali posljednjih nekoliko mjeseci, a to je kako točno uokviriti obveze za određene modele kako bismo mogli točno ciljati njihove karakteristike. To znači da bismo danas morali napisati pravila koja će još uvijek biti relevantna i za godinu ili za pet godina, što je vrlo izazovan i kompleksan zadatak. No zadovoljan sam napretkom koji smo postigli i uvjeren sam da ćemo imati tekst koji će podržati većina u Europskom parlamentu. A onda ćemo od lipnja početi pregovore s Vijećem, tijekom španjolskog predsjedanja, i nadam se da će tu temu oni učiniti jednim od svojih prioriteta. Nadam se da ćemo uskladiti stavove i da je moguće donijeti taj zakon do kraja godine.

‘Naš model bit će u u potpunom kontrastu s vizijom kineske države o tome kako bi se trebala razvijati tehnologija i kako bi trebala pomagati, a ne uništavati društva i demokraciju, kako to oni čine’

NACIONAL: Dakle, mislite da bi tijekom španjolskog predsjedanja taj zakon mogao biti usvojen?

Da, oni su već do sada puno u to investirali i intenzivno se pripremali mentalno i politički pa vjerujem da će se potruditi završiti taj proces do kraja godine.

NACIONAL: Kakva će pravila o korištenju umjetne inteligencije donijeti taj zakon, osobito o ChatGPT-ju s obzirom na to da on sakuplja informacije s otvorenog interneta?

Kako da vam to objasnim? Logika teksta zakona o AI-u je sljedeća: zamislite piramidu, piramidu rizika. Dakle, svrha zakona temelji se na riziku koji postoji. Odnosno, ako umjetna inteligencija ne izaziva nikakav rizik, ostavit ćemo je na miru. U našem je interesu zaštita od zloporaba, ali istovremeno želimo i da se umjetna inteligencija nastavi razvijati u pozitivnom smjeru kao pokretač digitalne transformacije. Ne želimo ograničavati biznis u njegovu napretku kao što ne želimo da EU zaostaje za inovacijama u Kini, SAD-u ili drugdje u svijetu. Što se, usput rečeno, već događa. To znači da mi ovim zakonom ne želimo regulirati samu tehnologiju, već način na koji se ona koristi. A to može biti više ili manje rizično. U tom smislu postojat će lista primjene umjetne inteligencije koja nije dopuštena.

NACIONAL: Možete li dati neki primjer?

Naprimjer, društveno bodovanje. Što znači društveno bodovanje? To je praćenje i procjenjivanje ponašanja ljudi offline i online, a to je ono što rade Kinezi. Svaki kineski građanin ima svoj društveni rezultat, odnosno, procjenu svog ponašanja koju daje aplikacija umjetne inteligencije koju kontrolira Vlada. Ovisno o tom rezultatu imate pristup određenim uslugama, prema njemu se određuje i kakve kredite banaka možete dobiti. Dakle, on ima ozbiljne posljedice na vas kao ljudsko biće i na vaše interakcije s državom i njenim institucijama. A to, kao što rekoh, procjenjuje algoritam. Mi kažemo da takva štetna primjene umjetne inteligencije u EU-u nije i neće biti dopuštena, jer je u suprotnosti s europskim vrijednostima. Za sada smo napravili listu na kojoj se nalazi otprilike pet tipova aplikacija koje neće biti dopuštene. Jedna od njih je i aplikacija koja predviđa kriminalno ponašanje. Naravno, pitanje je kako možemo biti sigurni da smo ih sve obuhvatili, jer možda se već sljedeće godine pojavi neka nova. No postojat će mehanizmi unutar tog zakona koji će dopustiti da amandmani prolaze kroz mnogo jednostavnije procedure nego ove do sada, što konkretno znači da će se lista moći modificirati. I to tako da se nešto što nije opasno kao što se očekivalo, makne s liste, a nešto novo doda. Dakle, lista će se moći prilagođavati vremenu i evoluciji tehnologije

NACIONAL: A što je s algoritmima visokog rizika?

To je druga razina piramide – tzv. razina visokog rizika. To znači da se radi o nečemu što nije zabranjeno, ali zbog svojih implikacija i mogućeg negativnog utjecaja na naše društvo i demokracije, morat će podnijeti zahtjev usklađenosti. To znači da će morati dokazati transparentnost podataka koje koriste, transparentnost rada algoritama, pravila po kojima rade, kako bi se toj tehnologiji moglo vjerovati. I tu postoji lista područja koja predstavljaju visoki rizik. Jedno od njih je korištenje umjetne inteligencije za zapošljavanje u velikim korporacijama. Moram priznati da ChatGPT nije postojao kada su se te liste stvarale i za sada ne znamo gdje ćemo ga staviti unutar te piramide rizika. Na to još nemam odgovor jer su pregovori u tijeku. Vjerujem da će to biti posebna kategorija u tekstu Zakona.

Komentari

Morate biti ulogirani da biste dodali komentar.