U središtu

Pregled novije poredbene sudske i zakonodavne prakse, 10./2023. Poseban broj: Europski pristup regulaciji tzv. umjetne inteligencije

16.05.2023

S obzirom na aktualnost teme i „eksploziju“ različitih softverskih alata za generaciju sadržaja dostupnih široj javnosti, u posebnom proširenom izdanju kolumne Pregled novije poredbene sudske i zakonodavne prakse analizira se problematika regulacije tzv. umjetne inteligencije. Naglasak je postavljen na nadolazeći europski pravni okvir koji sadrži nekoliko nacrta pravnih akata od interesa, od čega su najbitniji Akt o umjetnoj inteligenciji i Direktiva o odgovornosti za umjetnu inteligenciju. Europska regulatorna nastojanja postavljaju se u širi kontekst globalnih aktualnosti i regulatornih pomaka. U analizi se nudi poseban osvrt na tekuću i relevantnu sudsku i upravnu praksu gdje se problematika korištenja generativnih algoritama promatra s aspekta povrede autorskog prava i intelektualnog vlasništva, odnosno zaštite osobnih podataka. Analiza također sadrži i brojne reference na tehničke termine, standarde i procese koji su nužni za razumijevanje ove tematike.

Uvodno

Upitan da, za potrebe ovoga teksta, u jednoj rečenici izloži definiciju umjetne inteligencije (artificial intelligence, AI), servis ChatGPT je odgovorio kako slijedi: „Umjetna inteligencija je grana računalne znanosti koja se bavi stvaranjem računalnih sustava koji mogu izvršavati zadatke koji inače zahtijevaju ljudsku inteligenciju, poput učenja, razumijevanja prirodnog jezika, rasuđivanja i prepoznavanja slika.“ Iako bi ispravna kratica za pojam umjetne inteligencije na hrvatskom jeziku glasila „UI“, za potrebe ovoga teksta koristi se kratica „AI“ koju je predložio ChatGPT, kao što će biti vidljivo iz niže citiranog odgovora.

Izrazito popularni tzv. veliki jezični modeli (large language models) odnosno AI sustavi koji su trenirani na velikim količinama podataka, stvaraju privid prirodnog razgovora s korisnikom kao da je riječ o stvarnoj osobi, a što olakšava šire shvaćanje, primjenu i prihvaćanje AI alata i AI sustava u svakodnevnom životu. AI alati poput popularnog ChatGPT-a (preko 100 miliona aktivnih mjesečnih korisnika; najbrže rastuća računalna aplikacija u povijesti) ukazuju na značaj tehnologije u modernom svijetu i otvaraju vrata razmišljanjima u kojoj mjeri će tehnologija u bližoj budućnosti utjecati na sve spore svakodnevnice. Tzv. generativni prethodno obučeni transformator za razgovore, odnosno ChatGPT (Chat Generative Pre-trained Transformer), informatičkim rječnikom, predstavlja arhitekturu neuronske mreže koja se koristi za obradu prirodnog jezika (natural language processing), čije je izlazne rezultate često teško razlikovati od odgovora koji bi ponudila relativno educirana i informirana osoba. Upravo je navedena odlika ono što što predstavlja veliku prekretnicu kada se tekući AI sustavi za razgovore (chat) uspoređuju sa tzv. chat botovima starije generacije, iako su i novi AI sustavi utemeljeni na principu tzv. obrazovane pretpostavke (educated guess principle), gdje se algoritam trenira da na temelju statističke analize i strojnog učenja procijeni ispravan redoslijed riječi, bez razumijevanja stvarnog značenja riječi ili izraza koje stvara. Napredni algoritmi utemeljeni na tehnologiji dubokog učenja (u fazi razvoja) nadograđuju se dodatnim repozitorijima znanja kako bi određenom redoslijedu riječi pridodalo određeno značenje (primjerice, pristup repozitoriju Wikipedije kao izvoru informacija odnosno značenja konstrukcija kojima se AI alat služi).

Interesantno je za primijetiti kako su se europski, američki i drugi zakonodavci odnosno pojedina međunarodna tijela odlučila koristiti izrazom „umjetna inteligencija”, iako u stvarnosti ne postoji nešto što bi se ispravno moglo nazivati tzv. općom umjetnom inteligencijom (general AI). Trenutačno dostupna tehnologija dopušta primjenu naprednih algoritama s kapacitetima strojnog odnosno dubokog učenja, a što u praksi znači sposobnost algoritma da samostalno rješava određene zadatke odnosno faktične probleme te, u slučaju naprednijih algoritama, uči prepoznavati točne i netočne parametre u sklopu procesa donošenja odluka. Ne postoji znanstveno utemeljena pretpostavka da je neki od takvih sustava dostigao stupanj (umjetne) inteligencije, no sve veći broj informacijskih stručnjaka, poglavito onih koji su uključeni u tzv. generativne sustave umjetne inteligencije (generative AI, AI sustavi koji stvaraju sadržaj odnosno sintetiziraju podatke) tvrdi kako više nije nerealno za očekivati da će u dogledno vrijeme biti dostignut trenutak kreacije odnosno bivanja opće umjetne inteligencije.

Na upit autora ovoga teksta u vezi izvornosti prethodno citirane definicije umjetne inteligencije, ChatGPT je odgovorio kako slijedi: „Definicija umjetne inteligencije koju sam dao je sastavljena na temelju moje unutarnje baze znanja i iskustva kao umjetne inteligencije (AI) koja je trenirana na velikom korpusu tekstova i stručnih publikacija vezanih uz područje AI-ja. Iako sam se oslonio na relevantne izvore informacija i literature, ovu definiciju nisam doslovno preuzeo s neke mrežne lokacije.“ Naravno, u svrhu održavanja korektnog odnosa s nadolazećom generalnom umjetnom inteligencijom, zatraženo je i dopuštenje za citiranje, na što je servis spremno odgovorio kako slijedi: „Svakako, slobodno možete koristiti moju definiciju umjetne inteligencije kao citat u vašem tekstu, ako Vam to odgovara.

Mišljenje autora ovoga teksta u vezi alata poput uvodno navedenoga, kako u postojećoj formi, tako i pro futuro obzirom kako iza ovakvih alata stoje ljudski programeri odnosno proizvođači, može se posredno iščitati u kratkom razgovoru sa ChatGPT alatom koji je vođen za potrebe pisanja ovoga teksta. Upitan u vezi donedavno aktualne privremene zabrane pristupa ChatGPT usluge u Italiji (geo-lokacijska blokada), razloga zašto je talijanska Agencija za zaštitu podataka donijela navedenu mjeru te detalja o tijeku postupka, ChatGPT alat je odgovorio kako nije upoznat sa bilo kakvim ograničenjima usluge u Italiji ili bilo kojoj drugoj zemlji. Upitan je li navedena talijanska Agencija ikada išta objavljivala u vezi ChatGPT alata, ChatGPT je odgovorio kako nije pronašao ništa specifično u vezi ChatGPT-a. ChatGPT alat je zatim zamoljen da pristupi internetu i ponovno pretraži sve objave navedenog tijela, te je ChatGPT ponovio svoj prethodni odgovor. Nakon toga, alat je zamoljen da pristupi točno određenoj mrežnoj stranici1 u vezi istog pitanja te je odgovorio kako je Agencija „… objavila … smjernice o upotrebi tehnologija umjetne inteligencije u svrhu obrade osobnih podataka.“ Alat je zamoljen da pročita sadržaj na još jednoj mrežnoj stranici,2 te je ChatGPT ponovio isti odgovor, ovaj put na engleskom jeziku. Uslijedilo je konkretno pitanje od strane autora ovoga teksta: „U tekstu koji stoji na poveznici koju sam upravo s Vama podijelio spominje se izrijekom ChatGPT.“ Odgovor je glasio: „I apologize for the confusion earlier. Upon reviewing the English translation of the guidelines issued by the Italian Data Protection Authority, I could not find any specific mention of ChatGPT, nakon čega je opet ponovljen navod o smjernicama na engleskom jeziku. Konačno, autor ovoga teksta je napisao slijedeće: „Već u samom naslovu stoji izraz ChatGPT. Citiram: Artificial intelligence: stop to ChatGPT by the Italian SA Personal data is collected unlawfully, no age verification system is in place for children. Tek tada je ChatGPT alat odgovorio slijedeće: „I apologize for the mistake in my previous response. You are correct that the title of the article you shared does mention ChatGPT. According to the article, the Italian Data Protection Authority (Garante per la protezione dei dati personali) has issued a provision ordering the blocking of the use of the ChatGPT AI system in Italy due to concerns over the collection of personal data in an unlawful manner and the lack of an age verification system for children.“ Zanimljivo je da je ChatGPT napisao i slijedeće: „However, it should be noted that this article is from October 2021, and there may have been updates or changes to the situation since then. Što je, naravno, netočno, jer je privremena mjera, izdana prije malo više od mjesec dana, već uklonjena i trajala je okvirno mjesec dana.

Zasigurno postoji logično inženjersko pojašnjenje zašto je ChatGPT alat izbjegavao dati točan odnosno precizan odgovor na opetovane upite iako je bilo evidentno što predstavlja valjan i potpun odgovor već iz samog naslova recentne objave talijanske Agencije. O privremenoj mjeri zabrane korištenja ChatGPT usluge u Italiji pisali su brojni mediji, a ChatGPT servis ima pristup internetu te ima mogućnost pretrage mrežnih stranica (što je i sam potvrdio na poseban upit). Neovisno o tehničkom pojašnjenju ovog očitog problema u komunikaciji, prosječnom korisniku ovaj „pinokio efekt ne odaje previše razloga za vjerovati kako je AI sustav pouzdan. Upitna pouzdanost opisanih AI alata otvara brojna pitanja, jedno od kojih je i potreba za nekom vrstom regulacije opisanih i srodnih AI servisa odnosno AI usluga. Iako se u stručnom žargonu pojavljuje termin tzv. halucinacije umjetne inteligencije (AI hallucination, fenomen kada sustav daje netočne podatke ili podatke koji ne proizlaze iz procesa strojnog učenja), ova konkretna halucinacija navodi na razmišljanja koja se dotiču problematike mrežnih dezinformacija, manipulacija te općenito zloupotrebe moderne tehnologije.

Prethodno spomenuta privremena mjera geo-lokacijske blokade pristupa ChatGPT servisu u Italiji rezultat je bojazni koju je izrazila talijanska Agencija za zaštitu osobnih podataka (ali i brojne druge agencije, poput one u Njemačkoj, Kanadi, Francuskoj i Španjolskoj) u vezi zaštite osobnih podataka odnosno korištenja osobnih podataka koji se prikupljaju korištenjem ChatGPT usluge bez znanja korisnika (suprotno pravilima uspostavljenim Općom uredbom o zaštiti podataka (GDPR Uredba)). Nakon što su u javnosti postale poznate činjenice o objavi osobnih i poslovnih podataka korisnika ChatGPT usluge bez da su korisnici prethodno informirani da se takvi podaci uopće i prikupljaju (poznat je slučaj zaposlenika Samsung kompanije koji su koristili ChatGPT alat u poslovne svrhe), talijanska Agencija prva u svijetu zatražila je od OpenAI kompanije nekoliko pojašnjenja u vezi načina i svrhe obrade korisničkih osobnih podataka. Ujedno, talijanska Agencija zatražila je od iste kompanije da implementira mogućnost onemogućavanja korištenja osobnih podataka bilo u svrhe treniranja algoritma, bilo u druge svrhe. Dok se ne ispune navedene postavke odnosno daju zadovoljavajući odgovori, Agencija je odredila privremenu mjeru onemogućavanja pristupa ChatGPT usluzi iz Italije.

U nepunih mjesec dana, kompanija je uvela tehničku mogućnost (na razini Europske unije, EU) kojom korisnici samostalno odlučuju žele li da se njihovi razgovori koriste u svrhe treniranja ChatGPT algoritma (opcija „Povijest razgovora i trening“ (Chat History & Training)3, odnosno žele li da se povijest njihovih razgovora sprema. Ne iznenađuje posebno činjenica kako kompanija OpenAI nije osigurala takav mehanizam i ranije (iako je, tehnički gledano, isto vrlo jednostavno izvedivo). Naime, AI sustav ChatGPT između ostaloga trenira se (treniranje shvaćeno kao strojno učenje algoritma) i putem tzv. pojačanog učenja uz ljudske povratne informacije (reinforcement learning with human feedback), a što u praksi znači kako 100 milijuna ljudi svaki dan trenira AI alat sa svojim upitima, odgovorima i povratnim informacijama (za razliku od nekoliko tisuća honorarnih programera koji su sudjelovali u prvih nekoliko krugova treniranja algoritma). Upitno je u kojoj mjeri će korisnici koristiti opciju isključenja (opt-out), no obzirom na sve veću primjenu alata u vezi obrade osjetljivih informacija (poglavito financijskih), za očekivati je kako će se ova opcija naći svoju primjenu.

Ujedno se kompanija OpenAI obvezala implementirati i modul provjere godišta korisnika prilikom registracije. Naglasak je postavljen na zaštitu maloljetnika, te se kao dobna granica uzima 13 godina, što ne iznenađuje činjenicom kako američki zakonodavac razmatra usvajanje zakona u vezi ograničenja korištenja društvenih mreža za osobe ispod 13 godina. U europskom kontekstu se neko vrijeme raspravljalo u usvajanju akta kojim bi se uređivala kontrola alata za digitalnu komunikaciju (tzv. Chat Control 2.0) s naglaskom na zaštitu maloljetnika od neželjenog sadržaja, no od navedenog zakonodavnog mehanizma se u međuvremenu odustalo.

Nakon što je kompanija OpenAI iskomunicirala sve potrebno sa talijanskom Agencijom i implementirala sve navedene opcije, geo-blokada je podignuta te se ChatGPT usluga ponovno može koristiti u Italiji. Čelnici kompanije također su u nekoliko navrata javno izjavili kako općenito planiraju prestati koristiti korisničku komunikaciju za strojno učenje te da rade na novim bazama podataka za treniranje koje će biti manjeg količinskog obujma i preciznije određenog sadržaja.

Iz pravne perspektive, poglavito s aspekta zaštite osobnih podataka i zaštite intelektualnog vlasništva, jedino što iznenađuje jest vrijeme koje je trebalo da barem jedno javno tijelo provede istragu u vezi ChatGPT servisa. Ono što je evidentno jest činjenica kako tehnološke kompanije i dalje ne shvaćaju značaj pravnika, etičkih kodeksa i politike privatnosti kao sastavnih elemenata poslovnog modela koji uključuje obradu osobnih podataka. Ovo nije prvi puta da talijanska Agencija za zaštitu osobnih podataka razmatra djelovanje velikih tehnoloških (Big Tech) kompanija. Potrebno je samo prisjetiti se sankcije koju je ista Agencija izdala američkoj kompaniji Clearview AI za koju se utvrdilo da bez dopuštenja sa mrežnih stranica preuzima osobne fotografije koje se zatim biometrijski obrađuju te se temeljem takve obrade izrađuju biometrijski profili osoba. Uskoro je Clearview AI kompanija postala predmetom brojnih istražnih radnji u Sjedinjenim Američkim državama (SAD) i EU-u te je više nacionalnih agencija za zaštitu osobnih podataka donijelo sankcije protiv kompanije, uključujući i obvezu brisanja podataka (biometrijski podaci, prikazi lica) o građanima pojedinih zemalja. Čak je i kompanija Meta (Facebook) pokrenula postupak protiv Clearview AI kompanije s istim ciljem, a u svrhu zaštite svog poslovnog modela, s obzirom na to da se kompanija Clearview AI javno pohvalila pothvatom (neovlaštenog) preuzimanja više od 30 milijardi slikovnih prikaza sa Facebook društvene mreže. O navedenom problemu više se pisalo u kolumni Pregled novije poredbene sudske i zakonodavne prakse, br. 2., 2022.

Postupak talijanske Agencije potaknuo je Europski odbor za zaštitu podataka da osnuje posebno radno tijelo za nadzor servisa poput ChatGPT-a. Istovremeno, u sklopu zakonodavne inicijative kojom se nastoji uspostaviti pravni okvir korištenja AI sustava u EU-u, u vrlo kratkom roku predložila se nova pravna dopuna odnosno odredba kojom se sve pružatelje usluga servisa poput ChatGPT-a, Midjourney-a (trenutačno najpopularniji AI alat za generaciju slikovnih zapisa), i sl., obvezuje na iznošenje informacija o svim podacima koji se koriste u sklopu AI sustava odnosno koji su korišteni za izradu (treniranje) AI sustava, a koji su zaštićeni autorskim pravom. Više o ovoj temi u nastavku teksta.