Greg Marston, britanski glasovni glumac, nedavno je naišao na „Connora“ na internetu – veštačke glasovne kopije njegovog glasa koja je obučena na snimku koji je Marston napravio 2003. godine. To je bio njegov glas koji izgovara stvari koje nikada nije rekao.
Tada je snimio sesiju za IBM i kasnije potpisao obrazac dozvole za korišćenje snimka na različite načine. Naravno, tada Marston nije mogao predvideti da će IBM koristiti nešto više od tačnih izgovora koje je on snimio. Zahvaljujući veštačkoj inteligenciji, međutim, IBM je mogao prodati Marstonov decenijama star uzorak veb sajtovima koji ga koriste da bi kreirali sintetički glas koji može izgovarati bilo šta. Nedavno je Marston otkrio da njegov glas dolazi sa Vimbldon veb sajta tokom teniskog turnira. (IBM je saopštio da je svestan Marstonove zabrinutosti i da razgovara s njim direktno.)
Njegova situacija ilustruje zašto su mnogi poznati kreatori u našoj ekonomiji ogorčeni. Nalazimo se u dobu smanjenog poverenja, jer ljudi shvataju da se njihovi doprinosi javnom prostoru mogu preuzeti, monetizovati i potencijalno koristiti za takmičenje protiv njih. Kada se to smanjenje završi, brinem se da bi naši digitalni javni prostori postali još više zagađeni nepoverljivim sadržajem.
Već sada, umetnici brišu svoj rad sa X, nekadašnjeg Twitter-a, nakon što je kompanija saopštila da će koristiti podatke sa platforme da obučava svoju veštačku inteligenciju. Holivudski pisci i glumci štrajkuju delimično jer žele da osiguraju da njihov rad ne bude korišćen u A.I. sistemima koje bi kompanije mogle pokušati da ih zamene. Medijske kuće poput The New York Times-a i CNN-a dodale su datoteke na svoje veb sajtove kako bi sprečile A.I. chatbot-ove da skidaju njihov sadržaj.
Autori tuže A.I. kompanije, tvrdeći da su njihove knjige deo trening podataka sajtova. OpenAI se bori, u posebnom postupku, tvrdeći da je korišćenje autorski zaštićenih podataka za obuku A.I. sistema legalno prema „fair use“ odredbi autorskog prava.
Dok kreatori kvalitetnog sadržaja osporavaju način na koji se koristi njihov rad, sumnjiv A.I. generisani sadržaj gomila se u javnu sferu. NewsGuard je identifikovao 475 A.I. generisanih veb sajtova sa vestima i informacijama na 14 jezika. A.I. generisana muzika preplavljuje striming platforme i stvara prihode od reklama za prevarante. A.I. generisane knjige – uključujući vodič za sakupljanje pečuraka koji može dovesti do grešaka u identifikovanju visoko otrovnih gljiva – toliko su rasprostranjene na Amazonu da kompanija traži od autora koji sami objavljuju na Kindle platformi da takođe deklarišu da li koriste A.I.
Ovo je klasičan slučaj tragedije zajedničke vlasničke resurse, gde zajednički resurs trpe interesi pojedinaca. Klasični primer je javna pašnjak na kojem stoka može pasati. Bez ograničenja, pojedini vlasnici stoke imaju podsticaj da prenapasaju zemlju, uništavajući njenu vrednost za sve.
Imamo zajedničke resurse i na internetu. Bez obzira na sve toksične uglove, on je i dalje pun živahnih delova koji služe javnom dobru – mesta poput Vikipedije i Reddit foruma, gde volonteri često deluju iz dobre namere i naporno rade na odbijanju neodgovornih aktera.
Ali ove zajedničke resurse sada preterano troše grabežljive tehnološke kompanije koje žele da usisa svu ljudsku mudrost, stručnost, humor, anegdote i savete koje pronađu na tim mestima u svoje profitabilne A.I. sisteme.
Razmotrimo, na primer, da su volonteri koji izgrađuju i održavaju Vikipediju verovali da će njihov rad biti korišćen u skladu s uslovima njihovog sajta, koji zahteva atribuciju. Sada se neki sredpowikipedijanci očigledno pitaju da li imaju pravnu mogućnost protiv chatbot-ova koji koriste njihov sadržaj bez citiranja izvora.
Regulatori takođe pokušavaju da shvate. Evropska unija razmatra prvi set globalnih ograničenja za A.I., što bi zahtevalo određenu transparentnost od generativnih A.I. sistema, uključujući pružanje sažetaka autorski zaštićenih podataka koji su korišteni za obuku tih sistema.
To bi bio dobar korak napred, budući da mnogi A.I. sistemi ne obelodanjuju potpuno podatke na kojima su trenirani. Pritom su to uglavnom novinari koji su otkrili mutne podatke koji leže ispod sjajne površine chatbot-ova. Nedavna istraga objavljena u The Atlantic otkrila je da je više od 170.000 piratenih knjiga uključeno u trening podatke za Meta-ovog A.I. chatbot-a, Llama. Istraga Washington Post-a otkrila je da se OpenAI-eva ChatGPT oslanja na podatke koji su preuzeti bez saglasnosti sa stotine hiljada veb sajtova.
Ali transparentnost nije dovoljna da ponovo uspostavi ravnotežu moći između onih čiji se podaci iskoriščavaju i kompanija koje su spremne da profitiraju od te eksploatacije.
Tim Friedlander, osnivač i predsednik Nacionalne asocijacije za glasovne glumce, pozvao je A.I. kompanije da usvoje etičke standarde. Kaže da glumci trebaju tri „C“: pristanak, kontrolu i nadoknadu.
Zapravo, svi mi trebamo tri „C“. Bez obzira da li smo profesionalni glumci ili samo objavljujemo slike na društvenim mrežama, svako bi trebao imati pravo na značajan pristanak da li želimo da naše online živote hrane gigantske A.I. mašine.
I pristanak ne bi trebao značiti da moramo tražiti teško dostupne opcije za odjavu – čemu se industrija kreće.
Naknada je teže odrediti, posebno jer su većina A.I. botova trenutno besplatne usluge. Ali nemojte se zavaravati, A.I. industrija planira i zaradiće novac od ovih sistema i kada do toga dođe, biće suočeni sa onima čija su dela omogućila te profit.
Za ljude poput gospodina Marstona, njihovi izvori prihoda su u opasnosti. On procenjuje da mu je A.I. klon već koštao poslove i značajno će uticati na njegova buduća primanja. Radi sa advokatom da bi tražio nadoknadu. „Nikada nisam pristao ili dao saglasnost da se moj glas klonira, da ga vidim/čujem objavljenog javno, čime se takmičim protiv sebe“, rekao mi je.
Ali čak i oni među nama koji nemaju posao direktno ugrožen A.I. razmišljaju o tome da napišu roman, sklade pesmu, naprave TikTok ili na društvenim mrežama napišu šalu. Ako nemamo