Prošle nedelje, nepoznat broj devojčica u srednjoj školi u Nju Džersiju saznalo je da je jedan ili više učenika koristilo alat veštačke inteligencije kako bi generisali slike na kojima su one navodno gole. Još gore, te slike, koje su korišćene uz bar desetak fotografija devojčica iz škole, deljene su među nekim dečacima u školi putem grupnih ćaskanja. Pokrenuta je istraga, lokalna policija je uključena, a učenicima koji su bili pogođeni je ponuđena podrška i savetovanje. Ako mislite da bi trebalo da postoji federalni zakon protiv ovakvog štetnog iskorišćavanja maloletnih žrtava, ili čak odraslih, slažem se s vama. Nažalost, ne postoji takvo krivično delo koje pokriva generisane pornografske slike pomoću veštačke inteligencije.
Takozvane „deepfake“ fotografije i video zapisi se šire skoro jednako brzo kao što ljudi mogu preuzeti softver koji ih generiše. Osim što stvaraju fiktivne proizvode koji ne liče na određene osobe, „deepfake“ tehnologija može koristiti lice, glas ili delimičnu sliku prave osobe i spojiti je sa drugim slikama kako bi izgledala ili zvučala kao prikaz te osobe. Prošle godine, „deepfake“ fotografija pape Franje u stilskom puhastom kaputu brenda Balenciaga postala je viralna. Papa možda ima stila, ali to nije bio on na slici.
Istraživači su 2019. godine zaključili da je 96% od 14.000 „deepfake“ video zapisa koje su pronašli bilo pornografske prirode. Genevieve Oh, nezavisna istraživačica interneta koja je pratila porast „deepfake“ tehnologije, izjavila je za Washington Post da je 143.000 ovakvih video zapisa na 40 popularnih veb stranica viđeno čak 4,2 milijarde puta. Od srednjoškolaca do YouTube uticajnih lica i poznatih ličnosti, lista žrtava nastavlja da raste, a FBI upozorava da se broj „seksualne eksploatacije“ povećava.
Širom interneta, posebno u tamnim uglovima „dubokog interneta“, pedofili se igraju sa AI tehnologijom. Važno je napomenuti da veštački generisana dečija pornografija uključuje slike preuzete od poznate, identifikovane dece, kao i potpuno izmišljene kreacije zasnovane na hiljadama digitalizovanih slika rasutih po internetu. Iako američko Ministarstvo pravde tvrdi da bi ovakav sadržaj bio krivično gonjiv prema postojećim saveznim zakonima o dečjoj pornografiji koji pokrivaju crteže i stripove prikazivanja maloletnih lica u eksplicitnim seksualnim aktivnostima, ne može se navesti nijedno konkretno krivično gonjenje za AI dečju pornografiju pod ovom teorijom. čak i ako bi Ministarstvo pravde pokrenulo postupak protiv nekoga zbog proizvodnje ili posedovanja takvog materijala, moralo bi da dokaže da slike ispunjavaju potrebnu definiciju dečje pornografije pokazujući maloletnike u eksplicitnim seksualnim aktivnostima.
Savezni zakoni o dečjoj pornografiji takođe ne bi pomogli srednjoškolcima u Nju Džersiju ako bi bili prikazani goli, ali ne uključuju eksplicitno ponašanje. Niti ta pravna razlika pruža mnogo utehe ukoliko nesaglasne slike ovih žrtava zauvek ostaju na internetu kako bi ih progonile prilikom prijavljivanja na koledže i traženja poslova. Potrebnan je federalni zakon kako bi se popunio ovaj rastući jaz između zastarelih zakonodavnih mera i tehnološke realnosti.
Zato su tužioci svih 50 država pozvali Kongres da nešto preduzme. Zato je i predsednik Joe Biden, u svom izvršnom nalogu 30. oktobra, o potrebi razumevanja i regulisanja veštačke inteligencije, uputio svoju administraciju da pronađe rešenja kako bi se priprečila generacija pornografskog materijala dece ili generisanje nedozvoljenih intimnih slika stvarnih ljudi (uključujući digitalne prikaze tela ili delova tela prepoznatljive osobe).
U junu je zastupnik Joe Morelle iz Njujorka, član Demokratske stranke, predložio Zakon o sprečavanju „deepfake“ intimnih slika u nameri da se spreči dalje korišćenje veštačke inteligencije za proizvodnju golih prikaza pravih žrtava. Ovo zakonodavstvo je korak u pravom smeru ka suzbijanju upotrebe veštačke inteligencije u nanošenju štete ljudima.
Devet država, uključujući Kaliforniju, Teksas i Virdžiniju, ima zakone koji pružaju neku pravnu zaštitu žrtvama generisanih slika pomoću veštačke inteligencije. Neke države dozvoljavaju građanske parnice žrtvama, dok druge kriminalizuju takvo ponašanje, a neke razmatraju obavezu digitalnih vodnih žigova koji bi pomogli praćenje slika do njihovih proizvođača. Nekada internet platforme omogućavaju zahtev za uklanjanje sadržaja od strane žrtava i tvrde da uklanjaju sadržaj kada to zatraži ovlašćena žrtva.
Veštački generisana pornografija ne žrtvuje svoje ciljeve samo jednom. Sve ove opcije, uključujući zahtev da proizvođači softvera za generisanje slika automatski dodaju „deepfake“ oznaku na lažne sadržaje, moraju biti istražene od strane Kongresa i saveznih agencija pre nego što dodatne žrtve budu suočene s užasom korišćenja ove tehnologije protiv njih.
Veštački generisana pornografija ne žrtvuje svoje ciljeve samo jednom. Ovi ljudi su zlostavljeni svaki put kad neko klikne na te slike. Ako su se devet država dosetile kako da se sa tim izbore, onda bi i naša federalna vlada trebalo to da može. Ovo je retko bipartizansko pitanje koje zakonodavci treba da iskoriste da učine neko dobro pre nego što zli akteri koriste veštačku inteligenciju kako bi još više narušili nevine živote ljudi.