U nastojanju da spreči širenje dezinformacija, Google je u utorak otkrio nevidljivi, trajni vodeni žig na slikama koji će ih identifikovati kao kompjuterski generisane.
Tehnologija, nazvana SynthID, ugrađuje vodeni žig direktno u slike koje je kreirao Imagen, jedan od najnovijih Google-ovih generatora teksta u sliku, prenosi Investitor. Oznaka generisana veštačkom inteligencijom ostaje bez obzira na modifikacije kao što su dodati filteri ili izmenjene boje.
Alat SynthID takođe može da skenira dolazne slike i identifikuje verovatnoću da ih je napravio Imagen skeniranjem vodenog žiga sa tri nivoa sigurnosti: otkriveno, neotkriveno i eventualno otkriveno.
“Iako ova tehnologija nije savršena, naše interno testiranje pokazuje da je precizna u odnosu na mnoge uobičajene manipulacije slikama”, napisao je Google u blogu u utorak.
Beta verzija SynthID-a je sada dostupna nekim korisnicima Vertex AI, Google-ove generativne AI platforme za programere. Kompanija kaže da će SynthID, kreiran od strane Googleove jedinice DeepMind u partnerstvu sa Google Cloudom, nastaviti da se razvija i da će se možda proširiti na druge Google proizvode ili treće strane.
Deepfake i izmenjene fotografije
Kako duboko lažne i uređene slike i video zapisi (deepfake) postaju sve realističniji, tehnološke kompanije se trude da pronađu pouzdan način da identifikuju i označe izmanipulisani sadržaj.
CNN podseća da je poslednjih meseci, slika pape Franje u puferu koju je stvorila veštačka inteligencija, postala viralna, a slike hapšenja bivšeg predsednika Donalda Trampa koje je stvorila veštačka inteligencija bile su široko rasprostranjene i pre nego što je optužen.
Vera Jourova, potpredsednica Evropske komisije, pozvala je u junu potpisnike Kodeksa EU o dezinformacijama – liste koja uključuje Google, Meta, Microsoft i TikTok – da „uvedu tehnologiju za prepoznavanje takvog sadržaja i jasno ga označe korisnicima”.
Sa najavom SynthID-a, Google se pridružuje sve većem broju startapa i Big Tech kompanija koje pokušavaju da pronađu rešenja. Neke od ovih kompanija nose imena kao što su Truepic i Reality Defender, koja govore o potencijalnom deepfake sadržaju: zaštiti našeg osećaja šta je stvarno, a šta nije.
Praćenje porekla sadržaja
Koalicija za poreklo i autentičnost sadržaja (C2PA), konzorcijum koji podržava Adobe, bio je lider u naporima za digitalni vodeni žig, dok je Google uglavnom zauzeo vlastiti pristup.
U maju je Google najavio alat pod nazivom “O ovoj slici”, koji korisnicima nudi mogućnost da vide kada su slike pronađene na njegovoj web stranici prvobitno indeksirane od strane Googlea, gde su se slike mogle prvi put pojaviti i gde se još mogu naći na mreži.
Tehnološka kompanija je takođe objavila da će svaka slika generisana veštačkom inteligencijom koju kreira Google imati oznaku u originalnoj datoteci kako bi “dala kontekst” ako se slika nađe na drugoj web stranici ili platformi.
Ali kako se AI tehnologija razvija brže nego što ljudi mogu pratiti, nejasno je hoće li ova tehnička rešenja moći u potpunosti da reše problem. OpenAI, kompanija koja stoji iza Dall-E-a i ChatGPT-a, priznala je ranije ove godine da je njen vlastiti napor da pomogne u otkrivanju pisanja generisanog veštačkom inteligencijom, a ne slika, “nesavršen” i upozorio je da ga treba “uzeti s rezervom”.