Domov Mnenja Ali nas lahko kaj zaščiti pred deepfakes? | ben dickson

Ali nas lahko kaj zaščiti pred deepfakes? | ben dickson

Kazalo:

Video: Ya lati baayoub enass (Oktober 2024)

Video: Ya lati baayoub enass (Oktober 2024)
Anonim

Konec leta 2017 je Motherboard poročal o AI tehnologiji, s katero bi lahko zamenjali obraze v video posnetkih. Takrat je tehnologija - kasneje imenovana deepfakes - prinesla surove, zrnate rezultate in je bila večinoma uporabljena za ustvarjanje ponarejenih porno video posnetkov s slavnimi in politiki.

Dve leti pozneje je tehnologija izjemno napredovala in jo je s prostim očesom težje zaznati. Kovani videoposnetki so skupaj s ponarejenimi novicami postali skrb za nacionalno varnost, še posebej, ko se bližajo predsedniške volitve leta 2020.

Odkar so se pojavili deepfakesi, je več organizacij in podjetij razvilo tehnologije za odkrivanje video posnetkov, poseženih v AI. Toda obstaja bojazen, da nekega dne tehnologije deepfakes ne bo mogoče zaznati.

Raziskovalci z Univerze v Surreyu so razvili rešitev, ki bi lahko rešila težavo: namesto da bi odkrili, kaj je napačno, bo dokazal, kaj je res. Tehnologija, imenovana Archangel, namerava biti predstavljena na prihajajoči konferenci o računalniškem vidu in prepoznavanju vzorcev (Artchangel) in uporablja AI in blockchain za ustvarjanje in registracijo digitalnega prstnega odtisa, ki je nepooblaščen za pristne video posnetke. Prstni odtis lahko uporabimo kot referenčno točko za preverjanje veljavnosti medijev, ki se distribuirajo prek spleta ali predvajajo po televiziji.

Uporaba AI za podpisovanje videoposnetkov

Klasičen način dokazovanja pristnosti binarnega dokumenta je uporaba digitalnega podpisa. Založniki vodijo svoj dokument s kriptografskim algoritmom, kot so SHA256, MD5 ali Blowfish, ki ustvari "hash", kratek niz bajtov, ki predstavlja vsebino te datoteke in postane njen digitalni podpis. Če kadar koli zaženete isto datoteko prek algoritma hashing, bo ustvaril isti hash, če se njegova vsebina ni spremenila.

Različice so preobčutljive za spremembe v binarni strukturi izvorne datoteke. Ko spremenite en bajt v zasedeni datoteki in ga znova zaženete skozi algoritem, ustvari popolnoma drugačen rezultat.

Medtem ko heše dobro delujejo za besedilne datoteke in aplikacije, predstavljajo izzive za videoposnetke, ki jih je mogoče shraniti v različnih formatih, je povedal John Collomosse, profesor računalniškega vida na Univerzi v Surreyu in vodja projekta za Archangel.

"Želeli smo, da bi bil podpis enak, ne glede na kodek, s katerim se stisne video, " pravi Collomosse. "Če vzamem svoj videoposnetek in ga pretvorim iz, recimo, MPEG-2 v MPEG-4, potem bo ta datoteka popolnoma drugačne dolžine in bitji se bodo popolnoma spremenili, kar bo ustvarilo drugačen hash. Kaj potrebujemo je bil algoritem mešanja vsebine."

Collomosse in njegovi sodelavci so za rešitev te težave razvili globoko nevronsko mrežo, ki je občutljiva na vsebino videoposnetka. Globoke nevronske mreže so vrsta AI konstrukcije, ki razvija svoje vedenje z analizo ogromne količine primerov. Zanimivo je, da so nevronske mreže tudi tehnologija v središču deepfaksov.

Pri ustvarjanju deepfakes razvijalec napaja omrežje s slikami obraza osebe. Nevronska mreža spozna lastnosti obraza in z dovolj treninga postane sposobna poiskati in zamenjati obraze v drugih videoposnetkih z obrazom osebe.

Arhanđelova nevronska mreža je usposobljena za video posnetek. "Omrežje gleda na vsebino videoposnetka in ne na njegove osnovne bite in bajte, " pravi Collomosse.

Ko po novem zaženete nov videoposnetek po omrežju, ga bo potrdil, ko bo imel isto vsebino kot izvorni video, ne glede na njegovo obliko, zavrnil pa ga bo, če gre za drug videoposnetek ali je bil posežen ali urejen.

Kot pravi Collomosse, tehnologija lahko zazna tako prostorsko kot časovno poseganje. Prostorska posega so spremembe posameznih okvirjev, kot so spremembe, ki jih izmenjate z obrazom, narejene v deepfakesu.

Toda deepfakes niso edini način za posege v video posnetke. Manj razpravljajoče, a enako nevarne so namerne spremembe zaporedja kadrov ter hitrosti in trajanja videoposnetka. Nedavno široko razširjeni posnetek posnetka govornice v hiši Nancy Pelosi ni uporabil deepfaksov, ampak je bil ustvarjen s skrbno uporabo preprostih tehnik urejanja, zaradi katerih se je zmedla.

"Ena od oblik nedovoljenega posega je odstranjevanje kratkih segmentov videoposnetka. To so časovni posegi. In lahko zaznamo do tri sekunde posega. Torej, če je video dolg več ur in samo odstranite tri sekunde tega videoposnetka, to lahko zaznamo, "pravi Collomosse in dodaja, da bo Arhangel zaznal tudi spremembe hitrosti izvirnega videoposnetka, kot je bilo storjeno v videoposnetku Pelosi.

Registracija prstnega odtisa na blokovni verigi

Druga komponenta Arhanđelovega projekta je blockchain, zbirka podatkov, ki je varna pred posegi, kjer se lahko shranijo in ne spremenijo nove informacije, kar je idealno za video arhive, ki po registraciji ne spremenijo videoposnetkov.

Blockchain tehnologija temelji na digitalnih valutah, kot sta Bitcoin in Ether. To je digitalna knjiga, ki jo vzdržuje več neodvisnih strank. Večina strank se mora strinjati o spremembah, ki so bile opravljene v blockchainu, zaradi česar nobena stranka ne more enostransko posegati v knjigo.

Tehnično je mogoče napasti in spremeniti vsebino blockchaina, če več kot 50 odstotkov udeležencev prepira. Toda v praksi je izredno težko, zlasti kadar blockchain vzdržuje veliko neodvisnih strank z različnimi cilji in interesi.

Arhanđelov blockchain se nekoliko razlikuje od javnega blockchaina. Prvič, ne proizvaja kriptovalute in shrani samo identifikator, prstni odtis, ki se zaveda vsebine, in binarni hash nevronske mreže verifikatorja za vsak video v arhivu (blockchains niso primerni za shranjevanje velike količine podatkov, zato sam video in nevronska mreža sta shranjena brez verige).

Prav tako je dovoljen ali "zasebni" blockchain. To pomeni, da za razliko od Bitcoin blockchain-a, kjer lahko vsakdo snema nove transakcije, lahko samo pooblaščene stranke shranijo nove zapise v Archangel blockchain.

Arhanđela trenutno preizkuša mreža državnih arhivov iz Združenega kraljestva, Estonije, Norveške, Avstralije in ZDA: Za shranjevanje novih informacij mora vsaka vpletena država podpisati dodatek. Medtem ko imajo samo nacionalni arhivi sodelujočih držav pravico do dodajanja zapisov, pa so vsi ostali prebrali dostop do verige blokov in jih lahko uporabili za preverjanje drugih videov v arhivu.

  • AI in strojno učenje izkoriščanje, Deepfakes, zdaj težje zaznati AI in strojno učenje Exploit, Deepfakes, zdaj težje zaznati
  • Video posnetki Deepfake so tu, mi pa nismo pripravljeni. Deepfake videoposnetki so tu in nismo pripravljeni
  • Adobe's New AI odkriva Photoshopped Faces Adobe's New AI zazna Photoshopped Faces

"To je uporaba blockchaina za javno dobro, " pravi Collomosse. "Po mojem mnenju je edina smiselna uporaba blockchaina, če imate neodvisne organizacije, ki si ne zaupajo nujno drug drugemu, vendar imajo v tem interesu skupni cilj medsebojnega zaupanja. In to, kar si prizadevamo, je zavarovanje državnih arhivov vlade po vsem svetu, da bomo lahko s to tehnologijo podpisali njihovo integriteto."

Ker je ustvarjanje ponarejenih videoposnetkov vse lažje, hitrejše in bolj dostopno, bodo vsi potrebovali vso pomoč, ki jo bodo lahko pridobili za zagotovitev celovitosti svojih video arhivov, zlasti vlad.

"Mislim, da so globoke igrače skoraj kot tekma v orožju, " pravi Collomosse. "Ker ljudje ustvarjajo vedno bolj prepričljive globoke filme, in nekega dne jih bo morda nemogoče zaznati. Zato je najboljše, kar lahko storite, da poskusite dokazati izvor videa."

Ali nas lahko kaj zaščiti pred deepfakes? | ben dickson