Domov Posel Ai in strojno učenje izkoriščamo, globoke zvoke, ki jih je zdaj težje zaznati

Ai in strojno učenje izkoriščamo, globoke zvoke, ki jih je zdaj težje zaznati

Kazalo:

Video: Animated Deep Fakes - Rick & Morty | Animating with AI (November 2024)

Video: Animated Deep Fakes - Rick & Morty | Animating with AI (November 2024)
Anonim

Ko se bomo podali v naslednjo sezono predsedniških volilnih kampanj, boste želeli biti pozorni na potencialne nevarnosti, ki jih s pomočjo umetne inteligence (AI) in strojnega učenja (ML) prinašajo lažni spletni videoposnetki. S pomočjo programske opreme AI lahko ljudje ustvarijo globoke fake (kratke za "poglobljeno učenje in ponarejanje") videoposnetke, v katerih se algoritmi ML uporabljajo za izmenjavo obraza, da ustvarijo iluzijo, da je nekdo rekel nekaj, česar ni povedal, ali pa je nekdo, ki ga imajo. " ne Video posnetki Deepfake se prikazujejo na različnih prizoriščih, od zabave do politike do korporativnega sveta. Ne samo, da lahko globoki posnetki nepravično vplivajo na volitve z lažnimi sporočili, ampak lahko prinesejo osebno zadrego ali povzročijo zavajajoča sporočila blagovne znamke, če recimo pokažejo direktorju, ki naznani začetek izdelka ali pridobitev, ki se dejansko ni zgodila.

Deepfakes so del kategorije AI, imenovane "Generative Adversarial Networks" ali GAN, v kateri dve nevronski mreži tekmujeta za ustvarjanje fotografij ali videoposnetkov, ki se zdijo resnični. GAN so sestavljeni iz generatorja, ki ustvari nov niz podatkov, kot je ponarejen video, in diskriminatorja, ki uporablja algoritem ML za sintezo in primerjavo podatkov iz resničnega videoposnetka. Generator še naprej poskuša sintetizirati ponarejeni video s starim, dokler diskriminator ne more povedati, da so podatki novi.

Kot je na konferenci RSA 2019 marca v San Franciscu poudaril Steve Grobman, McAfeejev višji podpredsednik in glavni tehnološki direktor (CTO), ponarejajo fotografije že od izuma fotografije. Povedal je, da je bilo spreminjanje fotografij preprosta naloga, ki jo lahko izvedete v aplikaciji, kot je Adobe Photoshop. Zdaj pa se te vrste naprednih možnosti urejanja prestavljajo tudi v video in to počnejo z uporabo visoko sposobnih in enostavno dostopnih programskih orodij.

Kako nastajajo Deepfakes

Čeprav je razumevanje konceptov AI koristno, ni treba biti podatkovni znanstvenik, da bi ustvaril videoposnetek. Grobmanova beseda vključuje samo upoštevanje nekaterih navodil na spletu. Na konferenci RSA 2019 (glej video zgoraj) je razkril videoposnetek, ki je potekal globoko, skupaj z dr. Celeste Fralick, glavnim znanstvenikom za podatke in glavnim inženirjem McAfeeja. Videoposnetek v globini ponazarja grožnjo, ki jo ta tehnologija predstavlja. Grobman in Fralick sta pokazala, kako lahko javni uslužbenec v videu, ki govori o nečem nevarnem, zavaja javnost, da misli, da je sporočilo resnično.

Grobman in Fralick sta ustvarila svoj videoposnetek, da sta ustvarila svoj videoposnetek. Nato so posneli posnetek Grobmana, ki je pričal pred ameriškim senatom leta 2017, in Fralickove usta nalepil na Grobmanova.

"S prosto dostopnimi javnimi komentarji sem uporabil pri oblikovanju in usposabljanju modela ML; to mi je omogočilo, da sem razvil poglobljeni video s svojimi besedami, ki prihajajo iz ust, " je Fralick povedal publiki RSA z prizorišča. Fralick je še dejal, da se lahko videoposnetki z globokimi ponaredki uporabljajo za socialno izkoriščanje in informacijsko vojskovanje.

Grobman in Fralick sta za izdelavo videoposnetkov v globini uporabila orodje, ki ga je razvil uporabnik Reddita, imenovano FakeApp, ki uporablja ML algoritme in fotografije za zamenjavo obrazov na video posnetkih. Grobman je med njihovo predstavitvijo RSA pojasnil naslednje korake. "Videoposnetke smo razdelili na fotografije, obraze smo iztisnili in jih očistili tako, da smo jih razvrstili in očistili na Instagramu."

Scenariji Python-a so McAfeejevi ekipi omogočili, da je ustvarila gibe ust, da bi se Fralickov govor ujemal z Grobmanovimi usti. Nato so morali napisati nekaj skript po meri. Grobman je dejal, da je izziv pri ustvarjanju prepričljive globoke poteze, ko se lastnosti, kot so spol, starost in ton kože, ne ujemajo.

On in Fralick sta nato uporabila končni algoritem AI, da sta se med Fralickovim govorom ujemala s Grobmanovimi slikami, ki pričajo pred senatom. Grobman je dodal, da je za urjenje teh algoritmov ML potrebnih 12 ur.

McAfee je orisal korake, ki jih je sprejel za ustvarjanje videoposnetka, ki je bil prikazan na konferenci RSA 2019. Za spreminjanje video posnetkov Grobmana z govorom Fralicka je uporabila programsko opremo deepfake, imenovano FakeApp, in usposabljanje ML modelov. (Kreditna slika: McAfee).

Posledice Deepfakes

Videoposnetki, ustvarjeni s hekerji, lahko povzročijo številne težave - vse od vladnih uradnikov, ki širijo lažne dezinformacije, do znanih osebnosti, da bi se spravili v zadrego pred videoposnetki, ki jih v resnici ni bilo, do podjetij, ki bi škodila konkurenčnemu stanju na borzi. Zavedajoč se teh težav so septembra zakonodajalci poslali pismo Danielu Coatsu, ameriškemu direktorju za nacionalno obveščevalno službo, da zahteva ponovni pregled grožnje, ki jo predstavljajo globoki napadi. V pismu so opozorili, da lahko države, kot je Rusija, na družbenih medijih uporabljajo globoke ponaredke za širjenje lažnih informacij. Decembra so zakonodajalci uvedli zlonamerni zakon o globoki lažni prepovedi leta 2018, da bi prepovedal goljufije v zvezi z "avdiovizualnimi zapisi", ki se nanašajo na globoke posnetke. Ostaja še, če bo račun sprejet.

Kot rečeno, znane osebnosti lahko postanejo neprijetne zaradi videoposnetkov, v katerih so njihovi obrazi nadevani na obraze pornozvezdnikov, kot je bilo to pri Galu Gadotu. Ali pa si predstavljajte, da naj bi generalni direktor objavljal novice o izdelkih in potopil zaloge podjetja. Varnostni strokovnjaki lahko uporabljajo ML za odkrivanje tovrstnih napadov, če pa jih ne odkrijejo pravočasno, lahko državi ali blagovni znamki prinesejo nepotrebno škodo.

"Če imate globoke peke, če veste, kaj počnete, in veste, na koga ciljati, lahko resnično ustvarite prepričljiv videoposnetek, ki znamki povzroči veliko škode, " je dejal dr. Chase Cunningham, glavni analitik pri Forrester Research. Dodal je še, da če razdelite ta sporočila na LinkedIn ali Twitter ali uporabite botovski obrazec, "lahko brez drobnega truda zdrobite delnico podjetja, ki temelji na popolnem lažnem videu."

S pomočjo globokih video posnetkov bi lahko potrošnike prepričali, da lahko izdelek naredi nekaj, česar ne zmore. Cunningham je poudaril, da če izvršni direktor večjega proizvajalca avtomobilov v lažnem videoposnetku reče, da podjetje ne bo več proizvajalo vozil na plin, nato pa bi v tem videu to sporočilo razširilo na Twitterju ali LinkedIn, potem bi to dejanje lahko zlahka škodilo znamki.

"Zanimivo je, da iz moje raziskave ljudje sprejemajo odločitve na podlagi naslovov in videoposnetkov v 37 sekundah, " je dejal Cunningham. "Torej si lahko predstavljate, če lahko dobite video, ki traja več kot 37 sekund, in ljudi lahko sprejmejo odločitev na podlagi naj bo to dejansko ali ne. In to je grozljivo."

Ker so družabni mediji ranljivo mesto, kjer lahko videi globokih ponaredkov postanejo virusni, spletna mesta v družabnih medijih aktivno delujejo v boju proti grožnji globokih zvokov. Facebook na primer uporablja inženirske ekipe, ki lahko opazijo manipulirane fotografije, zvok in video. Poleg uporabe programske opreme Facebook (in druga družbena družbena podjetja) najamejo ljudi, da ročno iščejo deepfakse.

"Razširili smo svoja nenehna prizadevanja v boju proti manipuliranim medijem, da bi vključevali tudi spopadanje z globokimi napakami, " je v izjavi dejal predstavnik družbe Facebook. "Vemo, da nenehno pojavljanje vseh oblik manipuliranih medijev predstavlja resnične izzive za družbo. Zato vlagamo v nove tehnične rešitve, se učimo iz akademskih raziskav in sodelujemo z drugimi v panogi za razumevanje globokih znakov in drugih oblik manipuliranih medijev."

Niso vsi Deepfakes slabi

Kot smo videli z izobraževalnim videoposnetkom McAfeeja McAfee in komičnimi video posnetki na TV poznih noči, nekateri deepfake videoposnetki niso nujno slabi. V resnici, čeprav lahko politika razkrije resnične nevarnosti videoposnetkov, ki se pojavljajo v globini, zabavna industrija pogosto kaže le lažjo plat videov.

Na primer, v nedavni epizodi oddaje The Late Show With Stephen Colbert je bil prikazan smešen videoposnetek, v katerem je obraz igralca Stevea Buscemija nad telesom igralke Jennifer Lawrence. V drugem primeru je komik Jordan Peeler zamenjal video posnetek nekdanjega predsednika Baracka Obame, ki govori z lastnim glasom. Na spletu so se pojavili tudi šaljivi videoposnetki, kot so ti, v katerih je obraz predsednika Trumpa nad obrazom nemške kanclerke Angele Merkel, ko oseba govori.

Ponovno, če se videoposnetki v globoki zvezi uporabljajo za satiričen ali šaljiv namen ali preprosto kot zabavo, potem platforme družbenih medijev in celo filmske produkcijske hiše to dovoljujejo ali uporabljajo. Facebook na primer na svoji platformi dovoljuje tovrstno vsebino, Lucasfilm pa je vrsto digitalne rekreacije uporabil za prikaz mlade Carrie Fisher na telesu igralke Ingvild Deila v filmu "Rogue One: Zgodba o vojni zvezd".

McAfeejev Grobman je ugotovil, da se nekatere tehnologije, ki stojijo za deepfakesom, dobro uporabljajo s kaskaderskimi dvojicami pri snemanju filmov, da bi igralci ostali varni. "Kontekst je vse. Če gre za komične namene in je očitno, da ni resnično, je to nekaj, kar je zakonita uporaba tehnologije, " je dejal Grobman. "Ključno je spoznanje, da se lahko uporablja za različne namene."

(Kreditna slika: Statista)

Kako zaznati videoposnetke Deepfake

McAfee ni edino varnostno podjetje, ki eksperimentira s tem, kako odkriti ponarejene videoposnetke. V svojem prispevku Black Hat 2018 z naslovom "AI Gone Rogue: Exterminting Deep Falks, preden ti povzročijo grožnjo" dva varnostna strokovnjaka Symantec, vodja odzivanja za varnost Vijay Thaware in inženir za razvoj programske opreme Niranjan Agnihotri pišejo, da so ustvarili orodje za opazovanje ponarejeni videoposnetki, ki temeljijo na Googlovem FaceNetu. Google FaceNet je nevronska omrežna arhitektura, ki so jo razvili Googlovi raziskovalci za pomoč pri preverjanju in prepoznavanju obrazov. Uporabniki trenirajo model FaceNet na določeni sliki in lahko nato med preizkusi preverijo svojo identiteto.

Da bi poskušali ustaviti širjenje globinskih videov, AI Foundation, neprofitna organizacija, ki je osredotočena na interakcijo med ljudmi in AI, ponuja programsko opremo z imenom "Reality Defender" za iskanje lažnih vsebin. Lahko pregleduje slike in video, da vidi, ali so bili spremenjeni z AI. Če jih imajo, bodo dobili "Iskren vodni žig AI."

  • Poslovni vodnik za strojno učenje Poslovni vodnik za strojno učenje
  • PornHub, Twitter prepoved AI-spremenjenega porno-filma "Deepfake", Twitter prepoved AI-spremenjenega porniča "Deepfake"
  • Najnovejši Deepfake Tech vas bo plesal kot Bruno Mars Najnovejši Tech Deepfake vas bo plesal kot Bruno Mars

Druga strategija je upoštevati koncept Zero Trust, ki pomeni "nikoli ne zaupajte, vedno preverite" - moto kibernetske varnosti, ki pomeni, da bi morali IT strokovnjaki potrditi, da so vsi uporabniki zakoniti pred odobritvijo pravic dostopa. Previdni glede veljavnosti video vsebine bodo potrebni. Prav tako boste želeli programsko opremo z zmogljivostmi digitalne analitike za iskanje lažne vsebine.

Iščite Deepfakes

V nadaljevanju bomo morali biti previdnejši pri video vsebinah in imeti v mislih nevarnosti, ki jih lahko predstavljajo družbi, če se zlorabijo. Kot je ugotovil Grobman, "V kratkem moramo biti ljudje bolj skeptični do tega, kar vidijo, in prepoznati, da je mogoče video in avdio izdelovati."

Torej, pozorno spremljajte politične videoposnetke, ki jih gledate, ko se bomo podali v naslednjo volilno sezono, in ne zaupajte vsem videoposnetkom, v katerih so voditelji podjetij. Ker tisto, kar slišite, morda ni tisto, kar je bilo v resnici rečeno, in zavajajoči globoki posnetki lahko resnično škodijo naši družbi.

Ai in strojno učenje izkoriščamo, globoke zvoke, ki jih je zdaj težje zaznati