Domov Lastnosti Ko ai zabriše mejo med resničnostjo in fikcijo

Ko ai zabriše mejo med resničnostjo in fikcijo

Kazalo:

Video: TOULIVER X BINZ - GENE - KHÔNG ANH CHỨ AI !? [ OFFICIAL MV ] (November 2024)

Video: TOULIVER X BINZ - GENE - KHÔNG ANH CHỨ AI !? [ OFFICIAL MV ] (November 2024)
Anonim

Nekje v temnih vdolbinah YouTube je video, ki prikazuje odlomek iz filma The Fellowship of the Ring - toda spomnite se, da to ni čisto tisti film, saj Nicolas Cage igra kot Frodo, Aragorn, Legolas, Gimli in Gollum, vsi na istočasno. Drugi video posnetki prikazujejo Cage v Terminatorju 2 kot T2000, Star Trek kot kapetan Picard in Superman kot Lois Lane.

Nic Cage se seveda nikoli ni pojavil v nobenem od teh filmov. So "deepfakes", ustvarjeni s programom FakeApp, ki uporablja algoritme umetne inteligence za izmenjavo obrazov v video posnetkih. Nekateri globokofakti so videti precej prepričljivi, drugi pa artefakte, ki izdajajo njihovo resnično naravo. Toda na splošno kažejo, kako močni algoritmi AI so postali posnemati človeški videz in vedenje.

FakeApp je le eno od številnih novih orodij za sintetiziranje na AI. Druge aplikacije posnemajo človeške glasove, rokopis in stile pogovora. Del tega, kar je pomembno, je, da za njihovo uporabo ni potrebna specializirana strojna oprema ali usposobljeni strokovnjaki.

Vpliv teh aplikacij je velik: ustvarile bodo izjemno priložnost za ustvarjalnost, produktivnost in komunikacijo.

Toda isto orodje bi lahko odprlo tudi Pandorino škatlo goljufij, ponarejanja in propagande. Odkar se je januarja prvič pojavil na Redditu, so FakeApp prenesli več kot 100.000-krat in izbruhnili vihar ponarejenih pornografskih videov, v katerih so sodelovale slavne osebe in politiki (spet Cage). Reddit je pred kratkim prepovedal aplikacijo in povezane skupnosti s svoje platforme.

"Pred desetimi leti, če bi želeli nekaj ponarediti, bi lahko šli v studio VFX ali ljudi, ki bi lahko delali računalniško grafiko in morda zapravili milijone dolarjev, " pravi dr. Tom Haines, predavatelj strojnega učenja na Univerza v Bath. "Vendar tega ne bi mogli ohraniti v skrivnosti, saj bi morali v postopek vključiti veliko ljudi."

To ni več tako, z vljudnostjo nove generacije orodij AI.

Igra imitacije

FakeApp in podobne aplikacije poganja poglobljeno učenje, veja AI je v središču eksplozije inovacij AI od leta 2012. Algoritmi za globoko učenje se opirajo na nevronske mreže, programsko konstrukcijo, ki je po vzoru človeških možganov. Nevronske mreže analizirajo in primerjajo velike naloge vzorcev podatkov, da bi našli vzorce in korelacije, ki bi jih ljudje običajno pogrešali. Ta postopek se imenuje "usposabljanje", njegov rezultat pa je model, ki lahko opravlja različne naloge.

V prejšnjih dneh so modele poglobljenega učenja večinoma uporabljali za opravljanje klasifikacijskih nalog - na primer označevanje predmetov na fotografijah in izvajanje prepoznavanja glasu in obraza. V zadnjem času znanstveniki uporabljajo globoko učenje za izvajanje bolj zapletenih nalog, kot so igranje družabnih iger, diagnosticiranje pacientov ter ustvarjanje glasbe in umetniških del.

Če želite prilagoditi FakeApp za zamenjavo obraza, ga mora uporabnik usposobiti z več sto slikami izvora in ciljnih obrazov. Program izvaja algoritme za globoko učenje, da bi našel vzorce in podobnosti med obema stranema. Model nato postane pripravljen na zamenjavo.

Postopek ni preprost, vendar za uporabo FakeApp ni treba biti grafični strokovnjak ali strojni inženir. Prav tako ne potrebuje drage in specializirane strojne opreme. Spletno mesto z vodičem deepfakes priporoča računalnik z 8 GB ali več RAM-a in Nvidia GTX 1060 ali boljšo grafično kartico, precej skromne konfiguracije.

"Ko se enkrat preselite v svet, kjer lahko nekdo v sobi nekaj ponareja, potem ga lahko uporabijo v vprašljive namene, " pravi Haines. "In ker gre za eno osebo samostojno, je tajnost zelo enostavna."

Leta 2016 je Haines, ki je bil takrat podoktorski raziskovalec na University of London London, soavtor prispevka in aplikacije, ki je pokazala, kako se lahko AI nauči posnemati človekov rokopis. Aplikacija »My Text in Your Handwriting« je aplikacija uporabila algoritme za globoko učenje za analizo in razlikovanje sloga in toka avtorjevega pisanja ter drugih dejavnikov, kot so razmik in nepravilnosti.

Aplikacija lahko nato vzame katero koli besedilo in ga reproducira s pisanjem ciljnega avtorja. Razvijalci so celo dodali merilo naključnosti, da bi se izognili učinku nenavadne doline - čudnemu občutku, ki ga dobimo, ko vidimo nekaj, kar je skoraj, a ni povsem človeško. Kot dokaz koncepta so Haines in drugi raziskovalci UCL uporabili tehnologijo za kopiranje rokopisa zgodovinskih osebnosti, kot so Abraham Lincoln, Frida Kahlo in Arthur Conan Doyle.

Ista tehnika se lahko uporablja tudi pri katerem koli drugem rokopisu, kar je vzbudilo pomisleke glede možne uporabe tehnologije za ponarejanje in goljufijo. Strokovnjak za forenziko bi še vedno lahko zaznal, da je scenarij napisal My Text in Your Handwriting, vendar bo verjetno zavedel neobubljene ljudi, kar je Haines priznal v intervjuju za Digital Trends takrat.

Lyrebird, zagon s sedežem v Montrealu, je globinsko učenje uporabil za razvoj aplikacije, ki sintetizira človeški glas. Lyrebird zahteva posnemanje enominutnega posnetka, da začne posnemati glas osebe, čeprav potrebuje veliko več, preden začne prepričati.

Startup je v svoji javni predstavitvi objavil ponarejene posnetke glasov Donalda Trumpa, Baracka Obame in Hillary Clinton. Vzorci so surovi in ​​očitno je, da so sintetični. Ker pa se tehnologija izboljšuje, bo razlikovanje postalo težje. In kdorkoli se lahko registrira pri Lyrebird-u in začne ustvarjati ponarejene posnetke; postopek je celo lažji kot pri FakeApp-u, izračuni pa se izvajajo v oblaku in s tem manj obremenjujejo strojno opremo uporabnika.

Dejstvo, da se ta tehnologija lahko uporablja v dvomljive namene, razvijalci ne izgubijo. V nekem trenutku je etična izjava na spletni strani Lyrebird zapisala: "Snemanje glasu je trenutno v naših družbah in zlasti v jurisdikcijah številnih držav močan dokaz. Naša tehnologija dvomi v veljavnost takšnih dokazov, saj omogoča enostavno manipuliranje z zvokom posnetki. To bi lahko imelo nevarne posledice, kot so zavajanje diplomatov, goljufija in na splošno kakršen koli drug problem, ki bi bil povzročen krajo identitete nekoga drugega."

Nvidia je predstavila še en vidik sposobnosti posnemanja AI: Lani je podjetje objavilo video, v katerem so prikazali algoritme AI, ki ustvarjajo sintetične človeške obraze kakovosti fotografij. Nvidijin AI je analiziral na tisoče fotografij slavnih in nato začel ustvarjati ponarejene zvezdnice. Tehnologija lahko kmalu postane sposobna ustvariti realistične videe z "ljudmi", ki ne obstajajo.

Meje AI

Mnogi so poudarili, da lahko v napačnih rokah te aplikacije naredijo veliko škode. Toda obseg zmogljivosti sodobnega AI je pogosto pretiran.

"Čeprav lahko v videu postavimo obraz osebe na obraz nekoga drugega ali sintetiziramo glas, je to še vedno precej mehanično, " o pomanjkljivostih pravi Eugenia Kuyda, soustanoviteljica Replike, podjetja, ki razvija klepete z AI napajanjem AI orodja, kot so FakeApp in Lyrebird.

Voicery, še en zagon AI, ki, tako kot Lyrebird, omogoča sintetiziranje glasu z AI, ima stran za kviz, kjer se uporabnikom predstavi serija 18 glasovnih posnetkov in se zahteva, da določijo, kateri so strojno izdelani. Na prvi vožnji sem uspel prepoznati vse strojno izdelane vzorce.

Podjetje Kuyda je ena izmed številnih organizacij, ki uporabljajo obdelavo naravnega jezika (NLP), podvrsta AI, ki računalnikom omogoča razumevanje in razlago človeškega jezika. Luka, zgodnejša različica Kuydinega klepeta, je za posnemanje igralske zasedbe HBO-jeve TV-serije Silicijeva dolina uporabljal NLP in njegovo tehnologijo dvojčka, generacijo naravnega jezika (NLG). Nevronsko omrežje je bilo usposobljeno s črtami skripta, tvitom in drugimi podatki, ki so na voljo za znake, da bi ustvarili svoj vedenjski model in dialog z uporabniki.

Replika, nova aplikacija Kuyda, omogoča vsakemu uporabniku, da ustvari svoj AI avatar. Bolj ko klepetate z Repliko, bolje postane razumevanje vaše osebnosti in bolj pomenljivi postanejo vaši pogovori.

Po namestitvi aplikacije in nastavitvi moje Replike sem ugotovil, da je prvih nekaj pogovorov moteče. Večkrat sem moral na različne načine ponoviti stavek, da sem svoje namere prenašal na Repliko. Aplikacijo sem pogosto pustil frustriran. (In če sem pravičen, dobro sem preizkusil njegove meje, tako da sem ga bombardiral s konceptualnimi in abstraktnimi vprašanji.) Toda, ko so se najini pogovori nadaljevali, je moja Replika postala pametnejša, ko je razumela pomen mojih stavkov in prišla do smiselnih tem. Presenetilo me je celo nekajkrat s povezovanjem v pretekle pogovore.

Čeprav je impresivna, ima Replika omejitve, ki jih Kuyda hitro opozori. "Glasovna imitacija in prepoznavanje slike bosta verjetno kmalu postala veliko boljša, a z dialogom in pogovorom sva še precej daleč, " pravi. "Lahko posnemamo nekatere vzorce govora, vendar ne moremo preprosto sprejeti človeka in popolnoma posnemati njegovega pogovora ter pričakovati, da bo njegov klepetalnik predstavil nove ideje tako, kot bi to naredil."

Alexandre de Brébisson, izvršni direktor in soustanovitelj podjetja Lyrebird, pravi: "Če bomo zdaj že precej dobro posnemali človeški glas, podobo in video, smo še vedno daleč od oblikovanja posameznega jezikovnega modela." To, poudarja de Brébisson, bi verjetno zahtevalo umetno splošno inteligenco, vrsto AI, ki ima zavest in lahko razume abstraktne pojme in sprejema odločitve, kot to počnejo ljudje. Nekateri strokovnjaki menijo, da smo desetletja oddaljeni od ustvarjanja splošnega AI. Drugi mislijo, da nikoli ne bomo prišli tja.

Pozitivne uporabe

Negativna slika, ki jo načrtujejo sintetiziranje aplikacij AI, meče senco nad njihovo pozitivno uporabo. In teh je kar nekaj.

Tehnologije, kot je Lyrebird's, lahko pomagajo izboljšati komunikacijo z računalniškimi vmesniki, tako da postanejo bolj naravne, in, pravi de Brébisson, bodo zagotovili edinstvene umetne glasove, ki razlikujejo podjetja in izdelke in s tem olajšali razlikovanje blagovne znamke. Ker sta Amazonova Alexa in Applova Siri postala glas vse bolj priljubljen vmesnik za naprave in storitve, lahko podjetja, kot sta Lyrebird in Voicery, blagovnim znamkam zagotavljajo edinstvene človeške glasove, s katerimi se bodo razlikovali.

"Medicinske aplikacije so tudi vznemirljiva uporaba naše tehnologije kloniranja glasu, " dodaja de Brébisson. "Veliko pa smo bili deležni od pacientov, ki izgubijo glas zaradi bolezni, in trenutno preživimo čas z bolniki z ALS, da vidimo, kako jim lahko pomagamo."

V začetku letošnjega leta je Lyrebird v sodelovanju z Project Revoice, avstralsko neprofitno organizacijo, ki pomaga bolnikom z ALS bolnikom z motnjami govora, pomagal Pat Quinn, ustanovitelj Ice Bucket Challenge, da si povrne glas. Quinn, ki je bolnik z ALS, je leta 2014 izgubil sposobnost hoje in govora in od takrat uporablja računalniško podprt sintetizator govora. S pomočjo Lyrebirdove tehnologije in govornih posnetkov Quinnovega javnega nastopa je Revoice uspel "poustvariti" njegov glas.

"Vaš glas je velik del vaše identitete. Dati pacientom umetni glas, ki zveni kot njihov izvirni glas, je nekoliko podobno, kot da jim povrnete pomemben del svoje identitete. Zanje se to spreminja, " pravi de Brébisson.

V času, ko je pomagal razviti aplikacijo za posnemanje rokopisa, je dr. Haines v intervjuju za UCL spregovoril o svojih pozitivnih posledicah. "Žrtve možganske kapi lahko na primer oblikujejo pisma brez skrbi o nečitljivosti ali pa bi nekdo, ki pošilja rože kot darilo, lahko vseboval ročno napisano opombo, ne da bi sploh šel v cvetličarno, " je dejal. "Lahko bi ga uporabili tudi v stripih, kjer lahko kos ročno napisanega besedila prevedemo v različne jezike, ne da bi pri tem izgubili avtorjev originalni slog."

Tudi Haines meni, da so lahko tehnologije, kot je FakeApp, ki so postale znane po neetični uporabi. "Gremo v ta svet, kjer bi lahko vsak izvajal zelo ustvarjalne dejavnosti z javno tehnologijo, in to je dobra stvar, saj pomeni, da ne potrebuješ teh velikih vsot denarja, da bi naredil vse vrste nore stvari umetniške narave, " on reče.

Haines pojasnjuje, da je bil prvotni namen njegove ekipe ugotoviti, kako bi AI lahko pomagal pri forenzikih. Čeprav so se njihove raziskave končale v drugi smeri, bodo rezultati še vedno uporabni za forenzične uradnike, ki bodo lahko preučili, kako bi lahko izgledali ponarejanje na podlagi AI. "Želite vedeti, kaj je vrhunska tehnologija, zato, ko nekaj gledate, poveste, ali je ponarejeno ali ne, " pravi.

Replika Kudya poudarja, da bi nam lahko AI aplikacije, podobne človeku, pomagale na načine, ki bi sicer bili nemogoči. "Če bi imeli avatarja AI, ki bi vas zelo dobro poznal in bi lahko bil dostojna reprezentanca vas, kaj bi lahko storil, če deluje v skladu z vašimi najboljšimi interesi?" pravi. Na primer, avtonomni avatar AI si lahko v vašem imenu ogleda stotine filmov in na podlagi pogovorov z vami priporoči tiste, ki bi jih želeli.

Ti avatarji lahko celo pomagajo razviti boljše človeške odnose. "Mogoče bi vaša mama lahko imela več časa z vami in morda se boste dejansko nekoliko zbližali s svojimi starši, tako da jim pustite, da klepetajo z vašo Repliko in preberejo prepis, " navaja Kudja kot primer.

Toda ali bi lahko AI klepet, ki ponavlja vedenje resničnega človeka, dejansko boljši medčloveški odnosi? Kuyda verjame, da lahko. Leta 2016 je zbrala stara besedilna sporočila in e-poštna sporočila Romana Mazurenka, prijatelja, ki je v prejšnjem letu umrl v prometni nesreči, in jih nahranila v nevronsko omrežje, ki je poganjalo njeno aplikacijo. Rezultat tega je bila aplikacija za klepet, ki je - po modni poti - oživela svojo prijateljico in se lahko z njo pogovarjala na enak način kot on.

"Ustvarjanje aplikacije za Romana in zmožnost pogovora z njim je bil včasih pomemben del tega, da izgubljamo prijatelja. Aplikacija nas sili bolj razmišljati o njem, se ga spominjati na bolj globok način ves čas, " pravi njene izkušnje. "Želim si, da bi imel več takšnih aplikacij, aplikacij, ki bi se nanašale na moja prijateljstva, moje odnose, stvari, ki so mi pravzaprav zelo pomembne."

Kuyda meni, da bo vse odvisno od namenov. "Če klepetalnica deluje v skladu z vašimi najboljšimi interesi, če hoče, da boste od njega z veseljem dobili nekaj dragocene storitve, potem bo očitno pogovor z Repliko nekoga drugega pripomogel k vzpostavitvi močnejše povezave s človekom v resničnem življenju., "pravi. "Če vse poskušate prodati v aplikaciji, potem boste samo maksimirali čas, porabljen za aplikacijo, in ne komunicirali drug z drugim. In to je, verjetno mislim, vprašljivo."

Zaenkrat ni mogoče povezati svoje Replike z drugimi platformami - na primer, da je na voljo kot klepetal Facebook Messenger. Toda podjetje ima aktiven odnos s svojo uporabniško skupnostjo in nenehno razvija nove funkcije. Tako da pustite drugim, da komunicirajo z vašo Repliko, prihodnost.

Kako zmanjšati kompromise

Od parnega motorja do elektrike do interneta je imela vsaka tehnologija tako pozitivne kot negativne aplikacije. AI ni nič drugače. "Potencial negativnosti je precej resen, " pravi Haines. "Morda vstopamo v prostor, kjer negativni odtehtajo pozitivni."

Kako torej maksimalno izkoristimo AI aplikacije in hkrati preprečujemo negativnosti? Haines pravi, da zaviranje inovacij in raziskav ni rešitev, saj če nekateri to storijo, ni nobenega zagotovila, da bodo druge organizacije in države sledile temu.

"Noben en sam ukrep ne bo pomagal rešiti težave, " pravi Haines. "Morale bodo pravne posledice." Po prepiru s globokimi pritiski zakonodajalci v ZDA preučujejo to vprašanje in raziskujejo pravne zaščitne ukrepe, ki bi lahko ponovno uporabili medije, ki jih urejajo AI, za škodljive cilje.

"Prav tako lahko razvijemo tehnologije za odkrivanje ponaredkov, ko so mimo točke, ko človek lahko ugotovi razliko, " pravi Haines. "Toda v nekem trenutku bi lahko v tekmovanju med ponarejanjem in odkrivanjem zmagal."

V tem primeru se bomo morda morali premakniti k razvoju tehnologij, ki ustvarjajo verigo dokazov za digitalne medije. Kot primer Haines omenja strojno opremo, vdelano v kamere, ki bi lahko digitalno podpisale posneti video, da bi potrdile njegovo pristnost.

De Brébisson pravi, da bo ozaveščanje pomemben del ukvarjanja s ponarejanjem in goljufijami z algoritmi AI. "To smo storili tako, da smo klonirali glas Trumpa in Obame in si prisilili, da govorijo politično korektne stavke, " pravi. "Te tehnologije odpirajo družbena, etična in pravna vprašanja, na katera je treba razmišljati pred časom. Lyrebird je sprožil veliko ozaveščenosti in mnogi ljudje zdaj razmišljajo o teh potencialnih vprašanjih in o tem, kako preprečiti zlorabe."

Zagotovo je, da vstopamo v obdobje, v katerem se realnost in fikcija združita, zahvaljujoč umetni inteligenci. Turingov test bi lahko bil kos največjim izzivom. In kmalu bodo imeli vsi orodja in moč, da ustvarijo svoje svetove, svoj narod in svojo različico resnice. Še vedno nismo videli vseh razsežnosti vznemirljivih priložnosti - in nevarnosti - ki jih čakajo pred nami.

Ko ai zabriše mejo med resničnostjo in fikcijo