Domov Mnenja Kako so openaijeva lažna opozorila sprožila dejanske lažne novice

Kako so openaijeva lažna opozorila sprožila dejanske lažne novice

Kazalo:

Video: Greg Brockman: OpenAI and AGI | Lex Fridman Podcast #17 (November 2024)

Video: Greg Brockman: OpenAI and AGI | Lex Fridman Podcast #17 (November 2024)
Anonim

Neprofitni raziskovalni laboratorij AI OpenAI je prejšnji mesec povzročil val pakile apokalipse AI, ko je predstavil najsodobnejši AI za ustvarjanje besedil, imenovan GPT-2. Medtem ko je proslavljal dosežke GPT-2, je OpenAI izjavil, da svojega modela AI ne bo izdal javnosti, saj se boji, da bi GPT-2 v napačnih rokah lahko uporabil v zlonamerne namene, kot je ustvarjanje zavajajočih člankov, lažno predstavljanje drugih na spletu in avtomatiziranje izdelave ponarejenih vsebin na družbenih medijih.

Predvidoma je napoved OpenAI ustvarila poplavo senzacionalnih novic, toda čeprav je mogoče napredovati katero koli napredno tehnologijo, mora AI še veliko, preden obvlada besedilo. Tudi takrat je AI, ki ustvarja besedilo, potreboval več kot krizo za lažne novice. V tej luči so bila opozorila OpenAI prepovedana.

AI in človeški jezik

Računalniki so se v zgodovini borili s človeškim jezikom. V pisnem besedilu je toliko zapletenosti in odtenkov, da je pretvorba vseh v klasična programska pravila praktično nemogoča. Toda nedavni napredek v poglobljenem učenju in nevronskih omrežjih je utiral pot drugačnemu pristopu k ustvarjanju programske opreme, ki lahko obravnava naloge, povezane z jezikom.

Globoko učenje je prineslo velike izboljšave na področjih, kot so strojni prevod, povzemanje besedila, odgovarjanje na vprašanja in ustvarjanje naravnega jezika. Programskim inženirjem omogoča ustvarjanje algoritmov, ki razvijajo lastno vedenje z analizo številnih primerov. Za naloge, povezane z jezikom, inženirji napajajo nevronske mreže digitalizirano vsebino, kot so novice, strani Wikipedije in objave v družbenih medijih. Nevronske mreže natančno primerjajo podatke in upoštevajo, kako nekatere besede sledijo drugim v ponavljajočih se zaporedjih. Te vzorce nato pretvorijo v zapletene matematične enačbe, ki jim pomagajo rešiti naloge, povezane z jezikom, na primer predvidevanje manjkajočih besed v zaporedju besedila. Na splošno, bolj kakovostni podatki o usposabljanju, ki jih posredujete modelu poglobljenega učenja, boljši postane pri opravljanju svoje naloge.

Po podatkih OpenAI je GPT-2 usposobljen na 8 milijonih spletnih strani in milijardah besed, kar je veliko več kot drugi podobni modeli. Uporablja tudi napredne modele AI za boljšo uporabo besedilnih vzorcev. Vzorčni izhod iz GPT-2 kaže, da modelu uspe ohraniti skladnost v daljših zaporedjih besedila kot predhodniki.

Toda čeprav je GPT-2 korak na področju generiranja naravnega jezika, to ni tehnološki preboj k ustvarjanju AI, ki bi lahko razumel pomen in kontekst pisnega besedila. GPT-2 še vedno uporablja algoritme za ustvarjanje zaporedja besed, ki so statistično podobne milijardam besedilnih odlomkov, ki jih je prej videl - popolnoma ne razume, kaj ustvarja.

V poglobljeni analizi ZDNet-ov Tiernan Ray opozarja na več primerov, ko izhodni vzorci GPT-2 izdajajo svojo umetno naravo z dobro znanimi artefakti, kot sta podvajanje izrazov in pomanjkanje logike in doslednosti v dejstvih. "Ko se GPT-2 loti pisanja, ki zahteva boljši razvoj idej in logike, se razpoke razširijo dokaj široko, " ugotavlja Ray.

Statistično učenje lahko računalnikom pomaga ustvariti besedilo, ki je slovnično pravilno, vendar je za ohranitev logične in dejanske skladnosti potrebno globlje pojmovno razumevanje. Žal je to še vedno izziv, ki ga trenutne mešanice AI niso premagale. Zato lahko GPT-2 ustvari lepe odstavke besedila, vendar bi bil verjetno težko ustvariti verodostojen članek z dolgo obliko ali prepričati koga na prepričljiv način in skozi daljše časovno obdobje.

Zakaj je preplastitev panike lažnih novic o AI

Še ena težava z obrazložitvijo OpenAI: Predvideva, da lahko AI ustvari krizo s ponarejenimi novicami.

Leta 2016 je skupina makedonskih najstnikov na milijone ljudi širila lažne novice o ameriških predsedniških volitvah. Ironično je, da sploh niso imeli ustreznega angleškega znanja; po spletu so poiskali svoje zgodbe in skupaj šivali različne vsebine. Uspešni so bili, ker so ustvarili spletna mesta, ki so bila dovolj avtentična, da bi prepričala obiskovalce, da jim zaupajo kot zanesljive novice. Senzacionalni naslovi, malomarni uporabniki socialnih medijev in trendni algoritmi so storili ostalo.

Potem so leta 2017 zlonamerni akterji sprožili diplomatsko krizo v regiji Perzijskega zaliva s tem, da so vdrli v katarska državna novice in vladne račune družbenih medijev ter objavili ponarejene opombe v imenu katarskega emirja šeika Tamima bin Hamada Al Thanija.

Kot kažejo te zgodbe, uspeh kampanj lažnih novic temelji na vzpostavljanju (in izdaji) zaupanja, ne pa na ustvarjanju velikih količin skladnega angleškega besedila.

Opozorila OpenAI o avtomatizaciji izdelave ponarejenih vsebin za objavo na družbenih medijih so sicer bolj utemeljena, saj imata obseg in glasnost pomembnejšo vlogo v družbenih omrežjih kot v tradicionalnih medijskih hišah. Predpostavka je, da bo AI, kot je GPT-2, lahko preplavil družbene medije z milijoni edinstvenih objav o določeni temi, kar bo vplivalo na trendi algoritme in javne razprave.

A opozorila kljub temu ne ustrezajo resničnosti. V zadnjih nekaj letih družbena omrežja nenehno razvijajo zmogljivosti za zaznavanje in blokiranje samodejnega vedenja. Torej bi moral zlonamerni igralec, oborožen z AI, ki ustvarja besedilo, premagati številne izzive, razen ustvarjanja edinstvene vsebine.

Na primer, potrebovali bi na tisoče ponarejenih računov v družabnih medijih, v katerih bi objavili svojo vsebino, ustvarjeno z AI. Še strožje, da bi se prepričali, da ni možnosti povezave ponarejenih računov, bi potrebovali edinstveno napravo in IP naslov za vsak račun.

Slabše je: za zmanjšanje podobnosti bi bilo treba račune ustvarjati v različnih obdobjih, morda več kot leto ali več. Lani je preiskava New York Timesa pokazala, da lahko samo datumi ustvarjanja računov pomagajo odkriti bot račune. Za nadaljevanje skrivanja svoje avtomatizirane narave pred drugimi uporabniki in algoritmi za policijo bi morali računi sodelovati pri človeku podobnem vedenju, kot je interakcija z drugimi uporabniki in določanje edinstvenega tona v njihovih objavah.

Nobenega od teh izzivov je nemogoče premagati, vendar kažejo, da je vsebina le en del truda, potrebnega za izvedbo kampanje za lažne novice v družbenih medijih. In spet ima zaupanje pomembno vlogo. Nekaj ​​zaupanja vrednih vplivalcev na družbene medije, ki bodo postavili nekaj ponarejenih novic, bo imelo večji učinek kot kup neznanih računov, ki bodo ustvarili veliko količino vsebine.

V obrambo opozoril OpenAI

Pretirana opozorila OpenAI so sprožila cikel medijske hripa in panike, ki je ironično mejila na lažne novice, kar je spodbudilo kritike priznanih strokovnjakov AI.

Mediji so povabili k zgodnjem dostopu do rezultatov z embargom za tisk, tako da je vse istega dne postalo javno. Nobenega raziskovalca, ki ga poznam, ni bilo videti velikega modela, ampak novinarji so ga. Da, namerno so ga raznesli.

- Matt Gardner (@nlpmattg) 19. februarja 2019

Vsakega novega človeka je mogoče uporabiti za ustvarjanje lažnih novic, širjenje teorij zarote in vplivanje na ljudi.

Naj potem nehamo ustvarjati dojenčke?

- Yann LeCun (@ylecun) 19. februarja 2019

Želel sem vam vse povedati, naš laboratorij je našel neverjeten preboj v razumevanju jezika. vendar nas tudi skrbi, da lahko pade v napačne roke. zato smo se odločili, da ga odstranimo in namesto tega objavimo samo navadne stvari * ACL. Veliko spoštovanje ekipe za njihovo odlično delo.

- (((? () (? () 'Yoav)))) (@yoavgo) 15. februar 2019

Zachary Lipton, raziskovalec AI in urednik Približno korektno, je opozoril na zgodovino OpenAI, da "uporabljajo svoj blog in pretiravajo pozornost pred nezadovoljnim delom v javnosti in pogosto igrajo vidike človekove varnosti dela, ki še nima intelektualnega noge, da stojijo."

Čeprav si OpenAI zasluži vso kritiko in vročino, ki jo je prejel zaradi zavajajočih pripomb, je prav tako resnično zaskrbljen zaradi morebitne zlonamerne uporabe svoje tehnologije, četudi je podjetje uporabil neodgovorni način za izobraževanje javnosti o tem.

  • Leto etičnega obračuna AI industrije Leto etičnega računanja v AI industriji
  • Nepoštena prednost: Ne pričakujte, da se bo AI igral kot človek Nepoštena prednost: Ne pričakujte, da se bo AI igral kot človek
  • Ta AI napoveduje spletni trolling, preden se zgodi. Ta AI napoveduje spletni trolling, preden se zgodi

V preteklih letih smo videli, kako se lahko AI tehnologije, ki so javno in brez razmišljanja javno objavile, orožijo zaradi zlonamernih namenov. En primer je bil FakeApp, aplikacija AI, ki si lahko izmenjuje obraze v videoposnetkih. Kmalu po izidu FakeAppa so ga uporabili za ustvarjanje ponarejenih pornografskih videov, v katerih so bili predstavljeni zvezdniki in politiki, kar je povzročilo zaskrbljenost zaradi grožnje z ponarejanjem z AI.

Odločitev OpenAI kaže, da moramo začasno ustaviti in razmisliti o možnih posledicah javne sprostitve tehnologije. In moramo bolj aktivno razpravljati o tveganjih AI tehnologij.

"Ena organizacija, ki začasno ustavi določen projekt, v resnici ne bo dolgoročno spremenila ničesar. Toda OpenAI dobi veliko pozornosti za vse, kar počnejo… in mislim, da bi jim morali pohvale za to, da bi o tem vprašanju opozorili, " David Bau, je za Slate povedal raziskovalec v MIT-ovem laboratoriju za računalništvo in umetno inteligenco (CSAIL).

Kako so openaijeva lažna opozorila sprožila dejanske lažne novice