Kazalo:
- Perspektiva sredi kričnih tekem
- Jigsaw in Google
- AI je "Napačen in neumen včasih"
- Kaj je ocena toksičnosti?
- Redditova radovedna posteljica
- Kompleksne sodbe v spletni razpravi
- Vsi komentarji ustrezajo tiskanju
- Notranji moderator, NYT komentar vmesnik
- „Ne nadomeščamo vas s stroji“
- Kričanje v brezno
Video: The brain may be able to repair itself -- with help | Jocelyne Bloch (November 2024)
Internet se lahko počuti kot strupeno mesto. Troli se spuščajo v razdelke komentarjev in teme v družabnih medijih, da bi spodbudili sovražni govor in nadlegovanje, ki potencialno razsvetljujoče razprave spremenijo v napade ad hominem in skupinske gomile. Izražanje mnenja na spletu se pogosto ne zdi vredno dobljene vitriole.
Množične družbene platforme - vključno s Facebookom, Twitterjem in YouTubom - priznavajo, da teh vprašanj ne morejo ustrezno nadzorovati. Udeležijo se oboroževanja z boti, troli in vsemi drugimi nezaželenimi, ki zdrsnejo skozi vsebinske filtre. Ljudje fizično niso sposobni prebrati vsakega komentarja po spletu; tisti, ki poskusijo, pogosto obžalujejo.
Tehnični velikani so eksperimentirali z različnimi kombinacijami človeške zmernosti, algoritmi AI in filtri, s katerimi se lahko prebijamo skozi vsebino, ki se vsak dan pretaka skozi njihove vire. Jigsaw poskuša najti sredino. Podružnica in tehnološki inkubator Alphabet, prej znan kot Google Ideas, začenja dokazovati, da lahko strojno učenje (ML), oblikovano v orodja za človeške moderatorje, spremeni način, kako pristopamo k težavi s toksičnostjo na internetu.
Perspektiva je API, ki sta ga razvila Jigsaw in Googlova ekipa za tehnologijo za boj proti zlorabi. Uporablja ML za odkrivanje zlorab in nadlegovanja na spletu ter ocenjuje komentarje na podlagi zaznanega vpliva, ki bi ga lahko imeli na pogovor, da bi olajšali življenje moderatorjev.
Perspektiva sredi kričnih tekem
Odprtokodna tehnologija je bila prvič objavljena leta 2017, čeprav se je razvoj zanjo začel nekaj let prej. Nekatera prva mesta, ki so eksperimentirala s perspektivo, so bile novice, kot so The New York Times in spletna mesta, kot je Wikipedia. Toda v zadnjem času je Perspective našel dom na spletnih mestih, kot je Reddit in platforma za komentarje Disqus (ki se uporablja na PCMag.com.)
CJ Adams, produktni vodja podjetja Perspektiva, je dejal, da želi projekt raziskati, kako glasovi ljudi utišajo v spletu. Jigsaw je želel raziskati, kako lahko ciljno usmerjena zloraba ali splošno vzdušje nadlegovanja ustvarijo hladen učinek in ljudi odvrnejo do točke, ko se jim zdi, da ni vredno časa ali energije, da bi dodali svoj glas razpravi. Kako pogosto ste videli tvit, objavo ali komentar in se odločili, da se ne odzovete, ker se boriti s troli in z Mad Mad Online preprosto ne zaostruje?
"Spletni pogovor je zelo lahko pokvariti, " je dejal Adams. "Vstopiti je enostavno, toda ena oseba, ki je resnično zlobna ali strupena, bi lahko izpustila druge glasove. Mogoče 100 ljudi prebere članek ali sproži debato, pogosto pa na koncu ostaneš najglasnejši glas v sobi, na internetu, ki je optimiziran za všečke in delitve. Tako nekako utišate vse te glasove. Potem je tisto, kar opredeljuje razpravo, le najglasnejši glas v sobi - kričanje."
-
Vsi komentarji ustrezajo tiskanju
Glede na dan v tednu spletna stran New York Timesa dobi od 12.000 do več kot 18.000 komentarjev. Do sredine leta 2017 so oddelke za komentarje prispevka moderirali zaposleni v menedžmentu skupnosti, ki so prebrali vsak komentar in se odločili, ali ga bodo odobrili ali zavrnili.
Bassey Etim, ki je bil do tega meseca urednik skupnosti za Times , je desetletje preživel za mizo Skupnosti in bil njegov urednik od leta 2014. Na vrhuncu tedna bo v ekipi morda nekaj ljudi, ki moderirajo komentarje o mnenjskih zgodbah, medtem ko drugi obravnavali novice. Preglednica se je razdelila in zasledila različne odgovornosti, toda ekipa približno ducata ljudi je bila nenehno dodeljena ali se je gibala naokoli, odvisno od najboljših novic v tem trenutku. Hranili so tudi drobce iz komentarjev nazaj novinarjem zaradi morebitne krmne zgodbe.
Sčasoma je postalo jasno, da je to lahko rešilo več kot 12 ljudi. Komentarji o zgodbah bi morali zapreti, ko bi dosegli največje število komentarjev, ki bi jih lahko ekipa moderirala.
Časopisna skupina za razvoj občinstva je že eksperimentirala s strojnim učenjem za osnovna, očitna odobravanja komentarjev, toda Etim je dejal, da ni posebej pametna ali prilagodljiva. Times je prvič objavil svoje partnerstvo z Jigsawom septembra 2016. Od takrat so se razdelki za komentarje razširili, tako da so se danes pojavili na manj kot 10 odstotkih vseh zgodb na približno 30 odstotkov in plezali.
Z vidika Jigsaw-a je inkubator videl priložnost za napajanje anonimnih podatkov podjetja Perspektive iz milijonov komentarjev na dan, ki so jih moderirali strokovnjaki, ki bi lahko pomagali izboljšati postopek. Jigsaw in Times sta v zameno za anonimne podatke o treningu ML sodelovala pri oblikovanju platforme z imenom Moderator, ki se je uvedla junija 2017.
Jigsaw in Google
Grobo leto je minilo za sestrsko podjetje Jigsaw, Google, ki se je spoprijelo z vprašanji varnosti podatkov, odpornostjo zaposlenih pri svojih projektih za Pentagon in Kitajsko ter razkritjem glede ravnanja s spolnim nadlegovanjem. Da ne omenjam spornega kongresnega zaslišanja, v katerem so zakonodajalci na žaru pospravili izvršnega direktorja Sundar Pichai.
V Jigsawu, albuističnem inkubatorju Alphabet, so bile stvari nekoliko manj dramatične. Skupina je svoj čas namenila pregledu več tehničnih oblik cenzure, kot so zastrupitev z DNS s svojo aplikacijo Intra in napadi DDoS s Project Shield. Cilj je s perspektive bolj abstrakten. Namesto da s strojnim učenjem določimo, kaj je ali ni v nasprotju z določenim sklopom pravil, je izziv Perspektive zelo subjektiven: razvrščanje čustvenega vpliva jezika.
Če želite to narediti, potrebujete obdelavo naravnega jezika (NLP), ki razloži stavek na vzorce. Ekipa Perspektive se spopada s težavami, kot so pristranskost potrditve, razmišljanje in nadlegovanje v okolju, kjer je tehnologija povečala njihov doseg in jih je težje rešila.
AI je "Napačen in neumen včasih"
Izboljšanje spletnih pogovorov s strojnim učenjem ni preprosta naloga. To je še vedno novo raziskovalno področje. Algoritmi so lahko pristranski, sistemi strojnega učenja zahtevajo neskončno izpopolnjevanje, najtežji in najpomembnejši problemi pa so še vedno v veliki meri neraziskani.
Raziskovalna skupina Conversation AI, ki je ustvarila Perspektive, se je začela s srečanjem s časopisi, založniki in drugimi spletnimi mesti, ki gostijo pogovore. Nekatera prva mesta, ki so eksperimentirala s tehnologijo, so bila New York Times , Wikipedia, The Guardian in The Economist .
Leta 2017 je ekipa v okviru alfa testa na javnem spletnem mestu odprla začetno predstavitev perspektive, ki je ljudem omogočila, da v spletno stran vpišejo milijone zlobnih in zlorabljenih komentarjev. Bilo je nekako podobno Microsoftovemu zloglasnemu eksperimentu Tay chatbot, Jigsaw pa je namesto, da bi prevaral botre, da so odgovarjali z rasističnimi tvitovi, uporabil množično virulenco kot podatke za usposabljanje za napajanje svojih modelov, kar je pomagalo pri prepoznavanju in kategorizaciji različnih vrst spletnih zlorab.
Začetna javna preizkusna vožnja ni potekala brez težav. Wiredov "Trolls po vsej Ameriki", ki je razbijal toksičnost pri komentiranju po vsej državi na podlagi perspektivnega točkovanja, je pokazal, kako algoritem nehote diskriminira skupine glede na raso, spolno identiteto ali spolno usmerjenost.
Adams je bil odkrit zaradi dejstva, da je prvotno testiranje podjetja Perspektiva odkrilo velike slepe točke in algoritemsko pristranskost. Tako kot Amazonovo razrezano orodje za zaposlovanje, ki je desetletja usposobljalo napačne podatke o delovnih mestih in razvijalo prirojeno pristranskost do kandidatk, so tudi modeli zgodnje perspektive zaradi podatkov, na katerih se je usposabljali, imeli očitne pomanjkljivosti.
"V primeru pogosto ciljanih skupin, če bi pogledali porazdelitev komentarjev v naboru podatkov o usposabljanju, je bilo izredno majhno število komentarjev, ki so vključevali besedo" gej "ali" feministka "in so jo uporabljali pozitivno način, "je pojasnil Adams. "Zlorabni komentarji uporabljajo besede kot žalitve. MLP, ki gleda na vzorce, bi rekel:" Hej, prisotnost te besede je dober napovedovalec tega, ali je ta občutek strupen ali ne."
Na primer, algoritem alfa je lahko napačno označil izjave, kot so "Sem ponosen gej" ali "Sem feministka in transspolna oseba" z visoko oceno strupenosti. Toda javno pregleden vadbeni proces - čeprav boleč - je bil Jigsaw neprecenljiva lekcija o posledicah nenamernih pristranskosti, je dejal Adams.
Kadar treniramo modele strojnega učenja na nečem tako težkem in osebnem, kot sta spletna zloraba in nadlegovanje, obstoj algoritmičnih pristranskosti tudi poudarja, zakaj samo AI ni rešitev. Družbena podjetja, kot sta Facebook in YouTube, sta se oglaševala po AI-jevih funkcijah za moderiranje vsebine AI le z namenom odpravljanja škandala in popravljanja tečajev z najemom tisoč ljudi.
Jigsaw's tack je hibrid teh dveh. Perspektiva ni algoritmov AI, ki sprejemajo odločitve v vakuumu; API je vgrajen v vmesnike za upravljanje skupnosti in urejanje vsebine, da služi kot pomožno orodje za človeške moderatorje. Perspektivni inženirji opisujejo moderiranje sovražnega govora z ML in brez njega z uporabo analogije sena: AI pomaga tako, da avtomatizira postopek sortiranja, uniči ogromne sene, hkrati pa še vedno daje ljudem zadnjo besedo o tem, ali se komentar šteje za nadlegovanje ali nadlegovanje.
"To je nova sposobnost ML, " je dejal Adams. "Ljudje govorijo o tem, kako pameten je AI, vendar pogosto ne govorijo o vseh načinih, kako je včasih narobe in neumno. Že na začetku smo vedeli, da bo to naredilo veliko napak in zato smo si rekli:" To orodje je koristno za strojno zmerjanje ljudi, vendar ni pripravljeno samodejno sprejemati odločitev. " Toda težava z "iglo v senenem nahodu" lahko najde to strupeno govorico in jo spusti na peščico."
Kaj je ocena toksičnosti?
Najbolj razdeljen vidik Perspektive modeliranja je postavljanje številk v tako subjektivno kot "strupenost". Prva stvar, ki jo je Adams opozoril, je, da so ocene perspektive pokazatelj verjetnosti in ne resnosti. Večje število predstavlja večjo verjetnost, da vzorci v besedilu spominjajo na vzorce v komentarjih, ki so jih ljudje označili kot strupene.
Glede tega, kaj dejansko pomeni "strupeno", ekipa Perspektiva to na splošno definira kot "nesramen, nespoštljiv ali nerazumen komentar, zaradi katerega boste verjetno pustili razpravo." Toda kako se to manifestira, je lahko subtilno. V letu 2018 je Jigsaw sodeloval z laboratorijem za umetno inteligenco Rhodes (RAIL), da bi razvil modele ML, ki lahko poberejo bolj dvoumne oblike grozečega ali sovražnega govora, kot so odklonilni, spodobni ali sarkastični komentarji, ki niso odkrito sovražni.
Do zdaj je bila večina modelov Perspektive usposobljena tako, da so ljudi zahtevali, da ocenjujejo internetne komentarje na lestvici od "zelo strupenega" do "zelo zdravega". Razvijalci lahko nato kalibrirajo model, da označi komentarje nad določenim pragom, od 0, 0 do 1, 0. Rezultat nad 0, 9 pomeni visoko verjetnost toksičnosti, ocena 0, 5 ali manj pa pomeni precej nižjo stopnjo algoritmične gotovosti. Perspektiva uporablja tudi tako imenovano normalizacijo rezultatov, ki razvijalcem daje dosledno osnovno črto, iz katere lahko razlagajo rezultate. Adams je pojasnil, da lahko razvijalci glede na forum ali spletno mesto mešajo in se ujemajo z modeli. Kadar se skupnost ne moti nestrokovnosti, lahko ta atribut odtehta.
Adams mi je pokazal demo vmesnik za moderiranje, integriran s perspektivnim API-jem. Na skrbniški plošči je poleg možnosti za razvrščanje komentarjev po vrhu, najnovejših in tako naprej majhna ikona zastave, ki jo lahko razvrstim po toksičnosti. Obstaja tudi vgrajen mehanizem povratnih informacij, da človeški moderator sporoči Perspektivi, da je napačno pripomnil in model sčasoma izboljšal.
S klikom na demo vmesnik za moderiranje komentarjev na strani Wikipedia Talk, ki so jih ocenili različni modeli perspektive, in graf histograma, ki razčleni, kateri komentarji bodo verjetno napad na avtorja strani ali napad na drugega komentatorja.
"Želimo zgraditi orodja za moderiranje, s katerimi lahko označimo stvari za pregled človeka, vendar ne želimo, da bi kakšna osrednja opredelitev ali kdo povedal, kaj je dobro in slabo, " je dejal Adams. "Torej, če razvrstim po strupenosti, opazite, da prihaja do vrhunskih komentarjev. Če pa vas bolj zanimajo, recimo, napadi identitete ali grožnje kot metrike, kot je prisega, morda ne bi uporabili splošnega modela strupenosti. To so sestavine, ki jih lahko mešate. Ponudimo jih, razvijalci pa jih tehtajo."
Poskus RAIL je bolj natančen. Študentje v Oxfordu gradijo zbirko podatkov v več deset tisoč komentarjih iz oddelka za komentarje kanadskega časopisa Globe and Mail in strani Wikipedia Talk. Od človeških »annotatorjev« prosijo, naj odgovorijo na vprašanja o vsakem komentarju v zvezi s petimi atributi »nezdrave vsebine«: sovražnimi ali žaljivimi (troli), odklonilnimi, prizanesljivimi ali pokroviteljskimi, sarkastičnimi in nepoštenimi posplošitvami.
Če upoštevamo te bolj subtilne atribute, so odkrili nove zapletene težave z nenamerno pristranskostjo do določenih skupin in lažnimi stališči s sarkastičnimi komentarji. To je del vse močnejših bolečin v AI, hranjenje modelov vse več in več podatkov, da bi lažje razumel implicitne, posredne pomene človeškega govora. Skupina še vedno pregleduje in pripisuje več tisoč komentarjev, končni nabor podatkov pa namerava objaviti v začetku letošnjega leta.
"Pri čemer si želimo prizadevati je nekaj, pri čemer lahko skupnost oceni niz komentarjev, nato pa jim lahko naredimo kombinacijo perspektivnih modelov po meri, da se ujemajo, " je dejal Adams.
Redditova radovedna posteljica
Reddit je mikrokozmos vsega dobrega in groznega v internetu. Obstaja podreddit skupnost za vsako temo in nišo, bizarno zanimanje, ki si ga lahko omislite. Jigsaw ne deluje z Redditom na korporativni ravni, vendar je eno najbolj intrigantnih mest, kjer se testira moderacija Perspektive AI, v podredu, imenovanem r / changemyview.
Presenetljivo je, da obstajajo kotički interneta, kjer se še vedno odvijajo pristne razprave in razprave. Spreminjanje mojega pogleda ali CMV ni tako kot večina drugih poddodstavkov. Ideja je, da objavite mnenje, za katero sprejmete, da je lahko napačno ali se lahko spremeni, nato pa poslušate in razumete druga stališča in preverite, ali lahko o nekem vprašanju premislijo. Teme segajo od vsakdanjih tem, kot so pravilni vrstni red ogledov filmov Vojne zvezd do resnih razprav o vprašanjih, vključno z rasizmom, politiko, nadzorom orožja in religijo.
Spremeni moj pogled je zanimiva preizkusna točka za perspektivo, ker ima podreddit svoj podroben nabor pravil za začetek in moderiranje pogovorov, ki spodbudijo prepir in vroče razprave po zasnovi. Kal Turnbull, ki gre na u / Snorrrlax na Redditu, je ustanovitelj in eden od moderatorjev r / changemyview. Turnbull je za PCMag povedal, da se perspektivni API še posebej dobro ujema s podvladom Pravilo 2, ki v bistvu prepoveduje nesramno ali sovražen govor.
"Sliši se kot preprosto pravilo, vendar je veliko odtenka, " je dejal Turnbull, ki ima sedež na Škotskem. "Težko je avtomatizirati to pravilo, ne da bi bil spreten glede jezika. Reddit vam daje to zadevo, imenovano AutoModerator, kjer lahko nastavite filtre in ključne besede za označevanje. Vendar je toliko lažnih pozitivnih stališč in ujeti jih je lahko precej težko, saj lahko nekdo reče slabo besedo, ne da bi nekoga žalil, lahko tudi koga užali, ne da bi uporabil kakšne slabe besede."
Jigsaw se je Turnbullu pridružil marca 2018. Sodelovanje se je začelo s pravilom 2, kmalu pa je ekipa oblikovala perspektivne modele tudi za druga pravila. Ne gre za popolno integracijo odprtokodnega API-ja Perspektive, ampak za roko Reddit, ki omogoča moderatorjem pripombe pri komentarjih, doseženih nad določenim pragom strupenosti.
V zadnjih šestih letih so Turnbull in drugi modo delali vse to ročno iz čakalne vrste poročil AutoModerator (označene ključne besede) in poročil uporabnikov. Jigsaw je uporabil več let zapisov o kršenju pravil s strani moderatorjev, ki so jih spremljali skozi razširitev brskalnika, in na podlagi teh podatkov zgradil perspektivne modele, kombinirane z nekaterimi obstoječimi modeli strupenosti Perspektive. V celotnem letu 2018 so modalci CMV posredovali povratne informacije o vprašanjih, kot so presežni lažni pozitivni rezultati, Jigsaw pa je prilagodil točkovalne pragove in nadaljeval z modeliranjem več pravil CMV.
Kompleksne sodbe v spletni razpravi
Perspektiva ni na voljo za vse moderacije pravil podreddita. Nekatera bolj zapletena ali abstraktna pravila še vedno presegajo obseg tega, kar lahko razume ta vrsta ML.
Pravilo 4 na primer ureja podpotni sistem Delta točk, medtem ko pravilo B uporabnikom onemogoča igranje zagovornika hudiča ali uporabo objave za "milanje". Nuancedna zmernost, kot je ta, zahteva kontekstualne podatke in preprosto človeško razumevanje, da ugotovi, ali se kdo prepira z dejanji iz resničnih razlogov ali preprosto trolira.
V doglednem času bomo še vedno potrebovali človeške modre. Ti bolj zapleteni scenariji presoje so tam, ko moderatorji CMV začenjajo opaziti razpoke v modeliranju AI, bolj pametna avtomatizacija pa bi lahko ugotovila, ali je vse to lahko razširljivo.
"Mislim, da je razlog, da je to tako zapleteno, v tem, da gre za kombinacijo naše presoje o njihovem prvotnem postu in njihovih interakcij v celotnem pogovoru. Torej ni samo en komentar tisti, ki sproži model, " je dejal Turnbull. "Če se argumenti vračajo naprej in nazaj, na koncu pa je komentar, ki govori" hvala "ali priznanje, ga pustimo, tudi če je bilo neko pravilo kršeno prej v niti. Ali pa lahkomiselna šala, ki v kontekstu morda se zdi nesramno - to je lepa majhna človeška stvar in to še ne dobi bot."
Spremeni moj pogled je edini podreddit, ki trenutno za zmernost aktivno uporablja perspektivne ML modele, čeprav je Adams dejal, da je ekipa prejela zahteve za dostop od več drugih. Zaradi posebnega niza pravil CMV je bil idealen testni primer, vendar so perspektivni modeli popravljivi; posamezni podredniki lahko prilagodijo algoritem ocenjevanja tako, da ustreza njihovim smernicam skupnosti.
Naslednji korak Turnbulla je odvzem CMV-ja iz Reddita, ker ga skupnost prerasla, je dejal. Zadnjih šest mesecev novoustanovljeni zagon moderatorjev sodeluje z Jigsaw-om na namenskem spletnem mestu z globljimi funkcionalnostmi, kot ga lahko nudijo modusov vmesnik Reddit in botovi.
Projekt je še vedno samo v alfa testiranju, vendar je Turnbull spregovoril o funkcijah, kot so proaktivna opozorila, ko uporabnik vtipka komentar, ki bi lahko prekršil neko pravilo, vgrajeno poročanje, ki bo moderatorjem dalo več konteksta in zgodovinske podatke za sprejemanje odločitev. Turnbull je poudaril, da ne nameravajo izklopiti ali preseliti podreddita, vendar je nad novim poskusom navdušen.
Notranji moderator, NYT komentar vmesnik
Moderator združuje modele Perspektiva z več kot 16 milijoni anonimiziranih, moderiranih komentarjev Timesa, ki segajo v leto 2007.
Tisti, ki ga skupnost v resnici vidi v vmesniku Moderatorja, je nadzorna plošča z interaktivnim grafikonom histograma, ki prikazuje razčlenitev komentarjev nad določenim pragom. Drsnik lahko povleče naprej in nazaj, na primer, da samodejno odobri vse komentarje z le 0 do 20-odstotno zbirno oceno, ki temelji na kombinaciji potencialnega komentarja za nespodobnost, strupenost in verjetnost zavrnitve. Spodaj obstajajo gumbi za hitro moderiranje, da komentar odobrite ali zavrnete, ga odložite ali označite, da nadaljujete z izboljšanjem modeliranja Perspektive.
"Za vsak del spletnega mesta smo analizirali prihajajoče komentarje in način, kako bi jih Perspective označil. Uporabili smo tako javne perspektivne modele kot lastne modele, edinstvene za The New York Times , " je dejal Etim. "Analiziral bi komentarje iz vsakega odseka in skušal najti mejo, kjer bi nam lahko rekli:" V redu, vse nad to verjetnostjo z uporabo teh oznak strupenosti, kot je na primer nespodobnost, bomo odobrili."
Strojno učenje odobrava sorazmerno majhen odstotek komentarjev (približno 25 odstotkov ali približno, je dejal Etim), saj Times deluje, da bi objavljal komentarje na več zgodb in na koncu celo prilagodil, kako modeli filtrirajo in odobravajo komentarje za različne dele spletnega mesta. Modeli odobravajo samo komentarje; zavračanje še vedno v celoti obravnavajo človeški moderatorji.
Teh ročnih omejitev komentarjev ni več. Komentarji zgodbe se običajno zaključijo 24 ur po objavi v spletu ali dan po objavi v tisku, je dejal Etim.
„Ne nadomeščamo vas s stroji“
Naslednja faza je v sistem vgraditi več funkcij, ki moderatorjem pomagajo določiti prednost, katere komentarje najprej pogledati. Čedalje bolj je avtomatizacija ročnega procesa moderatorjem omogočala proaktivni čas z novinarji in odgovarjanje na komentarje. Ustvaril je povratno zanko, kjer komentarji vodijo do nadaljnjega poročanja in dodatnih zgodb - lahko prihranite in prerazporedite vire, da ustvarite več novinarstva.
"Moderator in Perspektiva sta Times veliko bolj odzvala na pomisleke bralcev, saj imamo sredstva za to, pa naj gre za to, da sami pišemo zgodbe ali sodelujemo z novinarji, da bi razkrili zgodbe, " je dejal Etim. "Kul pri tem projektu je, da nikogar nismo odložili. Ne nadomeščamo vas s stroji. Preprosto uporabljamo ljudi, ki jih imamo bolj učinkovito, in za sprejemanje res težkih odločitev."
Članek je pripravljen za sodelovanje z drugimi publikacijami, da bi preostali industriji pomagali pri izvajanju tovrstne tehnologije. Z omejenimi sredstvi lahko lokalnim novicam pomaga, da ohranijo odseke za komentarje brez velikega osebja in uporabijo komentarje kot Times , da najdejo potencialne potencialne potencialne pobude in spodbudijo široko novinarstvo.
Etim je primerjal zmernost s pomočjo AI, da je kmetu dajal mehanski plug v primerjavi z lopaticami. Delo lahko opravite veliko bolje s plugom.
"Če se perspektiva lahko razvije na pravilen način, lahko upamo, da bo ustvarila vsaj niz smernic, ki jih je mogoče ponoviti za majhne lokale, " je dejal. "To je dolga igra, vendar smo že postavili veliko temeljev, da bi bili del te bralske izkušnje. Mogoče bodo lahko ti lokalni časopisi spet dali komentarje in ustanovili malo plaž proti glavnim socialnim igralcem."
Kričanje v brezno
V tem trenutku je večina nas videla ljudi, ki so jih na družbenih medijih napadali ali nadlegovali zaradi izražanja mnenja. Nihče si ne želi, da bi se jim to zgodilo, razen trolov, ki uspevajo v takšnih stvareh. In izvedeli smo, da kričanje na neznanca, ki nikoli ne bo poslušal racionalnega prepira, ni dragocena uporaba našega časa.
Perspektiva poskuša izkoristiti to dinamiko, toda CJ Adams je dejal, da je širši cilj objavljanje podatkov, raziskav in novih odprtokodnih modelov UX za ustvarjanje novih struktur pogovorov - zastrašujoča naloga. Izdelava interneta kot zdravega mesta, ki je vreden ljudi, pomeni razširjanje teh sistemov zunaj razdelkov za komentarje novic in podredov. Konec koncev morajo biti orodja AI sposobna ravnati z velikimi socialnimi aplikacijami in omrežji, ki prevladujejo v naših vsakdanjih digitalnih interakcijah.
Če pustimo ob strani tisto, kar Facebook, Twitter in drugi družbeni velikani počnejo interno, je najbolj neposreden način, da to dosežemo, da tehnologijo potisnemo od moderatorjev do samih uporabnikov. Adams je na projekt Coral pokazal, kako bi lahko izgledal.
Projekt Coral je bil sprva ustanovljen kot sodelovanje med fundacijo Mozilla, New York Timesom in Washington Postom. Coral gradi odprtokodna orodja, kot je platforma Talk, da bi spodbudila spletno razpravo in dala novicam alternativo za zapiranje komentarjev. Talk trenutno pooblašča platforme za skoraj 50 spletnih založnikov, vključno s poštjo , časopisom New York, revijo Wall Street Journal in The Intercept.
V začetku tega meseca je Vox Media od fundacije Mozilla pridobil projekt Coral; načrtuje, da jo bo "globoko vključil" v Chorus, njegovo platformo za upravljanje vsebin in pripovedovanje zgodb.
V perspektivi je vtičnik za Coral Project, ki uporablja isto osnovno tehnologijo - točkovanje in mejne vrednosti strupenosti na osnovi ML -, da bi uporabnikom omogočil proaktivne predloge, kot jih tipkajo, je dejal Adams. Ko torej uporabnik piše komentar, ki vsebuje stavke, označene kot zloraba ali nadlegovanje, se lahko uporabniku pojavi obvestilo, ki pravi: "Preden to objavite, se spomnite naših smernic skupnosti" ali "Jezik v tem komentarju lahko krši naše smernice skupnosti. Naša ekipa za moderiranje jo bo kmalu pregledala."
"Ta majhen pritisk lahko pomaga ljudem, da razmišljajo, vendar tudi nikogar ne blokira, " je dejal Adams. "Razprave ne ustavi."
Gre za mehanizem, s katerim so video igre za klepet in pretočne platforme integrirane, da preprečijo zlorabe in nadlegovanja. Uporabniki Twitterja bi očitno lahko imeli koristi tudi od tega sistema.
Govori o ideji, ki jo je znanstvenik MIT Andrew Lippmann predstavil v PCMag's Future Issue: Govoril je o vgrajenih mehanizmih, ki bi ljudem omogočili, da se ustavijo in razmišljajo, preden nekaj delijo po spletu, da bi pomagali preprečiti širjenje dezinformacij. Koncept velja tudi za spletno razpravo. Ustvarili smo komunikacijske sisteme brez trenja, ki bi lahko v hipu eksponentno povečali doseg izjave, včasih pa je lahko nekaj trenja dobra stvar, je dejal Lippmann.
V perspektivi ne gre za uporabo AI kot splošne rešitve. To je način oblikovanja ML modelov v orodja za ljudi, ki jim pomagajo pri utrjevanju lastnih izkušenj. Toda eno nasprotje je, da če boste ljudem še olajšali uglasitev spletnega hrupa, ki jim ni všeč, bo internet postal še bolj odmevna komora, kot je že.
Na vprašanje, ali orodja, kot je Perspektiva, lahko to na koncu še poslabša, je Adams dejal, da verjame, da spletni odmevni odbori obstajajo, ker ni mehanizmov, ki bi vodili razpravo, v kateri se ljudje smiselno ne strinjajo.
"Pot najmanjšega odpora je" Ti ljudje se borijo. Pustimo jih, da se sami dogovorijo v svojih kotičkih. Naj si ljudje silosirajo sami, "" je dejal. "Ljudem pustite, da vpijejo vse druge iz sobe, ali pa izključite razpravo. Želimo, da perspektiva ustvari tretjo možnost."
Adams je postavil vzorčni scenarij. Če vprašate sobo s 1.000 ljudmi, "Koliko vas je danes prebralo nekaj, kar vas je res zanimalo?" večina uporabnikov interneta bo opozorila na članek, tvit, objavo ali nekaj, kar so prebrali na spletu. Če pa jih potem vprašate: "Koliko vas je menilo, da je vredno svojega časa komentirati ali razpravljati?" vse roke v sobi bodo šle dol.
"Za toliko nas to preprosto ni vredno truda. Struktura razprave, ki jo trenutno imamo, samo pomeni, da je to odgovornost. Če imate trenutno razumno misel ali nekaj, kar želite deliti, za večino ljudi ne" nočem sodelovati, "je dejal Adams. "To pomeni, da od 1.000 ljudi, ki bi lahko bili v sobi, imate v razpravi le nekaj peščic; recimo 10 ljudi. Zelo verjamem, da lahko zgradimo strukturo, ki bo drugih 990 vrnila v razpravo in to počne tako, da se jim zdi vredno svojega časa."