Domov Lastnosti 10 Neprijeten algoritem ne uspe

10 Neprijeten algoritem ne uspe

Kazalo:

Video: Alpha Man 100 % Natural Testosterone Booster (November 2024)

Video: Alpha Man 100 % Natural Testosterone Booster (November 2024)
Anonim

Tehnologija ni samo za dresnike, ampak za vse in to je veliko ljudi. Z le nekaj podjetji, ki nadzorujejo večino strojne in programske opreme - od Apple in Amazona do Facebooka, Microsofta in Googla -, lahko to storijo le toliko, da nadzorujejo vašo denarnico in zrkla. Kaj lahko počne slaba velikanska korporacija? Za sprejemanje nekaterih pomembnih odločitev se opirajte na algoritme.

Oxford Living Dic Dictionary definira algoritem kot "postopek ali niz pravil, ki jih je treba upoštevati pri izračunih ali drugih operacijah reševanja težav, zlasti računalnika." Odličen primer je Facebook News Feed. Nihče ne ve, kako deluje, da se nekatere vaše objave prikažejo v News News-jih ali ne, vendar Facebook to počne. Ali kako to, da vam Amazon prikazuje sorodne knjige? Sorodna iskanja v Googlu? Vse to so skrbno varovane skrivnosti, ki družbi veliko delajo in lahko močno vplivajo na vaše življenje.

Toda algoritmi niso popolni. Ne uspejo, nekateri pa spektakularno ne. Dodajte bleščanje družbenih medijev in majhen težak se lahko hitro spremeni v nočno moro PR-a. Redko je zlonamerna; to so navadno tako, kot New York Times imenuje "Frankenstein Moments", kjer se bitje, ki ga je nekdo ustvaril, spremeni v pošast. Ampak to se zgodi in spodaj smo sestavili nekaj najbolj zoprnih primerov. V komentarjih spodaj nam sporočite svoje priljubljene.

    1 Instagram vprašljivi oglasi

    Kot poroča The Guardian , Facebook rad prikazuje oglase za svojo Instagram storitev s objavami svojih lastnih uporabnikov. Toda algoritem je izbral napačno "fotografijo", s katero je prijateljem Olivije Solon, poročevalki revije The Guardian , izbral letno posnetek zaslona, ​​ki je posnel grozečo e-pošto.

    2 Ciljni rasistični oglasi

    PrePublica je prejšnji teden poročala, da Facebook dovoljuje oglaševalcem, da ciljajo na žaljive kategorije ljudi, kot so "Judje sovražniki". Spletno mesto je plačalo 30 dolarjev za oglas (zgoraj), ki je ciljal na občinstvo, ki bi se pozitivno odzvalo na stvari, kot so "zakaj Judje rušijo svet" in "Hitler ni storil nič narobe." Odobren je bil v 15 minutah.

    Slate je našel podobno žaljive kategorije in postal je še en v dolgi vrsti postavk, ki jih je moral Facebook ne samo opravičiti, ampak obljubiti, da jih bo popravil z nekaj človeškega nadzora. Saj veste, kot takrat, ko je postavila za Rusijo volilne oglase v vrednosti 100.000 dolarjev.

    COO Sheryl Sandberg je v objavi na Facebooku dejala, da je "zgrožena in razočarana nad temi besedami" in napovedala spremembe svojih orodij za oglase.

    BuzzFeed je preveril, kako bo Google ravnal s podobnimi stvarmi, in ugotovil, da je enostavno nastaviti tudi ciljno usmerjene oglase, ki bi jih videli rasisti in bigoti. Daily Beast je to preveril na Twitterju in našel na milijone oglasov z izrazi, kot so "nacistični", "mokri" in besedo N.

    3 Facebook leto v pregledu Woes

    Če ste na Facebooku, ste brez dvoma videli njegove videoposnetke, ustvarjene z algoritmi, ob koncu leta, s poudarki v zadnjih 12 mesecih. Ali za nekatere, slabe luči. Leta 2014 je en oče videl sliko svoje pokojne hčerke, drugi pa je v plamenu videl posnetke svojega doma. Drugi primeri vključujejo ljudi, ki vidijo svoje pozne hišne ljubljenčke, urne, polne pepela staršev, in pokojne prijatelje. Do leta 2015 je Facebook obljubil, da bo odstranil žalostne spomine.

  • 4 Tesla Autopilot Crash

    Večina algoritmičnih snafusov še zdaleč ni usodna, a svet samovozečih avtomobilov bo prinesel povsem novo raven nevarnosti. To se je že vsaj enkrat zgodilo. Lastnik Tesle na avtocesti na Floridi je uporabljal avtonomni način (Autopilot) in se zaletel v prikolico traktorja, ki ga je odsekala. Tesla je hitro izdal nadgradnje, toda ali je res bil napaka načina Autopilot? Nacionalna uprava za varnost v cestnem prometu pravi, da morda ni, saj sistem od voznika zahteva, da ostane pozoren na težave, kot lahko vidite v zgornjem videoposnetku. Zdaj Tesla preprečuje, da bi se Autopilot sploh vključil, če se voznik najprej ne odzove na vizualne napotke.

  • 5. Povejte rasistični Microsoft AI

    Pred nekaj leti naj bi klepetalni boti zavzeli svet z nevihto, zamenjali predstavnike storitev za stranke in spletnega sveta naredili klepetav za pridobivanje informacij. Microsoft se je marca 2016 odzval s pritiskom na AI z imenom Tay, s katerim bi lahko ljudje, natančneje od 18 do 24 let, komunicirali na Twitterju. Tay v zameno bi naredil javne tvite za množice. Toda Tay je v manj kot 24 urah, ko se je učil od množicnih mas, postal polno rasist. Microsoft je Taya takoj potegnil dol; vrnila se je kot nova AI z imenom Zo decembra decembra 2016 z "močnimi kontrolami in ravnotežji, da jo zaščiti pred izkoriščanjem."

    6 čestitk za vašega (neobstoječega) dojenčka!

    Popolno razkritje: Medtem ko to pišem, je moja žena pravzaprav noseča. Od Amazona smo dobili to e-poštno sporočilo, da je nekdo nekaj kupil za nas iz registra otrok. Nismo je še objavili, a ni bilo tako pretresljivo. Medtem je več milijonov drugih Amazonovih kupcev dobilo isto opombo, vključno z nekaterimi brez registra… ali dojenčkom na poti. Lahko bi bil del lažnega predstavljanja, a ni bil. Amazon je napako dojel in poslal e-poštno opravičilo. Do takrat so se mnogi pritoževali, da je to neprimerno ali neobčutljivo. To je bil manj algoritem kot bleščeč e-poštni strežnik, vendar vam pokaže, da ga je vedno enostavno užalovati.

    7 Amazon 'priporoča' materiale za bombe

    Vsi so skočili na to, potem ko so o britanskem kanalu Channel 4 News poročali od Fox News do The New York Timesa . Menda je ugotovilo, da bo Amazonova funkcija "pogosto kupovana skupaj" ljudem pokazala, kaj potrebujejo za sestavljanje bombe, če bi začeli z eno od sestavin, ki jih spletno mesto ne bi imenovalo (to je kalijev nitrat).

    Amazonov algoritem je dejansko pokazal kupcem sestavine, da so v majhnih količinah naredili črni prah, kar je v Združenem kraljestvu povsem legalno in se uporablja za vse stvari - kot ognjemet - kot je bilo hitro poudarjeno v zelo dobro premišljenem mnenju- objava na spletnem dnevniku v Idle Words. Namesto tega so vsa poročila o tem, kako Amazon gleda na to, ker to morajo povedati, da počnejo v svetu, ki se boji terorizma in logike.

    8 Google Maps dobi rasisti

    Leta 2015 se je moral Google opravičiti, ko Google Maps iščeta "n ***** kralja" in "n *** hišo", pripeljal do Bele hiše, ki jo je takrat še zasedel Barack Obama. Rezultat je bil "Googlebomb", v katerem iskalnik uporablja izraz, ki ga vedno znova in znova uporablja in označi kot "priljubljen", zato se rezultati vrnejo na vrh iskanja. Tako je beseda "Santorum" dobila novo opredelitev.

    9 Google Tags Ljudje kot gorile

    Google Photos je neverjetna aplikacija / storitev, ki hrani vse vaše slike in še veliko več. Ena izmed teh stvari je samodejno označevanje ljudi in stvari na fotografijah. Za prepoznavanje obraza ljudje uporabljajo, da jih zožijo do prave osebe. Imam celo mapo vseh svojih psov in jih nisem označil. Poleg tega, kar deluje, je bilo zoprno, ko se je Google leta 2015 moral opravičiti računalniškemu programerju Jackyju Alcinéju, ko sta ga s prijateljem - oba oba črno - služba označila za gorile. "Zgroženi smo in resnično nam je žal, da se je to zgodilo, " je Google povedal za PCMag.

    10 Robot Security Hits Child, ubija sebe

    Knightscope izdeluje avtonomne varnostne robote, imenovane K5, za patruljiranje šol in trgovskih središč in sosesk. Stopiči s stoleti Dalek-esque na kolesih - za katere velja, da so še vedno v beta testiranju - ponavadi novice ne ogrožajočega kriminala, ampak zaradi napak.

    Na primer, julija 2016 je K5 v nakupovalnem centru Stanford v Palo Altu naletel na nogo 16-mesečnega starca, Knightscope pa se je moral uradno opravičiti. Na isti lokaciji - morda isti droid - se je na pijačnem parkirišču prepiral pijanec, a vsaj K5 ni bil kriv. Porota je še vedno zunaj enote K5 v poslovnem / nakupovalnem kompleksu v Georgetownu v Washingtonu, DC… da se je nekdo po samo enem tednu zaposlitve spotaknil po stopnicah v vodni vodnjak. Ne izgleda dobro za Skynetovo vojsko.

10 Neprijeten algoritem ne uspe