Domov Mnenja Učenje iz napak aleksa

Učenje iz napak aleksa

Kazalo:

Video: 🤖Умная колонка Amazon Echo Dot 3 с голосовым помощником Alexa 🏡💻 (Oktober 2024)

Video: 🤖Умная колонка Amazon Echo Dot 3 с голосовым помощником Alexa 🏡💻 (Oktober 2024)
Anonim

Naprava Amazon Echo je nedavno posnela zasebni pogovor uporabnika in ga brez njihove vednosti in soglasja poslala v enega od njihovih stikov. To (spet) vzbuja pomisleke glede varnosti in zasebnosti pametnih zvočnikov. Kakor je kasneje postalo očitno, pa Alexakovo čudno vedenje ni bilo del zloveščega špijunažnega zapleta - prej ga je povzročilo vrsta povezanih napak, pripisanih načinu delovanja pametnega zvočnika.

Glede na račun Amazon: "Echo se je prebudil zaradi besede v pogovoru v ozadju, ki zveni kot" Alexa. " Nato je bil naslednji pogovor zaslišan kot prošnja za "pošiljanje sporočila". Nato je Aleksa na glas dejala: "Komu?" V tem trenutku so pogovor v ozadju razlagali kot ime na seznamu strankinih stikov. Alexa je nato na glas vprašala, "kajne?" Alexa je nato razlago ozadja razlagala kot "prav". Kolikor je ta niz dogodkov malo verjetno, ocenjujemo možnosti, da bi ta primer postal še manj verjetno."

Scenarij je primeren primer, vrsta incidenta, ki se zgodi zelo redko. Je pa zanimiva tudi študija meja tehnologije umetne inteligence, ki poganja Echo in druge tako imenovane "pametne" naprave.

Preveč odvisnosti od oblaka

Pametni zvočniki, kot sta Echo in Google Home, za razumevanje glasovnih ukazov se zanašajo na algoritme za globoko učenje, ki potrebujejo veliko računalniške moči. Ker nimajo računalniških virov, da bi lokalno opravili nalogo, morajo podatke poslati na proizvajalčeve strežnike v oblaku, kjer algoritmi AI pretvorijo govorne podatke v besedilo in obdelajo ukaze.

Toda pametni zvočniki ne morejo vsega, kar slišijo, poslati na svoje strežnike v oblaku, ker bi to od proizvajalca zahtevalo, da na svoje strežnike shrani prevelike količine podatkov - večina tega bi bila neuporabna. Naključno snemanje in shranjevanje zasebnih pogovorov, ki potekajo v domovih uporabnikov, bi predstavljalo tudi izziv glede zasebnosti in bi lahko povzročilo težave proizvajalcem, zlasti z novimi predpisi o zasebnosti podatkov, ki postavljajo stroge omejitve glede tega, kako tehnološka podjetja shranjujejo in uporabljajo podatke.

Zato so pametni zvočniki zasnovani tako, da se sprožijo, ko uporabnik izgovori budno besedo, kot sta "Alexa" ali "Hey Google." Šele potem, ko zaslišijo besedo budnosti, začnejo pošiljati zvočne vhode svojih mikrofonov v oblak na analizo in obdelavo.

Čeprav ta funkcija izboljšuje zasebnost, predstavlja svoje izzive, kot je poudaril nedavni incident Alexa.

"Če je beseda - ali nekaj podobnega, kot je - poslana na pol pogovora, Alexa ne bo imela nobenega prejšnjega konteksta, " pravi Joshua March, izvršni direktor Conversocial. "V tistem trenutku poslušamo izredno težko za vse ukaze, povezane s spretnostmi, ki ste jih postavili (na primer njihovo aplikacijo za sporočanje). Zasebnost se večinoma izboljša z omejevanjem konteksta, na katerega je Alexa pozorna (kot to ni snemanje ali poslušanje nobenega od vaših običajnih pogovorov), čeprav je v tem primeru to podkrepljeno."

Napredek na področju računalništva na robu lahko pomaga ublažiti to težavo. Ko AI in poglobljeno učenje najdeta vse več naprav in aplikacij, so nekateri proizvajalci strojne opreme ustvarili procesorje, specializirane za izvajanje nalog AI, ne da bi se preveč zanašali na vire oblakov. Edge AI procesorji lahko pomagajo napravam, kot je Echo, bolje razumejo in obdelujejo pogovore, ne da bi posegali v zasebnost uporabnikov, tako da vse podatke pošljejo v oblak.

Kontekst in namera

Poleg sprejemanja različnih in razdrobljenih delčkov zvoka se Amazonov AI bori z razumevanjem odtenkov človeškega pogovora.

"Čeprav je bil v zadnjih nekaj letih velik napredek na področju poglobljenega učenja, ki omogoča, da programska oprema bolje razume govor in slike kot kdaj koli prej, še vedno obstaja veliko omejitev, " pravi March. "Medtem ko govorni pomočniki lahko prepoznajo besede, ki jih govorite, nimajo nujno resničnega razumevanja pomena ali namena za tem. Svet je zapleteno mesto, vendar vsak sistem AI danes zmore le zelo posebne primere za ozko uporabo."

Na primer, ljudje imamo veliko načinov, kako ugotoviti, ali je stavek usmerjen proti nam, na primer ton glasu ali sledenje vizualnim napotkom - recimo v smer, ki jo gledalec gleda.

V nasprotju s tem Alexa domneva, da je prejemnik katerega koli stavka, ki vsebuje besedo "A". Zato ga uporabniki pogosto po nesreči sprožijo.

Del težave je v tem, da pretiravamo z zmogljivostmi trenutnih AI aplikacij, pogosto jih postavljamo v enak položaj s človeškim umom ali nad njim in jim preveč zaupamo. Zato smo presenečeni, ko spektakularno ne uspejo.

"Del vprašanja je v tem, da je bil izraz" AI "tako agresivno tržen, da so potrošniki nezaupljivo verjeli v izdelke, s katerimi je povezan ta izraz, " pravi Pascal Kaufmann, nevroznanstvenik in ustanovitelj Starmind. "Ta zgodba ponazarja, da ima Alexa veliko zmogljivosti in razmeroma omejeno razumevanje, kako in kdaj jih je treba ustrezno uporabiti."

Algoritmi za poglobljeno učenje so nagnjeni k neuspehu, ko se soočijo z nastavitvami, ki odstopajo od podatkov in scenarijev, za katere so usposobljeni. "Ena od ključnih značilnosti AI na ravni človeka bosta samozadostna usposobljenost in resnično razumevanje vsebine, " pravi Kaufmann. "To je ključni del resničnega ocenjevanja AI" inteligentnega "in bistvenega pomena za njegov razvoj. Ustvarjanje samozavednih digitalnih pomočnikov, ki s seboj prinašajo popolno razumevanje človeške narave, bo pomenilo njihovo preobrazbo iz zabavne novosti v resnično koristno orodje."

Toda ustvarjanje AI na ravni človeka, imenovano tudi splošno AI, je lažje reči kot narediti. Dolga desetletja smo mislili, da je za vogalom, da bi se razočarali, ko je tehnološki napredek pokazal, kako zapleten je človeški um. Mnogi strokovnjaki menijo, da je preganjanje splošnega AI brezplodno.

Medtem pa ozka AI (kot so opisane trenutne tehnologije umetne inteligence) še vedno ponuja številne priložnosti in jih je mogoče popraviti, da se izognemo ponavljanju napak. Jasno je, da se poglobljeno učenje in strojno učenje še vedno pojavljata in podjetja, kot je Amazon, nenehno posodabljajo svoje algoritme AI za reševanje primerov ob vsaki priložnosti.

Kaj moramo storiti

"To je mlado, novo nastajajoče področje. Razumevanje naravnega jezika je še posebej v povojih, zato lahko tukaj naredimo veliko, " pravi Eric Moller, predstavnik organizacije Atomic X.

Moller verjame, da se algoritmi AI z glasovno analizo lahko prilagodijo in tako bolje razumejo intonacijo in pregib. "Uporaba besede" Alexa "v širšem stavku se sliši drugače kot priziv ali ukaz. Alexa se ne bi smela zbuditi, ker ste to ime povedali mimogrede, " pravi Mollerjeva. Z dovolj treninga bi moral AI znati razlikovati, kateri specifični toni so usmerjeni v pametni zvočnik.

Tehnična podjetja lahko tudi usposobijo AI, da se lahko ločijo med sprejemanjem hrupa v ozadju, v nasprotju z neposrednim pogovorom. "Klepetanje v ozadju ima edinstven slušni" podpis ", ki ga ljudje zelo dobro sprejemajo in selektivno nastavljajo. Ni razloga, da ne bi usposobili AI modelov, da bi storili enako, " pravi Mollerjeva.

Kot previdnost morajo pomočniki AI oceniti vpliv odločitev, ki jih sprejemajo, in vključiti človekove odločitve v primerih, ko želijo narediti nekaj, kar je potencialno občutljivo. Proizvajalci bi morali v svoje tehnologije vključiti več zaščitnih ukrepov, da preprečijo pošiljanje občutljivih informacij brez izrecnega in jasnega soglasja uporabnika.

"Čeprav je Amazon poročal, da je Alexa poskušala potrditi dejanje, ki ga je razlagala, je treba nekatere ukrepe natančneje voditi in se držati višjega standarda potrditve namere uporabnika, " pravi Sagi Eliyahi, izvršni direktor Tonkeana. "Ljudje imajo enaka vprašanja glede prepoznavanja govora in občasno napačno postavljajo zahteve. Kljub temu pa ima človek bolj verjetno, da absolutno potrdi, da razume nejasno zahtevo, in kar je še pomembneje, da oceni verjetnost zahteve v primerjavi s preteklimi prošnjami."

Medtem…

Medtem ko tehnološka podjetja fintirajo svoje AI aplikacije za zmanjšanje napak, se bodo uporabniki morali dokončno odločiti, koliko želijo biti izpostavljeni potencialnim napakam, ki jih lahko naredijo njihove naprave z AI napajanjem.

"Te zgodbe prikazujejo konflikt s količino podatkov, ki so jih ljudje pripravljeni deliti proti obljubam o novih AI tehnologijah, " pravi Doug Rose, strokovnjak za znanost podatkov in pisec več knjig o AI in programski opremi. "Lahko si dražite Siri, da je počasna. Toda najboljši način, da doseže večjo inteligenco, je z napadom na naše zasebne pogovore. Zato je ključno vprašanje v naslednjem desetletju ali približno toliko, koliko bomo tem agentom AI omogočili, da pokukajo v naše vedenje ?"

"Katera družina bi v dnevno sobo postavila človeškega pomočnika in pustila tej osebi ves čas poslušanje kakršnih koli pogovorov?" pravi Kaufmann, nevroznanstvenik iz Starmind-a. "Uporabljati bi morali enake standarde za tako imenovane" AI "naprave (če ne celo višje), ki jih uporabljamo tudi za inteligentna človeška bitja, ko gre za zasebnost, tajnost ali zanesljivost."

Učenje iz napak aleksa