Domov Mnenja Zakaj mora razkriti, da je ai

Zakaj mora razkriti, da je ai

Kazalo:

Video: В ЧЁМ РАЗНИЦА МЕЖДУ ФОРМАТАМИ ФАЙЛОВ AI и EPS ? | ADOBE ILLUSTRATOR ЛАЙФХАКИ | (Oktober 2024)

Video: В ЧЁМ РАЗНИЦА МЕЖДУ ФОРМАТАМИ ФАЙЛОВ AI и EPS ? | ADOBE ILLUSTRATOR ЛАЙФХАКИ | (Oktober 2024)
Anonim

Google je pred kratkim ponovil Duplex, da je gostiteljem restavracij in osebjem salona izrecno razkril, da govorijo z Googlovim asistentom in se snemajo.

Google je to majhno, a pomembno podrobnost izpustil, ko je prvič predstavil Duplex na konferenci za razvijalce I / O maja. Pojavil se je medijski odziv in kritiki so obnovili stari strah pred posledicami sproščanja povzročiteljev AI, ki lahko na nerazločljive načine predstavijo človekovo vedenje.

Google s prepletanjem Duplexa odkloni nekatere kritike. Toda zakaj je tako pomembno, da so podjetja transparentna glede identitete svojih zastopnikov AI?

Ali lahko pomočniki AI služijo zlobnim namenom?

"Vedno večja je pričakovanje, da bi lahko med sporočanjem podjetja komunicirali z klepetalnikom, ki deluje na AI. Ko pa dejansko slišite človeško govorjenje, na splošno pričakujete, da je to resnična oseba, " pravi Joshua March, izvršni direktor od Coversocial.

March pravi, da smo v začetku ljudje, ki redno sodelujejo v pomembnih interakcijah z AI, in napredek na terenu je ustvaril strah, da bi hekerji lahko zlorabili agente AI v zlonamerne namene.

"V najboljšem primeru bi lahko AI boti z zlonamernimi nameni užalili ljudi, " pravi Marcio Avillez, SVP iz omrežja pri Cujo AI. Toda Marcio dodaja, da se bomo morda soočili s težjimi grožnjami. Na primer, AI se lahko nauči določenih jezikovnih vzorcev, kar olajša prilagoditev tehnologije za manipulacijo z ljudmi, lažno predstavljanje žrtev in napade (glasovno lažno predstavljanje) in podobne dejavnosti.

Mnogi strokovnjaki se strinjajo, da je grožnja resnična. V stolpcu za CIO je Steven Brykman predstavil različne načine uporabe tehnologije, kot je Duplex: "Vsaj pri ljudeh, ki kličejo ljudi, je še vedno omejujoč dejavnik - človek lahko opravi le toliko klicev na uro na dan. Ljudje morajo biti plačani, odmori in podobno. Toda AI klepet lahko dobesedno izvede neomejeno število klicev neomejenemu številu ljudi na neomejen način!"

Na tej stopnji je večina tega, kar slišimo, špekulacije; še vedno ne vemo obsega in resnosti groženj, ki se lahko pojavijo s prihodom glasovnih pomočnikov. Toda številne potencialne napade, ki vključujejo glasovne pomočnike, je mogoče odpraviti, če podjetje, ki ponuja tehnologijo, izrecno komunicira z uporabniki, ko komunicirajo z agentom AI.

Skrbi glede zasebnosti

Druga težava v zvezi z uporabo tehnologij, kot je Duplex, je potencialno tveganje za zasebnost. Sistemi, ki jih poganja AI, potrebujejo uporabniške podatke za usposabljanje in izboljšanje svojih algoritmov, in Duplex ni izjema. Kako je shranjeval, varoval in uporabljal te podatke, je zelo pomembno.

Pojavljajo se novi predpisi, ki zahtevajo, da podjetja pridobijo izrecno soglasje uporabnikov, kadar želijo zbirati svoje podatke, vendar so bili večinoma zasnovani tako, da pokrivajo tehnologije, pri katerih uporabniki namerno začnejo interakcije. To je smiselno za pomočnike AI, kot sta Siri in Alexa, ki jih uporabnik aktivira. Ni pa jasno, kako bi nova pravila veljala za asistentje AI, ki dosežejo uporabnike, ne da bi se sprožili.

Brykman v svojem članku poudarja potrebo po vzpostavitvi regulativnih zaščitnih ukrepov, na primer zakonov, ki od podjetij zahtevajo, da izjavijo prisotnost zastopnika AI - ali zakona, ki ga, ko klepeta vprašate, ali gre za klepet, zahteva, da reče: "Da, Jaz sem klepet. " Takšni ukrepi bi človeškemu sogovorniku dali možnost, da se prekine ali se vsaj odloči, ali želi interakcijo s sistemom AI, ki beleži njihov glas.

Tudi s takšnimi zakoni skrbi za zasebnost ne bodo minile. "Največje tveganje, ki ga predvidevam v trenutni utelešenju tehnologije, je, da bo Googlu dal še več podatkov o naših zasebnih življenjih, ki jih še ni imel. Do tega trenutka so vedeli le za naše spletno komuniciranje; zdaj bodo dobili pravi vpogled v naših pogovorov v resničnem svetu, "pravi Vian Chinner, ustanovitelj in izvršni direktor Xineoh.

Nedavni škandali z zasebnostjo, v katere so vpletena velika tehnološka podjetja, in v katerih so uporabniške podatke na dvomljiv način uporabili za lastne koristi, so ustvarili občutek nezaupanja, da bi jim dali več oken v naše življenje. "Ljudje na splošno menijo, da jih velika podjetja iz Silicijeve doline gledajo kot zaloge namesto kupcev in imajo veliko nezaupanje do skoraj vsega, kar počnejo, ne glede na to, kako revolucionarno in življenjsko se bo to spremenilo, " pravi Chinnerjeva.

Funkcijske okvare

Kljub naravnemu glasu in tonu ter uporabi človeško podobnih zvokov, kot sta "mmhm" in "ummm, " Duplex se ne razlikuje od drugih sodobnih AI tehnologij in ima enake omejitve.

Ne glede na to, ali se kot vmesnik uporablja glas ali besedilo, so AI agenti dobri pri reševanju specifičnih težav. Zato jih imenujemo "ozka AI" (v nasprotju s "splošno AI" - vrsta umetne inteligence, ki se lahko ukvarja s splošnim reševanjem problemov, kot to počne človeški um). Čeprav je ozek AI lahko izredno dober pri opravljanju nalog, za katere je programiran, lahko spektakularno odpove, če mu damo scenarij, ki odstopa od njegove problematične domene.

"Če potrošnik misli, da govorijo s človekom, bo verjetno vprašal nekaj, kar je zunaj običajnega scenarija AI, in potem bo dobil frustrirajoč odgovor, ko ga boter ne razume, " pravi Conversocial's March.

V nasprotju s tem pa, ko oseba ve, da se pogovarja z AI, ki je usposobljen za rezervacijo miz v restavraciji, se bo skušal izogniti uporabi jezika, ki bo zmedel AI in povzročil, da se bo obnašal na nepričakovane načine, še posebej, če prinaša jim stranka.

"Tudi uslužbenci, ki sprejemajo klice iz Duplexa, bi morali dobiti neposreden uvod, da to ni resnična oseba. To bi pripomoglo k bolj konservativni in jasni komunikaciji med osebjem in AI, " pravi Avillez.

Zaradi tega, dokler (in če) ne razvijemo AI, ki bi lahko deloval enakovredno človeški inteligenci, je v interesu samih podjetij, da so pregledna glede njihove uporabe AI.

Na koncu dneva del strahu pred govornimi pomočniki, kot je Duplex, povzroči dejstvo, da so novi, in še vedno smo jih navajeni naleteti na nove nastavitve in na primere uporabe. "Vsaj nekaterim se zdi misel, da bi se pogovarjali z robotom, neprijetno, ne da bi se tega zavedali, zato bi ga za zdaj verjetno najbrž razkrili nasprotnikom v pogovoru, " pravi Chinnerjeva.

  • AI je (tudi) sila za dobro AI je (tudi) sila za dobro
  • Ko AI zabriše črto med resničnostjo in fikcijo, ko AI zabriše črto med resničnostjo in fikcijo
  • Umetna inteligenca ima težave s pristranskostjo in naša napaka Umetna inteligenca ima težavo s pristranskostjo in naša napaka

Toda na dolgi rok se bomo navadili na interakcijo z agenti AI, ki so pametnejši in sposobnejši za izvajanje nalog, za katere se je prej mislilo, da so izključno domena človeških operaterjev.

"Naslednji generaciji ne bo vseeno, ali se bosta, če se obrneta na podjetje, pogovarjala z AI ali s človekom. Preprosto bodo želeli dobiti svoj odgovor hitro in enostavno in odrasli bodo, če bodo govorili z Alexa. "če govorite s človekom, bo veliko bolj frustrirajoče kot samo interakcija z botrom, " pravi March, ki ga je imel Conversocial.

Zakaj mora razkriti, da je ai