Kazalo:
Video: Подрабатываю в Uber 2 ЧАСА в День. Сколько Можно Заработать За Месяц? (November 2024)
12. marca je MIT Technology Review objavil zgodbo, ki se je začela takole: "Leto je 2023 in avtomobili s samovozovanjem končno plujejo po naših mestnih ulicah. Prvič je eden od njih udaril in ubil pešca, z ogromno medijsko pokritost. Verjetna bo odmevna tožba, a kateri zakoni bi se morali uporabljati?"
Čeprav incident še vedno preiskujemo, je nemir, ki je prišlo, pokazatelj, kako daleč smo od tega, da umetno inteligenco uspešno vključimo v svoje kritične naloge in odločitve.
V mnogih primerih problem ni z AI, ampak z našimi pričakovanji in razumevanjem le-tega. Po podatkih Wireda je lani v prometnih nesrečah samo v ZDA umrlo skoraj 40.000 ljudi, od tega 6.000 pešcev. Toda zelo malo (če sploh) jih je naslovilo tako, kot se je zgodil incident v Uberju.
Eden od razlogov, da je nesreča Uber povzročila tako nemir, je, da imamo na splošno velika pričakovanja glede novih tehnologij, tudi ko so še v razvoju. Pod prividom, da čista matematika poganja AI algoritme, ponavadi zaupamo njihovim odločitvam in smo, ko delajo napake, šokirani.
Tudi varnostni vozniki za volanom samovozečih avtomobilov spuščajo svoje straže. Posnetki iz dogodka v Uberju so pokazali, da se je voznik zamotil in gledal dol sekunde, preden se je zgodila nesreča.
Leta 2016 je voznik modela Tesla S, ki deluje v načinu avtopilota, umrl, potem ko je vozilo trčilo v tovornjak. Preiskava je ugotovila, da je voznik ob trčenju morda gledal film o Harryju Potterju.
Pričakovanja popolnosti so velika, razočaranja pa močna. Kritiki so po incidentu hitro spravili pod vprašaj celoten Uberjev projekt avtomobilov; je podjetje začasno začasno prekinilo testiranje samovozečih vozil.
AI ni človek
Med kritikami, ki so sledile nesreči, je bilo, da bi se človeški voznik incidentu zlahka izognil.
"ni skočila iz grmovja. Jasno je napredovala na več prometnih pasovih, ki bi jih morali pobrati sistem, " je povedal en strokovnjak za CNN.
Prav ima. Izkušen človeški voznik bi jo verjetno opazil. Toda algoritmi AI niso človeški.
Algoritmi za poglobljeno učenje, ki jih najdemo v avtomobilih z lastno vožnjo, uporabljajo številne primere za "učenje" pravil svoje domene. Ko preživijo čas na poti, razvrščajo informacije, ki jih zbirajo, in se naučijo obvladati različne situacije. Vendar to ne pomeni nujno, da uporabljajo enak postopek odločanja kot človeški vozniki. Zato lahko v nekaterih situacijah delujejo bolje kot ljudje in ne uspejo v tistih, ki se zdijo človeku trivialni.
Popoln primer je algoritem za razvrščanje slik, ki se nauči prepoznati slike z analizo milijonov fotografij z oznakami. Z leti je klasifikacija slik postala zelo učinkovita in v mnogih okoljih prekaša človeka. To pa ne pomeni, da algoritmi razumejo kontekst slik na enak način, kot to počnejo ljudje.
Raziskave strokovnjakov z univerze Microsoft in Stanford so na primer pokazale, da je algoritem poglobljenega učenja s podobo belih mačk z veliko mero prepričanja, da fotografija belega psa predstavlja mačko, napaki, ki bi se je človeški otrok zlahka izognil. In v zloglasnem primeru je Googlov algoritem za razvrščanje slik napačno označil ljudi temne barve kože kot gorile.
Temu rečemo "robni primeri", ki jih algoritmi AI niso usposobljeni za ravnanje, ponavadi zaradi pomanjkanja podatkov. Nesreča Uber še vedno preiskuje, vendar nekateri strokovnjaki AI menijo, da bi lahko šlo za še en primeren primer.
Pred globinskim učenjem je treba premagati številne izzive, preden ga lahko uporabimo v kritičnih situacijah. Toda njegovi neuspehi nas ne bi smeli odvrniti. Prilagoditi moramo svoja dojemanja in pričakovanja in sprejeti resničnost, ki ji vsaka velika tehnologija v času razvoja ne uspe. AI ni nič drugače.