Video: 5 napak pri prehranjevanju - epic cheat day 20.000 kalorij izziv - #mojlaboratorij Medicare PLUS (November 2024)
Da bi dobil svoje novice, pogosto skeniram Google News, ki združuje članke z vsega sveta na podlagi tega, kar je "robot" določil, da je v trendu. Vse je v trendih. Na splošno manjka osupljivih novic in popolnoma ignorira pomembne komentarje, kot je moj stolpec. Namesto tega se zdi, da gre raje na mrtve povezave - s tem mislim na Wall Street Journal , za branje ki potrebuje naročnino.
Danes je primer. Iz CES-a je prišlo do prelomne novice o tem, da je Dish Network ponudil nakup Clearwireja. Toda namesto da bi se s katero koli povezano zgodbo povezali z brezplačnimi in berljivimi spletnimi mesti, se Google odloči, da mora zgornja zgodba izhajati iz časopisa Wall Street Journal .
V preteklosti je imel Google nekakšen posel, ki je uporabnikom omogočil, da so vsaj prebrali vodilni odstavek ali celoten članek, preden jih je blokiral plačni zid. Če ne poznate obhodnega trika (razpravljanega spodaj), to ne velja več. Zdaj ste naleteli na paywall in končali ste. Predvidevam, da dejanski naročniki to prebrodijo, ampak zanima me, kako jih botovi Google prebijejo, da bi našli zgodbo na prvem mestu. Ali Google plačuje? Dvomim. Torej mora biti nekakšen zaklon za Google bote, kajne?
To je neresnično in Googlovim uporabnikom škodi. Ali gre Google skozi vse te težave, da premaga ljudi, ki poskušajo igrati sistem, toda pusti, da Wall Street Journal potegne to kaskaderstvo? To je v bistvu plačano za naročnine na Wall Street Journal . Ali to želi Google? Ali se Google zmanjšuje?
Google ne more biti tako težko, da bi to nadlog preprosto odpravil. Trajalo bi eno minuto - pet vrhov. Je to preveč dela?
Če ima podjetje v svojo storitev vgrajeno plačnico, Google sploh ne bi smel iskati po spletnem mestu. Boti morajo vedeti, da obstaja plačni zid in se preprosto izogniti iskanju. In ja, rad bi pojasnil, kako natančno boti lahko poiščejo spletno mesto, ki ga blokira paywall. Skrivnost je.
Plačilni zid mora biti popolnoma enak "robots.txt", ki botu pajku sporoči, naj odide. Nekaj pa je v zvezi s odnosom WSJ -Google. Najlažji način, da vse bote ubijete, je meta oznaka v datoteki robots.txt, tako da: .
WSJ namesto tega posebej blokira nekatere podimenike, vendar očitno ne vseh. In še bolj čudno, če v Google News iščete točno isti članek in ne preprosto kliknete povezavo v rundown, članek dobite po drugem mehanizmu.
Izzivam bolj tehnične bralce, da ugotovim, kaj se dogaja s tema dvema, in sicer s pregledovanjem datoteke robots.txt, ki jo uporablja WSJ . Javni dokument je na voljo tukaj.
Ne glede na to, imajo spletna mesta plačljive stene iz finančnih razlogov. Če želijo igrati igre s svojo vsebino, je to ena stvar, vendar naj bi jim prepovedali rezultate iskanja na enak način, kot bi Google poskušal preprečiti ljudi, ki poskušajo igrati sistem. Google bo prepovedal nesrečnemu blogerju ob padcu klobuka za neko skodrano vedenje. Kako je z enakim ravnanjem z večjimi spletnimi mesti?
John C. Dvorak lahko spremljate na Twitterju @therealdvorak.
Več John C. Dvorak:
Pojdi iz teme z Johnom C. Dvorakom.
Oglejte si vse fotografije v galeriji