Googlebot kot slab bot: zastarela programska infrastruktura povzroča zmedo in težave
V svetu, kjer se varnostni standardi razvijajo hitreje kot kadarkoli, bi pričakovali, da največji tehnološki igralci vodijo razvoj. A realnost je precej drugačna. Ko napredni sistemi, kot je Bot Consent Protocol (BCP), preverjajo identiteto obiskovalcev, se zgodi nekaj presenetljivega: Googlebot se obnaša kot sumljiv bot.
V neroden položaja med slabe bote ga postavlja zastarela tehnologija, ki ne ustreza sodobnim varnostnim standardom.
In ko ga zaščita obravnava kot nepreverjenega, Google v svojem mehurčku preloži krivdo na lastnika spletne strani.
To ni tehnična napaka na naši / vaši strani. To je Googlov tehnični dolg, ki ga plačujemo vsi drugi.
Googlebot sproži varnostne mehanizme, ker se ne zna pravilno identificirati
BCP deluje po jasnem principu:
- preveri identiteto,
- preveri skladnost,
- preveri vedenje,
- odloči, ali je bot zaupanja vreden.
Googlebot pa:
- uporablja user-agent, ki ga lahko ponaredi vsak,
- nima kriptografske identitete,
- ne uporablja sodobnih protokolov za verifikacijo,
- ne predstavi nobenega preverljivega dokaza, da je res Google,
- se obnaša enako kot scrapers in harvest boti.
Rezultat je logičen:
BCP ga obravnava kot “bad bota”, ker se obnaša kot bad bot.
To ni napaka. To je pravilno delovanje.
2. Noindex ni bil “problem” – bil je dokaz, da BCP deluje
Ko BCP zazna nepreverjenega bota, mu lahko:
- omeji dostop,
- prikaže minimalno verzijo strani,
- doda
noindexsignal, - ali ga preusmeri na varnostno stran.
Točno to se je zgodilo.
Googlebot je sprožil varnostni odziv, ker se ni predstavil na način, ki bi ga sodobni sistemi
prepoznali kot legitimnega.
In to je ključno:
BCP je deloval odločno in pravilno. Googlebot ni.
3. Google preloži odgovornost, ker je to lažje kot priznati napako
Namesto da bi Google priznal, da se njihovi boti ne znajo jasno identificirati, v Google Search Console prikaže:
- “Stran vrača noindex”,
- “Stran je blokirana”,
- “Stran ni dostopna Googlebotu”.
To ni analiza. To je psihološki pritisk.
Google deluje v mehurčku (Google Bubble serija), kjer je uporabnik vedno kriv, tudi ko je problem na njihovi strani.
4. Zakaj whitelisting NI rešitev (in zakaj ga ne bom uporabil)
Tehnično gledano bi lahko:
- lovil njihove IP-je,
- jih dodajal na whiteliste,
- prilagajal svoj sistem njihovim slabostim.
Ampak to ne bi rešilo ničesar.
To bi samo:
- prikrilo Googlov tehnični dolg,
- normaliziralo njihovo zastarelo identifikacijo,
- preložilo odgovornost na lastnike strani,
- ohranilo status quo, ki je škodljiv za razvoj.
In kar je najpomembneje:
to ne bi izboljšalo Googla.
5. Profesionalna prednost: tehnična in psihološka
Implementacija BCP ni samo korak pred konkurenco. Je tudi
psihološka prednost.
Zakaj?
- razumeš, kako sistemi dejansko delujejo,
- znaš secirati problem do izvora,
- ne sprejmeš avtomatsko Googlove razlage,
- ne pustiš, da te GSC opozorila prestrašijo,
- ne prevzameš krivde za tuje napake.
To je profesionalna drža, ki je v tej industriji redka.
In prav zato lahko to zgodbo predstaviš kot primer dobre prakse:
kako delati po sodobnih standardih, tudi ko se moraš ukvarjati z zastarelo tehnologijo
velikana.
Zaključek: resnica je neprijetna, a nujna
Google ima monopol, zato se mu ni treba prilagajati. A to ne pomeni, da je brez napak.
Ko se Googlebot obnaša kot bad bot, ga bodo napredni sistemi obravnavali kot bad bot.
To ni upor. To ni trma. To je profesionalna integriteta.
In dokler Google ne posodobi svoje tehnologije, bo njihov tehnični dolg še naprej padal na
ramena lastnikov strani.
Ampak nekdo mora prvi reči na glas:
“Problem ni vedno na naši strani.”

