Vse o SEO / optimizaciji spletnih strani za iskalnike

Kaj je SEO in kako poteka

Kako izdelati strategijo za SEO in katera so orodja za SEO

Vse informacije o SEO

Understanding your requirements and objectives is important to us. We listen and work together to create a truly unique and unforgettable experience.

Naročite SEO in se uvrstitve v vrh iskalnikov.





Z oddajo obrazca soglašate z obdelavo osebnih podatkov.

SEO (Search Engine Optimization) optimizacija strani za iskalnike.

Vse o SEO.
SEO je optimizacija spletnih strani za iskalnike (search engine optimization). Je podpomena splošnega pojma "optimizacija spletnih strani". Kot optimizacijo spletnih strani razumemo več storitev oz. procesov, ki niso nujno vezani na uvrstitve v iskalnikih, medtem ko pod besedo SEO (optimizacija spletnih strani za iskalnike) razumemo izključno optimizacijo, ki se posredno ali neposredno ukvarja z uvrstitvami v iskalnikih.

Kaj je SEO - optimizacija spletnih strani za iskalnike

Optimizacija iskalnikov (SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE) je postopek povečanja vidnosti spletne strani ali posamezne strani za iskalnike. Izraz izključuje nakup plačanih umestitev in se nanaša samo na izboljšanje neplačanih rezultatov (znani kot “naravni” ali “organski” rezultati).

 

SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE se izvaja, ker bo spletno mesto prejelo več obiskovalcev iz iskalnikov, če bo uvrščeno višje. Te obiskovalce lahko nato pretvori v stranke. SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE lahko cilja na različne vrste iskanj, vključno z iskanjem slik, iskanjem videoposnetkov, akademskim iskanjem, iskanjem novic in vertikalnimi iskalniki, značilnimi za posamezno industrijo. SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE se od lokalne optimizacije za iskalnike razlikuje v tem, da je slednja osredotočena na optimizacijo spletne prisotnosti podjetja, tako da bodo spletne strani prikazane z iskalniki, ko uporabnik vnese lokalno iskanje svojih izdelkov ali storitev. Prvi je bolj osredotočen na nacionalna ali mednarodna iskanja.

 

Kot strategija trženja, SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE išče skrivnosti, kako iskalniki delujejo, računalniško programirane algoritme, ki oblikujejo vedenje iskalnikov, kaj ljudje iščejo, dejanske iskalne izraze ali ključne besede, vnesene v iskalnikih, in kateri iskalniki imajo večje volume iskanj.

Optimizacija spletnih strani lahko vključuje urejanje njene vsebine, dodajanje vsebine, urejanje HTML-jev in podobno kodiranje, s čimer se poveča njegova relevantnost za določene ključne besede in omogočanje indeksiranja.

OPptimizacija spletne streani s povečanjem števila povratnih povezav ali vhodnih povezav je še ena SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE taktika.

Do maja 2015 so mobilna iskanja presegla iskanja na namiznih računalniklih. Leta 2015 so poročali, da Google razvija in spodbuja mobilna iskanja kot ključno funkcijo v prihodnjih izdelkih. V odgovor so številne blagovne znamke začele uporabljati drugačen pristop, drugačne strategije za digitalin marketing.

Področja SEO (optimizacije spletnih strani za iskalnike)

SEO optimizacijo lahko razdelimo v on site optimizacijo in offsite optimizacijo spletnih  strani.

On site optimizacija (On Site SEO) pomeni vse procese, ki jih izvajamo na konkretni spletni strani. To vključuje optimizacijo besedil spletne strani (H1 in H2 tag, meta opisi, besedila, …), medijske vsebine (alt opisi, velikosti, …), optimizacijo hitrosti (velikosti slik, cache, minifikacija js in css, …), prilagoditve mobilnim napravam, …

Off site  optimizacija spletnih strani za iskalnike (Off site SEO) pa pomeni vse tisate procese, ki se na spletni strani ne izvajajo, a nanjo tako ali drugače vplivajo. Glavna dejavnost v tem primeru je gradnja zunanjih povezav (Link building). Ta se je iz “golega” vstavljanja povezav v komentarje, nesmiselne blog-e, direktorije ipd. usmerila bolj v “guest posting”, a stari načini še vedno delujejo in jih lahko kupite pri ponudnikih optimizacije spletnih strani, ki so uvrščeni na vrhu Google rezultatov za izraze kot je optimizacija spletnih strani. Nekateri k off site optimizaciji prištevajo tudi “social impact”, ki po mnenju nekaterih tudi vpliva na uvrstitve, a se mnenja razlikujejo oz. so si bolj enotna v tem, da ta vpliva le na strani z izredno visokim številom “social” prometa.

Področje off site optimizacije poleg omenjenega vsebuje še precej možnosti, ki pa so večinoma uvrščene pod kategorijo “black hat SEO”. Pojem pomeni “nedovoljene” procese SEO optimizacije, ki jih Google in drugi seveda ne  priporočajo, celo sankcionirajo, a v nekaterih primerih še vedno delujejo.

SEO (strategija za SEO)

Za izvajanje SEO / optimizacije spletnih strani za iskalnike vsako podjetje oz. spletna stran vsekakor potrebuje strategijo. Brez strategije je lahko velik delež procesov zaman. SEO strategija pa seveda zahteva temeljito SEO analizo, ki je izvedena tako na področju analize iskanj uporabnikov (katere ključne besede so sploh primerne za določeno spletno stran in imajo hkrati tudi dovolj velik volumen iskanj), na področju analize konkurence (kdo so tekmeci, kaj delajo, kako pogosto, …) in nenazadnje na področju spletne strani same (kje so pomanjkljivosti in prostori za izboljšave).

SEO Analiza (Kako začeti z SEO / optimizacijo za iskalnike)

SEO analiza seveda ni poceni saj zahteva od agencij oz. posameznikov, ki se ukvarjajo z SEO optimizacijo za iskalnike, da s spleta izvlečejo en kup podakov, jih pregledajo in razumejo ter posredujejo v berljivi obliki.

SEO analize izvajajo strokovnjaki, pogosto pa laiki zakupijo kakšno od SEO orodij, kot so npr. SemRush, SeoMoz, AHrefs, Majestic ipd. ki pa jih seveda ne razumejo dobro oz. jim ne pomagajo, ker zgolj eno orodje (od omenjenih) seveda ne pove dovolj.

SEO orodja (Orodja za optimizacijo spletnih strani za iskalnike)

Katera so najboljša orodja za SEO optimizacijo spletnih strani za iskalnike seveda ni pomembno. Pomembno je, kako dobimo tiste podatke, ki jih potrebujemo in jih dobimo dovolj. Katero SEO orodoje potrebujemo za SEO / optimizacijo strani na določene ključne besede, je odvisno od tega, na kateri stopnji optimizacije spletnih strani se nahajamo, kaj je že bilo storjeno, kaj še ne in seveda, kakšni so rezultati. Zato vam tukaj serviramo najboljša orodja za SEO optimizacijo strani za iskalnike razvrščena po vrstnem redu, v katerem jih boste glede na stopnjo optimizacije uporabljali. Preberite si več.

SEO v Sloveniji

SEO optimizacija spletnih strani za iskalnike je v Sloveniji precej specifična. Zato vseh nasvetov, ki jih dajejo svetovni mojstri optimizacije včasih ni dobro dobesedno upoštevati. Specifike SEO optimizacije v Sloveniji izhajajo predvsem iz majhnosti države oz. lokacije in manjšega števila uporabnikov spleta, posledično pa tudi manjšega števila spletnih mest itd. V Sloveniji tako skoraj ni spletnih mest ki bi imela močan vpliv in bi omogočala objavo gostujočih povezav. Prav tako velja za vse ostale možnosti gradnje zunanjih povezav. Majhno število uporabnikov pomeni, da imajo t.i. “longtail keywords” izredno nizke volumne iskanj in tako tuje strategije, ki so sicer zelo dobre na to temo, tukaj pogojno delujejo. Poleg tega pa kaj koristnega in praktičnega o SEO optimizaciji spletnih strani za iskalnike, kar bi se nanašalo na Slovenijo, nihče ne pove. Tako je po eni strani SEO / optimizacija spletnih strani za iskalnike v Sloveniji na nek način peskovnik, kjer se na malem učimo, da bomo uspešni na velikem trgu, a po drugi strani tako specifična, da postopki, ki tukaj delujejo, drugje morda ne in obratno.

Zgodovina SEO

Spletni skrbniki in ponudniki vsebin so začeli optimizirati spletne strani za iskalnike sredi devetdesetih let, ko so prvi iskalniki katalogizirali zgodnji splet.

Na začetku so vsi spletni skrbniki predložili samo naslov strani ali URL-ja različnim iskalnikom, ki so nato poslali “pajka” oz. bot, da bi “preiskali” predloženo stran, izvlekli povezave do drugih strani in vrnili informacije, ki so bile najdene na strani za indeksiranje.

Proces vključuje pajka iskalnika, ki prenese spletno stran in jo shrani na lastnem strežniku, strežniku iskalnika. Drugi program, znan kot “indekser”, izvleče informacije o strani, kot so besede, ki jih vsebuje, kje se nahajajo, in vse pomembnost določene besede, kot tudi vse povezave, ki jih vsebuje stran. Vse te informacije se nato prenesejo v načrtovano za indeksiranje v prihodnosti.

 

Lastniki spletnih strani so prepoznali vrednost visokih uvrstitev v iskalnikih, kar je prineslo priložnost tako za white hat kot tudi za black hat optimizacijo. Po mnenju analitika Dannyja Sullivana (Search Engine Land) je izraz “search engine optimization” verjetno začel delovati leta 1997. Sullivan za promocijo tega izraza pripisuje zasluge Bruce-u Clay-u, ki naj bi bil eden prvih ljudi, ki je populariziral ta izraz. Izraz so želeli tudi zaščititi kot blagovno znamko, češ da gre za proces in ne storitev.

Zgodnje različice iskalnih algoritmov so temeljile na informacijah, ki jih je zagotovil spletni skrbnik, na primer meta oznako ključne besede ali indeksne datoteke v iskalnikih, kot je ALIWEB. Meta oznake (ne besede) zagotavljajo vodnik po vsebini vsake strani. Kasneje pa so ugotovili, da je uporaba metapodatkov pri indeksiranju strani manj zanesljiva, saj lahko spletni skrbniki vnesejo kakršnokoli vsebino.

Nenatančni, nepopolni in nedosledni podatki v meta oznakah so lahko in so povzročili, da so se strani uvrstile za ne relevantna iskanja. Do leta 1997 so oblikovalci iskalnikov priznali, da se spletni skrbniki trudijo, da se dobro uvrščajo v iskalnikih, in da so nekateri spletni skrbniki celo urejali svoje uvrstitve v rezultatih iskanja z nalaganjem strani s pretiranimi ali nepomembnimi ključnimi besedami (keyword stuffing). Zgodnji iskalniki, kot sta Altavista in Infoseek, so tako prilagodili svoje algoritme, da bi preprečili webmasterjem manipuliranje z uvrstitvami.

Z zanašanjem na dejavnike, kot so gostota ključnih besed, ki so bile izključno v nadzoru webmasterja, se je zgodnje iskalnike dalo manipulirati. Da bi svojim uporabnikom zagotovili boljše rezultate, so se morali iskalniki prilagoditi, da bi zagotovili, da so strani z rezultati prikazale najpomembnejše rezultate iskanja, ne pa nepovezane strani, polnjene s številnimi ključnimi  besedami. To je pomenilo odmik od močnega zanašanja na gostoto izrazov na bolj celosten proces za točkovanje semantičnih signalov. Ker je uspešnost in priljubljenost iskalnika odvisna od njegove zmožnosti, da prikaže najpomembnejše rezultate za vsako iskanje, lahko slabi ali nepomembni rezultati iskanja povzročijo, da uporabniki uporabljajo druge. Iskalniki so se odzvali z razvojem bolj zapletenih algoritmov razvrščanja, pri čemer so upoštevali dodatne dejavnike, ki so webmasterjem onemogočali manipulacijo. Leta 2005 je bila ustanovljena letna konferenca AIRWeb, Adversarial Information Retrieval on Web, ki združuje strokovnjake in raziskovalce, ki se ukvarjajo z optimizacijo iskalnikov in sorodnimi temami.

Podjetja, ki uporabljajo preveč agresivne tehnike, lahko svojim rezultatom iskanja blokirajo spletna mesta strank. Leta 2005 je Wall Street Journal poročal o družbi Traffic Power, ki je domnevno uporabljala tehnike z visokim tveganjem in teh tveganj ni razkrila svojim strankam. Wired magazine je poročal, da ista družba toži blogerja in SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE strokovnjaka Aaron-a Wall-a, ker je pisal o temi. Matt Cutts (Google) je kasneje potrdil, da je Google dejansko blokiral Traffic Power in nekatere od njihovih strank.

Nekateri iskalniki so tudi posegli v SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE industrijo tako, da so pogosto sponzorji in gostje na SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE konferencah, »webchat-ih“ in seminarjih. Večji iskalniki zagotavljajo informacije in smernice za pomoč pri optimizaciji spletnih strani. Google ima program Search Console, ki pomaga spletnim mojstrom pri ugotavljanju, ali ima Google težave z indeksiranjem njihovega spletnega mesta in zagotavlja podatke o Googlovem prometu na spletnem mestu. Orodja za skrbnike spletnih mest Bing omogočajo spletnim skrbnikom, da predložijo zemljevid spletnega mesta in spletne vire, uporabnikom omogočijo, da določijo »hitrost iskanja po vsebini« in sledijo statusu indeksa spletnih strani.

SEO in Google

Leta 1998 sta dva podiplomca na Univerzi Stanford, Larry Page in Sergey Brin razvila “Backrub”, iskalnik, ki se je zanašal na matematični algoritem za ocenjevanje pomembnosti spletnih strani. Število, izračunano z algoritmom PageRank, je funkcija količine in moči vhodnih povezav. PageRank ocenjuje verjetnost, da bo določena stran dosegla spletni uporabnik, ki naključno brskal po spletu, in sledi povezavam z ene strani na drugo. V bistvu to pomeni, da so nekatere povezave močnejše od drugih, saj je višja stran PageRank verjetneje dosežena s strani naključnega spletnega surferja.

 

Stran in Brin sta ustanovila Google leta 1998. Google je med vse večjim številom uporabnikov interneta, ki jim je bilo všeč njegova enostavna zasnova, pritegnil zveste sledilce. Upoštevani so bili dejavniki izven strani (kot sta PageRank in analiza hiperpovezav), dejavniki na strani (kot so pogostost ključnih besed, metaoznake, naslovi, povezave in struktura spletnega mesta), da bi se Google lahko izognil manipulaciji, ki jo vidijo iskalniki ki so upoštevali le dejavnike na strani za njihovo uvrstitev. Čeprav je bilo PageRank težje preigrati, so webmaster-ji razvili orodja in sheme za link-building, ki vplivajo na iskalnik Inktomi, in te metode so se izkazale za podobne za izigravanje PageRank. Mnoga spletna mesta so se osredotočila na izmenjavo, nakup in prodajo povezav, pogosto v velikem obsegu. Nekatere od teh shem ali »link farms« so vključevale ustvarjanje tisočih spletnih strani za edini namen spamanja povezav.

 

Do leta 2004 so iskalniki v svoje razvrstitvene algoritme vključili široko paleto nerazkritih dejavnikov, da bi zmanjšali vpliv manipulacije povezav. Junija 2007 je Saul Hansell iz New York Timesa izjavil, da Google razvršča spletna mesta z več kot 200 različnimi signali. Vodilni iskalniki, Google, Bing in Yahoo, ne razkrivajo algoritmov, ki jih uporabljajo za razvrščanje strani. Nekateri praktiki SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE so preučevali različne pristope k optimizaciji iskalnikov in so delili svoja osebna mnenja. Patenti, povezani z iskalniki, lahko zagotovijo informacije za boljše razumevanje iskalnikov. Leta 2005 je Google začel prilagajati rezultate iskanja za vsakega uporabnika. Glede na zgodovino prejšnjih iskanj je Google ustvaril rezultate za prijavljene uporabnike.

Leta 2007 je Google objavil akcijo proti plačanim povezavam, ki obidejo PageRank. 15. junija 2009 je Google razkril, da so sprejeli ukrepe za ublažitev učinkov oblikovanja PageRank z uporabo atributa nofollow na povezavah. Matt Cutts, dobro znani inženir programske opreme pri Googlu, je napovedal, da Google Bot ne bo več obravnaval nobenih slednjih povezav na enak način, da bi preprečil ponudnikom storitev SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE uporabo nofollow za PageRank skulpturiranja. Zaradi te spremembe je uporaba nofollowa privedla do bledenja pomena PageRanka. Da bi se izognili zgoraj navedenemu, so SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE inženirji razvili alternativne tehnike, ki zamenjajo nofollowed oznake z obfuscated Javascript in tako omogočajo PageRank skulpturiranje. Poleg tega je bilo predlaganih več rešitev, ki vključujejo uporabo iframeov, Flash in Javascript.

V decembru 2009 je Google napovedal, da bo za rangiranje strani uporabljal zgodovino iskanj vseh uporabniklov. 8. junija 2010 je bil objavljen nov sistem spletnega indeksiranja, imenovan Google Caffeine. Googlov kofein je bil zasnovan tako, da uporabnikom omogoča, da najdejo rezultate novic, objave na forumu in drugo vsebino precej hitreje, kot sprememba načina, kako je Google posodobil indeks, da bi se stvari na Googlu hitreje prikazovale kot prej. Po mnenju Carrie Grimes, programskega inženirja, ki je napovedal kofein za Google, “kofein zagotavlja 50 odstotkov svežih rezultatov za spletna iskanja kot naš zadnji indeks …” Google Instant, iskanje v realnem času, je bilo uvedeno konec leta 2010 v poskus, da bi bili rezultati iskanja pravočasnejši in ustreznejši. Zgodovinsko so skrbniki spletnih mest porabili mesece ali celo leta za optimizacijo spletne strani, da bi povečali uvrstitve iskanja. Z rastjo priljubljenosti spletnih mest v socialnih medijih in spletnih dnevnikov so vodilni motorji spremenili svoje algoritme in tako omogočili hitro uvrstitev novih vsebin v rezultate iskanja.

 

Februarja 2011 je Google objavil posodobitev Pande, ki kaznuje spletne strani, ki vsebujejo vsebine, ki so podvojene z drugih spletnih strani in virov. V preteklosti so spletne strani kopirale vsebino drug od druge in imele koristi od uvrstitve v iskalnikih. Vendar pa je Google uvedel nov sistem, ki kaznuje spletna mesta, katerih vsebina ni edinstvena. Google Penguin 2012 je poskušal kaznovati spletne strani, ki so uporabljale manipulativne tehnike za izboljšanje uvrstitve na iskalniku. Čeprav je bil Google Penguin predstavljen kot algoritem, ki je namenjen boju proti spam-povezavah, se resnično osredotoča na neželene povezave z merjenjem kakovosti spletnih mest, iz katerih prihajajo povezave. Posodobitev Google Hummingbird 2013 je vključevala spremembo algoritma, namenjeno izboljšanju Googlove obdelave naravnega jezika in semantičnega razumevanja spletnih strani. Sistem za obdelavo jezikov Hummingbirda spada v novo priznani izraz ‘Conversational Search’, kjer sistem posveča več pozornosti vsaki besedi v poizvedbi, da bi bolje primerjal strani s pomenom poizvedbe in ne nekaj besed. V zvezi s spremembami optimizacije iskalnikov za izdajatelje vsebin in pisce je Hummingbird namenjen reševanju težav z odpravljanjem nepomembnih vsebin in neželene pošte, kar Googlu omogoča izdelavo visokokakovostnih vsebin in se zanaša na njihove zaupanja vredne avtorje .

SEO in indeksiranje

Iskalniki uporabljajo kompleksne matematične algoritme za interpretacijo spletnih mest, ki jih uporabnik išče. V tem diagramu, če vsak mehurček predstavlja spletno mesto, programi, ki se včasih imenujejo pajki, preverijo, katere strani povezujejo na katera druga mesta, s puščicami, ki predstavljajo te povezave. Spletne strani, ki dobivajo več vhodnih povezav, ali močnejše povezave, so domnevno pomembnejše. V tem primeru, ker je spletna stran B prejemnica številnih vhodnih povezav, se uvršča bolje v spletnih iskanjih. Povezave “prenašajo”, tako da ima spletna stran C, čeprav ima samo eno vhodno povezavo, vhodno povezavo z zelo priljubljenega spletnega mesta (B), medtem ko spletno mesto E ne. Opomba: Odstotki so zaokroženi.

Vodilni iskalniki, kot so Google, Bing in Yahoo !, uporabljajo pajke za iskanje strani za algoritemske rezultate iskanja. Strani, ki so povezane z drugih strani, ki jih indeksirajo iskalniki, ni treba pošiljati, ker jih najdemo samodejno. Yahoo! Imenik in DMOZ, dva glavna imenika, ki sta se zaključila v letih 2014 in 2017, sta zahtevala ročno predložitev in človeški redakcijski pregled. Google ponuja Search Console, za katero lahko ustvarite in pošljete brezplačen vir XML Sitemap, ki zagotavlja, da so najdene vse strani, še posebej strani, ki jih ni mogoče odkriti z avtomatskim spremljanjem povezav poleg konzole za predložitev URL-jev.  Yahoo! prej je deloval s plačljivo oddajo storitev, ki je zagotavljala pajkanje za ceno na klik, vendar je bila ta praksa v letu 2009 ukinjena.

 

Pajki iskalnikov lahko preiščejo več različnih dejavnikov pri iskanju po mestu. Nobena stran ni indeksirana z iskalniki. Razdalja strani iz korenskega imenika (root) spletnega mesta je lahko tudi dejavnik, ali se strani pajkajo ali ne.

Mobile first indeksiranje

Danes večina ljudi išče v Googlu z mobilno napravo. Novembra 2016 je Google napovedal veliko spremembo načina pajkanja spletnih strani in začel izdelovati svoj indeks mobilni-prvi, kar pomeni, da mobilna različica vaše spletne strani postane izhodišče za to, kar Google vključuje v svoj indeks.

Preprečevanje indeksiranja

Da bi se izognili neželeni vsebini v iskalnih indeksih, lahko skrbniki spletnim skrbnikom naročijo pajke, da ne iščejo določenih datotek ali imenikov prek standardne datoteke robots.txt v korenskem imeniku domene. Poleg tega lahko stran izrecno izključite iz baze podatkov iskalnika z meta oznako, specifično za robote (običajno <meta name = “robots” content = “noindex”>). Ko obišče iskalnikrobots.txt, ki se nahaja v korenskem imeniku, je prva datoteka, ki je bila pajkana. Datoteka robots.txt se nato razčleni in ukaže robotu, katere strani se ne smejo pajkati. Ker lahko pajek iskalnik hrani predpomnjeno kopijo te datoteke, lahko občasno indeksira strani, ki jih spletni skrbnik ne želi indeksirati. Strani, ki se običajno ne morejo indeksirati, vključujejo strani za prijavo (/admin), kot so nakupovalni vozički in uporabniško določena vsebina, kot so rezultati iskanja iz notranjih iskanj. Marca 2007 je Google opozoril skrbnike spletnih mest, naj preprečijo indeksiranje notranjih rezultatov iskanja, ker se te strani štejejo za neželeno poizvedbo.

Preprečevanje indeksiranja

Da bi se izognili neželeni vsebini v iskalnih indeksih, lahko skrbniki spletnim skrbnikom naročijo pajke, da ne iščejo določenih datotek ali imenikov prek standardne datoteke robots.txt v korenskem imeniku domene. Poleg tega lahko stran izrecno izključite iz baze podatkov iskalnika z meta oznako, specifično za robote (običajno <meta name = “robots” content = “noindex”>). Ko obišče iskalnikrobots.txt, ki se nahaja v korenskem imeniku, je prva datoteka, ki je bila pajkana. Datoteka robots.txt se nato razčleni in ukaže robotu, katere strani se ne smejo pajkati. Ker lahko pajek iskalnik hrani predpomnjeno kopijo te datoteke, lahko občasno indeksira strani, ki jih spletni skrbnik ne želi indeksirati. Strani, ki se običajno ne morejo indeksirati, vključujejo strani za prijavo (/admin), kot so nakupovalni vozički in uporabniško določena vsebina, kot so rezultati iskanja iz notranjih iskanj. Marca 2007 je Google opozoril skrbnike spletnih mest, naj preprečijo indeksiranje notranjih rezultatov iskanja, ker se te strani štejejo za neželeno poizvedbo.

Povečanje relevantnosti / pomena strani

Različne metode lahko povečajo pomen spletne strani v rezultatih iskanja. Navzkrižna povezava med stranmi iste spletne strani, da se zagotovi več povezav do pomembnih strani, lahko izboljša njeno prepoznavnost. Pisanje vsebine, ki vključuje pogosto iskano besedno zvezo, tako da bo relevantno za široko paleto iskalnih poizvedb, bo povečalo promet. Posodabljanje vsebine, tako da so iskalniki pogosto pajkani nazaj, lahko dajejo dodatno težo spletnemu mestu. Dodajanje ustreznih ključnih besed v metapodatke spletne strani, vključno z naslovno oznako in opisom meta, bo izboljšalo relevantnost iskalnih oglasov za spletno mesto in s tem povečalo promet. URL kanonikalizacija spletnih strani, ki so dostopne prek več URL-jev, s pomočjo kanonskega elementa povezave [48] ali prek preusmeritev 301, lahko pripomore k temu, da se povezave do različnih različic URL-ja upoštevajo pri rezultatu priljubljenosti povezave na strani.

White Hat vs Black Hat SEO

SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE tehnike lahko razvrstimo v dve široki kategoriji: tehnike, ki jih podjetja iskalnikov priporočajo kot del dobrega oblikovanja (“white hat”), in tiste tehnike, ki jih iskalniki ne odobravajo (“black hat”). Iskalniki poskušajo zmanjšati učinek slednjega, med njimi spamdexing. Industrijski komentatorji so razvrstili te metode in strokovnjake, ki jih zaposlujejo, bodisi kot white hat SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE ali kot black hat SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE. White hat ponavadi dajejo rezultate, ki trajajo dolgo časa, medtem ko black hat predvidevajo, da bodo njihova spletna mesta sčasoma ali trajno prepovedana, ko iskalniki odkrijejo, kaj počnejo.

Tehnika SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE se šteje kot white hat, če ustreza smernicam iskalnikov in ne vključuje prevare. Ker smernice iskalnikov niso zapisane kot vrsta pravil ali zapovedi, je to pomembno razlikovanje. White hat SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE ne gre le za sledenje smernicam, temveč o zagotavljanju, da vsebina iskalnika indeksira in nato uvrsti isto vsebino, kot jo bo videl uporabnik. Nasveti za belo klobuk so na splošno povzeti kot ustvarjanje vsebin za uporabnike, ne za iskalnike, in nato omogočajo, da je ta vsebina lahko dostopna spletnim algoritmom “pajek”, namesto da bi poskušali prevarati algoritem iz njegovega namena. White hat SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE je v mnogih pogledih podoben razvoju spletnih strani, ki spodbuja dostopnost, čeprav nista enaka.

 

Black hat SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE poskuša izboljšati uvrstitve na načine, ki jih iskalniki ne odobravajo, ali vključujejo prevaro. Ena tehnika črnega klobuka uporablja besedilo, ki je skrito, bodisi kot besedilo, ki je podobno ozadju, v nevidnem DIV-u ali pa je postavljeno pred zaslonom. Druga metoda omogoča drugo stran, odvisno od tega, ali stran zahteva človeški obiskovalec ali iskalnik, tehnika, znana kot skrivanje. Druga kategorija, ki se včasih uporablja je grey hat SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE. To je med pristopi s črno kapo in belo kapo, kjer uporabljene metode preprečujejo kaznovanje strani, vendar ne delujejo pri ustvarjanju najboljše vsebine za uporabnike. Grey hat SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE je v celoti osredotočen na izboljšanje uvrstitve iskalnikov.

 

Iskalniki lahko kaznujejo spletna mesta, ki jih odkrijejo, z uporabo metod z black hat, bodisi z zmanjšanjem njihove uvrstitve bodisi z odpravo njihovih seznamov iz svojih podatkovnih baz. Takšne kazni se lahko uporabijo samodejno z algoritmi iskalnikov ali z ročnim pregledom mesta. Eden od primerov je bila odstranitev BMW iz Nemčije in Rica iz Nemčije februarja 2006 za uporabo zavajajočih praks. Obe podjetji pa sta se hitro opravičili, popravili stran, ki je storila prekršek, in sta bili obnovljeni na Googlovih straneh z rezultati iskanja.

SEO kot strategija trženja

SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE ni ustrezna strategija za vsako spletno stran, druge strategije internetnega trženja pa so lahko učinkovitejše, kot je plačano oglaševanje prek oglaševalskih akcij s plačilom na klik (PPC), odvisno od ciljev operaterja spletnega mesta. Trženje iskalnikov (SEM) je praksa oblikovanja, izvajanja in optimizacije oglaševalskih akcij iskalnikov. Njegova razlika od SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE je najbolj preprosto upodobljena kot razlika med plačano in neplačano prednostno razvrstitvijo v rezultatih iskanja. Njegov namen je bolj poudariti pomen kot pomembnost; razvijalci spletnih strani bi morali upoštevati SEM z največjim pomenom z vidika prepoznavnosti, saj večina navigira do primarnegaseznami njihovih iskanj. Uspešna oglaševalska akcija za internet je lahko odvisna tudi od izgradnje visokokakovostnih spletnih strani za sodelovanje in prepričevanje, vzpostavitev analitičnih programov, ki lastnikom mest omogočajo merjenje rezultatov, in izboljšanje stopnje konverzije spletnega mesta.] Novembra 2015 je Google objavil celotno 160-stransko različico smernic za ocenjevanje kakovosti iskanja, ki je pokazala, da se je njihova usmeritev usmerila v “uporabnost” in mobilno iskanje. V zadnjih letih je trg mobilne telefonije eksplodiral in prehitel uporabo namiznih računalnikov, kot je pokazal StatCounter oktobra 2016, kjer so analizirali 2,5 milijona spletnih strani in ugotovili, da je 51,3% strani naloženih z mobilno napravo. Google je ena od podjetij, ki izkorišča priljubljenost uporabe v mobilnih omrežjih s spodbujanjem spletnih strani k uporabi Googlove iskalne konzole, Mobile-Friendly Test, ki omogoča podjetjem, da merijo svojo spletno stran z rezultati iskanja in kako uporabniku prijazna je.

 

SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE lahko ustvari ustrezno donosnost naložbe. Vendar iskalniki niso plačani za ekološki promet iskanja, njihovi algoritmi se spreminjajo in ni zagotovil za nadaljnje napotitve. Zaradi tega pomanjkanja jamstev in gotovosti lahko podjetje, ki se močno zanaša na promet iskalnikov, trpi velike izgube, če iskalniki prenehajo pošiljati obiskovalce. [60] Iskalniki lahko spremenijo svoje algoritme in vplivajo na umestitev spletnega mesta, kar lahko povzroči resno izgubo prometa. Po besedah ​​generalnega direktorja Googla Erica Schmidta je leta 2010 Google naredil več kot 500 sprememb algoritmov – skoraj 1,5 na dan. Za upravljavce spletnih mest se šteje kot pametna poslovna praksa, da se osvobodijo odvisnosti od prometa iskalnikov. Poleg dostopnosti v smislu spletnega pajka (naslovljenega zgoraj) postaja spletna dostopnost uporabnikov vse bolj pomembna za SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE.

SEO in Mednarodni trgi

Tehnike optimizacije so zelo prilagojene prevladujočim iskalnikom na ciljnem trgu. Tržni deleži iskalnikov se razlikujejo od trga do trga, kot tudi konkurenca. Leta 2003 je Danny Sullivan navedel, da Google predstavlja približno 75% vseh iskanj. Na trgih zunaj Združenih držav je delež Googla pogosto večji in Google še vedno prevladuje po vsem svetu od leta 2007. [64] Od leta 2006 je imel Google v Nemčiji 85–90-odstotni tržni delež. Medtem ko je bilo v ZDA v tem času na stotine podjetij SEO / OPTIMIZACIJA SPLETNIH STRANI ZA ISKALNIKE, je bilo v Nemčiji le pet. Junija 2008 je bil tržni delež Googla v Združenem kraljestvu po podatkih družbe Hitwise blizu 90%. Ta tržni delež je dosežen v številnih državah.

 

Od leta 2009 obstaja le nekaj velikih trgov, kjer Google ni vodilni iskalnik. V večini primerov, ko Google ne vodi na določenem trgu, zaostaja za lokalnim igralcem. Najpomembnejši primeri so Kitajska, Japonska, Južna Koreja, Rusija in Češka, kjer Baidu, Yahoo! Japonska, Naver, Yandex in Seznam so vodilni na trgu.

 

Uspešna optimizacija iskanja na mednarodnih trgih lahko zahteva strokovno prevajanje spletnih strani, registracijo domene z najvišjo domeno na ciljnem trgu in spletno gostovanje, ki zagotavlja lokalni IP naslov. V nasprotnem primeru so temeljni elementi optimizacije iskanja v bistvu enaki, ne glede na jezik.

SEO in Pravni primeri

  1. oktobra 2002 je SearchKing vložil tožbo pri Okrožnem sodišču Združenih držav Amerike, v okrožju Oklahoma, proti iskalniku Google. Trditev podjetja SearchKing je bila, da je Googlova taktika preprečevanja spamdeksinga predstavljala napačen poseg v pogodbene odnose. Dne 27. maja 2003 je sodišče odobrilo Googlov predlog za zavrnitev pritožbe, ker SearchKing “ni navedel zahtevka, na podlagi katerega se lahko odobri oprostitev.”

 

Marca 2006 je KinderStart vložil tožbo proti Googlu zaradi uvrstitve v iskalnik. Spletna stran KinderStart je bila odstranjena iz Googlovega indeksa pred tožbo, količina prometa na spletnem mestu pa se je zmanjšala za 70%. 16. marca 2007 je Okrožno sodišče Združenih držav za severno okrožje Kalifornije (San Jose Division) zavrnilo pritožbo KinderStart brez dovoljenja za spremembo in delno odobrilo Googlov predlog za sankcije na podlagi pravila 11 proti odvetniku podjetja KinderStart, zaradi česar je moral plačati del Googlovega pravnega sredstva.

Potrebujete SEO?

Stopite v stik in povprašajte o možnostih optimizacije.

Stopite v stik

Reference

Poglejte si naše reference in podjetja s katerimi sodelujemo.

Več o tem

Naročite optimizacijo spletnih strani

Prvi položaji na Google so lahko vaši že v 6-ih mesecih.