Insights / SEO

En oversikt over Googles Core Updates
– og hvordan du skal forholde deg

Hvorfor kommer de, og hva kan vi lære av dem?

Google core updates blogindlæg

I august kom det frem at Google var klar med sin nyeste oppdatering: Googles Helpful Content Update. Denne oppdateringen er langt fra den første, og vil neppe være den siste. Men hva er det disse Google core-oppdateringene handler om, og hvorfor fortsetter de å komme?

Siden tidenes morgen har Google oppdatert plattformen sin og inkludert algoritmen som crawler, prioriterer og rangerer alle sidene som er indeksert. Dette har kort sagt et enkelt formål: at brukerne av Google skal finne de beste og mest relevante resultatene først. Jeg vil først gjennomgå de store oppdateringene gjennom tidene, og deretter komme inn på hvilke ting det er viktig å lære av nettopp disse.

Innholdsfortegnelse


Florida – Den første store Google Core Update

 I november 2003 ble den første oppdateringen rullet ut på Google, bedre kjent som Florida. I begynnelsen var det mange spekulasjoner om hva oppdateringen innebar, og hva formålet med den var. Blant annet mente noen SEO-folk at oppdateringen brukte OCR (Optical Character Recognition) for å identifisere kjøpsknappen på netthandelssider. Formålet skulle angivelig være å sortere ut søkeresultater som hadde et informativt formål. En annen teori var at oppdateringen påvirket lenker. Florida skulle være en oppdatering som kunne analysere lenker; noe få på den tiden visste særlig mye om.

På en konferanse i 2005 avslørte noen av Googles ingeniører at Google brukte lenkeanalyse for å sortere ut spamsider. Det skal imidlertid legges til at Google aldri offisielt har avslørt nøyaktig hva Florida innebar. Så alle definisjoner er bare kvalifiserte gjetninger.

En av ulempene med Florida var at oppdateringen rammet et bredt spekter av små nettsteder og netthandelssider – rett før julehandelen. Dette fikk folk til å kreve at Google ikke skulle rulle ut så store oppdateringer før julehandelen igjen, da det vanligvis er en stor omsetning for mange netthandelssider i denne perioden. Noen gikk til og med så langt som å mistenke Google for å ville fremme sin egen virksomhet med Google Ads, som var en måte hvorpå de mange netthandelssider kunne sikre seg å dukke opp i søkeresultatene.


Big Daddy slo til i 2005 – En Google Algorithm Update

 I 2005 kom neste store oppdatering, som fikk det fantastiske navnet Big Daddy. I motsetning til Florida, kom ikke Big Daddy som en overraskelse, da den hadde blitt diskutert åpent og annonsert av Google selv. Denne oppdateringen skulle ta tak i lenker av lav kvalitet og Googles infrastruktur. Her var fokus blant annet på canonicals, redirects og å øke kvaliteten på søkeresultatene.

Et begrep som også ble diskutert i forbindelse med Big Daddy-oppdateringen, var den såkalte Google Sandbox. En mytisk fortelling som ble diskutert i ulike SEO-fora. Historien gikk ut på at Google hadde et filter som ble lagt til nye sider. Filteret skulle hindre en ny side i å rangere, på tross av masse innhold av høy kvalitet, gode lenker og ingen tekniske problemer. Det har dog aldri kommet noen bekreftelse fra Google eller Matt Cutts*.

Et annet fenomen som så dagens lys i denne perioden, var det såkalte Google Dance. Dette er ikke det nyeste innslaget til Skal vi danse, men derimot et begrep som dekker over søkresultater som konstant svinger. Disse svingningene skjedde gjerne hver måned, og varte et par dager om gangen. Dansen var et resultat av Googles måte å oppdatere sin database av nettsider, og deres rangeringsdata kunne dermed fungere i sanntid, uten å måtte stenge ned. Denne dansen døde imidlertid raskt ut, etter at Big Daddy var fullt implementert.

Hvis du ser svingninger i søkresultater i dag, er det imidlertid ikke på grunn av oppdateringen av data på tvers av flere datasentre hos Google.


Fra én Big Daddy til en annen: Jagger 1, 2 og 3

 2005 var et år med mange oppdateringer, og Big Daddy var derfor ikke alene. Den fikk følge av Jagger 1, Jagger 2 og Jagger 3, som ble rullet ut fra september til november. Jagger hadde fokus på duplisert innhold og tilbakekoblinger (backlinks), hvor de brukte en helt ny tilnærming til å vurdere lenker. Her ble både ankerteksten på innkommende lenker, innholdet på siden og hastigheten som lenkene ble opprettet til siden, tatt med i vurderingen.

I 2005 var SEO noe annet enn det er i dag. Det var mange månedlige pakkeløsninger, hvor systematisk lenkebygging var en del av pakken. Det var typisk kjennetegnet ved at det dukket opp lenker mot slutten av hver måned. Jagger var generelt etter alle de som bygde formålsløse og irrelevante lenker, fra blant annet lenkefarmer.

I tillegg gikk Jagger hardt ut mot sider hvor det lå skjult tekst. Enten det var gjennom cloaking, eller det var skjult gjennom CSS. Med cloaking menes sider hvor det vises en tekst til Googles søkemotor, og en annen tekst til de besøkende på siden.

Mottakelsen av Jagger var blandet, og det var spesielt harme å spore hos de mindre sidene, som opplevde at Google favoriserte de større merkevarene. Samtidig ble domenets alder vektlagt tungt, noe som også slo hardt ned på nyere, små sider. Dette resulterte i at disse nettsidene så seg nødt til å bruke mer penger på Googles annonsering – var denne oppdateringen til for at Google kunne tjene mer penger? Spekulasjonene hadde vært der før, og de bidro til å gi oppdateringer fra Google et dårlig rykte.


 En kontroversiell oppdatering – Da Vince slo bena under alle

I 2009 kom neste store oppdatering, og det var ikke én som mange ble glade for. Denne oppdateringen resulterte i en rask og bemerkelsesverdig endring i brede søketermer, som ga store merkevaredomener en fordel på side 1 av søkeresultatene. De skjøv rett og slett andre sider av pinnen, slik som mindre autoritative sider, affiliate-sider, og sider som tidligere hadde oppnådd gode plasseringer gjennom SEO-arbeid.

Tidligere har det ofte vært subtile hint om når en oppdatering var på vei, men Vince kom helt ut av det blå, og det slo bena under nettstedseiere og hele SEO-verdenen. Fra Googles side mente man at internett var i ferd med å bli en sump av falsk informasjon, og at merkevarer var løsningen på problemet – ikke en del av det. Kort etter at Vince ble lansert, kunne man se en tydelig forskjell i søkeresultatene, hvor store merker plutselig rangerte høyt på brede søketermer med høy volum. På siden WebmasterWorld bemerket en bruker at det hadde skjedd en stor endring i søkeresultatene for søkeord som car audio, laptop og quit smoking. Her dukket store merker og .gov-sider opp i langt høyere grad enn tidligere.

Selv om mange påstod at Google favoriserte store merker med Vince, holdt Google fast ved at formålet var å prioritere sider med høy autoritet, troverdighet og relevans. De mange affiliate-sidene, spammere og såkalte black hatters ble lagt til grunn for dette, da de hadde hersket på Google gjennom det meste av 2000-tallet frem til 2009. Verken affiliate-sider eller spammere kunne nettopp oppnå den autoriteten og troverdigheten som de store merkene besitter. For et merke er mer enn bare en nettside, og det er samtidig et oppsett som vil generere naturlige lenker fra relevante sider, hvor ankerteksten også gir mening. Merker får også mye troverdighet ved å bli nevnt hyppig på sosiale medier, i nyhetene og andre steder på nettet – noe som spammere og affiliates ikke kan oppnå naturlig.


Google får et nødvendig løft med Caffeine – Googles algoritmer fikk nytt liv

google caffeine opdatering

Også i 2009 kom det enda en oppdatering, som regnes for å være en av de viktigste i hele søkemotorhistorien. Caffeine var navnet, og den var så omfattende at Google måtte sørge for flere måneders Developer Preview. Dette var et testformat av oppdateringen, hvor SEO-spesialister og utviklere kunne gi sine synspunkter før oppdateringen ble rullet ut til det brede publikum.

Kort sagt var Caffeine et nytt webindekseringssystem, som kunne krype (crawle) og lagre data langt mer effektivt enn tidligere. Med dette nye systemet kunne Google nå krype, samle data og legge det til i sitt indeks på få sekunder, noe som betydde at friskere informasjon var tilgjengelig fra et bredt spekter av sider.

For å sette det litt enkelt, så kan vi se på Googles gamle indekseringssystem sammenlignet med det nye ved å ta utgangspunkt i plattformen det ble bygget for – og hvordan Google så ut i 2009.

Det opprinnelige indekseringssystemet ble skapt i 1998, da det var om lag 2.4 millioner nettsider og 188 millioner brukere på internett globalt. Det høres allerede ut som mye, men så hold godt fast, for nå kommer tallene for 2009. Her var det 238 millioner nettsider, og hele 1.8 milliarder brukere – så det er en ganske stor vekst!

Det kom også flere og flere videoer, bilder, kart og annen data som måtte behandles. Dette stilte selvfølgelig også helt andre krav til Google, og hvordan de behandlet dataene som kom inn via nettsidene og brukernes atferd. Derfor ble Caffeine et nødvendig løft for hele Googles funksjonalitet.


Kampen mellom Google og Black Hat – Fra søt panda til kampklar oppdatering

Google Panda opdatering

Pandaoppdateringen er nok en av de mest kjente oppdateringene fra Google. I februar 2011 ble Panda lansert, og den var en del av planen om å utrydde Black Hat SEO og web-spam. Panda kunne tildele nettsider en kvalitetsklassifisering, som var basert på menneskelig kvalitetsvurdering. Dette skulle være det første steget i Googles plan om å øke kvaliteten og brukeropplevelsen.

2010 var et år hvor det skjedde en stor økning i antall content farms, og kvaliteten på Googles søkeresultater var stadig synkende. Etter Caffeine ble flere og flere sider indeksert. Dermed kom færre og færre mindre gode sider fram i søkeresultatene. Mediene rapporterte om at Googles algoritme var ødelagt, og det var på tide å få den fikset. Content farms produserte en masse tekst, som de spyttet ut i fleng – uten at det inneholdt relevant informasjon. For på den tiden vektla Google nemlig produktivt og konstant innhold framfor kvalitet, noe som flere og flere utnyttet til sin fordel. Panda førte også til at de beryktede tre bokstavene E, A og T ble en fast del av prinsippene for oppbygging av nettsider. Ekspertise, Autoritet og Troverdighet ble viktige elementer for å få en nettside til å rangere godt.

Pandaoppdateringen ble rullet ut i 2011 og har siden fått flere oppdateringer. Helt frem til januar 2016, da det ble endelig bekreftet at Panda nå var en integrert del av Googles algoritme.


 Da Googles algoritmer ble helt fresh

I juni 2010 rullet Googles Freshness-oppdatering ut, som bygde videre på Caffeine. Google annonserte selv denne oppdateringen og nevnte at den ville påvirke rundt 35% av alle søk. Her ville den fokusere på å levere friske og aktuelle søkeresultater til brukerne.

Denne oppdateringen ble satt i gang da det ble spådd at det ville bli skapt mer data i 2017 enn i de foregående 5000 årene av menneskets eksistens – og så måtte det sorteres noe finere for å skape de beste søkeresultatene. Google gikk altså etter å møte etterspørselen etter ferskt, nytt og aktuelt innhold. Med kombinasjonen av de store mengdene data og de mange nye søketermene som Google skulle begynne å håndtere, gir det god mening at det var behov for et friskt pust i algoritmen. En artikkel fra ReadWrite skrev i 2012 at 16% til 20% av alle spørsmål som blir googlet hver dag, var spørsmål som aldri hadde blitt stilt til søkemotoren før.

Med Freshness ble det understreket at det er viktig med aktuelt innhold, og dette gjaldt spesielt for områder som nyheter, hendelser, politikk, kjendiser, trender og mye mer. Én av de mest bemerkelsesverdige tingene ved denne oppdateringen er at langt flere så ut til å vinne på denne – i motsetning til å miste plasseringer, som ellers har vært normen for de fleste andre oppdateringer.


Page Layout/Above the Fold – Farvel til de mange reklamer (i hvert fall i toppen)

 Ikke alle oppdateringer har vært like store, men til tross for å være en av de mindre, har Page Layout likevel hatt sitt å si. Denne algoritmeendringen slo til i begynnelsen av 2012, hvor fokus var på omtrent 1% av nettsider som den ville ramme. Disse nettsidene var dem hvor det øverst på siden lå et hav av statiske reklamer – noe som betød at besøkende måtte rulle en god del for å komme til sidens innhold. Dette påvirket brukeropplevelsen av siden, og Google ønsket derfor å fremme bedre nettsider for sine brukere.

Siden utrullingen av denne oppdateringen kom det flere rettelser som ga nettsidene muligheten til å komme raskere på bena igjen, etter at de ble rammet av den første omgangen med Page Layout Algorithm.


Google blir lokalt med Venice

 Du er sikkert kjent med de lokale resultatene som dukker opp på Google når du søker. Det kan være du leter etter den nærmeste italienske restauranten, asiatiske supermarkedet eller tannlegen – og da står Google klar med dem som er nærmest deg. Dette behovet har vært der lenge, og med Venice ble det mulig å treffe nøyaktig det lokalområdet som ens nettside rettet seg mot. Før Venice var det Google Places som ble brukt for å vise de lokale resultatene. Venice gjorde det imidlertid mulig å få de organiske ti lenkene på side 1 til også å være lokale. Lokaliteten ble basert primært på brukerens IP-adresse, og det åpnet en dør for særlig mindre bedrifter og merker. Nå kunne de nemlig rangere på søkeord med et større volum, helt lokalt, der det var relevant.

Det ble plutselig viktig å ha landingssider som rettet seg mot tjenester i bestemte områder. Ved å kombinere navnet på en lokasjon og et relevant søkeord, kunne man komme blant de første ti søkeresultatene. Det var imidlertid ikke uten konsekvenser, og det førte også til at en del nettsider begynte å spamme siden sin med bynavn. Dette skjer fortsatt den dag i dag, hvor du for eksempel kan se 20 forskjellige bynavn listet i bunnen av noen nettsteder – bare for at siden skal dukke opp i relevante lokale søkeresultater.

I dag kan du bruke både Google My Business og Maps for å få plassert bedriften din lokalt. Dermed øker du sjansene for å dukke opp i de lokale søkeresultatene. Map Pack er funksjonen som dukker opp på Google, hvor du kan se et lite utsnitt av ditt lokalområde med relevante bedrifter plassert.

En annen oppdatering som beskjeftiget seg med lokale søkeresultater var Googles Pigeon-update. Denne oppdateringen ble lansert i 2014, og formålet var å levere bedre lokale resultater. Det ble derfor igjen understreket at det var viktig med en sterk, lokal organisk tilstedeværelse, for det var nettopp det som ble belønnet i oppdateringen.


Pingvinen fulgte i Pandaens fotspor

Som det er nevnt ovenfor, var Panda-oppdateringen en krigserklæring mot sider av dårlig kvalitet på Google. Panda sto imidlertid ikke alene, og i april 2012 kom Pingvinen for å følge etter.

Denne oppdateringen rammet godt 3% av søkeresultatene, i hvert fall hvis man spør Google. Disse resultatene var dem som innebar manipulative metoder: slik som lenkebyggingsordninger og nøkkelordstuvning.

Den første utgaven av Penguin var ikke så mye en endring av algoritmen, men mer en oppdatering av de allerede eksisterende dataene. Penguin 2.0 kom i 2013, og her ble det gravd et spadetak dypere inn i nettsidene. Nå ble det gravd ned under forsiden og hovedkategori-sidene for å finne lenkespam skjult på undersidene. Gjennom årene kom det flere endringer og oppdateringer til Penguin, som i korte trekk sørget for å krype gjennom sidene som tidligere hadde blitt rammet av oppdateringen. I tillegg skulle den fange de som hadde unngått den tidligere. I 2016 ble Pingvinen endelig en del av algoritme-familien, hvor den sluttet seg til Panda og resten av den harde kjernen.

Denne oppdateringen var med på å endre praksisen som mange innenfor SEO hadde arbeidet etter i mange år. Nå var det behov for smartere metoder for å kunne bygge opp nettsidenes autoritet, og få scoret de gode plasseringene på side 1 av Google. Det var tid for naturlige lenkeprofiler, gode brukeropplevelser og nyttig innhold.


 Når en kolibri skaper stort oppstyr – Google Hummingbird

Google hummingbird opdatering

Noen endringer kan være så store, og samtidig nesten gå ubemerket hen. Tenk på klimaendringer, hvor små økninger i temperaturen er vanskelige å merke til daglig, men det har likevel en stor innvirkning på våre liv. Google Hummingbird Update kan sammenlignes litt med dette, selv om det selvfølgelig er langt fra en søkemotor til klimaendringer. Hummingbird har blitt beskrevet som en av de største oppdateringene på Google siden 2001, og fokuset var hastighet og presisjon. Å håndtere store mengder data på internett og så matche det opp med søkeord kan være en stor oppgave, og i starten fokuserte Google på å matche søkeord med innholdet 1 til 1. Det endret seg imidlertid med Hummingbird, hvor Google nå ble bedre til å dekode overordnet tema for ens søkeord, og derfor matche søkeresultatene til dette. I motsetning til Penguin og Panda, var ikke Hummingbird en tilføyelse til hovedalgoritmen – det var derimot en endring av selve algoritmen.

Med en større språkforståelse ble det nå mulig for Google å forstå intensjonen bak et søk bedre, og dermed kunne levere mer relevante søkeresultater til brukeren. Matt Cutts fra Google har også uttalt at Hummingbird påvirket opptil 90% av alle søk. Dette gjorde den blant annet ved å kunne velge ut de mest relevante ordene i spesielt lange søketermer.


 Forbrukslån, casinosider, affiliate og spam – Disse kjemper Google fortsatt med

Forbrukslån, casinosider, affiliate og spam – Disse kjemper Google fortsatt med

En av tingene som går igjen gjennom mange av Googles oppdateringer, er den evige kampen mot alle former for lyssky forretninger. Med PayDay Loan Update ble det satt fokus på sider som tilbød lån og casino, porno og andre sider hvor det typisk opptrer mye spam. Oppdateringen ble rullet ut i 2013, og ble innført over en to måneder lang periode. Oppdateringen fikk en endring i 2014.

Også Googles Quality Update gikk etter sider som ikke tilbød innhold av høy nok kvalitet, dårlige lenker og spaminnhold. Denne kom i 2015, og gikk spesielt etter tynt innhold, clickbait-artikler, sider med enorme mengder av reklamer, content farm-artikler og masseproduserte “How to”-sider. Kort sagt gikk denne oppdateringen direkte etter de sidene som rett og slett ikke leverte innhold av høy nok kvalitet til forbrukeren.

Det har lenge vært en del av Googles strategi å fremheve de sidene som faktisk gir godt, relevant og aktuelt innhold til forbrukeren, samtidig som nettsiden er brukervennlig.


Og hva kan vi lære av alt dette?

 Som en som arbeider med SEO, kan det virke som en utfordring å bygge en nettside som passer til alle Googles mange kriterier. Det kommer stadig nye oppdateringer, og Google har gått helt bort fra å navngi dem. Nå kalles de alle sammen bare Fred. Hvis du følger med i diverse SEO-fora, så er disse ofte engelske. Det betyr også at de ofte tar utgangspunkt i land hvor det er langt flere søk og høyere volum på de fleste søkeord. Det kan derfor være vanskelig å oversette alle disse beste praksisene til norske forhold. Så hva kan vi bruke historien om de mange oppdateringene til?

Google har i august rullet ut Helpful Content, som sikter etter å fremme sider med brukervennlig innhold, og samtidig skyve søkemotoroptimalisert innhold bakover. Google har i samme omgang fremhevet sin egen guide til hvordan du sikrer at innholdet på din nettside er rettet mot leseren fremfor søkemotoren selv.

1. Hold deg til ditt kunnskapsfelt

 Det sier kanskje seg selv, at hvis din nettside handler om kjæledyr, så skal du ikke plutselig skrive stolpe opp og stolpe ned om forkjølelser, økonomi, sport eller lignende. Kort sagt skal du holde deg til det du faktisk vet noe om.

2. Skriv om det du har direkte erfaring med

 Å anbefale produkter som du ikke selv har hatt i hendene, kan være fristende for å treffe søkeord med høy volum, og samtidig promotere noe som kan gi stor fortjeneste. Det er imidlertid også samme taktikk som affiliate-sider benytter, og denne formen for innhold hjelper ikke brukeren. For du har ikke den nødvendige erfaringen eller kunnskapen om produktet til å ha autoriteten til å anbefale det.

3. Hold deg til ett emne

 Din nettside skal holde seg til sitt hovedfokus, og ikke skyte med hagle. La deg ikke friste av ønsket om å rangere på mange forskjellige søkeord, men hold deg til ditt fokusområde. Det gjør både din nettside mer brukervennlig for leseren, og det er enklere for Google å definere hva din side egentlig handler om.

4. Sørg for å ha utfyllende svar på relevante spørsmål

Hvis vi tar eksemplet med kjæledyr igjen, så kan det være mange spørsmål en leser kan ha. Det kunne være spørsmål om hva man skal ha i huset før man anskaffer seg en hund, hva man skal være oppmerksom på hvis ens hund blir syk, hvor mye vann skal den drikke om dagen og så videre. For å sikre at leseren får den nødvendige kunnskapen fra din nettside, kan du spørre deg selv: vil leseren ha behov for å søke videre etter å ha lest innholdet på din side?

5. Tenk over helhetsopplevelsen for din leser

Din nettside skal tilby utfyllende informasjon, og det kan være relevant å inkludere alt fra tekst til bilder og video. Uansett om du skriver en produktanmeldelse, forklarer hva du skal sikre deg før du får din første hund eller noe helt tredje. Det er viktig å holde helhetsopplevelsen for øye. Tenk over dine egne opplevelser når du surfer rundt på nettet.

6. La være med å besvare spørsmål som ikke har noe bekreftet svar

Å ta opp emner som ikke har endelige svar eller går imot vitenskapelig konsensus kan være en farlig lek. Det er ikke noe du nødvendigvis skal avstå fra 100% – men det er viktig at du gjør det tydelig for leseren at du ikke har det endelige svaret på spørsmålet.

7. Sørg for at du overholder retningslinjene som er kommet med alle Googles tidligere oppdateringer

Som dette lange blogginnlegget kan bekrefte, er det mange oppdateringer, og de har alle hatt sitt eget formål og sett av retningslinjer som har formet søkemotoren. Det er viktig at du er oppmerksom på alle disse, og gjør ditt beste for å overholde dem.


Google Grump Rating – Er Google chill eller furious?

 Et av mine personlige favorittverktøy er Google Grump Rating, som er en funksjon du kan finne hos Accuranker. Her har siden holdt øye med betydelige svingninger i Googles rangering av sider, og det gir et lite innblikk i hvor mye de forskjellige oppdateringene har rokket med søkemotoren. Dataene går tilbake til juni 2015, så vi har dessverre ikke en fin graf over hva som har skjedd under noen av de største oppdateringene. Men vi kan følge med fremover.

På bildet nedenfor kan du se hvor rasende Google var i oktober 2017, noe som passer med at Google ser ut til å ha sluppet enda en oppdatering på markedet, som dog aldri har blitt bekreftet av Google selv. Samtidig er det verdt å merke seg at det siden 2020 har vært relativt mye ro på svingningene i søkemotorens rangeringer. Det siste toppunktet i grafen ligger i begynnelsen av august, hvor det her var en brann i noen av Googles servere i USA. Denne hendelsen påvirket søkemotorens evne til å rangere søkeresultater, og det var derfor ikke en oppdatering som var skyld i svingningen.

Oppdateringene blir mindre og mindre omfattende med tiden, og svingningene blir derfor også deretter. Google Dance er ikke lenger en ting, men det gjør det ikke mindre viktig å følge med på hva som skjer på Google.

Når vi ser på Googles Grump Rating for Danmark, er det umiddelbart færre svingninger i Google-tigerens humør, og det er også litt forskjøvet fra det som skjer globalt sett. Det er selvfølgelig fordi alle oppdateringer rulles ut på engelskspråklige sider først, og deretter til andre språk.


 Takeaway fra tidligere oppdateringer

Fra Florida til Helpful Content – alle oppdateringene har hatt samme formål: å forbedre brukeropplevelsen for Googles brukere. Google har blitt en så stor del av den vanlige forbrukerens hverdag, og vi støtter oss alle på søkemotoren gjennom dagen. Det blir produsert uendelige mengder av data, ny kunnskap, nyheter, artikler og nettbutikker som popper opp som paddehatter på en våt gresseng. I en tid hvor fake news har blitt et velkjent begrep, har det også blitt enda viktigere at vi som forbrukere kan navigere i det store, brede internettet. Derfor vokser kravene til Google – og til din nettside.

SEO har også endret seg gjennom årene, hvor det for 15-20 år siden var mulig å slippe unna med uendelige mengder av lenker, nøkkelordstuvning, cloaking, Black Hat-metoder og annen manipulering av din nettside. Det er ikke lenger tilfellet i dag. Siden tidenes morgen har lenkebygging vært et kontroversielt emne i SEO-kretser, da de naturlige lenkene selvfølgelig har mye å si, mens de kjøpte lenkene lener seg mot en gråsone ifølge Googles egne retningslinjer.

Faktum er imidlertid at det er viktig at du setter fokus på din nettsides innhold og tekniske evne. Innhold er alfa og omega for Google, og uansett om du selger babyutstyr eller tilbyr en tjeneste, kan du få utrolig mye ut av å fokusere på brukeropplevelsen og skape innhold av høy kvalitet. Med kunnskap om relevante søkeord, kan du få et unikt innblikk i hva din målgruppe er ute etter. Ved bruk av for eksempel Schema Markup, som min kjære kollega Mikkel har skrevet et spennende innlegg om, kan du sørge for at din nettside får de beste mulighetene for å komme fremst i feltet. Du er eksperten på ditt område, og du har utrolig mye kunnskap om ditt felt – det er denne kunnskapen som skal formidles til dine lesere og kunder.

Som SEO-spesialister har vi en stor kunnskap om hvordan vi innhenter og analyserer den dataen som er nødvendig for at din nettside får det beste utgangspunktet for å komme frem på Google. Vi snakker Googles språk, og vet hvilke knapper vi kan trykke på for å få søkemotoren til å forstå at den kunnskapen du sitter med, faktisk er enormt relevant for din målgruppe. Vi bruker vår innsamlede data og analyseringen av den til å kunne sette opp en strategi som skal danne grunnlaget for at din nettside kan score førsteplassen.

Hvis du ikke har en SEO-spesialist i lommen eller mulighet for selv å samle inn denne dataen, er det likevel fortsatt måter du kan forbedre din side på.


Mine fem råd til deg som ønsker å være i forkant med Googles fremtidige oppdateringer

Her på slutten vil jeg også gjerne komme med mine råd til deg som har en nettside og ønsker å være et skritt foran Google. Med disse fem rådene kan du komme godt i gang:

1. Invester tid i å skrive godt innhold til din nettside

Godt innhold kan være mange ting, men her snakker vi om innhold som demonstrerer din unike kunnskap og ekspertise innenfor ditt felt. Sørg for at det er velskrevet, at det inneholder all nødvendig informasjon om emnet, og at nødvendige bilder og video er inkludert.

2. Gjennomgå din sides innhold med jevne mellomrom, og still deg kritisk til det som allerede står

Å holde innholdet ditt oppdatert og relevant er viktig. Spesielt på områder hvor det ofte skjer nye ting. Du er eksperten, og du vet sannsynligvis godt hva som rører seg innenfor ditt felt. Noen emner er eviggrønne, og her vil kunnskapen være korrekt – også om 50 år. Men mange emner endrer seg løpende, og her kan det også være relevant å tenke samfunnssituasjonen inn. Hvis du har en side om kjæledyr, kan det være viktig å legge til kunnskap om spredende sykdommer, siste nytt innenfor utstyr, kunnskap om fôr, hva du skal være oppmerksom på når du får en hund under corona og lignende – så lenge du vet noe om det!

3. Hold deg oppdatert på hva som rører seg hos Google

Google sender som sagt ut oppdateringer i ett sett, og de har bare blitt hyppigere med tiden. Det kan derfor lønne seg å holde seg oppdatert på hva neste oppdatering vil inneholde, og hvilke konsekvenser det blir. De fleste oppdateringene blir rullet ut på engelsk først og kommer deretter til andre språk. Det gir deg god mulighet til å følge med på siste oppdatering og konsekvensene av den, før oppdateringen treffer Danmark.

4. Sett brukeropplevelsen i høysetet

Din nettside er ikke bare innholdet. Det er hele siden som blir vurdert når en bruker besøker den. Det kjenner du nok selv når du surfer rundt på nettet. En treg nettside, en unødvendig komplisert meny eller en søkefunksjon som ikke fungerer optimalt kan alle være parametre som kan ødelegge opplevelsen av siden. Her kan du finne et utall av beste praksiser i forhold til hva du bør gjøre, men jeg vil råde deg til å se etter lignende danske sider. De fleste nettsider er bygget etter noenlunde samme mal, og mange elementer går igjen her og der. Du kan derfor enkelt finne inspirasjon og gode ideer hos konkurrentene dine. Husk på: Imitasjon er den oppriktigste formen for smiger.

5. Gå aldri på kompromiss med din visjon og identitet

Nettet er fylt med gode ideer og nye påfunn som kan gjøre en helt forvirret. Uansett hva konkurrentene dine gjør, hva de store engelske sidene gjør, eller hva noen vil anbefale deg, så vil jeg, ironisk nok, råde deg til ikke å gå på kompromiss med din visjon og identitet. Vi i Danmark har en fordel i at selv om det er langt færre sider i kampen om de gode plasseringene, så kan et personlig preg være med på å gjøre din side unik. Din side kan godt skille seg ut og være annerledes, så lenge du holder alle de andre gode rådene for øye. 😉 

Trenger du hjelp med SEO?

Få Marie til å hjelpe deg.

    Klar for å oppnå
    merkbare
    resultater?

    Bli kontaktet for en uforpliktende prat
    om dine muligheter.

      Hvad vil du gerne kontaktes angående?