Det händer ständigt mycket inom SEO-världen och det kan stundtals kännas förvirrande med alla nyheter och uppdateringar som skickas ut. Men oroa er inte, vi har sammanställt en lista med de senaste nyheterna som vi anser är av högst relevans för er och ert företag att veta om.

Google ignorerar många Edu-länkar (högskolor och institutioner)

För ett antal år sedan, före år 2008 så var Edu-länkar eftertraktade av SEO-världen. Det var i regel enbart universitet och högauktoritära institutioner som fick lägga sina händer på dessa länkar, vilket resulterade i att omvärlden såg dessa länkar som mycket värdefulla och legitima.

Men låt er inte luras, för så är inte fallet längre! Åtminstone om vi ska förlita oss på det Google för någon vecka sedan gick ut med. Enligt John Mueller, trendanalytiker på Google, så blir dessa Edu-länkar ofta måltavlor för länkspammning eftersom många tror att dessa länkar är värdefulla för den egna hemsidans rankning.

edu links google

På grund av denna länkspammning, så har Google valt att ignorera många av dessa Edu-länkar. Så, för att sammanfatta nyheten, förlita er inte på Edu-länkar och tro att detta ska förbättra er rankning. Och kan då detta betyda att även svenska högskolors länkar och institutioners hemsidor också är bland dessa?

Minimera nedladdningstiden för er webbsida

Ett hett tips från Googles John Mueller är att kolla över hur lång tid det tar att ladda ner en specifik sida på er webbsida. Mueller rekommenderar att ”Tid spenderad av nedladdningen av en sida” i Google Search Console helst ska vara mindre än några 100 millisekunder.

googlebot 100ms download speed

genomsökningsstatistik google

Man skulle kunna tro att detta uttalande är baserat på att användarna värdesätter en sida som laddas ner snabbt, men det är inte hela sanningen. I detta fall handlar det inte primärt om användarna, även om de såklart uppskattar sidor som laddas ned snabbt.

Det handlar istället om de sökrobotar som Google använder sig av, även kallade Googlebots. Dessa robotar hämtar dokument från internet och alla dess webbsidor, för att bygga upp en databas för Googles sökmotorer. Genomsökningsprocessen för Googlebots sker algoritmiskt, vilket innebär att datorprogram bestämmer vilka sidor som ska genomsökas, hur ofta samt hur många sidor från varje webbplats som hämtas. Målet från Googles sida är att genomsöka så många sidor på er webbplats som möjligt vid varje besök, utan att påfresta er servers bandbredd allt för mycket.

Ni kan ju själva då räkna ut att desto snabbare en Googlebot kan genomsöka er sida, desto mer effektivt är sökandet och ju fler sidor hinner den med att söka igenom. Detta kan i sin tur resulterar i att er webbsida anses mer legitim och viktig för Google och rankas således högre!

Detta kanske då är en av de hundratals signaler Google använder sig utav för att ranka en hemsida?

Algoritmer tar över det manuella arbetet

Google genomsöker ständigt era webbsidor för att upptäcka uppdateringar, men även potentiell manipulation som gjorts i ett försök att överlista Googles algoritmer, för att rankas högre i deras sökresultat.

Om Google upptäcker att något inte står rätt till på en webbsida eller upptäcker någon typ av avsiktlig användning av manipulativa SEO-tekniker, så delas ofta ett Google-penalty ut. Detta är ett typ av straff, som har en negativ inverkan på webbsidans rankning.

Dessa ”penalties” kan baseras på Googles uppdateringar av deras sökalgoritmer eller manuella granskningar.

Åtgärder måste givetvis tas om man skulle råka ut för någon typ av penalty, vilket förr oftast gjordes manuellt. Men de flesta som arbetar aktivt med SEO vet att dessa manuella handlingar kan löpa ut och istället skötas av Googles algoritmer. Så om det exempelvis finns en länkåtgärd som behövde skötas manuellt, men inte har blivit gjord än utan plötsligt bara försvinner, så kan det vara Googles algoritmer som har tagit hand om problemet.

Google gjorde år 2012 en uppdatering som gick under namnet Google Penguin, vilken ämnade påverka rankningen negativt hos de webbsidor som använde SEO-tekniker som stred mot Googles riktlinjer för webbansvariga. Denna Penguin-uppdatering skapade alltså algoritmer för att ta hand om en del problem på en webbsida, vilka alltså inte längre behöver åtgärdas manuellt. Så, de manuella handlingarna blir allt färre med hjälp av Googles smarta algoritmer. John Mueller bekräftade detta på Twitter genom att säga ”Ja, manuella handlingar löper ut efter tiden. Ofta förändras saker genom åren, så vad som kan ha krävt manuell inblandning för att lösa / förbättra tidigare, kan hanteras bättre algoritmiskt idag.”

google penalty

Detta är alltså en bra nyhet för de som har problem på sin webbsida, som är skapta omedvetet. Men mindre bra för de som försöker manipulera Googles sökresultat med oschyssta tekniker. – Perfekt om ni frågar oss!

Skriven av,
Cathlin Berg, Content-specialist

Ställ oss gärna en fråga kring detta nedan!

Pin It on Pinterest

Share This