13 klassiske SEO fejl som mange bliver ved med at lave

Når man har arbejdet med SEO i en del år, så er der fejl man har set igen og igen. Fejl som det er let at fixe, men som alligevel bliver overset fordi folk glemmer at tænke over det eller fordi de simpelthen ikke ved, at det er en fejl at gøre sådan.

I mange tilfælde er det ikke fejl folk selv laver, men fejl som fx. opstår fordi de fleste programmører ikke kender noget til SEO eller fordi dem der er ansvarlige for siden sletter gammelt indhold på den forkerte måde.

Det er derfor tid til at kigge på 13 klassike SEO fejl som går igen lidt for mange steder.

Vi starter i den lette ende og bevæger os langsomt opad ifht. teknik og kompleksitet.

1 – Samme titel og meta descriptions på alle dine sider

Denne fejl kan alle opdage uanset hvor tekniske de er, men alligevel ser man den igen og igen. Ikke kun på små personlige hjemmesider, men også på hjemmesider for store organisationer og firmaer.

Helt konkret er fejlen, at den samme titel og/eller meta description bliver brugt på flere sider.

Det kan fx. være at alle siderne har firmaets navn som titel og der ikke er nogen meta descriptions.

Firmanavn i titel på alle sider

Hvis alle sider har samme titel, så ranker Google ens sider dårligere og hvis siderne endelig dukker op i søgeresultaterne, så har de en dårligere CTR end de behøver have (CTR er click through rate, dvs. hvor mange der klikker på søgeresultaterne).

En lignende fejl er at siderne har titler som fx. “Forside” i stedet for relevante og lokkende titler som fx. “Billige skisokker fra FIRMANAVN”.

Fejlen er ikke kun relevant ifht. Google. Den er også relevant ifht. de sociale medier, da de ofte viser din titel og meta description når et link til din side bliver delt.

Hvis det ser sådan her ud når din side bliver delt, så kan du være ret sikker på at CTR er væsentlig lavere end hvis du havde fået vist noget spændende tekst.

Facebook social sharing uden titel og meta description

Skriv en ordentlig title og meta description og ser det hele lige pludselig meget mere spændende ud:

Facebook social sharing med titel og meta description

2 – Brug af meta keywords ligesom i gamle dage

Nu vi snakker om titel og meta description, så er det også værd at nævne meta keywords. For en del år siden kunne meta keywords bruges til at angive hvad din side handlede om og derved give søgemaskinerne et hint om hvordan din side skulle indekseres og rankes.

Sådan er det ikke længere (og sådan har det ikke været i en del år efterhånden). I dag betyder meta keywords intet ifht. din indeksering og rankings og det er heller ikke noget som dine besøgende kan se.

Der er derfor ingen grund til at bruge tid på meta keywords.

Faktisk så kan meta keywords få en direkte negativ effekt, da de kan bruges af andre til at afsløre hvilke keywords du går efter:

Brug af meta keywords

3 – Keyword stuffing og ulæselige tekster

Ligesom meta keywords, så er keyword stuffing et gammelt trick der ikke længere virker og som kan have direkte negativ effekt.

I gamle dage kunne man booste sine sider ved at skrive indhold der nævnte det samme keyword igen og igen med passende mellemrum (ofte kaldet keyword density). Problemet var bare, at mange tekster blev direkte ulæselige, da det var vigtigere at nævne keywords end det var at gøre en tekst interessant og læsbar.

Heldigvis er det ikke sådan længere. I dag handler det om at skrive gode og interessante tekster, som dine besøgende kan bruge til noget.

Det gælder om at besvare de besøgendes spørgsmål, hvilket er grunden til at mange SEO folk anbefaler at man skriver lange tekster der dækker alt hvad der er relevant for emnet (dvs. det keyword som ens side er målrettet).

SerpIQ har lavet en undersøgelse der viser, at de sider der ligger nr. 1 i søgeresultaterne i gennemsnit har en tekst på over 2450 ord!

4 – Duplicate content

Nu vi snakker om tekster, så er det vigtigt at være opmærksom på duplicate content. Dvs. at det samme indhold eller stort set samme indhold går igen på flere af dine sider.

Mange CMS systemer har en tendens til at vise det samme indhold på flere sider, så Google bliver i tvivl om hvilken side der skal indekseres. Det er ikke særligt heldigt, da det kan føre til dårligere rankings.

Måden du fixer det på er ved at rydde op i dine sider. Helt konkret skal du slette sider der ikke bruges og 301 redirecte de slettede sider til andre relevante sider på din hjemmeside.

I nogen tilfælde vil det dog ødelægge brugeroplevelsen at slette en side. I så fald skal du bruge canonical taggen til at fortælle Google hvilken af siderne med duplicate content der er vigtigst, så det er den vigtigste side der bliver indekseret og som får alt link juicen.

Duplicate content kan også findes på tværs af hjemmesider, så lad nu være med at bruge de samme tekster som alle andre. Brug af de samme tekster fører til at du ranker dårligere end hvis du selv skrev dine tekster – og med mindre du har fået lov til at bruge tekster fra andre folks hjemmesider, så risikerer du også at få en sag om ophavsret på halsen.

5 – Billeder uden alt tags

Google og de andre søgemaskiner kan ikke se hvad der sker på dine billeder, så det må du fortælle dem via “alt” taggen på dine billeder. I alt taggen kan du nemlig skrive et par ord om hvad billedet viser.

Image alt tag

Derved øger du Google’s mulighed for at se hvad din side handler om, ligesom du øger muligheden for at dine billeder ranker i billedsøgningerne (værdien af at ranke i billedsøgningerne skal bestemt ikke undervurderes, da der er rigtig mange som søger efter produkter via billedsøgning. Vores ældste datter kigger fx. efter øreringe via billedsøgning).

Hvis du er ambitiøs (hvilket du bør være), så kan du også navngive dine billedfiler efter de keywords som du gerne vil ranke for.

Dvs. at det er bedre at navnegive et billede “oereringe-med-blomster.jpg” end “billede-7.jpg”.

6 – Døde links og 404 sider

Når folk besøger din side, så er det vigtigt at de ikke risikerer at løbe ind i døde links. Dvs. links der fører til sider som ikke længere eksisterer eller til 404 sider (“side ikke fundet” sider).

Døde links giver en dårlig brugeroplevelse og du hælder linkjuice direkte i afløbet, hvis du har døde links.

Hvis du har rigtig mange døde links, så risikerer du også at Google stempler din side som fyldt med issues, hvilket kan medfører dårligere rankings.

Heldigvis er det ret let at opdage døde links hvis du fx. bruger et tool som Screaming Frog.

7 – Manglende intern linkbuilding

Ifht. links, så er det ikke kun vigtigt at holde øje med døde links. Det er også vigtigt, at du husker at linke mellem relevante sider på din hjemmeside.

Ved at linke mellem dine sider, så forbedrer du dine muligheder for gode rankings samtidigt med at du forbedrer dine besøgendes oplevelse af siden. Det kan du fx. gøre ved at linke til relevante sider, hvor folk kan få uddybet et underemne. Det kan også være, at du kan linke til andre produkter, der er relevante for det produkt som en besøgende kigger på.

Mange tror det er nok bare at have en god menu i toppen af siden, men desværre giver header og footer links ikke den samme værdi som links i selve indholdet på din side.

Derudover overser mange besøgende muligheden for at få uddybet et emne, hvis du kun linker til det i din menu fremfor at gøre det i dit indhold hvor det er relevant.

Pas dog samtidigt på ikke at gå amok, så dit indhold bliver overfyldt med links til dine andre sider.

Du kun skal linke til relevante sider og en god tommelfingerregel er, at du skal gå efter 3-10 links på hver af dine sider (afhængigt af dit emne, længden på din tekst og hvad du har af relevante sider at linke til).

Husk samtidigt at variere teksten i dine links, så alle dine links til en bestemt side ikke har den sammen anchor text. Google bryder sig nemlig ikke om at alle links har den samme anchor text og i mange tilfælde er det heller ikke særlig godt for læsbarheden af dine sider.

8 – Blokering af søgemaskiner i dit CMS

Mange CMS systemer har en option, så du kan blokere søgemaskinerne fra at indeksere din hjemmeside. Fx. har WordPress denne option på en af administrationssiderne:

Wordpress - valg af søgemaskine indeksering

Denne option er relevant hvis du fx. har et domæne (eller subdomæne) som du bruger til udvikling. I så fald er det en god ide at blokere søgemaskinerne fra udviklingsdomænet, så du ikke risikerer at både det og dit egentlige domæne bliver indekseret med risiko for duplicate content (og risiko for manglende salg og dårlig branding, da udviklingsversionen af din side har en tendens til at have en masse work in progress fejl og manglende mulighed for at gennemføre køb m.m.)

Men bortset fra domæner der bruges til udvikling, så er det meget sjældent at blokering af søgemaskinerne er relevant.

Hvis du fx. er ved at bygge en ny side op, så kan du sagtens få indekseret dine sider i takt med du får dem gjort færdige. Det giver dig et boost i Google fra starten af og hvis det skaffer nogen besøgende før du er klar, så kan du ofte lokke folk til at skrive sig på din mailingliste (fx. ved at lokke med et par vilde åbningstilbud, der kun bliver delt med dem der er på din mailingliste).

Emil Blücher brugte denne taktik da de åbnede rengøringsbutikken Huma, så han har skrevet en gennemgang af hvordan han præcis gjorde det.

9 – Brug af kode som Google ikke forstår

Google og de andre søgemaskiner er ret tolerante over for små fejl i koden bag din hjemmeside, men der er grænser for hvad de kan håndtere.

Det er derfor altid en god ide at validere din kode, så du kan sikre dig at den overholder de gældende HTML standarder. Den letteste måde at validere din kode er at bruge W3C’s validator.

W3C validering af HTML/CSS

W3C’s validator medddeler fejl for rigtig mange hjemmesider, men der er sjældent grund til at gå i panik. De fleste fejl er ikke kritiske ifht. din indeksering i Google – og hvis det er noget som skal rettes, så er det somregel ret let at ordne for en god programmør.

Validering af din hjemmeside kode er iøvrigt ikke kun relevant ifht. Google og de andre søgemaskiner. Det er også relevant ifht. dine besøgende, da du med pæn kode øger sandsynligheden for at de ser en pæn side uanset hvilken browser de bruger.

Hvis du er i tvivl om hvordan din side ser ud i forskellige browsere, så du med fordel checke de forskellige versioner med Browser Stack.

Browser Stack browsere

Samtidigt med at du validerer din kode, så er det også en god ide at checke hvordan dine forskellige typer sider ser ud i Google’s øjne. Her kan du bruge BrowSEO, der viser hvordan dine sider ser ud når Google’s bot kommer forbi og skal se hvad du har af indhold på din side.

Browseo - Genvejen som Google ser siden

10 – En alt for langsom side

I de sidste par år har Google givet en ranking bonus til hurtige sider, så der er alt mulig grund til at gøre hvad man kan for at ens hjemmeside bliver så hurtig som mulig.

Afhængig af hvilket CMS du bruger, så kan du ret let gøre en del for at gøre din side hurtigere. Her på Genvejen bruger jeg WordPress, så der fik jeg gjort siden væsentligt hurtigere ved blot at installere et par plugins og aktivere CDN (Cloudflare).

Pingdom Tools test af page speed

Hvis du ikke bruger WordPress eller bare gerne vil gøre din side endnu hurtigere, så kan du bruge Google’s PageSpeed til at få anbefalinger for hvad der er mest kritisk og hvad du fx. kan gøre for at fixe problemerne (vær dog opmærksom på at mange af PageSpeed’s anbefalinger kræver hjælp fra en programmør).

Hvis din hjemmeside ligger på en langsom server eller et langsomt webhotel, så kan det også betale sig at få gjort noget ved det i en fart. Dvs. at du skal få flyttet din hjemmeside over til en hurtigere løsning end den du bruger p.t. (Genvejen ligger på en Dreamhost VPS, hvilket jeg er godt tilfreds med ifht. prisen på løsningen).

11 – Fri adgang til uheldige data

Med robots.txt kan du kontrollere hvilke dele af dine side søgemaskinerne skal indeksere. Dvs. du kan sige at søgemaskinerne skal indeksere bestemte foldere på din side, mens de skal holde nallerne fra andre foldere.

På den måde kan du fx. sætte tingene op sådan, at søgemaskinerne ikke forsøger at indeksere dine administrationssider, login sider og tyndt indhold som fx. resultaterne af søgninger på din side.

Hvis du ikke stopper indeksering af dine administrationssider, så kan du afhængig af dit CMS risikerer at der pludselig optræder data i søgeresultaterne som du ikke har lyst til at dele med omverdenen. Manglende blokering af søgemaskinerne via robots.txt er fx. grunden til at der igen og igen optræder data med folks CPR numre i søgeresultaterne.

På samme måde er en rigtig god ide at stoppe indeksering af interne søgeresultater, da for meget tyndt indhold øger risikoen for at din side får en Google penalty.

12 – For voldsom blokering af søgemaskinerne

Robots.txt kan ikke kun bruges til at give søgemaskinerne adgang til for mange sider. Hvis robots.txt bruges forkert, så kan du også risikere at blokere for at søgemaskinerne indekserer dit indhold.

Det lyder vildt, men det er lidt af en klassiker i SEO branchen at folk arbejder med SEO i månedvis uden der sker en dyt. Pludselig er der så en der får kigget nærmere på robots.txt og opdager at denne fil blokerer søgemaskinerne fra at indeksere siden, hvorefter fejlen bliver rettet og SEO arbejdet pludselig begynder at have en effekt.

Hvis du er i tvivl om hvordan du skal sætte din robots.txt fil op, så kan SEObook’s tool anbefales.

13 – Uheldige htaccess fejl

Robots.txt er ikke den eneste fil som kan lave ballade ifht. hvordan din hjemmeside bliver indekseret. En anden og langt mere kryptisk fil er .htaccess filen, der findes på rigtig mange webservere (fx. Apache webservere, der er de mest udbredte servere til fx. WordPress hjemmesider).

Afhængig af hvordan .htaccess er sat op, så kan du fx. lave 301 redirects med denne fil. Det er fx. en fordel hvis du flytter domæne, da du så let kan fortælle Google at siden er flyttet og samtidigt automatisk sende folk videre, hvis de kommer ind på det gamle domæne.

Men du kan også lave fejl i .htaccess, så du blokerer Google fra at indeksere dine sider.

.htaccess er væsentligt mere kryptisk at sætte op end robots.txt. Selv om jeg var programmør i mange år før jeg begyndte at fokusere på SEO, så synes jeg stadig at .htaccess konfiguration er noget som trækker tænder ud. Du skal derfor være ret sikker på hvad du laver, hvis du selv begynder at arbejde med .htaccess filen.

Har du is i maven, så kan du finde en del tools til opbygge og konfigurere din .htaccess fil (bare søg efter “htaccess tool” i Google).

Leave a Reply

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *

*