De zin en onzin van zoekmachineoptimalisatie

07/07/2011 zoekmachine optimalisatie

Tijdens de presentatie van Google Instant liet Google vallen dat ze meer dan een miljard gebruikers per week hebben. En eind 2008 had Google al meer dan een biljoen (1000 miljard) unieke URLs geïndexeerd. Google betekent niet voor niets 10100.

De belangen om met je zoekwoord op de eerste (of tweede) resultatenpagina (SERP) van deze zoekmachine te komen zijn astronomisch.

Wat alles nog spannender maakt is de zweem van mysterie die rond de algoritmes van de zoekmachines hangt. Niemand weet precies wat er onder de motorkap schuilgaat. Er zijn een hoop (self proclaimed) experts, maar er zijn ook flink wat beunhazen. En nog meer mensen die maar wat roepen. Google doet er alles aan om die zweem aan te dikken. Geef ze eens ongelijk.

Maar als er geen zekerheden zijn, kunnen we dan wel van SEO kennis spreken?

Ik heb maar eens wat onderzoek gedaan naar het verschil tussen feit en fictie. De zin en onzin van zoekmachine optimalisatie. En hoe staat Google hier eigenlijk in?

Achterhaalde SEO kennis

Een aantal SEO mythen en misopvattingen komen voort uit het – relatief jonge – verleden van de zoekmachines. De zoekmachines – en dus ook SEO – zijn continu in ontwikkeling, dus sommige ‘kennis’ is eenvoudigweg achterhaald.

1. De Keywords Meta Tag wordt nog steeds gebruikt

Heel lang geleden, in een vorige eeuw, waren er enkele zoekmachines (Yahoo, Altavista) die deze meta tag serieus gebruikte voor het indexeren van keywords. Die tijd is voorbij. Zoekmachines zijn gelukkig een stuk slimmer geworden. Vorig jaar kondigde Yahoo als laatste aan dat de keywords tag niet meer geïndexeerd wordt.

Helemaal waar is dat niet, zoals Danny Sullivan aantoonde op Searchengineland.com. Maar anders dan fout gespelde varianten van zoekwoorden (Sullivan testte het ‘woord’: xcvteuflsowkldlslkslklsk) komen er niet mee boven water. Inmiddels toont Google trouwens 1840 resultaten met dit woord.

2. De Description Meta Tag is belangrijk voor SEO

Voor de description tag geldt hetzelfde als hierboven, qua indexering. Natuurlijk is deze tag uitermate belangrijk voor de eerste conversiestap. Het haalt de zoeker over om jouw pagina te kiezen, uit alle andere resultaten die getoond worden.

Met het nieuwe zoeken dat door Google Instant zal ontstaan, zal deze tag / tekst nog belangrijker worden. Er komen zoveel titels en beschrijvingen voorbij, dat degene die het meest opvalt een nog grotere kans krijgt.

Nu we toch aan het ‘mythbusten’ zijn: de description tag is niet zaligmakend. Google bepaalt zelf of het de description tekst laat zien. Vooral bij zoekacties naar langere zoekwoordcombinaties, die zich niet in de titel of URL bevinden, laat Google een zelf-samengestelde snippet zien.


Update: de laatste tijd is de Description tag ook voor indexering weer belangrijker geworden.

3. Pagerank is voor iedereen inzichtelijk

Hiervoor moeten we even een onderscheid maken tussen de pagerank die Google gebruikt (PR) en de ‘pagerank’ die je kunt zien in de Google of Alexa toolbar (TBPR).

De pagerank (PR) is één van de belangrijkste factoren voor het bepalen van de ranking van een pagina voor een zoekwoord. De TBPR heeft daar echter heel weinig mee te maken.

Ik heb één van mijn homepages’ TBPR – het groende balkje in de toolbar – eind 2009 van 4 naar 3 zien zakken, terwijl de ranking voor verschillende keywords omhoog ging. En ik ben niet de enige. Het is ook geen toeval dat Google de TBPR nog maar 5x per jaar updatet, waar het bedrijf dat tot 2006 nog maandelijks deed. Sinds die tijd lijken de verschillen tussen PR en TBPR ook groter geworden.

4. Flash websites en SEO gaan niet samen

In den beginne hadden zoekmachines grote moeite met het indexeren van Flash websites. Dus werd er al snel geroepen dat Flash en SEO niet samengaan. De eerste oplossing was het hardcoderen van zoektermen in de code. Verre van ideaal, want op die manier kan je elk willekeurig zoekwoord in de code zetten, zonder dat het iets met de werkelijke content te maken heeft.

Sinds vorig jaar kan Google externe Flash bronnen doorzoeken. Door de code en de content te scheiden, is het veel makkelijker en betrouwbaarder geworden om Flash sites te indexeren. Door een nieuwe techniek, deep-linking, is het nu zelfs mogelijk om naar specifieke URLs binnen de Flash film te linken.

Bestaande SEO twijfels

Niet alle onduidelijkheden over zoekmachine optimalisatie komen door achterhaalde kennis. Het helpt ook niet dat sommige factoren erg lastig te testen zijn. Maar door jezelf de vraag te stellen: ‘hoe zou Google dit benaderen?’ kom je meestal al een heel eind.

5. Leeftijd van het domein is belangrijk voor ranking

Is de leeftijd van het domein van invloed op de ranking? In zekere zin. Een nieuwe site die concurreert met een oude site op dezelfde soort content zal het in het begin lastig hebben. Doorzetten en investeren wordt zeker beloond. Maar als je er goed over nadenkt: zou een 1 jaar oude site het moeten afleggen tegen een 5 jaar oude site?

Eigenlijk niet.

De oude site heeft natuurlijk het voordeel van inkomende links. Maar het internet ontwikkelt zich zo snel, dat up-to-date gegevens juist belangrijker zouden moeten zijn dan verouderde data.

Toch zie ik regelmatig sites die alleen op basis van leeftijd hoger ranken dan hun concurrenten.

6. Verversen van content helpt

Het regelmatig plaatsen van nieuwe content op je webpagina’s is zeker belangrijk voor SEO. Je zorgt ervoor dat de spider wat vaker langskomt, zodat je het verschil in ranking voor je keywords kan zien. Maar heeft het ook impact op de ranking zelf?

Absoluut. Dat is vooral bij blog posts te zien, die vaak binnen enkele dagen erg hoog scoren, om vervolgens weer iets weg te zakken. De inspanningen die Google heeft gedaan met Real Time Search wijzen er ook zeker op dat het bedrijf versheid erg belangrijk vindt.

En wat is de rol van Google precies?

Google lijkt erg weinig kwaad te kunnen doen in de wereld. Waar collega-monopolist Microsoft altijd iedereen over zich heen krijgt, wordt Google voornamelijk als de grote, alwetende, magische weldoener afgeschilderd. Mijn insteek: ‘hoe zou Google dit benaderen?’ wordt door velen als basis van search engine optimization genomen. Toch is de zoekmachine alles behalve feilloos.

Zoek met Nederlandse instellingen bijvoorbeeld maar eens naar ‘landingspagina’. Van de 10 resultaten op de eerste pagina zijn er 5 die daar alleen staan omdat ze het woord ‘landingspagina’ in de title tag hebben staan. Terwijl de meeste van die ruim 46000 resultaten toch echt over landingspagina’s gaan.

landingpage
En stiekem verdenk ik Google van het bewust in de wereld brengen van enkele SEO mythen.

7. Goede content zorgt voor een hoge ranking

In een ideale zoekmachine misschien. Maar Hoe willen ze dat meetbaar maken?

SEO is de luis in de pels van Google. Hoe meer er via testen over de zoekmachine bekend raakt, hoe groter de noodzaak om de algoritmes aan te passen. Het is er Google namelijk erg aan gelegen om de organische zoekresultaten zo ‘eerlijk’ mogelijk te laten zijn (anders zou niemand nog geld stoppen in Adwords).

8. Dubbele (niet unieke) content wordt bestraft

De ideale methode om de zoekmachine te ‘reverse engineeren’ is om verschillende identieke pagina’s te maken. Als die vervolgens geïndexeerd worden, kan je met kleine wijzigingen precies zien wat de impact is. Daar is Google natuurlijk niet blij mee. Dubbele content kost hen ook meer dan dat het oplevert.

Ik heb in het onderzoek voor dit artikel trouwens niemand gevonden die voor dubbele content gestraft is.

9. Laadsnelheid van websites wordt belangrijk

Begin april van 2010 kondigde Google aan dat de laadtijd van website impact gaat krijgen op de ranking van sites. Zou dat echt een rol van betekenis kunnen gaan spelen? Veel kleine bedrijven zouden daardoor benadeeld worden, omdat ze voor goedkopere en daardoor vaak langzamere hosting kiezen.

Google weet natuurlijk wel dat SEO bedrijven en site-eigenaren zich direct op deze ‘ranking factor’ gaan storten. Het is ook geen toeval dat deze aankondiging vlak na het updaten van de ToolBar PageRank gebeurde (6 dagen later). En de laatste update is alweer van 5 maanden geleden. Zolang deze mythe niet kan worden doorbroken, zal er overal ter wereld aan de snelheid van websites worden gesleuteld.

En laten we eerlijk zijn. Zo erg is dat natuurlijk ook weer niet.

Reacties

plaats een reactie