Kennis - Het online marketing blog van Tribal

Online marketing is een vak apart en een wereld die snel verandert. Wij laten ons dagelijks inspireren door de nieuwste ontwikkelingen, tips & tools en allerlei nuttige toepassingen. Hieronder lees je welke kennis wij in huis hebben.

Krijgt SEO een nieuwe dimensie?

Door: Bart Martens

Geschatte leestijd: 1 minuut

Zoekmachine optimalisatie (SEO) heeft van oudsher te maken gehad met een wat schimmig imago. Dit werd vooral veroorzaakt doordat zoekmachines weinig kwijt wilden over de techniek achter hun zoekresultaten en specialisten hun kennis graag voor zichzelf hielden.

De afgelopen jaren is hier al enorme verbetering in gekomen. Zo geven specialisten middels sites als webmasterworld.com, Search Engine Watch en SearchEngineLand steeds meer kennis vrij. Ook zoekmachines werken mee aan een transparanter beeld door te werken met gedetailleerdere richtlijnen en hulpmiddelen als de Google Webmaster Tools.

Gisteren is hier een nieuwe dimensie aan toegevoegd. Het Amerikaanse SEO bureau SEOMoz heeft namelijk een eigen web-crawler ontwikkeld welke het grootste deel van het web inzichtelijk moet maken, vergelijkbaar met de manier waarop zoekmachines dit doen. Met het inzichtelijk maken van het web doelt SEOMoz vooral op de relaties tussen verschillende websites, de linkpopulariteit van websites, welke linkteksten er gebruikt worden, oftwel de invloed van links, nog steeds een van de belangrijkste SEO factoren.

Volgens eigen zeggen heeft SEOMoz inmiddels meer dan 30 miljard webpagina’s geindexeerd. SEOMoz stelt deze data beschikbaar via zelf ontwikkelde waarderings tools. Zo is onder andere de MozRank bedacht, welke vergelijkbaar moet zijn met de PageRank van Google, dit alles is beschikbaar via SEOMoz Linkscape.

Het spannende van deze ontwikkelingen ligt ‘m vooral in het feit dat een betrekkelijk kleine partij (16 medewerkers) het voor elkaar krijgt het belangrijkste deel van het web te indexeren en, nog spannender, dat SEO’s deze data (relatief) vrij voor handen hebben. Er hoeft dus nog maar in mindere mate getest te worden met eigen (beperkte) tools waarbij je altijd afhankelijk bent van de data die zoekmachines teruggeeft.

De vraag is nu welke gevolgen dit gaat hebben voor SEO nu partijen die geen direct belang hebben bij betere zoekresultaten (zoals zoekmachines dat hebben) over data beschikken die voorheen alleen voor zoekmachines beschikbaar waren. Leidt dit tot gerichtere SEO en relevantere resultaten of werkt dit het tegenovergestelde juist in de hand?

Discussie- Geen reacties

Blijf op de hoogte van handige kennis en het laatste nieuws van je favoriete online marketing bureau:

INSCHRIJVEN VOOR ONZE NIEUWSBRIEF