Kennis - Het online marketing blog van Tribal

Online marketing is een vak apart en een wereld die snel verandert. Wij laten ons dagelijks inspireren door de nieuwste ontwikkelingen, tips & tools en allerlei nuttige toepassingen. Hieronder lees je welke kennis wij in huis hebben.

De basis van je zoekmachine optimalisatie!

Door: Emmy Faes

Geschatte leestijd: 6 minuten

Een technisch verhaal waar je een sterke maag voor nodig hebt

Het optimaliseren van je website om beter gewaardeerd te worden door Google, is tegenwoordig een onmisbaar onderdeel van je online strategie. Google staat aan de frontlinie van het internet en is vrijwel altijd de eerste partij die online issues signaleert en oplost. Waarom? Ze hebben de resources en het budget.  Door die insteek hebben ze eigenlijk een monopoliepositie wat betreft online.

Daarnaast is Google vrijwel altijd de grootste toeleverancier van bezoek op je website. Via Google AdWords, via remarketing en via de organische zoekresultaten. Dus zeggen dat je Google niet nodig hebt, is hetzelfde als zeggen: ik laat een schip bouwen zonder bodem of een auto zonder wielen.

…Maar wat zijn dan de onderdelen waar je op moet focussen bij optimalisatie voor de zoekmachine? Dus: waar kijkt Google naar om jouw website te waarderen? Zijn het de veelbesproken en in twijfel getrokken links, is het de content (is King) op je website, gaat het om online aanwezigheid? Ja allemaal, maar je gaat de wedstrijd echt niet winnen als je alleen op die zaken focust, ze dragen zeker bij, maar het gaat om het totaalplaatje.

It all starts with code or doesn’t it?

Wat is het belangrijkste van een website? Makkelijk, dat is code. Schone code wel te verstaan. Maar ook minimale code. Als je zaken kunt combineren, doe dat! Het scheelt veel dataverbruik, waardoor jouw website sneller wordt en snelheid is één van die zaken waar te gemakkelijk mee om wordt gegaan.

Maar eerst terug naar de tekentafel. Het bouwen van een website gebeurt initieel offline. Wat wordt je informatiestructurering en hoe wil je dat de bezoeker navigeert? Oftewel, wat wordt de navigatiestructuur? Deze informatie kun je op basis van fingerspitzengefühl invullen. Maar het belangrijkste is je organisatiedoelstellingen correct hebben en op basis van jouw doelen een keyword onderzoek uitvoeren, zodat je precies in kaart hebt wat de focus van jouw website wordt. Eerst onderzoek, daarna actie. Op het onderdeel keywordonderzoek ga ik nu niet verder in. Waar ik wel op in ga is de verdere informatiestructurering van je website vanuit de basis, de server, de mappen, de dynamische opbouw en hoe je zorgt voor een duidelijke hiërarchie. Middels deze hiërarchie kun je Google voorzien van de meest simpele, logische en makkelijk bewerkbare data die je maar kunt bedenken.

Waarom? Zie het zo. Neem alle externe websites ter wereld. Dat zijn er miljarden. Kijk vervolgens naar hoeveel websites wel niet multilingiuaal (meertalig) zijn. Combineer dat met alle verschillende manieren van data aanbod, verschillende manieren van serving (Apache, Ubuntu, Windows, Nginx etc.) en verschillende manieren van code (html5, html4, php, .net etc.). Google moet van alle websites die er zijn al deze data verwerken en gelijk trekken, zodat ze een degelijke vergelijking kunnen maken. Dit alles om een zo eerlijk mogelijke waarde te kunnen bepalen.

Dus hoe lastiger de code hoe meer moeite Google heeft met alleen al het crawlen, het vertalen (gelijk trekken) en het indexeren van de pagina’s op jouw website. Een kleine technische slordigheid zoals een dubbele heading tag met enkele afsluiting kan al funest zijn voor de structuur die Google van jouw website af kan lezen. Gebruik dus altijd schone en correcte code. Hiervoor kan de webbouwer https://validator.w3.org gebruiken om de code van de website te checken.

Google houdt zichzelf hier overigens niet aan. In Google.nl zie je inline JavaScript voor CSS geplaatst. Er zitten ook 26 fouten en vier warnings in:  https://validator.w3.org/check?uri=https%3A%2F%2Fwww.google.nl%2F&charset=%28detect+automatically%29&doctype=Inline&group=0

Matt Cutts legt hier uit waarom. Het is een bewuste keuze om dezelfde functionaliteit te behalen met een optimaal aantal bytes (en gebruikerservaring). Wanneer Google 1KB kan besparen door niet aan W3C standaarden te voldoen, maar toch dezelfde functionaliteit te bieden, dan scheelt ze dit op een dag terabytes aan data en enorm veel servercapaciteit.

Zorg altijd voor overzicht en helderheid

Let bij het maken van je architectuur ook op het aantal pagina’s dat je gaat genereren. Het is namelijk niet zo dat hoe meer pagina’s Google op jouw website kan indexeren, hoe beter dat je gaat scoren. De relevantie van zo een breed scala aan pagina’s binnen een website is vaak minimaal of juist dubbel. Veel pagina’s met zeer grote overeenkomsten en allemaal op andere URL’s hebben weinig waarde voor Google, dus zul je daar nooit hoge posities mee kunnen behalen. Daarnaast is er nog de echte duplicate content zoals de www versie van je website en de non-www versie van je website. Je website is dan dus oproepbaar als https://www.domein.nl en https://domein.nl. Voor jou lijken dit dezelfde pagina’s, voor Google is het exact dezelfde pagina maar dan op meerdere URL’s. Stel dat je deze pagina ook nog eens kunt benaderen met een slash aan het einde en zonder slash aan het einde, dan heb je dus vier versies van dezelfde pagina. En dit gaat zelfs nog verder want vanuit veel Content Management Systemen worden er ook automatisch index en home files aangemaakt. Als je dit allemaal onder elkaar zet heb je dus één initiële homepage die benaderbaar is onder:

https://domein.nl
https://domein.nl/index.php
https://domein.nl/index.php/
https://domein.nl/home
https://domein.nl/home/

En bovenstaande dus ook nog via de www versie. Dat zijn dus tien verschillende URL’s waarop voor Google exact dezelfde content staat. Je kunt dus al raden wat dit doet voor de kwaliteit van deze pagina en de content, die is minimaal.

Erg belangrijke materie dus, want wil je dat Google je een goede waardering geeft, wees dan duidelijk en beknopt in je structuur. Als je bijvoorbeeld met filtering en volgordes werkt op je website dan kunnen deze voor miljoenen pagina’s zorgen. Ga maar na, als je zeven variabelen constant met elkaar kunt combineren en daarna al deze variaties ook nog eens op vijf verschillende manieren kunt ordenen. Zorg  dat deze pagina’s uitgesloten worden van indexatie door middel van de robots.txt.

De waardebepaling van je interne pagina’s

Je hebt nu een duidelijke structuur en een goed beeld van welke pagina’s je wel en niet wilt laten indexeren door Google. Je hebt de webbouwer geïnstrueerd om met schone, correcte code te werken. Hoe ga je nu onsite zorgen dat de belangrijkste pagina’s het eerst en het meest door Google geïndexeerd worden? Je bepaalt de onsite structuur aan de hand van interne links, interne verwijzingen naar andere pagina’s op je website zoals bijvoorbeeld menuknoppen en tekstlinks. Hoe meer interne links een pagina heeft hoe belangrijker deze voor je bezoekers zou moeten zijn. Althans, dat is hoe Google het benadert.

Heb je al een website en wil je zien welke pagina’s het meeste door Google gecrawled worden? Vraag dan de serverlogs op bij de developer of de webhostingpartij. Deze serverlogs, zowel acceslogs als errorlogs, laten alle bezoekers van de Google robot zien. Je kunt daar dus uit aflezen welke pagina Google het meest bezoekt en dus ogenschijnlijk ook het belangrijkst vindt. Dit kun je ook gemakkelijk vergelijken via Google Webmaster Central via de keuze interne links.

GWT SEO

Zorg er dus voor dat de voor jouw belangrijkste pagina’s ook zo worden aangeboden aan de crawler.  In het voorbeeld hierboven zou de categorie / dameskleding/  bovenaan moeten staan omdat die categorie het meest converteert en daarmee commercieel het belangrijkste is en dus ook zo door Google behandeld zou moeten worden.

Daarnaast geven de serverlogs ook inzicht in alle files, pagina’s etc. die niet meer in gebruik zijn. Oude pagina’s die bijvoorbeeld nog wel waarde bevatten kun je redirecten en pagina’s en bestanden zonder waarde kun je verwijderen om serverruimte vrij te krijgen, zodat het laden van de website niet belemmerd wordt. Zorg bij het verwijderen dat de juiste statuscode wordt aangeroepen, namelijk de harde 404 pagina.

Blijf Google dienen met jouw structuur

Het gebruik van een XML sitemap is alom bekend. De XML sitemap is een overzicht van de pagina’s op je website in een voor Google makkelijk leesbaar en crawlbaar format. Echter, over het algemeen wordt er eenmaal een XML sitemap aangemaakt en op de server gezet, maar websites zijn in beweging dus een statische XML sitemap is al snel achterhaald en bevat dus al snel onjuiste informatie. Zorg ervoor dat de server iedere dag een XML sitemap update uitvoert door middel van een cronjob. Daarnaast is het verstandig de XML sitemap met enige regelmaat opnieuw te uploaden in Google Webmaster Central zodat je Google telkens input geeft over de structuur van je website.

Een tweede XML sitemap punt is het gebruik van meerdere XML sitemaps. Stel je hebt een grote website met zeer veel aanbod van categorieën en producten. Dan is het voor Google makkelijker wanneer er bijvoorbeeld acht separate XML sitemaps zijn dan één hele grote. Je kunt deze XML sitemaps ook telkens opnieuw uploaden om het de crawler van Google zo makkelijk mogelijk te maken.

De samenvatting en de nuance in één:

Zorg ervoor dat je het Google zo makkelijk mogelijk maakt door het gebruik van een duidelijke navigatiestructuur, een consistente en enkelvoudige URL opbouw, een schone server, een geclusterd aanbod URL’s. En dat je hierbij gebruik maakt van tools om Google extra tegemoet te komen in hun zoektocht naar de best crawlbare website, zodat de waarde snel bepaald kan worden.

Uiteraard is er een belangrijke nuance op veel punten in mijn verhaal.

  1. Je gaat niet per definitie hoog ranken als je deze zaken doorvoert, het helpt Google beter zijn weg te vinden en gemakkelijker te analyseren en te waarderen. Het is altijd een combinatie van factoren. Als je geen moeite doet voor sterke content en populariteit (links en citations) dan kun je nog zo een overzichtelijke code, gestructureerde backend en duidelijke navigatie hebben. Je kunt lang wachten op je bezoek vanuit Google.
  2. Je krijgt geen penalty als dit alles niet goed staat, je wordt er niet voor gestraft.
  3. Google is niet de enige grote partij, kijk naar het uitgebreide developer Network van Yahoo en Opera. En Facebook die zelfs een geoptimaliseerde versie van PHP heeft ontwikkeld. Mijn punt is dat Google de grootste is als het op traffic aankomt.

Discussie- Geen reacties

Blijf op de hoogte van handige kennis en het laatste nieuws van je favoriete online marketing bureau:

INSCHRIJVEN VOOR ONZE NIEUWSBRIEF