Google sitemaps, leuk, maar niet voor nieuwe sites

xml.pngTegenwoordig is het helemaal hot om een Google Sitemap te hebben. Eigenlijk is het niets eens meer alleen voor Google aangezien er een standaard is ontwikkeld die voor alle zoekmachines zou moeten gelden. Beter is het om te spreken van bijvoorbeeld XML Searchengine Sitemaps. Daarnaast is het ook zo dat Google Sitemaps na een naamsvernieuwing Google Webmaster Tools heet en het dus Google Webmaster Tools Sitemaps zouden zijn.

Wat kan het dan?
Met een XML Sitemap kun je aan de zoekmachines vertellen welke pagina's (URL's) je site bevat. Daaraan kun je dan weer aan aantal kenmerken hangen als vernieuwingsfrequentie, prioriteit en datum laatste aanpassing. De zoekmachines kunnen dan aan de hand hiervan alle URL's langslopen en indexeren, ook kunnen ze belangrijke URL's vaker bezoeken voor nieuw informatie.

Werkt het echt?
Google beweert dat ze de Sitemap prioriteit geven bij het spideren, dus wanneer je er een voor je site hebt ingestuurd zul je sneller geïndexeerd worden. Alleen betwijfel ik of je dat wel op deze manier wil:

  • Als ik de vernieuwingsfrequentie op 'dagelijks' zet, komt hij dan ook elke dag langs?
  • Als ik de prioriteit heel hoog zet, wordt daar dan rekening mee gehouden in de interne Pagerank verdeling?
  • Als er pagina's niet in de Sitemap staan, worden ze dan niet gespiderd?
  • Als ik de datum laatste aanpassing heel ver weg zet, wordt de pagina dan als oud en belangrijk gezien?

Dit zijn enkele punten waar ik mijn 'twijfels' over heb. Natuurlijk gebruikt Google deze Sitemap niet alleen, maar tezamen met de echte indexatie. Je kunt als webbeheerder dus zelf 'hints' geven over de aard van bepaalde pagina's. Maar in mijn ogen is het overbodig aangezien een goed opgezette site met een goede linkstructuur prima gespiderd kan worden. Ook ziet Google zelf wel welke pagina's veel en welke pagina weinig gewijzigd worden. Desalniettemin ben ik niet tegen het idee, en voor bestaande sites zou het een prima aanvulling kunnen zijn, maar pas op bij nieuwe sites.

Waarom niet bij nieuwe sites?
Een nieuwe site is in eerste instantie volledig onbekend bij Google, het heeft nog helemaal geen populariteit. Wanneer je bij het lanceren hiervan een XML Sitemap zou gebruiken kan Google ineens alle 1000 (bijvoorbeeld) pagina's indexeren. En daar ontstaat het probleem:

  • Het onderlinge verband tussen de pagina's is niet duidelijk.
  • De plaats van de pagina's in de gehele structuur is niet inzichtelijk.
  • Geen enkele pagina heeft nog inkomende links.

Vooral het laatste punt is belangrijk aangezien je hiermee de hele nieuwe site zo in de supplemental index van Google kunt plaatsen. De belangrijkste factor hierin is dat er te weinig inkomende links zijn voor het aantal pagina's dat de site heeft. Daarnaast staat er van het ene op het andere moment een heleboel content online, er is geen sprake van een natuurlijke groei, dit kan veroorzaken dat Google de site tijdelijk in de Sandbox houdt.

Een goede manier is wanneer in eerste instantie alleen de homepage en onderliggend niveau geïndexeerd wordt. Daar kunnen vervolgens inkomende links voor komen waarna het volgende niveau geïndexeerd wordt. Zo wordt stap voor stap de site in de index opgenomen en zal het aantal inkomende links meegroeien. Wanneer er te weinig inkomende links komen is de site nog niet belangrijk genoeg en zal Google wat langer wachten met het opnemen van een dieper niveau. Op deze manier komen de pagina's dus pas in de index waneer Google ze ook belangrijk of interessant vind en zul je dus nooit in de Supplemental index komen. Ook weet je direct of je structuur dusdanig goed is opgezet dat zoekmachines er prima hun weg in kunnen vinden.

Conclusie
Het is een mooi product dat wellicht best een toegevoegde waarde zou kunnen hebben. Maar op dit moment is het niets meer dan dat. Iemand ervaringen hiermee?

Click to activate social bookmarks

 
  • Google Webmaster tools vind ik geweldig. Het toont inbound links, scorende zoektermen, indexatieproblemen, penalties en nog veel meer. Een sitemaps xml heeft echter meer nadelen dan voordelen.

    Als je linkstructuur niet in orde is en bepaalde pagina's niet geindexeerd worden, helpt een sitemap ook niet om deze te laten scoren. Geindexeerd zijn is iets anders dan scoren in Google. Wanneer een pagina alleen door sitemaps is geindexeerd, kom je er niet achter dat je navigatie niet deugt. Zonder sitemaps kun je controleren of de verdeling van je linkpunten wel goed is.

    Ik ben het dus geheel met André eens!

  • Nico

    Jammer dat je zo negatief bent over google sitemaps. Zelf heb ik alleen maar goede ervaringen met google sitemaps. Pagina's komen sneller naar voren, worden beter gevonden en een heel groot deel van mijn website is gestegen met 1 pagerank.

    Ik heb dan ook geen enkel negatief woord over sitemaps te zeggen. Een aantal van je vragen worden trouwens beantwoord op de help pagina's van google zelf.

  • Ik ben ook niet negatief over de tool zelf, alleen maar over de XML sitemap functionaliteit.

    En de zaken die je in je eerste alinea noemt hebben niets met de XML sitemap te maken aangezien Google zelf zegt er qua positionering totaal geen rekening mee te houden. Dat je site gestegen is in pagerank staat daar dus los van.

  • Bij mij zie ik ook een snellere indexering, en door op een relatief snelle wijze goede linkbuilding toe te passen heb ik er zeker wel positief effect bij gehad.

  • Waarop baseer je je bewering dat Google je gehele index in de supplemental results gooit op het moment dat je nog geen inkomende links hebt voor die pagina's? Heb je daar bewijs voor?

  • @Tinus: dat wordt op diverse fora zoals WMW (Webmasterworld) en blogs zoals SEO Book en Search Engine Watch al tijden als 1 van de belangrijkste redenen genoemd 😉

  • Wat mij betreft is een google sitemap een lomp instrument dat een website in een ideaal geval niet nodig zou moeten hebben. Voor sommige sites kan het een uitkomst zijn, maar voor sites die goed gebouwd zijn is het simpelweg niet nodig, lijkt me.

  • Hmm, kan ik mijn comment hierover wijzigen, mijn mening is inmiddels wat genuanceerder geworden 😉

  • Vertel, wat zijn je positieve bevindingen?

  • Ik beschouw een XML-sitemap niet meer als een lomp instrument, zoas ik hierboven zei. Sterker nog, voor sommige doeleinden kun je het heel goed, en heel precies, gebruiken. Overigens kan ik me wel nog steeds vinden in jouw belangrijkste kritiekpunt, dat een snelle 'gestuurde' crawling (en eventuele daarmee gepaard gaande indexatie) een duidelijk zicht op natuurlijke indexering vertroebelt.

  • kan vertroebelen 🙂

  • @André
    Supplemental results zijn niets om je druk over te maken:
    http://www.mattcutts.com/blog/google-hell/

  • Daar ben ik het niet mee eens, ook al zegt Matt Cutts dat er niets aan de hand is als je er in staat. Feit is dat je met de pagina's die er in staan slechter gevonden wordt dan wanneer je in de actuele index staat.

  • Ik doe met mijn online marketing-blog http://www.onlinemarketeer.tv een SEO-test. Door juiste URL-rewriting en juist gewicht heeft voor een top 10 notering gezorgd door organisisch indexatie. Deze zijn binnen 4-5 dagen na installatie WordPress gerealiseerd ZONDER sitemap. De sitemap is bewust weggelaten, ben ik ook geen voorstander van.

    De standaard SEO-/ GOOGLE-optimization plugins van WordPress kunnen trouwens ook botsten met handmatig en natuurlijke SEO-technieken.

    Wat ik merk is dat simpelweg de titel en het tweaken van gestructureerde tekst-onderdelen veel effect heeft. Dus goed spelen met die CSS-bestanden 🙂

    Grtz.
    Patrick Petersen

  • Gewoon een goede linkstructuur maken en organisch laten groeien. Ik heb gemerkt dat dit op langere termijn veel beter werkt. Google kan ook TEVEEL info van je krijgen: als een site met opeens 1000-10.000 pagina's opduikt op een domein van misschien nog geen week oud dan gaan de bellen waarschijnlijk snel rinkelen: Dan heb je knap rappe tekstschrijvers 🙂

  • Ik heb niet echt een gefundeerde mening over wel of geen sitemap, maar ik vroeg me zo af: stel je hebt een website en je bouwt een nieuwe... heeft het dan niet zin om een sitemap te maken (al dan niet dynamisch) van de nieuwe site zodat de oude pagina's niet meer ge- of doorzocht worden?

  • Op de oude adressen zet je een redirect naar de nieuwe adressen. Google zal dus sowieso na verloop van tijd de oude adressen wel uit de index halen 😉

  • Harry

    Mijn ervaring met sitemaps zijn prima.
    In een XML sitemap kun je de prioriteit aangeven in een schaal van 0.00 tot 1.00.
    Dit betekend dat je naar mijn idee wel degelijk iets met hiërarchie en structuur kunt doen.
    Wat een nieuwe website betreft, waarom zou die sneller dan je lief is geindexeerd zijn?

  • de beste sportwagens

    oke, ik heb gister sport-wagen.nl geupload, en aangemeld bij google en vanaf een bestaande website van mijzelf (tevinden.nl) een 'link geruild'. Is dit nu tegenstrijdig?

  • Davy

    indexeren als in indexeren voor organische zoekresultaten neem ik aan.

  • Nee, beide acties helpen je om de site te indexeren.

  • Klopt 🙂

  • @emiel: Ik ben het helemaal met André eens dat je de oude links naar de nieuwe moet forwarden, maar let op dat je dat op de juiste manier doet, dus met een http 301 serverside redirect.

    Javascript en meta redirects worden niet goed door Google geindexeerd.

  • Piet

    Ik zit eigenlijk met een probleem dat ik ook een nieuwe site heb waar 25.000 pagina's inzitten en wil die eigenlijk snel geïndexeerd hebben. weet iemand misschien een goede gratis tool om een xml sitemap aan te maken. Alvast bedankt!

  • @Piet: ik zou eens kijken naar Xenu Link Sleuth, die kan een lijst met alle beschikbare URL's opleveren 😉

  • Ik gebruik zelf Sitemap Generator van het Deense Microsys. Kost $59,- en is zeer compleet!
    Er is een 30 dagen demo te downloaden. Zie: http://www.microsystools.com/products/sitemap-generator/

  • Als je een gloednieuwe website hebt, met slechts enkele pagina's is het wel handig om een sitemap aan te melden.
    Je word dan meestal binnen een dag opgenomen.
    Een nieuwe website met een paar honderd pagina's lijkt me niet handig.