Google sitemaps, leuk, maar niet voor nieuwe sites

xml.pngTegenwoordig is het helemaal hot om een Google Sitemap te hebben. Eigenlijk is het niets eens meer alleen voor Google aangezien er een standaard is ontwikkeld die voor alle zoekmachines zou moeten gelden. Beter is het om te spreken van bijvoorbeeld XML Searchengine Sitemaps. Daarnaast is het ook zo dat Google Sitemaps na een naamsvernieuwing Google Webmaster Tools heet en het dus Google Webmaster Tools Sitemaps zouden zijn.

Wat kan het dan?
Met een XML Sitemap kun je aan de zoekmachines vertellen welke pagina's (URL's) je site bevat. Daaraan kun je dan weer aan aantal kenmerken hangen als vernieuwingsfrequentie, prioriteit en datum laatste aanpassing. De zoekmachines kunnen dan aan de hand hiervan alle URL's langslopen en indexeren, ook kunnen ze belangrijke URL's vaker bezoeken voor nieuw informatie.

Werkt het echt?
Google beweert dat ze de Sitemap prioriteit geven bij het spideren, dus wanneer je er een voor je site hebt ingestuurd zul je sneller geïndexeerd worden. Alleen betwijfel ik of je dat wel op deze manier wil:

  • Als ik de vernieuwingsfrequentie op 'dagelijks' zet, komt hij dan ook elke dag langs?
  • Als ik de prioriteit heel hoog zet, wordt daar dan rekening mee gehouden in de interne Pagerank verdeling?
  • Als er pagina's niet in de Sitemap staan, worden ze dan niet gespiderd?
  • Als ik de datum laatste aanpassing heel ver weg zet, wordt de pagina dan als oud en belangrijk gezien?

Dit zijn enkele punten waar ik mijn 'twijfels' over heb. Natuurlijk gebruikt Google deze Sitemap niet alleen, maar tezamen met de echte indexatie. Je kunt als webbeheerder dus zelf 'hints' geven over de aard van bepaalde pagina's. Maar in mijn ogen is het overbodig aangezien een goed opgezette site met een goede linkstructuur prima gespiderd kan worden. Ook ziet Google zelf wel welke pagina's veel en welke pagina weinig gewijzigd worden. Desalniettemin ben ik niet tegen het idee, en voor bestaande sites zou het een prima aanvulling kunnen zijn, maar pas op bij nieuwe sites.

Waarom niet bij nieuwe sites?
Een nieuwe site is in eerste instantie volledig onbekend bij Google, het heeft nog helemaal geen populariteit. Wanneer je bij het lanceren hiervan een XML Sitemap zou gebruiken kan Google ineens alle 1000 (bijvoorbeeld) pagina's indexeren. En daar ontstaat het probleem:

  • Het onderlinge verband tussen de pagina's is niet duidelijk.
  • De plaats van de pagina's in de gehele structuur is niet inzichtelijk.
  • Geen enkele pagina heeft nog inkomende links.

Vooral het laatste punt is belangrijk aangezien je hiermee de hele nieuwe site zo in de supplemental index van Google kunt plaatsen. De belangrijkste factor hierin is dat er te weinig inkomende links zijn voor het aantal pagina's dat de site heeft. Daarnaast staat er van het ene op het andere moment een heleboel content online, er is geen sprake van een natuurlijke groei, dit kan veroorzaken dat Google de site tijdelijk in de Sandbox houdt.

Een goede manier is wanneer in eerste instantie alleen de homepage en onderliggend niveau geïndexeerd wordt. Daar kunnen vervolgens inkomende links voor komen waarna het volgende niveau geïndexeerd wordt. Zo wordt stap voor stap de site in de index opgenomen en zal het aantal inkomende links meegroeien. Wanneer er te weinig inkomende links komen is de site nog niet belangrijk genoeg en zal Google wat langer wachten met het opnemen van een dieper niveau. Op deze manier komen de pagina's dus pas in de index waneer Google ze ook belangrijk of interessant vind en zul je dus nooit in de Supplemental index komen. Ook weet je direct of je structuur dusdanig goed is opgezet dat zoekmachines er prima hun weg in kunnen vinden.

Conclusie
Het is een mooi product dat wellicht best een toegevoegde waarde zou kunnen hebben. Maar op dit moment is het niets meer dan dat. Iemand ervaringen hiermee?

Click to activate social bookmarks