• 0

Vraag voor specialisten (over “Google en zo”…)

Volgens mij is dit een hele moeilijke, nogal specialistische, vraag:

 

 

In principe wil ik (wie niet, zou je bijna zeggen!) dat Google zo veel mogelijk van de (dynamische) pagina’s van een website indexeert.

 

Er zijn een kleine 40 duizend (courante) records in de database. Op dit moment worden er ’slechts’ zo’n 6 duizend via de website getoond, want de andere 34 duizend bevatten niet alle benodigde (zoek)gegevens die gebruikt kunnen worden op de site. Die worden dus ‘overgeslagen’ bij het selecteren van de output.

 

Maar toch zijn dat (de 'andere 34 duizend' dus) op zich ook prima gegevens, die dan ook wel “een indexering” niet zouden 'misstaan' eigenlijk.

 

 

Dan is de vraag wat handig is om te doen met:

 

A.) De sitemap.

 

- Ik kan kiezen om alleen de 6 duizend die via de website (de interface dus) gevonden kunnen worden te 'submitten' richting het 'crawl-gebeuren' in Google.

 

- Of de 40 duizend te 'submitten'.

 

(Dat gebeurt door een query in de sitemap.php overigens: alles, of een bepaald gedeelte, dus).

 

B.) De website zelf.

 

Daarnaast is de vraag of het misschien toch handig is om via een soort ‘overzicht’ (dus niet via de zoekcriteria op de website!) alle 40 duizend records ‘crawlable’ te laten worden door via een link alles te tonen (wanneer daar op geklikt wordt).

 

 

Op dit moment zijn er een kleine 5 duizend pagina’s geïndexeerd. In potentie zou er een veelvoud hiervan mogelijk moeten zijn (door de verschillende zoekcriteria die resulteren in verschillende dynamische pagina’s) mits Google dat ‘zou willen’.

 

 

Iemand met een (verstandige) mening hierover?

 

Zelf heb ik niet (dat was toch wel intussen ook duidelijk…!) heel veel verstand van het crawlen en indexeren door Google, hoewel ik wel gemerkt heb dat het nogal cruciaal is.

 

Link naar reactie

Aanbevolen berichten

18 antwoorden op deze vraag

  • 0

Het is altijd belangrijk om de crawl-fouten zelf (als site-beheerder) bij te houden voor je site:

via https://www.google.com/webmasters/tools/

 

Daar kun je ook de crawl-statistieken voor je site vinden.

 

Dan is de volgende vraag... loopt het aantal pagina's wel op?

 

Indien Google nog steeds nieuwe pagina's toevoegt aan de index voor je site heeft het opnieuw indienen van een eventuele sitemap geen zin. Het crawlen van deze hoeveelheid pagina's van één site is geen kwestie van een paar uur, dagen of zelfs weken. Ik denk dat dit een hele tijd kan duren.

 

Verder kan het inderdaad zijn dat Google de pagina's wel bezocht heeft maar niet index-waardig acht. Te weinig content of op elkaar lijken zijn inderdaad één van die redenen.

 

Link naar reactie
  • 0

Ze denken dat de pagina's al online staan... ;)

 

Ha PeterB,

 

Ik kom morgen terug met een reactie op jouw eerste bericht.

Ik moet er goed over nadenken, hoe ik het moet verwoorden (anders wordt het té vaag, te veel detail, enz...).

 

Het betreft inderdaad dynamische pagina's die gegenereerd worden op basis van de records in de database. Ik zou schatten (uit mijn duim) dat 1 record rond de 10 HTML-pagina's zou kunnen 'opleveren'.

 

Maar die "bestaan" natuurlijk niet als een xxx.html pagina op de site! Die worden gemaakt.

 

PeterE

 

Link naar reactie
  • 0

Hoe zijn de huidige 6.000 pagina's overigens "gevonden" door Google? Zijn dit allemaal direct links geweest?

 

Ik neem even aan dat alle pagina's een "nette" url hebben. En niet site.php?artikel=123&modus=1&nogietsdergelijks

Google kan dat soort URL's wel indexeren maar ze hebben volgens mij niet de voorkeur.

 

Verder kun je inderdaad een sitemap file laten genereren. Let op, dit is iets anders dan een sitemap pagina waarop je alle URL's zet. De resulterende XML (of compressed XML) kun je dan submitten en dan maar afwachten.

A sitemap file can't contain more than 50,000 URLs and must be no larger than 50 MB uncompressed.

Je kunt echter ook meerdere sitemaps aanmaken.

 

(Op https://www.google.com/webmasters/tools kun je ook die sitemap file alvast aanmelden)

 

Een sitemap is wel de gewezen methode om (op normale wijze) "onbereikbare" pagina's te laten indexeren.

 

Link naar reactie
  • 0

Hoe zijn de huidige 6.000 pagina's overigens "gevonden" door Google? Zijn dit allemaal direct links geweest?

 

Ik neem even aan dat alle pagina's een "nette" url hebben. En niet site.php?artikel=123&modus=1&nogietsdergelijks

 

Het zijn inderdaad hele "nette URL's".

 

En die heeft G. helemaal zelf (nadat de site aangemeld werd) geïndexeerd.

 

Link naar reactie
  • 0
Zijn allemaal verschillende producten door diverse aanbieders.

Bedankt voor je reactie.

 

Let wel, de huidige pagina's zijn te dun, je kan deze beter eerst wat verbeteren, dan pas nieuwe toevoegen. Het gaat niet om de aanbieders. Dit soort pagina's worden haast niet meer vertoond. Google heeft hier een hele rits aan "softwareupdates" voor in werking gesteld om dit uit te bannen. Voeg nog meer van dit soort simpele pagina's toe en je maakt het probleem onoplosbaar. Ik denk dat je beter helemaal opnieuw kan beginnen ;D.

 

Meer info toevoegen, ik zie nu haast niets staan. Lijkt mij een beter plan, dan op de oude voet verder, tegen de stroom in te zwemmen. Ooit had ik een site'je waarop ik teksten massaal verborgen hield (verstopte) voor Bing, ben daarna gewoon uit de zoekmachine geknikkerd en bericht gekregen dat het ik de tekstjes zichtbaarder moest maken. Ik ben er een heel jaar mee beziggeweest, op een gegeven moment was de lol er vanaf.

 

Snel geld bestaat nog altijd niet. Ik zag toentertijd ook dollartekens in mijn ogen, logisch als student zijnde. Maar die werden helaas vervangen door tranen. (van verdriet) Nooit meer!

 

Het betreft inderdaad dynamische pagina's die gegenereerd worden op basis van de records in de database. Ik zou schatten (uit mijn duim) dat 1 record rond de 10 HTML-pagina's zou kunnen 'opleveren'. Maar die "bestaan" natuurlijk niet als een xxx.html pagina op de site! Die worden gemaakt.

 

Handmatig maken: prima, automatisch maken, niet: https://support.google.com/webmasters/answer/2721306

 

Link naar reactie
  • 0

Snel geld bestaat nog altijd niet. Ik zag toentertijd ook dollartekens in mijn ogen, logisch als student zijnde. Maar die werden helaas vervangen door tranen. (van verdriet) Nooit meer!

 

Volgens mij zitten wij niet helemaal op dezelfde golflengte.

("student" "dollertekens" ...?)

 

Maar toch bedankt voor je reactie.

Link naar reactie
  • 0
Volgens mij zitten wij niet helemaal op dezelfde golflengte.

("student" "dollertekens" ...?) Maar toch bedankt voor je reactie.

 

Ik begrijp wel wat je bedoelt (skip mijn verhaal maar), maar zoekmachines zijn niet dol op dit soort pagina's omdat ze te weinig waarde bevatten. Helemaal als er geen handmatig werk meer wordt verricht. Het zou wat zijn als je op een rode knop kon drukken: "spuug nu 1000 pagina's uit" en daar een boek op leggen, zodat hij pagina's blijft genereren. Zo werkt het niet, dat probeer ik aan te geven. Als het zo makkelijk geweest zou zijn, was iedereen rijk gewoon.

 

Daarnaast weten we niet over welke website hij het heeft (en dat maakt ook niet veel uit), dus de site in zijn handtekening analyseren is misschien wat prematuur.

Klopt.

 

Link naar reactie
  • 0

Het gaat denk ik ook wel om de site uit de handtekening. Ik zie daar inderdaad 6.480 pagina's (op de site zelf via overzicht). Dus Google kan de overige 34.000 niet vinden.

 

Dit los je dan inderdaad via een sitemap op (omdat je zelf al aangeeft ze niet op te willen nemen in je overzicht). Zorg er wel voor dat de content van die pagina's goed is (want je gaf ook zelf al aan dat de benodigde (zoek)gegevens ontbreken).

 

(Tevens kwam ik een rare lege pagina tegen toen ik op een link in Google klikte, dus ook niet alle pagina's zijn in orde)

Link naar reactie
Gast
Dit topic is nu gesloten voor nieuwe reacties.
Hide Sidebar
  • Wil je onze Nieuwsflits ontvangen?
    Deze verzenden we elk kwartaal.

  • Wie is er online?
    11 leden, 225 Gasten

  • Breng jouw businessplan naar een higher level!

    Op dit forum worden alle onderwerpen m.b.t. ondernemerschap besproken.

    • Stel jouw ondernemersvragen
    • Antwoorden/oplossingen van collega ondernemers
    • > 75.000 geregistreerde leden
    • > 100.000 bezoekers per maand
    • 24/7 bereikbaar / binnen < 6 uur antwoord
    •  Altijd gratis

  • Ook interessant:

    Ook interessant:

×
×
  • Nieuwe aanmaken...

Cookies op HigherLevel.nl

We hebben cookies geplaatst op je toestel om deze website voor jou beter te kunnen maken. Je kunt de cookie instellingen aanpassen, anders gaan we er van uit dat het goed is om verder te gaan.