Volgens mij is dit een hele moeilijke, nogal specialistische, vraag:
In principe wil ik (wie niet, zou je bijna zeggen!) dat Google zo veel mogelijk van de (dynamische) pagina’s van een website indexeert.
Er zijn een kleine 40 duizend (courante) records in de database. Op dit moment worden er ’slechts’ zo’n 6 duizend via de website getoond, want de andere 34 duizend bevatten niet alle benodigde (zoek)gegevens die gebruikt kunnen worden op de site. Die worden dus ‘overgeslagen’ bij het selecteren van de output.
Maar toch zijn dat (de 'andere 34 duizend' dus) op zich ook prima gegevens, die dan ook wel “een indexering” niet zouden 'misstaan' eigenlijk.
Dan is de vraag wat handig is om te doen met:
A.) De sitemap.
- Ik kan kiezen om alleen de 6 duizend die via de website (de interface dus) gevonden kunnen worden te 'submitten' richting het 'crawl-gebeuren' in Google.
- Of de 40 duizend te 'submitten'.
(Dat gebeurt door een query in de sitemap.php overigens: alles, of een bepaald gedeelte, dus).
B.) De website zelf.
Daarnaast is de vraag of het misschien toch handig is om via een soort ‘overzicht’ (dus niet via de zoekcriteria op de website!) alle 40 duizend records ‘crawlable’ te laten worden door via een link alles te tonen (wanneer daar op geklikt wordt).
Op dit moment zijn er een kleine 5 duizend pagina’s geïndexeerd. In potentie zou er een veelvoud hiervan mogelijk moeten zijn (door de verschillende zoekcriteria die resulteren in verschillende dynamische pagina’s) mits Google dat ‘zou willen’.
Iemand met een (verstandige) mening hierover?
Zelf heb ik niet (dat was toch wel intussen ook duidelijk…!) heel veel verstand van het crawlen en indexeren door Google, hoewel ik wel gemerkt heb dat het nogal cruciaal is.
Zie jij kansen voor je onderneming/bedrijf in het buitenland? Met RVO onderneem je verder.
Kijk wat onze kennis, contacten en financiële mogelijkheden voor jou kunnen betekenen.
We hebben cookies geplaatst op je toestel om deze website voor jou beter te kunnen maken. Je kunt de cookie instellingen aanpassen, anders gaan we er van uit dat het goed is om verder te gaan.
4711
4711
Volgens mij is dit een hele moeilijke, nogal specialistische, vraag:
In principe wil ik (wie niet, zou je bijna zeggen!) dat Google zo veel mogelijk van de (dynamische) pagina’s van een website indexeert.
Er zijn een kleine 40 duizend (courante) records in de database. Op dit moment worden er ’slechts’ zo’n 6 duizend via de website getoond, want de andere 34 duizend bevatten niet alle benodigde (zoek)gegevens die gebruikt kunnen worden op de site. Die worden dus ‘overgeslagen’ bij het selecteren van de output.
Maar toch zijn dat (de 'andere 34 duizend' dus) op zich ook prima gegevens, die dan ook wel “een indexering” niet zouden 'misstaan' eigenlijk.
Dan is de vraag wat handig is om te doen met:
A.) De sitemap.
- Ik kan kiezen om alleen de 6 duizend die via de website (de interface dus) gevonden kunnen worden te 'submitten' richting het 'crawl-gebeuren' in Google.
- Of de 40 duizend te 'submitten'.
(Dat gebeurt door een query in de sitemap.php overigens: alles, of een bepaald gedeelte, dus).
B.) De website zelf.
Daarnaast is de vraag of het misschien toch handig is om via een soort ‘overzicht’ (dus niet via de zoekcriteria op de website!) alle 40 duizend records ‘crawlable’ te laten worden door via een link alles te tonen (wanneer daar op geklikt wordt).
Op dit moment zijn er een kleine 5 duizend pagina’s geïndexeerd. In potentie zou er een veelvoud hiervan mogelijk moeten zijn (door de verschillende zoekcriteria die resulteren in verschillende dynamische pagina’s) mits Google dat ‘zou willen’.
Iemand met een (verstandige) mening hierover?
Zelf heb ik niet (dat was toch wel intussen ook duidelijk…!) heel veel verstand van het crawlen en indexeren door Google, hoewel ik wel gemerkt heb dat het nogal cruciaal is.
vakantiereizen
Link naar reactie
https://www.higherlevel.nl/forums/topic/56502-vraag-voor-specialisten-over-%E2%80%9Cgoogle-en-zo%E2%80%9D%E2%80%A6/Delen op andere sites
Aanbevolen berichten
18 antwoorden op deze vraag