Jump to content
TwaBla
Verberg

Verzameltopic Zoekmachine-optimalisatie (SEO)

vraag

Leuke column in Communicatienieuws van Wiseguys-directeur Toine Verheul

 

De kwakzalvers van het internet

 

De laatste jaren hebben we de opkomst van een nieuwe bedrijfstak kunnen gadeslaan, die van de zogenaamde seach engine optimizers. In gewoon Nederlands: zoekmachineoptimalisators. <...> Wat deze bedrijfjes je meestal beloven is een toppositie van jouw website in de grote zoekmachines. Dat is een rare belofte. Zoekmachines doen hun best om min of meer objectieve resultaten terug te geven. Wanneer je website niet hoog scoort dan kan dat twee dingen betekenen: ofwel je hebt je website zo gemaakt dat de zoekmachine er geen raad mee weet, ofwel je hebt een website die door de zoekmachine minder belangrijk wordt gevonden dan andere websites. Aan dat eerste valt wat te doen. Iedere webmaster weet hoe dit moet: maak nette links, vermijd gebruik van JavaScript en Flash voor de navigatie, vul je metatags netjes in, gebruik robots.txt om webcrawlers te instrueren, en zorg dat je site gelinkt wordt op gerespecteerde sites. Als je na deze voorzorgsmaatregelen nog steeds laag scoort zou ik zeggen: pech gehad. Zorg maar dat je site leuker of beter wordt. Voor zoekmachineoptimalisators is dit echter een reden om hun trucendoos open te trekken. <...> Vrijwel iedere grote zoekmachine bestraft misbruik van haar dienst met een extra lage positie. Als je na optimalisatie van je website op nummer 1 staat, is de kans groot dat je na een maand onderaan de lijst bungelt. <...> Ander voorbeeld: Wehkamp. Deze website is zo goed geoptimaliseerd dat zelfs zoeken op "wehkamp" niet het gewenste resultaat bovenaan krijgt. Blijkbaar weet men dit bij Wehkamp ook, want men heeft ten einde raad maar besloten een advertentie te kopen waarin het juiste adres getoond wordt. Een duur grapje en een typisch voorbeeld van het lid op de neus. <...> Misschien genieten zoekmachineoptimalisators hun status wel door het gebrek aan geïnformeerde tegenstemmen. Zoekmachinefabrikanten doen van nature erg geheimzinnig over de werking van hun software. Dit schept ruimte voor mensen die van niks weten maar wel bereid zijn hun mond open te doen. <...> Zoekmachineoptimalisators zijn kwakzalvers in een land waar de geneesheren zwijgen. Zo beschouwd ligt er nog een interessante taak voor ons, als zoekmachinefabrikanten.


Gratis Marketingadvies
Op dit forum mag je in berichten geen reclame voor jezelf maken, maar in je signatuur (ga naar accountinstellingen via je profielnaam rechtsboven) kun je naar hartelust tekeer gaan. Mits het bij 4 regels blijft, drie backlinks en max 1000 tekens.

 

Extra Voordeel: heb je vaak gereageerd, dan geldt het multiplier effect. 

Link to post
Share on other sites

Recommended Posts

  • 0
  • Rate this answer

Kijk uit met de canonical tag! Mij is overkomen dat door een foutje hiermee tientallen pagina's van een website niet geïndexeerd werden en dat ik de betreffende urls ook na verbetering niet (nooit) meer geïndexeerd kreeg. Er zat toen niets anders op dan de pagina's een andere url te geven, maar dit was niet ideaal en leverde de nodige vertraging bij indexatie op.

Link to post
Share on other sites
  • 0
  • Rate this answer

Hallo,

 

Ik ben al zoekende naar een oplossing voor een SEO probleem op deze site terecht gekomen. Ik kon echter alleen hier ook niets vinden over mijn specifieke probleem. Het gaat om het volgende. Mijn webwinkel gebouwd in opencart is eind februari vernieuwd/geupgrade, d.w.z. nieuwe versie opencart van 1.4.9.1 naar 1.5.4.1, nieuw design en nieuwe indeling. Nou had ik wel verwacht dat er een dip zou zijn in vindbaarheid in google (aantal vertoningen is ongeveer 95% gezakt), vanwege de nieuwe indeling/navigatie, maar dat duurt nu al 2 maanden, dus ik begin te vermoeden dat er iets goed mis is. Ik heb echter geen flauw idee meer waar het in kan zitten. Is er hier misschien iemand die er verstand van heeft/tips kan geven waar het in kan zitten (of kan zeggen: dat is normaal)?

 

Ik las in de laatste post hier iets over 'canonical tags' die zitten ook standaard in opencart, maar naar mijn weten werkt dat gewoon.

 

Alvast bedankt.

Link to post
Share on other sites
  • 0
  • Rate this answer

Ja, maar ik haal er weinig zinnigs uit, er zijn wel wat dubbele titels/content issue's (op categorie pagina's) maar die waren er ook al voor de upgrade.

Link to post
Share on other sites
  • 0
  • Rate this answer

Hallo,

 

Ik ben al zoekende naar een oplossing voor een SEO probleem op deze site terecht gekomen. Ik kon echter alleen hier ook niets vinden over mijn specifieke probleem. Het gaat om het volgende. Mijn webwinkel gebouwd in opencart is eind februari vernieuwd/geupgrade, d.w.z. nieuwe versie opencart van 1.4.9.1 naar 1.5.4.1, nieuw design en nieuwe indeling. Nou had ik wel verwacht dat er een dip zou zijn in vindbaarheid in google (aantal vertoningen is ongeveer 95% gezakt), vanwege de nieuwe indeling/navigatie, maar dat duurt nu al 2 maanden, dus ik begin te vermoeden dat er iets goed mis is. Ik heb echter geen flauw idee meer waar het in kan zitten. Is er hier misschien iemand die er verstand van heeft/tips kan geven waar het in kan zitten (of kan zeggen: dat is normaal)?

 

Ik las in de laatste post hier iets over 'canonical tags' die zitten ook standaard in opencart, maar naar mijn weten werkt dat gewoon.

 

Alvast bedankt.

 

Zo zonder url is het moeilijk kijken waar het probleem eventueel kan liggen. Het kan iets simpels zijn.

Link to post
Share on other sites
  • 0
  • Rate this answer

Kijk uit met de canonical tag! Mij is overkomen dat door een foutje hiermee tientallen pagina's van een website niet geïndexeerd werden en dat ik de betreffende urls ook na verbetering niet (nooit) meer geïndexeerd kreeg. Er zat toen niets anders op dan de pagina's een andere url te geven, maar dit was niet ideaal en leverde de nodige vertraging bij indexatie op.

Bij grote wijzigingen/problemen kan je daarna best een geupdate sitemap aan Google aanbieden. Mensen vergeten dat ze met een robot (Googlebot) te maken hebben, en die heeft hulp nodig. Een sitemap vertelt de Googlebot waar de pagina's zich bevinden.

Link to post
Share on other sites
  • 0
  • Rate this answer

In de webmaster tools kun je oa. zien of je indexatie veranderd is en hoe de ranking op je belangrijkste zoekwoorden is.

In analytics kun je zien wat de verandering in verkeer is en waar je bezoekers uit afkomstig zijn. Het kan zijn dat door de nieuwe structuur oude urls nu een 404-fout geven en de nieuwe urls nog onvoldoende geïndexeerd zijn.

Is het aantal bezoekers ook met 95% gedaald? Hoe was het afgelopen maand april in vergelijking met april 2012? Wie staan er nu boven je in de zoekresultaten? Is dat anders dan voorheen?

 

Nb. Met die canonical tag kun je aangeven dat pagina's niet moeten worden opgenomen. Een sitemap zorgde in mijn geval helaas niet voor her-indexatie. Verwijzingen vanuit dezelfde of andere sites evenmin. Bij mij hielp uiteindelijk alleen het opnieuw aanbieden onder een andere URL.

Link to post
Share on other sites
  • 0
  • Rate this answer

Zo zonder url is het moeilijk kijken waar het probleem eventueel kan liggen. Het kan iets simpels zijn.

Oh helemaal vergeten: http://www.bubab.nl

Ik heb het snel nagekeken en zie het volgende al als een probleem:

- teksten zijn niet uniek, maar gekopieerd van een andere site (of omgekeerd). Dit noemt men 'duplicate content'.

- sommige urls hebben terugkerende zoekwoorden. vb http://www.bubab.nl/retro-baby-slofjes/retro-baby-slofjes-pip ... http://www.bubab.nl/retro-baby-slofjes/retro-baby-slofjes-marieke ...

- en mogelijk andere zaken.

 

Maar ik zou vooral kijken naar die 'duplicate content'. Daar is Matt Cutts, hoofd van Google’s Webspam team, heel streng voor.

 

De Googlebot kijkt ook naar het aantal keren dat een fout voorkomt. Hoe groter de website, hoe groter het risico.

 

Link to post
Share on other sites
  • 0
  • Rate this answer

In de webmaster tools kun je oa. zien of je indexatie veranderd is en hoe de ranking op je belangrijkste zoekwoorden is.

In analytics kun je zien wat de verandering in verkeer is en waar je bezoekers uit afkomstig zijn. Het kan zijn dat door de nieuwe structuur oude urls nu een 404-fout geven en de nieuwe urls nog onvoldoende geïndexeerd zijn.

Is het aantal bezoekers ook met 95% gedaald? Hoe was het afgelopen maand april in vergelijking met april 2012? Wie staan er nu boven je in de zoekresultaten? Is dat anders dan voorheen?

 

Nb. Met die canonical tag kun je aangeven dat pagina's niet moeten worden opgenomen. Een sitemap zorgde in mijn geval helaas niet voor her-indexatie. Verwijzingen vanuit dezelfde of andere sites evenmin. Bij mij hielp uiteindelijk alleen het opnieuw aanbieden onder een andere URL.

Een andere domeinnaam is een veelgebruikte oplossing, maar niet vanzelfsprekend als het om je bedrijfssite gaat. Je moet in geval van een andere domeinnaam altijd eerst zorgen dat de oude niet meer in Google voorkomt.

 

Als Shark zijn huidige domeinnaam verkiest, dan heb ik de volgende tips voor hem:

1. volledige website check

2. Alle fouten wegwerken

3. oude sitemap uit Google verwijderen en een nieuwe uploaden

4. voor meer backlinks zorgen

 

 

Link to post
Share on other sites
  • 0
  • Rate this answer

Ik heb het snel nagekeken en zie het volgende al als een probleem:

- teksten zijn niet uniek, maar gekopieerd van een andere site (of omgekeerd). Dit noemt men 'duplicate content'.

- sommige urls hebben terugkerende zoekwoorden. vb http://www.bubab.nl/retro-baby-slofjes/retro-baby-slofjes-pip ... http://www.bubab.nl/retro-baby-slofjes/retro-baby-slofjes-marieke ...

- en mogelijk andere zaken.

 

Maar ik zou vooral kijken naar die 'duplicate content'. Daar is Matt Cutts, hoofd van Google’s Webspam team, heel streng voor.

 

De Googlebot kijkt ook naar het aantal keren dat een fout voorkomt. Hoe groter de website, hoe groter het risico.

Bedankt voor de moeite nemen om even te kijken.

Ik was niet bewust dat teksten niet uniek zijn, tenminste niet dat ze op andere sites ook voorkomen (in de site zelf staan wel gedeeltelijk dezelfde teksten bij producten onder dezelfde categorie). Ze zijn wel zelf geschreven en niet (veel) anders dan voor de upgrade. Hoe ben je er achter gekomen dat ze niet uniek zijn (als ik op producttekst zoek krijg ik alleen resultaten van mijn eigen site)?

 

Door te kijken naar de links ben ik achter iets anders gekomen: in de sitemap staat als url: http://www.bubab.nl/retro-baby-slofjes-marieke, maar in de canonical staat de categorie er nog tussen (dus: http://www.bubab.nl/retro-baby-slofjes/retro-baby-slofjes-marieke. Kan dat een probleem ook zijn? Enig idee wat voor de dubbele zoekwoorden de beste oplossing is ('marieke' is niet uniek, dus dan werkt de link ook niet).

 

Link to post
Share on other sites
  • 0
  • Rate this answer

In de webmaster tools kun je oa. zien of je indexatie veranderd is en hoe de ranking op je belangrijkste zoekwoorden is.

In analytics kun je zien wat de verandering in verkeer is en waar je bezoekers uit afkomstig zijn. Het kan zijn dat door de nieuwe structuur oude urls nu een 404-fout geven en de nieuwe urls nog onvoldoende geïndexeerd zijn.

Is het aantal bezoekers ook met 95% gedaald? Hoe was het afgelopen maand april in vergelijking met april 2012? Wie staan er nu boven je in de zoekresultaten? Is dat anders dan voorheen?

 

Nb. Met die canonical tag kun je aangeven dat pagina's niet moeten worden opgenomen. Een sitemap zorgde in mijn geval helaas niet voor her-indexatie. Verwijzingen vanuit dezelfde of andere sites evenmin. Bij mij hielp uiteindelijk alleen het opnieuw aanbieden onder een andere URL.

Het aantal bezoekers is ook erg gedaald, terwijl de feedback op het design/UI erg positief was.

Ik had zo'n 2000 404 fouten nadat de site vernieuwd was. Ik had wel verwacht dat vanwege de structuur een groot gedeelte niet meer klopt. Dat het er zoveel zijn snap ik eigelijk nog niet; zoveel pagina's zijn er niet eens. Wel is het zo dat (bijna) ieder product uniek is, dus als het verkocht is gaat ie weg (dus cumulatief zou het kunnen).

 

"Nb. Met die canonical tag kun je aangeven dat pagina's niet moeten worden opgenomen." Ik dacht juist dat die canonical aangeeft welke wel opgenomen moet worden?

Link to post
Share on other sites
  • 0
  • Rate this answer

Wat misschien nog van belang is: sinds de upgrade staan deze woorden op de top drie van contentzoekwoorden (webmaster tools)

1.    verlanglijst    

2.    bestel    

3.    vergelijk    

Dat komt natuurlijk het meest voor op de site omdat ieder product dat heeft. Ik weet verder niet of dat schadelijk is.

Het enige wat ik verder nog uit webmaster tools kan halen is dat er nogal wat dubbele beschrijvingen in meta tags en title tags zijn. Maar als je die nader bekijkt zijn het vaak ook dezelfde pagina's met verschillende urls of in geval van opdeling dezelfde soort pagina met '?page=2' etc erachter.

Ik moet zeggen dat ik voor de upgrade niet zo vaak met webmaster tools bezig was. Ik vind het dus moeilijk om terug te vinden wat er nou essentieel anders is dat voor de upgrade.

Link to post
Share on other sites
  • 0
  • Rate this answer

Je moet in geval van een andere domeinnaam altijd eerst zorgen dat de oude niet meer in Google voorkomt.

En hoe zit dat met backlinks, moeten die dan ook allemaal om? Kun je niet de bedrijfsite url behouden en een 301 erop zetten?

Lijkt me dat je dan zo'n beetje opnieuw moet beginnen om alles weer op te bouwen of zie ik dat verkeerd?

Link to post
Share on other sites
  • 0
  • Rate this answer

Bij de eerste checks krijg ik dus geen resultaten, en op product level wel resultaten maar die gaan naar sites waar producten van mijzelf staan. Mag dat laatste dan ook niet??? Of moet ik meer kijken naar pagina's zoals 'algemene voorwaarden' enzo (die zijn niet echt zelf geschreven, maar die hebben dan weer een rel="nofollow")

Link to post
Share on other sites
  • 0
  • Rate this answer

Die 404-fouten helpen niet. Beter is te zorgen dat de oude URL's gewoon nog werken, of met een 301 verwijzen naar de nieuwe locatie. In webmaster tools staan de 404-fouten niet voor niets onder het kopje "gezondheid". Beste is dus om daar het aantal fouten zo laag mogelijk te hebben, en het aantal geïndexeerde (unieke) pagina's zo hoog mogelijk (dwz. bij voorkeur zonder duplicaten). Een klant van mij heeft ooit z'n website opgeschoond, waardoor vele geïndexeerde pagina's niet meer gevonden werden en het gevolg was een enorme daling van bezoekers. Na herstel van de verwijderde pagina's ging het langzaam weer beter, maar ook nu maanden later is het nog niet hetzelfde.

 

"Nb. Met die canonical tag kun je aangeven dat pagina's niet moeten worden opgenomen." Ik dacht juist dat die canonical aangeeft welke wel opgenomen moet worden?

Dat ligt aan je perspectief. Je geeft met die tag aan dat de gebruikte pagina-url niet geindexeerd moet worden en dat in plaats daarvan de in de canonical-tag genoemde url gebruikt moet worden. In mijn ervaring is het vooral effectief om ongewenste urls definitief en vrijwel onherstelbaar uit google te verwijderen.

 

Bij mij zat er een fout in het gebruik van de tag waardoor meerdere geldige pagina's allemaal dezelfde canonical tag hadden. Balen dus en bijna onherstelbaar. Ook een jaar na dato zijn ondanks vermelding in sitemap en links zowel binnen als buiten de website, de meeste betreffende urls nog niet geïndexeerd, wellicht omdat ondertussen wel een alternatieve url met dezelfde inhoud opgenomen zijn.

 

Zijn die tags met rubriek erin wel werkend en worden ze binnen je site ook als link gebruikt? De links in de sitemap hebben alleen zin als ze ook binnen je website functioneren en er bij voorkeur ook naar verwezen wordt. Wat geeft webmaster tools aan mbt. je sitemap? Zijn alle urls in je sitemap geïndexeerd?

Link to post
Share on other sites
  • 0
  • Rate this answer

Die 404-fouten helpen niet. Beter is te zorgen dat de oude URL's gewoon nog werken, of met een 301 verwijzen naar de nieuwe locatie.

Hoe doe je dat dan? Eerst waren er 3 hoofdcategorieën (mama, baby, kids) met daaronder de subcategorieën. Dat klopt nu natuurlijk helemaal niet meer en die indeling wil ik ook niet meer. Ik heb daarom die categorieën onder 'Degradaties' gezet in webmastertools. Is dat dan misschien de fout?

Link to post
Share on other sites
  • 0
  • Rate this answer
Hoe doe je dat dan?
Vraag dat eens aan je webontwikkelaar. Je kan het wellicht doen middels .htaccess, maar eea. hangt af van hoe je website in elkaar zit.

 

Degradaties kwam ik tegen in Webmaster Tools onder het kopje Sitelinks. Volgens de omschrijving gebruik je die als je niet wilt dat een pagina wordt weergegeven als sitelink. Lijkt mij niet het allerbelangrijkste als het gaat om je ranking, maar niet meer bestaande urls kun je daarmee in ieder geval uit de sitelinks halen.

 

Ik denk dat het belangrijk is om bij overgang naar een nieuwe indeling ook te zorgen voor migratie van je oude URL's. Zomaar pagina's verwijderen kan voor ongewenste complicaties zorgen. Wellicht dat alles na verloop van tijd vanzelf wel weer goed komt, maar mijn aanbeveling zou zijn om de migratie zelf in de hand te houden en soepel te laten verlopen. In mijn optiek moet je oude urls daarom gewoon blijven ondersteunen of met 301's doorverwijzen. Vervolgens zal Google na verloop van tijd je nieuwe structuur wel oppakken. Met een sitemap kun je dit stimuleren. Het helpt ook als je alle externe links naar jouw site laat aanpassen aan de nieuwe struktuur.

Link to post
Share on other sites
  • 0
  • Rate this answer

Vraag dat eens aan je webontwikkelaar.

Dat ben ik zelf, helaas ben ik verder niet zo handig met server technieken. Ik ga me er dus maar 's in verdiepen. htaccess lijkt me inderdaad dan de way to go. Ik moet alleen een algoritme zien te verzinnen die klopt; per product is niet te doen.

Vervolgens zal Google na verloop van tijd je nieuwe structuur wel oppakken.

Ik had gedacht dat dat niet 2 maanden zou duren, maar misschien was dat een vergissing.

 

Bedankt voor de tips!

Link to post
Share on other sites
  • 0
  • Rate this answer

- teksten zijn niet uniek, maar gekopieerd van een andere site (of omgekeerd). Dit noemt men 'duplicate content'.

Ik ben er een paar tegengekomen waarbij mijn teksten gekopieerd zijn door iemand anders >:( Vraagje: ziet google dat ik er eerder mee was?

Link to post
Share on other sites
  • 0
  • Rate this answer

- teksten zijn niet uniek, maar gekopieerd van een andere site (of omgekeerd). Dit noemt men 'duplicate content'.

Ik ben er een paar tegengekomen waarbij mijn teksten gekopieerd zijn door iemand anders >:( Vraagje: ziet google dat ik er eerder mee was?

 

De pagina die het eerst geïndexeerd is is volgens de Googlebot de orginele. Maar ik heb ook wel meegemaakt dat er na een update van het algoritme dit niet zo nauw toegepast wordt. Pas een maand later wordt dit weer gefikst in een volgende update. Maar je mag stellen dat Google dit belangrijk vindt en er alles aan doet om de copycats te straffen.

Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now


  • Bring your business plan to a higher level!

    All topics related to entrepreneurship are discussed on this forum.

    • Ask your entrepreneur questions
    • Answers / solutions from fellow entrepreneurs
    • > 65,000 registered members
    • > 100,000 visitors per month
    •  Available 24/7 / within <6 hours of response
    •  Always free

  • Who's Online

    Er zijn 6 leden online en 122 gasten

    (See full list)    
  • Also interesting:

  • Ondernemersplein



EN

×

Cookies on HigherLevel.nl

Cookies are necessary for Higherlevel.nl to function properly. By using HigherLevel.nl you declare to have read and accepted our terms and conditions.

 More information   I accept