• 0

Google bestraft geoptimaliseerde sites

Goh, die zag vast niemand aankomen... ;)

 

Google gaat sterk SEO-gebruik door websites afstraffen. Sites die te veel zijn geoptimaliseerd voor doorzoekbaarheid komen lager in de zoekresultaten. Echte content moet prevaleren.

 

De zoekreus herziet zijn weging van sites en past de weergaven van zoekresultaten daarop aan. Sites die te veel aan SEO (search engine optimization) doen, worden daarvoor op de vingers getikt. Volgens Google vervuilen de 'overgeoptimaliseerde' sites de resultaten die Google-gebruikers krijgen voorgeschoteld.

 

Bron: Webwereld

Link naar reactie

Aanbevolen berichten

  • 0

Ik ben heel benieuwd hoe dit gaat uitpakken, ik denk dat vooral de startpagina's het moeten ontgelden. Iets wat al eerder op de nominatie stond om minder relevant te worden. Wie gebruikt er tegenwoordig dan ook nog een startpagina om iets te zoeken!? Verder zullen linkfarms en sites met heel veel links op de homepage aangepakt worden.

 

Content is al langer belangrijk natuurlijk en zeker na de panda update, al viel dat allemaal wel mee qua veranderingen.

Link naar reactie
  • 0

Niets nieuws onder de zon. Google staat erom bekend om op voorhand hard te staan roepen, om zo gratis reclame binnen te halen, om dan uiteindelijk met een soft oplossing aan te komen.

Zo beweerden ze ook dat ze betaalde links zouden aanpakken met een algoritme, maar daarna stiekem aan webmasters vragen om elkaar te klikken...Ook roepen ze op voorhand om webmasters bang te maken, en opeens begint iedereen zijn website alvast in orde te maken voordat de storm eraan komt. Dat heet gewoon psychologie en het werkt.

 

Bepaalde sites zullen het wel gaan voelen als een dergelijke algoritme zou toegepast worden:

- websites die gebruik maken van spam software om via comment spam hoog te ranken. De waarde gaat gewoon 0,0 worden.

- auto blogs vol advertenties zullen naar achter verdwijnen

- two way backlinks krijgen minder waarde

- websites die onder elke artikel 100 zoekwoorden droppen

-...

 

Het gaat hier niet om goed geoptimaliseerde websites (on page optimalisatie), omdat de Googlebot deze informatie nodig heeft om een ranking te bepalen. Niet-geoptimaliseerde websites krijgen in zoekmachines geen kans op een goede positie, omdat ze geen of weinig informatie verschaffen aan de Googlebot. De Googlebot is namelijk erg dom en ziet niet wat een mens kan zien.

 

Off page optimalisatie moet men handmatig uitvoeren, en ervoor zorgen dat de backlink op een kwalitatieve webpagina staat.

Link naar reactie
  • 0
Niet-geoptimaliseerde websites krijgen in zoekmachines geen kans op een goede positie, omdat ze geen of weinig informatie verschaffen aan de Googlebot.

Tenzij de Googlebot alleen nog maar (voornamelijk) naar daadwerkelijke tekstuele inhoud gaat kijken, natuurlijk! En zo dom is die bot nou ook weer niet - de meeste CSS en javascript trucjes zullen op het moment echt wel afgevangen worden.

 

Wat dan overblijft is content en links vanaf relevante sites. Als die twee criteria strikt nageleefd worden krijg je vanzelf een organisch proces waarbij sites met goede content die terecht een link verworven hebben op vergelijkbaar kwalitatieve websites hoog in de resultaten terecht zullen komen.

 

Het lijkt mij een verademing als die volgorde weer bepaald zou worden door kwaliteit en daadwerkelijke relevantie in plaats van door de hoogte van het marketingbudget.

Link naar reactie
  • 0

Niet-geoptimaliseerde websites krijgen in zoekmachines geen kans op een goede positie, omdat ze geen of weinig informatie verschaffen aan de Googlebot.

Tenzij de Googlebot alleen nog maar (voornamelijk) naar daadwerkelijke tekstuele inhoud gaat kijken, natuurlijk! En zo dom is die bot nou ook weer niet - de meeste CSS en javascript trucjes zullen op het moment echt wel afgevangen worden.

 

Wat dan overblijft is content en links vanaf relevante sites. Als die twee criteria strikt nageleefd worden krijg je vanzelf een organisch proces waarbij sites met goede content die terecht een link verworven hebben op vergelijkbaar kwalitatieve websites hoog in de resultaten terecht zullen komen.

 

Het lijkt mij een verademing als die volgorde weer bepaald zou worden door kwaliteit en daadwerkelijke relevantie in plaats van door de hoogte van het marketingbudget.

Bij zoekmachine optimalisatie worden geen trucs gebruikt, enkel de juiste procedure toegepast. Google doet hard zijn best om dit onder de aandacht van webmasters te brengen, omdat hun Googlebot hiervan afhankelijk is.

 

Het gaat om een zoekwoorden onderzoek (vanuit oogpunt van potentiële klant, vanuit oogpunt van zoekmachines, en vanuit oogpunt van concurrentie), daarna gevolgd door on page optimalisatie (paginatitels, metatags, anchor teksten en links, URL-structuur, header tags, image tags, content, keyword density, laadsnelheid van de pagina's, enz.), en tenslotte off page optimalisatie (one way backlinks). De felbegeerde on way backlinks kan men enkel krijgen als de website ook kwalitatief genoeg is, en daar zorgt de on page optimalisatie ook voor.

 

On page en off page optimalisatie gaan hand in hand, want het een kan niet zonder het ander.

 

Je zou verbaast zijn als je ziet wat sommige webdesigners hun klanten durven te leveren. De designs zijn mooi, maar voor zoekmachines waardeloos. Maar voor ons natuurlijk meer werk. ;)

Link naar reactie
  • 0

Wat dan overblijft is content en links vanaf relevante sites. Als die twee criteria strikt nageleefd worden krijg je vanzelf een organisch proces waarbij sites met goede content die terecht een link verworven hebben op vergelijkbaar kwalitatieve websites hoog in de resultaten terecht zullen komen.

 

Het lijkt mij een verademing als die volgorde weer bepaald zou worden door kwaliteit en daadwerkelijke relevantie in plaats van door de hoogte van het marketingbudget.

ik zit even aan de andere kant als consument en kan het niet anders als eens zijn met Peter,

het gaat mij niet om marketing maar relevantie!

 

lijkt mij een goede zaak dat Google af en toe de boel omgooit om alle zogenaamde SEO optimalisatie voor te blijven.

"zoek het maar uit"

Link naar reactie
  • 0

Dat doen ze toch eigenlijk al jaren?

 

Dat dacht ik ook, maar er zit toch wel wat nieuws in de vooraankondiging. Google probeert al jaren om blackhattechnieken (technieken die buiten de spelregels van Google vallen) te herkennen en af te straffen. Maar whitehattechnieken (technieken die binnen de spelregels vallen) kon je toepassen zoveel je wilde, in het ergste geval werden extra trefwoorden, links etc. genegeerd.

 

Wat er nu is gezegd, is dat overdreven vaak of sterk toepassen van op zichzelf onschuldige whitehattechnieken, waardoor sites met matige content hoger ranken dan sites met goede content, kan worden bestraft.

 

Ik zou bijvoorbeeld site-wide footers met trefwoordlinkjes naar eigen pagina's maar eens kritisch heroverwegen. En trefwoordlinkjes in Higherlevel-signatures ::)

 

Als ik Google was, zou ik ook het gebruik van de keywordsmetatag gaan bestraffen. Een duidelijker seo-signaal is bijna niet te bedenken.

Link naar reactie
  • 0

Dat dacht ik ook, maar er zit toch wel wat nieuws in de vooraankondiging. Google probeert al jaren om blackhattechnieken (technieken die buiten de spelregels van Google vallen) te herkennen en af te straffen. Maar whitehattechnieken (technieken die binnen de spelregels vallen) kon je toepassen zoveel je wilde, in het ergste geval werden extra trefwoorden, links etc. genegeerd.

 

En dat is het eeuwige probleem met google... wat zijn die 'regels' dan precies?

 

Uiteraard zullen ze die niet openbaren, maar dat heeft ook tot gevolg dat het vrijwel onmogelijk is om te bepalen of een site 'voldoende' of 'overmatig' geoptimaliseerd is.

 

Het vervelende is dat sites die 'natuurlijk' gebouwd werden zonder optimalisatie tot dusver tamelijk kansloos waren, waardoor de noodzaak is ontstaan. Dat google dit nu gaat omgooien is een problematische kwestie - wat willen ze nou eigenlijk dat we gaan doen om nog fatsoenlijk geranked te worden?

Link naar reactie
  • 0

Uiteindelijk zal Google toch op een bepaalde manier de ranking moeten bepalen. SEO bedrijven kunnen door te testen en meten dus nog altijd bepalen wat Google belangrijk vindt en een website daarop optimaliseren. SEO bedrijven zullen naar mijn mening voorlopig dus nog steeds blijven bestaan en resultaten boeken. Het is alleen zo dat de punten 'uit het boekje' niet (allemaal) meer relevant zijn en bedrijven dus continu moeten blijven meten en testen om resultaten neer te zetten.

Link naar reactie
  • 0

Uiteindelijk zal Google toch op een bepaalde manier de ranking moeten bepalen. SEO bedrijven kunnen door te testen en meten dus nog altijd bepalen wat Google belangrijk vindt en een website daarop optimaliseren.

 

De tijd dat je algoritmes van zoekmachines kon reverse-engineeren met een beetje testen en meten ligt ver achter ons. Om dat nu te doen zou je over de infrastructuur moeten beschikken om het hele web te indexeren en kopieën van het web te maken, over databronnen als die van Google Analytics e.d. moeten beschikken, per test maanden moeten wachten om het rankingeffect waar te nemen, over allerlei kennisbanken en taaldatabases van Google moeten beschikken, een paar duizend slimme software engineers aan het werk moeten zetten, honderdduizenden computers moeten hebben etc. etc.

 

De seo-bedrijven die beweren dat ze dit doen, bluffen.

Link naar reactie
  • 0

Enige wat ik nu denk; ik snapte nu "eindelijk" een beetje van het seo, hoe ik mijn website redelijk kan optimaliseren (nog steeds niet top, maar wel dat ik het zelf kan doen)...

 

Nu word er blijkbaar (want dat deel snap ik als leek niet helemaal) weer een grondige wijziging gedaan in hoe SEO zou moeten werken. Kan iemand niet in Jip en Janneke taal uitleggen wat nu Google gaat doen en wat het verschil is ten opzichte van nu. Want zover ik begrijp wil Google in de wijziging dus content/teksten relevanter maken in de zoekresultaten. Dus dat de pagina inhoudelijk ook aangeeft waar de gebruiker op zoekt of heb ik dat verkeerd begrepen?

Link naar reactie
  • 0
De tijd dat je algoritmes van zoekmachines kon reverse-engineeren met een beetje testen en meten ligt ver achter ons. Om dat nu te doen zou je over de infrastructuur moeten beschikken om het hele web te indexeren en kopieën van het web te maken, over databronnen als die van Google Analytics e.d. moeten beschikken, per test maanden moeten wachten om het rankingeffect waar te nemen, over allerlei kennisbanken en taaldatabases van Google moeten beschikken, een paar duizend slimme software engineers aan het werk moeten zetten, honderdduizenden computers moeten hebben etc. etc.

 

De seo-bedrijven die beweren dat ze dit doen, bluffen.

 

Bluffen of niet, een vriend van mij werk bij een SEO bedrijf dat werkt op basis van No-cure-no-pay en lanceert met een team van drie man en een paar stagiaires, dagelijks nieuwe websites die de eerste pagina van Google bereiken. Als ze merken dat een website niet binnen een paar weken de eerste pagina bereikt, doen ze een klein onderzoekje door gezond verstand te gebruiken en te kijken naar concurrenten, ze passen het een en ander aan of doen nog een beetje extra linkbuilding. Ze hebben het volgens hem, nog nooit meegemaakt dat ze een website niet op een bepaalde zoekterm op de eerste pagina hebben gekregen.

 

Link naar reactie
  • 0
En dat is eigenlijk het onderliggende probleem - als gebruiker van Google wil je objectieve zoekresultaten, en geen gemanipuleerde...

Daarom ben ik ook benieuwd wat Google er nu aan gaat doen om dat te realiseren. Ze roepen het al jaren, maar er zijn blijkbaar nog steeds bedrijven waarbij het relatief weinig moeite kost om de zoekresultaten te 'manipuleren'. Ik ben bang dat dit nooit helemaal mogelijk is.

Link naar reactie
  • 0

Aha, dus stel dat ik op het woord hypotheek gevonden wil worden via google, dan sta ik binnen een paar weken op pagina 1, op basis van no cure no pay? PM me het adres even, dan word ik via hen miljonair :-)

 

Overigens eens met Peter en ook de reden dat google eens in de zoveel tijd iedereen op scherp zet met waarschuwingen waar vervolgens heel SEO-land van in een blinde paniek lijkt te schieten :-)

Link naar reactie
Gast
Dit topic is nu gesloten voor nieuwe reacties.
Hide Sidebar
  • Wil je onze Nieuwsflits ontvangen?
    Deze verzenden we elk kwartaal.

  • Wie is er online?
    1 lid, 108 Gasten

  • Breng jouw businessplan naar een higher level!

    Op dit forum worden alle onderwerpen m.b.t. ondernemerschap besproken.

    • Stel jouw ondernemersvragen
    • Antwoorden/oplossingen van collega ondernemers
    • > 75.000 geregistreerde leden
    • > 100.000 bezoekers per maand
    • 24/7 bereikbaar / binnen < 6 uur antwoord
    •  Altijd gratis

  • Ook interessant:

    Ook interessant:

×
×
  • Nieuwe aanmaken...

Cookies op HigherLevel.nl

We hebben cookies geplaatst op je toestel om deze website voor jou beter te kunnen maken. Je kunt de cookie instellingen aanpassen, anders gaan we er van uit dat het goed is om verder te gaan.