• 0

Verzameltopic Zoekmachine-optimalisatie (SEO)

Leuke column in Communicatienieuws van Wiseguys-directeur Toine Verheul

 

De kwakzalvers van het internet

 

De laatste jaren hebben we de opkomst van een nieuwe bedrijfstak kunnen gadeslaan, die van de zogenaamde seach engine optimizers. In gewoon Nederlands: zoekmachineoptimalisators. <...> Wat deze bedrijfjes je meestal beloven is een toppositie van jouw website in de grote zoekmachines. Dat is een rare belofte. Zoekmachines doen hun best om min of meer objectieve resultaten terug te geven. Wanneer je website niet hoog scoort dan kan dat twee dingen betekenen: ofwel je hebt je website zo gemaakt dat de zoekmachine er geen raad mee weet, ofwel je hebt een website die door de zoekmachine minder belangrijk wordt gevonden dan andere websites. Aan dat eerste valt wat te doen. Iedere webmaster weet hoe dit moet: maak nette links, vermijd gebruik van JavaScript en Flash voor de navigatie, vul je metatags netjes in, gebruik robots.txt om webcrawlers te instrueren, en zorg dat je site gelinkt wordt op gerespecteerde sites. Als je na deze voorzorgsmaatregelen nog steeds laag scoort zou ik zeggen: pech gehad. Zorg maar dat je site leuker of beter wordt. Voor zoekmachineoptimalisators is dit echter een reden om hun trucendoos open te trekken. <...> Vrijwel iedere grote zoekmachine bestraft misbruik van haar dienst met een extra lage positie. Als je na optimalisatie van je website op nummer 1 staat, is de kans groot dat je na een maand onderaan de lijst bungelt. <...> Ander voorbeeld: Wehkamp. Deze website is zo goed geoptimaliseerd dat zelfs zoeken op "wehkamp" niet het gewenste resultaat bovenaan krijgt. Blijkbaar weet men dit bij Wehkamp ook, want men heeft ten einde raad maar besloten een advertentie te kopen waarin het juiste adres getoond wordt. Een duur grapje en een typisch voorbeeld van het lid op de neus. <...> Misschien genieten zoekmachineoptimalisators hun status wel door het gebrek aan geïnformeerde tegenstemmen. Zoekmachinefabrikanten doen van nature erg geheimzinnig over de werking van hun software. Dit schept ruimte voor mensen die van niks weten maar wel bereid zijn hun mond open te doen. <...> Zoekmachineoptimalisators zijn kwakzalvers in een land waar de geneesheren zwijgen. Zo beschouwd ligt er nog een interessante taak voor ons, als zoekmachinefabrikanten.

Hiep hiep hoera: honderd jaar A4  :partying-face:  (DIN = Duits Instituut voor Normalisatie)

Link naar reactie

Aanbevolen berichten

  • 0

Een groot probleem waarom zoekmachines je niet goed vinden (lees: indexeren) is vaan omdat er ? en & in de URL's staan. SItes met een beheersysteem hebben dit practisch altijd. Er zijn mogelijkheden om de 404 pagina's te gebruiken voor het doorgeven van variabelen ipv de gebruikelijke manier. Je krijgt dan URL's zoals deze www.test.nl/paginanaam/variabele1/waarde/variabele2/waarde etc. inv www.test.nl/paginanaam.php?var1=waarde&var2=waarde

 

Op deze manier nemen de meeste zoekmachines je wél op...

 

Ik vraag me af in hoeverre parameters in je URL nu nog voor problemen zorgen -- JUIST omdat er zoveel sites gebruik van maken, heb ik het idee dat zoekmachines ze wel opnemen. Zelf heb ik in ieder geval een aantal (privé-)sites in de zoekmachines staan, om over dit forum nog maar te zwijgen.

 

En als je een virtuele boomstructuur met 404's genereert... Ik heb het zelf ook gedaan maar zou het nu met mod_rewrite doen. Ten eerste moet je er driedubbel goed op letten met die 404-truuk dat de kloppende links eerst een 200 header sturen, en je log-files zijn niet meer zo geschikt om statistieken uit te halen mbt dode links.

 

Een andere manier is het aanmaken van een hele boel subdomeinen en deze allemaal te laten verwijzen naar de home pagina van de website. Al deze subdomeinen submitten bij zoekmachines... Sommige searchengines tellen dit ook mee als links naar je website... (waardoor je dus in de ranking stijgt)

 

Ook een hele goeie manier om uit sommige zoekmachines gegooid te worden, overigens. Tenzij je ervoor zorgt dat al die subdomeinen (en waarom zou je daar niet gewone domeinnamen voor nemen) unieke en relevante content hebben.

 

En hang niet te zwaar aan meta tags... Er zijn nog maar weinig searchengines die daar ALLE informatie uithalen... Google zelfs al helemaal niet meer. Een goede domeinnaam en een goede titel van de pagina is bv al veel belangrijker.

 

Klopt, hoewel meta-tags nog steeds belangrijk zijn voor je content-type, refresh en dat soort spul. Plus dat er nog genoeg zoekerds zijn die wél naar je meta tags kijken.

Google is wel de allergrootste, maar niet de enige. =]

Link naar reactie
  • 0
Een andere manier is het aanmaken van een hele boel subdomeinen en deze allemaal te laten verwijzen naar de home pagina van de website. Al deze subdomeinen submitten bij zoekmachines... Sommige searchengines tellen dit ook mee als links naar je website... (waardoor je dus in de ranking stijgt)

 

Zoals Max al zei is dit een goede manier om als zoekmachine spammer gekenmerkt te worden en dat levert alleen maar problemen op. Oppassen met dat soort zaken dus!

 

De ene dynamische site wordt wel helemaal geindexeerd, de andere niet. Waar dat verschil in zit, daar ben ik benieuwd naar. Iemand een idee?

Overzichtelijke website statistieken van ICStats, Visitor Engagement praktisch toepasbaar!

Link naar reactie
  • 0

Goed, ik kan nu pas op dit alles reageren, want gistermiddag en deel van vandaag is ons hele netwerk plat gegaan. :o Geen computer kon meer het Internet op of wat dan ook wat betrekking had op het netwerk. :-\

 

In ieder geval werkt alles weer en zie ik veel nuttige tips ertussen staan. Ik denk dat de ? en de & inmiddels wel zullen worden herkend door zoekmachines, misschien soms niet even goed, maar zoekmachines worden toch ook vaak verbeterd?

 

Adwords leek me al duur, en als webdesign bedrijf probeer ik het daarom maar niet eens. Startpagina's, daar moet je het van hebben, zoveel mogelijk links. En ook zie ik nog steeds een zekere meerwaarde in META-Tags. :)

 

Groet, Victor. 8)

YourCom // alles voor internet

NIEUW!! Yourhello // doorzichtig kunststof visitekaartjes!

Link naar reactie
  • 0

Die zullen dan ook eerder de telefoongids pakken denk ik zo. Of webdesign.pagina.nl maar dat is een verhaal apart. :-\

 

Ik gebruik Google en andere zoekmachines altijd als ik op zoek ben naar informatie (...). Maar een webdesigner zoek ik door naar websites te gaan die me goed bevallen en dan hoop ik dat de naam van het bureau ergens onderaan de pagina te vinden is. Helaas is dat opvallend vaak niet het geval... Terwijl dat toch ook goed is voor je ranking, dacht ik ???

www.businessbox.nl | www.zonneveldmarks.nl |

www.tekstschrijverdeventer.nl

Link naar reactie
  • 0

Dat ligt m.i. toch een beetje aan hoe die dynamische site dan wel precies is opgebouwd.

 

Ja duh zover was ik ook nog wel :P Waar moet die goed gebouwde dynamische site dan aan voldoen?

 

Bestaat-ie uit frames (score gaat omlaag), bestaat-ie uit echte tekst (score gaat omhoog), of voornamelijk uit Flash of afbeeldingen (score gaat omlaat), klopt de interne linkstructuur een beetje (score gaat omhoog), klopt de HTML (zoekmachines bestraffen bagger-code niet, ik heb het meer over de verhouding tekst - code), en ga zo nog maar even door.

Feitelijk precies dezelfde dingen die voor een statische site gelden, eigenlijk. Een bot weet natuurlijk ook niet zomaar of een site statisch of dynamisch is.

Link naar reactie
  • 0

Helaas zijn er altijd klanten die dat liever niet vermeld zien... het is wel goed voor je ranking, maar nog beter omdat het inderdaad gebruiken als ze op zoek zijn naar een vergelijkbare website.

 

Dat van die ranking is inderdaad betrekkelijk; als jouw klant een site heeft waar weinig naartoe gelinkt wordt, dan heeft zijn link naar jou ook een gewicht van nul komma nul. Dat van dat zoeken... Persoonlijk nog niet zo'n ervaring mee (ook nog niet zo lang bezig natuurlijk, en ook lang niet bij elke klant mijn stempel erop), ik zie weinig klanten als referrer in de webstats terugkomen.

Ik heb dan meer vertrouwen in het goeie ouwe analoge word-of-mouth; daar heb ik tot nu toe wel degelijk klanten aan overgehouden.

 

Hoe doen jullie dat met je naam onder een site, trouwens? Vraag je het de klant? Zet je het er gewoon op? Doe je die moeite juist niet? Persoonlijk vind ik het ook niet bijster sierend om onder elke pagina maar vermeld te worden, eigenlijk. Misschien ergens in een colofon, indien aanwezig, maar verder...

 

Ik heb wel eens het idee dat hoe beroerder de maker is, hoe groter zijn naam onder zijn werk staat. Ik heb ook eens, in gedrukte media, een ontwerpbureau *kuch* zijn naam op zodanige wijze in een advertentie van een ander bedrijf zien zetten, dat zijn naam er meer uitsprong dan die van zijn klant... En dan was het een spuuglelijke advertentie ook =]

Link naar reactie
  • 0

Hoe doen jullie dat met je naam onder een site, trouwens? Vraag je het de klant? Zet je het er gewoon op? Doe je die moeite juist niet?

 

In principe doen we het niet, wel heeft elke site een soort herkenning, door op een site door ons gemaakt in de broncode te kijken, staat dan dit:

 


 

Sommige sites hebben onderaan een linkje staan, maar daar houdt het op. Sommigen bieden het zelf aan, soms vragen we het, maar lang niet altijd.

YourCom // alles voor internet

NIEUW!! Yourhello // doorzichtig kunststof visitekaartjes!

Link naar reactie
  • 0

Ik zet er een subtiel linkje op als het ontwerp van een site dit toelaat.. soms past het er gewoon niet tussen, en dan ga ik er ook niks lelijks van maken.

 

Als een klant het liever niet heeft, kan het er weer af.

 

Om er nou korting voor te geven.. ik vind dat ergens wat suffig overkomen, en waarschijnlijk loont het zich ook niet echt als die korting meer dan een procentje is (dan wordt het dure reclame). Dat laatste zou anders kunnen liggen als het gaat om een zeer drukbezochte site natuurlijk.

Link naar reactie
  • 0

Vroeger stond er wel op alle sites die wij voor klanten maakten een linkje naar ons bedrijf, tegenwoordig beperken we ons tot de source code. Ook hebben we soms een korte melding bij de 'Juridische informatie' (disclaimer, privacy statement). Inderdaad grotendeels vanwege de reden die Max Roeleveld ook meldt: hoe slechter het design/de code, hoe groter vaak de naam van de maker :)

 

Verder is paragin.nl prima geïndexeerd in Google, dus zoeken op onze klanten levert vaak op de eerste of tweede pagina al een duidelijke link naar onze site op.

Link naar reactie
  • 0

Wat betreft SEO nog enkele tips:

 

·De meeste zoekmachines bepalen de ranking ruwweg aan de hand van twee criteria: relevantie van de inhoud en het aantal verwijzingen van andere sites naar uw website. Zorg er dus ook voor dat veel kwalitatieve sites naar die van u verwijzen.

 

·Houdt reeds in de ontwerpfase van een website rekening met het optimaal inrichten van de site voor zoekrobots.

 

·Werk met verschillende specifieke subdirectories die aansluiten bij uw diensten of producten (zoals www.uwbedrijfsnaam/ziektekosten)

 

·Geloof niet in top-tien garanties van bureaus. Deze bedrijven kunnen gebruik maken van zogeheten spam-methodes. Spam wordt niet getolereerd en sommige zoekmachines zoals Google verwijderen uw link permanent uit de zoekresultaten.

 

·Mocht de link naar uw website in de top-tien staan, dan kan dat morgen weer anders zijn. Zoekmachines veranderen regelmatig hun relevantie-criteria. Kijk op www.doedegoogleproef.nl voor een gratis test.

 

**********************************************************************************

Mark Verduyn

www.partnerincontent.nl

 

Link naar reactie
  • 0

Na een heel verhaal getyped te hebben, die ineens verdween hier dan maar een quickversie. ;)

 

Na wat diepgaand onderzoek heb ik een aantal experimenten gedaan omtrent SEO.

 

Domain A.

Overmatig gebruik gemaakt van hidden layers. Resultaat: Gebanned.

 

Domain B:

Gebruik gemaakt van veel text in dezelfde kleur als de achtergrond.

Resultaat: Genadeloze ban.

 

Domain C.

Duplicaten van pagina's voor meerdere hits in de index. Zo'n 50 subdomeinen met hetzelfde index.html file-->Gebanned.

 

Huidig projectje: http://www."verwijderd".nl

Aangezien hier I-frames inzitten is de pagina praktisch "leeg" voor Google, deze zijn immers niet bots-gevoelig (overigens net klein stukje text op de frontpage gezet).

Om toch een duidelijke omschrijving bij de google-hit te krijgen, heb ik in zeer beperkte mate gebruik gemaakt van een hidden layer. Hier lijkt google wel in te trappen. 100+ Subdomeinen zijn overigens opgepakt door de googlecrawler, die geen SEO technieken bevatten. Uiteraard wel de juiste meta-tags, maar dat moet nog netjes uitgewerkt worden.

 

Er zijn overigens nog veel andere technieken om backdoors te maken waar google vooralsnog intrapt. Aangezien dit wel een spammerige manier is, zet ik deze niet neer. Deze techniek wordt overigens ook gebruikt door mensen die in de "adult entertainment" zitten en zeer succesvol zijn.

 

Dus pas goed op met wat je doet tijdens de optimalisatie.

De meest voor de hand liggende fop-technieken zitten allemaal in de googlebots geprogrammeerd en straffen je genadeloos af met een ban of geen/lage PageRanking (PR).

Gebruik keywords die aansluiten op je inhoud en zorg dat er in je tekst genoeg keywords terugkomen. Subdomeinen kunnen ook zorgen voor hogere hits.

 

Als je je wil verdiepen in SEO, neem hier eens een kijkje: http://www.webmasterworld.com .

Zeer veel nuttige ervaringen en 1 member werkt zelfs bij google die af en toe bij staat.

Link naar reactie
  • 0

·Mocht de link naar uw website in de top-tien staan, dan kan dat morgen weer anders zijn. Zoekmachines veranderen regelmatig hun relevantie-criteria. Kijk op www.doedegoogleproef.nl voor een gratis test.

 

**********************************************************************************

 

Hier nog een tip voor SEO waarbij je je page ranking op het internet kan bekijken (zie onder ALEXA rating). Is leuk om bij te houden zodat je je postitie in de tijd ziet veranderen. Gaf bij mij veel stimulans om door te gaan met het saaie werk van SEO, namelijk linken, linken, linken.

 

Verder is de SEO doctor zeer aan te bevelen aangezien deze zeer duidelijke aanwijzingen geeft hoe de site is te optimaliseren voor google bij bepaalde keywords.

 

Succes ermee!

-------------------------------------------------------------------------------------------------------------

 

 

www.pakopmaat.nl

Link naar reactie
  • 0

Aangezien ik dit toch een leuk en nuttig onderwerp vind, nog wat extra toevoegingen. Het blijft een feit dat google je business kan bepalen (eigenlijk een slechte zaak, maar goed.)

 

Goede site voor basis SEO:

http://spider-food.net/concepts.html

 

Voor het selecteren voor je keywords:

https://adwords.google.com/select/main?cmd=KeywordSandbox

 

Om te kijken hoe vaak er op een woord wordt gezocht:

http://inventory.overture.com/d/searchinventory/suggestion/

 

1 Van de betere SEO's in Duitsland: Bekijk vooral de online tools. Een tool kan je site analyseren en telt je aantal keywords en je ziet zonodig waar je je titel of META tags kan aanpassen.

http://www.abakus-internet-marketing.de/en/

 

Veel leesplezier voor de geïnteresseerden.

 

 

Link naar reactie
  • 0

1 Van de betere SEO's in Duitsland: Bekijk vooral de online tools. Een tool kan je site analyseren en telt je aantal keywords en je ziet zonodig waar je je titel of META tags kan aanpassen.

http://www.abakus-internet-marketing.de/en/

 

 

Zeer interessant site! Thanx

Via die site kwam ik op de volgende uit voor pageranking:

http://www.webworkshop.net

 

Dacht aardig wat over SEO te weten, maar dit was totaal nieuw. Vraag hierbij:

Zoals uit de website te lezen valt zijn 'outbound links' nadelig voor je pagerank. Is dit niet te omzeilen door de robotindex file te verbieden naar je linkpagina te gaan, terwijl alle inkomende links gewoon registreert worden op je index file?

 

 

Link naar reactie
  • 0

1 Van de betere SEO's in Duitsland: Bekijk vooral de online tools. Een tool kan je site analyseren en telt je aantal keywords en je ziet zonodig waar je je titel of META tags kan aanpassen.

http://www.abakus-internet-marketing.de/en/

 

 

Zeer interessant site! Thanx

Via die site kwam ik op de volgende uit voor pageranking:

http://www.webworkshop.net

 

Dacht aardig wat over SEO te weten, maar dit was totaal nieuw. Vraag hierbij:

Zoals uit de website te lezen valt zijn 'outbound links' nadelig voor je pagerank. Is dit niet te omzeilen door de robotindex file te verbieden naar je linkpagina te gaan, terwijl alle inkomende links gewoon registreert worden op je index file?

 

 

 

Hoi PakOpMaat,

 

Jammer genoeg ben ik weer niet zo "into" the robotfiles. Maar voor zover ik mij nog iets kan herinneren, was het niet iets met "follow"?

 

Te veel outbound links KAN nadelige gevolgen hebben inderdaad, maar dan vraag ik mij weer af hoe de sites als startpagina het doen.

 

Het is een voordeel als je meerdere domeinen bezit, dan kan je op slimme wijze kan crosslinken. Maar ook hier kan je niet ongeschonden uit komen.

Wanneer google "ziet" dat er opmerkelijk veel in/outbound links zijn, gaan ze kijken naar de IP range van de betreffende sites. Deze range zou dan bijvoorbeeld op een soort black list kunnen komen. Voor maximale zekerheid zou je dus 2 providers moeten pakken (denk ik).

Link naar reactie
  • 0

Hoi Localizer,

 

de metatexten voor de robots indexfile zijn zelf geen probleem. Ik vroeg me alleen af of het zou werken.

 

Zelf heb ik een mailtje gestuurd naar de administrator (van de website in mijn laatste post.) Hij/zij had op de website geschreven dat je met outbound links in javascript het probleem kan omzeilen. Zelf denk ik dat het dus met de robotsindexfile ook moet kunnen. Het enige nadeel lijkt mij is dat het een pagina minder op de pagerank oplevert, maar dat lijkt mij geen probleem. Als ik antwoord krijg zal ik het wel posten op dit forum. Lijkt in eerste instantie goed idee of niet?

 

Link naar reactie
  • 0

Ik ben nu aan het uitzoeken hoe je een crawler langs al je pagina's kan sturen. Schijnt met robots.txt te moeten lukken!

 

Het helpt de leesbaarheid van je site enorm als je op de indexpagina eenvoudige html gebruikt voor links naar de pagina's van je website. Als je deze informatie speciaal voor crawlers wil toevoegen kan je dit eenvoudig doen in een noframes deel van je indexpagina. Dit werkt perfect en is voor de gewone bezoeker niet storend. De robots.txt is voor mij eigenlijk vooral effectief om een deel van je website af te schermen. Hiermee kan je voorkomen dat een door jouw geselecteerd deel van je website geïndexeerd wordt. Dit klinkt misschien vreemd, maar is heel handig voor presentatiemateriaal voor je klanten. Dat wil je nog niet openbaar hebben.

www.klankonline.nl | Klank, muziek & webdesign

Link naar reactie
  • 0

Ik lees nu veel tips over rommelen met subdomeinen en andere zaken om Google mee te foppen. Mijn ervaring is dat gewoon eerlijk werken het beste werkt. Het duurt iets langer voordat je resultaat hebt, maar het levert ook gewoon meer op. "Illegale" manieren als backdoors, extra veel subdomeinen, onzichtbare tekst en frames werken slechts marginaal.

Volgens mij kan je beter wat ambachtelijker te werk gaan:

 

1. Zorg voor goede content. Bepaal met je klant bijvoorbeeld wat goede keywords zijn voor het bedrijf en zet deze in volgorde. Schrijf hier vervolgens een goed lopende tekst op.

 

2. Zorg dat je de juiste keywords bij de juiste pagina plakt. Dus niet elke pagina dezelfde keywords. Vaak worden er toch maar een kleine 10 van opgenomen door crawlers.

 

3. Zorg toch voor goede metatags. Volgens sommigen outdated, maar werkt nog steeds.

 

4. Zodra je iets anders dan ouderwetse html gebruikt, moet je een noframes inhoud toevoegen. Zo ben je altijd leesbaar voor crawlers. Wees hier ook eerlijk en voeg hier een kopie van de content in. Geen extra zaken die toch snel als spammen worden gezien.

 

5. Gewoon handmatig aanmelden bij zo veel mogelijk relevante websites en startpagina's. Automatische aanmeldingen kunnen tegen je werken. Vaak overlappen ze elkaar en dan vinden ze weer dat er gespamd wordt.

 

6. Heb wat geduld, eerlijkheid duurt het langst. Je hebt nu een zorgvuldig opgebouwde olievlek die nu alleen maar groter zal worden.

 

7. Denk na of het zin heeft om je in een massa te storten. Zorg voor een specialisatie om op te vallen.

 

8. Kijk uit voor foute links.

 

 

De Gouden Gids heeft mij dit jaar parten gespeeld. Door hun nieuwe opzet is de tekst in de gids ook gelijk de inhoud van je keywords op hun site en op die van Ilse en consorten. Dit kan nooit goed gaan. Of je hebt een mooie tekst en waardeloze keywords, of je hebt een waardeloze tekst en mooie keywords. Dit leverde mij een behoorlijk foute link op. Resutaat: keldering op de lijsten van Google. Door tip 4 t/m 8 weer eens opnieuw te doen heb ik dit gelukkig weer ongedaan gekregen. Pas dus op voor foute links, die werken echt nadelig.

www.klankonline.nl | Klank, muziek & webdesign

Link naar reactie

Maak een account aan of log in om te reageren

Je moet een lid zijn om een reactie te kunnen achterlaten

Account aanmaken

Registreer voor een nieuwe account in onze community. Het is erg gemakkelijk!

Registreer een nieuw account

Inloggen

Heb je reeds een account? Log hier in.

Nu inloggen
Hide Sidebar
  • Wil je onze Nieuwsflits ontvangen?
    Deze verzenden we elk kwartaal.

  • Wie is er online?
    4 leden, 155 Gasten

  • Breng jouw businessplan naar een higher level!

    Op dit forum worden alle onderwerpen m.b.t. ondernemerschap besproken.

    • Stel jouw ondernemersvragen
    • Antwoorden/oplossingen van collega ondernemers
    • > 75.000 geregistreerde leden
    • > 100.000 bezoekers per maand
    • 24/7 bereikbaar / binnen < 6 uur antwoord
    •  Altijd gratis

  • Ook interessant:

    Ook interessant:

×
×
  • Nieuwe aanmaken...

Cookies op HigherLevel.nl

We hebben cookies geplaatst op je toestel om deze website voor jou beter te kunnen maken. Je kunt de cookie instellingen aanpassen, anders gaan we er van uit dat het goed is om verder te gaan.