MegaMartin

Newbee
  • Aantal berichten

    3
  • Registratiedatum

  • Laatst bezocht

Persoonlijke info

  • Jij bent:
    maak een keuze
  • Voornaam
    M

MegaMartin's trofeeën

  1. Ik sluit me aan bij eerdere reacties. Het gros van de websites wordt niet gekraakt omdat zij door krakers worden aangemerkt als een interessante 'target', maar het kraken vind volledig automatisch plaats. Softwarerobots zoeken het internet af naar websites die een of meer beveiligingsfouten bevatten. Daarna wordt de gevonden fout automatisch uitgebuit en de de website besmet. Alle bekende CMS'en liggen onder de loep voor de genoemde robots. WordPress, Joomla, Drupal. Alle bekende pakketten hebben beveiligingslekjes, of lekjes gehad die tot een kraak kunnen leiden. Een besmetting van je website wordt waarschijnlijk vrij snel opgemerkt door virusscanners, die de domeinnaam van de website zullen aanmerken als gevaarlijk. Het stickertje 'gevaarlijk' komt vervolgens bij de browsers van je klanten terecht, waarna die bij het bezoeken van je website OF worden besmet met een virus, OF geblokkeerd worden en je website niet kunnen bezoeken. De virusscanners kunnen een website soms langdurig als gevaarlijk aan blijven merken, ook als je de besmetting reeds hebt verwijderd. De besmette website verwijderen en een schone versie terugzetten lost het probleem niet op: de schone versie van de website bevat namelijk nogsteeds hetzelfde beveiligingsprobleem, dat automatisch ontdekt zal worden door de softwarerobots, waarna de website weer wordt besmet. Op een gegeven moment ben je vaker bezig met het terugzetten van een schone site dan met core business. Bovendien: wie zegt dat de kopie van de site die jij als 'schoon' beschouwd, ook daadwerkelijk schoon is? Een website waarop geen virus is gedetecteerd, is niet per definitie schoon. Een virus kan ook tijdenlang inactief zijn binnen een website, en op een moment dat voor de krakers gunstig is, tot leven worden gewekt. Het terugzetten van een schone kopie is dan een illusie. Het verwijderen van een virus uit een website is voor moderne virusscanners nog niet goed mogelijk, en handmatig vaak niet te doen, tenzij je extreem veel uren uittrekt en van doodsaaie en foutgevoelige klusjes houd.. De rede voor de waarschuwingen van de FBI is meervoudig, maar een belangrijke reden is dat men bedrijven wil waarschuwen voor diefstal van gegevens. Dit kan om persoonsgegevens gaan, maar ook om bedrijfsgeheimen. Als een kraak gericht wordt uitgevoerd (men gaat specifiek op zoek naar een beveiligingsfout voor het kraken van bedrijf X) dan is deze vaak vele malen meer ingenieus opgezet dan de eerder genoemde automatische aanvallen. En als je bedrijfsgeheimen lekt kun je wel een oud kopietje van je site terugzetten, maar daar heb je dan toch niks meer aan ;)
  2. De punten die je hier schetst zijn inderdaad de belangrijkste aandachtspunten, met de volgende aantekeningen: - Wat betreft stap 2 en 3 zou mijn advies echt zijn: doe dit volledig stapje voor stapje. Niet het overzetten van de DNS combineren met het doen van een verhuizing naar een andere registrar. Je komt dan op een iets meer uiteen gezet stappenplannetje: 1. Verlaag de TTL van de DNS-records. Let op: ieder record kan een eigen TTL hebben. Ook de nameservers hebben een TTL. Alle TTLs samen zijn belangrijk. Verlaag deze, maar overdrijf het niet. Een TTL van 10 minuten is prima acceptabel bv. Een paar seconden is wat overdreven. 2. Wijzig nu bij de oude hostingprovider eerst de DNS van de gebruikte A-records naar het IP van de nieuwe hostingprovider. Dit moet je natuurlijk even goed afstemmen: even het juiste IP aan de nieuwe webhoster vragen, en of zij hun webserver al zo hebben ingesteld dat die ook de website op dat domein kan serveren. Dit zijn technisch gezien allemaal losse instellingen. Vergeet niet ook de MX-records te wijzigen als e-mail mee gaat. Controleer alles nauwkeurig en doe dit niet 10 minuten voor je gaat slapen ;) Doe je iets fout, dan kun je door de lage TTL makkelijk weer terug. 3. Check of alles correct werkt, nu je de DNS hebt gewijzigd. Check ieder DNS-record los met dig (linux) of nslookup (windows). Controleer goed of je inderdaad de website op de nieuwe host krijgt geserveerd. Clear je cache om vergissingen te voorkomen. Check ook of e-mail nog goed aankomt. Gebruik hierbij bij voorkeur NIET de SMTP van de oude webhoster. 4. Als alles correct werkt, kun je vervolgens aan de nieuwe hostingprovider vragen om de domeinnaam te verhuizen. Geef nadrukkelijk aan dat het A-record naar IP X moet gaan verwijzen, en MX-record naar IP Y, etc. De lage TTL kun je nog even behouden: handig als er toch een foutje is gemaakt. 5. Als de verhuizing compleet is, weer checken, etc. Het afvangen van de oude URLs doe je op de nieuwe webhost. De DNS verwijst namelijk daar naar toe na de verhuizing, dus Google komt bij het opvragen van een oude URL uit op de nieuwe host. De nieuwe host moet dus weten wat daarmee te doen. Meestal kan dit wel een .htaccess. Soms moet het in het control panel op een andere manier. Hangt af van de hostingomgeving. Behoud je hiermee je rankings: zekerheid heb je nooit, maar je kunt in ieder geval stellen dat je alles in het werk hebt gesteld om de rankings te behouden. De SEO-kant van rankings behouden ken ik niet zo goed. Wellicht een goed idee om na de verhuizing meteen even in Google Webmaster Tools even de nieuwe sitemap.xml in te sturen/te controleren en andere waarschuwingen daar meteen te fixen (kijk even goed rond, crawl errors e.d.). Google weet natuurlijk ook dat websites wel eens worden verplaatst, en het is vanuit Google gezien denk ik niet erg logisch om bij een korte onderbreking meteen alle pagerank naar de vaantjes te laten gaan. Succes :)
  3. Mijn complimenten voor de geschreven content. Goede content is de kern van een goede website, en bovendien ook een zeer belangrijke factor in gevonden worden dmv zoekmachines. Ik kan de content niet direct beoordelen op juistheid, maar de teksten zijn zorgvuldig opgesteld en dat is te merken. Uit reacties van anderen tot nu toe maak ik op dat het ook met de inhoud wel snor zit. Als administratieve leek val ik binnen de doelgroep ;) Ik wil kort wat van mijn gedachtes neerzetten. Geen uitputtende lijst, maar wat pointers. Bijzonder belangrijk voor iedere leek, op ieder vlak dat hij/zij wil leren, is: waar moet ik beginnen? Op de voorpagina van de site merk ik dat mijn aandacht verdeeld wordt over de verschillende onderdelen die ik kan zien: (1) het menu links met talloze opties die voor mij gedeeltelijk abacadabra zijn. (2) De content in het midden met in ieder geval 4 opties. In eerste instantie had ik niet door dat deze klikbaar waren. Om te benadrukken dat dit een soort categorieen zijn, zou je een "lees meer over [onderwerp]" linkje toe kunnen voegen aan deze blokjes. Ook had ik niet door dat die blokjes gelijk waren aan de menuopties links, waardoor ik dacht dat ik twee maal zoveel keuzes had ;) (3) de menu's rechts en onder. Alle opties bij elkaar deden mij als leek wat overdonderend aan. Waar zal ik klikken? Het is me niet duidelijk wat prioriteit heeft. De prioriteit van verschillende boodschappen op een pagina is een belangrijk punt in veel websites en vaak heeft dit te maken met (1) de indeling van de website in blokken, (2) met tekst-/achtergrondkleur en (3) met tekstgrootte. Je hebt keurig met kopjes gewerkt, maar het onderscheid tussen bv de content-tekst en de menu-tekst is nihil. Beide zwart op wit. Beide zelfde tekstgrootte. De kopjes van de kaders zijn zwart op blauw. Het contrast tussen de tekst en achtergrond maak je daarmee minder, en daardoor lijkt het een lagere prioriteit toe te kennen aan die tekst: het valt een beetje weg. Het is ook niet op ieder scherm even goed leesbaar. Er is nog veel te winnen op het gebied van visuele structuur. Een website kun je gemakkelijk opbouwen uit blokken en kolommen. Het is vaak rustig voor het oog als die blokken netjes onder of naast elkaar staan, en als er rondom belangrijke componenten genoeg lege ruimte is ('witruimte'). Nu hebben veel soortgelijke onderdelen een net verschillende breedte of vormgeving. Het ene stukje tekst staat flush tegen een rand, ergens anders staat het er 2 pixels vanaf, etc. Wellicht dat de website mede door het ontbreken van structuur, voor mij een beetje als een doolhof voelt. Veel is klikbaar, maar waar ben ik nu precies? Had ik deze pagina al gehad? Door het ontbreken van visuele referenties (een icoontje of plaatje bovenaan in de content bv) moet je telkens beginnen met de tekst lezen, om te zien of je hem al gelezen had. Kort samengevat: ik behoor tot de doelgroep en ben geinteresseerd in de content, maar voel toch een drempel om er eens lekker voor te gaan zitten. Vanmiddag nog eens proberen. Techniek: - De uitklapmenu's onderaan vallen onder de AdWords en Facebook reactieframe. - http://www.succesvolboekhouden.nl/boekhouding op deze pagina staat een excelsheet. Als ik daarop klik, krijg ik in Firefox de letterlijke bytes van het bestand op mijn scherm. Normaliter is dit de vraag of ik het bestand wil downloaden. Dit komt omdat de webserver niet lijkt te weten dat hij een bestand van het type XLSX stuurt. In plaats daarvan stuurt hij een bestandstype 'plain', wat vanalles kan betekenen. Dit is mogelijk een instelling bij de webhoster of van het CMS. Rechtermuisknop/opslaan als werkt wel, maar is omslachtig. Wat puntjes in de content: - Het menu Aangifte btw/omzetbelasting > Verwerking in de boekkhouding -> dubbele K in boekhouding - http://www.succesvolboekhouden.nl/verplichtingen-voor-de-btw Hier lijkt de excelsheet voor de rittenadministratie nog te missen
×
×
  • Nieuwe aanmaken...

Cookies op HigherLevel.nl

We hebben cookies geplaatst op je toestel om deze website voor jou beter te kunnen maken. Je kunt de cookie instellingen aanpassen, anders gaan we er van uit dat het goed is om verder te gaan.