Jump to content

DataAndHeuristics

Junior
  • Content Count

    11
  • Joined

  • Last visited

Community Reputation

0
  1. Weet wel dat er een bijzonder grote club achter al deze organisaties (Bos Incasso, DAS, LAVG, etc) zit. De eerste 3 niveau's zijn er echt al bijzonder veel, maar de UBO in dit geval is Munchener Ruckversicherungs AG(Parent), Munich, Germany. * * * * * * * * * * * * * * * HIERARCHY * * * * * * * * * * * * * * * * Mod edit: zie bijlage munchener-hierarchy.pdf
  2. Ben ik toch niet met je eens. Er zijn een aantal zeeuwse en flevolandse wijngaarden die kwalitatief een heel stuk beter zijn dan menig afrikaanse wijn. Bij sommige michelin restaurants kom je ze wel eens tegen op de wijnkaart. Maar, het zal ook een kwestie van smaak zijn.
  3. Bij een beetje goede sushi tent is de keuken open, en kan je zien dat ze het zelf snijden, maken, en rollen...
  4. De algehele gemiddelde mening is duidelijk, ik denk dat ik het goed kan samenvatten als: - Ik denk te groot / wil te veel - MVP / Deliverables / Proof of concept is niet duidelijk Kortom: Dit betekend dat ik de aankomende tijd terug naar de tekentafel zal moeten, om e.e.a. eens goed uit te denken. Bedankt voor een ieder zijn/haar commentaar tot dusver, ik stel het zeer op prijs.
  5. We hebben het over ~200 GB aan data op dit moment, maar dit wordt rap minder als ik alles naar SQL transporteer (denk/hoop ik). Ik heb even gekeken naar NoSQL (MongoDB) maar dat leek mij als leek niet de juiste oplossing. Ik ben nu begonnen, n.a.v. een eerdere tip in dit forum, om een opzet van database structuur te maken. Ik gok dat ik grofweg, na normalisatie, op een kleine 200 tabellen uitkom, met tussen de 2 en 20 kolommen elk. Maar, dan zou ik op +/- 30 miljoen rijen uitkomen. Ik zit te denken om van elk land een aparte DB te maken, dan worden de rijen een pak minder, max 7 miljoen per DB. Nog een hoop uitzoekwerk te doen :)
  6. Wat niet als open data verkrijgbaar is, probeer ik zoveel mogelijk af te kaderen bij de originele bron, en waar mogelijk heb ik afgelopen jaar een eenmalige datadump aangekocht, en daarna mutatieabonnementen afgesloten. Bijv dus NBB & KBO voor Belgie, Companyhouse in UK, Kvk & Kadaster in NL, etc, etc. Bij weer anderen heb ik mij ingeschreven voor een al dan niet betalende API functie, zoals bij rechtspraak (gratis) of infogreffe (betalend). Maar, bronnen zijn in die zin ook niet belangrijk denk ik. Ik durf gerust alle bronnen en links te geven. Het gaat er mijn inziens juist erom wat je er mee doet, waarmee je het combineert, en wat voor rekenmodellen je er aan hangt ;) Ik bedoel, iedereen kan de opendata van NBB / KBO gratis downloaden, de 9 CSV bestanden aan elkaar koppelen door middel van het ondernemingsnummer, en dan heb je ook alle adresgegevens van alle bedrijven in België. Mijn kracht zit daadwerkelijk in het combineren van verwachtte en niet verwachtte data, en daar diverse rekenmodellen op los laten...
  7. Ik kan het uiteraard anonimiseren, maar het zou wel onderdeel uit kunnen maken van een analyse. Hier kan ik volmondig nee op antwoorden. Zoals gezegd, veel data is open data, zoals deze door diverse overheden wordt aangeboden. Een ander deel betaal ik netjes per maand voor. (Nu vanuit privé, ik hoop snel vanuit een onderneming) Bedankt overigens voor het overige commentaar. Het middelste gedeelte wordt steeds concreter voor mij.
  8. Hoi Ab Bauer, Dank voor je antwoord. MySQL an sich is het probleem niet. De basics van diverse programmeertalen ook niet. Maar, ik ben geen doorgewinterde DBA'er, en het programmeren van een frontend was voor mijzelf toch echt een brug te ver. Natuurlijk weet ik de basics van database normalisatie, maar om het daadwerkelijk toe te passen, met performance en snelheid in de achterhoofd houdend....Welk gedeelte moet transactioneel ingericht worden, en welk gedeelte als 'reporting'.....Of wellicht blijkt dat NoSQL wel veel beter werkt... Nogmaals, ik ken de termen, ik de basics, en daar houdt het mee op. Dus, nee, dat soort keuzes laat ik liever aan een expert over. Het spreekwoord: "Schoenmaker blijft bij uw leest" is hier wel van toepassing denk ik. Maar met alle wil van de wereld als je een frontend voor mij kan bouwen voor 5k, met klantadministratiesysteem, log/registratie, automatische databaseupdates, selectiezaken e.d. Wat ook nog snel werkt, meertalig, en er professioneel uitziet, én schaalbaar is: Be my guest, geef me je gegevens en we maken meteen een afspraak. Maar, als ik meerdere offertes heb van rond de 100k, en enkele uitschieters naar 175k en 192, heb ik daar eigenlijk een hard hoofd in? Maar, mischien heb ik het helemaal mis, ik hoor het graag.
  9. Allen bedankt zover voor de reacties. @John B: Interessante woordspeling, en discussie, wellicht voor een ander topic. In mijn ogen is opslaan =/ niet hetzelfde als verwerken. Totaal niet ideaal voor mij, maar dan denk ik: Wat nou als ik mijn bezoekers alleen wijs naar de plek waar het staat. Dan sla ik zelf niets op. Als ik het realtime verwerk, en de bewerking ook niet opsla, dan doe ik niets fout lijkt me? Maar goed dat is een hersenspinsel voor een AVG topic.... @RuudB. & Brank Collin: Wellicht is het een denkfout van mij. Ik had als visie / gedachte gang, als ik het doe, moet het meteen goed gebeuren. Mijn droom is natuurlijk dat over X aantal jaar bedrijven niet meer D&B/Graydon noemen als dataprovider, maar mij :) Ach, een mens mag dromen... Ik ben namelijk bang dat het MVP niet goed genoeg is, en dat de eerste potentiele klanten weglopen, en niet meer terugkomen. Die ben ik per saldo kwijt... Of is dat in jullie ogen een verkeerde denkwijze? Op dit moment, zoals gezegd heb ik testen gedaan door excel/access/sql/json/etc etc aan elkaar te koppelen. en de berekeningen/analyses handmatig te doen telkens. Dit neemt uiteraard bijzonder veel tijd in beslag. Uiteraard als dit automatisch gaat, is het en sneller, en maak ik tijd zelf vrij wat ik weer aan andere dingen kan besteden. Maar bovenal, wil ik liever niet aan loterijen meedoen, en zal ik met aanzien tot AVG het op de zekere kant moeten/willen spelen, en afwachten hoe de privacy wind waait over een jaar ofzo. Langs de andere kant: Graydon geeft bijvoorbeeld aan dat het ongevraagd verzamelen van persoonlijke gegevens een gerechtvaardigd belang heeft, omdat het in hun grondslag ligt om bedrijven goed te adviseren over zakenpartners, klanten, etc. Hierdoor zijn ze 'AVG proof'... Ik mag aannemen dat ze de wet goed bestudeerd hebben, en a.d.h.v. juridisch advies dit besloten hebben. Ergens bestaat er dan toch de ruimte in de AVG wet om persoonlijke gegevens te analyseren?
  10. Hi RVadenBussche, Dank voor je antwoord. Punt 2 (Digitaliseren van de berekeningen en analyses) is inderdaad af. Punt 1 lijkt me wel iets wat ik met inlezen ook kan, dus blijft er het dure punt 3 over inderdaad. v.w.b. punt 4 schrik ik toch wel een beetje. Ik had gehoopt daar óók analyses op te kunnen maken. Hoe zit het dan bijvoorbeeld met de volgende voorbeelden: https://drimble.nl/bedrijf/amsterdam/40040747/polaberry-bv.html -> Willekeurig een bedrijf gepakt, maar bestuurders worden duidelijk gemeld. bij kvk idem dito: https://diensten.kvk.nl/staatscourant/extern/toonDossierPublicaties.do?userRole=extern&dossier=71888535 Laatste vraag, zijn er dan betrouwbare plekken waar ik partnerschappen kan zoeken/vinden/aanbieden?
  11. Hoi Allemaal, Na maanden van verzamelen, proberen, en testen, ben ik er eindelijk zeker van dat mijn idee werkt op kleine schaal. Ik loop alleen nu vast op het volgende: Hoe en waar zet ik de volgende stap? Oke, even bij het begin beginnen. Mijn naam is Robert, en heb 3 Master opleidingen afgerond: Handelswetenschappen, Econometrie, & Wiskunde. (Ja wellicht overdone, maar ik kon niet kiezen, en vond, en vindt, alle 3 de onderwerpen erg interessant.) Sinds de opleidingen werk ik een tijdje bij een financiële dienstverlener en bleef mij al geruime tijd verbazen over een aantal zaken: - Veel gaat handmatig - Veel mensen in de keten zijn telkens verbaasd als een participatie failliet gaat, of dat er een geldlener er met het geld vandoor gaat. - Hoe weinig bedrijven van elkaar weten. Dit kan beter dacht ik! Welnu, ik heb de afgelopen maanden, in mijn eigen tijd, open data zitten downloaden, betaalde data aangekocht. Ook heb ik het (wellicht op een knullige manier) voor elkaar gekregen dat ik elke ochtend netjes alle updates van alle databronnen (zowel open als betaald) op mijn computer krijg. Dit resulteert in dat ik nu 1000en excel en access bestanden op mijn computer heb staan, en dat wordt dus elke dag meer. 1) Kort gezegd ik heb ongeveer 2500 variabelen van elk bedrijf in West Europa. Ik beeld mij zo in, dat deze data an sich al een waarde heeft. 2) Maar vanuit mijn econometrie achtergrond, heb ik nu ook een model ontwikkeld dat ik van te voren kan bepalen of een bedrijf failliet gaat. Niet 100%, maar ik heb het getest met data uit 2016 voor NL en Belgie, en voor NL kon ik 1 maand van te voren met 76% zekerheid, en Belgie 71% zekerheid uitrekenen of een faillissement aangevraagd wordt. Ik kan mij zo voorstellen dat dit van grote waarde kan zijn. 3) Ook heb ik een rekenmethode ontwikkeld die al deze data gebruikt om de waarde van een bedrijf nóg beter te berekenen, naast alle standaard bedrijfswaardering formules die ook natuurlijk kunnen met deze data. 4) Als laatste kan ik zéér uitgebreide financiële analyses maken van bedrijven met deze data. 5) En er zijn ongetwijfeld nog meer toepassingen mogelijk hiermee. Ik ben van mening dat dit allemaal redelijk uniek is, omdat ik aan de ene kant veel meer informatie heb dan de gemiddelde databoer die puur adressen verkoopt, en aan de andere kant kan ik veel gerichter en met meer zekerheid iets zeggen over de financiële staat van een bedrijf dan bv Graydon, Bureau van Dijk, of D&B. Nu zit ik met een concept, en ik zie ook al helemaal duidelijk voor ogen hoe, aan wie, etc. Sterker, een instelling in Belgie, en een redelijk grote onderneming in Frankrijk hebben interesse getoond in het idee, en willen graag in gesprek van zodra er iets tastbaars af is, en hier zit nu mijn probleem/bottleneck. Van IT/ICT/Programmeren heb ik geen verstand, en er moet dus iets van webapp? desktop software? komen. Of op de een of andere manier iets van een 'schil' rondom al die 1000en datasets. Heel enthousiast had ik een aantal boeken gekocht over visual studio, maar na verschillende tutorials liggen die nu na veel frustratie stof te happen. Dus, moet ik het programmeren uitbesteden, zo ver is duidelijk. Ik heb gekeken op o.a. freelancer.nl en ik schrok mij eigenlijk een hoedje. Ook gesprekken met zelfbenoemde programmeer experten zorgen voor een grote schrik bij mij. Bedragen richting de 1 a 2 ton worden telkens genoemd, evenals programmeerduur van een half jaar tot een jaar. In zowel de duur als de kosten heb ik weinig zin. Voordat ik de sprong naar het ondernemerschap neem. Dus dan komen nu eindelijk mijn vragen. Als u/je tot hier bent gekomen met lezen: petje af. 1) Wat zijn uw ideeën mbt tot mijn concept idee? Is dit mogelijkerwijs levensvatbaar? 2) Creatief als dat ondernemers zijn: Hoe los ik het probleem van het programmeren op? 3) Want ik denk dat ik deze richting wel op moet: Waar en hoe vindt ik potentiële programmeur zakenpartners (Zodat ik die 1 a 2 ton niet hoef voor te financieren? ------ 4) Hoe huiverig moet ik zijn met die AVG/GDPR? b.v. Bedrijf X BV, heeft bestuurder Y, die woont al T jaar op adres Z, waarvan het huis R waard is. en zo wellicht nog wel 20 variabelen over bestuurder Y. Logischerwijs heeft Y mij nooit toestemming gegeven voor al deze informatie, maar los van elkaar is al deze informatie gewoon te vinden op internet... Al uw feedback is van harte welkom, bedankt voor het lezen.
EN

×

Cookies on HigherLevel.nl

Cookies are necessary for Higherlevel.nl to function properly. By using HigherLevel.nl you declare to have read and accepted our terms and conditions.

 More information   I accept