• 0

AI op de werkvloer: DTC en politie delen tips

(aangepast)

In samenwerking met de politie waarschuwt het Digital Trust Center (DTC) voor de risico's van het gebruik van generatieve kunstmatige intelligentie (AI) op de werkvloer. Ook delen zij tips over hoe zowel werknemers als werkgevers veilig om kunnen gaan met AI. Menselijk contact is hierbij de sleutel.

 

Terwijl AI-hulpmiddelen zoals tekstgeneratoren en beeldcreatie-apps ondernemers aanzienlijke (efficiëntie) voordelen bieden, is er ook een donkere zijde aan deze technologieën. Ook cybercriminelen kunnen deze tools gebruiken voor frauduleuze praktijken.

 

  1. Identiteitsfraude, zoals CEO-fraude. Zo kan AI ingezet worden om bijvoorbeeld een stem te klonen of om realistische teksten op te stellen.
  2. Desinformatie verspreiden. Taalmodel ChatGPT produceert authentiek lijkende teksten op schaal en met grote snelheid. Een dergelijk taalmodel kan criminelen helpen voor propaganda- en desinformatiedoeleinden.
  3. Malware. ChatGPT is in staat om codes te produceren in een aantal verschillende programmeertalen. Voor een potentiële crimineel met weinig technische kennis is dit een onschatbare bron om kwaadaardige codes (zoals malware) te produceren.

 

Manon den Dunnen, Strategisch Specialist Digitaal bij de politie, benadrukt het belang om waakzaam te zijn als je zelf gebruik maakt van AI: “Als je het niet op LinkedIn zou zetten, moet je het ook niet invoeren op ChatGPT. Want dat systeem traint zichzelf met de informatie die je invoert en voordat je het weet komt jouw informatie terug in teksten die gegenereerd zijn voor anderen. Daarom hebben bedrijven zoals Samsung hun medewerkers verboden het te gebruiken.”

 

Tips voor het omgaan met kunstmatige intelligentie en cybercriminelen die hier gebruik van maken:

  • Vertrouwelijke gesprekken kun je het beste in persoon voeren.
  • Voer nooit vertrouwelijke gegevens in ChatGPT of vergelijkbare taalmodellen. Dus ook geen namen van personen. Wees bewust dat de systemen gericht zijn op het genereren van teksten ‘die lijken op’. Het is geen zoekmachine, er zit namelijk geen database achter, dus gebruik het niet als feitelijkheid belangrijk is.
  • Bij twijfel over de identiteit van de persoon aan de telefoon, kun je voorstellen om terug te bellen. Een andere mogelijkheid is om een belevingsvraag te stellen. Bijvoorbeeld: Hoe was je gesprek gisteren?
  • Er kunnen afspraken gemaakt worden om bijvoorbeeld facturen alleen af te handelen wanneer er een mogelijkheid bij zit om te controleren wat de bron is.
  • Onderzoek welke oplossingen je in afstemming met partners in de keten kunt doorvoeren om de authenticiteit van de afzender van facturen of andere belangrijke communicatie, vast te stellen. Grijp terug op adviezen relevant voor bijvoorbeeld phishing of CEO-fraude. Deze vormen van cyberincidenten blijven in de basis hetzelfde ook al wordt AI als hulpmiddel ingezet. 
  • Weet welke vragen je moet stellen bij de aanschaf van inkoop van software. Bijvoorbeeld: Op welke manier maakt deze software gebruik van kunstmatige intelligentie, hoe is het getraind, wat gebeurt er met deze data en welke veiligheidsvraagstukken spelen er?

 

Relevante links

aangepast door Digital Trust Center
Link toegevoegd
Link naar reactie

Aanbevolen berichten

1 antwoord op deze vraag

  • 0

Waardevolle informatie, maar ergens mis ik wat nuance. Bijvoorbeeld bij 

 

Voer nooit vertrouwelijke gegevens in ChatGPT of vergelijkbare taalmodellen. Dus ook geen namen van personen. Wees bewust dat de systemen gericht zijn op het genereren van teksten ‘die lijken op’. Het is geen zoekmachine, er zit namelijk geen database achter, dus gebruik het niet als feitelijkheid belangrijk is.

 

Er zijn betaalde AI diensten die vertrouwelijk met gegevens omgaan. Nu is het strikt genomen natuurlijk lastig om te controleren of ze wel echt doen wat ze contractueel afspreken, maar voorlopig ga ik daar toch even vanuit. De situatie is uiteindelijk niet anders dan je zakelijke mail bij een partij als google onder te brengen en dat wordt ook als normaal en acceptabel gezien. Het staat of valt natuurlijk wel met wat je contractueel afspreekt en met name met gratis diensten is het heel erg oppassen, maar door jezelf dit soort tools al bij voorbaat te ontzeggen doe je jezelf tekort.

 

Zelf doe ik het trouwens anders. Ik gebruik AI tools om zelf weer tools te genereren om de uiteindelijke gegevens te verwerken. Op die manier heb je het beste van twee werelden, maar in sommige situaties is het toch beter om de echte data te laten verwerken.  

Link naar reactie

Maak een account aan of log in om te reageren

Je moet een lid zijn om een reactie te kunnen achterlaten

Account aanmaken

Registreer voor een nieuwe account in onze community. Het is erg gemakkelijk!

Registreer een nieuw account

Inloggen

Heb je reeds een account? Log hier in.

Nu inloggen
Hide Sidebar
  • Wil je onze Nieuwsflits ontvangen?
    Deze verzenden we elk kwartaal.

  • Wie is er online?
    2 leden, 146 Gasten

  • Breng jouw businessplan naar een higher level!

    Op dit forum worden alle onderwerpen m.b.t. ondernemerschap besproken.

    • Stel jouw ondernemersvragen
    • Antwoorden/oplossingen van collega ondernemers
    • > 75.000 geregistreerde leden
    • > 100.000 bezoekers per maand
    • 24/7 bereikbaar / binnen < 6 uur antwoord
    •  Altijd gratis

  • Ook interessant:

    Ook interessant:

×
×
  • Nieuwe aanmaken...

Cookies op HigherLevel.nl

We hebben cookies geplaatst op je toestel om deze website voor jou beter te kunnen maken. Je kunt de cookie instellingen aanpassen, anders gaan we er van uit dat het goed is om verder te gaan.