top of page

AI Security: Veilig en verantwoord AI inzetten

dsfsdfsdf

Introductie


In deze kennissessie verdiep je je in de belangrijkste beveiligingsrisico’s bij het gebruik van AI-systemen. Je leert hoe taal- en beeldmodellen kwetsbaar kunnen zijn voor manipulatie, hoe aanvallers deze systemen misbruiken en welke maatregelen je kunt nemen om ze te beschermen. Denk aan technieken zoals prompt injection, adversarial examples, model inversion, en data poisoning. Ook krijg je inzicht in het verantwoord en juridisch correct inzetten van AI volgens richtlijnen zoals de AI Act en de AVG.

Deze sessie biedt een combinatie van actuele praktijkvoorbeelden, technische uitleg en organisatorische aanbevelingen om AI veilig én verantwoord te gebruiken.


Wat je leert tijdens deze sessie


1. Kwetsbaarheden in AI-systemen herkennen

Je krijgt inzicht in hoe AI-modellen kunnen worden misbruikt of gemanipuleerd.

  • Prompt injection en jailbreak prompts bij taalmodellen

  • Output leaking en ongewenste extractie van gevoelige data uit modellen

  • Model inversion: achterhalen van trainingsdata uit een model

  • Data poisoning: beïnvloeden van modelgedrag door foute inputdata

  • Misbruik van open modellen en API’s door onbevoegde gebruikers


2. Adversarial attacks bij taal- en beeldmodellen

Je leert over verschillende vormen van adversarial attacks en hoe deze modellen beïnvloeden.

  • Evasion attacks: het manipuleren van input zodat een model verkeerde voorspellingen doet (bijv. afbeeldingen die voor het oog identiek zijn maar fout geclassificeerd worden)

  • Poisoning attacks: beïnvloeden van het leerproces door foutieve of gemanipuleerde trainingsdata

  • Inference attacks: gevoelige informatie afleiden uit de output van het model

  • Backdoor attacks: opzettelijk ingebouwde kwetsbaarheden die door kwaadwillenden geactiveerd kunnen worden


3. Beveiligingsmaatregelen en verantwoord gebruik van AI

Je krijgt praktische richtlijnen om AI-systemen veilig(er) te maken.

  • Input sanitization en validatie om misbruik via prompts of invoer te beperken

  • Outputbeoordeling, filtering en scoremechanismen op modelantwoorden

  • Logging en monitoring van AI-interacties voor detectie van misbruik of afwijkingen

  • Toegangscontrole op basis van context, rol of risicoanalyse

  • Continual testing met adversarial testcases en red-teaming


4. Juridische kaders en compliance

Naast de technische kant leer je ook welke juridische en ethische kaders relevant zijn.

  • Overzicht van de AI Act: risicocategorieën, transparantie-eisen en verplichtingen

  • AVG in relatie tot AI: dataminimalisatie, uitlegbaarheid en rechten van betrokkenen

  • Toepassing van Responsible AI-principes in ontwerp en gebruik

  • Governance en accountability binnen je organisatie


Aanpak en werkvormen


Deze kennissessie is opgebouwd rond praktijkvoorbeelden, actuele cases en interactie. Je krijgt inzicht in zowel technische als beleidsmatige aspecten van AI-security. We combineren uitleg met concrete aanbevelingen en bieden ruimte om risico’s en oplossingen te bespreken in de context van jouw organisatie.


Voor wie


Deze sessie is bedoeld voor AI-ontwikkelaars, security professionals, compliance officers en beleidsmakers die betrokken zijn bij de inzet van AI en de bijbehorende risico’s willen beheersen. Een basiskennis van AI en security wordt aanbevolen.



Geïnteresseerd in deze sessie?


Neem gerust contact met ons op. We denken graag met je mee over een sessie die aansluit op de behoeften van jouw team of organisatie.

AI Security: Veilig en verantwoord AI inzetten

Introductie


In deze kennissessie verdiep je je in de belangrijkste beveiligingsrisico’s bij het gebruik van AI-systemen. Je leert hoe taal- en beeldmodellen kwetsbaar kunnen zijn voor manipulatie, hoe aanvallers deze systemen misbruiken en welke maatregelen je kunt nemen om ze te beschermen. Denk aan technieken zoals prompt injection, adversarial examples, model inversion, en data poisoning. Ook krijg je inzicht in het verantwoord en juridisch correct inzetten van AI volgens richtlijnen zoals de AI Act en de AVG.

Deze sessie biedt een combinatie van actuele praktijkvoorbeelden, technische uitleg en organisatorische aanbevelingen om AI veilig én verantwoord te gebruiken.


Wat je leert tijdens deze sessie


1. Kwetsbaarheden in AI-systemen herkennen

Je krijgt inzicht in hoe AI-modellen kunnen worden misbruikt of gemanipuleerd.

  • Prompt injection en jailbreak prompts bij taalmodellen

  • Output leaking en ongewenste extractie van gevoelige data uit modellen

  • Model inversion: achterhalen van trainingsdata uit een model

  • Data poisoning: beïnvloeden van modelgedrag door foute inputdata

  • Misbruik van open modellen en API’s door onbevoegde gebruikers


2. Adversarial attacks bij taal- en beeldmodellen

Je leert over verschillende vormen van adversarial attacks en hoe deze modellen beïnvloeden.

  • Evasion attacks: het manipuleren van input zodat een model verkeerde voorspellingen doet (bijv. afbeeldingen die voor het oog identiek zijn maar fout geclassificeerd worden)

  • Poisoning attacks: beïnvloeden van het leerproces door foutieve of gemanipuleerde trainingsdata

  • Inference attacks: gevoelige informatie afleiden uit de output van het model

  • Backdoor attacks: opzettelijk ingebouwde kwetsbaarheden die door kwaadwillenden geactiveerd kunnen worden


3. Beveiligingsmaatregelen en verantwoord gebruik van AI

Je krijgt praktische richtlijnen om AI-systemen veilig(er) te maken.

  • Input sanitization en validatie om misbruik via prompts of invoer te beperken

  • Outputbeoordeling, filtering en scoremechanismen op modelantwoorden

  • Logging en monitoring van AI-interacties voor detectie van misbruik of afwijkingen

  • Toegangscontrole op basis van context, rol of risicoanalyse

  • Continual testing met adversarial testcases en red-teaming


4. Juridische kaders en compliance

Naast de technische kant leer je ook welke juridische en ethische kaders relevant zijn.

  • Overzicht van de AI Act: risicocategorieën, transparantie-eisen en verplichtingen

  • AVG in relatie tot AI: dataminimalisatie, uitlegbaarheid en rechten van betrokkenen

  • Toepassing van Responsible AI-principes in ontwerp en gebruik

  • Governance en accountability binnen je organisatie


Aanpak en werkvormen


Deze kennissessie is opgebouwd rond praktijkvoorbeelden, actuele cases en interactie. Je krijgt inzicht in zowel technische als beleidsmatige aspecten van AI-security. We combineren uitleg met concrete aanbevelingen en bieden ruimte om risico’s en oplossingen te bespreken in de context van jouw organisatie.


Voor wie


Deze sessie is bedoeld voor AI-ontwikkelaars, security professionals, compliance officers en beleidsmakers die betrokken zijn bij de inzet van AI en de bijbehorende risico’s willen beheersen. Een basiskennis van AI en security wordt aanbevolen.



Geïnteresseerd in deze sessie?


Neem gerust contact met ons op. We denken graag met je mee over een sessie die aansluit op de behoeften van jouw team of organisatie.

1.jpg

Beschrijving:
Leer hoe je AI-systemen beschermt tegen risico’s zoals datalekken, prompt injection en adversarial attacks. Krijg inzicht in de best practices voor veilige inzet van AI en hoe je voldoet aan de eisen van o.a. de AI Act.


Leerdoelen:

  • Herkennen van kwetsbaarheden zoals prompt injection en modelmisbruik.

  • Inzicht in adversarial attacks bij beeld- en taalmodellen.

  • Toepassen van securitymaatregelen zoals inputfilters, outputbeoordeling en logging.

  • Juridische kaders begrijpen: AI Act, AVG en verantwoord gebruik van generatieve AI.


Voor wie: Developers, security professionals, IT-professionals en beleidsmakers die willen leren over de kwetsbaarheden van AI-systemen.

AI Security: Veilig en verantwoord AI inzetten

dsfsdfsdf

Introductie


In deze kennissessie verdiep je je in de belangrijkste beveiligingsrisico’s bij het gebruik van AI-systemen. Je leert hoe taal- en beeldmodellen kwetsbaar kunnen zijn voor manipulatie, hoe aanvallers deze systemen misbruiken en welke maatregelen je kunt nemen om ze te beschermen. Denk aan technieken zoals prompt injection, adversarial examples, model inversion, en data poisoning. Ook krijg je inzicht in het verantwoord en juridisch correct inzetten van AI volgens richtlijnen zoals de AI Act en de AVG.

Deze sessie biedt een combinatie van actuele praktijkvoorbeelden, technische uitleg en organisatorische aanbevelingen om AI veilig én verantwoord te gebruiken.


Wat je leert tijdens deze sessie


1. Kwetsbaarheden in AI-systemen herkennen

Je krijgt inzicht in hoe AI-modellen kunnen worden misbruikt of gemanipuleerd.

  • Prompt injection en jailbreak prompts bij taalmodellen

  • Output leaking en ongewenste extractie van gevoelige data uit modellen

  • Model inversion: achterhalen van trainingsdata uit een model

  • Data poisoning: beïnvloeden van modelgedrag door foute inputdata

  • Misbruik van open modellen en API’s door onbevoegde gebruikers


2. Adversarial attacks bij taal- en beeldmodellen

Je leert over verschillende vormen van adversarial attacks en hoe deze modellen beïnvloeden.

  • Evasion attacks: het manipuleren van input zodat een model verkeerde voorspellingen doet (bijv. afbeeldingen die voor het oog identiek zijn maar fout geclassificeerd worden)

  • Poisoning attacks: beïnvloeden van het leerproces door foutieve of gemanipuleerde trainingsdata

  • Inference attacks: gevoelige informatie afleiden uit de output van het model

  • Backdoor attacks: opzettelijk ingebouwde kwetsbaarheden die door kwaadwillenden geactiveerd kunnen worden


3. Beveiligingsmaatregelen en verantwoord gebruik van AI

Je krijgt praktische richtlijnen om AI-systemen veilig(er) te maken.

  • Input sanitization en validatie om misbruik via prompts of invoer te beperken

  • Outputbeoordeling, filtering en scoremechanismen op modelantwoorden

  • Logging en monitoring van AI-interacties voor detectie van misbruik of afwijkingen

  • Toegangscontrole op basis van context, rol of risicoanalyse

  • Continual testing met adversarial testcases en red-teaming


4. Juridische kaders en compliance

Naast de technische kant leer je ook welke juridische en ethische kaders relevant zijn.

  • Overzicht van de AI Act: risicocategorieën, transparantie-eisen en verplichtingen

  • AVG in relatie tot AI: dataminimalisatie, uitlegbaarheid en rechten van betrokkenen

  • Toepassing van Responsible AI-principes in ontwerp en gebruik

  • Governance en accountability binnen je organisatie


Aanpak en werkvormen


Deze kennissessie is opgebouwd rond praktijkvoorbeelden, actuele cases en interactie. Je krijgt inzicht in zowel technische als beleidsmatige aspecten van AI-security. We combineren uitleg met concrete aanbevelingen en bieden ruimte om risico’s en oplossingen te bespreken in de context van jouw organisatie.


Voor wie


Deze sessie is bedoeld voor AI-ontwikkelaars, security professionals, compliance officers en beleidsmakers die betrokken zijn bij de inzet van AI en de bijbehorende risico’s willen beheersen. Een basiskennis van AI en security wordt aanbevolen.



Geïnteresseerd in deze sessie?


Neem gerust contact met ons op. We denken graag met je mee over een sessie die aansluit op de behoeften van jouw team of organisatie.

How It All Started

This is a space to share more about the business: who's behind it, what it does and what this site has to offer. It’s an opportunity to tell the story behind the business or describe a special service or product it offers. You can use this section to share the company history or highlight a particular feature that sets it apart from competitors.
 

Let the writing speak for itself. Keep a consistent tone and voice throughout the website to stay true to the brand image and give visitors a taste of the company’s values and personality.

bottom of page