AI-geletterdheid: meer dan een nice-to-have
mei 2026
Al een tijd is AI-geletterdheid binnen ondernemingen geen vrijblijvende ambitie meer, maar een concrete verplichting onder de Europese AI Act.
Elke werkgever – van eenmanszaak over multinational tot openbaar bestuur – moet ervoor zorgen dat medewerkers die met AI-systemen werken voldoende kennis en inzicht hebben om deze technologie verantwoord in te zetten. Oftewel, AI-geletterd zijn. Maar wat betekent “AI-geletterd” in de praktijk? Welke kennis verwacht de wetgever van uw team? En hoe stemt u uw aanpak af op de rol, ervaring en context van elke medewerker?
In deze blog leest u waarom AI-geletterdheid het nieuwe fundament wordt, en welke concrete stappen u vandaag al moet zetten om uw organisatie compliant en toekomstbestendig te maken.
AI-geletterdheid
Vanaf 2 februari 2025 moeten ondernemingen/openbare besturen zorgen voor voldoende AI-geletterdheid onder werknemers die betrokken zijn bij AI-gerelateerde processen. Dit betekent dat aanbieders en gebruikers van AI-systemen ervoor moeten zorgen dat hun personeel en andere personen die namens hen AI-systemen gebruiken, AI-geletterd zijn.
De mate van vereiste AI-geletterdheid wordt bepaald door de technische kennis en ervaring van de betrokkene, gevolgde opleidingen en trainingen, en de specifieke context waarin de AI-systemen worden gebruikt. Ook de rol en verantwoordelijkheden van de betrokken persoon spelen hierin een belangrijke rol. Om de AI-geletterdheid te waarborgen, dienen ondernemingen/openbare besturen gerichte trainingen aan te bieden en een Beleid Verantwoord AI-gebruik te implementeren. Dit moet worden ondersteund door regelmatige kennistoetsing en bijscholing. Het is belangrijk dat alle trainingen en competenties goed worden gedocumenteerd en dat er AI-verantwoordelijken binnen de organisatie worden aangesteld.
Verboden praktijken
Ondernemingen/openbare besturen moeten waarborgen dat verboden AI-systemen niet worden gebruikt binnen de organisatie. De AI Act hanteert hiervoor een risico gebaseerde benadering waarbij systemen worden ingedeeld in verschillende risicocategorieën. Hieronder treft u een overzicht van de verschillende AI-systemen, gaande van een onaanvaardbaar tot minimaal risico. De AI-toepassingen die een categorie met een onaanvaardbaar risico omvat systemen die vanaf 2 februari 2025 verboden zijn.
Onaanvaardbaar risico
- Subliminale, manipulatieve of misleidende technieken
- Misbruik maken van kwetsbaarheden (leeftijd, handicap)
- Biometrische categorisering voor beschermde kenmerken
- Sociale scoring systemen
- Risicobeoordeling voor toekomstige misdaden (profiling)
- Ongerichte verzameling gezichtsherkenningsdata
- Emotieherkenning op werk/onderwijsinstellingen
- Real-time biometrische identificatie in openbare ruimtes (! Uitz.)
Hoog risico
- Kritieke infrastructuur (transport, water, gas, verwarming en elektriciteit)
- Onderwijs (examenscoring en monitoren van examenfraude)
- Werkgelegenheid (CV-screening)
- Essentiële dienstverlening: kredietbeoordeling en gezondheidszorg
- Handhaving: evaluatie en bewijsvoering
Beperkt risico
- Chatbots voor klantenservice
- AI-systemen voor deepfakes
- Basis beeldherkenningssoftware
- Gepersonaliseerde aanbevelingen op e-commerce platforms
Minimaal risico
- Spamfilters
- AI videospellen
- Basis beeldherkenningssoftware
Op het ontwikkelen of gebruiken van verboden AI-systemen staan administratieve geldboetes tot 35 miljoen euro, of tot 7% van de totale wereldwijde jaarlijkse omzet van de onderneming, als dat hoger is.
De verplichtingen met betrekking tot de AI-systemen met een hoog risico (risicobeheer/data governance/cyberbeveiliging/…) en de transparantieverplichtingen voor bepaalde AI-systemen treden in een latere fase in werking.
In augustus 2027 (behoudens uitstel) zal de verordening volledig van kracht zijn.
Stappenplan
Om te voldoen aan de EU AI Act moet vanaf februari 2025 een gedegen risicobeoordeling uitgevoerd worden van alle AI-systemen binnen de organisatie. Indien dit nog niet gebeurd is, dient er spoedig werk van gemaakt te worden.
Stap 1. Risicoanalyse uitvoeren
- Voer een uitgebreide risicoanalyse uit van alle AI-systemen binnen de organisatie. Identificeer en categoriseer systemen volgens de risiconiveaus.
Stap 2: Transparantie en documentatie
- Zorg voor volledige documentatie van alle AI-systemen. Dit omvat technische documentatie, risicobeoordelingen en transparantieverslagen.
- Transparantie is een kernvereiste van de AI Act. Ontwikkel een documentbeheersysteem voor compliance.
Stap 3: AI-geletterdheid bevorderen
- Organiseer trainingen en workshops om AI-geletterdheid onder werknemers te bevorderen. Zorg ervoor dat iedereen die betrokken is bij AI-processen voldoende kennis heeft over verantwoord AI-gebruik.
- Meet en evalueer de effectiviteit van de trainingen.
- Zorg continue voor bijscholing.
Stap 4: Implementeren van een Beleid Verantwoordelijk AI-gebruik
- Ontwikkel en implementeer een Beleid Verantwoordelijk AI-gebruik dat richtlijnen biedt voor het gebruik van AI binnen het bedrijf.
- Definieer rollen en verantwoordelijkheden.
- Implementeer controlemechanismen.
- Zorg voor regelmatige evaluatie en updates.
- Dit helpt bij het waarborgen van ethisch en verantwoord gebruik van AI-systemen en voldoet aan de vereisten van de AI Act.
Stap 5: Monitoring en Bijsturing
- Stel een systeem op voor continue monitoring en bijsturing van AI-processen. Zorg ervoor dat AI-systemen regelmatig worden geëvalueerd en aangepast indien nodig.
- Voer regelmatige audits uit.
- Stel KPI’s op voor compliance.
- Ontwikkel een incidentresponsprocedure.
- Dit zorgt ervoor dat je bedrijf voortdurend in overeenstemming blijft met de AI Act en snel kan reageren op eventuele veranderingen of nieuwe vereisten.
Vragen of behoefte aan juridisch advies?
Neem gerust contact op voor vragen, advies op maat of juridisch sparren. Onze expert Mieke Trombetta helpt u verder.

Mieke Trombetta
mieke.trombetta@halsten.be
Bronnen
Compilation_AI_Literacy_Practices_I5gpO7ZeUCvjFN9mnftm42pyjVQ_112203.pdf
Andere artikelen
-
Wanneer AI jouw gezicht leent
-
Het belang van een Data Protection Officer (DPO)
-
GAS-problematiek & lokale besturen
-
De NIS2-richtlijn
-
FRIA-verplichting voor lokale besturen
-
Privacyrecht bij Plan International België
-
Data Act: eerlijk datagebruik en meer controle over verbonden toestellen
-
Gastcollege UGent: bestuurlijke handhaving
-
AI: kans of extra uitdaging voor uw lokaal bestuur?
-
Directe marketing & GBA
-
Boek 7: Grote harmonisering in het contractenrecht
-
De Evolutie van Legal Operations
-
AI ACT: belangrijkste beginselen
-
Structurele ondersteuning Plan International
-
Nieuw Buitencontractueel Aansprakelijkheids-recht
-
Gilles Janssen Award voor advocaat Daniëlla
-
Nominatie Eliane Koelmans (team Halsten in Nederland): Legal Women Award
-
De elektronische handtekening: gelezen en goedgekeurd?
-
Datalekken: neem uw voorzorgen
-
Navigeer door Legal Operations met een roadmap
-
Inhouse training: Generative AI
-
Verandert uw onderneming van grootte?
-
Halsten loopt voor Stichting Alzheimer
-
AI & GDPR: meer met elkaar verbonden dan u denkt
-
Best Workplaces for Women Award
-
ESG-rapportageverplichtingen (CSRD)
-
Nieuw Wetboek Buitencontractueel Aansprakelijkheidsrecht
-
Europa is koploper inzake AI-regelgeving. Waar staat uw organisatie?
-
Nieuwe ESG-verplichtingen: CSRD
-
Is de imprevisieleer al verankerd in uw contracten?
-
Belgische Klokkenluiderswet: 17 dec 2023 deadline
-
Verplichte e-invoicing vanaf 1 januari 2026 voor B2B-facturen
-
Aanpassen van uw statuten aan het WVV: de deadline nadert
-
Nieuwe regels invordering schulden consumenten
-
We're live