Sinds de AI Act van de Europese Unie in augustus 2024 in werking trad, zijn bedrijven verplicht om transparanter te zijn over het gebruik van kunstmatige intelligentie en risico’s zorgvuldig te beheren. Toch blijkt uit onderzoek van Highberg dat meer dan de helft van de Nederlandse organisaties nog niet goed voorbereid is.
Waarom deze wet ertoe doet
De AI Act is bedoeld om AI-systemen veilig, ethisch en transparant te maken. En dat is hard nodig, zeker in sectoren waar AI ingezet wordt voor klantmonitoring, risicobeoordeling of het opsporen van ongebruikelijke transacties. Denk aan algoritmes voor anti-witwascontroles of klantprofilering.
Wat betekent dit concreet voor Wwft-instellingen?
De AI Act en Wwft kruisen elkaar precies op het punt waar het spannend wordt: risicogebaseerde besluitvorming. Stel: je gebruikt een algoritme voor transactieanalyse of het monitoren van klantgedrag. Dan vraagt de AI Act niet alleen dat je de werking kunt verklaren, maar ook dat je structureel beoordeelt of het systeem geen discriminerende of onrechtmatige uitkomsten oplevert.
Checklist: Staat uw organisatie al in compliance-stand?
Heeft u in kaart welke AI-systemen binnen uw organisatie actief zijn?
Is duidelijk welk risiconiveau deze systemen hebben?
Is geborgd dat mensen de beslissingen van AI kunnen toetsen of terugdraaien?
Heeft u vastgelegd hoe uw AI-systemen werken en hoe risico’s gemonitord worden?
Zijn uw compliance- en IT-teams op elkaar afgestemd?
De AI Act legt de lat hoger voor organisaties die AI inzetten in risicovolle contexten – en dat geldt nadrukkelijk ook voor Wwft-instellingen. Wie nu investeert in transparantie, risicobeoordeling en interne samenwerking, voorkomt niet alleen boetes of reputatieschade, maar bouwt ook aan vertrouwen bij toezichthouders en klanten.