Iris Muis (Universiteit Utrecht) over AI: ‘Toets vooraf, monitor blijvend’

'Gebruik AI voor fouten en tijdwinst, maar houd het professionele stuur in eigen hand.'

AI-toepassingen volgen elkaar razendsnel op, zeker ook binnen de overheid. Tegelijk groeit de zorg over digitale soevereiniteit, afhankelijkheid van Big Tech en het risico op ongewenste effecten als discriminatie. ‘Leun op je eigen expertise om dat advies van zo’n AI-tool niet op te volgen of te veranderen.’

Precies daarom pleit Iris Muis, expert in verantwoorde AI en digitale ethiek en verbonden aan de Data School van de Universiteit Utrecht, voor een nuchtere, verantwoorde aanpak: eerst toetsen, dan inzetten en vervolgens blijvend monitoren.

Waarom nu stilstaan bij ethiek en maatschappij?
“Er zijn veel redenen om nu bij de ethische en maatschappelijke kant van AI stil te staan,” begint Iris Muis. Ze noemt allereerst digitale autonomie en soevereiniteit: de macht van grote techbedrijven weegt zwaar in Europa en Nederland. “We zagen recent hoe medewerkers van het Strafhof ineens niet meer bij hun Microsoft-e-mail konden. Met de huidige politieke wind in de VS wordt het veel minder voorspelbaar. Je ziet nu ook dat de politiek ineens aan touwtjes kan trekken binnen die bedrijven. Het is dus helemaal niet meer vanzelfsprekend dat afspraken met een Amerikaans techbedrijf standhouden of dat je data echt veilig zijn.”

Vandaar ook volgens haar de vraag: moeten we niet onze eigen Nederlandse AI-toepassingen en technologieën ontwikkelen? “Eén grote beweging die al in gang is gezet, is de ontwikkeling van GPT-NL, de Nederlandse tegenhanger van ChatGPT. Als het goed is, zijn ze bijna klaar met het trainen van het model. Dan wordt duidelijk of het net zo goed werkt als ChatGPT. Ik ben heel erg benieuwd.”

Een tweede reden is dat AI veel schade kan veroorzaken als je het op een verkeerde manier toepast. Muis trekt het begrip bewust breder: “Als ik het over AI heb, reken ik algoritmes in bredere zin mee. Denk aan de Toeslagenaffaire; daar ging het gigantisch mis door een heel simpel algoritme dat een waarschuwingssignaal afgaf bij ouders met een dubbele nationaliteit.” Dat is geen AI volgens haar, wel algoritmische besluitvorming. “En Nederland kent meer voorbeelden van algoritmes of AI die verkeerd zijn gelopen. Het is daarom zo belangrijk om daarbij stil te staan. AI levert heel veel kansen op, maar er zijn helaas ook risico’s. Die moet je wel goed ondervangen om te voorkomen dat het helemaal misgaat,” concludeert Muis.

Toets vooraf, monitor blijvend
“Je moet AI toetsen vóórdat je het inzet,” zegt Iris Muis stellig. “Dat lijkt logisch, maar blijkbaar is dat toch nog niet helemaal logisch voor iedereen.” Ze gebruikt de analogie AI als nieuwe collega: “Vaak wordt gezegd dat AI onze banen of in ieder geval taken overneemt. Als je doorgaat in die analogie, zou je kunnen zeggen dat jij en ik eerst op sollicitatiegesprek moeten komen voordat we ergens aan het werk mogen. Op dezelfde manier moet AI getoetst worden: hoe functioneert het, waar zitten de zwakke plekken en voor welke doeleinden is deze toepassing wél of niet geschikt? Je hebt meer informatie nodig voordat je besluit om AI in te zetten.”

Minstens zo belangrijk is AI blijvend monitoren. “Als de toetsing goed is gegaan en AI ‘aan het werk’ is, is het zaak dat je het blijft monitoren. Net als medewerkers hoort AI periodiek een ‘functioneringsgesprek’ te krijgen: werkt het nog naar behoren, zijn er taken bijgekomen en welke aanpassingen zijn nodig om bij te blijven met wat er maatschappelijk speelt en in het veld?”

Ze ziet dat juist dit stuk vaak ontbreekt. “Die initiële toets zit er wel redelijk in – nog niet overal – maar blijvend monitoren gebeurt te weinig. Mensen denken vaak dat als het werkt, dan werkt het en dat ze er geen omkijken meer naar hebben. Maar zo is het niet. De ontwikkelingen in AI gaan supersnel. Voor je het weet is er weer een nieuwe toepassing op de markt die al veel beter past bij wat je nodig hebt dan wat je al in huis hebt.”

Grootste risico
Muis benadrukt dat het gebrek aan monitoren van AI een risico is. AI is niet statisch en het wordt steeds beter, maar toch blijft volgens haar die menselijke controle  belangrijk. Juist dáárdoor wijst zij op het grootste terugkerende risico in de publieke sector: discriminatie. “Dat is ook heel vaak naar voren gekomen bij de Toeslagenaffaire en bij het algoritme van DUO om fraude op te sporen bij de uitwonende beurs. Het gebeurt te vaak dat publieke organisaties denken dat het handig is om data als nationaliteit en migratieachtergrond in één grote bak te gooien. Ze kijken dan of AI daar correlaties in kan ontdekken. AI ontdekt overal correlaties, maar dat betekent niet dat er dus een causaal verband is.”

Muis licht toe met een voorbeeld: “Er zijn ook nog allerlei proxy’s voor zaken als de nationaliteit en migratieachtergrond. Wat betekent dat wanneer je die data niet direct gebruikt, maar wel data als inkomen of afstand tot ouders? Dan blijkt dat studenten met migratieachtergrond als ze op kamers gaan vaker dichter bij hun ouders in de buurt gaan wonen. Dan heb je alweer zo’n ongewenst effect te pakken. Dus dat is een groot risico dat we in het verleden vaak hebben gezien. Ik verwacht dat we dat in de toekomst nog vaker zullen tegenkomen.”

Tot slot waarschuwt ze voor een gemakzuchtige reflex: “Samen met collega’s ontwikkelde ik een ethische toets voor algoritmes en AI. Ik spreek veel op congressen hierover en dan krijg ik steeds vaker de vraag uit het publiek: ‘Kun je zo’n ethische toets niet gewoon overlaten aan een andere AI-tool, die maakt er wel een ethisch verslag en dan ben je klaar.’ Mijn antwoord is nee. We moeten niet ons menselijke morele oordeelsvermogen uitbesteden aan AI. Dat is een heel erg slecht en zelfs zorgwekkend idee.”

De rol van financials
Zet AI in om tijd te winnen en fouten te verminderen, maar houd moreel en professioneel stuur in eigen hand, is het advies van Muis. “Ga uit van je eigen kennis en ervaring, en vaar niet blind op de hulp van AI of algoritme. AI-toepassingen zijn vaak getraind op heel veel data, maar niet op die hele specifieke informatie die in jouw vakgebied van belang is. Dat is kennis en ervaring die je zelf nog heel goed kan aandragen.”

Ze maakt dat concreet met een Wmo-casus: “Een toezichthouder op de Wet maatschappelijke ondersteuning – uitkeringen die verstrekt worden door de gemeente – ontvangt bankafschriften van burgers en checkt of deze personen misschien toch nog inkomsten hebben, terwijl dat niet mag. Dat is handwerk en foutgevoelig. Er zijn heel goede AI-toepassingen die afschriften door zo’n tool halen en kijken of er opvallende transacties tussen zitten, waarna de financial deze handmatig checkt. Superhandig.”

Maar, zegt Muis nadrukkelijk, blijf er als professional wel bij stilstaan dat dit ook maar een uitkomst is van zo’n AI-tool, en niet de waarheid. “Als het nu is aangemerkt als opvallende transactie door AI, maar jij denkt van niet? Dan is het oké om daarvan af te wijken. Leun op je eigen expertise om dat advies van zo’n AI-tool niet op te volgen of te veranderen,” adviseert ze.

Klaar voor de publieke sector van morgen
Iris Muis verzorgt samen met zes gerenommeerde docenten de Mastercourse Publieke Sector 2025. Dit jaarlijkse programma, een initiatief van Sijthoff Accountants Academy (voorheen NBA Opleidingen), brengt accountants, auditors en andere financials uit de publieke sector samen. In drie inspirerende workshops scherpen zij hun kennis en competenties, zodat ze klaar zijn voor de publieke sector van morgen. Hier komen public accounting, audit en ambtelijk vakmanschap samen. Laat je inspireren door experts als Eva van der Mark, Maarten de Borst, Robert Vogelsang en Martin Dees.
Meld je aan voor de Mastercourse | Bekijk het programma

Van tool naar praktijk: IAMA
In haar workshop ‘Verantwoorde AI en digitale ethiek’ tijdens de Mastercourse Publieke Sector 2025 laat Muis deelnemers kennismaken met instrumenten zoals Impact Assessment Mensenrechten en Algoritmes (IAMA) en vergelijkbare tools. “IAMA is bedoeld voor hoog-risico-algoritmes: algoritmes in AI-toepassingen die veel impact kunnen hebben op inwoners of medewerkers, waar zorgvuldig mee moet worden omgegaan. Je kunt IAMA inzetten om te bepalen wat de impact op mensenrechten zou zijn en hoe je die zo veel mogelijk kunt beperken. Dat kan betekenen dat je een proces anders inricht, dat je nog een menselijke toets inbouwt, de techniek iets aanpast en dat je zo’n bias/discriminatie-toets uitvoert om echt zeker te weten dat het onbedoeld of bedoeld – meestal is het onbedoeld – discrimineert.”

“En als je dat eenmaal hebt gedaan, dan kun je als organisatie zeggen van: ‘We hebben een weloverwogen keuze gemaakt om deze toepassing, ook al is die hoog-risico, toch in te zetten, omdat wij denken dat de negatieve impact op mensenrechten beperkt blijft.’”

IAMA en de EU-AI-verordening: klaar voor verplichting
“IAMA is een instrument dat sinds 2021 bestaat; toen is het gepubliceerd. Het was toen niet verplicht. Inmiddels is het opgenomen in de Europese wetgeving, in artikel 27 van de AI-verordening, die vanaf augustus 2026 verplicht wordt. Alle organisaties die een hoog-risico-algoritme of AI willen inzetten, zullen hieraan moeten geloven. Het is dus verstandig om je hier nu alvast over te laten informeren,” aldus Muis.

Geef intrinsieke innovatie de ruimte
Muis komt veel bij overheidsorganisaties en wat haar vaak verrast: echte vernieuwing komt vaak uit onverwachte hoek. “Bij een gemeente ontmoette ik iemand van de groenvoorziening die enorm gemotiveerd was. Hij vond die AI-ontwikkelingen zo interessant dat hij zelf een hele handige applicatie voor groenvoorziening en het schoonhouden van de straten én een implementatieproces voor zijn afdeling ontwikkelde. Dat wordt nu overgenomen in de rest van de gemeente. Echt heel leuk om te zien,” zegt ze enthousiast.

Haar oproep: “Geef ook de ruimte aan collega’s met intrinsieke interesse in dit soort technologieën om dit thema verder te brengen. Want dáár komt soms iets heel onverwachts uit, wat enorm inspirerend kan werken.”

Lees ook: Generatieve AI in de overheid: voorbij de hype, aan de slag

Maak kennis met Iris Muis
Iris Muis is expert in verantwoorde AI en digitale ethiek met ruim 10 jaar ervaring. Ze is mede-uitvinder van De Ethische Data Assistent (DEDA), gebruikt door meer dan 50 overheidsorganisaties. In opdracht van het Ministerie van Binnenlandse Zaken ontwikkelde ze het Impact Assessment Mensenrechten en Algoritmes (IAMA), een tool die grondrechten centraal stelt bij algoritmegebruik. IAMA wordt steeds breder erkend; het inspireerde het Europees Parlement en is onderwerp van aangenomen moties in de Tweede Kamer. Muis leidde meer dan 20 IAMA-trainingen voor meer dan 500 professionals en gaf meer dan 40 lezingen, onder meer op CPDP en Overheid360. Ze werkt aan verantwoorde datapraktijken bij de Data School (Universiteit Utrecht) als teamleider en kennisvalorisatie-expert. Iris combineert praktijk en onderzoek in digitale ethiek en ontwikkelt tools zoals het Functioneringsgesprek voor AI. Ze was finalist bij de Women in AI Netherlands Awards 2024 en behoort tot de 100 Brilliant Women in AI Ethics 2025.

Dit artikel verscheen eerder bij onze kennispartner Sijthoff Accountants Academy.

Gerelateerde artikelen