Fiscaal in je Moerstaal

De Algoritme Inspecteur

Stel je eens voor: een digitale melding in jouw Berichtenbox – of misschien nog die bekende blauwe envelop – brengt een belastingaanslag die je niet kunt plaatsen. Erger nog, je bekruipt het gevoel dat een onzichtbaar computerprogramma, een algoritme, een ingrijpende beslissing over jouw geld heeft genomen. Dit is geen verre toekomstmuziek, want zorgen over de risico’s van algoritmes bij de overheid zijn er volop. Ook de Belastingdienst kijkt, net als andere organisaties, volop naar de mogelijkheden van kunstmatige intelligentie (AI). Dit belooft efficiëntie, maar roept ook vragen op. Want wat als die efficiëntie ten koste gaat van de menselijke maat, of als de focus te veel op cijfers komt te liggen en minder op jouw unieke situatie? Verschillende experts, waaronder fiscalisten, maken zich hier zorgen over.

De inspecteur als menselijk anker

Voor veel Nederlanders is de belastinginspecteur wellicht een abstract figuur. In de kern is de inspecteur de expert van de Belastingdienst die jouw belastingaangifte controleert en de definitieve aanslag vaststelt. Hij of zij beoordeelt of je je aan de fiscale spelregels houdt, maar is er ook om uitleg te geven en contact te onderhouden met burgers en bedrijven over hun belastingzaken. Idealiter is de inspecteur niet alleen een controleur, maar ook een deskundig en benaderbaar aanspreekpunt, die de menselijke maat niet uit het oog verliest.

Deze traditionele inspecteur is meer dan een ambtenaar die regeltjes toepast. Een essentieel onderdeel van de functie is het zogeheten “freies Ermessen”: de professionele beoordelingsvrijheid om in unieke, individuele gevallen recht te doen aan de situatie. Dit betekent ook dat de inspecteur kan afwijken van strikte regels als de toepassing daarvan in een specifieke situatie onredelijk of onbillijk zou uitpakken. Historisch onderzoek naar de Belastingdienst beschrijft de inspecteur als een soort “grenspost” tussen het systeem van de Belastingdienst en de burger. Deze rol is een belangrijke waarborg binnen onze fiscale rechtsstaat, omdat het zorgt voor een menselijk gezicht en de mogelijkheid tot een persoonlijke, rechtvaardige afweging.

Dit fundament van individuele rechtsbescherming staat echter al langer onder druk. Reorganisaties, een sterke nadruk op efficiëntie en een meer gecentraliseerd beleid hebben de ruimte voor het “freies Ermessen” van de inspecteur verkleind. Het toeslagenschandaal en de problemen rond de box 3-heffing zijn pijnlijke voorbeelden van wat er mis kan gaan als deze menselijke en rechtsstatelijke afweging naar de achtergrond verdwijnt.

Van mens naar machine

De Belastingdienst omarmt, net als andere organisaties, de digitale transformatie. De focus ligt op efficiëntie en zorgen dat iedereen zo makkelijk mogelijk aan zijn verplichtingen voldoet. Er is een visie waarin de inspecteur meer zal leunen op technologische ondersteuning en voorwerk door anderen.

Een Nederlands voorbeeld van een omvangrijk datagedreven systeem was het Risico Analyse Model (RAM) van de Belastingdienst. Dit systeem, actief van circa 1998 tot mei 2018, verzamelde gegevens uit soms wel 69 verschillende bronnen om risico’s te selecteren voor belastingcontroles. Het ging hierbij niet alleen om fiscale data, maar ook om externe gegevens en soms gevoelige informatie, zoals nationaliteit en gegevens over strafrechtelijke verdenkingen.

Een diepgravend onderzoek van KPMG uit 2025 naar RAM concludeerde dat er vaak een wettelijke basis ontbrak voor het grootschalig koppelen van deze data en dat er onvoldoende waarborgen waren voor privacy. Het RAM-systeem illustreert de risico’s van een “gebrekkig rechtsstatelijke uitvoering” als systemen niet zorgvuldig worden ontworpen en ingezet.

Belangrijk is dat systemen zoals RAM weliswaar data analyseerden en selecties voorstelden, maar de uiteindelijke beslissing nog steeds bij een menselijke inspecteur lag. Bij AI gaat het vaak een stap verder: AI kan zelfstandig beslissingen nemen of zulke sterk sturende adviezen geven dat de menselijke invloed minimaal wordt. Dit kan de risico’s die bij RAM al zichtbaar werden, versterken. Zo wordt de beoordelingsvrijheid van de inspecteur verder uitgehold als AI de nuances van een individueel geval moeilijk kan vatten. Beslissingen door complexe AI-systemen zijn vaak ondoorzichtig, een soort ‘black box’, waardoor controle op eerlijkheid en juistheid lastig wordt.

Hoewel er ontwikkelingen zijn in ‘verklaarbare AI’ (ook wel Explainable AI of XAI genoemd), staat dit vaak nog in de kinderschoenen. Voor complexe beslissingen waarbij veel op het spel staat, zoals jouw belastingaanslag, is de uitleg die zulke systemen kunnen geven lang niet altijd voldoende. Bovendien kunnen in data ingebakken vooroordelen door AI worden overgenomen en zelfs versterkt; het KPMG-rapport wees al op het gebruik van nationaliteitsdata in RAM. En als het misgaat, wie is dan verantwoordelijk?

Impact op burgers

Wanneer algoritmes en AI-systemen een steeds grotere rol spelen, kan dit voor jou als burger betekenen dat contact met de Belastingdienst onpersoonlijker wordt en het lastiger is om uitleg te krijgen over besluiten. Hoe vecht je een computerbeslissing aan die je onrechtvaardig vindt, als de traditionele inspecteur als aanspreekpunt naar de achtergrond verdwijnt? Als de unieke context van jouw situatie niet meer lijkt mee te tellen, kan dit het vertrouwen in een rechtvaardige belastingheffing ernstig schaden.

Een mens naast de machine?

De inzet van AI is een onomkeerbare ontwikkeling. De vraag is niet óf AI wordt ingezet, maar hóe, op een manier die de rechtsstaat dient. Er zijn dan ook pleidooien om de rol van de inspecteur te blijven koesteren en beschermen. Misschien verandert die rol: van dossierbehandelaar naar een soort “AI-wachter”. Een expert die de algoritmes kritisch volgt, uitleg geeft waar de computer dat niet kan, en ingrijpt als het systeem de menselijke maat dreigt te verliezen. Dit vereist investeringen in goed opgeleide inspecteurs met nieuwe, digitale vaardigheden, zoals training in data-analyse, de ethische en juridische aspecten van algoritmes, en het kritisch beoordelen van AI-uitkomsten.

Nieuwe Europese wetgeving, de EU AI Act, probeert kaders te bieden, maar de praktijk zal moeten uitwijzen of dit voldoende bescherming biedt. De inspecteur, zo stelt professor Stevens treffend, blijft als de “kanarie in de kolenmijn” onmisbaar voor een gezonde fiscale rechtsstaat, juist in dit tijdperk van snelle technologische veranderingen.


Bronvermelding:

  • Stevens, L.G.M. (2025). De functionele dienstbaarheid van de inspecteur als medebewaker van de fiscale rechtsstaat. WFR 2025/146.
  • KPMG (2025). Rapport onderzoek Risico Analyse Model (RAM) bij Belastingdienst, Dienst Toeslagen en Douane.
  • Peters, R.G.P.; den Hollander, J.C. (2012). De positie van de inspecteur in de Belastingdienst 1980-2010. Informatief.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *