September 10, 2024

Artificial intelligence
Petra van Driel en Marlies van Steenbergen roepen in het AG connect

(externe link)

op tot het borgen van een situationele horizontale dialoog, naast de verticaal opgelegde generieke regels en richtlijnen.

Sinds enige jaren is binnen Nederland een ontwikkeling gaande van een puur verticaal hiërarchisch perspectief op besluitvorming door de overheid, naar horizontale besluitvorming gebaseerd op communicatie tussen gelijken. Een gelijktijdige ontwikkeling is de toenemende integratie van algoritmes, waaronder kunstmatige intelligentie (AI), in de besluitvorming van de overheid. Deze laatste tendens dreigt de ontwikkeling van horizontale besluitvorming te ondermijnen. Dat is reden voor zorg. Petra van Driel en Marlies van Steenbergen roepen op tot het borgen van een situationele horizontale dialoog, naast de verticaal opgelegde generieke regels en richtlijnen.

In het verticale perspectief op besluitvorming zijn burgers onderworpen aan de overheid, autoriteiten, werkgevers of andere vormen van hiërarchische bevoegdheden. Maar er zijn ook onderliggende processen nodig om informatie en kennis te ontwikkelen en ervaring op te doen. Deze processen spelen op de achtergrond en zijn nodig om tot juiste besluitvorming te komen. Dit is het horizontale perspectief, van waaruit betrokkenen samenwerken in een netwerkstructuur en streven naar een gemeenschappelijk doel, elk vanuit een eigen verantwoordelijkheid. De afweging van het horizontale perspectief is een noodzakelijk, maar minder zichtbaar onderdeel van de overheidsbesluitvorming (ROB, 2011).

Digitalisering in de uitvoering

De opkomst van big data en AI en de toenemende digitalisering van diensten van de afgelopen jaren zijn niet aan de overheid voorbij gegaan. Een voorbeeld is het gebruik van data en AI voor profilering, bijvoorbeeld ter ondersteuning van politietoezicht of voor besluitvorming over toeslagverlening. Profilering houdt in dat er speciale aandacht uitgaat naar bepaalde (groepen van) individuen. Vaak is profilering gericht op het signaleren van verdachte personen, bijvoorbeeld van het plegen van fraude of andere manieren overtredingen van de wet. Geautomatiseerde besluitvorming kan ook op individueel niveau worden toegepast om te beslissen of een persoon in aanmerking komt voor een bepaalde behandeling, zoals het ontvangen van een overheidstoelage, of ingezet worden als zelfstandige. Wat al deze gevallen met elkaar gemeen hebben, is het wegvallen van het menselijk overleg uit het besluitvormingsproces (Bovens & Keizer, 2020). Dit wordt problematisch in het geval van ’false positives’ en ‘false negatives’. Maar ook bij de rechtmatige toepassing van wet- en regelgeving kunnen individuele en specifieke omstandigheden een situationele behandeling rechtvaardigen. In het arbeidsrecht bijvoorbeeld, waarin ‘alle omstandigheden van het geval’ meewegen. Alleen rekening houden met wat in contracten is vastgelegd, wordt niet voldoende geacht (Hoge Raad, 2020). Uitzonderlijke omstandigheden worden vaak niet gesignaleerd door een automatisch systeem. De automatisering van checks and balances in ons fiscale en sociale systeem verhindert deze ‘holistische check’ in de besluitvorming van de overheid. Automatisering vermindert de ruimte voor horizontale reflectie; waar hiërarchische sturing (verticaal perspectief) voor een groot deel geautomatiseerd kan worden (Grant, 1996), is een overleg tussen gelijken (horizontaal perspectief) veel moeilijker te automatiseren.

Menselijke waarden in het geding

Als door digitalisering het horizontale perspectief verdwijnt, dreigt de reflectie te verdwijnen over de ethische kant van de toepassing van het recht. Geautomatiseerde besluitvorming kan een cultuur van wantrouwen voeden, het spreekwoordelijke ‘boeven vangen’. Daarbij wordt uitgegaan van de veronderstelling dat mensen vals spelen in plaats van het juiste doen. Dit heeft grote gevolgen voor zowel de persoonlijke waarden van burgers en ambtenaren, als voor de publieke waarden. Een belangrijke publieke waarde die wordt bedreigd is die van rechtvaardigheid. Als de oorspronkelijke checks and balances door automatische besluitvorming niet functioneren, kunnen beslissingen in de maatschappij onrechtvaardig aanvoelen. Dit geldt voor false positives, burgers die onterecht als verdacht of zelfs frauduleus worden aangemerkt. Maar ook, zij het in mindere mate, voor false negatives: burgers die door de mazen van het net glippen. Ook kan automatische besluitvorming een grote impact hebben op de publieke waarde vertrouwen. De samenleving kan geschokt raken, ze was in de fundamentele overtuiging dat een democratische regering haar burgers geen schade zou berokkenen. Schade aan dit geloof kan enorme gevolgen hebben voor de manier waarop de samenleving reageert op overheidsbesluiten in het algemeen en kan uiteindelijk een bedreiging vormen voor de democratie. Daar komt bij dat automatische besluitvorming ook de mogelijkheid verkleint voor de overheid om vertrouwen te tonen jegens haar burgers (Zuboff, 2017). Er is geen ruimte meer voor het hanteren van de ‘menselijke maat’.

Extreme stress

False positives kunnen ook leiden tot extreme stress en sterke vermindering van de persoonlijke waarde van welzijn voor de individuele burgers waar het om gaat. De gevolgen voor de financiële toestand, vrijheid of gezondheid van een burger kunnen ernstig zijn. Slachtoffers van onrechtvaardige profilering kunnen zich ook aangevallen voelen op hun menselijke waardigheid, omdat ze als oplichters worden behandeld en het gevoel hebben dat ze worden veroordeeld voor wandaden zonder enige mogelijkheid om hun onschuld te bewijzen. Er is een reëel gevaar dat de regel van ‘onschuldig tot bewezen schuldig’ wordt omgedraaid. Medewerkers kunnen zich bedreigd voelen in hun gevoel van autonomie. Ze kunnen zich onder druk gezet voelen om te reageren op de uitkomsten van de geautomatiseerde besluitvorming, zelfs als ze zich er ongemakkelijk bij voelen. Afwijken van het geautomatiseerde advies behoeft uitleg en is riskanter dan zonder vragen na te leven.

Reflectie inbouwen

Met de huidige digitalisering van de uitvoerende macht is de kans groot dat het horizontale perspectief verdwijnt. En daarmee de ruimte voor moreel overleg en reflectie. We moeten ons afvragen wat er gebeurt als we wet- en regelgeving die vatbaar zijn voor interpretatie en situationele overwegingen, proberen te kneden in geautomatiseerde systemen en processen op basis van een binaire realiteit (Emmerig, 2021). Hoe vinden we een dynamisch evenwicht tussen het horizontale en het verticale perspectief, in moderne gedigitaliseerde samenlevingen? De afwisseling van het verticale en horizontale perspectief, top-down regelgeving afgewisseld door horizontale afwegingen, kan een uitweg bieden. Digitalisering kan verticaal worden ingezet – voor het automatiseren van specifieke onderdelen van de regels en voorschriften die kunnen worden geautomatiseerd. Zo kan een digitale tool ingezet worden voor een beoordeling en advies. Vervolgens dient dit advies op bepaalde scharnierpunten in het proces tot uiting te komen. Dat schept ruimte voor interpretatie – en juridisch is die is er ook. Deze ruimte om de digitale uitkomst te zien als advies, wordt vaak niet gebruikt, of zelfs over het hoofd gezien. Het is daarom de verantwoordelijkheid van de overheid om nooit digitale beslissystemen in te voeren zonder bijbehorende richtlijnen voor het gebruik ervan. Dan komt het rechtssysteem correct tot uiting en ontstaat er ruimte voor ethische afwegingen en juridische overwegingen. De invoering van de DBA-wet die nu voorligt, is een kans voor de overheid om hier serieus werk van te maken. We roepen de overheid op om niet zomaar door te gaan op de ingeslagen weg en AI overal in te voeren. In plaats daarvan willen we ervoor pleiten om digitale middelen alleen in te zetten, als er expliciete reflectiemomenten in het proces worden ingebouwd. Dit betekent nooit blindelings vertrouwen op het antwoord dat uit het systeem komt. Reflecteren betekent een stapje terug doen, zelf en samen nadenken of de juiste beslissing is genomen en hoe die tot stand is gekomen. Digitalisering wordt dan onderdeel van een menselijk besluitvormingsproces. Geen doel, maar een middel in een proces waarin mensen vanuit verschillende perspectieven samenwerken. In plaats van de besluitvorming te automatiseren met behulp van AI, moeten we ons richten op het bouwen van een zinvolle interactie tussen mens en machine.