Column: Een stille ramp
Er is binnen de overheid heel veel aandacht voor algoritmes, en dat gaat hand-in-hand met de hype rondom generatieve AI. Er wordt mee geëxperimenteerd: ‘Hoe zou het zijn als we hier een algoritme voor inzetten?’ Twinkelende ogen. Dat geëxperimenteer kun je nu niet meer doen zonder ‘iets’ aan ethiek te doen (of daarover te jabberwockyën), dat besef lijkt wel doorgedrongen. Dus het moet wel ‘verantwoord’. De IAMA staat goed op de kaart, wat op zich een goede start is voor het bredere bewustzijn van het mogelijk effect bij de inzet van algoritmes en aandacht daarvoor in de ontwikkeling.
Laatst werd ik op een symposium aangekondigd als AI-ethicus. Dat heb ik plenair meteen rechtgezet. Die definitie is mij veel te eng. Als in, te beperkt. Maar angstaanjagend, vind ik ‘m ook wel.
AI-ethiek is voor mij –hooguit- onderdeel van data-ethiek. Ik hanteer nog altijd de definitie van data-ethiek die Floridi in 2016 neerlegde. Hij maakte heel zorgvuldig onderscheid tussen de ethiek van data (-verzameling, -gebruik, -deling en -verwerking), de ethiek van algoritmes en modellen (toepassing) en de professionele gebruiken die bij de omgang met data horen. De reflectie op data is het uitgangspunt, daarna volgt de toepassing.
De focus op de ethiek van algoritmes en modellen gaat vaak gepaard met iets dat ik het ‘technisch perspectief’ op data-ethiek ben gaan noemen. In het ontwerpproces is men dan bewust van het gevaar dat er ongewenste vraagstukken in het ontwerp sluipen, denk aan biases in het algoritme of de schending van mensenrechten. Ethiek betekent dan dus het elimineren van fouten of voorkomen van ellende, veelal via een technische insteek (tool of assessment). Eigenlijk concentreert die ethiek zich rondom het No Harm-principle. Niet mijn insteek – ethiek moet niet worden ingezet om iets te voorkomen, maar juist om iets te bewerkstelligen. Het gaat om ergens naartoe te bewegen, in de plaats van ergens vanaf.
Mijn zorg is dat er een stille ramp aan het ontstaan is door deze focus. De fundamenten, de data, zijn vaak niet goed (kwaliteit) of niet op orde (management en architectuur). ‘Data is dood’, hoor ik Wouter van Aerle geregeld zeggen (en zijn post daarover op LI ging viral). Er is te weinig aandacht voor data als fundament en de reflectie daarop. Dus de focus op ‘fantastische oplossingen’ op ‘verantwoorde wijze’, is vragen om problemen. Kwestie van tijd. AI gaat dit probleem niet oplossen. AI-ethiek ook niet.
Dit is een column geschreven door Piek Knijff voor iBestuur Magazine en verscheen in het juninummer van 2024.