Met welk type persoon gaat met de nieuwe technologie of het algoritme werken? | Beeld: Shutterstock
Veel zaken zijn belangrijk, maar twee opgaves die daar voor mij essentieel in zijn springen er nu uit.
Opgave 1: Borgen van complementariteit in het samenwerken van mens en machine
Deze opgave gaat over de vraag hoe we gaan zorgen dat bij een voortgaande digitalisering van overheid en maatschappij, de mens en machine complementair aan elkaar zijn? Met complementair wordt hiermee bedoeld dat mens en technologie elkaars sterktes verrijken of elkaar zwaktes compenseren.
Vergelijkbaar met de uit de Griekse mythologie afkomstige Centaur, een wezen dat de kracht en het onderlijf van een paard combineert met het intellect en bovenlijf van de mens. De metafoor doortrekkend: de rekenkracht en patroon-analyse capaciteit van kunstmatige intelligentie (AI) kunnen in combinatie met menselijke creativiteit en morele zelfreflectie een nastrevenswaardige hedendaagse vorm van zo’n hybride samenwerking zijn. Oftewel, een best of both worlds solution.
Tegelijkertijd bestaat natuurlijk het risico dat we te snel handelen of onvoldoende stilstaan bij de mogelijke technologische gevolgen waardoor we uitkomen op een hele andere configuratie voor wat betreft het samengaan van mens en machine. Oftewel – om weer de metafoor van de Centaur te gebruiken – dat we eindigen met het onderlijf van een mens en het bovenlijf en de kop van een paard. Kortom, met een combinatie die niet het beste maar mogelijk juist het slechtste samenbrengt en dus een worst of both worlds situatie oplevert.
Maar hoe kunnen we dit voorkomen?
Door als eerste het uitgangspunt te nemen dat wanneer we als overheid technologie zoals AI of geavanceerde algoritmes inzetten in processen met mogelijkerwijs een grote impact op het levens van burgers, dat we dan juist daarin die complementariteit waarborgen.
De organisatorische context blijft vaak onderbelicht en iets waar ‘anderen’ voor verantwoordelijk zijn.
Voor wat betreft het inbedden van data-ethiek in organisaties, vraagt dit om een focus op belangrijke technische aspecten zoals datakwaliteit of modelkwaliteit. Maar ook om voldoende focus op de organisatorische context waarin technologie, algoritmes of kunstmatige intelligentie worden ingezet. Deze context blijft vaak onderbelicht en iets waar ‘anderen’ voor verantwoordelijk zijn, terwijl het juist essentieel is voor een volwassen implementatie van data-ethiek. Dat klinkt mooi, maar wat betekent dit nu concreet? Dat we bijvoorbeeld goed nadenken over een aantal zaken, waarvan ik er nu 3 kort bespreek.
1. Randvoorwaarden
Als eerste is het goed om te bedenken in wat voor soort proces de technologie/ het algoritme ingebed zal worden. Welke randvoorwaarden en maatregelen zijn er nodig om in dat proces de complementariteit van mens en machine te kunnen waarborgen? Een voorbeeld hiervan kan zijn om goed te kijken naar waar in het proces men ruimte inbouwt voor betekenisvolle menselijke toetsing bij geautomatiseerde of deels geautomatiseerde beslismomenten. Eén waarbij betekenisvolle menselijke toetsing betekent dat er een mens naar kijkt die ook echt een oordeel kan vormen en daadwerkelijk actie kan ondernemen om iets aan te passen in het beslisproces op basis van dat oordeel.
2. Type persoon
Ten tweede over het type persoon dat samen of naast de nieuwe technologie of het algoritme gaat werken. Gaat het dan om de zo vaak geroemde zelfstandige professional die op basis van feiten, kennis en relevante informatie tot een weloverwogen professioneel oordeel komt? En waarbij de input van het systeem/algoritme één van de factoren is die in de context gewogen wordt? Of is die mens meer een soort werkbij die direct door het algoritme of systeem gestuurd wordt of daar in verre mate door wordt geleid en vooralsnog alleen voor de beeldvorming op een knopje mag drukken zodat er formeel gesproken kan worden over menselijke toetsing.
Beeld: Shutterstock
3. Governance structuur
En als derde, wat is een passende governance structuur om de verantwoordelijkheid voor de inzet van bijvoorbeeld een algoritme te beleggen? Wie gaat waarover beslissen? Wie gaat verantwoordelijk zijn voor het borgen van de ethische kwaliteit van een algoritme gedurende de gehele levenscyclus van het product? Ligt de verantwoordelijkheid primair bij de ontwikkelaar of bij product- of proces eigenaren of moet dit juist bij een compliance officer of bij een soort Chief Data Officer horen. Daarbij is het van belang om vooral ook goed te kijken naar de verantwoordelijkheid voor de koppelvlakken tussen verschillende ontwikkelingsstadia van het product. Van ontwikkeling/pilotfase, naar de in productie name en onderhoudt, naar de uiteindelijke end of life fase? Houdt de verantwoordelijkheid voor ethische kwaliteit van een ontwikkelaar op na de in productie name of moet zij of hij ook hierop monitoren gedurende het gebruik. Of wat moet er bijvoorbeeld gebeuren met data die gegenereerd zijn met een algoritme dat uitgefaseerd is omdat het niet meer aan alle eisen en wensen voldoet? Mag die data nog steeds gebruikt worden?
Opgave 2: Borgen van betekenisvolle menselijke verantwoordelijkheid in de architectuur van processen en systemen
De afgelopen jaren is er (terecht) veel meer aandacht gekomen voor het kunnen borgen van de menselijke maat in uitvoeringssystemen en bij uitvoeringsprocessen richting de burger.
Nu merken ook wij dat soms bestaande processen – en vaak juist ook systemen – niet noodwendig zo zijn vormgeven dat ze makkelijk de mogelijkheid bieden om het maatwerk te accommoderen dat doorgaans wel nodig is om met die menselijke maat rekening te kunnen houden. Systemen en processen zijn vanuit efficiency oogpunt vaak gericht op optimalisatie richting de grootste gemene deler qua doelgroepen. Daarbij speelt dat er soms ook een element van wensdenken zit in de beelden die we voor ogen hebben als het gaat om de doelgroepen waar we het meeste inzet op plegen.
Onze systemen en processen moeten beter toegerust worden op het omgaan met uitzonderingen.
De ideale burger is digivaardig, heeft weinigen complicerende factoren in het dossier, kent de wet en is voortvarend in het melden van wijzigingen in situaties. Kortom, die heeft een hoog doen en denkvermogen. De realiteit is vaak complexer en als overheid zijn we er niet alleen om de ideaalburgers te bedienen, maar juist om ook al die burgers te helpen die om uiteenlopende redenen niet aan dat burger-ideaal voldoen. Laatstgenoemde vereist dat onze systemen en processen beter toegerust worden op het omgaan met uitzonderingen. Om dit te bewerkstelling en mogelijk te maken moet men al bij het ontwerp en op architectuurniveau de nodige maatregelen treffen. Omdat systemen nu eenmaal niet van de ene op de andere dag aangepast zijn, is het belangrijk om nu al te zorgen dat we in onze proces-, systeem- en data- architectuur de juiste principes adopteren om zodoende uitvoerende professionals de juiste zeggenschap te geven en ervoor te zorgen dat er doorgaans recht wordt gedaan aan de menselijke maat. Dit kan concreet door bijvoorbeeld architectuur principes te ontwikkelen en te adopteren die ervoor zorgen dat betekenisvol en gedocumenteerd menselijk ingrijpen bij alle (geautomatiseerde of AI-ondersteunde) processen of systemen altijd mogelijk zijn. In het recente door NORA opgestelde Dienstverleningsconcept is een vergelijkbaar uitgangspunt al geformuleerd. Dat is een goed begin. Het is zaak om hierop door te pakken zodat we het maatwerk niet alleen via vaak menselijke work arounds om de processen heen realiseren, maar ook daadwerkelijk in de grote processen inbouwen.
Volwassen implementatie van data ethiek
Een volwassen implementatie van data ethiek gaat daarom niet alleen over het voeren van gesprekken over spannende intellectuele of politieke vraagstukken zoals of je als overheid deep fakes mag inzetten of machine learning algoritmes mag ontwikkelen om financieel kwetsbare burgers op te sporen. Begrijp mij niet verkeerd, dit zijn relevante en goede vraagstukken om op te reflecteren en over te discussiëren. Echter, een volwassen implementatie van data-ethiek gaat voor een belangrijk deel ook om het creëren van een goede organisatorische context waarin deze ingebed kunnen worden.
De twee genoemde opgaves bieden belangrijke handvatten om nu al aan de slag te gaan en te zorgen dat mensen en machines ook met het oog op morgen samen de goede weg weten te vinden.
Reflectie
Dit artikel is gebaseerd op een keynote die ik onlangs gaf op de 10-jarige jubileumconferentie van het Centrum Informatiebeveiliging en Privacybescherming (CIP). Het is een reflectie op de opgaves waar we voor staan op weg naar een volwassen inbedding van data-ethiek bij overheidsorganisaties. Dit met als doel ervoor te zorgen dat we nu de nodige stappen zetten om over 5 tot 10 jaar voldoende recht te kunnen blijven doen aan de ambitie om de menselijke maat weer centraal te stellen bij de uitvoeringsprocessen van de overheid. Een ontwikkeling die nu mede wordt ingegeven doordat de lessen uit de kinderopvang toeslagen affaire op veel plekken weerklank vinden in het politieke en maatschappelijke debat over de manier waarop de digitale overheid met haar burgers om zou moeten gaan.
Alex Corra is Senior Beleidsadviseur Recht en Ethiek bij de Sociale Verzekeringsbank (SVB)