In
de NRC Next van dinsdag 28 augustus 2018 stond een interessant stuk over het
gebruik van algoritmes in de rechtspraak in de VS.
Volgens
het artikel worden in bijna alle Amerikaanse staten verdachten beoordeeld met
behulp van algoritmes. In New Jersey wordt daarbij gebruik gemaakt van de
Public Safety Assessment (PSA) dat aan elke verdachte een risicoscore geeft.
Aan de hand van de score wordt bepaald of de verdachte voorlopig vrijgelaten
kan worden in afwachting van zijn proces.
De
PSA houdt rekening met 9 verschillende factoren zoals de leeftijd en of de
verdachte al eerder veroordeeld is voor een geweldsdelict. De score is slechts
een advies en niet bindend. De PSA moet menselijke vooroordelen uit het
strafrecht halen. Onderzoek toont namelijk aan dat rechters over het algemeen
milder zijn voor witte dan voor zwarte verdachten, aldus het artikel. De PSA
moet tegenwicht bieden aan deze vooroordelen.
Advocaten
in New Jersey zijn over het algemeen positief over de PSA. De komst van de PSA
heeft namelijk geleid tot het afschaffen van de borgsom. Op basis van de PSA
kan besloten worden cliënten in vrijheid hun proces te laten afwachten. In het
oude systeem was dit alleen mogelijk als er een borgsom werd betaald. Voor arme
cliënten was een dergelijke borgsom echter niet te betalen.
Ondanks
het wijdverspreid gebruik van deze algoritmes binnen het strafrecht in de VS
zijn experts kritisch. Zij vrezen dat vooroordelen juist worden bevestigd. Een
bekend voorbeeld komt uit de politiewereld waar algoritmes worden gebruikt voor
predictive policing. Hiermee wordt
geprobeerd om te voorspellen waar nieuwe misdrijven zullen plaatsvinden. Maar
deze algoritmes maken vaak gebruik van historische gegevens waar vooroordelen
al zijn ingebakken. In het verleden zijn in zwarte wijken bijvoorbeeld meer
mensen voor drugsbezit opgepakt omdat daar ook meer is gepatrouilleerd. Als het
algoritme dit niet mee neemt in de berekening, ontstaat een onjuist beeld.
Bij
het algoritme COMPAS is dat in de VS al eerder fout gegaan. In 2016 bleek dat
het algoritme veel vaker ten onrechte een lagere risicoscore aan zwarte mensen
toewees dan aan witte mensen. Hoe dit kan is niet bekend omdat de werking van
het algoritme bedrijfsgeheim is. Ondanks al deze gebreken, hebben Amerikaanse
rechtbanken het gebruik gewoon goedgekeurd.
Vanwege
deze incidenten is er een roep om meer transparantie. Maar zelfs als duidelijk
is welke data er wordt gebruikt, is niet altijd te beoordelen of dit ook
eerlijk gebeurt. Naast transparantie zouden daarom ook onafhankelijke audits
moeten plaatsvinden en zou een onafhankelijke toezichthouder vooraf algoritmes
moeten goedkeuren.
Het
stuk geeft mooi aan dat het gebruik van algoritmes in de rechtspraak positieve
gevolgen kan hebben maar dat het gebruik van gebrekkige algoritmes en/of
gekleurde data juist tot ongewenste uitkomsten kan leiden. Alleen als vertrouwd
kan worden op de uitkomst van het algoritme, heeft de inzet meerwaarde.
In
Europa bestaat specifieke regelgeving voor het gebruik van algoritmes, althans
als dat tot geautomatiseerde individuele besluitvorming leidt. Voor de
vervolging van strafbare feiten en de tenuitvoerlegging van straffen is dat
Richtlijn 2016/680 (welke overigens nog niet is omgezet in Nederlands recht). Deze Richtlijn sluit voor een deel aan bij de bepalingen
uit de AVG, maar de AVG is niet van toepassing.
De
Richtlijn bepaalt in artikel 11 dat geautomatiseerde besluitvorming in beginsel
verboden is wanneer dit volledig zonder menselijke tussenkomst geschiedt en voor
zover de besluiten voor betrokkenen nadelige rechtsgevolgen hebben of hen in
aanmerkelijke mate treffen. De besluiten uit het stuk in het NRC worden echter
niet uitsluitend op de uitkomst van de geautomatiseerde besluitvorming
gebaseerd. Het gebruik van algoritmes in de rechtspraak is op basis van dit
artikel in de Richtlijn dan ook niet verboden.
Hierbij
dient te worden opgemerkt dat in aanvulling op artikel 11 ook aan de andere
voorwaarden uit de Richtlijn dient te worden voldaan. In dat kader lijkt een
(doorlopende) controle van de werking en eerlijkheid van het algoritme door een
onafhankelijke autoriteit, een belangrijke voorwaarde voor gebruik.
Lees hier het stuk in de NRC Next.
https://www.solv.nl/weblog/algoritmes-in-de-rechtspraak/21602