Nieuw: het Impact Assessment voor Mensenrechten bij de inzet van Algoritmen (IAMA). Dit instrument helpt de risico’s voor mensenrechten bij de inzet van algoritmen in kaart te brengen en daar maatregelen voor te nemen.

Dialoog

Met het IAMA ontstaat een dialoog tussen professionals die werken aan de ontwikkeling of de inzet van een algoritmisch systeem. De opdrachtgever is verantwoordelijk voor het (laten) uitvoeren van het IAMA. Resultaat is dat alle relevante aandachtspunten bij de inzet van algoritmen tijdig en gestructureerd aan bod komen. Zo voorkomt u dat uw organisatie algoritmes gebruikt waarvan de consequenties nog niet duidelijk zijn. Ook verkleint het IAMA de risico’s op onzorgvuldigheid, ineffectiviteit of inbreuken op de rechten van burgers.

Hulpmiddel

Gebruik van het IAMA is niet verplicht, het is een hulpmiddel voor overheidsorganisaties die met algoritmen aan de slag willen. Het IAMA legt ook de verbinding met andere instrumenten die helpen om AI en algoritmen verantwoord in te zetten. Tijdelijk kunnen overheidsorganisaties ook ondersteuning krijgen bij de uitvoering van het IAMA. Na een jaar volgt een evaluatie van het instrument. De Universiteit Utrecht ontwikkelde het IAMA voor het ministerie van Binnenlandse Zaken en Koninkrijksrelaties.

Toolbox

Het kabinet werkt aan de ontwikkeling en toepassing van instrumenten die overheden en bedrijven ondersteunen bij het nakomen van bestaande wettelijke verplichtingen. Zodat AI en algoritmen op verantwoorde wijze worden ingezet. Er is extra aandacht voor het voorkomen van inbreuken op mensenrechten. Relevante instrumenten zijn bij elkaar gebracht in de ‘Toolbox Ethisch Verantwoorde Innovatie’.

Voor meer informatie kunt u contact opnemen met Mildo van Staden.

Source