Een zogeheten eerlijk algoritme (‘fair algorithm’) kan discriminatie voorkomen, maar hoe doe je dat nou in de praktijk? Om Friese gemeenten bij dit vraagstuk te helpen heeft DataFryslân aan studenten van RuG/Campus Fryslân die de minor ‘Data Wise’ volgen gevraagd om zich te verdiepen in dit onderwerp en samen met het Centraal Bureau voor de Statistiek (CBS) een praktisch advies op te stellen.

In de afgelopen maanden hebben studenten een checklist ontwikkelt die geschikt is voor zowel beleidsmakers als datawerkers. Bij de ontwikkeling hiervan hebben ze zich verdiept in literatuur over eerlijke algoritmen en hebben zogeheten ‘gevoelige kenmerken’ geselecteerd. In een samenwerking met het CBS heeft dit geresulteerd in een praktische checklist.

‘Gemeenten gebruiken steeds vaker slimme algoritmes en voorspellende systemen om bijvoorbeeld bijstandsfraude op te sporen, te voorspellen waar mogelijk ondermijnende criminaliteit plaatsvindt en om burgers met schulden op tijd te kunnen helpen,’ zo meldde de Nederlandse Omroep Stichting (NOS) onlangs naar aanleiding van kritiek op de inzet van algoritmen.

Algoritmes kunnen enorme voordelen opleveren bij het nemen van besluiten. Ze zijn sneller dan mensen en kunnen beter patronen herkennen. Critici waarschuwen echter ook voor nadelen bij het gebruik van  algoritmen omdat die bijvoorbeeld discriminatie in de hand kunnen werken.

Met de checklist kunnen gemeenten voordat ze met algoritmen aan de slag gaan, een eerste inschatting te maken hoe risicovol het algoritme is en daarmee kans op bijvoorbeeld discriminatie verkleinen.

Meer weten? Bekijk hier de infographics in het Fries, Nederlands en Engels.