Vertrouwen in plaats van algoritmes

16 september 2018

Verschillende gemeenten hebben het bedrijf Totta data lab ingehuurd om te voorspellen welke uitkeringsgerechtigden misschien frauderen (ze hebben dit zelf niet actief naar buiten gebracht, maar de NRC schreef er afgelopen voorjaar over). Totta heeft algoritmes getraind op een enorme hoeveelheid persoonsgegevens: twee- tot driehonderd variabelen over een periode van 25 jaar.

Dit soort analyses brengen het risico met zich mee dat bestaande vooroordelen worden versterkt:

Luk [een Tottawoordvoerder] zegt dat bij de ene gemeente meer fraude gevonden wordt bij mensen mét partner (die geven bijvoorbeeld inkomsten niet op), terwijl het in andere gaat het om mensen zónder partner (die geven niet op dat ze samenwonen). «Maar het kan ook zijn dat er alleen onderzocht is op die groep en dat wij daar ons algoritme op bouwen.»

Luk zegt dat ze soms ook ‘afwijkende’ burgers als verdachte aanmerken. Zo willen ze waarschijnlijk voorkomen dat alleen de usual suspects in beeld komen.

Een ander probleem is het gebrek aan transparantie. Totta houdt zijn algoritmes geheim om zijn bedrijfsbelang te beschermen. Daarnaast kan het lastig zijn om de werking van algoritmes te interpreteren en uit te leggen. Hierdoor kan de overheid niet goed uitleggen welke criteria een rol spelen bij besluiten over burgers. De Raad van State heeft onlangs vraagtekens geplaatst bij de digitalisering van overheidsbesluiten.

De aanbieders van algoritmes zeggen dat deze aanpak helpt om meer fraudeurs op te pakken en tegelijk minder onschuldige burgers lastig te vallen. De werkelijkheid is waarschijnlijk ingewikkelder. Volgens de koepel van sociale diensten zijn vermeende fraudeurs vaak mensen van goede wil, die in de problemen komen door de complexe en onduidelijke bijstandsregels.

Gemeenteraadslid Anne Marttin (VVD) ziet de aanpak even goed wel zitten. Ze wil weten of Amsterdam al gebruik maakt van algoritmes en datamining bij de aanpak van bijstandsfraude. Het antwoord is nee. Dit is de reden:

Het college is bekend met het gebruik van algoritmes en/of datamining ter bestrijding van bijstandsfraude in andere gemeenten. Het college maakt geen gebruik van dergelijke instrumenten in de aanpak en preventie van bijstandsfraude. […]

De basis van de dienstverlening aan bijstandsgerechtigden is vertrouwen. Het college hecht ook grote waarde aan de privacy van de burger en de wijze waarop diens gegevens door de overheid worden gebruikt, bijvoorbeeld voor het ontwikkelen van algoritmes. Het college vindt het van groot belang dat gebruik van datamining en algoritmes geen negatieve invloed heeft op de privacy van de bijstandsgerechtigde en diens rechtsbescherming.

Beantwoording raadsvragen (pdf)

UPDATE 11 maart 2019 - Uit de FNV Lokale Monitor 2018 blijkt dat 25% van de deelnemende gemeenten algoritmes toepast op persoonsgegevens om bijstandsgerechtigden aan te merken als potentiële fraudeur. 9% huurt hiervoor een commercieel bedrijf in. Vice-voorzitter Kitty Jong heeft kritiek op de werkwijze: «Iedere bijstandsgerechtigde is “bij voorbaat verdacht”. Volgens FNV kán en mág dat niet!».

16 september 2018 | Categoriën: amsterdam, data, privacy | English