Baas over eigen algoritmes: de SP pleit voor eerlijke algoritmes in Rotterdam
Baas over eigen algoritmes: de SP pleit voor eerlijke algoritmes in Rotterdam
De Rotterdamse SP-fractie maakt zich zorgen over algoritmes, kunstmatige intelligentie en soortgelijke digitale systemen die door de gemeente en bedrijven gebruikt worden om te oordelen en beslissen over Rotterdammers met gebruik van privacygevoelige informatie, vaak zonder dat burgers het weten en vaak op een veroordelende manier. De gemeente moet het voortouw nemen en op basis van vertrouwen omgaan met Rotterdammers.
Als voorbeeld het systeem genaamd SyRI dat door de gemeente is toegepast in de wijken Bloemhof en Hillesluis. Alle beschikbare informatie van alle inwoners is gecontroleerd, verwerkt en bij voorbaat was iedereen in de ogen van de gemeente verdacht van fraude. Onder andere de volgende gegevens van Rotterdammers zijn hierbij gebruikt en aan elkaar gekoppeld om er een ‘verdacht’ patroon uit te halen:
- arbeidsgegevens
- boetes en sancties
- fiscale gegevens
- gegevens over roerende en onroerende goederen
- handelsgegevens
- huisvestingsgegevens
- identificerende gegevens
- inburgeringsgegevens
- nalevingsgegevens
- onderwijsgegevens
- pensioengegevens
- reïntegratiegegevens
- schuldenlastgegevens
- gegevens over uitkeringen, toeslagen en subsidies
- vergunningen en ontheffingen
- water en energieverbruik
(bron: bijvoorbaatverdacht.nl)
En inwoners zijn hiervan niet op de hoogte en hebben niet de mogelijkheid om de gebruikte algoritmes en gegevens in te zien. De complexiteit van de toegepaste digitale techniek is vaak een knelpunt en de gemeente helpt de Rotterdammers niet om het allemaal te begrijpen.
Momenteel is dit onderzoek uitgesteld wegens (privacy) bezwaren en de Rotterdamse SP-fractie heeft onlangs schriftelijke vragen ingediend omtrent de legitimiteit van dit systeem. Dit systeem moet aangepakt worden!
De Rotterdamse SP-fractie vindt het uitermate belangrijk dat algoritmes die betrekking hebben op Rotterdamse burgers, transparant zijn en op een positieve manier worden aangewend. Algoritmes, rekenkundige formules, worden gebruikt om de verwerking van gegevens te automatiseren om besluitvorming efficiënter en klantgerichter te maken. Helaas blijkt dat computers vaak ook ‘menselijke’ vooroordelen kunnen overnemen.
In het Financiële Dagblad van 1 maart 2019 staat in het nieuwsbericht ‘Amsterdam wil “eerlijke” computers in de stad’ dat de gemeente Amsterdam de eigen algoritmes en de algoritmes van apps en websites die betrekking hebben op Amsterdam, regelmatig zal toetsen. De keuzes en resultaten die deze digitale systemen maken, mogen volgens de gemeente Amsterdam geen vooroordelen bevatten, discriminatoir zijn of leiden tot ongewenste beslissingen.
Het gebruik van algoritmes en digitale analyses met behulp van privacygevoelige gegevens moet op een zorgvuldige manier gebeuren en Rotterdammers mogen niet gedupeerd worden door informatie of beslissingen door digitale systemen. Daarom heeft de Rotterdamse SP-fractie schriftelijke vragen ingediend om de wethouder aan te sporen om ook in Rotterdam te zorgen voor eerlijkere algoritmes.
Niet alleen de algoritmes en digitale systemen van de gemeente moeten transparant en controleerbaar zijn, maar ook die van bedrijven die persoonlijke gegevens van Rotterdammers verzamelen en die naderhand worden gebruikt voor allerlei toepassingen. Rotterdammers moeten erop kunnen vertrouwen dat hun privégegevens veilig zijn. De gemeente en Rotterdammers moeten inzicht kunnen hebben in deze vertrouwelijke gegevens om achter te komen hoe er tot een beslissing is gekomen en hoe deze gegevens zijn toegepast. Rotterdammers moeten bovendien de mogelijkheid hebben om de verzamelde gegevens te wijzigen.
Een stap in de goede richting is de motie ‘Betrek de jongeren bij het digitale profiel’ van de Rotterdamse SP-fractie dat onlangs in grote meerderheid door de gemeenteraad is aangenomen.
De Rotterdamse SP-fractie is van mening dat nadelige beoordeling, discriminatie en veroordeling door gebruik van digitale algoritmes en analyses een negatieve ontwikkeling is. De gemeente moet erop toezien dat Rotterdammers de garantie hebben dat gebruikte algoritmes altijd eerlijk zijn en de optie hebben om deze privacygevoelige gegevens en algoritmes in te zien, te begrijpen en te wijzigen.