Advocaten en notariaat in Leiden en Den Haag
Menu
Overzicht Delen
IT, IE & Privacy

De privacy van de (smart) citizen in the smart city (deel 4: risico van structurele benadeling, onterechte uitsluiting of stigmatisering)

Natascha van Duuren

8 maart 2021 - 2 minuten leestijd

Gemeentes dienen zeer alert te zijn op het risico van structurele benadeling van bepaalde groepen, onterechte uitsluiting of stigmatisering van burgers. Deze risico’s kunnen in een smart city op de loer liggen.

In smart cities worden niet alleen veel data verzameld, maar worden deze ook met elkaar gecombineerd. Denk aan het combineren van verzuimcijfers met data over werkloosheid, schulden, overgewicht, politiecijfers en social media berichten. Aan de hand hiervan kan bijvoorbeeld worden getracht het risico van schooluitval te voorspellen. Een nog verdergaande stap is dat op basis van data besluiten worden genomen. De AVG stelt strenge eisen aan dit soort gegevensverwerkingen.

Een van deze eisen is dat de gemeente burgers moet informeren over de “onderliggende logica” van het algoritme. Op begrijpelijke wijze moet duidelijk worden gemaakt op basis van welke criteria tot een besluit wordt gekomen.

Verder kent de AVG als uitgangspunt dat niemand onderworpen mag worden aan een uitsluitend op geautomatiseerde verwerking gebaseerd besluit waaraan voor hem of haar belangrijke (rechts)gevolgen zijn verbonden. In dat geval moet de burger altijd de mogelijkheid hebben een mens (alsnog) naar het besluit te laten kijken, zijn standpunt kenbaar te maken of het besluit in rechte aan te vechten. Vergelijkbare waarborgen vloeien voort uit de Algemene wet bestuursrecht (Awb), voor zover het besluit zou gelden als een besluit van een bestuursorgaan.

Voorkomen dient uiteraard te worden dat algoritmes vooroordelen hebben. Een smart city mag niet leiden tot het structureel benadelen van bepaalde groepen, tot onterechte uitsluiting of stigmatisering. Vaak realiseert men zich niet dat dit al begint bij de dataverzameling, welke data verzamel je en welke categorieën (bijvoorbeeld groepen) onderscheid je daarbij? Een terechte zorg die wel eens wordt genoemd in het kader van een smart city is dat een smart city social chilling of social cooling zou kunnen veroorzaken. Hiermee bedoelt men dat mensen zich conformeren aan de geldende normen en zich gereserveerd gedragen, niet-creatief en risicomijdend. De ethische vraag die daarmee samenhangt – en die ook terecht wordt gesteld – is in hoeverre burgers imperfect mogen zijn en af mogen wijken van de gedefinieerde normen? Normen die in feite door data gedefinieerd zijn. Bovendien moeten bestuurders van slimme steden zich goed realiseren dat een patroon in data, niet de werkelijkheid hoeft te zijn. Met andere algoritmes zou je immers andere uitkomsten kunnen krijgen.

In slimme steden moeten de uitkomsten van algoritmes en data-analyses dan ook steeds getoetst worden en dient men zich te beseffen dat andere algoritmes tot andere uitkomsten zouden kunnen leiden.

Wilt u alvast meer lezen over de privacy van de (smart) citizen in a smart city? Bestel dan het KNVI boek: Smart Humanity; de mens met 1-0 op voorsprong, verkrijgbaar via Managementboek.

Natascha van Duuren, advocaat/partner IT, IE & Privacy


Lees ook:

Deel 1: De privacy van de (smart) citizen in the smart city

Deel 2: Data, veel data

Deel 3: Anonieme persoonsgegevens?

Deel 4: Risico van structurele benadeling, onterechte uitsluiting of stigmatisering

Deel 5: Cyber security prioriteit nummer 1

Ook interessant?