De centrale vraag is dat er IT-technisch natuurlijk heel veel kan op het gebied van de (grootschalige) verwerking van data, maar welke waarde kunnen, mogen en willen we daaraan toekennen? Voor een mondig, maar veelal minder technisch geschoold publiek was het geen sinecure om hier een begrijpelijk verhaal over te houden. Van Steen hield zich moeiteloos staande en legde de risico’s van pijnpunten van impliciete (directe en indirecte) discriminatie door het ‘waardenvrij’ vergelijken van data helder uit. Daarbij bleek dat het ook voor mij als advocaat moeilijk is om ‘waardenvrij’ te denken in termen van wiskundige, digitale regels (bijvoorbeeld: als x en y, maar niet z, dan is statistisch gezien de ervaring dat a plaats zal vinden). Een voor onze beroepsgroep centraal staande vraag is of de wet- en regelgeving (privacy, discriminatie, intellectueel en industrieel eigendom, burgerlijk recht, procesrecht) de technische ontwikkelingen kan bijbenen.

Dit lijkt een ver-van-mijn-bed-show voor juristen buiten het IT- en Privacy-specialisme, maar niets is minder waar. Op basis van grootschalige analyse van historische data kan in civiele zaken allicht een bepaald feitencomplex ‘aannemelijk’worden, waardoor bewijs van de stellingen van een partij wordt geleverd of de bewijslast verschuift.  Of er kan een redelijk vermoeden van strafbaar gedrag aan ontleend worden, dat verder onderzoek rechtvaardigt, of zelfs een vermoeden van overtreding (Het is maar net hoe ver we als maatschappij willen gaan. Ik had niet gedacht dit ooit aan te raden, maar zie bijvoorbeeld de film Judge Dredd voor een zeer gesimplificeerde toepassing van programmatuur die functioneert als opsporingsinstantie, rechter en strafuitvoerende instantie). Profiling, maar dan consistent profilen op basis van vooraf ingegeven (non-discriminatoire) regels in plaats van inconsistent profilen door mensen. Maar ook in het administratieve recht kunnen Big Data een belangrijke rol spelen (zorgvuldigheidsbeginsel).

Het gebruik van Big Data kan positief zijn. Het rijden met een volgsysteem om een goedkopere verzekeringspremie te bemachtigen leidt op termijn waarschijnlijk tot minder verkeersongevallen en lijkt gerechtvaardigd. Maar de verzekerde zal het niet leuk vinden als het openbaar ministerie de beschikking krijgt over die gegevens of als hij door zijn werkgever wordt betrapt op spijbelgedrag. Het geautomatiseerd analyseren van risico- en omgevingsfactoren is nuttig, omdat het kan bijdragen aan risicomanagement in de financiële sector, waardoor de kans op grote crises afneemt. Maar Big Data kan met drogredeneringen ook worden misbruikt, bijvoorbeeld voor het inzetten als schaamlap voor besluitvorming, omdat met de beste wil en deskundigheid van de wereld niet meer te achterhalen is welke data op basis van welke regels tot welke conclusies leiden. De analogie met een auto kan worden gemaakt: deze is bedoeld als vervoermiddel (nuttig voor middelgrote en grote afstanden; bezit is vrij, maar gebruik gereguleerd door een rijbewijs), maar kan ook worden ingezet voor de sport (sterker gereguleerd), of als wapen (alleen toelaatbaar met rechtvaardigingsgrond). Fabrikanten, dienstverleners, gebruikers, wetgevers en toezichthouders bevinden zich – in vergelijking met de ontwikkeling van de auto – nog in het jaar 1900 als het gaat om het ontwikkelen van een juridische perspectief en een bruikbaar juridisch kader op het gebied van Big Data.

Het bewaken van gerechtvaardigd gebruik dient nu reeds een belang op zichzelf. Wie keurt het gebruik van data en de voorgestelde algoritmes goed en op basis van welke criteria? Houden de programmeurs al rekening met de huidige regelgeving op het gebied van privacy-by-design en privacy-by-default en met aankomende regelgeving op het gebied van profiling en dataverwerking? Wordt een ethische afweging gemaakt of de ontwikkeling van bepaalde technologie wenselijk is?

De complexiteit van onderliggende analyses neemt inmiddels zo snel toe, dat zij alleen nog maar te beheersen lijkt met behulp van technologie, die de juistheid, volledigheid en rechtmatigheid van Big Data algoritmes kan controleren. Daarmee ontstaat een eigen, afgeleide markt van digitale toezichtprogrammatuur en experts die deze kan bedienen en de uitkomst daarvan uitleggen.

We staan nog maar aan het begin van de ontwikkeling, maar zoals gebruikelijk volgt het juridische perspectief de maatschappelijke ontwikkeling. Profiling wordt aan strenge banden gelegd onder de Algemene Verordening Gegevensverwerking, maar zoals aangegeven zijn er meer aspecten aan Big Data dan alleen de bescherming van de persoonlijke levenssfeer. Duidelijk is dat de dialoog beter gevoerd moet worden. Programmeurs moeten worden uitgenodigd hun aannames en algoritmes inzichtelijk te maken in normale mensentaal. Daarnaast moeten ze worden uitgenodigd dat ook in te programmeren in hun zelflerende programmatuur (artificial intelligence of a.i.). Daartegenover mag van de juridische wereld (politiek, beleidsvorming, rechterlijke macht en advocatuur) gevergd worden zich te verdiepen in de methodes en technieken van Big Data analysis en a.i. om een zinvolle dialoog aan te gaan en een constructief gebruik van deze middelen te kunnen maken.

Heeft u zicht op het juridische perspectief op de IT-diensten, die u verleent en afneemt? Weet u waar u mee bezig bent op het gebied van privacy? Voldoet uw organisatie aan alle verplichtingen van de Wbp en bent u tijdig voorbereid op de invoering van de AVG, zodat u per 25 mei 2018 in overeenstemming daarmee handelt? Heeft u de juiste instelling? Neem vrijblijvend contact met ons op om te bekijken hoe wij – of andere adviseurs, waarmee wij goede ervaringen hebben – u verder kunnen helpen bij het vergroten van het maatschappelijk vertrouwen in uw organisatie.

Vragen?

Heeft u vragen over dit artikel, neemt u dan contact op met ons team IT, Privacy & Cybersecurity.