Elke woensdag ben ik tussen 10 en 11 uur te gast in het KRO NCRV radioprogramma De Ochtend op Radio 1 om actuele ontwikkelingen op het gebied van architectuur en stedelijk leven te bespreken. Vandaag: Algoritmes worden op steeds grotere schaal gebruikt om het gedrag van burgers te analyseren en te voorspellen. Denk aan bedrijven als Google, Apple, Facebook en Amazon – bijnaam GAFA. Ze weten wat u wilt en stemmen hun producten en advertenties op u af. Maar die algoritmen hebben ook steeds meer invloed hebben op de stad en haar bewoners.
Net zo geheim als het recept voor Coca-Cola
Een algoritme is een setje rekenregels die een computer gebruikt om een berekening te maken en tot een conclusie te komen. Je hebt je vast wel eens afgevraagd hoe het komt dat je in je Facebook tijdlijn berichten van sommige vrienden ziet en van andere niet? Dat wordt bepaald door een algoritme. Facebook vertelt ons niet wat dat algoritme is, het is net zo geheim als het recept voor Coca-Cola.
Dat heeft gevolgen: Facebook laat jou vooral berichten zien waar je het mee eens bent, dat heeft het algoritme berekend aan de hand van je eigen posts of Facebook. Je wordt dus doorlopend in je mening bevestigd. Dat leidt weer tot de beroemde filterbubble waarin we alleen maar contact hebben met gelijkgestemden. En dat leidt weer tot polarisatie – zie de Amerikaanse verkiezingen.
De Amerikaanse wiskundige Cathy O’Neil is nogal stellig in haar boek ‘Weapons of Mass Destruction’ (2016): onze omgang met data is net zo gevaarlijk als een atoombom. Waarom? Omdat een algoritme een schijn van neutraliteit, logica en eerlijkheid ophoudt, terwijl het niet transparant genoeg is om te zien hoe dat algoritme daadwerkelijk werkt. Algoritmes werken met kansberekening en waarschijnlijkheid en doordat ze ontworpen worden door mensen is welke factoren worden meegewogen een politieke keuze. Bovendien worden algoritmes ontworpen op datgene wat er nu bekend is – de realiteit. Daarin zitten zichtbare en onzichtbare ongelijkmakers die ook door kunnen werken in het algoritme. Zo werd in 2015 bekend dat het glazen plafond netjes in stand werd gehouden door het algoritme van Google dat minder advertenties van goedbetaalde banen aan vrouwen toonde. Een algoritme bepaalt dus mede welke kansen jij krijgt.
We kunnen niet meer buiten Google en Facebook
Natuurlijk zijn platforms als GAFA – Google, Apple, Facebook, Amazon – ontzettend handig. We kunnen niet meer zonder. Maar het zijn bedrijven met een commerciële doel, ze hebben geen interesse in publieke waarden. En dat is een probleem als we als steden steeds meer services, direct en indirect, aan deze platforms overlaten.
En dit kleine aantal grote Amerikaanse platforms hebben niet alleen een enorme machtspositie in hun ‘eigen’ sector, maar ook daarbuiten. De verschillende platforms staan namelijk doorgaans niet op zichzelf, ze zijn op allerlei manieren met elkaar verbonden. Andere (kleinere) platforms maken bijvoorbeeld voor het inloggen gebruik van Facebook en Google+ profielen, zijn voor hun inkomsten afhankelijk van Googles advertentienetwerken of voor hun zichtbaarheid van Googles zoekmachine.
Als gebruiker én aanbieder van een online platform is het nu dus ongeveer onmogelijk om je buiten dit commercieel gedreven platformuniversum te plaatsen. Zelfs non-profit en overheidsplatforms maken gebruik van dat op commerciële leest geschoeide ecosysteem.
Meldpunt voor datadiscriminatie
Eind vorig jaar is de Consumentenbond een meldpunt ‘Dupe van je data’ gestart tegen datadiscriminatie. De directeur heeft een interessante column op onze site, stadsleven.nu. Bleek dat vooral energiebedrijven puur aan de hand van je postcode besluiten of je honderden euros borg moet betalen voordat je energie geleverd krijgt. Telecomproviders en webwinkels hebben er ook een handje van. De Consumentenbond is hier tegen in actie gekomen, maar dat is eigenlijk een taak van de overheid vind ik.
Predictive policing: iedereen verdacht
De overheid maakt zelf echter ook steeds meer gebruik van algoritmes, bijvoorbeeld bij de opsporing. Het nieuwste opsporingsmiddel van de Nationale Politie, naar Amerikaans voorbeeld, is predictive policing. Eind volgend jaar moeten alle korpsen zijn aangesloten op het CAS, het Criminaliteits Anticipatie Systeem. Lukt dat, dan is Nederland het eerste land wereldwijd waar predictive policing in alle regio’s wordt toegepast. Op dit moment krijgen tientallen politieteams al elk weekend een set kaarten met voorspellingen over de volgende week.
In het systeem worden de adressen van veelplegers en verdachten in een straal van 500 tot 1000 meter vastgelegd. Let wel: ook verdachten, die alleen verdacht zijn maar nog niks hebben gedaan. Wat je met predictive policing ziet, is dat iedere burger gevolgd wordt. Dus is iedere burger daarmee automatisch een verdachte, een risicoburger.
Predictive policing werkt ook als een voorspelling. Het algoritme zegt: er zijn zoveel woninginbraken in die buurt op dat tijdstip, ga daar speciaal op letten. Die buurt krijgt dus een ‘slechte’ postcode, waardoor jouw kredietwaardigheid daalt. En je weet niet dat je in dat systeem zit en je kunt je er niet tegen verweren.
Kortom, ongemerkt is er al heel wat meer gaande dan mensen doorhebben. Er is dus een nieuw bewustzijn over datadiscriminatie nodig. En we hoeven zeker niet machteloos af te wachten.
Meer lezen?
Meer trends in De stad in De Ochtend vind je hier.