Filterbubbelbad
HARD//HOOFD ESSAYREEKS
Onze huidige levens maken deel uit van de grootste commerciële ontginning in de geschiedenis. Nog nooit werden onze persoonlijke voorkeuren en verlangens op zo’n grote schaal gekwantificeerd en vermarkt als nu. Je voert wat zoekopdrachten in op Google, liket wat foto’s op Facebook en er hangen al tientallen trackers aan je digitale kont die vastleggen wat jij doet. Zodra je online gaat zijn big data bedrijven en krachtige computeralgoritmes in charge: zij gaan tussen elk stukje communicatie zitten, verhandelen jouw data en wijzen je de weg vanuit een winstmaximalisatie doelstelling. Door ons over te leveren aan de toenemende algoritmisering en kwantificering van onze levens gaan we ons steeds meer gedragen als voorspelbare en stuurbare machines. Waarom geven we daaraan toe? Kunnen we ontkomen aan de massasurveillance en intensieve sturing die deze steeds sterker wordende algoritmes creëren?
Tegenwoordig weet bijna iedereen dat social media en apps niet gratis zijn: we betalen met onze persoonlijke data die in een nanoseconde worden verhandeld om de best passende content te kunnen laten verschijnen. Dat gaat als volgt: eerst worden onze data verzameld en geanonimiseerd conform privacy wetgeving. Vervolgens worden deze door big data bedrijven gecombineerd en verrijkt om vanuit een zo nauwkeurig mogelijke profielschets reclames, nieuwsberichten, producten, liedjes en video’s aan te bieden die bij onze digitale voetsporen en voorspelde gedragingen passen. Omdat onze data net zo waardevol zijn als olie of goud is er een commerciële run op onze tijd en aandacht ontstaan waarbij maar één vraag centraal staat: what makes you click. Hoe meer je klikt, hoe meer data je achter laat waarmee bedrijven een profiel maken. Er is zelfs een wetenschappelijke tak genaamd captology die zich richt op het ontwikkelen van meldingsgeluiden, buttons en swipes die bij ons een pavlovreactie opwekken. Het bedrijf dat onze geest het best weet te manipuleren om ons zo lang mogelijk te laten klikken en swipen, heeft de grootste kans om een beursgenoteerde multinational te worden. Snapchat is koploper met een beursgang van 25 miljard. De algoritmes die deze kolossale commerciële successen veroorzaken zijn geen onschuldige hulpmiddelen waarmee we slechts onze muziek, video’s en series uitkiezen.
Big nudging
Door ons massale internet en smartphone gebruik krijgen overheden en bedrijven enorme hoeveelheden gegevens tot hun beschikking waarmee zij burgers kunnen monitoren en bijsturen. Het stimuleren van gewenst gedrag met behulp van big data zonder dat mensen dat weten wordt ook wel ‘big nudging’ genoemd. Een voorbeeld hiervan is de zogenaamde smart city waar surveillancedata en algoritmes worden gebruikt om het gedrag van burgers in steden te voorspellen en bij te sturen om de stad ‘veiliger’ en economisch rendabeler te maken. In Amerika berekenen algoritmes bijvoorbeeld op basis van risicoscores hoe groot de kans is dat iemand terug valt in crimineel gedrag. Met deze scores bepalen rechters de lengte van de gevangenisstraf. In gebieden waar dit algoritme gebruikt wordt kun je maar beter wit zijn want het algoritme bleek voor zwarte mensen stelselmatig een te hoog recidiverisico te berekenen. Niet omdat dat echt zo is, maar omdat zwarte mensen vaker staande worden gehouden door de politie wat door het algoritme als recidive indicator wordt meegenomen. Een ander voorbeeld van big nudging is de handel in data uit gezondheids-apps en wearables. Medische gegevens over het aantal stappen dat je zet, je nachtritme, bloeddruk en hartslag zijn slecht beschermd. Door gegevens uit verschillende databases te combineren en daar met algoritmes correlaties uit te halen, ontstaat er een digitaal profiel. Dat profiel kan interessant zijn voor bijvoorbeeld werkgevers en verzekeraars die ongezonde mensen willen weren. In een almaar groeiende kapitalistische samenleving die in toenemende mate draait om (zorg)kostenbesparing, doelmatigheid en efficiency raken persoonlijke vrijheden ondergeschikt. Een voorbeeld is Singapore waar je een boete krijgt als je op straat kauwgom kauwt en totalitaire staatscontrole wordt uitgeoefend door middel van data die wordt onttrokken aan social media, sensoren op straat, camera’s met gezichtsherkenning en smartphones. Zo ver zal het bij ons niet komen? Juist in Westerse landen waar de privacywetgeving strenger wordt blijken overheden hulp te zoeken bij bedrijven als Google en Microsoft om alsnog bij onze persoonlijke gegevens te kunnen.
Meten is niet altijd weten
Algoritmes wekken de suggestie dat zij het meest nauwkeurige advies kunnen geven terwijl veel aspecten die wij belangrijk vinden niet in cijfers zijn uit te drukken. Door alleen het meetbare prioriteit te geven, verliezen we menselijke waarden en onderlinge verschillen uit het oog. We gaan er steeds meer vanuit dat algoritmes betere beslissingen kunnen maken en vertrouwen steeds minder op onszelf. Algoritmes blijken niet minder fouten te maken. Ze weerspiegelen en versterken bijvoorbeeld stereotypen en vooroordelen. Dat komt doordat algoritmes betrekking hebben op wat eerder is gebeurd en op gemiddelden van groepen vergelijkbare mensen. Dat laat Harvard wiskundige Cathy O’Neil zien in haar boek Weapons of Math Destruction. De aanname dat een algoritme gebaseerd is op een correcte berekening met objectieve feiten is volgens haar gevaarlijk. Zo geeft ze het voorbeeld van een algoritme dat wordt gebruikt door het bedrijfsleven om de beste CEO te kiezen. Omdat vrouwen ondervertegenwoordigd zijn als CEO beschouwt het algoritme vrouw zijn als een voorspellende factor om ongeschikt te zijn als CEO.
Betere dienstverlening in ruil voor privacy
Mensen die hun privacy opofferen in ruil voor relevante aanbevelingen en betere dienstverlening zeggen vaak: “ik heb toch niets te verbergen want ik doe niks verkeerd”. Wat verkeerd is en dus de moeite van het verbergen waard, is contextafhankelijk. Een dronken Facebookfoto is niet verkeerd, totdat je werkgever deze te zien krijgt. De vraag of je iets te verbergen hebt is dan ook onjuist geformuleerd want het gaat om de vraag waarom een bedrijf of overheid jouw data wil hebben en voor welke doeleinden deze worden gebruikt. Je kunt je schouders ophalen bij een gerichte advertentie, maar wat als een algoritme wordt ingezet om jou een zo hoog mogelijke prijs voor een product te laten betalen? Zo zijn er bijvoorbeeld winkels die locatiegegevens in combinatie met KVK gegevens gebruiken waardoor ze kunnen zien of er in jouw buurt veel concurrende winkels zitten. Als dat niet het geval is krijg je hogere prijzen voor de producten aangeboden omdat de kans groot is dat je deze prijs acceptabel vindt. Fijne dienstverlening.
Hoezo betere dienstverlening?
Door mensen hun meest waarschijnlijke voorkeur aan te bevelen: “vond je deze serie goed dan vindt je deze ook goed” (Netflix), “zocht je eerst dit, dan zoek je nu iets soortgelijks” (Google), “bij deze politieke voorkeur past dit nieuwsbericht” (Facebook), worden mensen steeds minder uitgedaagd om alternatieve routes te verkennen. Daardoor belanden mensen in digitale bubbels die hen laten rondcirkelen in een logica die is gebaseerd op zelfbevestiging en economische doelmatigheid. Je moet van steeds autonomere huize komen en complexere inspanningen verrichten om los te komen van de door algoritmes gebaande paden. Omdat onze huidige samenleving veeleisend is –iedereen moet zo nodig een gezin, carrière, gezonde levensstijl, topconditie, mooi uiterlijk en interessante hobby, hebben mensen geen mentale ruimte voor ongealgoritmiseerde informatiestromen die hun wereldbeeld bevragen in plaats van bevestigen. Als we ergens narcistisch van worden dan is het wel van deze ‘betere’ dienstverlening.
Kom uit je filterbubbelbad
Door mee te gaan in de toenemende algoritmisering van onze levens, lijken we steeds meer op voorspelbare en stuurbare databanken. Met adblockers en digitale detoxkampen kunnen we ons daar niet tegen wapenen. Wie niet zelf kan programmeren kan zich de digitale wereld niet toe eigenen. De meeste mensen zijn afhankelijk van apps en algoritmes die door anderen zijn gemaakt en ons onopgemerkt verleiden om data te genereren en voorspelbare paden te bewandelen. Deze intensieve sturing vindt de digitale generatie volstrekt vanzelfsprekend. Zo verklaart Alexander Klöpping dat Spotify en Youtube hem helpen om zijn muziek en video’s uit te zoeken terwijl televisie een “random bak met shit” is waar programmamakers van bovenaf bepalen wat je krijgt voorgeschoteld. Traditionele media worden vanuit dit idee enthousiast dood verklaard. Want stel je voor dat niet een machine maar een mens ons een artikel of programma zou voorschotelen vanuit een intellectueel verheffend idee, of dat we per ongeluk iets verontrustends te zien krijgen dat niet aansluit op onze klikgeschiedenis en het klikgedrag van groepenmensen die op ons lijken. Ons wereldbeeld zou wel eens oncomfortabel verbreed kunnen worden.
Als Facebook en smartphone onthouder word ik wel eens raar aangekeken. Maar wie is hier nou daadwerkelijk raar? Zijn dat de mensen die onwetend badderen in filterbubbels en zich in hun privacy aars laten naaien door bedrijven als Facebook of zijn dat de mensen die hier kritisch mee omgaan? Het is prima dat we met steeds meer levensaspecten verhuizen naar de online wereld zolang we dat maar niet op de kritiekloze manier blijven doen zoals nu het geval is. Wij maken de techbedrijven die onze levens algoritmiseren steeds machtiger terwijl we er ook voor kunnen kiezen om die macht in te perken. Hordes mensen beweren volledig afhankelijk te zijn van Facebook voor hun sociale leven en carrière. Het is hoog tijd om deze gevaarlijke vormen van afhankelijkheid en monopolisering te doorbreken. Wijk uit naar alternatieve zoekmachines die je klikgedrag niet volgen zoals Duck Duck Go en stop met Facebook. De enigen die kunnen voorkomen dat we in een digitaal panopticum komen te leven waarin we als een gealgoritmiseerde kudde worden aangestuurd, zijn wij zelf.
Op Hard//hoofd verschijnt elke maand een essay van mij over authenticiteit, het maakbare ik en het streven naar perfectie.