Artificial Unintelligence

SwipeOut op Radio 1

Afgelopen vrijdag lanceerde ik met SETUP in TivoliVredenburg onze nieuwe biodiversiteitsapp SwipeOut. Het werkt heel simpel: swipe de goede natuur naar rechts en de foute natuur naar links. Bepaal zelf welke soorten mogen blijven en van welke we prima afscheid kunnen nemen. Op NPO Radio 1 probeerde presentatrice Elles de Bruin het uit: “waar is dit goed voor?”. Inderdaad, waar is dit goed voor? En vooral: waarom gaan we in het dagelijks leven eigenlijk al zo met de natuur om? Kijk hier het fragment terug. Benieuwd waarom SETUP en Open State Foundation dit doen? Lees hier verder.

Linda

“Mag ik je interviewen over AI en discriminatie?”. Een paar keer per maand krijg ik deze vraag. Meestal zeg ik nee omdat ik al genoeg over dit onderwerp heb gesproken. Maar toen Linda me uitnodigde zei ik ja. Goed om eens een andere doelgroep aan te spreken, pal naast de beautyroutine tips en dubbel denim van Britney Spears. Artikel hier te lezen.

Wij zijn de robots 2Doc

Voor de NTR VPRO audio 2Doc “Wij zijn de robots” interviewde René van Es mij over de mens die steeds meer opschuift naar de machine. In de media zien we vaak het frame dat robots steeds meer op mensen zouden gaan lijken. Maar eigenlijk is het andersom: wij schuiven steeds meer op naar de robot. Aan de Universiteit Twente onderzoek ik op welke manier dat gebeurt in de context van AI en wat dat betekent voor menselijke authenticiteit. In deze audiodocu kijken we breder naar zowel de vermenselijking van de robot als de robotisering van de mens. Aan het woord komen o.a. Bram Ellens, hoogleraar theaterwetenschappen Maaike Bleeker, kunstenaar Casper de Jong en de befaamde pottenbakrobot van SETUP: “Komt er weer eentje helpen. Laten we zo maar beginnen dan. Als ik zo naar je kijk vermoed ik dat je nog nooit een pot hebt gebakken.” Beluister hier de documentaire.

Core Nature

Laten we stellen dat biodiversiteit overschat is. Wat moet je met een veelheid aan vogels als de pimpelmees, de koolmees, de mus, de meeuw en de kievit? Is de merel niet voldoende? Geïnspireerd door David Graeber’s Bullshit jobs wenden we ons in het project Core Nature tot de natuur. Wat kunnen we makkelijk missen? Die vraag klinkt wrang, maar in veel opzichten gaan we helaas al zo met de natuur om. Met mijn collega Frank-Jan van Lunteren schreef ik daar een artikel over. Over hoe we de natuur indelen in ‘’goede’’ versus ‘’foute” natuur, de politieke dimensie van biodiversiteitsdata en hoe we met rekenmodellen, dashboards en nieuwe verdienmodellen grip proberen te krijgen op biodiversiteit. “Met biodiversiteit-KPI’s en sterfteplafonds berekenen we tot achter de komma welke natuur kapot mag.” Lees hier het artikel en waar je het project live kunt zien.

Filosofie in actie Podcast

Voor de podcast van Filosofie in actie ging Piek Knijff met mij in gesprek over mijn werk bij SETUP, mijn onderzoek aan de Universiteit Twente en wat mij daarbij inspireert en motiveert. We behandelen populaire narratieven rondom kunstmatige intelligentie, de ideologie van het dataisme, authenticiteit als morele waarde en de aantrekkingskracht van AI. “Ik zie AI vooral als een copingmechanisme voor complexiteit waar we niet mee kunnen dealen.” Ook bespreken we twee inspiratiebronnen die vormend zijn geweest voor mijn onderzoek en denkproces: de film The Truman show en het boek De depressie-epidemie van wetenschapshistorica Trudy Dehue. Joeri Hazelaar schoof aan als sidekick en vroeg mij naar de parallel tussen de Trumanshow en de manier waarop AI ons leven beïnvloedt:  “Net als de Trumanshow gaat het bij data en AI ook om het controleerbaar, stuurbaar en voorspelbaar maken van de wereld. Beiden omvatten een optimaliseringsideologie en een enorme controle drive.” Beluister hier de podcast.

 

Niet swipen maar schuren

Voor HP/De Tijd interviewde Bina Ayar liefdesfilosoof Jan Drost en mij over de invloed van technologie op het liefdesleven. “Volgens Beerends moeten we onze sociale en emotionele vaardigheden niet verwaarlozen door ze uit te besteden aan technologie. ‘Frictieloze technologie is niet je beste vriend’, schreef ze eerder voor medialab SETUP dat samen met kunstenaars de ethische implicaties van technologie invoelbaar maakt. Zo had het platform een project om via metingen je eigen knuffels te optimaliseren. “Met als doel om mensen aan het denken te zetten,” vertelt Beerends, “want knuffelen gaat juist over aftasten en spontaniteit.” Ook veel liefdestechnologie richt zich op het perfectioneren van dating en relaties.”
“Online moet het eindeloze liefdesaanbod worden gefilterd: op basis van leefstijlkenmerken bijvoorbeeld. Maar in het echte leven kun je verliefd worden op een persoon die niet voldoet aan vooraf ingestelde vinkjes. Beerends beaamt dat: “Mijn partner woont in Zweden en heeft kinderen. Van tevoren had ik die hokjes niet aangekruist, maar de liefde is geen lijstje.” Lees hier het artikel.

Interview Gonzo

Voor het Vlaams-Nederlandse cultuurblad Gonzo interviewde socioloog Theo Ploeg mij over technologie, authenticiteit, kunst, nihilisme, mijn promotieonderzoek aan de Universiteit Twente en mijn werk bij SETUP. “Mijn perspectief is kritisch, in absolute objectiviteit geloof ik niet, je kunt jezelf als waarnemer nooit uitschakelen, dus dat is geen streven voor mij. Daar ben ik ook open in: ik vertel mijn perspectief en dat geeft mensen de mogelijkheid om zich daartoe te verhouden.”
“We antropomorfiseren de machine en machiniseren de mens. Beiden geven een vertekend beeld van de complexere werkelijkheid. Technologie gaat veel verder dan de apparaten en dingen zelf. Categorieën en systemen zijn ook technologie. Onze maatschappij wordt gedomineerd door een technologische mindset: categoriseren, objectiveren, rationaliseren, controleren en beheersen.”
Fotograaf Michel Mees zette voor dit interview bij zijn portretten de AI-functie in Photoshop aan het werk: hij haalde de helft van mijn gezicht weg om de foto vervolgens door AI opnieuw te laten genereren. Naast het oorspronkelijke portret zijn steeds verder geëvolueerde versies te zien.

Radio 1 Spraakmakers

In de media gaat het vaak over wat AI allemaal kan en wat de voor- en nadelen zijn. Waar het niet over gaat is hoe AI ons hele mens-zijn verandert. Dit proces gaat zo geleidelijk dat we ons er niet van bewust zijn. Vrijdag schoof ik aan bij NPO Radio 1 Spraakmakers om hierover te praten. Andere gasten waren antropoloog Jitske Kramer en comedian Dolf Jansen die net als ik graag wijzen op het belang van frictie voor menselijke ontwikkeling. Frictie die we met AI uit de weg proberen te ruimen.
We horen vaak dat met de komst van AI menselijke vaardigheden verloren gaan, en dat dat niet erg is omdat er andere vaardigheden voor in de plaats komen. Met deze nonchalante houding snijden we onszelf in de vingers. Sommige vaardigheden moeten we koesteren, ook al kunnen we ze aan AI uitbesteden. Niet uit angst voor het nieuwe, maar omdat we deze vaardigheden nodig hebben om onszelf te ontwikkelen en een betekenisvol bestaan te leiden. Vooral AI-bedrijven profiteren van deskilling: hoe afhankelijker wij worden van hun AI-producten, hoe meer invloed en hoe hoger de winst. We moeten ons vaker achter de oren krabben of we er zelf ook beter van worden. Het gesprek is hier terug te luisteren.

Computersysteem bepaalt wie sterft

In EenVandaag gaf ik commentaar op Lavender: een computersysteem dat Israël gebruikte om te bepalen wie er sterft in Gaza. Belangrijkste punten: (1) Onvoldoende menselijke controle: met het Lavender systeem kwamen 37.000 Palestijnen op een kill-list te staan. Deze werd zonder betekenisvolle controle opgevolgd. Het systeem werkt volgens de logica: als je een aantal zelfde kenmerken hebt als een Hamas militant, dan ben jij automatisch ook een Hamas militant. Deze rechtlijnige, computationele logica is gevaarlijk en voorbarig. (2) Oorlogsvoering wordt afstandelijker: het is makkelijker om targets te dehumaniseren als een systeem aanwijst wie je moet hebben en jij blind op de statistiek van het systeem vertrouwt. Of in de woorden van een van de soldaten: “Everything was statistical, everything was neat — it was very dry.” (3) De beslissing wie sterft komt dichter bij de machine te liggen: het aantal targets werd met Lavender zo hoog, dat mensen geen betekenisvolle afwegingen meer maakten: “Officers were not required to review the AI system’s assessments, in order to save time and enable the mass production of human targets without hindrances.” Fragment hier terug te kijken.

Hoe de AI-apocalyps eruit ziet

Vorige week gaf ik mijn gastcollege “An AI apocalypse?” aan het UvA Instituut voor Interdisciplinaire Studies. De existentiële dreiging van AI wordt afgeschilderd als een risico voor de toekomst, terwijl de huidige AI ons nu al existentieel bedreigt. Niet door plotseling de mensheid te elimineren, maar door de mens geleidelijk te devalueren tot economische functie. Met studenten uit verschillende landen en disciplines bespraken we AI doom en utopia, AI realisme, de antropomorfisering van AI en de machinisering van de mens. Complimenten aan Lisa Doeland voor de belangrijke lesmodule “Apocalypse”.

Geen quick-fix voor seksistische AI

In EenVandaag gaf ik commentaar op het UNESCO onderzoek naar seksisme in AI. De vraag die steeds terugkomt: kunnen we deze bias niet gewoon oplossen? Wie gelooft dat we een decennialange geschiedenis van genderongelijkheid en discriminatie kunnen oplossen met inclusieve data, begrijpt niet hoe maatschappelijke veranderingsprocessen werken. In plaats van AI-systemen te bouwen die patronen uit het verleden herhalen, moeten we de mechanismen aanpakken die tot deze patronen van ongelijkheid hebben geleid. Er bestaat geen technologische fix voor culturele bias en sociale ongelijkheid. Twee voorbeelden: Google’s Gemini en deze studie naar healthcare bias – why fixing the numbers could lead to worse outcomes.

De existentiële dreiging van AI

2023 was het jaar van de AI-bullshit. Nog nooit was de marketing zo krachtig en de duiding zo belabberd. Als we de berichtgeving moeten geloven kunnen we het AI-vraagstuk reduceren tot twee kampen: een ethisch kamp dat AI op een veilige manier wil ontwikkelen, en een onethisch kamp dat uit is op winst en AI zo roekeloos ontwikkelt dat het een existentiële bedreiging kan vormen voor de mens. Zo’n soap over goed versus kwaad spreekt tot de verbeelding, maar gaat voorbij aan de ideologie die schuilgaat achter AI. Lees hier het artikel dat ik schreef samen met Emile van Bergen.

De AI-fabriek

“Alles wat Big Tech niet vertelt, maar je wel moet weten over kunstmatige intelligentie.” Voor de BNR Nieuwsradio & Trouw podcastreeks “Welkom in de AI-fabriek” ging ik met Ilyaz Nasrullah in gesprek over het geloof in de vermeende existentiële dreiging van AI. Welke impliciete aannames en culturele opvattingen gaan hierachter schuil? Want de ideologie achter AI is gevaarlijker dan de technologie zelf.
De reeks bestaat uit zes afleveringen en zes essays waarmee Ilyaz een belangrijk tegenwicht biedt tegen alle hijgerige berichtgeving rondom AI.

Singularity of sameness

Op zondag 29 oktober sta ik op het Brainwash Festival: “Het is tijd voor een AI-bullshit-pauze. Intelligentie-explosies en robots die de mens overbodig maken; allemaal onzin, aldus Siri Beerends. In plaats van ‘singularity’ — het moment dat AI de mens op alle fronten overstijgt — moeten we ons zorgen maken om een ‘singularity of sameness’: een monocultuur waaruit we niet meer los kunnen breken.” Ik vertel o.a. over de invloed van generatieve AI op onze taal en geestelijke diversiteit. Daarnaast laat ik het antwoord zien van SETUP op de almaar groeiende AI-modellen waarmee we het kleine en bijzondere laten opslokken in een singularity of sameness. Info en tickets.

 

Één enkele logica

“Volgens Evgeny Morozov lopen we het gevaar dat we ervan worden overtuigd dat de wereld draait op één enkele logica: die van zeer cognitief, koelbloedig rationalisme. Velen in Silicon Valley geloven dat al – en op basis van dat geloof zijn ze druk bezig met de wederopbouw van de wereld.” Journalist Tom Grosfeld nodigde Ilyaz Nasrullah en mij uit voor een interview. Het werd een kraakhelder stuk over de culturele mechanismen en ideologische opvattingen achter AI. Grosfeld trekt een mooie lijn door naar de inzichten van Jaron Lanier en Evgeny Morozov. Lees hier het artikel.

EenVandaag

Voor AVROTROS EenVandaag werkte ik mee aan een zesdelige serie van Sjoerd Fennema over kunstmatige intelligentie. Van AI in de kunst- en muzieksector tot AI in het onderwijs en de zorg. Zo krijgt een kritisch, sociologisch en cultureel perspectief op AI nu ook ruimte in de mainstream media. De serie is hier terug te kijken.

Geen individuele menselijke geest

Voor Nieuwe Revu interviewde Laurens Bluekens mij over alle ophef rondom kunstmatige intelligentie. Het werd een goed gesprek dat op de cover belandde. “Ik heb een grote nieuwsgierigheid naar de geest van andere mensen. In ChatGPT-teksten en AI-gegenereerde content herken ik geen individuele menselijke geest, daarom vind ik het saai.” Lees hier het hele interview. 

De macht die wij aan AI toekennen

Voor HP/De Tijd interviewde Bina Ayar techniekfilosoof Guido van der Knaap en mij over de macht en kracht die wij aan AI toedichten. “Het verschil tussen computerkennis en menselijke intelligentie is dat onze kennis is gestoeld in lichamelijke, geestelijke en zintuigelijke ervaringen. De gelaagdheid van mensenkennis ontbreekt bij krachtigere systemen. Een computer kan taal imiteren, maar mist context en connectie met de complexe werkelijkheid. Een computer heeft geen bewustzijn of eigen wil.” “Mijn bezwaar tegen de AI-brief is dat het de indruk wekt dat AI een onbeheersbare natuurkracht is die alleen door techbedrijven in goede banen is te leiden. Van mij hoeft een klein groepje techneuten niet te bepalen wat goede AI is, net zomin als dat ik wil dat de overheid ons vertelt welke informatie waar of onwaar is. De consternatie rond de waarschuwingsbrief leidt af van de echte gevaren: namelijk dat we technologie te veel macht toekennen, met als gevolg dat we zelf niet meer nadenken. Dat is geen toekomstmuziek; daar zitten we al middenin.” Lees hier het hele artikel.

AI-pauzebrief

Waarom ik geen AI-pauzebrieven onderteken: het grootste probleem met AI is de macht en kracht die wij eraan toedichten. Dat we biljarden investeren in een industrie die mens, natuur en samenleving uitholt, hebben we juist te danken aan Het Geloof dat AI zodanig krachtig en “intelligent” is dat het de mensheid kan uitroeien, of dat het ‘’als we maar genoeg investeren’’, meerwaarde voor de maatschappij heeft. Dat Geloof moet je niet voeden met brieven over een vermeende ”existentiële” dreiging. Met het uitroeiing vs. reddings-frame behouden AI-bedrijven hun status quo, en hun macht over ons begrip van intelligentie. Dat zouden we niet moeten steunen.

Public Spaces

Samen met SETUP, David Schwarz en Derk Stenvers stond ik op PublicSpaces. Na opvoering van The Silicon Passion gaf ik een korte talk als brandstof voor het nagesprek. Dat het internet stuk is wisten we al. AI zet daar een turboboost op. Datadiefstal, desinformatie, privacy-schendingen en algoritmische polarisatie zijn problemen waarvoor we graag het grote boze Big Tech de schuld geven. Maar wat als het probleem dieper ligt? In plaats van ons af te vragen wat technologie ons aandoet, kunnen we het ook omkeren en ons afvragen wat wij de technologie aandoen. Hierover ging ik in nagesprek met Levien Nordeman, docent en onderzoeker data, AI en samenleving aan de Hogeschool Utrecht en Cesar Majorana, schrijver en presentator bij BNNVARA. Presentatie en gesprek hier terug te kijken.

Culturele blunder

Ons opiniestuk in NRC. De angst dat kunstmatige intelligentie te slim wordt en de mensheid overbodig maakt domineert het publieke debat. Maar het AI-marketing verhaal over een AI ”intelligentie-explosie” maskeert de culturele, ideologische en commerciële dimensie van intelligentie. Samen met Jelle van der Ster, algemeen directeur van SETUP, schreef ik een opiniestuk over de noodzaak van een scherper AI-debat. Lees hier het artikel.

AI biedt nauwelijks winst

Voor Binnenlands Bestuur werd ik geinterviewd door Marjolein van Trigt: “Rondom kunstmatige intelligentie vindt enorm veel hypevorming plaats, waarschuwt cultuursocioloog Siri Beerends. Dat wil niet zeggen dat we het kunnen afdoen als een hype. Integendeel: ‘Door de hype wordt het een alledaagse realiteit waar we mee moeten dealen.’” Lees hier het interview.

AI-bullshit pauze

Mijn reactie op de AI-pauze brief: “De brief zet ons op het verkeerde been en leidt ons af van de daadwerkelijke gevaren van AI. Als ik om mij heen kijk zie ik geen AI die de mens overbodig maakt, maar een mensheid die de mens overbodig maakt. Het type intelligentie dat we in AI proberen te gieten is juist wat ons in de problemen brengt: statistische optimalisering voor economische doeleinden, extrapolatie van koloniale patronen uit het verleden, kennis zonder begrip, en een veronachtzaming van de fysieke wereld.” Lees hier het hele artikel.

Sci-fi clichés

Futuristische AI-beeldtaal leidt ons af van de daadwerkelijke gevaren en uitdagingen die voor ons liggen. Afgelopen zondag was ik te gast bij Mediastorm van Omroep Human. Ik vertelde in vier minuten wat er mis is met de beeldvorming rondom kunstmatige intelligentie. Het fragment is hier terug te kijken, vanaf 19 minuten.

Overbodige mens

“Als AI artikelen en scripts kan schrijven ben ik dan overbodig?” vroeg RTL Nieuws tech redacteur Harm Teunis aan Piek Vossen en mij. Dat AI de mens overbodig maakt is een populair frame in de media. Helemaal nu we overspoeld worden met toepassingen als Dall-E, MusicLM, Midjourney en ChatGPT. In plaats van te spreken over AI die de mens vervangt, is het relevanter om te kijken naar complementaire samenwerkingen. Helaas zie ik dat nog steeds vaak wordt gedaan alsof kunstmatige intelligentie en menselijke intelligentie hetzelfde zijn; een misvatting die gebaseerd is op antropomorfisering en misleidende AI-metaforen. Andersom wordt ook vaak gedaan alsof mensen hetzelfde zijn als computers. Patronen vertalen en bestaande teksten en beelden remixen tot iets nieuws; dat doen wij toch ook? Ook dat is een misvatting, en wel eentje die gebaseerd is op een mechanistisch mensbeeld. Om de mens overbodig te maken hebben we geen AI nodig. De mens was in zekere zin altijd al overbodig. Daarom hebben we een hoger doel gecreëerd: een collectieve AI-baby die we toegewijd voeden met data-flesjes en deep learning. Dit alles in de ijdele hoop dat als de AI-baby volwassen is, deze ons kan bevrijden van zware arbeid en ons kan leren waartoe wij nuttig zijn. Maar die AI-baby is natuurlijk nooit volwassen. Die blijft altijd schreeuwen om meer data-offers en meer parameters. En ondertussen hebben we ‘m zo verwend met aandacht en religieuze verafgoding, dat hij stilletjes aan is veranderd in een kleine dictator die ons voorschrijft wat menszijn betekent en hoe wij ons werk moeten doen.

ChatGPT hysterie

Nieuwszenders praten over een ‘’megadoorbraak’’ in de kunstmatige intelligentie. Tech-experts prediken doom en gloom voor het onderwijs. Bij elke nieuwe GPT-toepassing trappen we weer braaf mee in de AI hype-cycle. Wat al die sensatieberichten vooral laten zien, is niet zozeer dat het school-essay dood is, maar wijzelf. Door de diepte en breedte van taalcompetentie te reduceren tot datgene waar computers goed in zijn, cancelen we onszelf. We wissen de mens uit met een mechanistisch begrip van taal. Lees hier mijn artikel over ChatGPT.

Innovatie draait niet om technologie

Klimaatverandering, digitalisering, wonen, arbeid, zorg; het zijn stuk voor stuk maatschappelijke opgaven die om innovatiekracht bij uitvoeringsorganisaties vragen. Als we het over die innovatiekracht hebben, denken we vooral aan technologische innovatie. Veel minder vaak denken we aan de innovatieve kracht van verbeelding. Voor iBestuur schreef ik over AI-hypes en waarom het belangrijk is om de creatieve industrie te betrekken bij maatschappelijke opgaven. Lees hier het artikel.

Verbeelding aan de macht

Laurens Bluekens interviewde voor de VPRO Gids Dominik Vrabič Dežman en mij over het project ”Diverse beelden voor technologie.” Witte glanzende humanoid robots, hersenen met nullen en enen, blauwe achtergronden, printplaten; dat is hoe technologie vaak verbeeld wordt. SETUP nodigde kunstenaars en illustratoren uit om deze eenzijdige beeldvorming te doorbreken. Lees hier het artikel:

AI-gegeneerde kunst

’s Ochtends op het SETUP kantoor tref ik mijn collega’s in opperste staat van enthousiasme. Ze zijn in de zevende hemel met een AI-beeldprogramma: “Moet zien hoe gaaf dit is, we zijn hier gisteren de hele dag mee bezig geweest! Deze afbeelding is echt sick, die hebben we net gemaa”-met geïrriteerde toon onderbreek ik het verhaal: “Ja vinden jullie dat interessant? Ik vind er geen moer aan. Ik word helemaal doodgegooid met die quasi-interessante AI-plaatjes, ik kan ze niet meer zien. Het ráákt me niet“. Voor SETUP schreef ik over onze uiteenlopende perspectieven op AI-gegenereerde kunst. Lees hier het artikel.

Relatietherapie met social media

In De Balie gingen we in relatietherapie met social media. Samen met Jelle Baars, Jeroen Matthijs de Vos, Patti Valkenburg, Dasha Simons, Najla Edriouch en Stephen Kearney ging ik in gesprek over de vraag wat we nodig hebben om tot een betere relatie met social media te komen. Een ingewikkelde vraag. Ik blijf moeite houden met, in mijn optiek, twee misverstanden.

Europees digitaal identiteitsbewijs

Metronieuws interviewde Jaap-Henk Hoepman, Martin Buijsen en mij over de stelling ‘Een Europees digitaal identiteitsbewijs en medisch dossier gaan te ver’. Lees hier onze perspectieven. De invoering van een eID en medisch dossier zijn onderdeel van een bredere trend van het digitaal sturen van burgers op basis van data. Over die ‘bredere trend’ schreef ik eerder dit kritische artikel.

Geef ons heden ons databrood

De natte droom dat we met technologie de wereld volledig naar de hand kunnen zetten is al zo oud als de weg naar Rome. Maar hoe voelen we ons inmiddels in die droom? Samen met SETUP en theatermaker en muzikant Els Vegter maakte ik de Post-corona Passion: een muzikale Lecture Performance over technologische beheersdrift in een alsmaar complexer wordende wereld.

AI, gender en de arbeidsmarkt

Op het het congres ‘Hey Siri, vind een geschikte kandidaat’ schoof ik samen met Rina Joosten-Rabou, Hans de Zwart, David Graus en Mildo van Staden aan bij een stakeholdersdebat over inclusieve AI. AI is een favoriet duizenddingen doekje voor maatschappelijke problemen. Leuk, tien basisprincipes voor inclusieve AI bij werving en selectie, maar laat overheden en bedrijven eerst maar eens hype-resistent worden.

Excuses als PR-strategie

Universiteit Utrecht interviewde hoogleraar Latijnse Taal en Literatuur Antje Wessels en mij over excuses als PR-strategie: “Van klassieke dichters, tot moderne Big Tech-bedrijven; al eeuwen worden mooie woorden gebruikt om er vooral zelf beter van te worden. Hoe werken die retorische excuses precies? En waarom slikken we ze?” Lees hier het interview.

Jouw realiteit is de mijne niet

Polariserende algoritmen en informatiebubbels zijn niet alleen een uiting van het verdienmodel van Big Tech, maar ook een uiting van de cultuur waarin wij leven. Een authenticiteitscultuur die draait om zelfverwezenlijking en het verlangen om in jouw ‘uniekheid’ bevestigd te worden. De wereld dient zich aan jou aan te passen, in plaats van andersom. We reduceren onze technologieën tot instrument ter zelfbevestiging, en onze discussies tot identiteitsvraagstuk waar diverse groepen elkaars belangen bevechten. In tijden van polarisering onderzoekt SETUP: wat is een gedeelde realiteit en hoe beïnvloeden technologie en digitale cultuur onze werkelijkheidsproductie? Lees hier meer over het onderzoek.

Research paper

Mijn onderzoekspaper met Ciano Aydin over authenticiteit en technologie is gepubliceerd in Philosophy & Technology. Mijn fascinatie met authenticiteit begon in mijn tienerjaren toen ik The Truman Show zag. De zoektocht van Truman naar echtheid, die eindigt met een zeilboot waarmee hij letterlijk tegen de kartonnen wand van zijn geënsceneerde robotische perfectiewereld botst, maakte diepe indruk. Maar wat is echtheid? En wat betekent het om “jezelf” te zijn of worden? Deze vragen hebben mij altijd bezig gehouden en leidde tot mijn promotieonderzoek naar authenticiteit in technologische context. Inmiddels is authenticiteit door toenemende digitalisering en dataficering een belangrijk thema geworden. In dit paper leggen we uit wat authenticiteit is, op welke manier dat wordt beïnvloed door opkomende technologieën, en wat de morele meerwaarde van authenticiteit is:

AI als goocheltruc

Vandaag mijn artikel in Vrij Nederland over de goocheltruc die wij kunstmatige intelligentie noemen. SETUP staat op de Dutch Design Week met installatie-drieluik Accept & Work. Hiermee maken Ruben van de Ven en Merijn van Moll tastbaar welke wereld schuilgaat achter (kunst)matige intelligentie. Een wereld van menselijke klikarbeid en verborgen maatschappelijke kosten, maar ook een wereld waar je de ultieme werkflow kunt ervaren. Welk soort samenleving faciliteren we met klikwerk en wie profiteren daar het meeste van? Lees hier het artikel.

NPO Radio 1 Focus

Een pratende bloempot, een algoritme dat bij je geboorte berekent hoe oud je mag worden, een ongemakkelijke stilte, een theaterperformance over de macht van Big Tech, een anti-zelfhulp boek, een Atari rave intermezzo, a little bit of everything all of the time, (kunst)matige intelligentie, en de perfecte robotmens: “Fitter, happier, more productive, not drinking too much, regular exercise at the gym, 3 days a week, more calculated.” ? Het komt allemaal voorbij in het gesprek dat ik had met Jacob de Vries bij Focus op NPO Radio 1. Hier terug te luisteren.

Betweter Festival

Betweter Festival zit erop. Wat ik mee naar huis neem:
(1) TivoliVredenburg is als een desoriënterend Escher schilderij. Leuk om van een afstandje te observeren, niet om in vast te zitten.
(2) Technologie-kritiek is hot. Zelfs zo hot dat tech-solutionisten hun AI-praatjes verpakken in een technologie-kritisch sausje.
(3) Pinstoring + cashless samenleving = korte rij bij de bar voor mensen met cash.
(4) Even naar buiten voor frisse lucht? QR-code systeem says no.
Gelukkig trok mijn ongemakkelijke verhaal (want technologiekritiek = menskritiek) toch een volle zaal. Praatje terugkijken? Dat kan hier.

Worden wij als robots?

We zijn geobsedeerd door machines die mensachtige trekjes vertonen. Wat is er mis met dit beeld en waarom kunnen we ons beter op het omgekeerde proces richten? Met Bina Ayar ging ik in gesprek over mijn onderzoek naar de robotisering van mens en samenleving. Haar treffende conclusie: “It’s silly, no? When a rocket ship explodes, and everybody still wants to fly” zong Prince in de jaren tachtig. Het is te hopen dat de mens in zijn zoektocht naar volmaaktheid zichzelf niet cancelt. Aan de andere kant: het is de mens eigen om het voor onszelf te verprutsen.” Lees hier haar artikel.
 

Wat willen we digitaliseren?

Door corona heeft de digitalisering van ons dagelijks leven een nog grotere vlucht genomen. Tom Grosfeld schrijft erover in Het Parool en interviewde een aantal filosofen en sociologen, waaronder ikzelf, over de gevolgen daarvan. Het is makkelijk om te roepen dat je alles kunt digitaliseren, als je menselijke taken uitholt en reduceert tot een kwestie van informatieverwerking. Gelukkig heeft de pandemie ons ook geconfronteerd met een aantal grenzen van onze digitaliserings-drang. De vraag die we moeten stellen is niet wat we kunnen digitaliseren, maar wat we willen digitaliseren, en welke taak- en mensopvatting daarachter ligt:

Explainer deepfakes

Voor het Algemeen Dagblad maakte ik met de Universiteit van Nederland een toegankelijke explainer over het fenomeen deepfakes. Waar volgens sommigen de infocalyps nabij is, pleiten anderen juist voor meer nuchterheid. In deze video leggen we kort uit wat een deepfake is, waar ze het meest voorkomen en wat de maatschappelijke gevolgen zijn. Geen doom and gloom, maar het kan zeker tot ontwrichting leiden. What Who happend to my face?

Doorgeslagen dataficering

Hoogleraar Media en Digitale Samenleving José van Dijck, ontwerper Julia Janssen en ikzelf schoven aan bij De Nieuwe Wereld om te praten over de toenemende dataficering van onze levens. We worden steeds meer benaderd als data-optelsom. Niet alleen overheden en bedrijven, maar ook wijzelf dataficeren er gretig op los. Wat zijn de gevolgen en wie profiteren daarvan? Heeft het zin om je eigen data te bezitten? Hoe dragen kunst en organisaties als SETUP bij aan kritische reflectie en nieuwe handelingsperspectieven?

Van het oude naar het nieuwe absurd

Vandaag het werk van SETUP in NRC. We zijn opweg naar het nieuwe absurd. Met een wildgroei aan apps en gadgets die moeten waarborgen dat we corona-proof de hort op kunnen. Maar wat krijgen we daarvoor terug? “Het grootste risico voor de ontsporing van surveillancemaatregelen, is de ingebakken neiging tot meer, meer, meer – en het negeren van de meest simpele optie: ergens mee stoppen.” Aldus gedragsonderzoeker Leidy Klotz. “Om de implicaties van die controlesamenleving tastbaar te maken, nodigden Beerends en haar collega’s ontwerpers uit om concept-apps te maken voor de open-up-samenleving. De projecten van SETUP trekken de surveillance en beperkingen tot in het absurde door, maar het is de vraag hoe absurd dat werkelijk is.” Lees meer over onze provocatieve ontwerpen in het artikel van Wouter van Noort:

Fabeltjesfuik

In samenwerking met de ministeries EZK en LNV maakt de RijksAcademie voor Digitalisering en Informatisering Overheid (RADIO) een podcastserie over de ethische implicaties van algoritmes en digitalisering. In de eerste aflevering van de serie ‘Het digitale dilemma’ sprak programmamaker Robin Rotman met mij over de ‘fabeltjesfuik’, online profiling en de manier waarop SETUP deze thema’s tastbaar maakt. Wat is de fabeltjesbuik en wat moeten we ermee? Bestaan filterbubbels eigenlijk wel? En waarom moeten we de schuld niet afschuiven op het grote boze algoritme? Luister hier de podcast terug:

Corona als gamechanger?

Vaarwel strenge Lockdown, hallo nieuwe wereld? Vergeet het maar. In onze wanhopige poging om terug te gaan naar het oude normaal verkwanselen we het potentieel van de pandemie als gamechanger. Geen structurele verandering, maar wel een steeds verdergaande technologische controlesamenleving. Vorig jaar las ik The Technological System van Jacques Ellul. Zijn perspectief dreunt na in alles om ons heen. Pandemieën voorkomen is beter dan genezen. Maar niet in The Technological System. In The Technological System vinden we een groen corona-vinkje belangrijker dan een groene planeet. In The Technological System denken we onszelf en onze planeet uit de crisis te kunnen innoveren met slimme gadgets. Kunnen we nog ontsnappen aan het virus van korte termijn oplossingen? Vandaag -de dag waarop de terrassen open gaan en de avondklok eindigt- mijn artikel in Vrij Nederland:

 

Listening to the future Podcast

We staan te springen om ons groene vinkje bij de ingang te laten zien en weer te gaan feesten. Maar in welk soort samenleving gaan wij straks weer naar buiten? Met Jarno Duursma ging ik in gesprek over corona fieldlabs, massa-monitoring, crowdcontrol, big data surveillance, digitale coronapaspoorten en de dode mussen award van SETUP. Welk soort samenleving zijn wij aan het creëren? Wat voorheen ondenkbaar was, is nu geoorloofd. Wetswijzigingen worden doorgevoerd, studenten hangen hun kamers vol camera’s om tentamens te mogen maken, en de nationaal coördinator terrorismebestrijding houdt burgers nauwlettend in de gaten. Dat geeft een gevoel van controle. Maar controle is niet hetzelfde als een probleem bij de wortel aanpakken. Luister hier de podcast terug:

Pandemiepreventie

Even een jaar terugspoelen: weet je nog dat het Ministerie van VWS de corona traceer-app presenteerde als wondermiddel om uit de Lockdown te komen? Met het Oog op Morgen vroeg hoe ik tegen de toenmalige app-plannen aankeek. Wilfried de Jong zag niet aankomen dat ik een pleidooi zou gaan houden tegen het tech-solutionisme. Ook over kunstmatige intelligentie riep ik op om bescheiden te zijn over de rol van AI-toepassingen bij het temmen van het virus. Inmiddels zijn we ruim een jaar aan corona-bestrijding en (kunst)matige intelligentie verder. Nog steeds dringt niet goed door dat voorkomen beter is dan genezen. De korte termijn gedachte dat we met 700 miljoen euro en een systeem van fieldlabs, check-apps en digitale corona-paspoorten pandemieën kunnen beheersen is ronduit naïef. In plaats van een verstikkende controlesamenleving op te tuigen die zijn weerga niet kent, kunnen we er beter alles aan doen om pandemieën te voorkomen

Zien is geloven?

Samen met documentairemaker Shugen Tan, ‘Digital Human’ expert Mao Lin Liau en onderzoeker Jon Roozenbeek was ik te gast in de livestream van Pakhuis de Zwijger om te praten over de Tegenlicht aflevering “Zien is geloven”. Volgens Nina Schick (auteur Deepfakes and the Infocalypse) leven we in een infocalypse: we kunnen geen onderscheid meer maken tussen informatie en desinformatie en leven steeds meer in onze eigen echo kamers. Hierdoor wordt het steeds moeilijker om in een gedeelde realiteit te leven. Wat zijn de maatschappelijke gevolgen? Is het echt zo dramatisch als hier gesteld wordt? Wat is de waarde van purposeful fiction? Wat is (de rol van) een gemeenschappelijke waarheid? Kijk de livestream hier terug.

Digital humans: oude AI-wijn in nieuwe zakken

Hoe spectaculair een digitale avatar er ook uitziet, het is en blijft een lege huls. Een data-echo die slechts een paar persoonskenmerken kan uitdrukken. Omdat we menselijke eigenschappen op robots projecteren, vergeten we dat robots onze woorden en emoties niet begrijpen, maar slechts simuleren dat ze onze woorden en emoties begrijpen. Het idee dat je de mens kunt vangen in data is net zo wereldvreemd als het idee dat de mens een brein is dat je simpelweg kunt overzetten op een digitale drager. ”Next level AI” of niet: bewustzijn, persoonlijkheid en een betekenisvolle omgeving verhuizen niet automatisch mee wanneer we onszelf proberen over te zetten op een digitale drager. Vorig jaar dook ik voor SETUP en Vrij Nederland in de wereld van de digitale avatars waarin mensen zichzelf proberen te vereeuwigen. Nu MetaHuman creator viral gaat en we steeds meer aspecten van het leven willen uitbesteden aan een digitale versie, wordt duidelijk hoe we nog altijd zijn blijven hangen in een conservatief mind-body dualisme. Wederom actueel en ook te beluisteren als podcast.

“Fixing” AI bias

Do you want inclusive AI? Do you believe that fixing bias is the solution? Read this important paper by Abeba Birhane:

  • “AI has become the hammer every messy social challenge is bashed with. The intrinsically political tasks of categorizing and predicting things like ‘acceptable’ behavior, pass as apolitical technical sorting tasks. As a result, harmful outcomes are treated as side effects that can be treated with tech-solutions.”
  • “Underlying the idea of fixing bias is the assumption that there exists a single correct description of reality where a deviation from it results in bias. The ‘correct’ way often means the status quo.”
  • “When we see bias, we see problems that surfaced from a field that has inherited unjust, racist, and white supremacist histories. Problems that have roots in the mathematization of ambiguous issues, historical inequalities, and asymmetrical power hierarchies.”
  • “Even if one can suppose that bias in a dataset can be ‘fixed,’ what are we fixing? Is the supposedly ‘bias-free’ tool used to punish, surveil, and harm anyway?”
  • “This calls for interrogating contextual and historical structures that might give rise to such patterns, instead of using the findings as input toward building predictive systems and repeating existing inequalities and historical oppression.”

Toeslagaffaire 2.0

Terwijl het puinruimen van de Toeslagenaffaire nog moet beginnen, stemde de Tweede Kamer in met een datakoppelwet waarmee nóg ingrijpendere risico-indicatiesystemen worden opgetuigd. Voor SETUP en OneWorld dook ik in twee rapporten over algoritme-gebruik bij de overheid. Wat weten we over de gebruikte computermodellen? Waarom is het gevaarlijk om de schuld af te schuiven op “het grote boze algoritme”? En waarom is algoritmische transparantie niet zaligmakend? Lees hier mijn artikel over de Toeslagenaffaire, het vervolg op Systeem Risico Indicatie en de nieuwe datakoppelwet.

Dikke Data Show

Met bewerkings-apps en fotofilters lijkt het Westerse schoonheidsideaal (grote amandelvormige ogen, volle lippen, kleine neus, egale huid, strakke kaaklijn, witte tanden) voor steeds meer jongeren binnen handbereik. Sommigen gaan nog een stap verder en stappen naar de cosmetisch chirurg om op hun gefilterde selfies te lijken.
In VPRO’s Dikke Data Show (doelgroep 8 t/m 14 jaar) leg ik uit wat dit kan doen met je zelfbeeld. Wat is belangrijker: 10K likes van wildvreemden of waardering van mensen die je nauw aan het hart hebt liggen? Kijk hier de aflevering terug.

This is the world we built

In ons denken over de aanpak van klimaatopwarming, Big Tech en institutioneel racisme moeten we de wisselwerking tussen individueel en collectief ingrijpen beter leren begrijpen. We horen graag dat wij niet hoeven te veranderen. Dat we slachtoffers zijn van de structuren en systemen waarin we leven; dat politiek en bedrijfsleven verantwoordelijk zijn. Inderdaad, we zitten vast in destructieve systemen waar we niet om hebben gevraagd. Maar dat betekent niet dat we deze systemen niet kunnen veranderen en onze eigen keuzes geen invloed hebben. De metafoor van de druppel op de gloeiende plaat maakt ons passief. Het gaat niet alleen om het effect van die ene vegaburger of Facebook-boycot. Het gaat om de structuren die je daarmee in gang zet, en het effect op het grotere geheel. Individueel ingrijpen kan structureel ingrijpen afdwingen en vice versa. Individuen maken het collectief. This is the world -we- built. Congratulations, cheers all:

Infocalypse

Voor de NRC-podcast Future Affairs ging ik met tech-journalist Wouter van Noort en filosoof Jessica van der Schalk in gesprek over het gevaar van een mogelijke “infocalypse”. Met deepfake-technologie, online filters, hyper personalized micro-targeting en bewerkingsapps kunnen we de werkelijkheid naar hartenlust manipuleren. Het is steeds moeilijker om informatie op waarde te schatten en in een gezamenlijke realiteit te leven. Maar geven we Big Tech en algoritmes niet te makkelijk de schuld? In selfie-walhalla Youseum gingen we op zoek naar een antwoord op de vraag: hoe komen we tot een gedeelde realiteit? En wat is een gedeelde realiteit?

(kunst)matige intelligentie

Gisteren gaf ik op uitnodiging van Dr. Marlies van Eck een online gastcollege over de sociale implicaties van toegepaste AI voor de PAO leergang kunstmatige intelligentie voor juristen aan de Universiteit Leiden. Ik besteedde aandacht aan de niet-meetbare aspecten van mens en samenleving. Wat gebeurt er als we onze sociale werkelijkheid dataficeren? Op welke manier kunnen rigide wiskundige modellen en mensenlogica in de praktijk met elkaar botsen? Is alles wat volgens privacywetgeving is toegestaan ook maatschappelijk gewenst? Waardevol om op deze manier het cursusprogramma aan te kunnen vullen!

AI’s dirty secret

At Brave New World 2020 I talked on behalf of SETUP about the hidden human labour in AI-systems. Our first-world preoccupation with Artificial General Intelligence, Singularity theory and hypothetical robot rights is too far removed from concrete events on the ground. Instead of so-called hyper-intelligent robots, we should talk about the robots that are already among us and the enormous amount of human work lurking in seemingly automated AI-systems.

The Social Dilemma

Het narratief van The Social Dilemma houdt ons in een gevaarlijke wurggreep: pas als technologie ontwikkelaars hun ontwerp aanpassen, kunnen wij verlost worden van hun zonden. In dit eenzijdige Black Mirror sprookje wordt ons voorgehouden dat de industrie een probleem heeft gecreëerd wat alleen de industrie voor ons kan oplossen. Om het probleem bij de wortel aan te pakken moeten we loskomen van de AI-ideologie die in The Social Dilemma wordt gepromoot: 1) Wij zijn ons brein; 2) Ons brein is een computer; 3) Silicon Valley maakt betere computers; 4) De spijt hebbende tech-industrie maakt betere computers.
Om deze cirkelredenering te doorbreken schreef ik voor SETUP een uitgebreid artikel over The Social Dilemma en ging ik daarover in gesprek met David van Overbeek in het programma De Nieuwe Wereld.

Alles digitaliseren

Definities en menselijke taken uithollen zodat we makkelijker kunnen stellen dat digitale technologie het kan vervangen: ik zie het steeds vaker.
Emoties herkennen? Een kwestie van gezichtsuitdrukkingen categoriseren. Empathie? Een kwestie van gesprekken aanpassen aan iemands emotie. Onderwijs? Een kwestie van informatie overdracht.
Voila, we kunnen sociale intelligentie, empathie en onderwijs digitaliseren. En nou niet zeggen van niet want dan verpest je het automatiseringsfeestje van de tech-industrie en de mensen die technologische vooruitgang gelijkstellen aan sociaal-maatschappelijke vooruitgang. Ankana Spekkink verwoord het treffend: “Online onderwijs lijkt prima ingezet te kunnen worden op de momenten dat onderwijs wordt opgevat als het overdragen van feitelijke kennis en het toewerken naar een doel met een meetbare uitkomst. Maar online onderwijs wordt problematisch als het gaat over de bevordering van nieuwsgierigheid, creativiteit, reflectief vermogen en morele ontwikkeling.
Uiteindelijk kunnen we ”alles” digitaliseren, maar we moeten ons afvragen wie daar precies allemaal beter van worden en hoe digitalisering onze definitie van beter beïnvloed.

Listening to the future

In de podcast Listening to the future werd ik door Jarno Duursma geinterviewd over de ethische en praktische grenzen van AI. Zijn kunstmatig intelligente systemen slim of dom? Kunnen we vriendschap sluiten met kunstmatig intelligente software? Kan dit soort software onze emoties detecteren? Is de corona-app een goed idee? Waarom laten we algoritmes steeds meer beslissingen voor ons maken? Het gesprek is hier terug te luisteren.

Expertpanel appathon VWS

Het Ministerie van VWS nodigde mij uit om deel te nemen aan een van de expertpanels bij de corona-appathon. Ik was blij met de uitnodiging maar na een weekend kritische vragen stellen aan zeven app-ontwikkelaars blijf ik achter met een gevoel van waanzin. We investeren tijd, geld en energie in struisvogeloplossingen. Van begin af aan waarschuwden experts dat een corona tracing-app geen effectief middel is en een schijnveiligheid kan creëren. GGD’s zijn meer geholpen met simpele oplossingen op basis van bestaande middelen, dan met schijnoplossingen op basis van complexe technologieën. In plaats van een appathon met zeven apps die de KPMG securitycheck niet eens konden doorstaan, had ik liever een pandemiethon gezien waarin transitie-experts, scenario ontwerpers en mensen uit de praktijk maatregelen mogen presenteren die het probleem bij de wortel aanpakken. De grootschalige vernieling van ons ecosysteem is de voornaamste aandrijver van pandemieën. De economie opengooien met een corona tracing-app om zo snel mogelijk weer terug te gaan naar het oude model is een verspeelde kans. We hebben geen app nodig, maar een paradigma-shift:

App-solutionisme

Marli Huijer in de Volkskrant: “In de afweging tussen eenzaamheid en het risico op de dood, zou het kunnen dat niet iedereen voor een quarantaine kiest.Een man die precies zo’n andere afweging maakt is Ko. Hij wil afscheid nemen van zijn dementerende vrouw, ook als dat betekent dat hij ziek kan worden en daarna in quarantaine moet blijven. Dit soort overwegingen vallen weg als een corona-app van de overheid dat namens jou gaat meebepalen. Het is geen kwestie van privacy-vriendelijke app of niet, het is een kwestie van gewogen beslissingen en gewogen contactonderzoek onderdrukken met een rigide systeem. Het debat beperkt zich tot “mijn corona-app is nog privacy vriendelijker dan de jouwe.” De vraag die we moeten stellen is: in hoeverre is het zinvol en wenselijk om ons sociale verkeer in tijden van corona te onderwerpen aan rigide wiskundige modellen en wat zijn de maatschappelijke gevolgen daarvan? Zie ook mijn commentaar in Trouw op de corona-app.

AI is een krachtig wapen, maar niet tegen corona

Vandaag een ingekorte versie van mijn longread over AI als wapen tegen corona op Brainwash. AI is een krachtig wapen, maar niet tegen corona. Het is vooral een wapen waarmee we een ongemakkelijke les proberen af te wenden. Want terwijl we op het virus schieten met onze apps en hightech tools, hoeven we onszelf en onze collectieve systemen niet kritisch te bevragen. Stevenen we af op een technologische quick-fix die een duurzamere aanpak in de weg staat? “De crisis van het coronavirus draagt het DNA van onze moderne levensstijl: consumering, globalisering, mediatisering, individualisering, technocratisering. Is het virus onze vijand, of is het onze levensstijl die het ontwierp, de angst die het onderhoudt of de controle waar we naar hunkeren?” aldus psychiater en filosoof Damiaan Denys.

Veiligheid uit de glazen bol

Ons peer-reviewed artikel over predictive policing is gepubliceerd in Tijdschrift voor Veiligheid. De verwachtingen van big data, criminaliteit voorspellende algoritmen en AI zijn hoog gespannen. Maar hoe wenselijk zijn deze toepassingen? De inzet van datagedreven technologieën heeft niet geleid tot een daling in criminaliteit. Naast teleurstellende resultaten, zijn er onwenselijke neveneffecten. In deze publicatie bestuderen Remco Spithoven (Lector Maatschappelijke Veiligheid, Hogeschool Saxion) en ik hoe dat komt. We analyseren problemen met structurele fouten in brondata, non-transparante en invalide algoritmen, correlatie en causaliteit problematiek, amorele besluitvorming en ethische en rechtsstatelijke bezwaren. We pleiten voor weloverwogen toepassingen van big data en roepen op om menselijke veiligheidsprofessionals op waarde te schatten. Een afgewogen inzet van big data kan ondersteunen in hun complexe taakstelling, maar veiligheid blijft mensenwerk.

Revolution of trust

“Ons vertrouwen brokkelt af en de low trust society lijkt een realiteit. Steeds meer informatie wordt in twijfel getrokken, wetenschap wordt afgedaan als mening en de tijd waarin Mad Men een overtuigende campagne kon bedenken is voorbij. Een witte doktersjas en muur vol diploma’s? De patiënt heeft al een analyse voordat er een woord is gesproken. Iemand écht voor je winnen is moeilijker dan ooit.” Op het ABN AMRO Revolution of Trust congres ging ik in gesprek over authenticiteit. Op marketingafdelingen en in boardrooms wordt hier volop over nagedacht maar invulling geven aan het begrip is lastig. Mensen worden steeds meer omringd door data-schandalen, digitale personages, chatbots en algoritmische systemen. Wat doet dit met ons gevoel van vertrouwen en onze beleving van authenticiteit?

BNR Nieuwsradio De Werkprofessor

In de BNR podcast De Werkprofessor sprak ik met Wendy van Ierschot en ondernemer Sebastiaan van der Lans over de manier waarop we technologie soms overschatten. Algoritmen zijn geen duizend-dingen-doekjes voor maatschappelijke problemen. Welke aspecten van werk willen we wel en niet kwantificeren? Gaan recruitment algoritmen diversiteit op de werkvloer stimuleren? En hoe zit het met algoritmische transparantie en het energieverbruik van deze systemen?

Overblown AI claims #1

AI can spot cancer more accurately than doctors. Are you familiar with this headline? We ought to believe that AI systems outperform humans in almost everything. AI systems outperform humans because we often oversimplify the tasks and jobs that humans do. If we reduce everything to a matter of data processing, then it is easy to claim that AI systems are better at it. However, the skills of doctors and nurses are more complex than processing data:

“The narrative of AI and health is one-dimensional and reduces the complexities of medical diagnosis to a few numbers. Doing so fails to account for the parts of health care work that are less easy to quantify.”

“Google’s algorithm only produces binary outcomes: yes, it’s cancer, or no, it’s not. There needs to be space for a third option that represents the gray area of diagnosis and prolongs debate rather than closing it off.”

Overblown AI claims #2

“AI helps helps companies to recruit talented staff”, “AI can read your emotions”. Be aware of false and overblown claims:

“There are no peer-reviewed studies proving that analyzing facial expressions can help pick the best workers. The hype around emotion recognition (a $25 billion market by 2023) has created a backlash from tech-ethicists who fear that the technology could raise the same kinds of discrimination problems as predictive sentencing or housing algorithms.”

“Companies can make outrageous and false claims, because the buyer is not that well educated. Commercialization is hurting people potentially, because it’s making claims that are determining people’s access to resources.”

Synthetische vriendschap

In het Groninger Forum sprak ik namens SETUP over AI en ‘synthetische vriendschap’. Wat zijn de motieven van de industrie achter pratende barbies, digitale assistenten en chatbots die zo empathisch mogelijk moeten overkomen? En wat brengt een vriendschap zonder tegenspraak ons? Wat ik mee naar huis neem is dat veel mensen in de Westerse wereld niet blij worden van de vermenselijking van robots en dat we de verschillen tussen mensen en robots moeten omarmen en benutten.

Surveillance XL

Sta je toevallig met je gezicht op de foto van een concert, evenement, bedrijfsuitje of sportwedstrijd? Dan zit jouw gezicht waarschijnlijk in de megadatabase van Clearview AI. In het programma Nieuwsweekend op NPO Radio 1 sprak ik over de verstrekkende gevolgen van de nieuwe gezichtsherkenningsapp waarmee 600 Amerikaanse overheidsdiensten in 3 miljard gezichten graven. Clearview heeft tevens de ambitie om de app uit te brengen in de vorm van een Augmented Reality bril voor particulier gebruik. Zie je iemand op straat? Maak een foto en alle online informatie over de persoon in kwestie wordt direct zichtbaar.


BNR Nieuwsradio De eeuw van mijn dochters

In het BNR programma De Eeuw van mijn Dochters sprak ik namens SETUP over een breder begrip van privacy. Presentator Art Rooijakkers vraagt zich af: hebben mijn dochters straks nog geheimen? We krijgen vaak te horen dat digitale systemen en algoritmen ons beter kennen dan wij onszelf kennen. Dat nuanceer ik graag. Het grootste gevaar van big data niet is dat bedrijven en overheden ons te goed kennen, maar juist dat ze ons niet kennen en ondertussen claimen ons wel te kennen op basis van onze data. We zijn geen optelsom van onze data. We zijn meer dan onze digitale voetsporen. En we zijn zeker meer dan de simplistische categorieën waar algoritmen ons in hebben geplaatst op basis van groepen mensen die dezelfde dingen aanklikken.

Graag meer AI realisme in 2020

Hopelijk gaan we in 2020 met meer realiteitszin naar AI kijken. Bijvoorbeeld zoals Alfred Kleinknecht (TU Delft) naar de toekomst van werk kijkt:
(1) AI zou een productiviteitsrevolutie ontketenen. Volgens een veelbesproken studie van Frey en Osborne zit 47% van alle werknemers in de VS in de ‘gevarenzone’. Zulke verhalen staan in schril contrast met de statistieken.
(2) We denken dat techniek zich ­lineair ontwikkelt. Dat beeld klopt niet. We hebben te maken met de wet van de afnemende meeropbrengsten: veel technologische producten zijn aan het einde van hun cyclus. Van de eerste naar de tweede iPhone was een verbetering. Nu voegt de nieuwste smartphone weinig toe.
(3) Het is altijd de vraag of nieuwe vindingen kunnen concurreren met bestaande systemen. Vaak zie je dat automatiseringssystemen technisch functioneren, maar commercieel nog niet uit kunnen. Een systeem waarbinnen zelfrijdende auto’s veilig mensen vervoeren is kostbaar. Denk aan alle soft- en hardware, dataverwerking, het energieverbruik. Bij miljoenen zelfrijdende voertuigen wordt dat problematisch. Helemaal als je CO2-belasting meetelt. De kans is groot dat een taxi met chauffeur goedkoper blijft.

The Age of Surveillance Capitalism

My book-review of ‘The Age of Surveillance Capitalism’ is published in Delphi. Zuboff makes clear how we fail to understand the exploitative business model that underpins our digital world and the immense techno-social challenges we are facing today. She makes a convincing case as not the technologies themselves, but the business model, behaviorist worldview and ideological principles that underlie our data-driven technologies are her central objects of analysis.
(1)
Big Tech aims to create a computer mediated hive where our mutual visibility becomes the habitat in which we attune to one another, producing social patterns based on imitation that can easily be manipulated for guaranteed outcomes. Think for example of social media.
(2)
The surest way to predict behavior is to intervene at its source and shape it. In modifying our behavior for profit without our awareness, surveillance capitalism shifts the locus of control over the future tense from ‘I will’ to ‘You will’, supplanting autonomous with heteronomous action, resulting in more automated behavior.
(3)
Giving users ownership of their data will not give them power over the predictions derived from it. There is no point in owning data that should not exist in the first place.

Voor altijd verder leven in de cloud

In samenwerking met SETUP deed ik onderzoek naar de digitale onsterfelijkheid industrie. In een enthousiaste zoektocht naar het eeuwige leven, maken techbedrijven, futurologen en wetenschappers zich schuldig aan een grove versimpeling van de werkelijkheid. In Vrij Nederland schrijf ik over de valse beloften van brain uploading en de realiteit van chatbots en avatars waarin mensen zichzelf proberen te vereeuwigen. Wat moeten we ons voorstellen bij een digitaal bestaan zonder einde? Wát leeft er precies voort en is het eeuwige leven in de cloud ook een beetje leuk en ecologisch verantwoord? Ook te beluisteren als podcast.

AI demystification Top 3

(1) David Watson on our tendency to anthropomorphize AI: “Deep neural networks deviate from human modes of learning in several fundamental and alarming ways.” “Compared to human brains, deep neural networks are brittle, inefficient, and myopic.”
(2)
Luciano Floridi on what I call ‘artificial unintelligence’: “Many people think that AI is about coupling artificial agency and intelligent behaviour into new artefacts. The opposite is true: AI decouples successful problem solving from intelligent behaviour. It is thanks to this decoupling that it can colonise the boundless space of tasks, whenever these can be successfully performed without any understanding, awareness, sensitivity, concerns, hunches, insights, meaning, experience, wisdom—and all those other ingredients that contribute to qualifying human intelligence.”
(3) Jonathan Zittrain
on knowledge without understanding: “Most machine-learning systems are statistical-correlation engines. They can’t explain why they think some patients are more likely to die, because they don’t ’think’ in any colloquial sense of the word—they only answer. As we begin to integrate their insights into our lives, we will, collectively, begin to rack up more and more intellectual debt.”

‘Redeneren’ als een computer

Op het jaarcongres Vereniging voor Filosofie en Geneeskunde gaf ik een interactieve sessie over AI en algoritmen in de zorg. Samen met zorgprofessionals en data-experts bespraken we neurale netwerken die huidkanker herkennen, algoritmen die depressie beloven te detecteren op basis van gezicht- en stem analyse, en textmining algoritmen die kindermishandeling beloven te voorspellen. Wat ik mee naar huis neem:
(1) de manier waarop zorgbeslissers naar de ethische implicaties van deze systemen kijken hangt niet alleen af van hun begrip van AI beslisprocessen, maar ook van hun begrip van menselijke beslisprocessen en de aard van AI.
(2) zorgbeslissers moeten op dezelfde rationele manier gaan redeneren als computers wanneer ze een beroep doen op AI, terwijl dat niet altijd wenselijk is (denk aan vrijwillig levenseinde).
(3) momenteel wordt meer geld geïnvesteerd in AI oplossingen dan in zorgprofessional oplossingen (zoals meer tijd per consult) terwijl beiden nodig zijn.
.

David Graeber over de averechtse effecten van digitalisering in de zorg in VPRO Tegenlicht.

Queen B and her swarm of robotic humans

Vorige week maakte het publiek kennis met Queen B: een AI-systeem dat persoonlijke data verzamelt en werknemers stuurt met stemberichten: “You look a bit tired, I suggest you grab a coffee”, “I would not formulate that sentence that way”. Queen B maakt deel uit van de speculatieve werkplek die Studio LONK ontwierp om ons te laten nadenken over de wenselijkheid van een datagedreven werkplek. LONK vroeg mij het aansluitende debat een duwtje te geven. Gaat Queen B ons effectiever maken op de werkvloer? Bekijk de video en lees hier de column:

Synthetic realities

Voor de 25e keer organiseerde Sogeti het VINT symposium. Dit jaar over de synthetische generatie die opgroeit zonder onderscheid te maken tussen on- en offline. Ik gaf een keynote over authenticiteit en de manier waarop surveillance kapitalisme en digitale technologieën onze opvattingen over echt en nep beïnvloeden. Boodschap: techbedrijven sturen ons gedrag zodat ze het kunnen blijven voorspellen. We drijven te ver af van de werkelijkheid omdat met de opkomst van AI een verdienmodel is ontstaan waarbij ons gedrag en onze blik op de werkelijkheid op oneerlijke wijze worden gestuurd. Bekijk hier de presentatie en het bijbehorende interview.

Hoe intelligent is onze samenwerking met AI?

In hoeverre zijn onze machines intelligent? Het is een relevante vraag, maar urgenter is de vraag in hoeverre en op welke manier onze samenwerkingen met AI intelligent zijn. Mijn artikel in Delphi – Interdisciplinary Review of Emerging Technologies gaat over intelligente en domme samenwerkingen met AI.