BNR slimme koppen
In Slimme koppen vertel ik met een korte pitch aan WeTransfer mede-oprichter Damian Bradfield waarom SETUP het internet een .sorry topleveldomein wil geven en hoe we daarmee het internet kunnen verbeteren.
In Slimme koppen vertel ik met een korte pitch aan WeTransfer mede-oprichter Damian Bradfield waarom SETUP het internet een .sorry topleveldomein wil geven en hoe we daarmee het internet kunnen verbeteren.
Voor de NRC-podcast Future Affairs ging ik met tech-journalist Wouter van Noort en filosoof Jessica van der Schalk in gesprek over het gevaar van een mogelijke “infocalypse”. Met deepfake-technologie, online filters, hyper personalized micro-targeting en bewerkingsapps kunnen we de werkelijkheid naar hartenlust manipuleren. Het is steeds moeilijker om informatie op waarde te schatten en in een gezamenlijke realiteit te leven. Maar geven we Big Tech en algoritmes niet te makkelijk de schuld? In selfie-walhalla Youseum gingen we op zoek naar een antwoord op de vraag: hoe komen we tot een gedeelde realiteit? En wat is een gedeelde realiteit?
Gisteren gaf ik op uitnodiging van Dr. Marlies van Eck een online gastcollege over de sociale implicaties van toegepaste AI voor de PAO leergang kunstmatige intelligentie voor juristen aan de Universiteit Leiden. Ik besteedde aandacht aan de niet-meetbare aspecten van mens en samenleving. Wat gebeurt er als we onze sociale werkelijkheid dataficeren? Op welke manier kunnen rigide wiskundige modellen en mensenlogica in de praktijk met elkaar botsen? Is alles wat volgens privacywetgeving is toegestaan ook maatschappelijk gewenst? Waardevol om op deze manier het cursusprogramma aan te kunnen vullen!
At Brave New World 2020 I talked on behalf of SETUP about the hidden human labour in AI-systems. Our first-world preoccupation with Artificial General Intelligence, Singularity theory and hypothetical robot rights is too far removed from concrete events on the ground. Instead of so-called hyper-intelligent robots, we should talk about the robots that are already among us and the enormous amount of human work lurking in seemingly automated AI-systems.
Het narratief van The Social Dilemma houdt ons in een gevaarlijke wurggreep: pas als technologie ontwikkelaars hun ontwerp aanpassen, kunnen wij verlost worden van hun zonden. In dit eenzijdige Black Mirror sprookje wordt ons voorgehouden dat de industrie een probleem heeft gecreëerd wat alleen de industrie voor ons kan oplossen. Om het probleem bij de wortel aan te pakken moeten we loskomen van de AI-ideologie die in The Social Dilemma wordt gepromoot: 1) Wij zijn ons brein; 2) Ons brein is een computer; 3) Silicon Valley maakt betere computers; 4) De spijt hebbende tech-industrie maakt betere computers.
Om deze cirkelredenering te doorbreken schreef ik voor SETUP een uitgebreid artikel over The Social Dilemma en ging ik daarover in gesprek met David van Overbeek in het programma De Nieuwe Wereld.
Definities en menselijke taken uithollen zodat we makkelijker kunnen stellen dat digitale technologie het kan vervangen: ik zie het steeds vaker.
Emoties herkennen? Een kwestie van gezichtsuitdrukkingen categoriseren. Empathie? Een kwestie van gesprekken aanpassen aan iemands emotie. Onderwijs? Een kwestie van informatie overdracht.
Voila, we kunnen sociale intelligentie, empathie en onderwijs digitaliseren. En nou niet zeggen van niet want dan verpest je het automatiseringsfeestje van de tech-industrie en de mensen die technologische vooruitgang gelijkstellen aan sociaal-maatschappelijke vooruitgang. Ankana Spekkink verwoord het treffend: “Online onderwijs lijkt prima ingezet te kunnen worden op de momenten dat onderwijs wordt opgevat als het overdragen van feitelijke kennis en het toewerken naar een doel met een meetbare uitkomst. Maar online onderwijs wordt problematisch als het gaat over de bevordering van nieuwsgierigheid, creativiteit, reflectief vermogen en morele ontwikkeling.”
Uiteindelijk kunnen we ”alles” digitaliseren, maar we moeten ons afvragen wie daar precies allemaal beter van worden en hoe digitalisering onze definitie van beter beïnvloed.
Vandaag -nota bene de dag waarop Big Tech voor het Amerikaanse Congres moet verschijnen- mijn artikel in Vrij Nederland over waarom SETUP het internet een .sorry domein wil geven.
De verkoop van software voor het monitoren van werknemers op afstand is in Nederland verdrievoudigd. Denk aan programma’s die bijhouden wat jij op je op je laptop doet en algoritmen die werknemersloyaliteit beloven te meten. Ik sprak erover op NPO Radio 1 in het programma Nieuwsweekend.
In de podcast Listening to the future werd ik door Jarno Duursma geinterviewd over de ethische en praktische grenzen van AI. Zijn kunstmatig intelligente systemen slim of dom? Kunnen we vriendschap sluiten met kunstmatig intelligente software? Kan dit soort software onze emoties detecteren? Is de corona-app een goed idee? Waarom laten we algoritmes steeds meer beslissingen voor ons maken? Het gesprek is hier terug te luisteren.
Marli Huijer in de Volkskrant: “In de afweging tussen eenzaamheid en het risico op de dood, zou het kunnen dat niet iedereen voor een quarantaine kiest.” Een man die precies zo’n andere afweging maakt is Ko. Hij wil afscheid nemen van zijn dementerende vrouw, ook als dat betekent dat hij ziek kan worden en daarna in quarantaine moet blijven. Dit soort overwegingen vallen weg als een corona-app van de overheid dat namens jou gaat meebepalen. Het is geen kwestie van privacy-vriendelijke app of niet, het is een kwestie van gewogen beslissingen en gewogen contactonderzoek onderdrukken met een rigide systeem. Het debat beperkt zich tot “mijn corona-app is nog privacy vriendelijker dan de jouwe.” De vraag die we moeten stellen is: in hoeverre is het zinvol en wenselijk om ons sociale verkeer in tijden van corona te onderwerpen aan rigide wiskundige modellen en wat zijn de maatschappelijke gevolgen daarvan? Zie ook mijn commentaar in Trouw op de corona-app.
Vandaag een ingekorte versie van mijn longread over AI als wapen tegen corona op Brainwash. AI is een krachtig wapen, maar niet tegen corona. Het is vooral een wapen waarmee we een ongemakkelijke les proberen af te wenden. Want terwijl we op het virus schieten met onze apps en hightech tools, hoeven we onszelf en onze collectieve systemen niet kritisch te bevragen. Stevenen we af op een technologische quick-fix die een duurzamere aanpak in de weg staat? “De crisis van het coronavirus draagt het DNA van onze moderne levensstijl: consumering, globalisering, mediatisering, individualisering, technocratisering. Is het virus onze vijand, of is het onze levensstijl die het ontwierp, de angst die het onderhoudt of de controle waar we naar hunkeren?” aldus psychiater en filosoof Damiaan Denys.
De dag waarop het ministerie van VWS hun corona-app plannen bekend maakte vroeg Met het oog op morgen mij of dat een goed idee is. Het fragment is hier terug te luisteren.
Vandaag mijn commentaar namens SETUP in De Telegraaf op de ongekende massasurveillance in China. Gezondheid als paard van Troje om een totalitaire technologische controlestaat verder uit te rollen: hoe ligt dat in Nederland?
Ons peer-reviewed artikel over predictive policing is gepubliceerd in Tijdschrift voor Veiligheid. De verwachtingen van big data, criminaliteit voorspellende algoritmen en AI zijn hoog gespannen. Maar hoe wenselijk zijn deze toepassingen? De inzet van datagedreven technologieën heeft niet geleid tot een daling in criminaliteit. Naast teleurstellende resultaten, zijn er onwenselijke neveneffecten. In deze publicatie bestuderen Remco Spithoven (Lector Maatschappelijke Veiligheid, Hogeschool Saxion) en ik hoe dat komt. We analyseren problemen met structurele fouten in brondata, non-transparante en invalide algoritmen, correlatie en causaliteit problematiek, amorele besluitvorming en ethische en rechtsstatelijke bezwaren. We pleiten voor weloverwogen toepassingen van big data en roepen op om menselijke veiligheidsprofessionals op waarde te schatten. Een afgewogen inzet van big data kan ondersteunen in hun complexe taakstelling, maar veiligheid blijft mensenwerk.
“Ons vertrouwen brokkelt af en de low trust society lijkt een realiteit. Steeds meer informatie wordt in twijfel getrokken, wetenschap wordt afgedaan als mening en de tijd waarin Mad Men een overtuigende campagne kon bedenken is voorbij. Een witte doktersjas en muur vol diploma’s? De patiënt heeft al een analyse voordat er een woord is gesproken. Iemand écht voor je winnen is moeilijker dan ooit.” Op het ABN AMRO Revolution of Trust congres ging ik in gesprek over authenticiteit. Op marketingafdelingen en in boardrooms wordt hier volop over nagedacht maar invulling geven aan het begrip is lastig. Mensen worden steeds meer omringd door data-schandalen, digitale personages, chatbots en algoritmische systemen. Wat doet dit met ons gevoel van vertrouwen en onze beleving van authenticiteit?
In de BNR podcast De Werkprofessor sprak ik met Wendy van Ierschot en ondernemer Sebastiaan van der Lans over de manier waarop we technologie soms overschatten. Algoritmen zijn geen duizend-dingen-doekjes voor maatschappelijke problemen. Welke aspecten van werk willen we wel en niet kwantificeren? Gaan recruitment algoritmen diversiteit op de werkvloer stimuleren? En hoe zit het met algoritmische transparantie en het energieverbruik van deze systemen?
AI can spot cancer more accurately than doctors. Are you familiar with this headline? We ought to believe that AI systems outperform humans in almost everything. AI systems outperform humans because we often oversimplify the tasks and jobs that humans do. If we reduce everything to a matter of data processing, then it is easy to claim that AI systems are better at it. However, the skills of doctors and nurses are more complex than processing data:
• “The narrative of AI and health is one-dimensional and reduces the complexities of medical diagnosis to a few numbers. Doing so fails to account for the parts of health care work that are less easy to quantify.”
• “Google’s algorithm only produces binary outcomes: yes, it’s cancer, or no, it’s not. There needs to be space for a third option that represents the gray area of diagnosis and prolongs debate rather than closing it off.”
“AI helps helps companies to recruit talented staff”, “AI can read your emotions”. Be aware of false and overblown claims:
• “There are no peer-reviewed studies proving that analyzing facial expressions can help pick the best workers. The hype around emotion recognition (a $25 billion market by 2023) has created a backlash from tech-ethicists who fear that the technology could raise the same kinds of discrimination problems as predictive sentencing or housing algorithms.”
• “Companies can make outrageous and false claims, because the buyer is not that well educated. Commercialization is hurting people potentially, because it’s making claims that are determining people’s access to resources.”
In het Groninger Forum sprak ik namens SETUP over AI en ‘synthetische vriendschap’. Wat zijn de motieven van de industrie achter pratende barbies, digitale assistenten en chatbots die zo empathisch mogelijk moeten overkomen? En wat brengt een vriendschap zonder tegenspraak ons? Wat ik mee naar huis neem is dat veel mensen in de Westerse wereld niet blij worden van de vermenselijking van robots en dat we de verschillen tussen mensen en robots moeten omarmen en benutten.
Sta je toevallig met je gezicht op de foto van een concert, evenement, bedrijfsuitje of sportwedstrijd? Dan zit jouw gezicht waarschijnlijk in de megadatabase van Clearview AI. In het programma Nieuwsweekend op NPO Radio 1 sprak ik over de verstrekkende gevolgen van de nieuwe gezichtsherkenningsapp waarmee 600 Amerikaanse overheidsdiensten in 3 miljard gezichten graven. Clearview heeft tevens de ambitie om de app uit te brengen in de vorm van een Augmented Reality bril voor particulier gebruik. Zie je iemand op straat? Maak een foto en alle online informatie over de persoon in kwestie wordt direct zichtbaar.
In het BNR programma De Eeuw van mijn Dochters sprak ik namens SETUP over een breder begrip van privacy. Presentator Art Rooijakkers vraagt zich af: hebben mijn dochters straks nog geheimen? We krijgen vaak te horen dat digitale systemen en algoritmen ons beter kennen dan wij onszelf kennen. Dat nuanceer ik graag. Het grootste gevaar van big data niet is dat bedrijven en overheden ons te goed kennen, maar juist dat ze ons niet kennen en ondertussen claimen ons wel te kennen op basis van onze data. We zijn geen optelsom van onze data. We zijn meer dan onze digitale voetsporen. En we zijn zeker meer dan de simplistische categorieën waar algoritmen ons in hebben geplaatst op basis van groepen mensen die dezelfde dingen aanklikken.
My book-review of ‘The Age of Surveillance Capitalism’ is published in Delphi. Zuboff makes clear how we fail to understand the exploitative business model that underpins our digital world and the immense techno-social challenges we are facing today. She makes a convincing case as not the technologies themselves, but the business model, behaviorist worldview and ideological principles that underlie our data-driven technologies are her central objects of analysis.
(1) Big Tech aims to create a computer mediated hive where our mutual visibility becomes the habitat in which we attune to one another, producing social patterns based on imitation that can easily be manipulated for guaranteed outcomes. Think for example of social media.
(2) The surest way to predict behavior is to intervene at its source and shape it. In modifying our behavior for profit without our awareness, surveillance capitalism shifts the locus of control over the future tense from ‘I will’ to ‘You will’, supplanting autonomous with heteronomous action, resulting in more automated behavior.
(3) Giving users ownership of their data will not give them power over the predictions derived from it. There is no point in owning data that should not exist in the first place.
In samenwerking met SETUP deed ik onderzoek naar de digitale onsterfelijkheid industrie. In een enthousiaste zoektocht naar het eeuwige leven, maken techbedrijven, futurologen en wetenschappers zich schuldig aan een grove versimpeling van de werkelijkheid. In Vrij Nederland schrijf ik over de valse beloften van brain uploading en de realiteit van chatbots en avatars waarin mensen zichzelf proberen te vereeuwigen. Wat moeten we ons voorstellen bij een digitaal bestaan zonder einde? Wát leeft er precies voort en is het eeuwige leven in de cloud ook een beetje leuk en ecologisch verantwoord? Ook te beluisteren als podcast.
(1) David Watson on our tendency to anthropomorphize AI: “Deep neural networks deviate from human modes of learning in several fundamental and alarming ways.” “Compared to human brains, deep neural networks are brittle, inefficient, and myopic.”
(2) Luciano Floridi on what I call ‘artificial unintelligence’: “Many people think that AI is about coupling artificial agency and intelligent behaviour into new artefacts. The opposite is true: AI decouples successful problem solving from intelligent behaviour. It is thanks to this decoupling that it can colonise the boundless space of tasks, whenever these can be successfully performed without any understanding, awareness, sensitivity, concerns, hunches, insights, meaning, experience, wisdom—and all those other ingredients that contribute to qualifying human intelligence.”
(3) Jonathan Zittrain on knowledge without understanding: “Most machine-learning systems are statistical-correlation engines. They can’t explain why they think some patients are more likely to die, because they don’t ‘think’ in any colloquial sense of the word—they only answer. As we begin to integrate their insights into our lives, we will, collectively, begin to rack up more and more intellectual debt.”
Bij Voor de Ommekeer sprak ik met filosoof David van Overbeek over de invloed van big data, algoritmen en kunstmatige intelligentie op ons gedrag en zelfbeeld. Kloppen de theorieën achter de algoritmische modellen eigenlijk wel? Gaan wij ons meer gedragen als robots zodat we beter in de modellen passen? Wat is de rol van Silicon Valley hierin?
Vorige week maakte het publiek kennis met Queen B: een AI-systeem dat persoonlijke data verzamelt en werknemers stuurt met stemberichten: “You look a bit tired, I suggest you grab a coffee”, “I would not formulate that sentence that way”. Queen B maakt deel uit van de speculatieve werkplek die Studio LONK ontwierp om ons te laten nadenken over de wenselijkheid van een datagedreven werkplek. LONK vroeg mij het aansluitende debat een duwtje te geven. Gaat Queen B ons effectiever maken op de werkvloer? Bekijk de video en lees hier de column:
Voor de 25e keer organiseerde Sogeti het VINT symposium. Dit jaar over de synthetische generatie die opgroeit zonder onderscheid te maken tussen on- en offline. Ik gaf een keynote over authenticiteit en de manier waarop surveillance kapitalisme en digitale technologieën onze opvattingen over echt en nep beïnvloeden. Boodschap: techbedrijven sturen ons gedrag zodat ze het kunnen blijven voorspellen. We drijven te ver af van de werkelijkheid omdat met de opkomst van AI een verdienmodel is ontstaan waarbij ons gedrag en onze blik op de werkelijkheid op oneerlijke wijze worden gestuurd. Bekijk hier de presentatie en het bijbehorende interview.
In hoeverre zijn onze machines intelligent? Het is een relevante vraag, maar urgenter is de vraag in hoeverre en op welke manier onze samenwerkingen met AI intelligent zijn. Mijn artikel in Delphi – Interdisciplinary Review of Emerging Technologies gaat over intelligente en domme samenwerkingen met AI.
Lelystad is een pretentieloze polderstad waar de publieke ruimte nog niet is volgeplempt met pop-up stores, pratend straatmeubilair, groetzones en andere ditjes en datjes die ons moeten afleiden van het gat in de zin van ons bestaan. Want als de mens iets niet kan, dan is wel de zinloosheid van zijn bestaan omarmen. Daarom vlucht hij in ambachtelijk bier, yoga, ingewikkelde koffies en andere hipster-religies waar Lelystad nog niet mee besmet is.
Deze week verscheen mijn ode aan Lelystad op Hard//hoofd.
Hebben journalisten straks nog een baan? Wrong question. Heerlijk als robots het monomane schrijfwerk van feiten-opsommende artikelen kunnen vervangen. Zo krijgen journalisten meer tijd om met intelligentie, bewustzijn, creativiteit, gevoel voor context en morele duiding diepgaande artikelen te schrijven. De vraag is niet of robotjournalisten menselijke journalisten vervangen, de vraag is hoe beiden complementair zijn aan elkaar.
Bij Spraakmakers sprak ik over mensen en machines: op welke manieren zijn we complementair aan elkaar en hoe gaat SETUP dat onderzoeken? In plaats van ons druk te maken over machines die op mensen lijken, zouden we ons ook zorgen kunnen maken over mensen die meer op machines gaan lijken:
Voorspellende algoritmen werken als een self-fulfilling prophecy en zorgen ervoor dat we onze identiteit moeilijker kunnen herdefiniëren. In aanloop naar de Privacyrede 2019 stel ik deze en andere onderbelichte problemen op Sociale Vraagstukken aan de kaak.
Met onze hedendaagse technologieën programmeren we in een handomdraai een nieuwe werkelijkheid in zowel 2- als 3D. In een wereld waar echt en nep steeds vloeiender in elkaar overlopen, zijn we naarstig opzoek naar echtheid. Maar of we die ooit vinden? Lees het in het artikel dat ik schreef voor de Hard//hoofd fakeweek.
Naar aanleiding van het SETUP jaarprogramma Civil Weapons of Math Retaliation leg ik in Het Financieele Dagblad uit waarom het een slecht idee is om werknemers te selecteren met behulp van algoritmen.
In Kassa XL leg ik namens SETUP uit dat de privacyschendingen van Facebook over macht gaan. Macht over algoritmen die onze gedragingen, voorkeuren en verlangens op grote schaal sturen:
In aanloop naar de gemeenteraadsverkiezingen verscheen mijn artikel over smart cities, algoritmen en Civil Weapons of Math Retaliation op Sociale Vraagstukken.
Gisteren mocht ik op Radio 2 mijn zegje doen over de voorspelling van futuroloog Ian Pearson dat we in 2050 onsterfelijk zullen zijn. Sensatiejournalistiek dat kunnen ze wel bij De Telegraaf, maar krijgt Pearson ook gelijk? Beluister hier het fragment.
HARD//HOOFD ESSAYREEKS
Onder het credo ‘leven is leuker zonder sterven’ worden miljarden uitgegeven aan wetenschappelijke onderzoeken naar veroudering, genetische modificatie en virtuele onsterfelijkheid. Maar hoe leuk is een leven zonder einde? Onze sterfelijkheid is de grootste drijfveer achter alles wat we doen.
HARD//HOOFD ESSAYREEKS
Terwijl 2017 is bestempeld als het jaar van de artificiële intelligentie, beweren experts dat er helemaal geen sprake is van echte artificiële intelligentie. Nieuwsberichten over superintelligente machines die de boel volledig overnemen hebben meer met science fiction en sensatiejournalistiek te maken dan met machine learning.
Met mijn betoog “Meten ≠ weten” won ik een betoogwedstrijd over de macht van data in debatcentrum De Balie.
HARD//HOOFD ESSAYREEKS
Een extra zintuig erbij of een chip in je hersenen waarmee je jezelf aansluit op het internet; dat klinkt als science-fiction maar is het niet. De nieuwste technologische snufjes beperken zich allang niet meer tot losse apparaten die we in onze broekzakken steken.
HARD//HOOFD ESSAYREEKS
Onze huidige levens maken deel uit van de grootste commerciële ontginning in de geschiedenis. Nog nooit werden onze persoonlijke voorkeuren en verlangens op zo’n grote schaal gekwantificeerd en vermarkt als nu.
HARD//HOOFD ESSAYREEKS
De wetenschappelijke publicaties en sappige nieuwsberichten over CRISPR-Cas9, een moleculaire methode waarmee DNA steeds nauwkeuriger gemodificeerd kan worden, vliegen ons om de oren.
HARD//HOOFD ESSAYREEKS
Veestapels verbeteren, ziektes uitbannen, voedseltekorten inperken, uitstervende diersoorten redden: klonen biedt mogelijkheden maar het thema heeft een nare bijsmaak. In 1996 maakte schaap Dolly als ’s werelds eerste kloon een hoop discussie en morele verontwaardiging los.