Artificial Unintelligence

Het nieuwe absurd

Vandaag het werk van SETUP in NRC. We zijn opweg naar het nieuwe absurd. Met een wildgroei aan apps en gadgets die moeten waarborgen dat we corona-proof de hort op kunnen. Maar wat krijgen we daarvoor terug? “Het grootste risico voor de ontsporing van surveillancemaatregelen, is de ingebakken neiging tot meer, meer, meer – en het negeren van de meest simpele optie: ergens mee stoppen.” Aldus gedragsonderzoeker Leidy Klotz. “Om de implicaties van die controlesamenleving tastbaar te maken, nodigden Beerends en haar collega’s ontwerpers uit om concept-apps te maken voor de open-up-samenleving. De projecten van SETUP trekken de surveillance en beperkingen tot in het absurde door, maar het is de vraag hoe absurd dat werkelijk is.” Lees meer over onze provocatieve ontwerpen in het artikel van Wouter van Noort:

Fabeltjesfuik

In samenwerking met de ministeries EZK en LNV maakt de RijksAcademie voor Digitalisering en Informatisering Overheid (RADIO) een podcastserie over de ethische implicaties van algoritmes en digitalisering. In de eerste aflevering van de serie ‘Het digitale dilemma’ sprak programmamaker Robin Rotman met mij over de ‘fabeltjesfuik’, online profiling en de manier waarop SETUP deze thema’s tastbaar maakt. Wat is de fabeltjesbuik en wat moeten we ermee? Bestaan filterbubbels eigenlijk wel? En waarom moeten we de schuld niet afschuiven op het grote boze algoritme? Luister hier de podcast terug:

Corona als gamechanger?

Vaarwel strenge Lockdown, hallo nieuwe wereld? Vergeet het maar. In onze wanhopige poging om terug te gaan naar het oude normaal verkwanselen we het potentieel van de pandemie als gamechanger. Geen structurele verandering, maar wel een steeds verdergaande technologische controlesamenleving. Vorig jaar las ik The Technological System van Jacques Ellul. Zijn perspectief dreunt na in alles om ons heen. Pandemieën voorkomen is beter dan genezen. Maar niet in The Technological System. In The Technological System vinden we een groen corona-vinkje belangrijker dan een groene planeet. In The Technological System denken we onszelf en onze planeet uit de crisis te kunnen innoveren met slimme gadgets. Kunnen we nog ontsnappen aan het virus van korte termijn oplossingen? Vandaag -de dag waarop de terrassen open gaan en de avondklok eindigt- mijn artikel in Vrij Nederland:

 

Listening to the future Podcast

We staan te springen om ons groene vinkje bij de ingang te laten zien en weer te gaan feesten. Maar in welk soort samenleving gaan wij straks weer naar buiten? Met Jarno Duursma ging ik in gesprek over corona fieldlabs, massa-monitoring, crowdcontrol, big data surveillance, digitale coronapaspoorten en de dode mussen award van SETUP. Welk soort samenleving zijn wij aan het creëren? Wat voorheen ondenkbaar was, is nu geoorloofd. Wetswijzigingen worden doorgevoerd, studenten hangen hun kamers vol camera’s om tentamens te mogen maken, en de nationaal coördinator terrorismebestrijding houdt burgers nauwlettend in de gaten. Dat geeft een gevoel van controle. Maar controle is niet hetzelfde als een probleem bij de wortel aanpakken. Luister hier de podcast terug:

Pandemiepreventie

Even een jaar terugspoelen: weet je nog dat het Ministerie van VWS de corona traceer-app presenteerde als wondermiddel om uit de Lockdown te komen? Met het Oog op Morgen vroeg hoe ik tegen de toenmalige app-plannen aankeek. Wilfried de Jong zag niet aankomen dat ik een pleidooi zou gaan houden tegen het tech-solutionisme. Ook over kunstmatige intelligentie riep ik op om bescheiden te zijn over de rol van AI-toepassingen bij het temmen van het virus. Inmiddels zijn we ruim een jaar aan corona-bestrijding en (kunst)matige intelligentie verder. Nog steeds dringt niet goed door dat voorkomen beter is dan genezen. De korte termijn gedachte dat we met 700 miljoen euro en een systeem van fieldlabs, check-apps en digitale corona-paspoorten pandemieën kunnen beheersen is ronduit naïef. In plaats van een verstikkende controlesamenleving op te tuigen die zijn weerga niet kent, kunnen we er beter alles aan doen om pandemieën te voorkomen

Zien is geloven?

Samen met documentairemaker Shugen Tan, ‘Digital Human’ expert Mao Lin Liau en onderzoeker Jon Roozenbeek was ik te gast in de livestream van Pakhuis de Zwijger om te praten over de Tegenlicht aflevering “Zien is geloven”. Volgens Nina Schick (auteur Deepfakes and the Infocalypse) leven we in een infocalypse: we kunnen geen onderscheid meer maken tussen informatie en desinformatie en leven steeds meer in onze eigen echo kamers. Hierdoor wordt het steeds moeilijker om in een gedeelde realiteit te leven. Wat zijn de maatschappelijke gevolgen? Is het echt zo dramatisch als hier gesteld wordt? Wat is de waarde van purposeful fiction? Wat is (de rol van) een gemeenschappelijke waarheid? Kijk de livestream hier terug.

Digital humans: oude AI-wijn in nieuwe zakken

Hoe spectaculair een digitale avatar er ook uitziet, het is en blijft een lege huls. Een data-echo die niet al onze kenmerken kan uitdrukken. Omdat we menselijke eigenschappen op robots projecteren, vergeten we dat robots onze woorden en emoties niet begrijpen, maar slechts simuleren dat ze onze woorden en emoties begrijpen. Het idee dat je de mens kunt vangen in data is net zo wereldvreemd als het idee dat de mens een brein is dat je simpelweg kunt overzetten op een digitale drager. ”Next level AI” of niet: bewustzijn, persoonlijkheid en een betekenisvolle omgeving verhuizen niet automatisch mee. Vorig jaar dook ik voor SETUP en Vrij Nederland in de wereld van de digitale avatars waarin mensen zichzelf proberen te vereeuwigen. Nu MetaHuman creator viraal gaat en we het leven willen uitbesteden aan een digitale kopie, wordt duidelijk hoe we nog altijd zijn blijven hangen in een middeleeuws mind-body dualisme. Wederom actueel en ook te beluisteren als podcast.

“Fixing” AI bias

Do you want inclusive AI? Do you believe that fixing bias is the solution? Read this important paper by Abeba Birhane:

  • “AI has become the hammer every messy social challenge is bashed with. The intrinsically political tasks of categorizing and predicting things like ‘acceptable’ behavior, pass as apolitical technical sorting tasks. As a result, harmful outcomes are treated as side effects that can be treated with tech-solutions.”
  • “Underlying the idea of fixing bias is the assumption that there exists a single correct description of reality where a deviation from it results in bias. The ‘correct’ way often means the status quo.”
  • “When we see bias, we see problems that surfaced from a field that has inherited unjust, racist, and white supremacist histories. Problems that have roots in the mathematization of ambiguous issues, historical inequalities, and asymmetrical power hierarchies.”
  • “Even if one can suppose that bias in a dataset can be ‘fixed,’ what are we fixing? Is the supposedly ‘bias-free’ tool used to punish, surveil, and harm anyway?”
  • “This calls for interrogating contextual and historical structures that might give rise to such patterns, instead of using the findings as input toward building predictive systems and repeating existing inequalities and historical oppression.”

Toeslagaffaire 2.0

Terwijl het puinruimen van de Toeslagenaffaire nog moet beginnen, stemde de Tweede Kamer in met een datakoppelwet waarmee nóg ingrijpendere risico-indicatiesystemen worden opgetuigd. Voor SETUP en OneWorld dook ik in twee rapporten over algoritme-gebruik bij de overheid. Wat weten we over de gebruikte computermodellen? Waarom is het gevaarlijk om de schuld af te schuiven op “het grote boze algoritme”? En waarom is algoritmische transparantie niet zaligmakend? Lees hier mijn artikel over de Toeslagenaffaire, het vervolg op Systeem Risico Indicatie en de nieuwe datakoppelwet.

Dikke Data Show

Met bewerkings-apps en fotofilters lijkt het Westerse schoonheidsideaal (grote amandelvormige ogen, volle lippen, kleine neus, egale huid, strakke kaaklijn, witte tanden) voor steeds meer jongeren binnen handbereik. Sommigen gaan nog een stap verder en stappen naar de cosmetisch chirurg om op hun gefilterde selfies te lijken.
In VPRO’s Dikke Data Show (doelgroep 8 t/m 14 jaar) leg ik uit wat dit kan doen met je zelfbeeld. Wat is belangrijker: 10K likes van wildvreemden of waardering van mensen die je nauw aan het hart hebt liggen? Kijk hier de aflevering terug.

This is the world we built

In ons denken over de aanpak van klimaatopwarming, Big Tech en institutioneel racisme moeten we de wisselwerking tussen individueel en collectief ingrijpen beter leren begrijpen. We horen graag dat wij niet hoeven te veranderen. Dat we slachtoffers zijn van de structuren en systemen waarin we leven; dat politiek en bedrijfsleven verantwoordelijk zijn. Inderdaad, we zitten vast in destructieve systemen waar we niet om hebben gevraagd. Maar dat betekent niet dat we deze systemen niet kunnen veranderen en onze eigen keuzes geen invloed hebben. De metafoor van de druppel op de gloeiende plaat maakt ons passief. Het gaat niet alleen om het effect van die ene vegaburger of Facebook-boycot. Het gaat om de structuren die je daarmee in gang zet, en het effect op het grotere geheel. Individueel ingrijpen kan structureel ingrijpen afdwingen en vice versa. Individuen maken het collectief. This is the world -we- built. Congratulations, cheers all:

Infocalypse

Voor de NRC-podcast Future Affairs ging ik met tech-journalist Wouter van Noort en filosoof Jessica van der Schalk in gesprek over het gevaar van een mogelijke “infocalypse”. Met deepfake-technologie, online filters, hyper personalized micro-targeting en bewerkingsapps kunnen we de werkelijkheid naar hartenlust manipuleren. Het is steeds moeilijker om informatie op waarde te schatten en in een gezamenlijke realiteit te leven. Maar geven we Big Tech en algoritmes niet te makkelijk de schuld? In selfie-walhalla Youseum gingen we op zoek naar een antwoord op de vraag: hoe komen we tot een gedeelde realiteit? En wat is een gedeelde realiteit?

(kunst)matige intelligentie

Gisteren gaf ik op uitnodiging van Dr. Marlies van Eck een online gastcollege over de sociale implicaties van toegepaste AI voor de PAO leergang kunstmatige intelligentie voor juristen aan de Universiteit Leiden. Ik besteedde aandacht aan de niet-meetbare aspecten van mens en samenleving. Wat gebeurt er als we onze sociale werkelijkheid dataficeren? Op welke manier kunnen rigide wiskundige modellen en mensenlogica in de praktijk met elkaar botsen? Is alles wat volgens privacywetgeving is toegestaan ook maatschappelijk gewenst? Waardevol om op deze manier het cursusprogramma aan te kunnen vullen!

AI’s dirty secret

At Brave New World 2020 I talked on behalf of SETUP about the hidden human labour in AI-systems. Our first-world preoccupation with Artificial General Intelligence, Singularity theory and hypothetical robot rights is too far removed from concrete events on the ground. Instead of so-called hyper-intelligent robots, we should talk about the robots that are already among us and the enormous amount of human work lurking in seemingly automated AI-systems.

The Social Dilemma

Het narratief van The Social Dilemma houdt ons in een gevaarlijke wurggreep: pas als technologie ontwikkelaars hun ontwerp aanpassen, kunnen wij verlost worden van hun zonden. In dit eenzijdige Black Mirror sprookje wordt ons voorgehouden dat de industrie een probleem heeft gecreëerd wat alleen de industrie voor ons kan oplossen. Om het probleem bij de wortel aan te pakken moeten we loskomen van de AI-ideologie die in The Social Dilemma wordt gepromoot: 1) Wij zijn ons brein; 2) Ons brein is een computer; 3) Silicon Valley maakt betere computers; 4) De spijt hebbende tech-industrie maakt betere computers.
Om deze cirkelredenering te doorbreken schreef ik voor SETUP een uitgebreid artikel over The Social Dilemma en ging ik daarover in gesprek met David van Overbeek in het programma De Nieuwe Wereld.

Alles digitaliseren

Definities en menselijke taken uithollen zodat we makkelijker kunnen stellen dat digitale technologie het kan vervangen: ik zie het steeds vaker.
Emoties herkennen? Een kwestie van gezichtsuitdrukkingen categoriseren. Empathie? Een kwestie van gesprekken aanpassen aan iemands emotie. Onderwijs? Een kwestie van informatie overdracht.
Voila, we kunnen sociale intelligentie, empathie en onderwijs digitaliseren. En nou niet zeggen van niet want dan verpest je het automatiseringsfeestje van de tech-industrie en de mensen die technologische vooruitgang gelijkstellen aan sociaal-maatschappelijke vooruitgang. Ankana Spekkink verwoord het treffend: “Online onderwijs lijkt prima ingezet te kunnen worden op de momenten dat onderwijs wordt opgevat als het overdragen van feitelijke kennis en het toewerken naar een doel met een meetbare uitkomst. Maar online onderwijs wordt problematisch als het gaat over de bevordering van nieuwsgierigheid, creativiteit, reflectief vermogen en morele ontwikkeling.
Uiteindelijk kunnen we ”alles” digitaliseren, maar we moeten ons afvragen wie daar precies allemaal beter van worden en hoe digitalisering onze definitie van beter beïnvloed.

Listening to the future

In de podcast Listening to the future werd ik door Jarno Duursma geinterviewd over de ethische en praktische grenzen van AI. Zijn kunstmatig intelligente systemen slim of dom? Kunnen we vriendschap sluiten met kunstmatig intelligente software? Kan dit soort software onze emoties detecteren? Is de corona-app een goed idee? Waarom laten we algoritmes steeds meer beslissingen voor ons maken? Het gesprek is hier terug te luisteren.

Expertpanel appathon VWS

Het Ministerie van VWS nodigde mij uit om deel te nemen aan een van de expertpanels bij de corona-appathon. Ik was blij met de uitnodiging maar na een weekend kritische vragen stellen aan zeven app-ontwikkelaars blijf ik achter met een gevoel van waanzin. We investeren tijd, geld en energie in struisvogeloplossingen. Van begin af aan waarschuwden experts dat een corona tracing-app geen effectief middel is en een schijnveiligheid kan creëren. GGD’s zijn meer geholpen met simpele oplossingen op basis van bestaande middelen, dan met schijnoplossingen op basis van complexe technologieën. In plaats van een appathon met zeven apps die de KPMG securitycheck niet eens konden doorstaan, had ik liever een pandemiethon gezien waarin transitie-experts, scenario ontwerpers en mensen uit de praktijk maatregelen mogen presenteren die het probleem bij de wortel aanpakken. De grootschalige vernieling van ons ecosysteem is de voornaamste aandrijver van pandemieën. De economie opengooien met een corona tracing-app om zo snel mogelijk weer terug te gaan naar het oude model is een verspeelde kans. We hebben geen app nodig, maar een paradigma-shift:

App-solutionisme

Marli Huijer in de Volkskrant: “In de afweging tussen eenzaamheid en het risico op de dood, zou het kunnen dat niet iedereen voor een quarantaine kiest.Een man die precies zo’n andere afweging maakt is Ko. Hij wil afscheid nemen van zijn dementerende vrouw, ook als dat betekent dat hij ziek kan worden en daarna in quarantaine moet blijven. Dit soort overwegingen vallen weg als een corona-app van de overheid dat namens jou gaat meebepalen. Het is geen kwestie van privacy-vriendelijke app of niet, het is een kwestie van gewogen beslissingen en gewogen contactonderzoek onderdrukken met een rigide systeem. Het debat beperkt zich tot “mijn corona-app is nog privacy vriendelijker dan de jouwe.” De vraag die we moeten stellen is: in hoeverre is het zinvol en wenselijk om ons sociale verkeer in tijden van corona te onderwerpen aan rigide wiskundige modellen en wat zijn de maatschappelijke gevolgen daarvan? Zie ook mijn commentaar in Trouw op de corona-app.

AI is een krachtig wapen, maar niet tegen corona

Vandaag een ingekorte versie van mijn longread over AI als wapen tegen corona op Brainwash. AI is een krachtig wapen, maar niet tegen corona. Het is vooral een wapen waarmee we een ongemakkelijke les proberen af te wenden. Want terwijl we op het virus schieten met onze apps en hightech tools, hoeven we onszelf en onze collectieve systemen niet kritisch te bevragen. Stevenen we af op een technologische quick-fix die een duurzamere aanpak in de weg staat? “De crisis van het coronavirus draagt het DNA van onze moderne levensstijl: consumering, globalisering, mediatisering, individualisering, technocratisering. Is het virus onze vijand, of is het onze levensstijl die het ontwierp, de angst die het onderhoudt of de controle waar we naar hunkeren?” aldus psychiater en filosoof Damiaan Denys.

Veiligheid uit de glazen bol

Ons peer-reviewed artikel over predictive policing is gepubliceerd in Tijdschrift voor Veiligheid. De verwachtingen van big data, criminaliteit voorspellende algoritmen en AI zijn hoog gespannen. Maar hoe wenselijk zijn deze toepassingen? De inzet van datagedreven technologieën heeft niet geleid tot een daling in criminaliteit. Naast teleurstellende resultaten, zijn er onwenselijke neveneffecten. In deze publicatie bestuderen Remco Spithoven (Lector Maatschappelijke Veiligheid, Hogeschool Saxion) en ik hoe dat komt. We analyseren problemen met structurele fouten in brondata, non-transparante en invalide algoritmen, correlatie en causaliteit problematiek, amorele besluitvorming en ethische en rechtsstatelijke bezwaren. We pleiten voor weloverwogen toepassingen van big data en roepen op om menselijke veiligheidsprofessionals op waarde te schatten. Een afgewogen inzet van big data kan ondersteunen in hun complexe taakstelling, maar veiligheid blijft mensenwerk.

Revolution of trust

“Ons vertrouwen brokkelt af en de low trust society lijkt een realiteit. Steeds meer informatie wordt in twijfel getrokken, wetenschap wordt afgedaan als mening en de tijd waarin Mad Men een overtuigende campagne kon bedenken is voorbij. Een witte doktersjas en muur vol diploma’s? De patiënt heeft al een analyse voordat er een woord is gesproken. Iemand écht voor je winnen is moeilijker dan ooit.” Op het ABN AMRO Revolution of Trust congres ging ik in gesprek over authenticiteit. Op marketingafdelingen en in boardrooms wordt hier volop over nagedacht maar invulling geven aan het begrip is lastig. Mensen worden steeds meer omringd door data-schandalen, digitale personages, chatbots en algoritmische systemen. Wat doet dit met ons gevoel van vertrouwen en onze beleving van authenticiteit?

BNR Nieuwsradio De Werkprofessor

In de BNR podcast De Werkprofessor sprak ik met Wendy van Ierschot en ondernemer Sebastiaan van der Lans over de manier waarop we technologie soms overschatten. Algoritmen zijn geen duizend-dingen-doekjes voor maatschappelijke problemen. Welke aspecten van werk willen we wel en niet kwantificeren? Gaan recruitment algoritmen diversiteit op de werkvloer stimuleren? En hoe zit het met algoritmische transparantie en het energieverbruik van deze systemen?

Overblown AI claims #1

AI can spot cancer more accurately than doctors. Are you familiar with this headline? We ought to believe that AI systems outperform humans in almost everything. AI systems outperform humans because we often oversimplify the tasks and jobs that humans do. If we reduce everything to a matter of data processing, then it is easy to claim that AI systems are better at it. However, the skills of doctors and nurses are more complex than processing data:

“The narrative of AI and health is one-dimensional and reduces the complexities of medical diagnosis to a few numbers. Doing so fails to account for the parts of health care work that are less easy to quantify.”

“Google’s algorithm only produces binary outcomes: yes, it’s cancer, or no, it’s not. There needs to be space for a third option that represents the gray area of diagnosis and prolongs debate rather than closing it off.”

Overblown AI claims #2

“AI helps helps companies to recruit talented staff”, “AI can read your emotions”. Be aware of false and overblown claims:

“There are no peer-reviewed studies proving that analyzing facial expressions can help pick the best workers. The hype around emotion recognition (a $25 billion market by 2023) has created a backlash from tech-ethicists who fear that the technology could raise the same kinds of discrimination problems as predictive sentencing or housing algorithms.”

“Companies can make outrageous and false claims, because the buyer is not that well educated. Commercialization is hurting people potentially, because it’s making claims that are determining people’s access to resources.”

Synthetische vriendschap

In het Groninger Forum sprak ik namens SETUP over AI en ‘synthetische vriendschap’. Wat zijn de motieven van de industrie achter pratende barbies, digitale assistenten en chatbots die zo empathisch mogelijk moeten overkomen? En wat brengt een vriendschap zonder tegenspraak ons? Wat ik mee naar huis neem is dat veel mensen in de Westerse wereld niet blij worden van de vermenselijking van robots en dat we de verschillen tussen mensen en robots moeten omarmen en benutten.

Surveillance XL

Sta je toevallig met je gezicht op de foto van een concert, evenement, bedrijfsuitje of sportwedstrijd? Dan zit jouw gezicht waarschijnlijk in de megadatabase van Clearview AI. In het programma Nieuwsweekend op NPO Radio 1 sprak ik over de verstrekkende gevolgen van de nieuwe gezichtsherkenningsapp waarmee 600 Amerikaanse overheidsdiensten in 3 miljard gezichten graven. Clearview heeft tevens de ambitie om de app uit te brengen in de vorm van een Augmented Reality bril voor particulier gebruik. Zie je iemand op straat? Maak een foto en alle online informatie over de persoon in kwestie wordt direct zichtbaar.


BNR Nieuwsradio De eeuw van mijn dochters

In het BNR programma De Eeuw van mijn Dochters sprak ik namens SETUP over een breder begrip van privacy. Presentator Art Rooijakkers vraagt zich af: hebben mijn dochters straks nog geheimen? We krijgen vaak te horen dat digitale systemen en algoritmen ons beter kennen dan wij onszelf kennen. Dat nuanceer ik graag. Het grootste gevaar van big data niet is dat bedrijven en overheden ons te goed kennen, maar juist dat ze ons niet kennen en ondertussen claimen ons wel te kennen op basis van onze data. We zijn geen optelsom van onze data. We zijn meer dan onze digitale voetsporen. En we zijn zeker meer dan de simplistische categorieën waar algoritmen ons in hebben geplaatst op basis van groepen mensen die dezelfde dingen aanklikken.

Graag meer AI realisme in 2020

Hopelijk gaan we in 2020 met meer realiteitszin naar AI kijken. Bijvoorbeeld zoals Alfred Kleinknecht (TU Delft) naar de toekomst van werk kijkt:
(1) AI zou een productiviteitsrevolutie ontketenen. Volgens een veelbesproken studie van Frey en Osborne zit 47% van alle werknemers in de VS in de ‘gevarenzone’. Zulke verhalen staan in schril contrast met de statistieken.
(2) We denken dat techniek zich ­lineair ontwikkelt. Dat beeld klopt niet. We hebben te maken met de wet van de afnemende meeropbrengsten: veel technologische producten zijn aan het einde van hun cyclus. Van de eerste naar de tweede iPhone was een verbetering. Nu voegt de nieuwste smartphone weinig toe.
(3) Het is altijd de vraag of nieuwe vindingen kunnen concurreren met bestaande systemen. Vaak zie je dat automatiseringssystemen technisch functioneren, maar commercieel nog niet uit kunnen. Een systeem waarbinnen zelfrijdende auto’s veilig mensen vervoeren is kostbaar. Denk aan alle soft- en hardware, dataverwerking, het energieverbruik. Bij miljoenen zelfrijdende voertuigen wordt dat problematisch. Helemaal als je CO2-belasting meetelt. De kans is groot dat een taxi met chauffeur goedkoper blijft.

The Age of Surveillance Capitalism

My book-review of ‘The Age of Surveillance Capitalism’ is published in Delphi. Zuboff makes clear how we fail to understand the exploitative business model that underpins our digital world and the immense techno-social challenges we are facing today. She makes a convincing case as not the technologies themselves, but the business model, behaviorist worldview and ideological principles that underlie our data-driven technologies are her central objects of analysis.
(1)
Big Tech aims to create a computer mediated hive where our mutual visibility becomes the habitat in which we attune to one another, producing social patterns based on imitation that can easily be manipulated for guaranteed outcomes. Think for example of social media.
(2)
The surest way to predict behavior is to intervene at its source and shape it. In modifying our behavior for profit without our awareness, surveillance capitalism shifts the locus of control over the future tense from ‘I will’ to ‘You will’, supplanting autonomous with heteronomous action, resulting in more automated behavior.
(3)
Giving users ownership of their data will not give them power over the predictions derived from it. There is no point in owning data that should not exist in the first place.

Voor altijd verder leven in de cloud

In samenwerking met SETUP deed ik onderzoek naar de digitale onsterfelijkheid industrie. In een enthousiaste zoektocht naar het eeuwige leven, maken techbedrijven, futurologen en wetenschappers zich schuldig aan een grove versimpeling van de werkelijkheid. In Vrij Nederland schrijf ik over de valse beloften van brain uploading en de realiteit van chatbots en avatars waarin mensen zichzelf proberen te vereeuwigen. Wat moeten we ons voorstellen bij een digitaal bestaan zonder einde? Wát leeft er precies voort en is het eeuwige leven in de cloud ook een beetje leuk en ecologisch verantwoord? Ook te beluisteren als podcast.

AI demystification Top 3

(1) David Watson on our tendency to anthropomorphize AI: “Deep neural networks deviate from human modes of learning in several fundamental and alarming ways.” “Compared to human brains, deep neural networks are brittle, inefficient, and myopic.”
(2)
Luciano Floridi on what I call ‘artificial unintelligence’: “Many people think that AI is about coupling artificial agency and intelligent behaviour into new artefacts. The opposite is true: AI decouples successful problem solving from intelligent behaviour. It is thanks to this decoupling that it can colonise the boundless space of tasks, whenever these can be successfully performed without any understanding, awareness, sensitivity, concerns, hunches, insights, meaning, experience, wisdom—and all those other ingredients that contribute to qualifying human intelligence.”
(3) Jonathan Zittrain
on knowledge without understanding: “Most machine-learning systems are statistical-correlation engines. They can’t explain why they think some patients are more likely to die, because they don’t ‘think’ in any colloquial sense of the word—they only answer. As we begin to integrate their insights into our lives, we will, collectively, begin to rack up more and more intellectual debt.”

‘Redeneren’ als een computer

Op het jaarcongres Vereniging voor Filosofie en Geneeskunde gaf ik een interactieve sessie over AI en algoritmen in de zorg. Samen met zorgprofessionals en data-experts bespraken we neurale netwerken die huidkanker herkennen, algoritmen die depressie beloven te detecteren op basis van gezicht- en stem analyse, en textmining algoritmen die kindermishandeling beloven te voorspellen. Wat ik mee naar huis neem:
(1) de manier waarop zorgbeslissers naar de ethische implicaties van deze systemen kijken hangt niet alleen af van hun begrip van AI beslisprocessen, maar ook van hun begrip van menselijke beslisprocessen en de aard van AI.
(2) zorgbeslissers moeten op dezelfde rationele manier gaan redeneren als computers wanneer ze een beroep doen op AI, terwijl dat niet altijd wenselijk is (denk aan vrijwillig levenseinde).
(3) momenteel wordt meer geld geïnvesteerd in AI oplossingen dan in zorgprofessional oplossingen (zoals meer tijd per consult) terwijl beiden nodig zijn.
.

David Graeber over de averechtse effecten van digitalisering in de zorg in VPRO Tegenlicht.

Queen B and her swarm of robotic humans

Vorige week maakte het publiek kennis met Queen B: een AI-systeem dat persoonlijke data verzamelt en werknemers stuurt met stemberichten: “You look a bit tired, I suggest you grab a coffee”, “I would not formulate that sentence that way”. Queen B maakt deel uit van de speculatieve werkplek die Studio LONK ontwierp om ons te laten nadenken over de wenselijkheid van een datagedreven werkplek. LONK vroeg mij het aansluitende debat een duwtje te geven. Gaat Queen B ons effectiever maken op de werkvloer? Bekijk de video en lees hier de column:

Synthetic realities

Voor de 25e keer organiseerde Sogeti het VINT symposium. Dit jaar over de synthetische generatie die opgroeit zonder onderscheid te maken tussen on- en offline. Ik gaf een keynote over authenticiteit en de manier waarop surveillance kapitalisme en digitale technologieën onze opvattingen over echt en nep beïnvloeden. Boodschap: techbedrijven sturen ons gedrag zodat ze het kunnen blijven voorspellen. We drijven te ver af van de werkelijkheid omdat met de opkomst van AI een verdienmodel is ontstaan waarbij ons gedrag en onze blik op de werkelijkheid op oneerlijke wijze worden gestuurd. Bekijk hier de presentatie en het bijbehorende interview.

Hoe intelligent is onze samenwerking met AI?

In hoeverre zijn onze machines intelligent? Het is een relevante vraag, maar urgenter is de vraag in hoeverre en op welke manier onze samenwerkingen met AI intelligent zijn. Mijn artikel in Delphi – Interdisciplinary Review of Emerging Technologies gaat over intelligente en domme samenwerkingen met AI.

Een tip voor culturele ontnuchtering

Lelystad is een pretentieloze polderstad waar de publieke ruimte nog niet is volgeplempt met pop-up stores, pratend straatmeubilair, groetzones en andere ditjes en datjes die ons moeten afleiden van het gat in de zin van ons bestaan. Want als de mens iets niet kan, dan is wel de zinloosheid van zijn bestaan omarmen. Daarom vlucht hij in ambachtelijk bier, yoga, ingewikkelde koffies en andere hipster-religies waar Lelystad nog niet mee besmet is.

Deze week verscheen mijn ode aan Lelystad op Hard//hoofd.

Tip: Ga naar Lelystad

Robot journalistiek

Hebben journalisten straks nog een baan? Wrong question. Heerlijk als robots het monomane schrijfwerk van feiten-opsommende artikelen kunnen vervangen. Zo krijgen journalisten meer tijd om met intelligentie, bewustzijn, creativiteit, gevoel voor context en morele duiding diepgaande artikelen te schrijven. De vraag is niet of robotjournalisten menselijke journalisten vervangen, de vraag is hoe beiden complementair zijn aan elkaar.

Vaarwel menselijke intelligentie?

HARD//HOOFD ESSAYREEKS

Terwijl 2017 is bestempeld als het jaar van de artificiële intelligentie, beweren experts dat er helemaal geen sprake is van echte artificiële intelligentie. Nieuwsberichten over superintelligente machines die de boel volledig overnemen hebben meer met science fiction en sensatiejournalistiek te maken dan met machine learning.

Cyborg ratrace

HARD//HOOFD ESSAYREEKS

Een extra zintuig erbij of een chip in je hersenen waarmee je jezelf aansluit op het internet; dat klinkt als science-fiction maar is het niet. De nieuwste technologische snufjes beperken zich allang niet meer tot losse apparaten die we in onze broekzakken steken.