Geen quick-fix voor seksistische AI

In EenVandaag gaf ik commentaar op het UNESCO onderzoek naar seksisme in AI. De vraag die steeds terugkomt: kunnen we deze bias niet gewoon oplossen? Wie gelooft dat we een decennialange geschiedenis van genderongelijkheid en discriminatie kunnen oplossen met inclusieve data, begrijpt niet hoe maatschappelijke veranderingsprocessen werken. In plaats van AI-systemen te bouwen die patronen uit het verleden herhalen, moeten we de mechanismen aanpakken die tot deze patronen van ongelijkheid hebben geleid. Er bestaat geen technologische fix voor culturele bias en sociale ongelijkheid. Twee voorbeelden: Google’s Gemini en deze studie naar healthcare bias – why fixing the numbers could lead to worse outcomes.