Photo by Cytonn Photography on Unsplash
Photo by Cytonn Photography on Unsplash

Computationele sociale wetenschap verandert de manier waarop we onderzoek doen naar sociaal gedrag dankzij de omvangrijke datasets en geavanceerde algoritmen. De ethische discussie heeft zich grotendeels toegespitst op kwesties als fairness, bias en privacy, maar er is nog een ander belangrijk aspect dat vaak over het hoofd wordt gezien: hoe we de concepten die centraal staan in ons werk definiëren en communiceren. Termen als fairness en bias zijn niet alleen maar technisch jargon – ze bepalen de onderzoeksresultaten en beïnvloeden de maatschappelijke impact van onderzoek. Conceptuele duidelijkheid en transparantie zijn daarom van groot belang. Als onderzoekers uitleggen hoe ze bepaalde zaken definiëren en welke afwegingen ze daarbij maken, kunnen we veel betere ethische discussies voeren binnen het gehele vakgebied.

Ethische overwegingen moeten expliciet(er)

Neem bijvoorbeeld het COMPAS-algoritme, dat in het Amerikaanse strafrechtsysteem werd gebruikt om recidive te voorspellen (de waarschijnlijkheid dat iemand opnieuw in de fout gaat). Het werd controversieel nadat critici aanvoerden dat het zwarte verdachten onevenredig als risicovol bestempelde in vergelijking met blanke verdachten. Maar het debat ging niet alleen over hoe goed het algoritme werkte—het ging ook over wat we precies onder ‘fairness’ verstaan. Eén definitie (‘separation’) stelde dat fairness betekent dat voorspellingen niet afhankelijk mogen zijn van ras als de werkelijke uitkomsten hetzelfde zijn. De andere (‘sufficiency’) richtte zich op het garanderen dat voorspellingen voor alle raciale groepen even accuraat moeten zijn. De makers van COMPAS gaven prioriteit aan ‘sufficiency’, maar critici wezen erop dat deze keuze de raciale ongelijkheden verergerde. De belangrijkste conclusie? Fairness is niet one-size-fits-all. Het is een weerspiegeling van verschillende ethische prioriteiten in een bepaalde context, en deze keuzes moeten expliciet gemaakt worden.

Ethiek in social wetenschapen doe je samen

Nu de computationele sociale wetenschap zich uitbreidt naar gebieden als gezondheidszorg, onderwijs en overheidsbeleid, worden dit soort afwegingen nog belangrijker. Als er bijvoorbeeld besloten wordt om het aantal fout-positieven (voorspellen dat iemand zal recidiveren terwijl dat niet zo is) te verminderen, kan dat leiden tot minder onnodige opsluiting, maar ook tot een hoger risico op recidive. Dit zijn ethische beslissingen, niet alleen technische, en er moet goed over worden nagedacht. Maar het gaat niet alleen over individuele onderzoekers die zorgvuldige keuzes maken—we moeten ook ruimte creëren voor de gehele onderzoeksgemeenschap om deze beslissingen te bespreken, erover te debatteren en ervan te leren.

Dit is waar interdisciplinariteit, samenwerking en transparantie in gedeelde inspanningen essentieel worden. Filosofen en ethici kunnen bijvoorbeeld belangrijke inzichten en methoden bieden om onderzoekers te helpen bij moeilijke afwegingen, maar een sterkere betrokkenheid van de gemeenschap is net zo belangrijk. Onderzoekers, praktijkbeoefenaars en beleidsmakers spelen allemaal een rol in het vormgeven van deze discussies. Er is ook behoefte aan gezamenlijke, gemeenschapsgerichte overlegmomenten waarbij onderzoekers hun ervaringen met het herkennen en omgaan met ethische afwegingen kunnen delen. Een dergelijke dialoog kan deze uitdagingen zichtbaarder maken en wederzijds leren mogelijk maken, waarbij filosofen en andere experts een cruciale rol spelen in het faciliteren van deze discussies. Het is van cruciaal belang dat deze inspanningen niet alleen ondersteund worden door top-down initiatieven, maar ook door bottom-up benaderingen. Onderzoekers moeten de kans krijgen om actief en samen met anderen aan deze kwesties te werken.

Wil je meedenken aan dit onderwerp? Neem contact op met Chirag Arora (TU Delft) (C.Arora@tudelft.nl)

Door: Chirag Arora & Juan Duran (TU Delft)