Racistische snelwegen en seksistische algoritmes [Column]

Home > Magazine > De Diepte In > Racistische snelwegen en seksistische algoritmes [Column]
technologie
Ongelijkheid in het heden kan worden verklaard door technologie uit het verleden, zegt columnist Bouke van Balen.

Door Gastredactie

Dit artikel is geschreven door een gastredacteur. Heb jij een uniek perspectief dat Feminer nog niet eerder heeft belicht? Stuur ons via redactie@feminer.nl een korte introductie van jezelf en een opzet voor je stuk.

18 mei 2020

door | 18 mei 2020

Als ik je zou vertellen dat een snelweg racistisch kan zijn, zou je me vast uitlachen. Dingen, objecten of technologie lijken op het eerste gezicht onschuldig. Mensen kunnen misschien slechte dingen doen met technologie, maar technologie zelf kent geen moreel kompas, geen ethiek. Laat me je een verhaal vertellen waardoor je hier misschien anders tegenaan kijkt. Ooit gehoord van een racistische snelweg?
Impliciete uitsluiting
In Long Island, New York, lopen veel snelwegen onder en boven elkaar langs om optimaal van de ruimte gebruik te maken. Een van die snelwegen valt op omdat hij wel erg nauw onder de bovenliggende doorloopt. Om precies te zijn is de afstand van de onderliggende tot de bovenliggende snelweg twee meter en vijfenzeventig centimeter. Onhandig constructiefoutje, zou je denken. Toch is de doorgang expres zo laag gemaakt. De snelweg leidt naar Jones Beach, een prachtig park dat aan het strand ligt.
Zowel de snelweg als het park zijn ontworpen door de architect Robert Moses. Anders dan wat je misschien zou verwachten met zo’n achternaam, was Moses geen engel. Moses had racistische en discriminerende trekjes. Hij had liever geen arme mensen en mensen van kleur in zijn park. Dus bouwde hij de snelweg die er naartoe leidde dusdanig laag dat er geen bussen overheen konden rijden.
Als je geen eigen auto tot je beschikking had, kon je niet over de snelweg heen. Als je arm was (en helaas was het merendeel van de gekleurde bevolking arm), kon je het park niet bereiken. Deze lage snelweg naar Jones Beach belichaamt een geniepig soort ongelijkheid. Het is niet nodig om mensen expliciet toegang te ontzeggen, maar impliciet gebeurt het wel degelijk.
Robert Moses is al een aantal decennia dood, en gelukkig is er sindsdien ook een goed deel van het racisme gestorven. Zijn snelwegen staan er echter nog steeds, met hetzelfde effect als vroeger. En zo leven ongelijkheden die we allang niet meer willen door in onze technologie en dus in ons dagelijks even.
Het is niet nodig om mensen expliciet toegang te ontzeggen, maar impliciet gebeurt het wel degelijk
Ingebouwde stereotypen
Dingen kunnen behalve racistisch ook seksistisch zijn. Zo worden airbags en autostoelen voornamelijk getest op mannen. Daardoor hebben mannen een grotere overlevingskans bij een auto-ongeluk dan vrouwen. Ook in scheermesjes zitten bepaalde ontwerpverschillen. Vrouwenscheermesjes kunnen meestal niet opengemaakt worden, en zijn dus niet te repareren als ze stuk gaan. Mannenscheermesjes kan je wel openen, die komen met uitlegbijbels en schoonmaakborsteltjes.
In dit ontwerpverschil ligt het idee besloten dat vrouwen in tegenstelling tot mannen niet geïnteresseerd of niet capabel genoeg zijn om hun eigen scheermesje te repareren. Dat zijn stereotype, traditionele beelden van vrouwelijkheid en mannelijkheid, ingebouwd in het ontwerp van iets banaals als een scheermesje.
Naast zulke alledaagse producten kan seksistische technologie ook een rol spelen in het sollicitatieproces. Cv’s worden tegenwoordig namelijk vaak geanalyseerd door algoritmes. Die kunnen bij voorbaat al een selectie of inschatting maken in de competentie van alle kandidaten.
Op het eerste oog lijkt dit een handige methode, misschien zelfs objectiever dan menselijke sollicitatieprocedures. Mensen zijn wezens met vooroordelen die door kunnen sijpelen tijdens een sollicitatie. Een volledig mannelijk bestuur zal eerder een man dan een vrouw competent genoeg achten.
Getallen zijn niet objectief, Technologie is niet neutraal
Laten we dat niet vergeten
Als we algoritmes en data dat werk laten doen zou het sollicitatieproces eerlijker kunnen worden. We zouden de menselijke vooroordelen eruit kunnen halen. Getallen zijn immers objectief, het maakt algoritmes niet uit of je nu een man of een vrouw bent. Toch?
Pseudo-objectiviteit
Helaas is de waarheid weerbarstiger. Sollicitatie-algoritmes moeten namelijk eerst leren hoe ze een cv beoordelen. Dat doen ze aan de hand van voorbeelden: eerder beoordeelde cv’s vormen de basis van waaruit algoritmes nieuwe cv’s beoordelen.
Het probleem is dat er seksisme ingebakken zit in die eerdere beoordelingen. In het verleden zijn mannen consistent competenter geacht dan vrouwen, met name voor leidinggevende functies. Zo leren we sollicitatie-algoritmes dat ze mannen hoger moeten beoordelen dan vrouwen. Het gevaarlijke is dus dat zulke algoritmes objectief lijken, maar niet zijn.
Met zulke pseudo-objectiviteit ligt er een kans op de loer dat we ongelijkheden niet meer als ongelijkheid zien, maar als realiteit. Dan wordt het algoritme de snelweg in Long Island, en worden vrouwen impliciet toegang ontzegt tot topfuncties. Dat moeten we voorkomen. Seksisme leeft niet alleen voort in mensen, maar ook in onze dingen. Getallen zijn niet objectief. Technologie is niet neutraal. Laten we dat niet vergeten.
Bouke van Balen

Bouke van Balen

Columnist & podcastmaker

Bouke van Balen (23) is techniekfilosoof in spé. Daarnaast is hij co-host van de podcast Red de Millennial en columnist bij Red Pers.

  • Gastredactie

    Dit artikel is geschreven door een gastredacteur. Heb jij een uniek perspectief dat Feminer nog niet eerder heeft belicht? Stuur ons via redactie@feminer.nl een korte introductie van jezelf en een opzet voor je stuk.

door | 18 mei 2020

Meer zoals dit

Zoek artikelen

Vers van de pers

We houden je graag op de hoogte, dus volg ons vooral op de socials!