Bias in AI en de Invloed op de Samenleving
- Juul Petit
- 12 sep 2024
- 7 minuten om te lezen
In onze moderne samenleving spelen algoritmen een steeds grotere rol. Ze worden gebruikt voor het nemen van allerlei beslissingen, van het aanbevelen van producten online tot het helpen bij het bepalen van wie er in aanmerking komt voor een lening of een baan. Hoewel deze algoritmen ons leven efficiënter kunnen maken, dragen ze ook een groot risico met zich mee: algoritmische bias. Dit fenomeen kan onbedoeld leiden tot ongelijkheid en discriminatie, met mogelijk ingrijpende gevolgen voor de samenleving. Maar wat is bias eigenlijk? Hoe ontstaat het in algoritmen, en wat zijn de gevolgen?
Wat is bias bij mensen?
Bias is in wezen een systematische afwijking van een norm of standaard, die kan leiden tot een verkeerde of oneerlijke beslissing. Wanneer we het hebben over bias bij mensen, bedoelen we vaak vooroordelen of onbewuste voorkeuren die ons denken, ons gedrag en daarmee ook onze keuzes beïnvloeden. Bias kan bijvoorbeeld gebaseerd zijn op ras, gender, leeftijd of sociale status. Een bekend voorbeeld van menselijke bias is de "shooter bias", waarbij onderzoek uitwees dat Amerikaanse politieagenten onbewust sneller geneigd waren om op zwarte verdachten te schieten dan op witte verdachten. Dit toont aan dat zelfs onbewuste vooroordelen schadelijke gevolgen kunnen hebben.
Bias kan zich ook manifesteren in cognitieve processen, zoals bij de "bevestigingsbias". Dit houdt in dat mensen de neiging hebben om alleen informatie te zoeken die hun eigen overtuigingen bevestigt, terwijl ze informatie die tegenstrijdig is juist negeren. Een ander voorbeeld van menselijke bias is de "status quo bias", waarbij mensen geneigd zijn om vast te houden aan de huidige situatie, zelfs wanneer verandering misschien voordeliger zou zijn.
Hoewel bias vaak als negatief wordt gezien, kan het in sommige gevallen nuttig zijn. Het kan bijvoorbeeld helpen bij het sneller maken van beslissingen. Stel je een arts voor die in een noodgeval snel moet bepalen wat de beste behandeling is. Door eerder opgedane kennis en ervaringen (die soms een vorm van bias kunnen vormen), kan de arts sneller tot een conclusie komen zonder eerst alle mogelijkheden opnieuw af te wegen. In deze situaties kan bias ervoor zorgen dat mensen snel en effectief handelen wanneer tijd van cruciaal belang is.
Van mens naar algoritme: hoe ontstaat bias in AI?
Veel mensen gaan ervan uit dat algoritmen neutraal zijn. Ze worden immers uitgevoerd door machines die, in tegenstelling tot mensen, geen emoties of vooroordelen hebben. Toch blijkt dat algoritmen ook vatbaar zijn voor bias. Deze bias komt vaak voort uit de data waarmee ze worden getraind. Als de trainingsdata bevooroordeeld is, neemt het algoritme deze patronen over.
Een van de bekendste voorbeelden van algoritmische bias is het COMPAS-algoritme, dat in de Verenigde Staten werd gebruikt om te voorspellen of een verdachte opnieuw een misdaad zou plegen. Dit algoritme bleek systematisch zwarte verdachten vaker aan te merken als toekomstige criminelen dan witte verdachten, zelfs wanneer de feiten dit niet rechtvaardigden. Deze bias kwam voort uit de historische gegevens waarmee het algoritme werd getraind. Deze gegevens weerspiegelden eerdere arrestaties en veroordelingen, die op hun beurt al beïnvloed waren door bestaande maatschappelijke vooroordelen en discriminerende politiepraktijken. Omdat zwarte gemeenschap historisch gezien vaker werden gecontroleerd en gearresteerd, bevatten de data een onevenredig hoog aantal zwarte verdachten. Het algoritme werd getraind op deze vertekende realiteit en merkte daardoor onterecht vaker zwarte verdachten aan als risicovoller. Dit is hoe bias ontstaat: de data waarmee het algoritme wordt gevoed bevat al inherente vooroordelen, waardoor het algoritme verkeerde conclusies trekt.
Ook gezichtsherkenningssoftware, die vaak wordt gebruikt door overheden en bedrijven, laat bias zien. Deze technologie wordt ingezet voor verschillende doeleinden, zoals beveiliging op luchthavens, toegang tot smartphones en zelfs bij het opsporen van criminelen. Echter, onderzoeken tonen aan dat gezichtsherkenningssoftware vaak minder accuraat is bij mensen met een donkere huidskleur, en dan vooral vrouwen. Een onderzoek van MIT Media Lab in 2018 toonde aan dat de foutmarge in commerciële gezichtsherkenningssystemen voor het correct identificeren van witte mannen slechts 0,8% was, terwijl deze opliep tot 34,7% voor zwarte vrouwen. Deze systemen werden getraind op datasets waarin tussen de 77% en 86% van de beelden bestond uit mannen met een lichte huidskleur. Hierdoor presteerde de technologie minder goed bij zwarte personen en vrouwen. We zien dus dat bias wederom ontstaat doordat de data waarop algoritmen getraind worden deze ongelijkheden weerspiegelt.
De diversiteit van bias in AI
Bias in algoritmen kan op verschillende manieren voorkomen. Naast ras en gender kan er ook sprake zijn van culturele en politieke bias. In sommige landen wordt beweerd dat sociale media platforms een liberale bias hebben. Dit betekent dat conservatieve stemmen naar verluidt minder zichtbaar zijn of zelfs worden onderdrukt. Een voorbeeld hiervan is de claim van conservatieve groepen in de Verenigde Staten, die stellen dat hun berichten onevenredig worden gecensureerd of minder vaak worden weergegeven in nieuws feeds op sociale media. Hoewel hier nog discussie over is, illustreert dit voorbeeld hoe algoritmen politieke voorkeuren kunnen beïnvloeden.
Een ander groot probleem is de invloed van algoritmische bias op de manier waarop we informatie consumeren. Platforms zoals YouTube en Facebook maken gebruik van aanbevelingssystemen die ervoor zorgen dat gebruikers vooral content te zien krijgen die aansluit bij hun eerdere interesses. Dit creëert een zogenaamde filterbubbel waarin mensen worden blootgesteld aan eenzijdige informatie die hun bestaande overtuigingen versterkt. Dit heeft grote gevolgen voor de samenleving, omdat het kan leiden tot sociale polarisatie en het ontstaan van “echo chambers”, waarin men enkel gelijkgestemden
hoort en andere perspectieven worden genegeerd. Hierdoor kan het lastiger worden om genuanceerde discussies te voeren of om begrip te hebben voor andere standpunten.
Wat zijn de gevolgen van bias in AI voor de samenleving?
De gevolgen van algoritmische bias kunnen aanzienlijk zijn en reiken tot in verschillende aspecten van het dagelijks leven. Een bekend voorbeeld is het Amazon-schandaal. In een poging om het sollicitatieproces te automatiseren, ontwikkelde Amazon een algoritme dat automatisch sollicitaties zou beoordelen. Het algoritme bleek echter te discrimineren tegen vrouwen. Dit gebeurde omdat het was getraind op historische data van sollicitanten, waarin mannen vaker waren aangenomen. Hierdoor raakte het algoritme bevooroordeeld tegen vrouwen, wat ertoe leidde dat vrouwelijke sollicitanten lager werden beoordeeld dan mannelijke, zelfs wanneer ze even, of zelfs meer, gekwalificeerd waren.
In de gezondheidszorg kan bias in AI schadelijke gevolgen hebben. Een studie toonde aan dat een algoritme, dat werd gebruikt om te bepalen welke patiënten extra medische zorg nodig hadden, witte patiënten vaker selecteerde boven zwarte patiënten, zelfs wanneer zwarte patiënten meer zorg nodig hadden. Dit gebeurde omdat het algoritme was getraind op gegevens die uitgaven aan medische zorg in het verleden weerspiegelden. Zwarte patiënten gaven over het algemeen minder uit aan zorg, niet omdat ze minder zorg nodig hadden, maar omdat ze minder toegang hadden tot kwalitatieve gezondheidszorg. Het algoritme interpreteerde deze lagere uitgaven echter als een verminderde zorgbehoefte, waardoor zwarte patiënten onterecht werden benadeeld. Dit leidde ertoe dat ze niet de zorg kregen die ze nodig hadden, met ernstige gevolgen voor de gezondheid van deze patiënten.
Hoe kunnen we bias in AI aanpakken?
Gelukkig zijn er manieren om algoritmische bias te beperken en tegen te gaan. Een van de meest voor de hand liggende stappen is ervoor zorgen dat de data waarmee algoritmen worden getraind, representatief is voor de diversiteit van de samenleving. Als de data slechts een specifieke groep mensen of kenmerken vertegenwoordigt, zal het algoritme ook bevooroordeelde beslissingen nemen. Door meer diverse data te gebruiken, kan het algoritme leren om eerlijkere en inclusievere beslissingen te nemen.
Helaas is dit echter niet altijd eenvoudig. Een groot probleem is dat sommige kenmerken zo nauw verbonden zijn met andere informatie dat het lastig is om bias volledig te elimineren. Een goed voorbeeld hiervan is het gebruik van postcodes in de Verenigde Staten. Hoewel een algoritme mogelijk niet expliciet rekening houdt met ras, kan het gebruik van postcodes in de data toch leiden tot bevooroordeelde resultaten. Postcodes in de VS zijn namelijk vaak sterk verbonden met etnische en economische verschillen. Als een algoritme bijvoorbeeld besluit geen ras als factor mee te nemen, maar wél de postcode van een individu gebruikt, kan het alsnog indirect raciale bias introduceren door de correlatie tussen postcode en ras.
Naast het wijzigen van de data, is er ook een andere manier om bias tegen te gaan. Door de ontwikkelaars van algoritmen bewuster te maken van de risico's en uitdagingen die bias met zich meebrengt kan bias in algoritmen verholpen worden. Diversiteit in de teams die verantwoordelijk zijn voor de ontwikkeling van deze algoritmen kan hierbij helpen. Mensen uit ondervertegenwoordigde groepen zijn vaak beter in staat om mogelijke vooroordelen in systemen te herkennen en aan te pakken, omdat ze de impact ervan uit eerste hand ervaren.
Ten slotte zijn er technische oplossingen die kunnen helpen bij het verminderen van bias. Een voorbeeld hiervan is het trainen van algoritmen om geen rekening te houden met bepaalde sociale kenmerken, zoals ras, geslacht of leeftijd. Dit principe wordt ook wel "fairness through unawareness" genoemd. In theorie klinkt dit als een effectieve oplossing, maar in de praktijk blijkt dit lastig. Omdat bepaalde kenmerken, zoals eerder genoemd, verweven zijn met andere data, kan het algoritme onbewust alsnog bevooroordeelde beslissingen nemen. Daarom is het belangrijk om niet alleen naar de data te kijken, maar ook naar de manier waarop algoritmen beslissingen nemen en welke factoren daarbij een rol spelen.
Conclusie
Bias in algoritmen is een complex probleem met grote gevolgen voor de samenleving. Hoewel algoritmen op zichzelf niet bevooroordeeld zijn, kunnen ze door de data waarmee ze worden getraind toch vooroordelen overnemen en gebruiken in beslissingen. Dit kan leiden tot ongelijke behandeling van bepaalde groepen en kan zelfs bijdragen aan maatschappelijke problemen zoals polarisatie.
Het is van groot belang dat we ons bewust zijn van de risico's van algoritmische bias en dat we actief werken aan oplossingen. Door meer diverse data te gebruiken, bewustzijn te creëren onder ontwikkelaars en technische oplossingen te ontwikkelen, kunnen we algoritmen eerlijker en inclusiever maken. Toch moeten we waakzaam blijven en de ontwikkelingen op het gebied van algoritmische besluitvorming blijven volgen. Alleen door constante aandacht en nauwkeurige controle kunnen we ervoor zorgen dat algoritmen een positieve en eerlijke invloed hebben op de samenleving.
Comments