In maart 2015 braken protesten uit aan de Universiteit van Kaapstad, Zuid-Afrika, tegen het standbeeld van de Britse kolonialist Cecil Rhodes. Die mijnbouwtycoon, die het land had weggegeven waarop de universiteit werd gebouwd, had genocide gepleegd tegen Afrikanen en legde de basis voor apartheid. Onder het motto “Rhodos must fall” eisten de studenten dat het beeld verwijderd zou worden. Hun protesten leidden tot een wereldwijde beweging om koloniale erfenissen uit te roeien die in het onderwijs voortduren.

Deze gebeurtenissen moedigden ook Zuid-Afrikaanse kunstmatige intelligentie (AI) onderzoeker bij DeepMind, Shakir Mohamed, om na te denken over wat koloniale erfenissen zou kunnen ook bestaan in zijn onderzoek. In 2018, net toen het AI-veld zich begon te buigen over problemen zoals algoritmische discriminatie, schreef Mohamed een blogpost met zijn eerste adviezen. En hij riep onderzoekers op om “kunstmatige intelligentie te dekoloniseren”, om veldwerk te heroriënteren uit de buurt van westerse centra zoals Silicon Valley (VS) en om nieuwe stemmen, culturen en ideeën op te nemen om de ontwikkeling van technologie te begeleiden.

Nu, in het kielzog van de nieuwe kreten van “Rhodos moet vallen” op de campus van de Universiteit van Oxford (Verenigd Koninkrijk) dat leidde tot de moord op George Floyd en de wereldwijde anti-racisme beweging, Mohamed heeft een nieuw artikel gepubliceerd met zijn collega Isaac William en Oxford promovendus Marie-Therese Png. Daarin versterken ze Mohameds eerste ideeën met specifieke voorbeelden van hoe AI-uitdagingen geworteld zijn in het kolonialisme, en stellen ze strategieën voor om ze aan te pakken bij het erkennen van die geschiedenis.

Hoe ‘kolonialiteit’ zich manifesteert in AI
Hoewel het historische kolonialisme voorbij is, blijven de gevolgen ervan vandaag de dag bestaan. Dit is wat deskundigen noemen “kolonialiteit”: het idee dat de moderne macht onevenwichtigheden tussen rassen, landen, rijk en arm, en andere groepen zijn uitbreidingen van de macht onevenwichtigheden tussen kolonisten en gekoloniseerd.

Een voorbeeld hiervan is structureel racisme. De Europeanen vonden het concept van rassen en de verschillen tussen hen uit om de Afrikaanse slavenhandel en toen de kolonisatie van Afrikaanse landen te rechtvaardigen. In de Verenigde Staten, de gevolgen van die ideologie kan nu worden gevolgd door de eigen geschiedenis van het land van de slavernij, Jim Crow en politie brutaliteit.

Op dezelfde manier stellen de auteurs van het artikel dat dit koloniale verhaal enkele van de meest verontrustende kenmerken en effecten van de huidige AI uitlegt. Ze identificeren vijf uitingen van kolonialiteit in kunstmatige intelligentie:

1. Algoritmische discriminatie en onderdrukking. De verbanden tussen algoritmische discriminatie en koloniaal racisme zijn misschien wel het meest voor de hand liggende: algoritmes die zijn gemaakt om procedures te automatiseren en getraind met gegevens uit een racistisch oneerlijke samenleving, worden uiteindelijk die racistische effecten op hun resultaten gerepliceerd. Maar veel van de AI’s studies over dit soort schade richten zich op Amerikaanse voorbeelden Het analyseren van hen in de context van kolonialiteit zorgt voor een mondiaal perspectief: De Verenigde Staten is niet de enige plaats met sociale ongelijkheden. “Er zijn altijd groepen die zich identificeren en zich daaraan onderwerpen,” zegt Isaac.

2. Spookwerk. Het fenomeen van fantoomwerk, het onzichtbare werk met betrekking tot gegevens en noodzakelijk om innovatie in AI te ondersteunen, breidt duidelijk de historische economische relatie tussen kolonisator en gekoloniseerd uit. Veel voormalige Amerikaanse en Britse koloniën (Filippijnen, Kenia en India) zijn geworden ghost jobs centra voor Amerikaanse en Britse bedrijven. De goedkope Engelstalige arbeidskrachten van deze landen, die perfect het werk met de gegevens passen, bestaan wegens hun koloniale geschiedenissen.

3. Bètatests. AI-systemen worden soms getest op de meest kwetsbare groepen voordat ze worden geïmplementeerd voor “echte” gebruikers. Cambridge Analytica, bijvoorbeeld, voerde bètatesten uit van zijn algoritmen bij Nigeriaanse verkiezingen in 2015 en Kenia in 2017 voordat ze ze in de VS gebruikten. Later bleek uit onderzoek dat deze experimenten het verkiezingsproces van Kenia actief verstoorden en de sociale cohesie uithollen. Dit soort bewijs weerspiegelt de historische behandeling van het Britse Rijk met zijn kolonies als laboratoria van nieuwe geneesmiddelen en technologieën.

Leave a comment

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *