Het nieuws: het Britse Ministerie van Binnenlandse Zaken heeft gezegd dat het niet langer een algoritme zal gebruiken om visumaanvragen te verwerken die volgens haar critici een raciale vooringenomenheid hebben. Zij stellen dat het feit dat het algoritme nationaliteit gebruikt om te beslissen welke verzoeken sneller worden verwerkt, heeft geleid tot een systeem waarin “mensen uit witte en rijke landen een ‘snelle reactie’ krijgen, terwijl de armste mensen van kleur aan het einde van de lijn terechtkomen.”

Een herontwerp is nodig: het Ministerie van Binnenlandse Zaken ontkent dat zijn systeem rassenbias heeft en het proces nog aan de gang is. Echter, het agentschap overeengekomen om te stoppen met het gebruik van het algoritme en plannen om een vernieuwde versie later dit jaar release, na het uitvoeren van een volledige review die zal zoeken naar onbedoelde vooroordelen. In de tussentijd zal het Verenigd Koninkrijk een tijdelijk systeem invoeren dat geen nationaliteit gebruikt om aanvragen te classificeren.

Verkeerslichtsysteem: Het Verenigd Koninkrijk filtert visumaanvragen sinds 2015 via een stoplichtsysteem dat elke aanvrager een rood, oranje of groen risiconiveau toewijst. Mensen die een rood risiconiveau toegewezen kregen, hadden meer kans om te worden afgewezen.

Bredere trend: Algoritmen staan erom bekend institutionele vooroordelen te consolideren, vooral racistische. Desondanks worden ze steeds vaker gebruikt om belangrijke beslissingen te nemen, van kredietcontroles tot visumaanvragen, eerdere hoorzittingen en politietoezicht. Critici waarschuwen dat amerika’s immigratiesysteem ook raciale vooroordelen heeft. Maar in de meeste gevallen is het moeilijk om precies te analyseren hoe deze algoritmen werken en om bewijs bloot te leggen waaruit blijkt hun vooroordelen, omdat velen zijn prive-eigendom en het gebruik ervan is niet open voor publiek toezicht.

Maar de kritiek neemt toe. In de Verenigde Staten, sommige politie-afdelingen zijn het elimineren van hun controversiƫle voorspellende algoritmen, en tech bedrijven zijn gestopt met het leveren scheve gezichtsherkenning technologie. In februari oordeelde een Nederlandse rechter dat een systeem dat voorspelde dat de kans was dat iemand belasting- of sociale zekerheidsfraude zou plegen, illegaal was omdat het oneerlijk was gericht op minderheden. Het besluit van het Britse Ministerie van Binnenlandse Zaken om zijn systeem te herzien zonder te wachten op een rechterlijke uitspraak zou een mijlpaal kunnen zijn.

Leave a comment

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *