Foto: Google

Een kleine oefening: zoek eens op Google Afbeeldingen naar ‘three white teenagers’… En nu naar ‘three black teenagers’… Valt je iets op? Misschien dat de blanke tieners allemaal vrolijk huppelende wezens zijn, zo weggelopen uit een wasmiddelenreclame, en de zwarte tieners voornamelijk criminelen?

Dit komt niet doordat Google een diep racistisch bedrijf is. Maar toch is er iets dat ervoor zorgt dat de zoekfunctie zich naadloos aansluit bij raciale en seksistische stereotypes.

Google Translate

“Veel mensen denken dat computers onbevooroordeeld zijn, maar computers leren van mensen, en die zijn bevooroordeeld”, zegt een vooraanstaande Amerikaanse computerwetenschapper in een interview met Vox.com. Een duidelijk voorbeeld is Google Translate. Volgens onderzoek zou het vertaalprogramma in het Engels vooroordelen bevestigen tegen zwarte vrouwen. Maar daar blijft het niet bij. In heel veel talen gaat het fout. Hoe ver dat kan gaan, laat dit filmpje zien: typ je ‘blote negers’ in, dan vertaalt Google Translate dat in het Chinees naar ‘blote slaven’. Au.

Verbanden

Hoe kan dit? Google Translate leert taal door miljarden woorden op het internet te doorzoeken en op basis van veel gevonden verbanden een betekenis te ontlenen. Dat betekent ook dat daarmee de vooroordelen die aan die woorden gekoppeld zijn – bijvoorbeeld criminaliteit en donkere mensen – worden meegenomen. Zo kan het dus voorkomen dat woorden die in principe niks met elkaar te maken hebben, in vertalingen toch aan elkaar gekoppeld worden.

Maar niet alleen Google kent dit probleem. Veel meer kunstmatige intelligentie heeft in meerdere of mindere mate ingebakken vooroordelen. Zo was er vorig jaar nog ophef over een ‘racistische computer’ die bij wijze van experiment winnaars van een schoonheidswedstrijd moest uitzoeken en bijna alleen maar blanke vrouwen uitkoos.

Serieuze gevolgen

Nu zijn de kwetsende taferelen als gevolg van dit gerobotiseerde racisme natuurlijk al erg genoeg. Maar er is meer. Computers worden namelijk steeds vaker gebruikt als ‘onbevooroordeelde’ beoordelaar van mensen. Dit varieert van modellen die criminaliteit voorspellen tot cv’s die worden gescand door programma’s. Als die ook bevooroordeeld zijn, en daar zijn aanwijzingen voor, dan heeft dat dus ook serieuze maatschappelijke gevolgen.

Betekent dit dat we niks meer aan computers kunnen overlaten? Nee, zegt de vooraanstaande onderzoekster Aylin Caliskan. Volgens haar is het vooral belangrijk dat we ons hier veel bewuster van worden en kunstmatige intelligentie met een kritischer oog bekijken. Zolang computers worden gevoed door mensen, leiden ze nu eenmaal aan dezelfde tekortkomingen.

Deel
Tweet