Home > AI > Google verwijdert genderlabels uit beeldherkenningssoftware om vooroordelen te vermijden

Google verwijdert genderlabels uit beeldherkenningssoftware om vooroordelen te vermijden

graphic van vrouwelijk persoon met gezichtherkenning

De labels ‘man’ en ‘vrouw’ kunnen leiden tot bevooroordeelde beeldherkenningssoftware. Daarom besloot Google deze labels te verwijderen en iedereen voortaan als ‘persoon’ te bestempelen.

Het benoemen van gender ligt gevoelig. Vooroordelen liggen op de loer en niet iedereen kan zich vinden in de strikte man-vrouw tweedeling. Vandaar dat veel bedrijven maatregelen nemen om dit onderscheid uit te bannen. Zo klinkt er in de trein geen ‘dames en heren’ meer door de luidsprekers, maar ‘beste reizigers’.

Iedereen is een persoon

Ook Google maakt nu een flinke sprong richting een genderneutrale wereld. Het bedrijf verwijdert de labels ‘man’ en ‘vrouw’ in zijn beeldherkenningssoftware, zo blijkt uit een e-mail naar ontwikkelaars die deze software gebruiken. In plaats daarvan wordt iedereen voortaan als ‘persoon’ gelabeld.

De motivatie die Google opgeeft voor deze vrij ingrijpende maatregel is tweeledig. Ten eerste is het onmogelijk om iemands gender af te leiden uit slechts het uiterlijk, ten tweede willen ze voorkomen dat ze vooroordelen creëren of versterken.

Fornuis of tennisracket

Over het algemeen geldt dat kunstmatige intelligentie zo goed is als ‘ie getraind wordt. En als je een algoritme traint met een dataset waar bepaalde vooroordelen in zitten, dan worden die vooroordelen niet alleen overgenomen, maar vaak zelfs versterkt. Het nadeel van zelflerende algoritmes is dat het niet altijd helder is waar ze hun keuzes op baseren. Zo kan het gebeuren dat de software randzaken gaat gebruiken om beelden te herkennen.

Stel bijvoorbeeld dat je een zelflerend algoritme een dataset voert waarin relatief veel vrouwen aan het koken zijn, en veel mannen aan het tennissen.  De software hoeft dan op een gegeven moment alleen nog maar een gasfornuis met een persoon ernaast te zien om te denken ‘ha, een vrouw’.

Als je een zelflerend algoritme met een database vol kokende vrouwen traint, zou deze persoon zomaar eens als ‘vrouw’ bestempeld kunnen worden.

Gorilla-probleem

De voor de hand liggende oplossing is dan ook: zorg dat je de software traint met een onbevooroordeelde dataset. Maar dat is nog niet zo eenvoudig, temeer omdat de echte wereld ook niet onbevooroordeeld is. Maar het laatste wat je wil is de toch al aanwezige vooroordelen versterken.

Toch is het de vraag of het simpelweg bij het grof vuil zetten van de labels ‘man’ en ‘vrouw’ de oplossing is. Het doet een beetje aan als een quick fix van symptomen, zonder het onderliggende probleem op te lossen. Deze strategie is niet nieuw. Eerder kampte Google met een ander gevoelig probleem: mannen met een donkere huidskleur kregen het label ‘gorilla’ opgeplakt. Je zou zeggen dat je met betere training van de algoritmes ook al een heel eind kan komen. Maar Google reageerde door de tag ‘gorilla’ naar de prullenbak te verwijzen.

Deze gorilla blijft onder de radar als het aan Google ligt

Minder informatie

Een gebruiker van de beeldherkenningssoftware verweet Google politieke correctheid boven de kwaliteit van het product te stellen. En hiermee heeft deze persoon wel een punt. In sommige gevallen is het van belang om zoveel mogelijk informatie te kunnen afleiden uit foto’s. Denk bijvoorbeeld aan beeldherkenningssoftware die de politie gebruikt. Als een getuige zeker weet dat de dader een man of een vrouw was, is dat waardevolle informatie die het onderzoek kan helpen. Om nog maar te zwijgen over een gorilla die een ramkraak pleegt en nergens in een database te vinden is…

You may also like
Gaat Google censureren?
Komt Google met gecensureerde versie voor China?
artist impression van een oogscan
Met een oogscan de kans op een hartaanval bepalen? Google bewijst dat ’t kan
Google komt met depressie-test
Diversiteit
Google, Uber en meer diversiteit in de techscene | Techionista op BNR

Leave a Reply

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.