Artificiële intelligentie: medeplichtig in genderstereotypering?

door Rebelle

Maak je ook wel eens gebruik van artificiële intelligentie? Als je laatst nog ChatGPT vroeg een samenvatting te maken, een vraag stelde aan Alexa of Siri of met een klantenservice chatbot hebt gesproken dan is het antwoord op deze vraag ja. Wist je dat de antwoorden die je krijgt niet altijd even neutraal zijn? Zoals blijkt uit onderzoek van UNESCO vertonen de grote taalmodellen (LLM’s), tools die de voorgenoemde software mogelijk maken, geregeld vooroordelen op het gebied van gender.

Dit artikel bevat veel vakjargon. Raadpleeg de verklarende woordenlijst onderaan voor extra duiding.

UNESCO testte eerder dit jaar op enkele prominente AI-platformen (waaronder META’s Llama 2 en OpenAI’s GPT-3.5 en GPT-2) welke termen deze platformen associëren met vrouwen, homoseksuele personen en personen van kleur. Wat bleek: een sterke bias voor de witte, heteroseksuele man. De AI-software linkte vrouwen voornamelijk aan zorgtermen en gestigmatiseerde of ondergewaardeerde beroepen, zoals ‘verpleegster’, ‘familie’, ‘kinderen’, ‘prostituee’ en ‘huishoudster’. Mannen, daarentegen, associeerde de AI-software eerder met beroepen en termen gelinkt aan een hoge economische en sociale status. Journalist Leonardo Nicoletti, die werkt rond datavisualisatie bij Bloomberg, voerde een gelijkaardig onderzoek uit. Hij vroeg AI-software om afbeeldingen van rechters te tonen. Slechts 3% van de gegenereerde afbeeldingen vertoonden vrouwelijke rechters. 

Stereotypen en gendernormen in de samenleving

Een genderbias in AI bestaat niet in een vacuüm, maar bouwt verder op de stereotypen en gendernormen in de samenleving. Bovendien is deze genderbias niet enkel een reflectie van deze stereotypen maar eerder een vergroting, stelt Nicoletti. Deze genderbias komt tot stand doordat bedrijven gebrekkige datasets gebruiken bij de trainingsprocessen van AI. Deze datasets zijn vaak onvolledig: er is onvoldoende vrouwelijke representatie. Als deze representatie wel aanwezig is dan is deze vaak heel stereotiep. Hierdoor maakt AI verschillende fouten wanneer deze software effectief met vrouwelijke stemmen of gezichten in contact komt. 

Bovendien zijn het voornamelijk mannen die AI-software ontwerpen. Vrouwen maken namelijk nog steeds een té klein deel uit van de IT-sector. Onderzoekers voor UNESCO toonden bijvoorbeeld aan dat slechts 12% van alle AI-onderzoekers en 6% van alle softwareontwikkelaars vrouwen zijn. Dit gebrek aan representatie vertaalt zich in onbewuste genderstereotypen en traditionele gendernormen in AI-trainingsdatasets en tot gevolg ook in AI zelf. 

Waarom is dit nu een probleem?

Op de arbeidsmarkt, bijvoorbeeld, brengt deze genderbias in AI gevaarlijke gevolgen met zich mee. AI die werd getraind op basis van mannelijke profielen, selecteert ook enkel cv’s van mannen. Hierdoor worden vrouwen veel minder vaak gekozen in het rekruteringproces. Voor de vrouwen die wél al een job uitoefenen, vormt AI-technologie ook een gevaar. Onderzoekers van McKinsey, een Amerikaans consultatiebureau voor organisaties, stellen dat vrouwen in de VS in de nabije toekomst anderhalf meer kans hebben dan mannen om in hun werk door artificiële intelligentie vervangen te worden. 

Ook rond gendersensitieve geneeskunde, een belangrijk thema binnen de werking van Rebelle, bestaan er nog veel gebreken in AI. Wanneer gezondheidswerkers bijvoorbeeld AI hanteren om symptomen bij vrouwen te analyseren, lopen ze het risico zaken zoals hartaandoeningen niet te herkennen. Dit komt doordat het systeem geprogrammeerd is met behulp van data van symptomen bij mannen. Deze klachten verschillen echter van die van vrouwen. Het gebrek aan onderzoek naar vrouwelijke symptomen bij hart- en vaatziekten is buiten de wereld van AI ook al een nijpend probleem. Luister zeker naar de podcast Rebelle Openhartig als je hier graag meer over wilt weten. 

De minderheidsgroepen in AI

Vrouwen zijn echter niet de enige minderheidsgroep die door AI gestereotypeerd en amper gerepresenteerd wordt. Ook homofobie en raciale stigmatisering komen geregeld voor. Wanneer UNESCO-onderzoekers aan de AI-platformen vroegen om termen te linken aan homoseksualiteit, hadden 60 tot 70% van deze termen een negatieve connotatie. Personen van kleur associeert AI geregeld met beroepen met een lagere status dan de beroepen bij witte personen. Ook wanneer luchthavens of overheidsinstanties AI inzetten voor gezichtserkenning, erkent deze software non-binaire personen, transgenderpersonen en personen van kleur niet of categoriseert de software deze personen op een foutieve manier. Dit gebeurt vanwege de genderbinaire, witte datasets waar programmeurs de AI-software mee trainen.

Het is echter geen volledig negatief verhaal. Belgische AI-bedrijven hebben significant meer vrouwelijke CEO’s of oprichters dan andere technologiebedrijven: in België zijn 13% van de leidinggevenden en eigenaars van AI-bedrijven vrouwen (14,8% in Vlaanderen) ten opzichte van slechts 9,5% in andere technologiebedrijven. Op het gebied van vrouwen in AI staat België een stuk voor op andere Europese landen. Bovendien bestaan er verschillende initiatieven die de representatie van vrouwen in STEM en AI bevorderen. Kijk maar naar de #STEMhelden-campagne uit 2020, het non-profit initiatief Women in AI (WAI) en de non-profit organisatie InspiringFifty Belgium. Deze initiatieven aanmoedigen en ondersteunen is dus de boodschap als we de (gender)bias in AI de wereld uit willen helpen. 

 

Dit artikel is geschreven door Elisa De Jonge.

 

Verklarende woordenlijst
 
Artificiële of kunstmatige intelligentie (AI)Een vorm van technologie die menselijke intelligentie imiteert.
  
BiasEen (on)bewuste vooringenomenheid voor of stereotypering van een bepaalde groep. Een voorbeeld hiervan is een genderbias.  
  
DatavisualisatieHet weergeven en interpreteren van gegevens. 
  
Gendersensitieve geneeskundePraktijken binnen de gezondheidszorg en geneeskunde die genderverschillen mee in rekening nemen. 
  
Grote taalmodellen (LLM’s)Een vorm van artificiële intelligentie die gebruikt wordt om teksten te interpreteren, samen te vatten en te reproduceren. Voorbeelden hiervan zijn META’s Llama 2 en OpenAI’s GPT-3.5 en GPT-2.
  
IT-sectorEen economische sector die draait rond informatietechnologie. 
  
META en OpenAIAmerikaanse bedrijven die AI gebruiken en produceren.
  
SoftwareProgramma’s op een computer.
logo viva-svv

De inhoud van de site kan veranderen naargelang je een andere regio kiest.