Kunstmatige intelligentie ontwikkelt zich in een razend tempo, maar tegelijkertijd groeit de bezorgdheid over bias in AI-systemen. In een recente aflevering van de greatminds podcast bespraken Hildo van Es en Robin Smits hoe vooroordelen in AI-modellen ontstaan en welke strategieën organisaties kunnen inzetten om deze te minimaliseren. Want hoewel volledige eliminatie van bias vrijwel onmogelijk lijkt, zijn er wel degelijk effectieve methoden om het probleem aan te pakken.
Wat is bias in AI precies?
Bias in AI verwijst naar systematische vooroordelen die in AI-modellen terechtkomen via de data waarmee ze getraind worden. Deze vooroordelen kunnen gebaseerd zijn op gender, etniciteit, religie, beroepsgroep of andere demografische kenmerken. Als deze bias niet wordt aangepakt, kan het AI-systeem onethisch gedrag vertonen of discriminerende beslissingen nemen.
“De meeste datasets die gebruikt worden om LLM-modellen te trainen, zijn gemaakt op basis van web scraping. En als er iets is dat mensen zijn, dan is het bevooroordeeld. In dat opzicht zou je kunnen zeggen dat die data representatief is voor de mensheid. Maar wil je dat in je AI-modellen? Nee.” — Robin Smits
Waar komt bias in AI-systemen vandaan?
De oorzaken van bias in AI zijn voornamelijk te vinden in het beginstadium van AI-ontwikkeling. Het probleem begint bij de datacollectie. Zoals het bekende gezegde luidt: “garbage in is garbage out.” Dit geldt in extreme mate voor AI-modellen, vooral de grote taalmodellen (LLMs) die tekst genereren.
Bij web scraping worden enorme hoeveelheden tekst van het internet verzameld. Deze teksten bevatten vaak de vooroordelen van hun menselijke auteurs. Als deze vooroordelen niet worden gefilterd, leert het AI-model deze patronen en reproduceert ze in zijn output.

Kunnen AI-modellen minder bevooroordeeld zijn dan mensen?
Sommigen beweren dat AI minder bevooroordeeld kan zijn dan mensen, omdat AI zelf geen meningen heeft. Er zit een kern van waarheid in deze stelling. Een AI wordt getraind op de data die je erin stopt, en als je deze data kunt ontdoen van bias, dan zou je in theorie een neutraal model kunnen trainen.
Dit is echter praktisch zeer moeilijk te realiseren. Zelfs geavanceerde modellen zoals GPT-4 vertonen nog steeds een beperkte vorm van bias, ondanks alle inspanningen van ontwikkelaars om dit te beperken.
Welke regelgeving bestaat er rond AI en bias?
Overheden nemen steeds meer stappen om AI te reguleren en bias tegen te gaan:
- EU AI Act: Een breed regulerend kader met verschillende uitgangspunten om ethische AI te bevorderen.
- Amerikaanse frameworks: De VS komt met eigen kaders om AI-bedrijven te reguleren.
- Zelfregulering: Grote techbedrijven zoals Microsoft hebben al sinds 2017 eigen ethische kaders ontwikkeld.
De kernprincipes die in deze regelgeving terugkomen zijn dat AI-systemen ethisch, verantwoordelijk, inclusief, betrouwbaar, veilig, verklaarbaar en transparant moeten zijn, met respect voor privacy.
Hoe kunnen we bias in AI verminderen?
Hoewel volledige eliminatie van bias vrijwel onmogelijk is, zijn er verschillende methoden om het probleem te beperken:
1. Zorgvuldige dataselectie en -filtering
- Privacy-gevoelige gegevens anonimiseren
- Filteren op vooroordelen rond gender, religie, etniciteit, etc.
- Automatische classificatie van teksten om problematische inhoud te identificeren
2. Model alignment
Na de initiële training van een model (pre-training) volgt een proces van ‘model alignment’. Hierbij wordt de output van het model beoordeeld door mensen, die aangeven welke antwoorden gewenst zijn en welke niet. Dit is vergelijkbaar met hoe je een kind iets leert door het te corrigeren.
3. Continue monitoring
Als een AI-systeem eenmaal in productie is, is het cruciaal om het te blijven monitoren:
- Geautomatiseerde modellen die de output controleren
- Gebruikersfeedback via thumbs up/down systemen
- Regelmatige evaluatie en bijsturing
De toekomst van ethische AI
Bias is een van de grootste uitdagingen binnen machine learning en AI. Het kan leiden tot sociale problemen en oneerlijke behandeling van bepaalde groepen. Hoewel we bias niet volledig kunnen elimineren, kunnen we met de juiste aanpak en voortdurende waakzaamheid de impact ervan aanzienlijk verminderen.
Het is bemoedigend dat zowel overheden als techbedrijven het probleem serieus nemen en stappen ondernemen om AI ethischer en rechtvaardiger te maken. Met de juiste regelgeving, technische oplossingen en continue monitoring kunnen we ervoor zorgen dat AI een positieve kracht in onze samenleving blijft.
Deze blog is gebaseerd op aflevering 2 (2024) van de greatminds podcast met Hildo van Es en Robin Smits. Beluister de volledige aflevering van de podcast Uitdagingen en strategieën tegen bias in AI