Home » Blogs » Security Risk Management » Bias in AI: het verborgen vooroordeel
robot die met zijn metalen vinger een kubus aanraakt, waarop een weegschaal is afgebeeld. Deze afbeelding symboliseert hoe kunstmatige intelligentie (AI) bevooroordeeld kan zijn, waarbij de weegschaal dient als metafoor voor het balanceren van eerlijkheid en onpartijdigheid in AI-systemen.

Bias in AI: het verborgen vooroordeel

door | 22 jun, 2023 | Security Risk Management

Tegenwoordig horen we het overal: kunstmatige intelligentie, artificial intelligence of simpelweg AI. Sinds de komst van ChatGPT is het gebruik van AI in de maatschappij enorm gegroeid. Er is sprake van een exponentiële groei. Waar het eerst vooral gebruikt werd door onderzoekers en grote bedrijven, is AI nu toegankelijk voor iedereen en heeft de potentie om ons leven te verbeteren.. Eerder schreven wij al een blog over ChatGPT en de mogelijkheden van AI binnen het recruitment proces. Maar laten we eens stilstaan bij een belangrijke vraag: is AI echt neutraal? Helaas niet. AI-systemen zijn vatbaar voor bias, net zoals de mensen die ze ontwikkelen en trainen. In deze blog zullen we dieper ingaan op deze ‘bias’.

Bias

Bias in AI verwijst naar de onbedoelde en onevenredige vooroordelen die kunnen ontstaan in AI-systemen. Deze vooroordelen kunnen voortvloeien uit de gegevens die worden gebruikt om AI-systemen te trainen, de algoritmen die worden gebruikt om patronen te identificeren en de beslissingen die worden genomen op basis van deze patronen. Het is belangrijk om te begrijpen dat bias in AI niet opzettelijk is, maar eerder het resultaat van inherente vooroordelen die aanwezig zijn in de gegevens afkomstig uit de samenleving. Wij zijn ons vaak niet eens bewust van deze vooroordelen. Wanneer je een AI-tekenprogramma bijvoorbeeld vraagt om een professor te tekenen, zullen de meeste tekeningen van een witte man zijn. Dit is geen fout in de technologie, maar wordt veroorzaak door een bias in historische gegevens waarop het AI-systeem getraind is: professoren waren in het verleden voornamelijk witte mannen.

Waarom is bias in AI problematisch?

De bias in AI kan onschuldig lijken mar heeft aanzienlijke gevolgen voor individuen en gemeenschappen. Ten eerste kan het leiden tot onrechtvaardige behandeling en discriminatie. Bijvoorbeeld, als een wervingsalgoritme wordt getraind op basis van historische gegevens waarin bepaalde groepen ondervertegenwoordigd zijn, kan het de neiging hebben om vergelijkbare kandidaten te negeren, zelfs als ze gekwalificeerd zijn. Dit leidt tot een versterking van bestaande ongelijkheden en beperkt de kansen voor bepaalde groepen.

Ten tweede kan bias in AI ook schadelijke stereotypen versterken. Als een beeldherkenningssysteem bijvoorbeeld voornamelijk getraind is met afbeeldingen van mannen, zal dit systeem vrouwen eerder misclassificeren of onzichtbaar maken. Dit kan leiden tot een verkeerde weergave van de werkelijkheid en het versterken van ongelijkheid. De documentaire ‘Coded Bias’ toont hoe een wetenschapster enkel herkend werd door een gezichtsanalysesysteem wanneer zij een wit masker opzette. Dit gebeurde omdat het systeem voornamelijk getraind was op witte mannen.

Black box

Om deze bias uit de AI-systemen te halen, is het belangrijk om te weten waarop een systeem zijn keuzes baseert. Dit is helaas een probleem omdat de AI-systemen die zelf patronen en verbanden leren niet altijd transparant zijn. Deze systemen leren vaak complexe verbanden die voor mensen lastig te begrijpen zijn. Hierdoor wordt het moeilijk om precies te begrijpen hoe en waarom een AI-systeem bepaalde beslissingen neemt of vooroordelen vertoont.

Conclusie

AI-systemen zullen de komende jaren een steeds grotere rol spelen in onze maatschappij. Helaas is er momenteel nog geen oplossing voor de bias in deze AI-systemen. Daarom moeten we als maatschappij ook onze verantwoordelijkheid nemen bij het gebruik van AI. We moeten ons bewust zijn van de potentiële vooroordelen in AI-systemen en kritisch blijven nadenken over de resultaten en beslissingen die ze genereren. Door bewustzijn te creëren, kunnen we een bredere discussie aanmoedigen en mensen in staat stellen om geïnformeerde keuzes te maken over het gebruik van AI.

De menselijke factor blijft dus voorlopig onmisbaar. In onze blog over AI in het recruitmentproces benadrukten wij al eens hoe belangrijk een menselijke beoordeling is bij het selecteren van een goede kandidaat. Niet alleen vanwege de vooroordelen in de AI-systemen, maar ook omdat AI-systemen niet in staat zijn om bepaalde eigenschappen of vaardigheden te beoordelen.

Gerelateerde artikelen

Fraude een stap voor zijn

Fraude een stap voor zijn

In deze blog bespreken we het belang van het proactief aanpakken van fraude door middel van Security Risk Management. We bieden inzicht in het proces van risicobeoordeling en het mitigeren van risico’s.

lees verder

0 Reacties

Verzend een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Tweet
Share
Share
Pin