Security Risk Management

Bias in AI: het verborgen vooroordeel

Tegenwoordig horen we het overal: kunstmatige intelligentie, artificial intelligence of simpelweg AI. Sinds de komst van ChatGPT is het gebruik van AI in de maatschappij enorm gegroeid. Er is sprake van een exponentiële groei. Waar het eerst vooral gebruikt werd door onderzoekers en grote bedrijven, is AI nu toegankelijk voor iedereen en heeft de potentie om ons leven te verbeteren.. Eerder schreven wij al een blog over ChatGPT en de mogelijkheden van AI binnen het recruitment proces. Maar laten we eens stilstaan bij een belangrijke vraag: is AI echt neutraal? Helaas niet. AI-systemen zijn vatbaar voor bias, net zoals de mensen die ze ontwikkelen en trainen. In deze blog zullen we dieper ingaan op deze ‘bias’.

Bias

Bias in AI verwijst naar de onbedoelde en onevenredige vooroordelen die kunnen ontstaan in AI-systemen. Deze vooroordelen kunnen voortvloeien uit de gegevens die worden gebruikt om AI-systemen te trainen, de algoritmen die worden gebruikt om patronen te identificeren en de beslissingen die worden genomen op basis van deze patronen. Het is belangrijk om te begrijpen dat bias in AI niet opzettelijk is, maar eerder het resultaat van inherente vooroordelen die aanwezig zijn in de gegevens afkomstig uit de samenleving. Wij zijn ons vaak niet eens bewust van deze vooroordelen. Wanneer je een AI-tekenprogramma bijvoorbeeld vraagt om een professor te tekenen, zullen de meeste tekeningen van een witte man zijn. Dit is geen fout in de technologie, maar wordt veroorzaak door een bias in historische gegevens waarop het AI-systeem getraind is: professoren waren in het verleden voornamelijk witte mannen.

Waarom is bias in AI problematisch?

De bias in AI kan onschuldig lijken mar heeft aanzienlijke gevolgen voor individuen en gemeenschappen. Ten eerste kan het leiden tot onrechtvaardige behandeling en discriminatie. Bijvoorbeeld, als een wervingsalgoritme wordt getraind op basis van historische gegevens waarin bepaalde groepen ondervertegenwoordigd zijn, kan het de neiging hebben om vergelijkbare kandidaten te negeren, zelfs als ze gekwalificeerd zijn. Dit leidt tot een versterking van bestaande ongelijkheden en beperkt de kansen voor bepaalde groepen.

Ten tweede kan bias in AI ook schadelijke stereotypen versterken. Als een beeldherkenningssysteem bijvoorbeeld voornamelijk getraind is met afbeeldingen van mannen, zal dit systeem vrouwen eerder misclassificeren of onzichtbaar maken. Dit kan leiden tot een verkeerde weergave van de werkelijkheid en het versterken van ongelijkheid. De documentaire ‘Coded Bias’ toont hoe een wetenschapster enkel herkend werd door een gezichtsanalysesysteem wanneer zij een wit masker opzette. Dit gebeurde omdat het systeem voornamelijk getraind was op witte mannen.

Black box

Om deze bias uit de AI-systemen te halen, is het belangrijk om te weten waarop een systeem zijn keuzes baseert. Dit is helaas een probleem omdat de AI-systemen die zelf patronen en verbanden leren niet altijd transparant zijn. Deze systemen leren vaak complexe verbanden die voor mensen lastig te begrijpen zijn. Hierdoor wordt het moeilijk om precies te begrijpen hoe en waarom een AI-systeem bepaalde beslissingen neemt of vooroordelen vertoont.

Conclusie

AI-systemen zullen de komende jaren een steeds grotere rol spelen in onze maatschappij. Helaas is er momenteel nog geen oplossing voor de bias in deze AI-systemen. Daarom moeten we als maatschappij ook onze verantwoordelijkheid nemen bij het gebruik van AI. We moeten ons bewust zijn van de potentiële vooroordelen in AI-systemen en kritisch blijven nadenken over de resultaten en beslissingen die ze genereren. Door bewustzijn te creëren, kunnen we een bredere discussie aanmoedigen en mensen in staat stellen om geïnformeerde keuzes te maken over het gebruik van AI.

De menselijke factor blijft dus voorlopig onmisbaar. In onze blog over AI in het recruitmentproces benadrukten wij al eens hoe belangrijk een menselijke beoordeling is bij het selecteren van een goede kandidaat. Niet alleen vanwege de vooroordelen in de AI-systemen, maar ook omdat AI-systemen niet in staat zijn om bepaalde eigenschappen of vaardigheden te beoordelen.

Delen
Gepubliceerd door:
Veerle de Beurs

Recente artikelen

De sleutel tot cybersecurity: pentesten

Een verkenning in pentesten: Het beveiligen van systemen met ethical hacking In een tijdperk waarin…

4 maanden geleden

BKR ontrafeld; waarom BKR-informatie van essentieel belang is in het screenproces

BKR-registratie biedt inzicht in iemands financiële situatie, zowel positieve als negatieve aspecten. Dit helpt werkgevers…

11 maanden geleden

Security awareness: bewust opzoek naar onbewust nalatigen.

Verhoog uw security awareness en voorkom nalatigheid bij cybersecurity. Leer de risico's en uw rol…

11 maanden geleden

Waarheidsvinding door gesprekstechnieken

Het belang van effectieve gesprekstechnieken voor waarheidsvinding in een screening- of rechercheonderzoek en nuttige tips.

11 maanden geleden

Oh nee, de sollicitant heeft een veroordeling. Wat nu?

Hoe ga je als werkgever om met een sollicitant met een veroordeling? Hoe maak je…

12 maanden geleden