Home » Blogs » Fraude » Deepfake Technologie: Risico’s en Veiligheid in het Sollicitatieproces
Een illustratie van deepfake technologie waarbij via digitale bewerking een gezicht op een ander lichaam is geplakt, wat de mogelijkheid van identiteitsvervalsing door deze technologie benadrukt

Deepfake Technologie: Risico’s en Veiligheid in het Sollicitatieproces

door | 21 apr, 2023 | Fraude, Screenen, Security Awareness

Heeft u al eens gehoord van deepfake technologie? Dit is een relatief nieuwe ontwikkeling waarbij gezichten en stemmen van personen kunnen worden nagebootst. Zo was de paus vorige maand bijvoorbeeld te zien in een pufferjas. Deze technologie wordt steeds geavanceerder. Hoewel deepfake technologie op het eerste gezicht onschuldig kan lijken, zijn er ernstige zorgen over hoe het kan worden gebruikt.

Fake it till you make it

De technologie is niet nieuw. Zo is het bijvoorbeeld al een aantal jaren mogelijk om met een Snapchat filter iemand konijnenoren of een hondensnuit te geven. De afgelopen jaren is de technologie verder ontwikkeld waardoor het nu zelfs mogelijk is een compleet nieuw gezicht of nieuwe stem aan te nemen.

De technologie kent vele mooie toepassingen, bijvoorbeeld door de mogelijkheid om digitaal een gesprek te voeren met wie je maar wilt. Hoe mooi zou het bijvoorbeeld zijn om een overleden dierbare nog een keer te kunnen spreken? Dit werd een aantal jaar geleden mogelijk met behulp van Deepfake Therapy. Via een interactief videogesprek lijkt het alsof je contact hebt met de overledene, terwijl je in werkelijkheid een gesprek voert met iemand anders die met behulp van deepfake technologie het gezicht en de stem van de overledene krijgt. Hiervoor is enkel een foto en een kort stemfragment van de overledene nodig.

Fictieve werknemers

Helaas kent deepfake technologie ook negatieve toepassingen. Zo werd in november 2022 een man opgepakt die een neppornovideo maakte met Welmoed Sijtsma. Via de deepfake technologie monteerde de man het gezicht van Welmoed Sijtsma op het lichaam van een porno-actrice.

Daarnaast is er een nieuw fenomeen dat de aandacht trekt: de opkomst van deepfake sollicitanten. Een deepfake sollicitant is iemand die geavanceerde deepfake technologieën gebruikt om neppe video’s te maken die lijken op sollicitatiegesprekken of andere zakelijke interacties. De video’s zijn zo goed gemaakt dat het moeilijk is om te zien dat ze nep zijn. Kwaadwillende individuen kunnen bedrijven misleiden door gestolen persoonsgegevens te combineren met deze technologie. De bedoeling is om in aanmerking te komen voor een baan waar ze eigenlijk niet geschikt voor zijn. De belangrijkste drijfveren zijn de toegang tot gegevens van bedrijven en personen, die vervolgens verkocht kunnen worden. Deze vorm van fraude komt vooral voor bij banen waar thuiswerken de norm is.

Voorkom verrassingen

Het is daarom van belang om het menselijk contact te benadrukken bij het aannemen van nieuwe werknemers. In een eerdere blog beschreven wij al eens hoe belangrijk persoonlijk contact is. Hoewel technologie zeker kan bijdragen aan het sollicitatieproces, blijft het essentieel om de kandidaten persoonlijk te spreken en te beoordelen. Het hebben van face-to-face gesprekken kan helpen om een beter beeld te krijgen van de kandidaat en om te bepalen of de persoon daadwerkelijk geschikt is voor de functie.

Daarnaast is het belangrijk om bij de sollicitatieprocedure niet alleen te letten op de inhoud van het curriculum vitae en het digitale contact met de kandidaat, maar ook op andere aspecten zoals een referentenonderzoek. Hierin biedt een uitgebreide screening de uitkomst. Een pre-employment screening kan bijvoorbeeld bestaan uit het verifiëren van de identiteit van de sollicitant, het controleren van referenties en het uitvoeren van een achtergrondcontrole. Door het menselijke aspect in de sollicitatieprocedure te behouden en een uitgebreide screening uit te voeren, kan het risico op het aannemen van ongeschikte kandidaten worden verminderd.

Onderscheid maken tussen echt en nep tijdens digitale gesprekken

Mocht u onverhoopt in een situatie terechtkomen waarbij u tijdens een digitaal videogesprek twijfels hebt over de authenticiteit van de persoon met wie u een gesprek voert, of is het niet mogelijk om met een kandidaat spontaan te (video)bellen maar alleen op vooraf afgesproken tijden? Dan zijn er gelukkig stappen die u direct kunt ondernemen. Vraag de persoon bijvoorbeeld om een hand voor het gezicht te wuiven of een keer snel om te draaien. De technologie kan deze snelle veranderingen nog niet bijhouden waardoor het echte gezicht tijdelijk zichtbaar wordt.

Kortom, hoewel deepfake technologie vele toepassingen heeft, is het belangrijk om bewust te zijn van de mogelijke gevaren ervan. Wees voorzichtig bij het aannemen van nieuwe werknemers en laat u niet alleen leiden door online communicatie. Het belang van menselijk contact en een gedegen pre-employment screening kunnen hierbij helpen om de risico’s te beperken. Bij Levent Bedrijfsrecherche richten wij ons op persoonlijk contact met de kandidaten en hebben wij vele jaren ervaring op het gebied van screeningen. Laten we samen verantwoordelijkheid nemen voor het gebruik van technologie en zorgen voor een veilige werkomgeving!

Gerelateerde artikelen

Veilige zorg in het geding door vervalste diploma’s

Veilige zorg in het geding door vervalste diploma’s

De krapte op de arbeidsmarkt stelt zorginstellingen voor grote dilemma’s. Het krijgen van geschoold en kundig personeel is lastig, maar de zorgtaak gaat door. En dus staan zorginstellingen voor de keuze: ga je voor zoveel mogelijk handjes om de zorg te kunnen verlenen of zoek je verder naar geschoold personeel om kwalitatieve en veilige zorg te waarborgen? Deze dilemma’s worden door fraudeurs als kans aangepakt. In 2022 kreeg de Inspectie Gezondheidszorg en Jeugd (IGJ) twee keer zoveel meldingen als eerdere jaren van vervalste diploma’s en certificaten. En ook de Verklaring Omtrent het Gedrag (VOG) wordt vervalst.

lees verder

0 Reacties

Verzend een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Tweet
Share
Share
Pin