Menu

Er wordt steeds meer gesproken over gebruik van algoritmes bij sollicitaties. Bedrijven en organisaties moeten weten wat de risico’s zijn. Het kan niet zo zijn dat een sollicitant op grond van door het algoritme aangeleerde bias wordt afgewezen, aldus de Vakcentrale voor Professionals (VCP).

Data-recruitment

De VCP heeft meegewerkt aan een aanpassing van de sollicitatiecode, waarin regels staan waaraan bedrijven en sollicitanten zich moeten houden. De aangepaste code is deze week aangeboden aan staatssecretaris Van Ark (SZW). Op verzoek van de VCP is er in de code een bepaling gekomen over het gebruik van data-recruitment, zoals algoritmes of kunstmatige intelligentie.

Vooroordelen

“Een algoritme kan van zichzelf nog zo goed zijn, als er in de ingevoerde data een bias zit, kan het toch misgaan”, zegt VCP-beleidsmedewerker Amerik Klapwijk. “Wat je er instopt, komt er in dan ook weer uit. Vooroordelen of discriminatoir gedrag uit het verleden kunnen dan onderdeel worden van de output van een algoritme. Dit kan verstrekkende gevolgen hebben voor mensen. Daar moet je als bedrijf van bewust zijn. Je moet weten waar je aan begint.”

Tekortkomingen

In de sollicitatiecode staat onder meer dat bedrijven moeten weten wat de mogelijke tekortkomingen zijn van de ingezette kunstmatige intelligentie. De toepassingen moeten dan ook transparant zijn. Mocht een door het algoritme afgewezen sollicitant een toelichting willen op de uitslag, dan moet hij die ook krijgen.

Laatste nieuws

AI Verordening verbiedt bepaalde AI op de werkplek vanaf 1 februari 2025

22 januari 2025

AI Verordening verbiedt bepaalde AI op de werkplek vanaf 1 februari 2025

Verander spelregels niet voor betrouwbare en uitvoerbare pensioentransitie

21 januari 2025

Verander spelregels niet voor betrouwbare en uitvoerbare pensioentransitie

Zorgen over de toegankelijkheid van kinder- en gastouderopvang

20 januari 2025

Zorgen over de toegankelijkheid van kinder- en gastouderopvang

Meer nieuws