Menu
kunstmatige intelligentie

Er wordt steeds meer gesproken over gebruik van algoritmes bij sollicitaties. Bedrijven en organisaties moeten weten wat de risico’s zijn. Het kan niet zo zijn dat een sollicitant op grond van door het algoritme aangeleerde bias wordt afgewezen, aldus de Vakcentrale voor Professionals (VCP).

Data-recruitment

De VCP heeft meegewerkt aan een aanpassing van de sollicitatiecode, waarin regels staan waaraan bedrijven en sollicitanten zich moeten houden. De aangepaste code is deze week aangeboden aan staatssecretaris Van Ark (SZW). Op verzoek van de VCP is er in de code een bepaling gekomen over het gebruik van data-recruitment, zoals algoritmes of kunstmatige intelligentie.

Vooroordelen

“Een algoritme kan van zichzelf nog zo goed zijn, als er in de ingevoerde data een bias zit, kan het toch misgaan”, zegt VCP-beleidsmedewerker Amerik Klapwijk. “Wat je er instopt, komt er in dan ook weer uit. Vooroordelen of discriminatoir gedrag uit het verleden kunnen dan onderdeel worden van de output van een algoritme. Dit kan verstrekkende gevolgen hebben voor mensen. Daar moet je als bedrijf van bewust zijn. Je moet weten waar je aan begint.”

Tekortkomingen

In de sollicitatiecode staat onder meer dat bedrijven moeten weten wat de mogelijke tekortkomingen zijn van de ingezette kunstmatige intelligentie. De toepassingen moeten dan ook transparant zijn. Mocht een door het algoritme afgewezen sollicitant een toelichting willen op de uitslag, dan moet hij die ook krijgen.

Laatste nieuws

Los de hardheden in de WIA op en voorkom brede stelseldiscussie

23 april 2024

Los de hardheden in de WIA op en voorkom brede stelseldiscussie

VCP YP: Bijeenkomst over de nieuwe pensioenwet, ook voor jou relevant!

22 april 2024

VCP YP: Bijeenkomst over de nieuwe pensioenwet, ook voor jou relevant!

CRvB: Meer ruimte voor uitkeringsinstanties om af te zien van een terugvordering

22 april 2024

CRvB: Meer ruimte voor uitkeringsinstanties om af te zien van een terugvordering

Meer nieuws