Menu

Er wordt steeds meer gesproken over gebruik van algoritmes bij sollicitaties. Bedrijven en organisaties moeten weten wat de risico’s zijn. Het kan niet zo zijn dat een sollicitant op grond van door het algoritme aangeleerde bias wordt afgewezen, aldus de Vakcentrale voor Professionals (VCP).

Data-recruitment

De VCP heeft meegewerkt aan een aanpassing van de sollicitatiecode, waarin regels staan waaraan bedrijven en sollicitanten zich moeten houden. De aangepaste code is deze week aangeboden aan staatssecretaris Van Ark (SZW). Op verzoek van de VCP is er in de code een bepaling gekomen over het gebruik van data-recruitment, zoals algoritmes of kunstmatige intelligentie.

Vooroordelen

“Een algoritme kan van zichzelf nog zo goed zijn, als er in de ingevoerde data een bias zit, kan het toch misgaan”, zegt VCP-beleidsmedewerker Amerik Klapwijk. “Wat je er instopt, komt er in dan ook weer uit. Vooroordelen of discriminatoir gedrag uit het verleden kunnen dan onderdeel worden van de output van een algoritme. Dit kan verstrekkende gevolgen hebben voor mensen. Daar moet je als bedrijf van bewust zijn. Je moet weten waar je aan begint.”

Tekortkomingen

In de sollicitatiecode staat onder meer dat bedrijven moeten weten wat de mogelijke tekortkomingen zijn van de ingezette kunstmatige intelligentie. De toepassingen moeten dan ook transparant zijn. Mocht een door het algoritme afgewezen sollicitant een toelichting willen op de uitslag, dan moet hij die ook krijgen.

Laatste nieuws

Herdenken en de geest van Gestel

15 mei 2025

Herdenken en de geest van Gestel

Aangepast pensioenamendement lost niks op

14 mei 2025

Aangepast pensioenamendement lost niks op

Tweede Kamer stemt in met wijzigingen Participatiewet

13 mei 2025

Tweede Kamer stemt in met wijzigingen Participatiewet

Meer nieuws