Nu steeds meer bedrijven AI (Artificial Intelligence) gebruiken in hun HR-beleid, lopen mensen met een beperking het risico flink benadeeld te worden. Hoog tijd om meer bewustzijn te kweken en wet- en regelgeving aan te passen om het gebruik van AI op de werkvloer in goede banen te leiden.
Maar liefst acht van de tien grootste private Amerikaanse bedrijven gebruiken AI-software om de productiviteit van hun individuele werknemers te meten. Dit heeft grote gevolgen voor de miljoenen mensen wiens (digitale) activiteit beïnvloed wordt door hun beperking. Werkgevers zijn enthousiast over de software, omdat ze zo ‘nalatige’ werknemers zouden kunnen opspeuren, maar niemand heeft het over de aanpassingen die gedaan moeten worden zodat mensen met een beperking eerlijk worden beoordeeld.
Juridische uitdagingen
Het VN-verdrag Handicap, waarin de rechten van mensen met een beperking of chronische aandoening worden beschermd, kent de verplichting om aanpassingen te doen wanneer een persoon met een beperking daar om vraagt. De last ligt nu dus bij het individu die wordt benadeeld door een algoritme waarvan ze niet eens weet dat het bestaat. Mocht diegene wel kunnen aantonen dat er sprake is van ongelijke behandeling, dan is het bovendien de werkgever die daar op wordt aangesproken, niet de software-ontwikkelaar. Voor de ontwikkelaars is er in de huidige situatie bitter weinig stimulans om proactief na te denken over hoe hun software mensen met een beperking raakt.
Bevooroordeelde datasets
Een ander probleem is dat AI-software die bijvoorbeeld de persoonlijkheid van een sollicitant voorspelt naar aanleiding van diens cv en LinkedIn-profiel, zich baseert op statistische gemiddelden. Met de datasets die hiervoor gebruikt worden, zal zo’n 67% van mensen ‘goed’ scoren. Maar hoe verder iemand zich van de standaard bevindt, hoe slechter AI diegene zal kunnen inschatten en beoordelen. Dit is niet alleen slecht nieuws voor mensen met een beperking, maar voor iedereen die tot een minderheid behoort.
Wat nu?
We hebben dringend nieuwe wetgeving nodig om digitale discriminatie aan te pakken voordat technologie menselijke ethiek en redelijkheid compleet verdringt. Daarnaast moet dit thema onder de aandacht worden gebracht van werkgevers, softwareontwikkelaars en HR-directies. Voor hen stelden onderzoekers vier aanbevelingen op:
Denk na over de implementatie van elk softwaresysteem dat geen flexibiliteit biedt als het gaat om het monitoren of aannemen van werknemers.
Vraag een diverse groep van mensen met een beperking waar zij mogelijk tegenaan zouden lopen om zo het systeem vanuit meerdere perspectieven te bekijken.
Ga er vanuit dat er problemen zullen ontstaan en gebruik de software eerst tijdens een pilotfase om dit te ondervangen.
Zorg ervoor dat mensen melding kunnen maken als het nieuwe softwaresysteem hen uitsluit op grond van hun beperking en gebruik hun feedback om het systeem aan te passen.
Over het artikel
‘Artificial Intelligence Is Dangerous For Disabled People At Work: 4 Takeaways For Developers And Buyers’ werd onderzocht en geschreven door Nancy Doyle voor Forbes.
Uit grootschalig internationaal onderzoek blijkt dat (negatieve) vooroordelen over vrouwelijke leiders groeien. Jongere generaties houden er zelfs minder progressieve opvattingen op na dan hun ouders en grootouders.
Sommige mensen krijgen spontaan huiduitslag van een training in structureel racisme of het opzetten van een vrouwennetwerk op kantoor. Uit psychologisch onderzoek blijkt dat dit vaak leden van de heersende…
Harder moeten werken voor dezelfde promotie, minder goede beoordeling voor technische prestaties of een andere beoordeling voor hetzelfde gedrag zijn voorbeelden van genderbias.