Forbes

Is AI gevaarlijk voor mensen met een beperking?

Nu steeds meer bedrijven AI (Artificial Intelligence) gebruiken in hun HR-beleid, lopen mensen met een beperking het risico flink benadeeld te worden. Hoog tijd om meer bewustzijn te kweken en wet- en regelgeving aan te passen om het gebruik van AI op de werkvloer in goede banen te leiden.

Maar liefst acht van de tien grootste private Amerikaanse bedrijven gebruiken AI-software om de productiviteit van hun individuele werknemers te meten. Dit heeft grote gevolgen voor de miljoenen mensen wiens (digitale) activiteit beïnvloed wordt door hun beperking. Werkgevers zijn enthousiast over de software, omdat ze zo ‘nalatige’ werknemers zouden kunnen opspeuren, maar niemand heeft het over de aanpassingen die gedaan moeten worden zodat mensen met een beperking eerlijk worden beoordeeld.

Juridische uitdagingen

Het VN-verdrag Handicap, waarin de rechten van mensen met een beperking of chronische aandoening worden beschermd, kent de verplichting om aanpassingen te doen wanneer een persoon met een beperking daar om vraagt. De last ligt nu dus bij het individu die wordt benadeeld door een algoritme waarvan ze niet eens weet dat het bestaat. Mocht diegene wel kunnen aantonen dat er sprake is van ongelijke behandeling, dan is het bovendien de werkgever die daar op wordt aangesproken, niet de software-ontwikkelaar. Voor de ontwikkelaars is er in de huidige situatie bitter weinig stimulans om proactief na te denken over hoe hun software mensen met een beperking raakt.

Bevooroordeelde datasets

Een ander probleem is dat AI-software die bijvoorbeeld de persoonlijkheid van een sollicitant voorspelt naar aanleiding van diens cv en LinkedIn-profiel, zich baseert op statistische gemiddelden. Met de datasets die hiervoor gebruikt worden, zal zo’n 67% van mensen ‘goed’ scoren. Maar hoe verder iemand zich van de standaard bevindt, hoe slechter AI diegene zal kunnen inschatten en beoordelen. Dit is niet alleen slecht nieuws voor mensen met een beperking, maar voor iedereen die tot een minderheid behoort.

Wat nu?

We hebben dringend nieuwe wetgeving nodig om digitale discriminatie aan te pakken voordat technologie menselijke ethiek en redelijkheid compleet verdringt. Daarnaast moet dit thema onder de aandacht worden gebracht van werkgevers, softwareontwikkelaars en HR-directies. Voor hen stelden onderzoekers vier aanbevelingen op:

  • Denk na over de implementatie van elk softwaresysteem dat geen flexibiliteit biedt als het gaat om het monitoren of aannemen van werknemers.
  • Vraag een diverse groep van mensen met een beperking waar zij mogelijk tegenaan zouden lopen om zo het systeem vanuit meerdere perspectieven te bekijken.
  • Ga er vanuit dat er problemen zullen ontstaan en gebruik de software eerst tijdens een pilotfase om dit te ondervangen.
  • Zorg ervoor dat mensen melding kunnen maken als het nieuwe softwaresysteem hen uitsluit op grond van hun beperking en gebruik hun feedback om het systeem aan te passen.

Over het artikel

‘Artificial Intelligence Is Dangerous For Disabled People At Work: 4 Takeaways For Developers And Buyers’ werd onderzocht en geschreven door Nancy Doyle voor Forbes.

Gerelateerde artikelen

Forbes

Zichtbare versus onzichtbare handicaps op de werkvloer

Veel handicaps zijn niet direct zichtbaar. Dit levert voor werkgevers op de werkvloer uitdagingen op dit te herkennen en te begrijpen.
Equalture

13 voordelen van diversiteit op de werkvloer

De 13 vooroordelen van diversiteit, onderbouwd met onderzoek en statistieken door Equalture.
Wired

De vrouwvriendelijke arbeidsmarkt

Vrouwelijke werknemers worden overvraagd, onderbetaald en ongelijk behandeld. Met een wereldwijd arbeidstekort en enorme nood aan (mantel)zorg moeten leiders nú investeren in een nieuw, vrouwvriendelijk systeem.