Forbes

Is AI gevaarlijk voor mensen met een beperking?

Nu steeds meer bedrijven AI (Artificial Intelligence) gebruiken in hun HR-beleid, lopen mensen met een beperking het risico flink benadeeld te worden. Hoog tijd om meer bewustzijn te kweken en wet- en regelgeving aan te passen om het gebruik van AI op de werkvloer in goede banen te leiden.

Maar liefst acht van de tien grootste private Amerikaanse bedrijven gebruiken AI-software om de productiviteit van hun individuele werknemers te meten. Dit heeft grote gevolgen voor de miljoenen mensen wiens (digitale) activiteit beïnvloed wordt door hun beperking. Werkgevers zijn enthousiast over de software, omdat ze zo ‘nalatige’ werknemers zouden kunnen opspeuren, maar niemand heeft het over de aanpassingen die gedaan moeten worden zodat mensen met een beperking eerlijk worden beoordeeld.

Juridische uitdagingen

Het VN-verdrag Handicap, waarin de rechten van mensen met een beperking of chronische aandoening worden beschermd, kent de verplichting om aanpassingen te doen wanneer een persoon met een beperking daar om vraagt. De last ligt nu dus bij het individu die wordt benadeeld door een algoritme waarvan ze niet eens weet dat het bestaat. Mocht diegene wel kunnen aantonen dat er sprake is van ongelijke behandeling, dan is het bovendien de werkgever die daar op wordt aangesproken, niet de software-ontwikkelaar. Voor de ontwikkelaars is er in de huidige situatie bitter weinig stimulans om proactief na te denken over hoe hun software mensen met een beperking raakt.

Bevooroordeelde datasets

Een ander probleem is dat AI-software die bijvoorbeeld de persoonlijkheid van een sollicitant voorspelt naar aanleiding van diens cv en LinkedIn-profiel, zich baseert op statistische gemiddelden. Met de datasets die hiervoor gebruikt worden, zal zo’n 67% van mensen ‘goed’ scoren. Maar hoe verder iemand zich van de standaard bevindt, hoe slechter AI diegene zal kunnen inschatten en beoordelen. Dit is niet alleen slecht nieuws voor mensen met een beperking, maar voor iedereen die tot een minderheid behoort.

Wat nu?

We hebben dringend nieuwe wetgeving nodig om digitale discriminatie aan te pakken voordat technologie menselijke ethiek en redelijkheid compleet verdringt. Daarnaast moet dit thema onder de aandacht worden gebracht van werkgevers, softwareontwikkelaars en HR-directies. Voor hen stelden onderzoekers vier aanbevelingen op:

  • Denk na over de implementatie van elk softwaresysteem dat geen flexibiliteit biedt als het gaat om het monitoren of aannemen van werknemers.
  • Vraag een diverse groep van mensen met een beperking waar zij mogelijk tegenaan zouden lopen om zo het systeem vanuit meerdere perspectieven te bekijken.
  • Ga er vanuit dat er problemen zullen ontstaan en gebruik de software eerst tijdens een pilotfase om dit te ondervangen.
  • Zorg ervoor dat mensen melding kunnen maken als het nieuwe softwaresysteem hen uitsluit op grond van hun beperking en gebruik hun feedback om het systeem aan te passen.

Over het artikel

‘Artificial Intelligence Is Dangerous For Disabled People At Work: 4 Takeaways For Developers And Buyers’ werd onderzocht en geschreven door Nancy Doyle voor Forbes.

Gerelateerde artikelen

NRC

Bonus voor voltijd werk gaat niet alle vrouwen motiveren

Vrouwen die minder gaan werken als ze kinderen krijgen, blijven dat vaak zo doen. Ook als de kinderen ouder en zelfstandiger zijn. Het beleid om deze groep vrouwen te stimuleren…
AG Connect

Best practice Ordina: omgaan met neurodivergente werknemers

Neurodivergente werknemers worden vaak als anders gezien en voelen zich hierdoor minder thuis in een organisatie. Hoe kun je hier als werkgever mee omgaan en waar moet je rekening mee…
MT/Sprout

Lhbtq+ in de top

Melchior de Ridder, oprichter van de G.E.O. (Gay Executive Officer) Foundation, zet zich in voor een betere vertegenwoordiging van lhbtq+-personen op senior leiderschapsniveau in Nederland.