Bias: Menselijke fouten
Datasets zelf zijn overigens niet kwaadaardig of per definitie fout. Het is aan de ontwikkelaars van een AI om die dataset op zo'n manier te gebruiken dat de resultaten naar wens zijn. Soms gebeurt het tegenovergestelde.
Wat dacht je bijvoorbeeld van Amazons rekruteringsalgoritme dat een voorkeur voor het aannemen van mannen had. De AI moest bepaalde woorden in CV's herkennen voor de selectie van potentiële werknemers. Dat waren woorden die achteraf veel vaker door mannen gebruikt bleken te worden, zo schreef Reuters. Er werden verouderde woordparameters gebruikt waardoor rekruteringspatronen van weleer werden herhaald.
Niet zo heel lang geleden hadden we in Nederland ook te maken met een klein AI-gerelateerd schandaaltje, genaamd de toeslagenaffaire. De Belastingdienst bleek op basis van een eigen risicoclassificatiemodel te discrimineren op basis van nationaliteit, aldus Tweakers. Dit foute en eventueel zelfs illegale gebruik van kunstmatige intelligentie zorgde voor het omvallen van kabinet-Rutte III.
Wederom werd dus een parameter - in dat geval nationaliteit - gebruikt die bevooroordeeld was. Ook hier kon het algoritme niet anders dan achteraf gezien 'foute' resultaten geven. De data was hier niet fout of goed. De gebruiker van de AI bleek een foute keuze te hebben gemaakt door bepaalde delen van de data wel of juist niet te gebruiken.