Het gevaar van AI is bias: Zes experts over de paradox van kunstmatige intelligentie

Inhoudsopgave
  1. 1. Inleiding
  2. 2. Is kunstmatige intelligentie magie of wiskunde?
  3. 3. De kogel, het pistool en het doelwit
  4. 4. Bias: Shit in, shit out
  5. 5. Bias: Menselijke fouten
  6. 6. Bias: Filterbubbel op de loer
  7. 7. Goede bias
  8. 8. 'Explainability is een farce'
  9. 9. Bias is onvermijdelijk
  10. 10. Ethiek en verantwoordelijkheid
  11. 11. AI checkt AI
  12. 12. Conclusie

De kogel, het pistool en het doelwit

Waarom is kunstmatige intelligentie per definitie onvolmaakt vanwege de mens? Dat heeft met het principe bias te maken. Iedere stap in de ontwikkeling van een AI-toepassing is onderhevig aan menselijke vooroordelen; van de manier waarop data verzameld wordt tot de manier waarop het algoritme de data verwerkt. Kunstmatige intelligentie bestaat uit een aaneenschakeling van onderdelen die we allemaal moeten controleren op fouten.

Of zoals Richters het doortastend beschrijft: "Je hebt een kogel, een wapen en context. Data zijn je kogels, AI is het wapen en de omgeving waarbinnen je de AI gebruikt is de context." Om die krachtige metafoor uit te diepen: in sommige gevallen is er al iets mis met de kogels en kun je het doelwit nooit raken. Als samenleving vinden we de ene context voor het gebruik van een wapen acceptabel (zeg, een kwaadaardig moordlustig monster). Bij het andere doelwit willen we liever een ander gereedschap gebruiken dan een wapen.

Bias in iedere stap

Bij ieder van deze onderdelen van AI moeten we ons volgens Rübsaam afvragen of we nog op het goede pad zitten. Het begint bij een onderbelicht gedeelte van het ontwikkelen van een AI: de beslissing om een dergelijke toepassing überhaupt te ontwikkelen. Het kan op een misconceptie gebaseerd zijn dat een AI of algoritme een probleem in de eerste plaats zou kunnen oplossen.

Vervolgens moet het proces van de AI kritisch beoordeeld worden. Ze werpt het voorbeeld van gebruikersrecensies via Google Maps op: "Een restaurantrecensie gebruikt per definitie een verouderde dataset, namelijk de mening van eerdere gasten. Je weet helemaal niet of het eten nog steeds zo goed of slecht is; het menu kan ondertussen zijn aangepast, de chef kan ontslag hebben genomen. We hebben impliciet de afweging gemaakt dat we dit als een acceptabele vorm van bias zien."

Met andere woorden, een algoritme kan ons in dit geval helpen om een geïnformeerde beslissing te maken. En als Google de bias - een inherent verouderde dataset - herkent, kan het bedrijf bijvoorbeeld zorgen dat Google Maps je éérst de nieuwste recensies voorschotelt, want die zijn waarschijnlijk het meest relevant. Woods beschrijft dit principe: "Je kunt weighting toepassen in een algoritme. Hierbij maak je bepaalde data 'zwaarder' dan andere. Dit is in principe het handmatig toevoegen van bias in een proces, om te compenseren voor ongewenste bias."

Tot slot is er een eindresultaat, gebaseerd op een bevooroordeeld ontwikkelproces en een biased dataset. Ook hier moet op basis van bevooroordeelde parameters een beslissing worden genomen: is de AI goed genoeg en doet zij wat ze zou moeten doen, of moeten we terug naar de tekentafel? Daar komt vaak een ethische discussie bij kijken, waarover later meer. 

Advertentie
0