Het gevaar van AI is bias: Zes experts over de paradox van kunstmatige intelligentie

Inhoudsopgave
  1. 1. Inleiding
  2. 2. Is kunstmatige intelligentie magie of wiskunde?
  3. 3. De kogel, het pistool en het doelwit
  4. 4. Bias: Shit in, shit out
  5. 5. Bias: Menselijke fouten
  6. 6. Bias: Filterbubbel op de loer
  7. 7. Goede bias
  8. 8. 'Explainability is een farce'
  9. 9. Bias is onvermijdelijk
  10. 10. Ethiek en verantwoordelijkheid
  11. 11. AI checkt AI
  12. 12. Conclusie

Bias: Shit in, shit out

Bias is dus inherent in kunstmatige intelligentie verweven. Voorbeelden hiervan kwamen de afgelopen jaren wellicht vaker voor dan je denkt. AI-bias is vaak hooguit wat onhandig, maar kan in extreme gevallen desastreuze gevolgen hebben. Dat begint bij de gebruikte dataset.

Denk bijvoorbeeld aan de twijfelachtige prestaties van gezichtsherkenning. Zoiets simpels als het ontgrendelen van je smartphone is voor sommige etniciteiten nog niet zo eenvoudig. The Washington Post beschrijft dat personen met bepaalde huidskleuren veel vaker onjuist worden geïdentificeerd.

Dit wordt veroorzaakt door een gebrek aan diversiteit in veel trainingsdata van gezichtsherkenning-AI (doorgaans een bias naar witte mannen). Oftewel, het algoritme dat gezichten moet herkennen, heeft 'geleerd' dat te doen op basis van veel voorbeelden van witte mannen. Als er bijvoorbeeld relatief weinig Aziatische vrouwen in de trainingsdata zaten, is de kans groter dat een dergelijk persoon uiteindelijk minder goed herkend wordt; de AI heeft niet goed 'geleerd' om vrouwelijke Aziatische gezichten te herkennen.

Onhandig, maar we hebben het dan nog niet over de massale surveillance van de Chinese bevolking, zo ontdekte hetzelfde medium later. Daarmee wordt de toepassing van gezichtsherkenning ineens gevaarlijk.

Bias in AI kan ook ongemakkelijke en misschien zelfs geestige gevolgen hebben. Microsoft gebruikte deeplearning om chatbot Tay slim te maken. Binnen 24 uur deed ze echter uitspraken als 'Hitler had gelijk, ik haat Joden', zo beschreef The Verge in 2016. Het internet blijkt - niet geheel verrassend - absoluut geen goede dataset te zijn voor het trainen van een AI. 

Dit is het principe dat onder programmeurs niet zo elegant 'shit in, shit out' wordt genoemd. Wanneer een dataset per definitie gebrekkig is, komt er uiteindelijk als resultaat ook gebrekkige informatie uit. Wil je een chatbot leren praten, dan moet je bij het samenstellen van de dataset voor het trainen ervan oppassen dat nazi-praat er geen onderdeel van uitmaakt. Althans, dat hangt af van het soort chatbot dat je wilt maken natuurlijk ...


Afbeelding via Twitter / geraldmellor

Advertentie
0