Goede bias
Om het nog ingewikkelder te maken, is er ook nog zoiets als 'goede' bias. Of, correcter geformuleerd, opzettelijke bias. Woods beschrijft: "Stel, je hebt een weiland en wil met een algoritme tellen hoeveel koeien je hebt, om zo te berekenen of er genoeg plaats is in de wei. Je hebt een 'gewone' koe, een drachtige koe, een kalfje en een koe met maar drie poten. Je kunt bias bewust in je algoritme stoppen om al die vier koeien als een 'hele koe' te tellen. Zo weet je zeker dat ze in de wei passen."
Maar telt de drachtige koe niet voor twee omdat zij meer ruimte nodig heeft? Moet een kalfje als een halve koe tellen, omdat het minder plek inneemt in de wei? Moet het algoritme altijd naar boven afronden, zodat drie en een halve koe ruimte toebedeeld krijgt voor vier? "Dit soort vragen moeten ontwikkelaars zichzelf continu stellen, zowel voordat een AI gebouwd wordt, als wanneer er resultaten naar boven komen."
Er zijn uiteenlopende manieren om te testen of de bias in je AI-project opzettelijk is, of onverhoopt andere gevolgen heeft. Professor Masthoff noemt als voorbeeld: "Voer in een kunstmatige intelligentie eens twee identieke mensen in met één verschil, bijvoorbeeld huidskleur. Komt er in beide gevallen hetzelfde resultaat uit en zo niet, was dat de bedoeling?"
Een AI heeft hoe dan ook een bias. Zijn het twee koeien of anderhalf? Of is de kunstmatige intelligentie geavanceerd genoeg om daarachter nóg een koe te spotten?!