Bias: Filterbubbel op de loer
In sommige gevallen is bias in principe de bedoeling binnen een AI-model (daarover in het volgende hoofdstuk meer), maar ontstaat op den duur een soort feedbackloop. Judith Masthoff, Professor Human Centered Computing aan de universiteit van Utrecht, beschrijft het principe van collaboratief filteren: "Een webshop kan nieuwe suggesties geven gebaseerd op de voorkeuren van mensen die op je lijken. Als je een Harry Potter-boek hebt gekocht, heeft het algoritme een bias naar meer fantasyboeken."
Dat lijkt handig, aangezien je wellicht inderdaad van het fantasygenre houdt en dus naar meer van hetzelfde op zoek bent. Maar het risico bij collaboratief filteren, is volgens Masthoff dat een filterbubbel wordt gecreëerd. "Dingen die populair zijn in een webshop worden alleen maar populairder." Hetzelfde zie je op sociale media; gebruikers krijgen al heel snel 'meer van hetzelfde' te zien omdat een algoritme een patroon herkent. Dat is niet zo erg als het om kattenfilmpjes gaat, maar behoorlijk kwalijk wanneer misinformatie of politieke voorkeuren centraal staan, zo ontdekte Pointer vorig jaar.