Ethiek en verantwoordelijkheid
Het voorkomen of in elk geval in kaart brengen van bias tijdens de ontwikkeling van een AI is dus een doorlopend proces. Een proces dat binnen de Europese Unie op den duur gereguleerd gaat worden. Dat roept de vraag op bij wie de verantwoordelijkheid van het maken van verantwoorde kunstmatige intelligentie ligt.
Het zal je misschien verbazen, maar nog voordat er concrete wetten zijn, lijken veel bedrijven zich verrassend goed zelf te kunnen reguleren op het gebied van AI. Dat is volgens Richters en Kampen heel logisch: "De mensheid wordt steeds meer 'datageletterd', begrijpt technologie steeds beter. Bedrijven komen daarom niet zomaar weg met onethisch gebruik van kunstmatige intelligentie. In een tijdsgeest waarin branding, reputatie en vertrouwen zeer belangrijk zijn, moet een bedrijf hier bewust mee omgaan."
Een partij die AI wil toepassen (bijvoorbeeld een overheid, een ziekenhuis of een bedrijf) moet zich volgens Richters en Kampen in de eerste plaats afvragen of een kunstmatige intelligentie of een algoritme de beste oplossing is. "Als je onvoldoende weet hoe kunstmatige intelligentie werkt en hoe je dit op een juiste manier kan inzetten, doe het niet of vraag om hulp."
Het is vervolgens ook aan makers en voorvechters van AI om zelf verantwoordelijkheid te nemen. Wognum blijft met zijn bedrijf vanwege de lastige morele dilemma's weg van AI-toepassingen binnen de medische sector. IBM blijft weg van AI-technologieën die gebruikt kunnen worden voor 'massasurveillance, etnisch profileren en het schenden van mensenrechten en -vrijheden'. Voor toepassingen met een mogelijk hoog risico buigt een global ethics board zich over de ethische implicaties.
Geen cultureel vacuüm
Het belang van menselijke diversiteit in zo'n denktank is overigens essentieel. Rübsaam benadrukt: "AI bestaat niet in een cultureel vacuüm." Wat voor de ene cultuur als acceptabele bias gezien wordt, kan in een andere cultuur zeer kwetsend zijn.
Neem het bijna clichématige voorbeeld van een zelfrijdende auto die noodgedwongen een voetganger moet aanrijden; kiest het algoritme een kind of een gepensioneerde senior? In het Westen zijn we vermoedelijk geneigd om het kind te het redden. In sommige Aziatische culturen is het leven van ouderen misschien wel meer waard. Je zal dus altijd een filosofische, ethische en/of morele basislijn moeten trekken.
Afbeelding via Tesla