Onderzoekers van Nvidia hebben een paper gepubliceerd waarin staat dat het bedrijf een AI heeft gecreëerd die eigenhandig gezichten kan 'maken'. Maar het zijn geen simpele cartoons en ze lijken ook niet op Frankenstein zoals bij eerdere pogingen, de creaties lijken levensecht.
De 'foto's' worden gegenereerd door de AI input te geven aan de hand van bestaande foto's, waarna het in feite eigenschappen van meerdere foto's combineert tot één (daadwerkelijk kloppend) beeld. Dat is mogelijk doordat de AI een personage ziet als een collectie van 'stijlen': elke eigenschap van het gezicht is een enkele 'stijl', waarop het eindresultaat kan worden aangepast. Zo zijn er de coarse styles waar de houding, het haar en de vorm van het gezicht onder vallen. Dan komen de middle styles en de fine styles, elk met hun eigen kenmerken waarop de AI kan inhaken. De AI leert automatisch wat verschillen zijn tussen verschillende afbeeldingen en hoe deze aspecten moeten worden gescheiden, zonder menselijk ingrijpen.
De onderzoekers constateren dat bestaande AI die gebruik maken van dit soort technologie (genaamd generative adversarial networks of kortweg GAN's) functioneren in een zogenaamde black box. Dat betekent dat verschillende eigenschappen van het proces niet kunnen worden gemeten, net zoals bij het menselijk brein het geval was gedurende de vorige eeuw. Daar heeft Nvidia van af kunnen stappen door gebruik te maken van die 'styles', waardoor elke eigenschap ook kan worden getweakt.
Onderstaande video geeft goed weer hoe het proces in elkaar zit en hoe de portretten eruit zien. Aan het einde van de video is ook te zien dat deze strategie is toe te passen op allerlei soorten afbeeldingen, van auto's tot katten.
Bronnen: Dpreview, Cornell University