Google's TPU AI-accelerator wordt gebruikt om efficiëntere versies van zichzelf te ontwikkelen. Nu klinkt dit misschien meteen als 'Skynet is coming,' maar het gaat vooral om het optimaliseren van het block design van TPU (Tensor Processing Unit) chips. Deze chips worden steeds complexer omdat artificial intelligence-modellen steeds meer vragen van de hardware. Op deze manier kan aanzienlijke efficiëntie worden behaald.
Tijdens de Hot Chips-conferentie gaf Google wat meer inzicht in de ontwikkeling van nieuwe chips. Het duurt ongeveer drie jaar om een nieuwe chip te ontwikkelen, onderverdeeld in vier blokken. Het maken van een concept kost 6 tot 12 maanden, daarna duurt de implementatie van het ontwerp ongeveer 12 maanden, gevolgd door de tape-out bij de chipfabrikanten, wat ook 6 maanden kost, en dan nog eens 12 maanden om naar massaproductie te gaan.
Ondanks de vervaging kun je zien dat de lay-out gekozen door de AI (rechts) aanzienlijk verschilt van handgemaakte circuits (links).
De laatste twee blokken zijn lastig om te versnellen; ze worden eerder langer omdat de chips zelf complexer worden. Maar op het gebied van implementatie is er nog wat winst te behalen. Ter illustratie, het kost een expert ongeveer 6 tot 8 weken om een nieuw TPU-blok te ontwikkelen. Hier komt het, een AI kan dit veel sneller, binnen 24 uur. Bovendien is de hoeveelheid kabel die gebruikt moet worden ook gemiddeld 2,9 keer korter dan wanneer we het door een mens laten ontwikkelen.
Wat ook opvalt, is dat een AI een meer organische lay-out kiest in plaats van een symmetrisch geheel dat door experts is ontwikkeld. Van de 37 blokken die ze hebben ontwikkeld, waren er 26 beter dan de menselijke variant, 7 waren gelijkwaardig, en slechts vier waren slechter.
Bron: Heise.de