Googles demonstratie van AI-model Gemini was voor een deel in scène gezet

Googles demonstratievideo van het AI-model Gemini was voor een groot deel nep. Dat bevestigt het bedrijf aan Bloomberg. In de video wordt geïmpliceerd dat Gemini in real-time de videobeelden kan bekijken en razendsnel hardop uitgesproken vragen kan beantwoorden over wat deze ziet, maar zo is het na navraag van het persbureau niet gegaan. In werkelijkheid werden er enkele screenshots uit de video gepakt, en die werden vervolgens opgestuurd naar het model. Daarna zijn daar via tekstopdrachten vragen over gesteld. Kortom, het werkelijke proces was veel langzamer en meer uitgekleed dan de demo deed geloven.

In de videobeschrijving liet Google al weten dat het 'voor de doeleinden van de demo' de 'latentie' heeft verlaagd, en dat de antwoorden van Gemini zijn verkort. Volgens Bloomberg wordt uit die disclaimer echter niet voldoende duidelijk dat het niet daadwerkelijk mogelijk is om een gesprek te voeren met het AI-model, waarbij Gemini real-time kan meekijken. Op X schrijft een topman van Googles DeepMind-divisie dat de demo 'illustreert hoe multimodale gebruikerservaringen die met Gemini zijn gebouwd, eruit kunnen komen te zien'. "We hebben hem gemaakt om ontwikkelaars te inspireren."

Het multimodale AI-model Gemini werd afgelopen woensdag aangekondigd als vervanger van het PaLM 2-model. De kunstmatige intelligentie komt beschikbaar in drie formaten: Gemini Ultra, Pro en Nano. Volgens Google is de Pro-versie van Gemini nu beschikbaar via de website en wordt deze gefaseerd uitgebracht. Gemini wordt ook geïntegreerd in de Google Pixel Pro en in Search, Ads, Chrome en Duet AI. Vanaf 13 december kunnen ontwikkelaars ook aan de slag met Gemini Pro via de api in Google AI Studio of Google Cloud Vertex AI.

Bron: Bloomberg

« Vorig bericht Volgend bericht »
0