Het kan je haast niet zijn ontgaan: de AI-zeepbel lijkt stevig doorgeprikt. En dat is te danken aan Chinese programmeurs die naar het zich laat aanzien een beduidend efficiënter AI LLM (Large Language Model) a la ChatGPT hebben bedacht. DeepSeek: Hoe Chinese AI-technologie de markt opschudt en NVIDIA doet wankelen…
De opkomst van een efficiënter AI-model
Efficiëntie is het toverwoord als het gaat om computerprogramma’s. AI is een nogal zware toepassing waarvoor deels gespecialiseerde hardware nodig is. NVIDIA is op dit moment dé hardwareleverancier voor chips (feitelijk een soort van extreme GPU’s) die AI-toepassingen kunnen versnellen. Probleem is alleen, dat vlaggenschip-LLM ChatGPT nogal veel van die energievretende chips vereist. En dus zijn er tal van energieleveranciers die weer oplossingen bedacht hebben voor de datacenters van de (nabije) toekomst. Want: als er zo extreem veel energie nodig is, ontkom je niet aan een lokale elektriciteitscentrale per datacenter. Althans, die centra die voor AI geoptimaliseerd zijn. De oplossing was al gevonden: mini-kernreactoren van een veilig type. Kortom: alles leek in kannen en kruiken. NVIDIA blij, energiebedrijven blij.
Lees verder DeepSeek: Hoe Chinese AI-technologie de markt opschudt en NVIDIA doet wankelen



















