Hem
AI-haussenFörklaring

Det bubblar i AI-bubblan – hoten mot första vågens dominanter

Sam Altman, vd Open AI, Sundar Pichai, vd Google och Jensen Huang, vd Nvidia. (Pressbilder)

Det händer grejer i AI-världen. Affischnamnen har fått konkurrens och det gnisslar i relationerna i det komplexa nätet av ägare, kunder, konkurrenter och leverantörer. Dramats aktörer håller masken, men på insidan har oron börjat krypa sig på. Håller den unga AI-kartan redan på att ritas om?

Kunderna riktar udden mot Nvidia

Relationspilar och släktträd inom ekosystemet för AI är komplexa. Gränserna för vem som är kund, delägare och konkurrent har suddats – eller snarare smetats – ut.

Än så länge har alla i båten rott någorlunda åt samma håll. Men nu har Nvidias storkund Google lite i skymundan fått fart på försäljningen av sin egen processorlösning, och det skapar oro.

Nvidia tog sina processorer för grafik och hittade användningsområden inom AI redan i början på 2000-talet och de senaste tio åren har de varit standard. Sedan generativa språkmodeller slog ner som en bomb har konsensus varit att det behövs mer chip med mer kapacitet i fler datacenter. Det har Nvidia levererat på.

Bolaget har helt enkelt de vassaste chippen. Men nu börjar frågor ställas om Nvidia-chippens hästkrafter behövs för att få språkmodellerna att flyga.

Nvidias AI-resa

Nvidia startades 1993 av Jensen Huang, Chris Malachowsky och Curtis Priem som såg ett behov av kraftfulla chip för grafik. Redan 2006 öppnade man dörren till AI när gränssnittet Cuda introducerades. Cuda gjorde det möjligt för forskare och utvecklare att använda chippen för generella beräkningar.

Starten på den moderna AI-eran kom i samband med tävlingen Image Net som vanns av en AI-modell som tränats på ett av Nvidias chip med hjälp av Cuda. 2016 lanserades den första superdatorn byggd för AI-träning och sedan dess har Nvidias chip varit standard.

För drygt tio år sedan insåg Google att det behövdes en annan typ av processor än GPU (grafikprocessorer) för att hantera utvecklingen av röstigenkänning och bildigenkänning. GPU:er är dyra och drar mycket ström. Lösningen blev TPU, tensor processing unit.

En TPU är ett enklare chip men mycket av det som krävs för dagens AI duger de fint till, såsom chattklienter. En GPU har fler funktioner än vad som behövs medan en TPU gör det den ska men inte mer. Googles chip kostar dessutom en bråkdel av Nvidias – en tiondel till hälften så mycket.

Anthropic har börjat köpa på sig TPU:er och när nyheten kom att Meta gjort samma sak rusade Alphabets aktie och Nvidia föll. I veckan var det dags igen när Amazon aviserade att man kommer att börja skala upp försäljningen av sina egna Trainium-chip.

Jensen Huang känner sig lugn och ser inte Googles chip som ett hot. (Lee Jin-man / AP)

Hur stort hot de billigare chippen är mot Nvidia är oklart. Nvidias vd Jensen Huang håller i vart fall god ton.

”Vi gläds åt Googles framgångar — de har gjort stora framsteg inom AI, och vi fortsätter att leverera till Google”, var bolagets kommentar på förra veckans nyheter om Googles affär med Meta. Men med tillägget att Nvidia ligger en generation före och är den enda plattformen som klarar alla AI-modeller.

När en av bolagets största kunder helt plötsligt seglar upp som en potentiell konkurrent gäller det att väga orden på guldvåg.

Samtidigt tror inte ens Google att de kommer att bli dominerande. Utvecklingen går snabbt och Nvidias GPU:er är, precis som Huang påpekar, mer flexibla och mer framtidssäkra. Google, Amazon och Microsoft behöver flexibilitet för att tillgodose kundernas skiftande behov.

Å andra sidan: Nvidia har en totalt dominerande ställning i dag och marknaden tycks ha räknat med att den ska bestå. Då blir även ett litet bett av affären kostsamt för aktiekursen.

Gemini knappar in – Altman utlyser ”kod röd”

Det är inte bara på hårdvarufronten som Google utmanar. När den pågående AI-haussen drog igång var det Open AI som ledde tåget. De övriga techjättarna tog en stund på sig att komma ur startblocken och många räknade bort Google från racet. Men nu har Google kommit i kapp Chat GPT med sin senaste uppdatering av Gemini. Modellen hyllas och slår GPT-5 på fingrarna på flera parametrar.

”Herregud. Jag har använt Chat GPT varje dag i tre år. Spenderade just två timmar med Gemini 3. Jag går inte tillbaka. Språnget är helt galet…Det känns som om världen just förändrades, igen”, skrev Salesforce vd Marc Benioff på X när Gemini 3 lanserades.

Thomas Wolf, grundare av AI-startupen Hugging är inne på samma spår. Till Financial Times konstaterar han att det är en ganska stor skillnad mot den värld vi levde i för bara två år sedan när Open AI var helt dominanta.

”Spenderade just två timmar med Gemini 3. Jag går inte tillbaka. Språnget är helt galet”

Salesforce vd Marc Benioff

Open AI:s Sam Altman har hållit god min utåt. I ett inlägg på X gratulerade han Google för Gemini 3 och tyckte att det verkade vara en kanonmodell. Men internt är han uppenbart oroad.

I ett mejl till de anställda har vd:n deklarerat ”kod röd” och riktat om resurser till utvecklingen av Chat GPT på bekostnad av andra projekt, rapporterar The Information. Bland annat kan satsningen på annonser sättas på avbytarbänken. Enligt tidningen kan hotet från Gemini innebära att bolaget får problem med att ta in pengar. Inte bra med tanke på takten som Open AI bränner kapital.

Utåt säger sig Open AI:s vd Sam Altman inte vara oroad över Alphabets och Sundar Pichais Gemini, men interna mejl ger en annan bild. (Evan Vucci / AP)

I oktober rapporterade Google att Gemini hade ökat antalet användare från 450 miljoner i oktober till 650 miljoner. Det är en bit ifrån Chat GPT:s rapporterade 800 miljoner, men om nuvarande ökningstakt håller i sig för Google kommer luckan att stängas snabbt.

Googles förutsättningar att springa snabbt är också goda. Tillgången på data är enorm och de egna chippen gör att man kan skala upp till en avsevärt lägre kostnad än Open AI. Dessutom ser ekonomin helt annorlunda ut för Google. Pengarna flödar in och ladorna är fulla. Hos Sam Altman flödar pengarna ut och ladorna är i behov av att fyllas på.

– Trycket har definitivt flyttats till Sam Altman och hans möjligheter att kapitalisera och hålla alla tallrikarna snurrande, säger Michael Nathanson, medgrundare och analytiker på analyshuset Moffett Nathanson, till Financial Times.

Kina öppnar upp när väst stänger till

Hoten mot rådande världsordning kommer inte bara inifrån Silicon Valley.

Kina är kanske inte mest känt för sin öppenhet, men när det gäller språkmodeller har de valt vägen med öppen källkod medan bolagen i väst valt att hålla koden för sig själva.

Öppna modeller kan modifieras och integreras i andra lösningar av utvecklare. Det innebär fler händer som kan utveckla och förbättra modellen. Ett exempel är kinesiska Deepseek som slog ner som en bomb i början på året. Modellen kunde göra samma saker som andra, men med mindre processorkraft.

På det här området har Kina tagit ledningen över väst. Mycket drivet av USA:s exportrestriktioner på de mest avancerade chippen.

Restriktioner har tvingat kinesiska AI-bolag – påhejade av landets ledning – att använda öppen källkod. Många menar att det kan störa västs planer på dominans. (Shutterstock)

Tidigare har det varit fullt fokus på hårdvara och processorkraft – mest muskler vinner. Men om det skulle visa sig att det går att effektivisera i andra änden så ställs det här på ända. Nöden är uppfinningarnas moder och restriktionerna kan tvinga kinesiska bolag att bli mer kreativa än sina amerikanska konkurrenter.

– Öppna modeller är en grundläggande del av AI-forskning, spridning och innovation, och USA bör ta en aktiv ledarroll i stället för att följa efter andra aktörer, säger Nathan Lambert, grundare av initiativet ATOM, American Truly Open Models, till Wired.

Hotet har inte gått Vita huset förbi som har tryckt på för att amerikanska bolag ska ta fram modeller med öppen källkod och ”amerikanska värderingar”.

Vita huset efterlyser modeller med öppen källkod och ”amerikanska värderingar”. (Julia Demaree Nikhinson / AP)

I augusti släppte Open AI sin första öppna modell. Men med begränsningar i kapacitet och vilken träningsdata som utvecklare kan få tillgång till. Och det finns många mindre amerikanska utvecklare som använder öppen källkod. Men det är långt fler kinesiska bolag som gör det och när det gäller nedladdning av öppna modeller leder Kina just nu. Men:

”Precis som vid tidigare industriella och teknologiska revolutioner kommer de länder som mest effektiv kan ta till vara AI:s omvälvande potential – samtidigt som de hanterar riskerna – att få tydliga ekonomiska, politiska och säkerhetsmässiga fördelar under de kommande decennierna”, skriver JP Morgan i en rapport.

Frågan är då vad som är mest effektivt – stora biceps i datacentren eller fler hjärnor som samarbetar?

Läs mer:

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen