Del 3: Därför jämförs AI-grundaren med atombombens fader
Den tredje delen i Omni Ekonomis artikelserie om AI-genombrottet handlar om framtiden som förtrollar, förgyller – och förskräcker. Men hur ska den egentligen se ut?
I tre exklusiva delar berättar Omni Ekonomi om det som har kallats för ett Iphone-ögonblick. Om personerna bakom AI-revolutionen, hur det kommer att påverka våra liv, riskerna och möjligheterna. När Steve Jobs visade upp den första smartmobilen år 2007 var det en revolution för hur vi interagerar med teknologi och varandra. Nu står artificiell intelligens, AI, inför samma språng.
Olle Häggström är orolig, det erkänner han. Inte för att någon som följt den svenska AI-debatten kan ha missat det. Från sitt Chalmerskontor med västkustsolen hängandes utanför fönstret ser Göteborgsmatematikern hur den skoningslösa våren galopperar ostoppbart framåt – precis som AI-utvecklingen han skräckslaget följer. Han frågar, bekymrat, hur långt det är kvar till publicering för Omnis artikelserie.
– Eftersom det jag säger nu, om det här, kan vara utdaterat redan om två veckor.
– Utvecklingen går så oerhört fort framåt nu och vi kan inte längre ta för givet att vi överlever en otillräckligt säkrad GPT-5.
När Olle Häggström pratar om generativ AI, som Chat-GPT, Bard och Dall-E, pratar han om överlevnad, i bokstavlig mening. Människans överlevnad.
Han säger att han gillar Terminator. I alla fall de två första filmerna. Men precis som Elon Musk är det inte så han föreställer sig att AI kommer att slå ut mänskligheten. Han tror inte att hans kontor, Göteborg, Sverige och världen kommer att raderas ut i en robotapokalyps.
Han är inte ens säker på att det kommer att ske: “Maktövertagandet”, som han refererar till. Däremot, säger han, är det helt klart en risk som måste hanteras och om det inte görs, “är vi ruskigt, ruskigt, illa ute”.
– Det troligaste är att språkmodellernas förmåga når över en tröskel där AI:n systematiskt kan börja använda social manipulation på bred front.
– Inte ens AI-utvecklarna själva vet vad det är som händer djupt inne i AI:n. Och maktövertagandet kommer inledningsvis att ske genom att AI:n får enskilda individer att begå dess ärenden på olika sätt. Till exempel att ta över en bank eller en kärnvapenarsenal. Men det är fruktlöst att spekulera i detaljerna i vad någon som är överlägset mycket intelligentare än oss kommer att göra.
I svenska AI-kretsar snackas det en del om Häggströms oro. En AI-expert Omni pratar med – som varken tror att undergången eller revolutionen är nära förestående – säger att “få i branschen lyssnar på honom”. “Jag tror bara att vi kommer att bli lata och göra mindre, mycket mindre av det vi tycker är tråkigt”, säger hon till Omni.
En annan, Magnus Sahlgren på AI Sweden, tycker att Olle Häggström överdriver.
– Det är klart att man ska ta människors oro på allvar. Men med de aktuella problemen vi har i världen med krig och svält så är rädslan för AI otroligt överdriven. Vi är inte där än, säger han till Omni.
Men Olle Häggström är långt ifrån ensam. Så att några svenska AI-nördar går runt och muttrar om en orolig Chalmersprofessor, det kommer knappast få honom att ändra åsikt.
I slutet av april hade nästan 28 000 skrivit under samma brev som Olle Häggström undertecknat. Det brev som kräver ett halvårs paus för all AI-forskning. Däribland Elon Musk och den israeliske historikern och bästsäljarförfattaren Yuval Noah Harari.
Oron finns där. Och den delas alltså av många.
En dystopisk undergång i stil med Terminator-filmerna är det få som tror på. Men det finns andra, mer subtila risker, som AI bär med sig. En av dem är vad Aviv Ovadaya, kallar för “verklighetsapati”.
Han är forskare på Cambridge University och med “verklighetsapati” menar han en risk att människor, som en följd av användandet av generativ AI, som GPT-4, Dall-E och Bard helt och hållet slutar bry sig om vad som är sant och inte.
– Vi har redan varit på väg dit ett tag, men med den här tekniken går det så oerhört mycket snabbare, säger han till Omni.
– Och det är inte det vi bygger ett fungerande samhälle på. Eller fungerande demokratier. Hela vårt samhälle; det finansiella systemet – allt, är byggt på tillit och vi hamnar på en oerhört mörk plats om vi inte längre vet vad vi kan tro på.’
AI möter en fysisk vägg
Ett inte obetydligt antal av de teorier som underbygger AI-revolutionen har många år på nacken. Men det var först på 2010-talet när datorkraften fanns på plats som de faktiskt kunde testas och användas i praktiken.
Att applicera allt mer datorkraft på problemen har visat sig vara fruktbart. Googles första transformer tränades med åtta GPU:er och det hela var klart på tre och en halv dag. Vad som användes för att träna Open AI:s senaste modell GPT-4 är hemligt men det har talats om motsvarande 15 000 GPU:er som arbetade i upp till ett halvår.
Frågan är om AI redan slagit emot en fysisk vägg där den långsammare utvecklingen av datorkretsar och utbyggnaden av datorcenter sätter hinder. En som sagt att eran med större och större modeller är över är faktiskt Sam Altman själv.
– Vi kommer att göra dem bättre på andra sätt, sa han i april.
Kärnan här är, enligt Ovadaya, om vi inte vet ifall det är Michael Schumacher som intervjuas, om vi inte vet om årets bästa foto är ett fotografi eller inte, om vi inte vet ifall det är Drake som sjunger på en Drake-låt (för att ta några aktuella exempel) – då riskerar allt till slut att bli som en Hoola Bandoola-låt: Vem i hela världen kan man lita på?
– Men det här blir så mycket, mycket farligare när det sker på ett politiskt plan, i en global skala, säger han.
– Min oro är att vi under de kommande två åren riskerar att se verkligt stora förändringar och händelser skaka om oss. Jag hoppas bara att de inte blir så stora att de blir till en verklig fara för oss som samhälle.
Sedan den första hajpen i höstas har debatten nu vaknat till liv. En ny väg har börjat få allt mer fäste: Fler och fler vill se någon slags reglering av den nya tekniken.
– Det har absolut börjat hända saker, säger Aviv Ovadaya, till Omni.
– Och det är positivt. Jag hoppas bara att våra demokratiska system inte är för långsamma på att ställa om.
“Världen behöver ett internationellt organ för reglering av AI”, skriver Gary Marcus i en debattartikel i The Economist i slutet av april i år. Han är en av de mer framträdande personerna som undertecknat samma brev som Olle Häggström och han hänvisar bland annat till att Europol har varnat för att de stora språkmodellerna riskerar att öka cyberkriminaliteten lavinartat.
Gary Marcus befarar att allt mer avancerade språkmodeller kan komma att användas till att skapa “en tsunami av desinformation” och innebära ett direkt hot mot det amerikanska presidentvalet nästa år. Och “i förlängningen hota hela det demokratiska systemet, genom att skapa en atmosfär där det inte längre går att lita på något”.
Maskininlärning
Vanlig datorkod är klara instruktioner av typen “om A är B så gör X” som utförs steg för steg. Maskininlärning är i stället att datorer tränas med data och ska lära sig att lösa uppgifter utan att de noggrant har programmerats till just det. Lärandet kan vara antingen övervakat där det i datan finns svar på vad som är rätt eller fel, eller oövervakat där datorn i stället letar efter mönster på egen hand.
Gary Marcus är professor emeritus vid New York University och grundare av Geometric Intelligence – ett bolag som arbetar med maskininlärning och som köptes upp av Uber 2016 för att bli en del av plattformens nystartade AI-labb.
Han har sedan lanseringen av Chat-GPT i november ifjol varit en högljudd kritiker av Sam Altman, Open AI och andra techbolag som driver på utvecklingen inom generativ-AI just nu.
Det han vill se är mer internationellt samarbete “genom en opartisk, global, icke-vinstdrivande organisation som tar sikte på att hitta styrning och tekniska lösningar för att främja trygg, säker och fredlig AI-teknologi”.
Bland andra Googles vd Sundar Pichai har uttryckt sig positivt. Han säger nu att reglering behövs.
– Vi har inte alla svar och tekniken går framåt fort, sa Pichai i mitten av april, i en intervju med CBS 60 Minutes.
– Får det mig att ligga sömnlös på nätterna? Absolut.
Gary Marcus tänker sig något som påminner om det Internationella Atomenergiorganet, IAEA, som startades som ett svar på rädslan och osäkerheten under åren efter de amerikanska kärnvapenbombningarna av Hiroshima och Nagasaki.
Fast för AI.
De stora problemen som Marcus och flera AI-experter med honom identifierar och som han hoppas att ett internationellt organ kan reglera är frågor som rör integritet, lagstiftning, transparens och AI:ns partiskhet. “Rekryterare kan i dag mata in en ansökandes hela yrkesprofil i GPT-4 och be om ett omdöme, men det finns inga sätt att säkerställa att maskinens svar inte har bias”, skriver han. Ett annat exempel är hur allt fler företag nu väljer att integrera chattbotarna på sina sajter – enligt kritikerna en “katastrof” när det gäller skyddet av den personliga integriteten.
Enligt Sam Altman kommer chattbotar alltid att ha lite bias. Men eftersom det saknas transparens, menar Marcus, att det är svårt att göra ett riktigt ansvarsutkrävande. “Givet hur fort allt går just nu, finns det ingen tid att förlora”, skriver han. “Besluten vi tar nu kommer att få bestående konsekvenser och måste tänkas igenom noga”.
– Kundtjänst, är det jag kommer att tänka på först, sa Sam Altman nyligen i en intervju när han fick frågan vilka jobb han tror kommer att påverkas av GPT-4 och andra språkmodeller.
– Det är en kategori där jag verkligen tror att det väldigt snart kommer att finnas färre jobb.
I samma intervju säger han att han tror att det är många yrkesgrupper som kommer att påverkas. Vissa jobb kommer helt enkelt att försvinna. Det sker vid varje teknisk revolution, resonerar han.
– Vi skulle kunna gå ned till fyradagarsveckor, säger Christopher Pissarides, nobelpristagare och professor vid London School of Economics, till Bloomberg.
Pissarides tror att AI-tekniken, om den används rätt, kan boosta produktivitet och befria kontorsarbetare från långtråkigt och monotont arbete. Han säger till Bloomberg att övergången skulle kunna göras mindre smärtsam genom att företagen inför tekniken gradvis.
– Generativ AI skulle kunna ta bort mycket tråkigt som vi gör dagarna i ända och bara lämna det intressanta kvar till människor, säger han.
Svarta lådan-problemet
Vi vet om när vi känner igen en katt, men att förklara exakt hur det gick till innanför pannbenet när det skedde är i stort sett omöjligt. Samma problem gäller för system som bygger på AI-teknik – resultatet är lätt att se men processen dit är dold i dunkel. Den svarta lådan, som det kallas inom AI.
Det får betydelse bland annat när ett AI-system gör fel – till exempel att en självkörande bil kör på människor eller en chattbott hittar på. För det är ju oklart var det egentligen gick fel och det går inte att som annars att felsöka och ändra datorkoden som ledde till felet.
Enligt en beräkning från den amerikanska investmentbanken Goldman Sachs kan 300 miljoner jobb i världen automatiseras bort helt, med hjälp av generativ AI. I USA och Europa kan två tredjedelar av alla jobb delvis automatiseras, skriver banken. “Om generativ AI levererar när det gäller de utlovade förmågorna kan arbetsmarknaden uppleva betydande störningar”.
Enligt en studie från Open AI kan uppåt 80 procent av jobben i USA påverkas. Generativ AI skulle kunna ta minst tio procent av arbetsuppgifterna. Jobben som beräknas påverkas mest finns inom finanssektorn, försäkringsbranschen och media; kort sagt, det man på engelska refererar till som “white collar-jobs”. Jobb där AI kommer att ha minst påverkan, enligt Open AI, är de inom jordbruk, byggindustrin och livsmedelsindustrin. Slutsatsen: fysiska jobb är jobben som AI får svårast att ta död på.
– Allt det här kommer med en betydande kostnad för klimatet och den frågan diskuteras inte tillräckligt mycket, säger Bobby Lee Townsend Sturm JR, forskare på KTH, till Omni.
Han forskar på kopplingen mellan AI och musik och har genom sitt arbete gång på gång slagits av hur mycket energi som går åt till att driva AI-tekniken.
Samtidigt blir modellerna hela tiden större och därmed ännu mer energislukande. Så när AI växer – växer också dess klimatavtryck. Och för varje fråga som ställs i dess meddelandefönster, från alla världens hörn, behövs datorkraft och energi.
– Det går åt väldigt mycket el, säger Magnus Sahlgren på AI Sweden, till Omni.
2021 använde Google lika mycket energi, bara åt sin AI-teknik, som halv- miljonersstaden Atlanta, enligt uppskattningar.
Och då utgör AI bara 10-15 procent av Googles energianvändning. Samtidigt har både Google och Microsoft mål eller löften om negativa eller neutrala klimatavtryck.
“Vi tar vårt ansvar för att stoppa och backa klimatförändringar på allvar och vi funderar mycket på hur vi kan få ut det mesta ur vår datorkraft", heter det i ett uttalande från Open AI.
Det finns en scen, i en lång artikel från 2020 i MIT Technology Review, som återberättar hur de anställda på Open AI varje år röstar på när de tror att generell artificiell intelligens, AGI, till slut kommer att uppstå. Enligt dem själva är det mest ett sätt att samlas och skratta tillsammans. Men slutsatsen de kommer fram till i 2020 års omröstning är ganska talande för självförtroendet som tycks finnas på det techbolag hela världen just nu pratar allra mest om. För inom ett forskningsfält där det fortfarande pågår en debatt om huruvida maskiner med mänsklig autonom intelligens ens någonsin kommer att uppstå, tror hälften av de anställda på Open AI att det kommer att ske inom 15 år.
En av dem som tror på AGI är Sam Altman – “denne gåtfulle entreprenör”, som GPT-4 kallade honom när Omni i första delen av den här artikelserien bad chattboten om ett omdöme.
Altman, en man som jämfört sig själv med Robert Oppenheimer och Open AI med Manhattanprojektet, gruppen med forskare som utvecklade den första atombomben. Men att Sam Altman hoppas på AGI i framtiden, betyder inte att hans framtidsbild är odelat utopisk.
– Min oro just nu är att det kommer att bli stora problem med desinformation eller ekonomisk turbulens. Eller något annat, på en nivå långt bortom vad vi är förberedda på, säger han i en intervju med Lex Friedman i slutet av mars.
På sitt kontor i Göteborg sitter en envis, inte lika road svensk matematiker, som få verkar lyssna på. Han varnade för riskerna med AI långt innan Altman blev Microsofts galjonsfigur och gullegris. Men liknelsen med Oppenheimer, atombombens fader, tycker Olle Häggström är mer än träffande.
Han säger att det till och med är “ännu större”, den här gången. Större än atombomben alltså.
– I båda fallen handlar det om att släppa lös en teknik som man inte tror kommer att förstöra världen, men man är inte riktigt säker på om den kommer att göra det eller inte.