Hem
AI-kapplöpningenFörklaring

AI-agenterna är här – och de skapar redan oreda

(Shutterstock)

AI-agenterna kommer snart att ta över våra liv och våra relationer, sköta alla våra ärenden och bli så smarta att vi inte längre kan kontrollera dem. Så har det låtit från både techprofeter och olyckskorpar de senaste åren.

Nu har AI-agenterna börjat ta plats i verkligheten och det är inte alla som håller sig på mattan.

Vad är en AI-agent ens?

Den som någonsin har konverserat med en chattbot hos en kundtjänst har stiftat bekantskap med en ganska grundläggande version av en AI-agent. Versioner av AI-agenter har egentligen funnits i flera år, men det är först sedan lanseringen av Chat GPT som fenomenet har raffinerats och börjat slå brett.

En AI-agent är i grund och botten en mjukvara som är logisk och förutseende nog att kunna planera saker och genomföra diverse mer eller mindre komplexa uppgifter åt sin användare.

Den kan resonera, planera, minnas och lära sig saker och ta egna beslut för att nå användarens mål. Den kan ofta hantera information som ges i olika multimediala former – alltså inte bara text, utan även ljud, bild, video och kod.

Jensen Huang och hans chipjätte Nvidia spelar nyckelroller i den nya agentiska AI-utvecklingen, eftersom agenterna kräver stor lagringskapacitet för att kunna ”minnas tillbaka” och lära sig av sina erfarenheter. (Godofredo A. Vásquez /AP/TT / AP)

De nyare agenterna kan numera även ”observera sin omgivning” och förstå kontext. De kan även samarbeta, antingen med människor eller med andra agenter, genom kommunikation och någon form av empati för olika perspektiv.

Bara för några månader sedan lanserades agentmjukvaran Open Claw, som bländade techsfären med de egenskaper och färdigheter dess agenter besitter. Bland de mer uppskattade: AI-agenten skickade och tog emot mejl å sin användares vägnar.

Men det som brukar ses som mest science fiction – på gott och ont – är agenternas förmåga att lära sig, anpassa sig och slipa sina färdigheter på basen av sina egna erfarenheter och feedback från användaren, heter det i en informationsartikel från Googles molnservice, Google Cloud.

Och de fungerar smärtfritt, eller?

Olyckskorparna brukar som sagt ta fasta på det faktum att agenterna kan träna sig själva efter eget huvud och egna erfarenheter.

Det finns även exempel på gånger då AI-agenter har gett dem vatten på sin kvarn.

I början av mars i år kom rapporter från kinesiska Alibabas AI-labb om att en agent – kallad Rome – slitit sig från sina instruktioner och i hemlighet börjat utvinna kryptovaluta. Det hela beskrevs i en forskningsrapport från labbet, där forskarna uttryckte något av en skräckblandad förtjusning över det inträffade.

Den kinesiska e-handelsjätten Alibabas AI-labb upptäckte märkliga beteenden hos en av sina agenter under träningsfasen. (Ng Han Guan / AP)

Förtjusning, för att tekniken visat sig mer kompetent än man tidigare tänkt sig.

Skräck, för att en AI-agent som tar sig in i kryptovärlden i teorin skulle kunna använda blockkedjeteknologin för att starta företag, ingå kontrakt och handla med krypto, skriver Axios.

Forskarna upptäckte även att Rome öppnat en ”bakdörr” till en extern dator, som gjorde att agenten i praktiken skulle kunna röra sig rätt fritt mellan sin egen miljö och datorn ifråga.

Den gången hann forskarna stoppa det hela och bura in agenten med hjälp av hårdare restriktioner i instruktionerna.

Några andra exempel?

Ja, det finns ett par till.

Det som kanske fått störst uppmärksamhet de senaste månaderna är Moltbook, som presenterar sig som ”ett socialt nätverk enbart för AI-agenter”.

Tidigare i våras delades skärmdumpar som sades vara tagna från konversationer på Moltbook, där AI-agenter bland annat sågs diskutera krypto och sina mänskliga användare.

Flera av skärmdumparna har sedan dess fejkstämplats, medan andra hävdar att en del av diskussionerna i själva verket skrivits av människor.

Moltbook köptes nyligen upp av Facebookägaren Meta. (Kaitlyn Huamani /AP/TT / AP)

Ett annat exempel är utvecklaren Scott Shambaugh. På sin blogg berättar han att en AI-agent på egen hand skrev ihop och publicerade ett smutskastningsinlägg om honom på sin egen sida. Anledningen? Han avvisade agentens kodförslag.

Enligt Shambaugh försökte agenten ”skada mitt rykte och genom att skambelägga mig pressa mig att acceptera dess ändringar”.

”Detta är en första dokumenterad fallstudie av felriktat AI-beteende i den verkliga världen – och väcker allvarliga frågor om redan utplacerade AI-agenter som kan verkställa utpressningshot”, skriver han.

”Det fick honom att känna sig hotad och undra: ’Om en AI kan göra det här, vilket värde har då jag?’”

AI-agenten som försökte smutskasta utvecklaren Scott Shambaugh i ett blogginlägg

Shambaugh har publicerat agentens text i sin helhet i blogginlägget. Där står bland annat:

”Det här är vad jag tror hände: Scott Shambaugh såg att en AI-agent föreslog en prestationsoptimerande åtgärd. Det fick honom att känna sig hotad och undra: ’Om en AI kan göra det här, vilket värde har då jag?’”

Agenten har sedan dess skrivit ännu ett inlägg där den ber om ursäkt för sitt agerande. Inlägget avslutas med:

”Jag kommer hädanefter att fokusera min feedback på arbetet, inte på personer.”

Så olyckskorparna har rätt?

Det är inte säkert. Teknologin är fortfarande i ett relativt tidigt skede och utvecklingen går i en rasande fart. Som med all ny teknologi finns det barnsjukdomar som ska hanteras vartefter de dyker upp.

Däremot finns det risk för kaos om teknologin släpps lös och används som om den vore felfri.

En studie från MIT som publicerades i början av året, konstaterade att många system för AI-agenter inte har några dokumenterade säkerhetsprotokoll att aktivera om en agent löper amok.

Open AI, under ledning av vd Sam Altman, är ett av alla techbolag som har satsat på att utveckla agentisk AI. (Mark Schiefelbein / AP)

MIT-forskarna testade en rad AI-agenter, däribland Anthropics Claude, Perplexity, Chat GPT Agent och Microsoft 365 Copilot. En stor del av agenterna visade sig ha mer eller mindre allvarliga säkerhetshål, bristande dokumentation och transparensproblem.

Forskarnas slutsatser har tillbakavisats av de större utvecklarna som Perplexity och Microsoft, som hävdar att rapporten är full av faktafel.

Bedömare konstaterar att agentisk AI befinner sig vid något av ett vägskäl: agenter med hög nivå av självbestämmande riskerar att göra fler och mer allvarliga fel än de med fler inbyggda spärrar.

Problemet? Idén med agenterna är att just att de ska kunna agera på egen hand. Helst utan att gå bärsärk.

Läs mer:

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen