Hem
Utvecklingen av AIExperter

”Framtidsrädda missar dagens faror med AI”

(Shutterstock, Hans Kalsson/Umeå universitet, pressbilder)

Spridning av desinformation och diskriminering av människor är reella faror med AI som behöver hanteras i dag. Det riskerar att hamna i skymundan efter det uppmärksammade uppropet i techvärlden, där så kallad artificiell generell intelligens pekas ut som det stora hotet framåt, säger experter till Omni Ekonomi.

– När folk är så upptagna av rädsla för framtiden, är det ingen som ägnar någon större uppmärksamhet åt de skador som AI orsakar i dag. Det tycker jag är väldigt oroande, säger Virginia Dignum, AI-forskare vid Umeå universitet.

Det var i förra veckan som AI-experter, Elon Musk och andra techprofiler – till mångas förvåning – föreslog en AI-paus med hänvisning till riskerna. Anna Felländer, grundare av startupen Anch.AI, tror att det öppna brevet kan leda till högre medvetenhet kring de etiska och sociala nedsidorna.

– Förhoppningsvis blir det ingen paus i realiteten, bara en paus i attityden, säger hon.

Vad tycker du om uppmaningen att pausa utvecklingen av AI?

expert
Anna Felländer
Grundare, Anch.AI

”Den är bra för att den reser frågan om etiska och legala övertramp som företag behöver ställas ansvariga för. Den är mindre bra eftersom den föreslagna lösningen, tycker jag, inte är att stoppa utvecklingen utan att påskynda möjligheten för företag att kontrollera för riskerna och förklara för användare hur de styr sina AI lösningar på ett ansvarsfullt sätt.

Vi användare borde ställa högre krav på förklarbarhet och transparens. Positivt är att EU:s regelverk, AI Act, ligger runt hörnet och kommer att kräva hög grad av ansvar och rapportering. Det är hög tid för företag att förbereda sig redan i dag.”

expert
Virginia Dignum
Professor som forskar om samspelet mellan AI och människor, Umeå universitet

”En paus av AI-utveckling skulle få en liten effekt på spridningen av LLM:er (en typ av språkbaserad AI, reds anm). Jag tror att pausad användning är en mer effektiv metod, så som Italien har föreslagit. De största riskerna är förknippade med hur LLM:er används och missbrukas.”

expert
Göran Lindsjö
AI-rådgivare, Limetreelake

”AI tillför redan idag viktiga nyttor inom sjukvård, klimat, utbildning, säkerhet, arbetsmiljö och många andra områden. Vi står inför en snabb utveckling av än fler nyttor baserat på bland annat GPT-4 och kommande stora språkmodeller. Samtidigt finns det nackdelar som vi måste hantera. Jag är inte säker på att just de potentiella nackdelar man pekar på i brevet är de mest relevanta.”

Vad skulle en sådan paus leda till?

expert
Anna Felländer
Grundare, Anch.AI

”Till att regelverk anpassas och att företag får möjlighet att kontrollera etiska och legala risker. Det krävs att AI-utvecklingen i alla steg har en människa inblandad. Dessutom behövs processer för riskbedömning av den fara som potentiellt kan orsakas användaren.”

expert
Virginia Dignum
Professor som forskar om samspelet mellan AI och människor, Umeå universitet

”En paus av användandet av LLM:er bör kombineras med konkreta steg för att öka regleringen. Inte bara fina ord om AI-principer, utan specifika lösningar. Till exempel, krav på vilka regler som gäller för att sådana system ska vara tillgängliga [...] De kan omfatta kunskapskrav hos den som använder systemen. Vi låter inte läkemedelsbolag lansera mediciner utan massor av tester, och inte heller personer utan körkort köra bil.”

expert
Göran Lindsjö
AI-rådgivare, Limetreelake

”Jag har svårt att se hur det praktiskt skulle genomföras. Men om det trots allt genomfördes av till exempel organisationer i Nordamerika och Europa och inte i andra delar av världen skulle det kunna leda till en obalans i utvecklingen.”

Vilka faror är du mest orolig för i snabba AI-utvecklingen? Och vilka farhågor är överdrivna?

expert
Anna Felländer
Grundare, Anch.AI

”Farorna är att människor diskrimineras, att deras integritet kränks och att de förlorar sin rättighet till att fatta självständiga beslut.

Överdrivet är att mänskligheten står helt försvarslösa inför utvecklingen. Vi människor ska styra AI, inte tvärtom. Nu gäller det för företag att implementera de bästa verktygen för att kontrollera, styra och rapportera ansvarfull användning av AI.”

expert
Virginia Dignum
Professor som forskar om samspelet mellan AI och människor, Umeå universitet

”De största skälen till oro är de problem vi redan ser, som genererandet av desinformation och att arbetare kommer i kläm eller diskrimineras.

I det öppna brevet uttrycker författarna rädsla för ’superintelligens’ eller Artificial General Intelligence, AGI. Det är ett budskap som vi ofta får höra från den så kallade longtermism-rörelsen . När folk är så upptagna av rädsla för framtiden, är det ingen som ägnar någon större uppmärksamhet åt de skador som AI orsakar i dag. Det tycker jag är väldigt oroande.”

expert
Göran Lindsjö
AI-rådgivare, Limetreelake

”Detta brev verkar rikta in sig på faror med AGI, så kallad generell AI. För mig är det teoretiska faror som ligger ganska långt in i framtiden. Jag är snarare orolig för vad bristande kunskap hos politiker, media och allmänhet kan leda till. Det kan bland annat vara en grogrund för rädsla eller överdrivna förhoppningar.

Det kan också innebära att man i Sverige kraftigt underinvesterar inom AI och därmed förlorar både konkurrenskraft och kvalitet i välfärden. Men självklart finns det faror, åtminstone på kort sikt, när man till exempel får tvärsäkra resonemang från AI som är fel eller när fördomar multipliceras. En troligen betydligt större risk är konsekvenserna av den snabba utveckling inom AI-området som sker i länder med auktoritära regimer.”

Vad tror du att uppropet kommer att få för konsekvenser?

expert
Anna Felländer
Grundare, Anch.AI

”Högre medvetenhet kring de etiska och sociala nedsidorna av AI och påtryckning gentemot företag att styra, kontrollera och rapportera kring sin användning av AI. Förhoppningsvis blir det ingen ’paus’ i realiteten, bara en paus i attityden.”

expert
Virginia Dignum
Professor som forskar om samspelet mellan AI och människor, Umeå universitet

”Framförallt en upphettad diskussion för hela branschen. Men jag hoppas att civilsamhället, internationella organisationer och regeringar inser att de har bollen nu och går framåt med ansvarsfulla åtgärder.”

expert
Göran Lindsjö
AI-rådgivare, Limetreelake

”En positiv konsekvens kan vara att strålkastarljuset riktas mot AI och att därmed för- och nackdelar liksom andra konsekvenser av AI diskuteras. Det skulle kunna leda till aptit på mer kunskap. Det finns ett behov av att demokratisera AI genom att fler påverkar användningen. Samtidigt kan negativa konsekvenser uppstå av missriktad rädsla.”

Läs mer:

bakgrund
 
Large language model
Wikipedia (en)
A large language model (LLM) is a language model consisting of a neural network with many parameters (typically billions of weights or more), trained on large quantities of unlabelled text using self-supervised learning. LLMs emerged around 2018 and perform well at a wide variety of tasks. This has shifted the focus of natural language processing research away from the previous paradigm of training specialized supervised models for specific tasks.
bakgrund
 
Longtermism
Wikipedia (en)
Longtermism is an ethical stance which gives priority to improving the long-term future. It is an important concept in effective altruism and serves as a primary motivation for efforts that claim to reduce existential risks to humanity.The key argument for longtermism has been summarized as follows: "future people matter morally just as much as people alive today; ... there may well be more people alive in the future than there are in the present or have been in the past; and ... we can positively affect future peoples' lives." These three ideas taken together suggest, to those advocating longtermism, that it is the responsibility of those living now to ensure that future generations get to survive and flourish.
bakgrund
 
AGI
Wikipedia (en)
Artificial general intelligence (AGI) is the ability of an intelligent agent to understand or learn any intellectual task that human beings or other animals can. It is a primary goal of some artificial intelligence research and a common topic in science fiction and futures studies. AGI is also called strong AI, full AI, or general intelligent action, although some academic sources reserve the term "strong AI" for computer programs that experience sentience or consciousness.Strong AI contrasts with weak AI (or narrow AI), which is not intended to have general cognitive abilities but is designed to solve exactly one problem. (Some academic sources reserve "weak AI" for programs that do not experience consciousness or do not have a mind in the same sense people do.)A 2020 survey identified 72 active AGI R&D projects spread across 37 countries.
Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen