”Den är bra för att den reser frågan om etiska och legala övertramp som företag behöver ställas ansvariga för. Den är mindre bra eftersom den föreslagna lösningen, tycker jag, inte är att stoppa utvecklingen utan att påskynda möjligheten för företag att kontrollera för riskerna och förklara för användare hur de styr sina AI lösningar på ett ansvarsfullt sätt.
Vi användare borde ställa högre krav på förklarbarhet och transparens. Positivt är att EU:s regelverk, AI Act, ligger runt hörnet och kommer att kräva hög grad av ansvar och rapportering. Det är hög tid för företag att förbereda sig redan i dag.”
”Framtidsrädda missar dagens faror med AI”
Spridning av desinformation och diskriminering av människor är reella faror med AI som behöver hanteras i dag. Det riskerar att hamna i skymundan efter det uppmärksammade uppropet i techvärlden, där så kallad artificiell generell intelligens pekas ut som det stora hotet framåt, säger experter till Omni Ekonomi.
– När folk är så upptagna av rädsla för framtiden, är det ingen som ägnar någon större uppmärksamhet åt de skador som AI orsakar i dag. Det tycker jag är väldigt oroande, säger Virginia Dignum, AI-forskare vid Umeå universitet.
Det var i förra veckan som AI-experter, Elon Musk och andra techprofiler – till mångas förvåning – föreslog en AI-paus med hänvisning till riskerna. Anna Felländer, grundare av startupen Anch.AI, tror att det öppna brevet kan leda till högre medvetenhet kring de etiska och sociala nedsidorna.
– Förhoppningsvis blir det ingen paus i realiteten, bara en paus i attityden, säger hon.
Vad tycker du om uppmaningen att pausa utvecklingen av AI?
”En paus av AI-utveckling skulle få en liten effekt på spridningen av LLM:er (en typ av språkbaserad AI, reds anm). Jag tror att pausad användning är en mer effektiv metod, så som Italien har föreslagit. De största riskerna är förknippade med hur LLM:er används och missbrukas.”
”AI tillför redan idag viktiga nyttor inom sjukvård, klimat, utbildning, säkerhet, arbetsmiljö och många andra områden. Vi står inför en snabb utveckling av än fler nyttor baserat på bland annat GPT-4 och kommande stora språkmodeller. Samtidigt finns det nackdelar som vi måste hantera. Jag är inte säker på att just de potentiella nackdelar man pekar på i brevet är de mest relevanta.”
Vad skulle en sådan paus leda till?
”Till att regelverk anpassas och att företag får möjlighet att kontrollera etiska och legala risker. Det krävs att AI-utvecklingen i alla steg har en människa inblandad. Dessutom behövs processer för riskbedömning av den fara som potentiellt kan orsakas användaren.”
”En paus av användandet av LLM:er bör kombineras med konkreta steg för att öka regleringen. Inte bara fina ord om AI-principer, utan specifika lösningar. Till exempel, krav på vilka regler som gäller för att sådana system ska vara tillgängliga [...] De kan omfatta kunskapskrav hos den som använder systemen. Vi låter inte läkemedelsbolag lansera mediciner utan massor av tester, och inte heller personer utan körkort köra bil.”
”Jag har svårt att se hur det praktiskt skulle genomföras. Men om det trots allt genomfördes av till exempel organisationer i Nordamerika och Europa och inte i andra delar av världen skulle det kunna leda till en obalans i utvecklingen.”
Vilka faror är du mest orolig för i snabba AI-utvecklingen? Och vilka farhågor är överdrivna?
”Farorna är att människor diskrimineras, att deras integritet kränks och att de förlorar sin rättighet till att fatta självständiga beslut.
Överdrivet är att mänskligheten står helt försvarslösa inför utvecklingen. Vi människor ska styra AI, inte tvärtom. Nu gäller det för företag att implementera de bästa verktygen för att kontrollera, styra och rapportera ansvarfull användning av AI.”
”De största skälen till oro är de problem vi redan ser, som genererandet av desinformation och att arbetare kommer i kläm eller diskrimineras.
I det öppna brevet uttrycker författarna rädsla för ’superintelligens’ eller Artificial General Intelligence, AGI. Det är ett budskap som vi ofta får höra från den så kallade longtermism-rörelsen . När folk är så upptagna av rädsla för framtiden, är det ingen som ägnar någon större uppmärksamhet åt de skador som AI orsakar i dag. Det tycker jag är väldigt oroande.”
”Detta brev verkar rikta in sig på faror med AGI, så kallad generell AI. För mig är det teoretiska faror som ligger ganska långt in i framtiden. Jag är snarare orolig för vad bristande kunskap hos politiker, media och allmänhet kan leda till. Det kan bland annat vara en grogrund för rädsla eller överdrivna förhoppningar.
Det kan också innebära att man i Sverige kraftigt underinvesterar inom AI och därmed förlorar både konkurrenskraft och kvalitet i välfärden. Men självklart finns det faror, åtminstone på kort sikt, när man till exempel får tvärsäkra resonemang från AI som är fel eller när fördomar multipliceras. En troligen betydligt större risk är konsekvenserna av den snabba utveckling inom AI-området som sker i länder med auktoritära regimer.”
Vad tror du att uppropet kommer att få för konsekvenser?
”Högre medvetenhet kring de etiska och sociala nedsidorna av AI och påtryckning gentemot företag att styra, kontrollera och rapportera kring sin användning av AI. Förhoppningsvis blir det ingen ’paus’ i realiteten, bara en paus i attityden.”
”Framförallt en upphettad diskussion för hela branschen. Men jag hoppas att civilsamhället, internationella organisationer och regeringar inser att de har bollen nu och går framåt med ansvarsfulla åtgärder.”
”En positiv konsekvens kan vara att strålkastarljuset riktas mot AI och att därmed för- och nackdelar liksom andra konsekvenser av AI diskuteras. Det skulle kunna leda till aptit på mer kunskap. Det finns ett behov av att demokratisera AI genom att fler påverkar användningen. Samtidigt kan negativa konsekvenser uppstå av missriktad rädsla.”