Hem
Utvecklingen av AIGästkrönika

”Fysisk AI förstärker etiska utmaningar”

Anna Felländer, medgrundare till Asenion och gästkrönikör hos Omni Ekonomi.

Fysisk AI är det nya diskussionsämnet bland kännarna. Det tar frågorna om etik och juridik till helt nya nivåer, skriver AI-experten Anna Felländer.

Det är 2026 och alla pratar om fysisk AI. Språkmodeller hjälper, genom simulering med syntetisk data, robotar att förstå den fysiska världen och möjliggör att de kan resonera och interagera med människor och omgivningen. Detta är revolutionerande och snabbar upp och suddar ut de begränsningar som utvecklingen av robotar haft historiskt. Under CES-konferensen för två veckor sedan i Las Vegas beskrev Nvidias vd Jensen Huang att detta är ”a Chat GPT moment for physical AI”.

Han beskrev språkmodellerna som “sanningen av text” och att vi nu ger oss in i en “sanning för den fysiska världen” och ”sanning för robotar”.

Men när språkmodeller kopplas till robotar flyttas riskerna från enbart information till en fysisk och samhällelig påverkan. Nu mer än någonsin förstärks både de etiska utmaningarna och frågetecken kring juridiskt ansvar.​

Exempel på etiska och legala fallgropar:
• Hallucinationer kan bli fysiska säkerhetsrisker, till exempel om en robot misstolkar en instruktion. Dessutom kan vi människor känna av robotens sociala närvaro som kan leda till att vi överskattar robotens kompetens.

• Roboten agerar med inbyggd partiskhet och diskriminerar. Till exempel vem roboten uppmärksammar, hur den talar, vem den lyssnar på eller ignorerar.​

• Större exponering för angrepp. En angripare kan mata in skadliga instruktioner via QR-koder, ljud eller nätverksmeddelanden som roboten tolkar som legitima mål.​

• Frågan kring ansvar blir mer komplex eftersom flera olika aktörer påverkar hur systemet beter sig (tillverkare av hårdvara, språkmodeller, applikationslager osv) och ingen av dem har full kontroll. Det blir därför ett ökat gap mellan den ursprungliga avsikten och de faktiska handlingarna, vilket försvårar möjligheten att utkräva ansvar till exempel enligt traditionella regler om vårdslöshet och produktansvar.

Återigen galopperar teknologin i en riktning där regelverk har svårt att hänga med. Vad kan vi då lära oss av ”the real Chat GPT moment” vi upplevde för bara några år sedan? Jo, att den tekniska utvecklingen behöver understödjas av juridiska och etiska avvägningarna kring ansvar och förklarbarhet. Ska Sam Altman gång på gång kunna avsäga Open AI:s ansvar för hur innehåll används eller vilseleder när det flyttas ut i en fysisk miljö?

Jag tycker att den viktigaste lärdomen är att tidigt identifiera i vilka miljöer och sammanhang som det innebär låg risk för oss människor att interagera med roboten, och i vilka miljöer det innebär hög och därmed anpassa krav därefter, eller definiera miljöer där roboten ska förbjudas. Kommer ni ihåg historien om när Chat GPT rådgav en människa att ta livet av sig…? Detta vill vi inte se i fysisk form.

Bakgrund | Anna Felländer

  • Medgrundare av Asenion, leder Europakontoret
  • Bakgrund på Finansdepartementet, Statsrådsberedningens krishanteringskansli
  • Tidigare chefekonom på Swedbank och affilierad forskare på KTH inom ansvarsfull AI, rådgivare till bland annat digitaliseringsministern
  • Skriver om ansvarsfull AI utifrån ett brett perspektiv

Fotnot: Skribenten representerar ett företag som är aktör med egna intressen på marknaden.

Hit kan du vända dig om du mår dåligt

För dig som mår dåligt finns alltid hjälp att få. Det är viktigt att ta kontakt och be om hjälp.

Vid akuta lägen eller vid tankar på självmord, ring alltid 112.

Nedan listas en rad olika stödnummer och organisationer som du kan kontakta.

Omni är politiskt obundna och oberoende. Vi strävar efter att ge fler perspektiv på nyheterna. Har du frågor eller synpunkter kring vår rapportering? Kontakta redaktionen