Annons

Debatt: Regeringen bör utse en myndighet för ansvarfull AI

Den på senare tiden omskrivna AI-lösningen, ChatGPT, utmanar oss på ett helt nytt sätt. Med de möjligheter som det generativa AI-systemet skapar står vi samtidigt inför ett historiskt viktigt vägskäl – ska AI styra människan eller tvärtom, skriver Anna Felländer, Josefin Rosén och Li Felländer-Tsai, Överläkare, samtliga experter på AI-etik.

Foto:Steve Muir

Svenskt näringsliv och svenska myndigheter behöver ett etiskt förhållningssätt till AI, men framför allt stöd med riskbedömningsramverk för att styra utvecklingen av AI-lösningar i enligheter med våra värderingar. Dessutom står EU:s AI lagstiftning runt hörnet för ansvarfull AI. Det brådskar att regeringen utser en ansvarig myndighet för etiskt AI.

ChatGPT och andra generativa AI system skapar höga förväntningar om en efterlängtad demokratisering av AI. Fler människor kan ta del av och skapa nytt innehåll framtaget av algoritmer på historiskt data. Tröskeln för organisationer att tillvarata värdet av teknologin sänks. Nya innovativa affärsmodeller uppstår med fokus på stärkta kund- och medborgarrelationer. 

Samtidigt exponeras individer och samhället varje dag för oavsiktliga etiska och legala övertramp till följd av oreglerade AI-lösningar. En av anledningarna är att AI modeller lär sig på historiska data där det kan finnas oönskad partiskhet, vilket kan leda till social exkludering och diskriminering. Kränkningar sker även exempelvis när vi individer godkänner att data används i ett visst sammanhang utan insikt om hur algoritmer kan skapa insikter som är integritetskränkande när data kombineras med annan data. Detta är kostsamt för företag och myndigheter, exempelvis med indragna investeringar och ryktesmässiga katastrofer. Nyligen kunde det bevisas att regeringens avgång i Nederländerna 2021 berodde på en AI-lösning som felaktigt anklagade föräldrar, som erhållit föräldraförsäkring, för bedrägeri. Vidare har ett test utfärdats på en medicinskt Chatbot, baserad på OpenAI’s GPT-3, med resultatet att patienten rekommenderades att ta livet av sig. 

Generativa AI-system har högre grad av etisk riskexponering än andra AI-lösningar. Ett skäl är att användningen av generativa AI-system ofta sker genom API:er, vilket ger en låg grad av insyn över lösningen och avsaknad av kontroll över utvecklingen av den. Samtidigt sker de etiska och legala övertrampen subtilt och plötsligt, för små för att upptäckas, men med risk för exponentiell skada. Ett exempel är deep fakes, som i praktiken ofta används för att manipulera ett ansikte och en röst i video eller ett foto. Att generativa AI-modeller ofta görs tillgängliga som API:er kan göra det lättare för användare att komma åt och använda tekniken, vilket i sig kan öka risken för missbruk. API-baserade generativa AI-modeller är inte i sig riskabla, men sättet på vilket de används och den data de utbildas på kan göra dem riskabla.

EU:s AI lagstiftning, AI Act, träder i kraft 2024. Målet är att medborgare och konsumenter ska känna tillit och att EU’s värdegrund, inklusive mänskliga rättigheter, bibehålls. EU Kommissionen föreslår i AI Act att medlemsstat ska utse eller etablera minst en tillsynsmyndighet som ska ansvara för att säkerställa att de ”nödvändiga förfarandena följs.” Med den enorma potential i generativa AI-system, inte minst inom sjukvården, till exempel för att korrekt diagnosticera och optimera behandling av sjukdomar, är det avgörande att det finns tillgängliga riskbedömningsramverk att förhålla sig till samt att en ansvarig myndighet utses. AI etiska ramar skapar förhöjt innovationsklimat inom alla sektorer. Det brådskar därför att utse denna ansvariga myndighet och att riskbedömningsramverk görs tillgängliga så att svenskt näringsliv och svenska myndigheter inte bemöter AI Act med den yrvakenhet som kännetecknade GDPR. 

Anna Felländer, VD och grundare anch.AI

Josefin Rosén, Ph.D. Manager AI & Analytics Customer Advisory, Nordics, SAS Institute 

Li Felländer-Tsai, Överläkare och Professor Karolinska Institutet och Karolinska Universitetssjukhuset. Leder ”Center for Advanced Medical Simulation and Training” Karolinska Universitetssjukhuset.

Detta är en debatt- och opinionstext. Åsikterna som uttrycks är skribentens egna.

Det verkar som att du använder en annonsblockerare

Om du är prenumerant behöver du logga in för att fortsätta. Vill bli prenumerant kan du läsa Di Digitalt för 197 kr inkl. moms de första 3 månaderna.

spara
1090kr
Prenumerera