Som om inte dessa faktorer brådskar nog står EU:s lagstiftning kring AI runt hörnet med massiva rapporteringskrav och riskbedömningsprocesser.
– Lyfter vi blicken är det självklart att mänskliga rättigheter efterlevs i den digitala miljön, säger Anna Felländer.
Organisationer vill göra rätt, men hittills har de inte kunnat. anch.AI erbjuder en plattform som kopplar ihop tech-team med riskhanteringsteam så att de har samma uppfattning av etiska risker och verktygför att hantera dessa.
– I grunden handlar det om att se till att företag får möjlighet att göra det som är rätt, säger Anna Felländer.
Många exempel på oavsiktliga misstag
85 procent av alla AI-lösningar leder till missvisande resultat på grund av partiskhet i data, algoritmer och de team som ansvarar för dem. Det slår brett över sektorer, i privata företag såväl som i offentliga myndigheter, och leder till kostsamma oreglerade risker som diskriminering, integritetskränkningar och förlorad förmåga till självständiga beslut.
Det finns många exempel på oavsiktliga misstag med förödande konsekvenser. Nyligen kunde det bevisas att regeringens avgång i Nederländerna 2021 berodde på en AI-lösning som felaktigt anklagade föräldrar, som erhållit föräldraförsäkring, för bedrägeri. Vidare har man upptäckt att test som utfärdats på en medicinskt Chatbot, baserad på OpenAI’s GPT-3, resulterat i att patienten rekommenderades att ta livet av sig.
Ett annat problematiskt exempel är när AI-lösningar för kreditvärdering nekat kredit till en kvinna medan en man med exakt samma ekonomiska ställning har blivit beviljad kredit.
– Utan ett etiskt filter lär sig algoritmer på historiskt data med oönskade förlegade och missvisande normer. Etiska feltramp uppstår även när självlärande algoritmer med målvariabler som vinst, engagemang och ökad försäljning tar beslut av etisk karaktär utan att detta kan kontrolleras eller identifieras, förklarar Anna Felländer.
Risken finns att detta sedan skalas upp bortom kontroll med social exkludering och kränkningar som följd. Kränkningar kan även ske när individer till exempel godkänner att data används i ett visst sammanhang utan insikt om hur algoritmer kan skapa insikter som är integritetskränkande när data kombineras med annan data.
– Styrning och kontroll av AI-etiska risker är avgörande för att undvika den här typen av kostsamma feltramp. Idag talas det om Glas Organizations som det ”nya svarta”, med rapportering och transparens som ett sätt att vinna kunders förtroende och tillit. Denna trend förstärks i den datadrivna AI-era vi lever i, menar Anna Felländer.
Etiska avvägningar högst upp på agendan
Etiska avvägningar som tas i tech-teamen behöver göras synliga eftersom det handlar om kritiska affärsmässiga beslut. Hur smart kan en bil, ett hem eller en stad bli utan att integritetskränka? När övergår rekommendationsmotorer från att skapa effektivitet och skräddarsydda tjänster till att vi blir manipulerade in i oönskade beteenden?
Det krävs en förståelse mellan tech-, compliance- och affärsteam. Till exempel när tech-team gör avvägningar mellan AI-modellens grad av rättvisa och dess träffsäkerhet, behöver detta översättas till en kontext där lösningar används och till aktuella regelverk och standarder. Först då kan vd och styrelse få riskindikatorer med en 360-gradersvy.
Innovationer människan kan lita på
Det är otvivelaktigt så att ansvarfull AI kommer bli en konkurrensfördel eftersom det handlar om tillit. Men det handlar även om något större.
– Vi står inför ett vägval. Vi kan inte säga nej till vinsterna som AI-drivna innovationer ger inom till exempel områden som sjukvård, integration och undervisning. Vi människor ska styra AI – inte tvärtom, avslutar Anna Felländer.
Om anch.AI
anch.AI grundades 2018 för att hjälpa organisationer att detektera, mäta, styra och undvika AI-etiska och legala risker. anch.AI erbjuder både utbildning, seminarier, rådgivning och en plattform som sammanför data, processer och människor för att säkerställa etisk och laglig AI. Målet är att företag kan omfamna vinsterna med AI med ett etiskt filter, en försäkring mot etiska och legala övertramp. anch.AI’s kunder är privata och offentliga organisationer. anch.AI har just lanserad en AI Act Governance Sandbox, där medlemmar bland annat får nyhetsbrev om uppkommande AI Act och ansvarsfull AI över lag, här kan vem som helt boka en session för att i en säker miljö testa sin AI lösning mot etiska risker och hur den står sig mot uppkommande AI Act.
Läs mer om anch.AI här
Artikeln är producerad av Brand Studio i samarbete med anch.AI och ej en artikel av Dagens industri