Annons

Bosch köper storpost i Husqvarna – aktien rusar

Foto:Jesper Frisk, pressbild/Bosch

Bosch har köpt 12 procent av aktierna i Husqvarna efter att ha smugit in i ägarlistan före årsskiftet. 

”Det är ett strategiskt val”, säger Boschs presskontakt Lotta Törnberg om köpet.

Det tyska industribolaget vill dock inte berätta vem de har köpt aktierna av, men de båda storägarna Investor och Lundbergföretagen uppges inte vara inblandade i affären.

Innehåll från anch.AIAnnons

Människan ska styra AI – inte tvärtom

Självlärande algoritmer på kombinerande dataset utan transparens, förklarbarhet och ansvar öppnar upp för ett landskap av etiska och legala risker. Samtidigt är AI-implementering ofta avgörande för att stärka relevans och effektivitet i en organisation.

Som om inte dessa faktorer brådskar nog står EU:s lagstiftning kring AI runt hörnet med massiva rapporteringskrav och riskbedömningsprocesser. 

– Lyfter vi blicken är det självklart att mänskliga rättigheter efterlevs i den digitala miljön, säger Anna Felländer.

Organisationer vill göra rätt, men hittills har de inte kunnat. anch.AI erbjuder en plattform som kopplar ihop tech-team med riskhanteringsteam så att de har samma uppfattning av etiska risker och verktygför att hantera dessa. 

– I grunden handlar det om att se till att företag får möjlighet att göra det som är rätt, säger Anna Felländer.

Många exempel på oavsiktliga misstag

85 procent av alla AI-lösningar leder till missvisande resultat på grund av partiskhet i data, algoritmer och de team som ansvarar för dem. Det slår brett över sektorer, i privata företag såväl som i offentliga myndigheter, och leder till kostsamma oreglerade risker som diskriminering, integritetskränkningar och förlorad förmåga till självständiga beslut. 

Det finns många exempel på oavsiktliga misstag med förödande konsekvenser. Nyligen kunde det bevisas att regeringens avgång i Nederländerna 2021 berodde på en AI-lösning som felaktigt anklagade föräldrar, som erhållit föräldraförsäkring, för bedrägeri. Vidare har man upptäckt att test som utfärdats på en medicinskt Chatbot, baserad på OpenAI’s GPT-3, resulterat i att patienten rekommenderades att ta livet av sig. 

Ett annat problematiskt exempel är när AI-lösningar för kreditvärdering nekat kredit till en kvinna medan en man med exakt samma ekonomiska ställning har blivit beviljad kredit. 

– Utan ett etiskt filter lär sig algoritmer på historiskt data med oönskade förlegade och missvisande normer. Etiska feltramp uppstår även när självlärande algoritmer med målvariabler som vinst, engagemang och ökad försäljning tar beslut av etisk karaktär utan att detta kan kontrolleras eller identifieras, förklarar Anna Felländer.

Risken finns att detta sedan skalas upp bortom kontroll med social exkludering och kränkningar som följd. Kränkningar kan även ske när individer till exempel godkänner att data används i ett visst sammanhang utan insikt om hur algoritmer kan skapa insikter som är integritetskränkande när data kombineras med annan data. 

– Styrning och kontroll av AI-etiska risker är avgörande för att undvika den här typen av kostsamma feltramp. Idag talas det om Glas Organizations som det ”nya svarta”, med rapportering och transparens som ett sätt att vinna kunders förtroende och tillit. Denna trend förstärks i den datadrivna AI-era vi lever i, menar Anna Felländer.

Etiska avvägningar högst upp på agendan

Etiska avvägningar som tas i tech-teamen behöver göras synliga eftersom det handlar om kritiska affärsmässiga beslut. Hur smart kan en bil, ett hem eller en stad bli utan att integritetskränka? När övergår rekommendationsmotorer från att skapa effektivitet och skräddarsydda tjänster till att vi blir manipulerade in i oönskade beteenden? 

Det krävs en förståelse mellan tech-, compliance- och affärsteam. Till exempel när tech-team gör avvägningar mellan AI-modellens grad av rättvisa och dess träffsäkerhet, behöver detta översättas till en kontext där lösningar används och till aktuella regelverk och standarder. Först då kan vd och styrelse få riskindikatorer med en 360-gradersvy. 

Innovationer människan kan lita på 

Det är otvivelaktigt så att ansvarfull AI kommer bli en konkurrensfördel eftersom det handlar om tillit. Men det handlar även om något större. 

– Vi står inför ett vägval. Vi kan inte säga nej till vinsterna som AI-drivna innovationer ger inom till exempel områden som sjukvård, integration och undervisning. Vi människor ska styra AI – inte tvärtom, avslutar Anna Felländer.

Om anch.AI
anch.AI grundades 2018 för att hjälpa organisationer att detektera, mäta, styra och undvika AI-etiska och legala risker. anch.AI erbjuder både utbildning, seminarier, rådgivning och en plattform som sammanför data, processer och människor för att säkerställa etisk och laglig AI. Målet är att företag kan omfamna vinsterna med AI med ett etiskt filter, en försäkring mot etiska och legala övertramp. anch.AI’s kunder är privata och offentliga organisationer. anch.AI har just lanserad en AI Act Governance Sandbox, där medlemmar bland annat får nyhetsbrev om uppkommande AI Act och ansvarsfull AI över lag, här kan vem som helt boka en session för att i en säker miljö testa sin AI lösning mot etiska risker och hur den står sig mot uppkommande AI Act. 

Läs mer om anch.AI här

 

Artikeln är producerad av Brand Studio i samarbete med anch.AI och ej en artikel av Dagens industri

Det verkar som att du använder en annonsblockerare

Om du är prenumerant behöver du logga in för att fortsätta. Vill bli prenumerant kan du läsa Di Digitalt för 197 kr inkl. moms de första 3 månaderna.

spara
1090kr
Prenumerera