Varukorg Minimera varukorgen
SEK SEK EUR EUR |
Rabatt | - EUR | - SEK |
Summa | EUR | SEK |
Frakt | EUR | SEK |
Moms | EUR | SEK |
Totalt | EUR | SEK |
Add AI är ett humanistiskt initiativ som vill göra diskussionen om AI mindre teknisk. Ledorden är människovänlig och ansvarsfull. SIS ställer fem frågor om AI till Daniel Akenine, en av initiativtagarna som är teknik- och säkerhetschef på Microsoft.
text Ylva Carlsson
foto Johan Knobe
Du är medgrundare till addAI.org. Varför tog du det initiativet?
– Jag tyckte att det saknades ett forum för en öppen debatt om artificiell intelligens. I de flesta sammanhang stannar diskussionen vid teknik och att det finns otroligt mycket pengar att tjäna på AI. Det finns så många andra perspektiv som är viktiga. Hur kan vi människor dra nytta av AI? Och vad kan vi själva bidra med? Vi måste lära oss att förstå skillnaden mellan den mänskliga hjärnan och en algoritm.
Det är inte så enkelt att det ena alltid är bättre än det andra.
– AI är ju ett begrepp som har blivit superhett de två senaste åren och utvecklingen har gått otroligt snabbt under den tiden. Idag finns det flera forskningsresultat som bygger på algoritmer med den mänskliga hjärnan som förebild, som är vetenskapligt säkerställda. Vi har alltså på artificiell väg uppnått mänsklig förmåga inom en mängd olika områden. Ett exempel är ett test från Stanford-universitetet (SQuAD reading comprehension test) som mäter förståelse av text. I januari 2018 uppnådde AI-teknik från Microsoft ett bättre resultat än människor i att tolka texten i testet. Det kan innebära att vi i framtiden kommer att se allt fler nya AI-tjänster som läser och sammanfattar text åt oss människor.
Vilka frågor står högst på er agenda?
– Inom Add AI intresserar vi oss främst för de sociala, juridiska och etiska aspekterna av AI. Något vi funderar mycket över är vad som händer den dag då myndigheter börjar fatta beslut om oss människor med hjälp av AI. Hur kan man ifrågasätta dessa beslut och har man rätt att överklaga dem? Det är oerhört viktigt att förstå att ett företag, en kommun eller en organisation inte bara kan införa AI i sin verksamhet utan att förklara för sin personal och andra människor som berörs av förändringarna. För att känna sig trygga behöver människor veta hur AI-systemen fungerar och vilka effekter det kan få.
Vad skulle du säga är den enskilt största samhällsnyttan med AI? Och när kommer vi att märka resultat av det?
– Att AI gör det möjligt att öka både kvalitet och kvantitet i den offentliga sektorn. AI-system skulle i framtiden kunna hantera kanske hälften av alla vårdbesök och ge personaliserad rådgivning och diagnos. Det finns möjligheter inom väldigt många andra områden också, till exempel inom transporter tack vare självkörning eller miljö genom energioptimering.
Vad ser du som mest problematiskt med AI idag?
– Att ett AI-system inte är neutralt. Det kan inte bedöma komplexitet och dra "egna" slutsatser. De resultat som presenteras bygger ju på de data som någon annan har valt ut och försett systemet med. Om den data som matats in från början är vinklad och fördomsfull kommer ju resultatet också att bli det. Ett annat problem är att AI-system har svårt att förstå sammanhang i en större kontext. Systemen missar saker som kan tyckas enkla för människor, en målad cykel på en vägg kan ett AI-system tolka som en riktig cykel medan vi människor snabbt förstår av sammanhanget att det är en bild.
Du har i debatten efterlyst mer regleringar inom AI. Vad menar du konkret med det?
– Ja, det kanske verkar konstigt att jag som jobbar på ett så innovativt företag som Microsoft förespråkar mer reglering och ramar. Men om det inte sker ser jag en stor risk för att användningen av AI kommer att hämmas. Myndigheter och politiker måste bli bättre på att sätta sig in i tekniken bakom AI och på att följa utvecklingen både i Sverige och utomlands. Med hjälp av regleringar och ramverk kan en vilda västern-kultur stävjas. Här fyller standarder en viktig funktion. Tack vare dem kan man uppnå större förtroende för många digitala tjänster. Ett exempel är ISO 27018 som adresserar integritetsfrågor i molntjänster. Det kan till exempel handla om att inte få använda data i molntjänster för reklamändamål, att säkerställa radering av temporära filer eller hantering av fysiska diskar som kan innehålla personlig information.
Detta är en artikel ur Magasinet S tema AI.
"Vi måste lära oss att förstå skillnaden mellan den mänskliga hjärnan och en algoritm."
Daniel Akenine, Teknik och säkerhetschef på Microsoft
Ett nätverk/kunskapsinitiativ om AI som bildades 2017.
I arbetsgruppen ingår Daniel Akenine, säkerhetschef på Microsoft, Rebecka Cedering Ångström, forskare vid Ericsson Consumer and Industry Lab, Jonas Stier, professor i sociologi, Cecilia Magnusson Sjöberg, professor i juridik, och Helena Blackbright, doktorand i innovationsledning. Gruppen arbetar bland annat för kunskapsutbyte inom AI med hjälp av seminarier, utgivning av rapporter etc.
Läs mer om verksamheten på www.addai.org.
På SIS finns kommittén TK 611, med experter från näringsliv, samhälle och ideella organisationer, som bevakar och deltar i den internationella standardiseringen inom AI, internet of things, big data, molntjänster mm.
Arbetet bidrar till att snabba på processen att ta fram standarder som säkerställer neutral och hållbar AI. Vill du delta eller veta mer?