”Låt inte hypotetiska risker stoppa den positiva ai-utvecklingen”

krönika Ai-tekniken har potential att lösa stora samhällsutmaningar och det bör vara centralt i diskussionerna kring de regelverk som är under utveckling. Vi behöver självklart vara medvetna om riskerna, men det gynnar ingen att fokusera för mycket på hypotetiska risker som skapar onödig rädsla och distansering. Det skriver Josefin Rosén, ai-expert på SAS Institute, i en krönika.

”Låt inte hypotetiska risker stoppa den positiva ai-utvecklingen”

EU-parlamentet har nyligen kommit överens om EU-kommissionens förslag till ai-förordning, den så kallade AI Act. Då vissa delar, bland annat delar som rör högrisk-ai kommer vara tillämpbara först efter en övergångsperiod har kommissionen introducerat The AI Pact – ai-pakten – där man ber branschen att frivilligt åta sig att följa ai-förordningen innan den är tillämpbar fullt ut. Det är särskilt viktigt eftersom användningen av generativa och allmänna ai-system har ökat snabbt de senaste månaderna.

Senaste tidens händelser inom Open AI har kastat ljus på de enorma ekonomiska värden som står på spel och hur dessa påverkar konkurrensen mellan de stora aktörerna. Händelserna har också ytterligare synliggjort riskerna med ai och de olika sätt att se på riskhantering som kan rymmas inom en ledningsgrupp för en tjänst som varit banbrytande för att göra ai tillgängligt för den breda allmänheten.

Under det senaste året har flera experter varnat för de potentiellt negativa effekterna av tekniken. Max Tegmarks sommarprat, där han öppet diskuterade mänsklighetens möjliga framtid, gav många en tankeställare. Deepfakes har blivit allt vanligare i våra digitala kanaler och bedrägerier blir allt mer sofistikerade med hjälp av ai. Oro finns även över hur ai kan påverka olika branscher och yrkesgrupper. Detta bekräftas av en Kantar Sifo-undersökning som visar att andelen som har en positiv inställning till ai har minskat från 54 procent till 35 procent under de senaste två åren.

Ai är omvälvande och behöver diskuteras öppet. Internationella toppmöten som AI Safety Summit i Storbritannien är viktiga, och det behövs motsvarande initiativ på olika nivåer för att diskutera säkerhet och ansvarsfull ai-utveckling regionalt och inom olika verksamhets- och användningsområden, men för mycket fokus läggs på hypotetiska risker vilket skapar onödig rädsla. Vi ska vara medvetna om riskerna, även de hypotetiska, men det får inte blockera den positiva ai-utvecklingen.

När tekniken används på rätt sätt kan den förändra våra liv till det bättre. Exempelvis kan ai användas för att optimera och effektivisera resursanvändning, vilket i sin tur kan leda till positiva effekter för miljö och klimat. Vidare kan teknologin användas för innovationer inom medicin och sjukvård, främja effektiviteten och avlasta personalen inom hälso- och sjukvårdssektorn, samt stärka andra samhällsviktiga funktioner. De exempel som nämns här är bara några samhällsnyttiga tillämpningsområden. Allteftersom ai fortsätter att utvecklas och används i praktiska tillämpningar, kommer fler och fler användningsområden att upptäckas och förstärkas.

Utvecklingen kan fortsätta i det fördolda

Precis som många andra tekniker kan ai användas på ett oansvarigt sätt. Men att pausa utveckling och forskning inom ai är inte rätt väg. Tvärtom riskerar vi då att utvecklingen fortsätter i det fördolda, helt utan insyn. Och de aktörer som utvecklar ai för dunkla eller kriminella syften kommer fortsätta, oavsett om man i öppna internationella sammanhang skulle komma överens om en paus, eller avsevärd begränsning. Utvecklingen av ai i den öppna, fria och legala världen behöver fortsätta – inte minst för att kunna svara mot hoten. Och den måste ske på ett så ansvarsfullt, hållbart, etiskt och transparent sätt som möjligt.

Företag och myndigheter som köper in och använder sig av produkter och tjänster som använder sig av ai har ett ansvar för att hela tiden hålla sig uppdaterade och arbeta medvetet med frågor som rör ai. Det räcker inte med att tillsätta en ai-ansvarig. Precis som klimathänsyn har blivit en hygienfaktor, måste ansvarsfullhet kring ai-frågor ingå i det dagliga arbetet – det behöver “sitta i väggarna”. Ai behöver bli en naturlig del av utbildning och kompetensutveckling – för alla. Transparens är en nyckel till att kunna lita på ai och som konsumenter, kunder och medborgare ska vi kunna kräva att få en tydlig bild av hur och när ai används. Inte bara av företag som utvecklar tjänster och produkter med hjälp av ai, utan även av organisationer som använder sig av ai-relaterade tjänster och produkter i sina system.

Vi står inför en framtid av stora utmaningar, men också stora möjligheter. Pålitlig, ansvarsfull ai behöver man planera för redan innan man börjar utvecklingen och man behöver arbeta medvetet med detta genom hela ai-livscykeln. Från data till beslut. Det är vårt gemensamma ansvar att se till att utvecklingen inte går åt fel håll utan istället realiserar potentialen.

Josefin Rosén är ai-expert på SAS Institute

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Telekom idag

Telekom idag Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Nu med nya nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.