Första steget är att sätta upp en robust, flexibel och skalbar infrastruktur för att kunna hantera ai-utveckling på ett effektivt sätt. Här behöver företagen exempelvis tillgång till de bästa GPU:erna (den eftertraktade ai-hårdvaran), rätt molnlösningar och möjlighet att byta ut och uppdatera olika delar i teknikstacken. På så sätt är ai-infrastrukturen motståndskraftig och kan enkelt förändras och utvecklas vilket gör det lättare att följa både nuvarande och kommande lagstiftning.
Den plattform som sedan används för ai-utvecklingen behöver tillgång till verktyg och processer som stöder översyn och datastyrning under hela ai-modellernas livscykel. Genom att integrera verktyg och processer i plattformen för ai-utveckling kan företag bygga en bra grund för ansvarsfull ai och därmed bättre följa regleringar. Exempel på sådana funktioner är självbetjäningstjänster för ai-utvecklare med realtidsövervakning av datakvalitet och mätvärden, mallar för att efterleva standarder för dataintegritet, etik och regelefterlevnad och automatiserade arbetsflöden som observerar och effektiviserar testning och driftsättning.
Avgörande för att behålla kundernas förtroende
Genom att införa teknik och processer som skyddar dataintegriteten, det vill säga ser till att varken träningsdata eller produktionsdata missbrukas eller används på fel sätt, säkerställs också att ai-projekt inte missbrukar eller använder icke tillåten data vilket gör att man följer gällande lagstiftning och även stärker tilltron till ai-projekten både intern och externt. För exempelvis telekomoperatörer, som vanligtvis hanterar känslig kundinformation, är detta avgörande för att inte bara följa EU:s nya regelverk utan även för att behålla förtroendet från kunderna. På så sätt vet både medarbetare och kunder att bolaget utvecklar ai på ett ansvarsfullt sätt.
För att sedan snabbt kunna skala upp ai-projekten bör företag centralisera den inledande utvecklingen och ai-modellskapandet och sedan göra det möjligt att lokalt finjustera och driftsätta ai-projekten.
Genom att vidta dessa åtgärder kan svenska företag skapa ett tillvägagångssätt som garanterar att all ai-utveckling är ansvarsfull och att det finns både tekniska och processmässiga möjligheter att ändra, anpassa och utveckla metodiken och sättet som man utvecklar sina ai-modeller på. Det gör att svenska företag skapar förtroende hos medarbetare, kunder och partnerföretag för hur man hanterar de ai-modeller som utvecklas och att företagen enklare kan följa utvecklingen av lagstiftning och regelverk.
Kevin Cochrane är marknadschef på molnbolaget Vultr
publicerad 6 september 2024