Krönika: ”Därför behöver AI hybrida molnplattformar”

krönika Hajpen kring ChatGPT har fått fler företag att blicka mot artificiell intelligens och maskininlärning. Att utveckla och hantera ai-modeller ställer höga krav på infrastrukturen och det behövs specifika ramverk och verktyg. Hybrida molnplattformar är idealiska i sammanhanget, skriver Dominic Schmitt på Red Hat i en krönika.

Krönika: ”Därför behöver AI hybrida molnplattformar”

Användningen av artificiell intelligens och maskininlärning ger fördelar som påskyndade processer, högre kvalitet och minskad arbetsbelastning för anställda. Men införandet av ai-lösningar är även förknippat med höga krav på hårdvara med kostnadskrävande GPU (Graphics Processing Unit)-accelerationsfunktioner, samt på den arkitekturbas eller processtruktur som krävs för en flexibel ai/ml-miljö. Det bör även finnas möjlighet att integrera och bearbeta ai/ml-arbetsbelastningar – även i stor skala.

Uppgiften är att kunna skapa en flexibel och skalbar grund för att utbilda, underhålla, finjustera och faktiskt använda ai-modeller i produktionsmiljöer. Det handlar främst om att utveckla modeller, inklusive utbildning, testning och att välja den mest exakta modellen. Därefter måste modeller integreras i applikationernas utvecklingsprocesser. Utöver detta är det viktigt att övervaka och hantera modellerna för att mäta prestanda och agera på potentiella dataavvikelser i produktionen.

Öppna hybrida molnplattformar fungerar som grund

Den idealiska grunden för många arbetsuppgifter är en öppen Kubernetes-baserad hybrid molnplattform på vilken det gått att utveckla och utbilda ai-modeller, samt integrera dessa i applikationer. Plattformen möjliggör skalbara konfigurationer anpassade för dataforskare och utvecklare. En sådan plattform stödjer även finjustering av befintliga modeller enligt affärsspecifika krav, vilket minskar kostnader för inledande modellutbildning och minskad tid till värde.

Viktigast är att en hybrid molnplattform har pålitliga säkerhetskontroller, versionshanteringar och arkiveringar som uppfyller huvudkraven för säker ai- och ml-implementering. Vid distribution av ai-applikationer i produktionsmiljö måste organisationens säkerhet, efterlevnad och styrning alltid beaktas. Här kan en öppen plattform forma vägen från experiment till produktion.

En öppen hybrid molnplattform bör erbjuda följande funktioner:

  • Deployment pipelines för spårning av ai/ml-experiment och för automatiserade ml-arbetsflöden som hjälper datavetare och utvecklare att iterera ml-projekt snabbt och integrera automatisering med applikationsdistribution och uppdateringar
  • Ett Model Serving-ramverk, där datavetare kan publicera sina utbildade och validerade ml-modeller, som applikationsutvecklare sedan kan komma åt via standard-api:er
  • Ett Model Monitoring-ramverk som gör det möjligt för organisationer att hantera prestanda- och driftmätningar från en central instrumentpanel.

En viktig fördel med öppen hybrid molnplattform är den höga flexibilitet den erbjuder företag kring den infrastruktur som används: från en plats- till en molnbaserad miljö. Företag på strikt reglerade marknader kan därmed utveckla modeller med känsliga data på lokal nivå, träna upp dem och sedan använda dem i molnet. Omvänt är det också möjligt att utveckla och träna modeller med anonymiserad testdata i exempelvis det publika molnet och sedan integrera dessa modeller i en lokal applikation eller vid kanten.

Mlops-modeller efterfrågas alltmer

I takt med ökad användning av ai och ml, är Mlops (Machine Learning Operations)- som bygger på de etablerade principerna inom Devops en viktig trend. Mlops gör det möjligt att effektivt utveckla driftsätta, hantera och underhålla ml-modeller. Genom att använda Devops- och Gitops-principer kan detta förenkla och automatisera den iterativa processen för att integrera ml-modeller i mjukvaruutveckling, produktionsutrullning, övervakning, anpassning och omdistribution. Mlops-processerna stödjer datavetare i utvecklings- och driftarbetsgrupper att distribuera ml-modeller i produktionsmiljö. Med en öppen hybrid molnplattform kan företag distribuera Mlops för sammanhängande ml-livscykelhantering över egna datacenter, publika molnmiljöer och edge computing.

Ai erbjuder ett brett applikationsutbud

Det finns många möjliga ai-applikationer för ai-baserade lösningar. Molnanvändning och ai-stödd automatisering kan underlätta hantering och utveckling av it-infrastrukturer. Inte minst med tanke på den bristfälliga tillgången på kvalificerad arbetskraft inom it-sektorn. Inom tillverkning är ai-baserad tillståndsövervakning avgörande för att bibehålla hög kvalitet och öka produktiviteten. Ai-stödda prediktiva underhållsinsatser är också möjliga, tack vare att maskinernas nedtid kan reduceras avsevärt. Typiska ai-applikationer inom banksektorn innefattar riskhantering med förbättrad riskanalys och bedrägeriupptäckt.

Generativ ai-utveckling kommer generellt sett att stödja många nya användningsområden, från till exempel autonom körning, optimerade försörjningskedjor till upptäckt och behandling av sjukdomar. Slutligen kommer ai vara en betydande drivkraft för implementering av smarta stadsbyggnadsmodeller.

I princip kommer nästan alla verksamheter att behöva arbeta intensivt med ai och ml inom en snar framtid. Öppna hybrida molnplattformar med tillgång till certifierade ai/ml-partner inom ett ekosystem kan ge ett optimalt stöd här. Företag kan därmed enkelt och snabbt använda kompletta lösningar för att utveckla, distribuera och hantera ml-modeller för ai-drivna intelligenta applikationer.

Dominic Schmitt är Director Ecosystem Central Europe på Red Hat

Senaste artiklarna

Hämtar fler artiklar
Till startsidan
Telekom idag

Telekom idag Premium

Nyhetstjänsten för dig som jobbar med professionell kommunikation. Nu med nya nischade nyhetsbrev för ditt intresseområde och utbildnings-tv.