ChatGPT och andra tjänster för generativ artificiell intelligens erbjuder fantastiska möjligheter men det finns också risker man måste vara medveten om, inte minst när det gäller förlorad kontroll över känsliga uppgifter som rör den egna organisationens verksamhet.
Mattermost, en samarbetsplattform som bygger på open source-mjukvara, öppnar nu möjligheten att använda sig av ChatGPT och andra generativa ai-tjänster i deras tjänst. Det innebär att exempelvis utvecklare som arbetar i plattformen kan behålla full kontroll över det interna materialet så att det inte sprids till externa parter.
Enligt Mattermost utgör just utvecklare den största användargruppen och dessa kommer att kunna använda sig av generativ ai för att sammanfatta information och ta fram nya, innovativa tjänster.
– När företag och verksamheter implementerar teknik med generativ ai, som till exempel ChatGPT, uppstår det ett akut säkerhetsbehov. Dataintegriteten måste säkras, man måste se till att ha kontroll över sin data och det måste finns avancerade lösningar för åtkomst. Detta är viktiga krav som behöver uppfyllas när man använder ai-system med interna data från den egna organisationen, säger Ian Tien, vd på Mattermost.
Användare av Mattermost kommer att kunna ta hjälp av specialanpassade ChatGPT-botar, andra stora språkmodeller (large language models) och nya ai-lösningar genom att bädda in ai-assistenter direkt i plattformen.
– Mattermosts plattform är erkänt säker och används av många myndigheter runt om i världen. Tack vare nya samarbeten och funktioner har vi tagit vår produkt till nästa nivå. Användarna kommer nu att kunna använda generativ ai för att strömlinjeforma processer och bli mer produktiva, till exempel när de analyserar stora mängder data, skriver kod, hanterar olika förfrågningar eller tar fram rapporter, säger Ian Tien.