
AI-verktyg blir snabbt en självklar del av arbetslivet men med nya möjligheter följer också nya risker. När vi använder tjänster som ChatGPT, Copilot eller Google Gemini behöver vi vara medvetna om vilken information vi delar, och undvika att mata in känsliga eller affärskritiska uppgifter i publika system.
I takt med att AI-verktyg som ChatGPT, Copilot, Google Gemini och andra blir en naturlig del av vår arbetsvardag, ökar också behovet av att tänka till kring vilken typ av information vi matar in i dessa system. De flesta AI-tjänster drivs av molnbaserade modeller som tränas och utvecklas över tid. Det innebär att viss information kan sparas eller användas i vidareutveckling, beroende på hur tjänsten är uppbyggd och vilket avtal som gäller. Det är därför inte lämpligt att skriva in känslig företagsinformation, kunddata, interna strategier eller andra affärskritiska uppgifter i publika AI-tjänster. Även om det känns smidigt och effektivt i stunden. Därför kan det vara bra att använda en intern AI som tränas på din data men inte skickar ut den på internet.
Våra konsulter finns redo att hjälpa dig ta fram en modern och anpassad IT-policy som stärker ditt säkerhetstänk.
