AI giver nye sikkerhedsudfordringer

Next story
Leif Jensen

Det er gået stærkt med udvikling af AI, vi ser ChatGPT, Bard og Firefly blive stadig mere avancerede, og jeg skal være den første til at indrømme, at det er ret imponerende, hvad de kan (mis)bruges til. Men samtidig skal vi også indse, at AI ikke overtog verden og blev en moderne version af Skynet, som du måske husker fra filmen Terminator.

Ikke desto mindre må vi ikke lukke øjnene for de sikkerhedsrisici, som AI udgør, og vi ser også allerede hackerne udnytte teknologien i deres angreb og kampagner.

Et af de steder, hvor det går hurtigst, er når vi snakker om den såkaldte generative AI, altså systemer, der er i stand til at lave indhold, tekst, billeder, video og lyd. Godt nok baseret på eksisterende indhold, som findes på nettet, men det er ikke så forskelligt fra, hvordan programmører laver kode, de finder ofte store dele af deres kode på f.eks. Github.

Men inden jeg kigger nærmere på nogle af de sikkerhedsrisici, som generativ AI udgør, så skal vi lige være enige om, at AI ikke er en egentlig kunstig intelligens. AI er stadigvæk en (avanceret) form for Machine Learning og mønstergenkendelse, der ved hjælp af avancerede algoritmer kan skabe noget ret overbevisende indhold.

Med det sagt, så ser jeg otte sikkerhedsrisici, som generativ AI udgør i øjeblikket. Men sjovt nok er det ikke nødvendigvis AI, der er problemet, men den måde, AI bliver brugt på.

  1. For meget input. Generativ AI skaber indhold baseret på tekstinput fra brugerne, og det er problemet. For du kan let komme til at skrive følsom, personlig eller privat information ind i tekstboksene. Derfor bør du altid tænke dig grundigt om, inden du smider noget ind i en generativ AI.
  2. IP-lækage. Det er let at bruge generativ AI, fordi du kan tilgå den over nettet eller via en app. Men det skaber skygge-it i virksomhederne, og når de sender informationer over nettet, så bliver din IP-adresse også automatisk delt. Derfor bør du altid bruge en VPN, der blandt andet maskerer din IP-adresse og krypterer data.
  3. Bruger data til træning. Den generative AI skal bruge data til at blive bedre, og dine data indgår i den sammenhæng. Her er risikoen så, at disse data senere bliver afsløret, og hvis det er følsomme data, kan det give seriøse sikkerhedsproblemer.
  4. Gemmer data. Jo mere data en generativ AI har at arbejde med, desto bedre bliver den. De data skal gemmes, og derved risikerer du, at følsomme data bliver gemt hos tredjepart.
  5. Overholder ikke nødvendigvis GDPR. Hvis du sender følsomme data til f.eks. OpenAI, så risikerer du ikke alene sikkerhedsproblemer, men også, at du overtræder GDPR-forordningen.
  6. Syntetiske data. Det indhold, der kommer ud af generativ AI, er måske nok kunstig, men de syntetiske data kan indeholde spor af de oprindelige, hvilket igen kan afsløre følsomme eller personlige informationer.
  7. Datalækage. Der er ingen online-tjenester, der er immune over for datalæk, det kan både ske som følge af et hackerangreb eller som et kedeligt tilfælde. Men netop fordi datalækage er en reel risiko, skal man altid tænke meget nøje over, hvilke data man vil levere til en generativ AI.
  8. Bruges til angreb. Endelig kan generativ AI også bruges i egentlige angreb, blandt andet til at skabe deepfakes, vildledende information eller meget overbevisende, lokale, phishingkampagner. Og selvom der er visse kontroller indbygget i systemerne for at forhindre den form for misbrug, så er de cyberkriminelle ikke tabt bag en vogn og har allerede systemer på plads til at undgå de forhindringer. Derudover har de største aktører også deres helt egne AI-systemer.

Generativ AI er en bekymring rent sikkerhedsmæssigt set, men det er også værd at være opmærksom på, at langt hen ad vejen kan du undgå risiciene ved at tænke dig om.

Husk at du på cybervejret.dk kan få en ugentlig opdatering om it-sikkerhed. Her tager jeg hver uge pulsen på cybersikkerhedssituationen i Danmark og resten af verden.