AI och cybersäkerhet: Riskerna och vägen framåt

En djupgående analys av hoten mot AI-system och åtgärder för att skydda dem

Datum: 2025-02-14 15:30 CET

1. Inledning: AI som en kritisk infrastruktur

Artificiell intelligens (AI) har utvecklats från en nischad teknik till en oumbärlig del av global ekonomi och säkerhet. AI-system används idag inom allt från hälso- och sjukvård, finans och industri till försvar och kritisk infrastruktur. Den ökande tilliten till AI innebär dock att cyberhoten mot teknologin också växer.

Under Paris AI Action Summit 2025 publicerade den franska National Cybersecurity Authority (ANSSI), i samarbete med internationella cybersäkerhetsmyndigheter, en rapport om AI:s risker och säkerhetsutmaningar. Dokumentet betonar behovet av en riskbaserad strategi för att skydda AI-system från hot som datamanipulation, cyberattacker och bristande transparens.

2. De största riskerna för AI-system

AI-system är utsatta för både traditionella cyberhot och AI-specifika angrepp. Riskerna kan delas in i följande kategorier:

2.1. Cyberhot mot AI:s IT-infrastruktur

AI-system är beroende av molntjänster, nätverk och externa databaser. De har samma sårbarheter som traditionella IT-system men är mer komplexa, vilket ökar riskerna för:

Dataintrång: Hackare kan utnyttja bristfällig säkerhet för att stjäla träningsdata eller manipulera modeller.

Ransomware-attacker: Kritiska AI-system kan låsas och utpressas för återställning.

Supply chain-attacker: Om en AI-modell bygger på osäkra bibliotek eller tredjepartskod kan hela systemet bli sårbart.

2.2. AI-specifika attacker

Till skillnad från traditionella IT-attacker finns unika hot mot AI-system:

Datapoisoning – En angripare manipulerar träningsdata för att skapa bias eller felaktiga beslut i AI-systemet.

Model extraction – Hackare rekonstruerar AI-modeller genom att analysera deras output, vilket kan avslöja känslig information.

Evasion attacks – Angripare ändrar input-data på ett subtilt sätt för att lura AI-systemet, t.ex. genom att förvirra bildigenkänningsmodeller.

2.3. AI som ett vapen för cyberbrott

AI kan även användas för att förbättra cyberattacker, däribland:

Automatiserad phishing – AI-genererade e-postmeddelanden som är svårare att skilja från legitima.

Deepfake-attacker – Manipulerade videor och röster används för bedrägerier eller desinformation.

AI-driven malware – Skadlig kod som anpassar sig i realtid för att undvika upptäckt.

3. Attackscenarier och konsekvenser

Rapporten beskriver konkreta scenarier där AI-system kan utsättas för attacker:

3.1. Angrepp mot AI-infrastruktur

En AI-driven övervakningskamera kan manipuleras genom en attack mot dess molnlagring. Angriparen kan:

• Ändra bilddata för att dölja brottslig aktivitet.

• Stänga av systemet genom en DDoS-attack.

• Stjäla eller ändra AI-modellen för att påverka beslutsfattandet.

3.2. Supply chain-attacker

En AI-modell som används inom sjukvården för diagnoser kan innehålla sårbara kodbibliotek. Om dessa manipuleras kan systemet börja leverera felaktiga diagnoser, vilket leder till allvarliga medicinska misstag.

3.3. Lateralization genom interkonnektivitet

AI-system är ofta kopplade till andra IT-system, vilket gör att ett intrång i ett system kan sprida sig till andra. Exempelvis kan en generativ AI-assistent infekteras med prompt-injektion, där skadliga kommandon kan påverka verksamhetens hela IT-miljö.

3.4. Risker med “Shadow AI”

Många anställda använder generativ AI utan företagets säkerhetsgodkännande, vilket kallas “Shadow AI”. Detta kan leda till:

Läckor av känslig information via AI-chattbotar.

Brister i regelefterlevnad om AI används i kritiska processer.

Risk för AI-låsning, där organisationen blir beroende av en AI-modell som de inte kan kontrollera fullt ut.

4. Riktlinjer för en säker AI-framtid

För att möta dessa utmaningar presenterar rapporten rekommendationer för AI-användare, utvecklare och beslutsfattare.

4.1. Rekommendationer för AI-utvecklare

Implementera DevSecOps: Integrera säkerhet i hela AI-utvecklingsprocessen.

Säkerställ datas kvalitet: Träningsdata ska vara ren, verifierad och skyddad mot manipulation.

Öka AI:s transparens: Förstå hur AI fattar beslut genom “explainable AI”-metoder.

4.2. Riktlinjer för organisationer som använder AI

Kartlägg AI:s supply chain: Identifiera leverantörer och beroenden för att minimera sårbarheter.

Kontrollera AI:s autonomi: AI-system bör ha mänskliga granskningspunkter i känsliga processer.

Stärk IT-säkerheten: Implementera nätverkssegmentering och åtkomstkontroller för att minska attackytan.

4.3. Åtgärder för beslutsfattare och reglerare

Utveckla AI-certifieringar för säkerhetsgranskning av modeller och applikationer.

Främja forskning inom AI-säkerhet, särskilt inom adversarial machine learning.

Internationellt samarbete för att skapa enhetliga AI-säkerhetsstandarder.

5. Slutsats: Balansen mellan innovation och säkerhet

AI-teknologi utvecklas snabbt, men med dess potential följer också betydande risker. Cyberattacker som riktar sig mot AI kan få katastrofala konsekvenser, särskilt inom kritisk infrastruktur och samhällsfunktioner.

För att bygga tillit till AI krävs strikta säkerhetsåtgärder, kontinuerlig övervakning och internationell samverkan. Genom att följa rekommendationerna i rapporten från Paris AI Action Summit kan både företag och regeringar säkerställa en säker och ansvarsfull AI-användning i framtiden.

Källförteckning

High-Level Risks Analysis on AI, Paris AI Action Summit, 2025 (ANSSI och internationella cybersäkerhetsmyndigheter) – https://cyber.gouv.fr/sites/default/files/document/high_level_risks_analysis_ai_paris_summit.pdf?utm_source=chatgpt.com

Secure AI Systems Development Guidelines, NCSC & CISA, 2023 – Läs mer här

Cybersecurity and AI, OECD, 2024 – OECD-publikation