Vil kunstig intelligens styrke eller svekke cybersikkerheten?

Kustig intellegens
FOTO: GETTY IMAGES. På den ene siden kan ondsinnede aktører bruke AI og maskinlæring til å identifisere sårbarheter hos virksomheter de ønsker å angripe. På den andre siden kan virksomheter bruke AI for å identifisere potensielle trusler og avverge cyberangrep.

I denne artikkelen ser forfatterne på hvordan AI kan brukes i cyberangrep og cybersikkerhetsforsvar. Forfatterene peker på at menneskelige overveielser vil være kritisk for god og ansvarlig bruk av AI. Samtidig kan velment bruk av AI også få negative konsekvenser for samfunnet.

De tilkoblede enhetenes tidsalder

5G tilbyr et bredt spekter av konnektivitetsmuligheter og støtter ulike enheter – fra datakrevende smarttelefoner til primitive sensorer og presisjonsenheter som krever forbindelser med høy pålitelighet og lav forsinkelse (ultra-reliable low-latency). Med innføringen av 5G ser vi en massiv økning i antallet tilkoblede enheter. Ifølge Statista (3) «forventes antallet tingenes internett (IoT)-enheter globalt å nesten tredobles fra 9,7 milliard- er i 2020 til over 29 milliarder IoT-enheter i 2030.» Disse enhetene vil gi nyttige og nyvinnende applikasjoner og tjenester som beriker folks liv, men bringer også med seg nye cybersikkerhetstrusler.

Trusselbildet innen cybersikkerhet har endret seg dramatisk på grunn av den store og raskt voksende angrepsflaten med milliarder av tilkoblede enheter og de enorme datamengdene de genererer. Tradisjonelle cybersikkerhetsmekanismer og filtrering av innkommende data for potensielle trusler ved nettverksperimeteret er ikke lenger tilstrekkelig. Dette krever nye tiltak innen cybersikkerhet, og bruk av kunstig intelligens (AI) er et naturlig førstevalg. Dessverre er ikke AI kun forbeholdt aktører med gode intensjoner; ondsinnede aktører og fiendtlige nasjoner har allerede tatt i bruk AI for å gjennomføre flere ødeleggende cyberangrep samtidig som de omgår tradisjonelt cybersikkerhetsforsvar. La oss først se på hvordan AI kan brukes i cyberangrep, og deretter utforske hvordan det kan benyttes innen cybersikkerhetsforsvar.

Thanh van Do, Telenor/Oslo Metropolitan University

Thanh van Do, Telenor, Oslo Metropolitan University

Bruno Dzogovic, Telenor/Oslo Metropolitan University

Bruno Dzogovic, Telenor, Oslo Metropolitan University

Bernardo Flores, Oslo Metropolitan University

Bernardo Flores, Oslo Metropolitan University

Van Thuan Do, Oslo Metropolitan University

Van Thuan Do, Oslo Metropolitan University

Boning Feng, Oslo Metropolitan University

Boning Feng, Oslo Metropolitan University

AI i feil hender – bruk av kunstig intelligens i cyberangrep

Identifisere sårbarhetene i offerets systemer

Ondsinnede aktører kan samle store mengder data fra cybersikkerhet, digitale medier, og andre relevante informasjonskilder, og deretter bruke AI/ML til å identifisere sårbarheter hos den virksomheten de har til hensikt å angripe. Angripere kan utføre automatisert ekstern skanning av et bredt spekter av vilkårlige nettverk for å identifisere svakheter i nettverksstrukturer og konfigurasjoner.

Unngå deteksjon

Angripere kan bruke AI/ML for å sikre at skanningen deres er under «radarnivået» og unngår å skape anomalier som kan oppdages av sikkerhetssystemet til offeret. Skadelig programvare kan utvikles slik at den dynamisk endrer adferd, og slik unngår å bli oppdaget av sikkerhetssystemer, ved hjelp av Generative Adversarial Networks (GANs) (4) eller forsterkende læring.

GANs er en form for generativ modellering som består av et par nevrale lærende nett; ett generatornett og ett diskriminatornett. Genereratornettet lærer å generere stadig bedre resultater ved å gjentatte ganger prøve å lure diskriminatornettet til å tro at de genererte resultatene er ekte eller, ved generering av skadevare, harmløse.

Bedrageribrev og målrettet phishing (Spearphishing)

Phishing-angrep har som mål å lure enkeltpersoner til å avsløre sensitiv informasjon eller utføre skadelige handlinger ved hjelp av svindelteknikker. AI kan utnyttes av trusselaktører til å lage svært overbevisende og personlig tilpassede svindelbrev. Ved å bruke naturlig språkbehandling (NLP) og ML-algoritmer, kan AI bidra til å generere meldinger som er svært gode etterligninger av ekte kommunikasjon. Dette gjør det svært vanskelig for mennesker å skille mellom ekte og falske meldinger.

Deepfake-angrep

Deepfakes (5), som er en kombinasjon av «deep learning» og «fake», er data som er fabrikkert og digitalt manipulert for å erstatte én persons tilstedeværelse, i tekst, lyd eller bilde, med en annens på en overbevisende måte. Ved å kombinere deepfake-videoer med GPT (Generative Pre trained Transformer), en type stor språkmodell (LLM) som for eksempel ChatGPT (6), kan «virtuelle personer» opprettes med noen få klikk.

Deepfake-angrep kan generere kompromitterende eller misvisende innhold, utgi seg for å være kjente personer eller spre desinformasjon, noe som kan føre til omdømmetap, økonomisk tap eller sosial uro.

Angrep mot maskinlæringssystemer

Adversarial Machine Learning Attacks, også kjent som angrep mot maskinlæringssystemer, har som mål å lure eller forvirre et maskinlæringssystem, noe som resulterer i feilaktige prediksjoner og beslutninger. Slike angrep deles gjerne i hovedkategoriene feilklassifisering av inndata eller angrep gjennom uriktige inndata («data poisoning»). Feilklassifisering av inndata er den vanligste varianten, der angripere skjuler ondsinnet innhold i filtrene til en maskinlæringsalgoritme, med mål om å føre til feilklassifisering av et bestemt datasett. Angrep gjennom uriktige inndata går ut på å endre maskinlæringsprosessen ved å legge inn uriktige data i et datasett, noe som gjør utdataene mindre nøyaktige eller feilaktige.

Deepfake-angrep kan generere kompromitterende eller misvisende innhold, utgi seg for å være kjente personer eller spre desinformasjon.

AI i cybersikkerhet

Anomalideteksjon

En lovende og aktuell anvendelse av kunstig intelligens- og maskinlæringsmetoder innen cybersikkerhet, er deteksjon av atferdsmønstre og anomalier relatert til IoT-enheter. Med sine spesifikke egenskaper og instruksjoner, kan en IoT-enhet som er koblet til et nettverk forventes å ha et unikt, men identifiserbart mønster når den sender data; enten gjennom en fast datamengde, gjennom en fast overføringsfrekvens (for eksempel et begrenset antall ganger den kobler til nettverket for å sende data) eller ved annen gjenkjennelig atferd knyttet til enhetstypen. En «forstyrrelse» i dette gjenkjennelige mønsteret kan oppfattes som en anomali og kan indikere en mulig trussel ikke bare for enheten det gjelder, men også for teleoperatøren den er koblet til.

Telenor Research (7) har i samarbeid med OsloMet (Oslo Metropolitan University) (8), arbeidet for å bedre forstå denne typen trafikkdata-drevne mønstre og gjen- kjenning av anomalier i 5G-nettverk (9). Dette arbeidet har som mål å utvikle retningslinjer for å identifisere potensielle trusler ved bruk av IoT-enheter, for eksempel flomming eller DDoS-angrep (10), ved å analysere kontroll- og dataplanene og forstå atferden til tilkoblede IoT-enheter for å etablere det som kan kalles en enhetsprofil. Denne profileringen består av en rekke unike kjennetegn ved en spesifikk IoT-enhet, basert på dens historiske atferd når den er koblet til et mobilnettverk, slik at det er mulig å skille, for eksempel i en IoT-smarthus-kontekst, mellom et overvåkingskamera og en temperatursensor. AI/ML-plattformer bruker disse enhetsprofilene som terskler når de analyserer trafikk i et mobilnettverk. Hvis noe ligger innenfor et enhetsmønsterspekter, men ikke passer til den spesifiserte terskelen, vil det bli betraktet som en anomali, og det krever videre undersøkelse fra teleoperatørens cybersikkerhetsteam.

Generere IOC-er (Indicators of Compromise)

Dersom en potensiell trussel faktisk blir identifisert basert på de registrerte anomaliene, kan AI/ML-baserte indikatorer for kompromittering (IoCs) (11) ekstraheres og deles med samarbeidspartnere innenfor cybersikkerhetsmiljøet gjennom trusselutvekslingsplattformer, forutsatt at en passende modelleringsramme brukes. Rammer som CMTMF (12), som er designet for telekom-industrien, bidrar til å forstå den fulle effekten av et angrep som har brukt tilkoblede IoT-enheter som medium. Slike verktøy kan bidra til å styrke inntrengings- eller anomalioppdagelsessystemer (Intrusion or Anomaly Detection Systems, I/A DS) idet virkningsgraden ved slik deteksjon er tett relatert til deling av data fra tidligere angrep.

AI-baserte I/A DS som er designet med fokus på enhetsdrevne atferdsprinsipper, men også med andre verktøy for å gjenkjenne andre angrepstyper, understøtter i noen grad avverging og begrensning av cyberangrep. Imidlertid blir angripere som ønsker å utnytte IoT-løsninger mer kjent med hvordan disse systemene fungerer og har funnet vellykkede og uoppdagede måter å utføre angrepene sine på. Dette kan være tilfelle med et Adversarial Attack (13), der angriperne ved å manipulere IoT-enheter på en isolert måte gjennom kortvarige datastrømmer, kan få systemer for innbruddsdeteksjon (IDS-systemer) til å betrakte hver isolerte hendelse som en ren anomali. Det blir da for sent å forhindre når alle de infiserte enhetene brukes koordinert.

Cybersikkerhetsteamene hos teleoperatører og andre eiere av kritisk infrastruktur blir også mer bevisste på denne angreps- formen og optimaliserer IDS-systemene og AI-modellene sine for å være mer motstandsdyktige (14). I de fleste tilfeller har det vært forbedringer. Men selv om AI vil være et verktøy for å øke effektiviteten innen cybersikkerhet, særlig ved håndtering av rutinearbeid og mindre truende angrep, vil det fortsatt være behov for dedikerte cybersikkerhetsteam for å støtte mer kritiske og komplekse beslutninger. Dette er blant annet fordi verktøyene og modellene lærer av tidligere erfaringer og trening fra nettopp disse fagfolkene. Dessuten vil ikke alle etablerte handlemåter for å begrense skade fortsette å være like effektive etter hvert som angrep (og angripere) videreutvikler sine metoder.

Dynamiske honeypots

Et annet område med fokus på bruk av AI og maskinlæring innenfor cybersikkerhet, er design av dynamiske honeypots. En honeypot er en «felle» designet for å lokke ondsinnede aktører og isolere skadelig aktivitet fra viktig infrastruktur. Honeypots kan være reelle og simulerte datamaskiner, tjenester, nettverk, brukerkontoer og dataobjekter – gjerne også kombinert på en måte som etterligner en hel infrastruktur. Imidlertid kan angripere som bruker AI for Adversarial Attacks over tid få tilstrekkelig informasjon om forsvarssystemene og identifisere honey- pot-nettverk, og dermed prøve å unngå dem i påfølgende angrep. Innføringen av AI-baserte dynamiske honeypots har som mål å kontre dette gjennom automatiske omkonfigurerbare feller for å håndtere AI-drevne Adversarial Attack angrep, basert på angriperens atferd.

Et område der det er arbeidet med bruk av AI og maskinlæring innenfor cybersikkerhet, er design av dynamiske honeypots – «feller» designet for å lokke ondsinnede aktører og isolere skadelig aktivitet fra viktig infrastruktur.

Samfunnseffekter av kunstig intelligens (AI)

Trusler mot personvernet

Med fremveksten av milliarder av tilkoblede enheter som kontinuerlig overvåker menneskers aktiviteter overalt, genereres og samles det inn enorme mengder data. Imidlertid utgjør ikke disse dataene i seg selv en trussel mot personvernet uten den enorme databehandlingskraften til AI/ML.

AI/ML-algoritmer, inkludert ansiktsgjenkjenning, kan identifisere, analysere og forutsi en persons bevegelser ved å syntetisere data fra en rekke kilder, som sosiale medieinnlegg, geotaggede bilder, videoer fra overvåkningskameraer og lignende. Denne evnen til AI/ML kan misbrukes blant annet av uærlige aktører, kriminelle organisasjoner og diktatoriske myndigheter for å overvåke borgerne, og utgjør dermed en trussel mot personvernet, retten til anonymitet og personlig frihet.

Sosial manipulasjon gjennom AI-algoritmer

En av de største farene med AI/ML er sosial manipulasjon, da bedrifter, politikere og offentlig personer benytter seg av sosiale medier for å fremme sine strategier og politiske synspunkter, for å oppnå popularitet eller sanke stemmer. Sosiale nettverk oversvømmes av innhold basert på AI-algoritmer valgt av dem selv, og mislykkes ofte i å beskytte brukerne mot skadelig og misvisende medieinnhold. Situasjonen forverres med fremveksten av deepfakes, som gjør det mulig å spre falske nyheter og propaganda. Ingen vet lenger hva som er sant eller falskt.

Diskriminering og urettferdige utfall

Gjennom analyser basert på komplekse modeller og en enorm mengde data kommer prediktiv AI/ML til konklusjoner som kanskje ikke kan forklares for mennesker. Konklusjonene er samtidig heller ikke alltid 100% korrekte, og dette kan være fatalt innen områder som helsevesenet og andre områder der større transparens er nødvendig. Videre kan skjevhet (bias) oppstå fra AI/ML-algoritmer, der resultatene som produseres er fordomsfulle på grunn av feilaktige antakelser, ufullstendige datasett eller datasett fra menneskelige avgjørelser som gjenspeiler menneskers fordommer. Dette kan for eksempel føre til diskriminering basert på rase, kjønn, alder, religion, med mer.

Håndtere risikoen ved AI/ML

AI/ML er et tveegget sverd som kan tilføre samfunnet både stor verdi og alvorlig skade. Derfor er det først nødvendig å forstå både muligheter og begrensninger i AI/ML. Mer forskning er nødvendig, og det er avgjørende å fokusere på personvern, frihet, rettferdighet og etiske spørsmål. Til slutt bør det være myndigheter som kan regulere bruken av AI/ML og sikre rettferdig bruk av ML/AI. Dette er akkurat det både EU og USA arbeider med; å definere regulering for å forhindre misbruk av AI/ML samtidig som den muliggjør det potensielt enorme bidraget til samfunnet.

sikkerhet
FOTO: GETTY IMAGES

Konklusjon

Intensjonen og målet med AI er å gagne menneskeheten, men hvis den velger å oppnå målet på en destruktiv (men effektiv) måte, vil det ha negative konsekvenser for samfunnet. AI-algoritmer må bygges for å være i tråd med menneskers overordnede mål.

AI-algoritmer drives av data. Når stadig mer data samles inn om hvert eneste minutt av hver persons dag, setter det personvernet vårt i fare. Hvis virksomheter og myndigheter bestemmer seg for å ta beslutninger basert på informasjonen de samler inn om deg, slik Kina gjør med sitt sosiale kredittsystem, kan det utvikle seg til sosial undertrykkelse.

Én ting er sikkert: Fremtiden vil definitivt være med AI. Om den er på vår side eller ikke, avhenger nå av oss! Bruk vår egen «naturlige intelligens» nå!

Denne artikkelen er oversatt fra originalspråket og redaksjonelt tilpasset for publisering i Digital Sikkerhet 2023.

Kilder

(3): https://www.statista.com/statistics/1183457/iot-connected-devices-worldwide/

(4): Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; Xu, Bing; Warde-Farley, David; Ozair, Sherjil; Courville, Aaron; Bengio, Yoshua (2014). Generative Adversarial Nets (PDF). Proceedings of the International Conference on Neural Information Processing Systems (NIPS 2014). pp. 2672–2680.

(5): Kietzmann, J.; Lee, L. W.; McCarthy, I. P.; Kietzmann, T. C. (2020). "Deepfakes: Trick or treat?" (PDF). Business Horizons. 63 (2): 135–146. doi:10.1016/j.bushor.2019.11.006. S2CID 213818098.
(6): Douglas, Will (March 3, 2023). «The inside story of how ChatGPT was built from the people who made it». MIT Technology Review

(7): https://www.telenor.com/innovation/research/

(8): https://www.oslomet.no/

(9): B. Santos, B. Dzogovic, B. Feng, N. Jacot, V. T. Do og T. V. Do, «Improving Cellular IoT Security with Identity Federation and Anomaly Detection», 2020 5th International Conference on Computer and Communication Systems (ICCCS), 2020, pp. 776-780, doi: 10.1109/ICCCS49078.2020.9118438

(10): Gupta, B.B., Chaudhary, P., Chang, X. & Nedjah, N. (2022). «Smart Defense Against Distributed Denial of Service Attacks in IoT Networks Using Supervised Learning Classifiers.» Computers & Electrical Engineering, 98 (March 2021), 107726.

(11): https://www.fortinet.com/resources/cyberglossary/indicators-of-compromise

(12): 107726B. Santos, L. Barriga, B. Dzogovic, I. Hassan, B. Feng, N. Jacot, V. T. Do and T. V. Do, «Threat Modelling for 5G networks», 2022 International Wireless Communications and Mobile Computing (IWCMC), 2022, pp. 611-616, doi: 10.1109/IWCMC55113.2022.9825149.

(13): Anthi, E., Williams, L., Rhode, M., Burnap, P., & Wedgbury, A. (2021). Adversarial attacks on machine learning cybersecurity defences in Industrial Control Systems. Journal of Information Security and Applications, 58(February), 102717.

(14): Anthi, E., Williams, L., Javed, A., & Burnap, P. (2021). Hardening machine learning denial of service (DoS) defences against adversarial attacks in IoT smart home networks. Computers & Security, 108, 102352.