This is the Trace Id: e6aa155a3b25f1c7655eb3e67dab9d84
Gå til hovedindholdet
Microsoft Security

Hvad er AI-sikkerhed?

Få mere at vide om de grundlæggende funktioner i AI-sikkerhed, og hvordan du beskytter AI-systemer mod potentielle trusler og sårbarheder.

En oversigt over AI-sikkerhed


AI-sikkerhed er en gren af cybersikkerhed specifikt til AI-systemer. Den henviser til det sæt processer, bedste fremgangsmåder og teknologiløsninger, der beskytter AI-systemer mod trusler og sikkerhedsrisici. 

Vigtige budskaber

  • AI-sikkerhed beskytter AI-data, opretholder systemintegritet og sikrer tilgængeligheden af AI-tjenester.
  • Almindelige trusler mod AI-systemer omfatter data uautoriseret brug, modelinverteringsangreb og fjendtlige angreb.
  • Bedste praksis for AI-sikkerhed omfatter kryptering af data, robust test, stærk adgangskontrol og løbende overvågning.
  • Moderne sikkerhedsværktøjer, -løsninger og -strukturer til kunstig intelligens kan hjælpe med at beskytte AI-systemer mod trusler, der udvikler sig. 

Hvad er AI-sikkerhed?

Kunstig intelligens har bragt utrolig innovation til verden i et hidtil uset tempo. Desværre har cyberkriminelle taget teknologi med kunstig intelligens til sig så hurtigt som resten af verden, hvilket giver nye sikkerhedsrisici, trusler og udfordringer.

AI-sikkerhed eller kunstig intelligens henviser til de foranstaltninger og fremgangsmåder, der er udviklet til at beskytte AI-systemer mod disse trusler. Præcis som traditionelle it-systemer kræver beskyttelse mod hacking, virus og uautoriseret adgang, kræver AI-systemer deres egne sikkerhedsforanstaltninger for at sikre, at de forbliver funktionelle, pålidelige og beskyttede.

AI-sikkerhed er vigtig af flere årsager, herunder:
 
  • Beskyttelse af følsomme data. AI-systemer behandler store mængder følsomme data, herunder finansielle, medicinske, personlige og økonomiske oplysninger. 
  • Vedligeholdelse af systemintegritet. Ukontrollerede sårbarheder i AI-systemer kan føre til kompromitterede modeller, som igen kan give unøjagtige eller skadelige resultater.
  • Sikring af tilgængeligheden af AI-tjenester. Ligesom alle andre tjenester skal AI-systemer forblive tilgængelige og i drift, især i takt med at flere personer og organisationer bliver afhængige af dem. Sikkerhedsbrud resulterer ofte i nedetid, hvilket kan forstyrre vigtige tjenester. 
  • Ansvarlighed. For at kunstig intelligens kan anvendes globalt, skal personer og organisationer have tillid til, at AI-systemer er sikre og pålidelige.

Nøglebegreber inden for AI-sikkerhed

  • Fortrolighed: Sikring af, at følsomme data kun er tilgængelige for autoriserede personer eller systemer. 
  • Integritet: Vedligeholdelse af nøjagtigheden og ensartetheden af AI-systemerne.
  • Tilgængelighed: Sikre, at AI-systemer forbliver operationelle og tilgængelige. 

  • Ansvarlighed: Muligheden for at spore handlinger foretaget af AI-systemer.
 

AI-sikkerhed i forhold til Kunstig intelligens til cybersikkerhed

Det er vigtigt at skelne mellem to relaterede, men forskellige begreber: AI-sikkerhed og kunstig intelligens til cybersikkerhed.

AI-sikkerhed fokuserer på beskyttelse af AI-systemer selv. Det er sikkerhed for kunstig intelligens, som omfatter strategier, værktøjer og praksisser, der har til formål at beskytte AI-modeller, data og algoritmer mod trusler. Dette omfatter at sikre, at AI-systemet fungerer efter hensigten, og at hackere ikke kan udnytte sårbarheder til at manipulere output eller stjæle følsomme oplysninger.

AI til cybersikkerhed henviser på den anden side til brugen af AI-værktøjer og -modeller til at forbedre en organisations evne til at opdage, reagere på og afbøde trusler mod alle dens teknologisystemer. Det hjælper organisationer med at analysere store mængder hændelsesdata og identificere mønstre, der indikerer potentielle trusler. Kunstig intelligens til cybersikkerhed kan analysere og korrelere hændelser og cybertrusler på tværs af flere kilder.

Kort sagt handler AI-sikkerhed om at beskytte AI-systemer, mens kunstig intelligens til cybersikkerhed refererer til brugen af AI-systemer til at forbedre en organisations overordnede sikkerhedsniveau.
Trusler mod kunstig intelligens

Almindelige sikkerhedstrusler med kunstig intelligens

Efterhånden som AI-systemer bliver mere udbredt af virksomheder og enkeltpersoner, bliver de mere og mere tiltalende mål for cyberangreb.

Flere vigtige trusler udgør en risiko for sikkerheden i AI-systemer: 

Dataforgiftning

Dataforgiftning opstår, når angribere indfører ondsindede eller vildledende data i et AI-systems træningssæt. Da AI-modeller kun er så gode som de data, de oplæres i, kan beskadigelse af disse data medføre unøjagtige eller skadelige output. 

Modelinversionsangreb

I modelinversionsangreb bruger angribere en AI-models forudsigelser til at omgå følsomme oplysninger, som modellen blev trænet på. Dette kan føre til eksponering af fortrolige data, f.eks. personlige oplysninger, der ikke var beregnet til at være offentligt tilgængelige. Disse angreb udgør en betydelig risiko, især når du arbejder med AI-modeller, der behandler følsomme oplysninger.

Fjendtlige angreb

Fjendtlige angreb omfatter oprettelse af vildledende input, der narrer AI-modeller til at lave forkerte forudsigelser eller klassificeringer. I disse angreb får tilsyneladende godartede input, som et ændret billede eller lydklip, en AI-model til at opføre sig uforudsigeligt. I et eksempel fra den virkelige verden demonstrerede forskerne, hvordan diskrete ændringer af billeder kunne narre systemer til ansigtsgenkendelse til at fejlidentificere folk.

Bekymringer om beskyttelse af personlige oplysninger 

AI-systemer er ofte afhængige af store datasæt, hvoraf mange indeholder personlige eller følsomme oplysninger. Sikring af beskyttelse af personlige oplysninger for personer, hvis data bruges i træning af kunstig intelligens, er et vigtigt aspekt af AI-sikkerhed. Brud på beskyttelsen af personlige oplysninger kan opstå, når data håndteres forkert, gemmes eller bruges på en måde, der overtræder brugerens samtykke.

 Fremskyndede udrulninger 

Virksomheder står ofte over for et stort pres for at innovere hurtigt, hvilket kan resultere i utilstrækkelig testning, forhastede udrulninger og utilstrækkelig sikkerhedsgodkendelse. Denne stigning i udviklingsprocessen medfører nogle gange, at kritiske sikkerhedsrisici ikke håndteres, hvilket medfører sikkerhedsrisici, når AI-systemet er i drift.

Sikkerhedsrisici i forsyningskæden 

AI-forsyningskæden er et komplekst økosystem, der præsenterer potentielle sårbarheder, der kan kompromittere integriteten og sikkerheden af AI-systemer. Sårbarheder i tredjepartsbiblioteker eller -modeller eksponerer nogle gange AI-systemer for udnyttelse. 

Forkert konfiguration af kunstig intelligens

Ved udvikling og udrulning af programmer med kunstig intelligens kan fejlkonfigurationer udsætte organisationer for direkte risici, som f.eks. manglende implementering af identitetsstyring for en AI-ressource, og indirekte risici, som f.eks. sårbarheder i en interneteksponeret virtuel maskine, som kan give en angriber mulighed for at få adgang til en AI-ressource. 

 Prompt-injektioner 

 I et promptinjiceringsangreb skjuler en hacker et skadeligt input som en legitim prompt, hvilket medfører utilsigtede handlinger fra et AI-system. Ved at udarbejde vildledende prompter narrer hackere AI-modeller til at generere output, der indeholder fortrolige oplysninger. 

Bedste praksis for sikring af AI-systemer

Sikring af sikkerheden i AI-systemer kræver en omfattende tilgang, der håndterer både tekniske og driftsmæssige udfordringer. Her er nogle bedste praksis til sikring af AI-systemer:

Datasikkerhed

For at sikre integriteten og fortroligheden af de data, der bruges til at træne AI-modeller, skal organisationer implementere robuste datasikkerhedsforanstaltninger , der omfatter: 

  • Kryptering af følsomme data for at forhindre uautoriseret adgang til AI-træningsdatasæt.
  • Bekræftelse af datakilder: Det er vigtigt at sikre, at de data, der bruges til træning, kommer fra pålidelige og verificerbare kilder, hvilket reducerer risikoen for dataforgiftning.
  • Jævnlig rensning af data for at fjerne skadelige eller uønskede elementer kan hjælpe med at afhjælpe sikkerhedsrisici i forbindelse med kunstig intelligens.

Modelsikkerhed

Det er lige så vigtigt at beskytte AI-modeller mod angreb som at beskytte data. Vigtige teknikker til at sikre modelsikkerhed omfatter:

  • Det er vigtigt at teste AI-modeller regelmæssigt for at identificere potentielle sårbarheder i forbindelse med fjendtlige angreb for at opretholde sikkerheden.
  • Brug af differentiel beskyttelse af personlige oplysninger for at forhindre hackere i at foretage reverse engineering af følsomme oplysninger fra AI-modeller.
  • Implementering af fjendtlig træning, som oplærer AI-modeller i algoritmer, der simulerer angreb, for at hjælpe dem med hurtigere at identificere reelle angreb. 

Adgangskontrol

Implementering af stærke mekanismer til adgangskontrol sikrer, at kun autoriserede personer interagerer med eller ændrer AI-systemer. Organisationer skal: 

  • Bruge rollebaseret adgangskontrol til at begrænse adgangen til AI-systemer baseret på brugerroller.
  • Implementere multifaktorgodkendelse for at give et ekstra sikkerhedslag for at få adgang til AI-modeller og -data.
  • Overvåge og logføre alle adgangsforsøg for at sikre, at uautoriseret adgang hurtigt registreres og afhjælpes.

Regelmæssige revisioner og overvågning

Løbende overvågning af AI-systemer er afgørende for at registrere og reagere på potentielle sikkerhedstrusler. Organisationer skal: 

  • Jævnligt overvåge AI-systemer for at identificere sikkerhedsrisici eller uregelmæssigheder i systemets ydeevne. 
  • Bruge automatiserede overvågningsværktøjer til at registrere usædvanlig adfærd eller adgangsmønstre i realtid. 
  • Opdatere AI-modeller regelmæssigt for at rette sikkerhedsrisici og forbedre robustheden over for nye trusler. 

Øg AI-sikkerheden med de rette værktøjer

Der er flere værktøjer og teknologier, der kan hjælpe med at forbedre sikkerheden i AI-systemer. Disse omfatter sikkerhedsstrukturer, krypteringsteknikker og specialiserede AI-sikkerhedsværktøjer.

Sikkerhedsstrukturer

Strukturer som NIST AI Risk Management Framework giver organisationer retningslinjer til administration og afhjælpning af risici, der er knyttet til kunstig intelligens. Disse strukturer tilbyder bedste praksis for at sikre AI-systemer, identificere potentielle risici og sikre pålideligheden af AI-modeller.

Krypteringsteknikker 

Brug af krypteringsteknikker hjælper med at beskytte både data- og AI-modeller. Ved at kryptere følsomme data kan organisationer reducere risikoen for databrud og sikre, at selvom hackere får adgang til data, forbliver de ubrugelige.

AI-sikkerhedsværktøjer

Der er udviklet forskellige værktøjer og platforme til at sikre AI-programmer. Disse værktøjer hjælper organisationer med at registrere sikkerhedsrisici, overvåge AI-systemer for potentielle angreb og gennemtvinge sikkerhedsprotokoller. 

AI-sikkerhedsløsninger

I takt med at sikkerhedsudfordringerne med kunstig intelligens fortsætter med at udvikle sig, skal organisationer forblive proaktive og tilpasse deres sikkerhedsstrategier til det skiftende trusselsbillede for at sikre deres AI-systemers sikkerhed og pålidelighed. Vigtige strategier omfatter indførelse af omfattende sikkerhedsstrukturer, investering i krypteringsteknologier og adgangskontrol og at holde dig informeret om nye trusler og nye løsninger.

Moderne AI-sikkerhedsløsninger, der sikrer og styrer kunstig intelligens betydeligt forbedrer en organisations beskyttelse mod disse nye trusler. Ved at integrere disse kraftfulde AI-sikkerhedsløsninger kan organisationer bedre beskytte deres følsomme data, opretholde overholdelse af lovgivningen og hjælpe med at sikre deres AI-miljøers modstandsdygtighed over for fremtidige trusler.

Ofte stillede spørgsmål

  • Nogle af de største sikkerhedsrisici, som AI-sikkerhed hjælper med at beskytte mod, omfatter databrud, modelmanipulation, fjendtlige angreb og misbrug af kunstig intelligens til ondsindede formål som phishing.
  • Sikring af kunstig intelligens omfatter beskyttelse af AI-data, -modeller og -systemer mod cyberangreb ved hjælp af kryptering, almindelig test, overvågning og menneskelig opsyn.
  • AI-sikkerhed fokuserer på beskyttelse af AI-systemer selv. Det omfatter strategier, værktøjer og praksisser, der har til formål at beskytte AI-modeller, data og algoritmer mod trusler. Kunstig intelligens til cybersikkerhed henviser til brugen af AI-værktøjer og -modeller til at forbedre en organisations evne til at opdage, reagere på og afbøde trusler mod alle dens teknologisystemer.

Følg Microsoft Security