This is the Trace Id: 337aa8df012c1cb2e30c164487f4c9d2

Microsofts guide for å sikre KI-drevede foretak: Slik kommer du i gang

En kvinne som bruker en berøringsskjerm.

Komme i gang med KI-programmer

Kunstig intelligens (KI) transformerer forretningsdriften og låser opp innovasjon samtidig som den introduserer nye risikoer. Fra skygge-KI (forbrukerrettede verktøy som tas i bruk uten oppsyn) til angrep med spørsmålsinjeksjon – og reguleringer i utvikling som EUs KI-forordning – organisasjoner må takle disse utfordringene for trygt å bruke KI.

Guiden dekker risikoene knyttet til KI: datalekkasje, nye trusler og utfordringer knyttet til forskriftssamsvar samt de unike risikoene til agentisk KI. Den gir også veiledning og praktiske trinn basert på rammeverket for KI-innføring. For dypere innsikt og ytterligere trinn, last ned denne guiden.

KI kan endre alt – men bare om du kan sikre den. La oss komme i gang.

Når organisasjoner omfavner KI, må ledere takle tre hovedutfordringer:
  • 80 % av ledere nevner datalekkasje som den største bekymringen. 1 Skygge-KI-verktøy – som brukes uten IT-godkjenning – kan eksponere sensitive opplysninger, noe som øker risikoen for sikkerhetsbrudd.
  • 88 % av organisasjoner er bekymret for uærlige aktører som manipulerer KI-systemer. 2 Angrep som spørsmålsinjeksjon utnytter sårbarheter i KI-systemer, noe som fremhever behovet for proaktive forsvar.
  • 52 % av ledere innrømmer usikkerhet knyttet til navigeringen av KI-reguleringer. 3 Det er viktig å etterleve rammeverk som EUs KI-forordning for å skape tillit og opprettholde det innovative impulsmomentet.

Agentisk KI tilbyr transformerende potensial, men den medfølgende autonomien byr på unike sikkerhetsutfordringer som krever proaktiv risikohåndtering. Nedenfor er hovedrisikoene og -strategiene som er skreddersydd for å takle dem:

Hallusinasjoner og utilsiktede resultater

Agentiske KI-systemer kan produsere unøyaktige, utdaterte eller feilrettede resultater, som fører til driftsforstyrrelser eller dårlige beslutninger.

For å redusere disse risikoene burde organisasjoner implementere strenge overvåkningsprosesser for å kontrollere nøyaktigheten og relevansen til KI-genererte resultater. Ved regelmessig å oppdatere treningsdata sikrer man at man får oppdatert informasjon, mens videresendingsbaner for komplekse saker tilrettelegger for menneskelig innblanding ved behov. Menneskelig oppsyn forblir essensielt for å opprettholde påliteligheten og tilliten i KI-dreven drift.

Overtillit til KI-beslutninger

Blind tillit i agentiske KI-systemer kan føre til sårbarheter når brukere handler på feilaktige resultater som ikke valideres.

Organisasjoner må etablere policyer som krever gjennomgang av mennesker for viktige beslutninger som påvirkes av KI. Når man lærer opp ansatte om KIs begrensninger, fremmer man informert skepsis, noe som reduserer sannsynligheten for feil. Ved å kombinere KI-innsikt med menneskelige avgjørelser gjennom beslutningsprosesser med flere lag, styrkes den helhetlige motstandsdyktigheten samtidig som man unngår å bli for avhengig.

Nye angrepsvektorer

Autonomien og tilpasningsevnen til agentisk KI skaper muligheter for angripere til å utnytte sårbarheter, noe som introduserer både driftsbaserte og systemiske risikoer.

Driftsrisikoer inkludere manipulasjon av KI-systemer for å utføre skadelige handlinger, som uautoriserte oppgaver eller phishing-forsøk. Organisasjoner kan redusere disse risikoene ved å implementere robuste sikkerhetstiltak, inkludert avviksregistrering i sanntid, kryptering og strenge tilgangskontroller.
Systemiske risikoer oppstår når kompromitterte agenter forstyrrer sammenhengende systemer, som fører til en kjedereaksjon med feil. Feilsikre mekanismer, redundansprotokoller og normale revisjoner – i tråd med rammeverk for cybersikkerhet, som NIST – bidrar til å minimere disse truslene og styrke forsvaret mot ondsinnede angrep.

Ansvarlighet og erstatningsansvar

Agentisk KI opererer ofte uten direkte menneskelig oppsyn, noe som vekker komplekse spørsmål om ansvarlighet og erstatningsansvar ved feil.

Organisasjoner må definere tydelige rammeverk for ansvarlighet som spesifiserer roller og ansvar for KI-relaterte resultater. Åpen dokumentasjon for beslutningsprosesser knyttet til KI støtter feilidentifisering og fastsettelse av erstatningsansvar. Samarbeid med juridiske team sikrer forskriftssamsvar med reguleringer, mens innføring av etiske standarder for KI-styring skaper tillit og reduserer omdømmerisiko.

Med nye KI-innovasjoner som agenter, må organisasjoner etablere et sterkt grunnlag basert på nulltillit-prinsippene – «aldri stol på, alltid bekreft». Denne tilnærmingen bidrar til å sikre at alle samhandlinger er godkjent, autorisert og kontinuerlig overvåket. Selv om det tar tid å oppnå nulltillit, gjør en trinnvis strategi det mulig å oppnå stødig fremdrift og man skaper tillit i arbeidet med å integrere KI på en sikker måte.

Microsofts rammeverk for KI-innføring fokuserer på tre hovedtrinn: Styr KI, administrer KI og sikre KI.

Ved å takle disse områdene kan organisasjoner legge grunnlaget for ansvarlig KI-bruk samtidig som kritiske risikoer reduseres.

For å lykkes må man prioritere å lære opp ansatte til å gjenkjenne KI-risikoer og trygt bruke godkjente verktøy. Frem samarbeid mellom IT-, sikkerhets- og bedriftsteam for å sikre en forent tilnærming. Promoter åpenhet ved å kommunisere åpent om KI-sikkerhetsinitiativene dine for å skape tillit og demonstrere lederskap.

Med riktig strategi basert på nulltillit-prinsippene, kan du redusere risikoene, fremme innovasjon og trygt navigere deg gjennom KI-landskapet som er i stadig utvikling.

Mer fra Sikkerhet

Navigere i datatrusler og styrke forsvaret i tidsalderen for kunstig intelligens

Fremskritt innen kunstig intelligens (KI) introduserer nye trusler – og muligheter – for cybersikkerhet. Oppdag hvordan trusselaktører bruker KI til å gjennomføre mer komplekse angrep, og gå deretter gjennom de anbefalte fremgangsmåtene som bidrar til å beskytte mot tradisjonelle og KI-aktiverte cybertrusler.

CISO drevet av kunstig intelligens: Utvikling av en bedre strategi med informasjon om datatrusler

Tre viktige fordeler venter informasjonssikkerhetsledere som omfavner generativ kunstig intelligens for sikkerhetsformål: forbedret informasjon om datatrusler, raskere trusselsvar og assistert strategisk beslutningstaking. Lær av tre eksempelscenarier, og oppdag hvorfor 85 % av informasjonssikkerhetsledere ser på kunstig intelligens som avgjørende for sikkerheten.

Microsoft-rapport om digitalt forsvar for 2024

2024-utgaven av Microsoft-rapport om digitalt forsvar utforsker utviklingen innen datatrusler fra trusselgrupper og nettkriminelle aktører knyttet til nasjonalstater, den kommer med ny innsikt og veiledning for å øke tilpasningsdyktigheten og styrke forsvar, og den utforsker den stadig større innvirkningen av generativ kunstig intelligens på cybersikkerheten

Følg Microsoft Sikkerhet