This is the Trace Id: 195711c7974d8f260e44c24f797ddde8

Microsoftov vodnik za zagotavljanje varnosti podjetja, ki uporablja UI: Uvod

Ženska, ki uporablja zaslon na dotik.

Začetek z aplikacijami z UI

Umetna inteligenca (UI) spreminja poslovanje, omogoča inovacije in hkrati prinaša nova tveganja. Od senčne umetne inteligence (orodja za potrošnike, sprejeta brez nadzora) do napadov z vstavljanjem pozivov ter razvijajočih se predpisov, kot je Zakon EU o umetni inteligenci, morajo organizacije nasloviti te izzive, da bi umetno inteligenco uporabljale varno.

Ta vodnik obravnava tveganja, povezana z umetno inteligenco, kot so uhajanje podatkov, nove grožnje, izzivi skladnosti s predpisi ter edinstvena tveganja agentne umetne inteligence. Prav tako nudi smernice in praktične korake, ki jih je treba sprejeti na podlagi Okvira za uvedbo umetne inteligence. Za globlje vpoglede in ukrepe prenesite vodnik.

Umetna inteligenca je prelomna tehnologija, ampak le, če jo znate ustrezno zaščititi. Začnimo.

Ko organizacije vključujejo UI, se morajo vodje spopasti s tremi ključnimi izzivi:
  • 80 % vodij navaja uhajanje podatkov kot največjo skrb. 1​​ Orodja senčne UI, ki so uporabljena brez odobritve IT, lahko razkrijejo občutljive informacije, kar povečuje tveganja za kršitve.
  • 88 % organizacij skrbi, da bi slabi akterji manipulirali s sistemi umetne inteligence. 2 Napadi, kot je vstavljanje pozivov, izkoriščajo ranljivosti v sistemih z UI, kar poudarja potrebo po proaktivnih obrambnih ukrepih.
  • 52 % vodij priznava negotovost pri navigaciji po predpisih o umetni inteligenci. 3 Ohranjanje skladnosti z okviri, kot je Zakon EU o umetni inteligenci, je ključno za spodbujanje zaupanja in ohranjanje inovacij.

Agentna umetna inteligenca ponuja preobrazbeni potencial, vendar njena avtonomnost prinaša edinstvene varnostne izzive, ki zahtevajo proaktivno upravljanje tveganj. Spodaj so navedena ključna tveganja in strategije, prilagojene za njihovo obravnavo:

Halucinacije in nenamerni izhodi

Sistemi z agentno umetno inteligenco lahko navedejo netočne, zastarele ali neusklajene izhode, kar vodi do operativnih motenj ali slabega odločanja.

Za zmanjšanje teh tveganj bi morale organizacije uvesti stroge nadzorne postopke za pregled izhodov, ustvarjenih z UI, z vidika pravilnosti in ustreznosti. Redno posodabljanje podatkov za usposabljanje zagotavlja usklajenost s trenutnimi informacijami, medtem ko poti za eskalacijo za kompleksne primere omogočajo človeško posredovanje, kadar je to potrebno. Človeški nadzor ostaja ključnega pomena za ohranjanje zanesljivosti in zaupanja v postopke, ki temeljijo na UI.

Prekomerno zanašanje na odločitve umetne inteligence

Slepo zaupanje v sisteme z agentno UI lahko vodi do ranljivosti, ko uporabniki delujejo na podlagi napačnih izhodov brez preverjene veljavnosti.

Organizacije bi morale vzpostaviti pravilnike, ki zahtevajo človeški pregled pri odločitvah z visokimi vložki, na katere vpliva umetna inteligenca. Usposabljanje zaposlenih glede omejitev UI spodbuja informirano skeptičnost, kar zmanjšuje verjetnost napak. Združevanje vpogledov umetne inteligence s človeško presojo prek večplastnih procesov odločanja krepi splošno odpornost in preprečuje prekomerno odvisnost.

Novi vektorji napada

Avtonomija in prilagodljivost agentne UI ustvarjata priložnosti za napadalce, da izkoristijo ranljivosti, kar prinaša tako operativna kot sistemska tveganja.

Operativna tveganja vključujejo manipulacijo sistemov z UI za izvajanje škodljivih dejanj, kot so nepooblaščene naloge ali poskusi lažnega predstavljanja. Organizacije lahko zmanjšajo ta tveganja z uvedbo robustnih varnostnih ukrepov, vključno s sprotnim odkrivanjem anomalij, šifriranjem in strogimi nadzornimi ukrepi.
Sistemska tveganja nastanejo, ko ogroženi posredniki motijo medsebojno povezane sisteme, kar povzroča kaskadne okvare. Mehanizmi za varnostno kopiranje, protokoli redundance in redni pregledi, usklajeni z okviri kibernetske varnosti, kot je NIST, pomagajo zmanjšati te grožnje in okrepiti obrambo proti napadom nasprotnikov.

Odgovornost in obveznost

Agentna UI pogosto deluje brez neposrednega človeškega nadzora, kar postavlja zapletena vprašanja o odgovornosti in obveznosti za napake ali okvare.

Organizacije bi morale definirati jasne okvire odgovornosti, ki določajo vloge in obveznosti za rezultate, povezane z umetno inteligenco. Transparentna dokumentacija procesov odločanja z UI podpira identifikacijo napak in dodeljevanje odgovornosti. Sodelovanje s pravnimi ekipami zagotavlja skladnost s predpisi, medtem ko sprejemanje etičnih standardov za upravljanje umetne inteligence krepi zaupanje in zmanjšuje tveganja za ugled.

Z novimi inovacijami umetne inteligence, kot so posredniki, morajo organizacije vzpostaviti močno osnovo, ki temelji na načelih ničelnega zaupanja – »nikoli ne zaupaj, vedno preveri«. Ta pristop pomaga zagotoviti, da je vsaka interakcija preverjena, pooblaščena in nenehno nadzorovana. Čeprav dosega ničelnega zaupanja traja, sprejemanje fazne strategije omogoča postopno napredovanje in krepi zaupanje pri varni integraciji umetne inteligence.

Microsoftov Okvir za uvedbo umetne inteligence se osredotoča na tri ključne faze: Upravljate UI, nadzorujte UI in zaščitite UI.

Z obravnavo teh področij lahko organizacije postavijo temelje za odgovorno uporabo umetne inteligence, hkrati pa zmanjšajo kritična tveganja.

Če želite uspeti, dajte prednost ljudem z usposabljanjem zaposlenih, da prepoznajo tveganja umetne inteligence in varno uporabljajo odobrena orodja. Spodbujajte sodelovanje med IT in varnostnimi ter poslovnimi ekipami, da zagotovite enoten pristop. Spodbujajte transparentnost z odprto komunikacijo o svojih varnostnih pobudah na področju umetne inteligence, da okrepite zaupanje in pokažete vodstvene sposobnosti.

S pravo strategijo, ki temelji na načelih ničelnega zaupanja, lahko zmanjšate tveganja, omogočite inovacije in samozavestno krmarite po razvijajočem se svetu umetne inteligence.

Več iz Varnost

Obvladovanje kibernetskih groženj in krepitev obrambe v dobi umetne inteligence

Napredki na področju umetne inteligence (UI) predstavljajo nove grožnje, in priložnosti, za kibernetsko varnost. Spoznajte, kako akterji groženj uporabljajo umetno inteligenco za izvedbo bolj dovršenih napadov, nato pa preglejte najboljše prakse za zaščito pred tradicionalnimi kibernetskimi grožnjami in grožnjami, ki jih omogoča umetna inteligenca.

CISO z zmogljivostjo UI: Omogočanje boljše strategije z vpogledi v informacije o kibernetskih grožnjah

Vodje informacijske varnosti, ki bodo uporabili generativno umetno inteligenco za varnost, čakajo tri ključne prednosti, in sicer boljše informacije o kibernetskih grožnjah, hitrejši odzivi na grožnje in pomoč pri sprejemanju strateških odločitev. Oglejte si tri vzorčne scenarije in odkrijte, zakaj 85 % vodij informacijske varnosti meni, da je umetna inteligenca ključnega pomena za varnost.

Poročilo o digitalni obrambi Microsoft za leto 2024

Izdaja Poročila o digitalni obrambi Microsoft za leto 2024 preučuje razvijajoče se kibernetske grožnje s strani skupin groženj nacionalnih držav in kibernetskih kriminalcev, prinaša nove vpoglede in smernice za izboljšanje odpornosti in krepitev obrambe, ter raziskuje naraščajoči vpliv generativne umetne inteligence na kibernetsko varnost

Spremljajte Microsoftovo varnost