This is the Trace Id: f56d756f1e1579ea4418eece80202994

Microsofti juhend tehisintellektipõhise suurettevõtte turvamiseks. Alustamine

Naine kasutab puutetundlikku ekraani.

Tehisintellektipõhiste rakendustega töötamise alustamine

Tehisintellekt (TI) muudab äriprotsesse, andes uusi võimalusi, kuid tuues kaasa ka uusi riske. Varjatud tehisintellekti kasutusest (tarbijatele mõeldud tööriistad, mis võetakse organisatsioonis kasutusele ilma järelevalveta) kuni juhisesüstide tüüpi rünnakuteni ning pidevalt muutuvate määrusteni (nt Euroopa Liidu tehisintellektimäärus) peavad organisatsioonid nendele väljakutsetele vastu astuma, et kasutada tehisintellekti turvaliselt.

See juhend käsitleb tehisintellektiga seotud riske: andmeleke, uued ohud ja vastavusega seotud väljakutsed koos agentse käitumisega TI ainulaadsete riskidega. Lisaks sisaldab see juhiseid ja praktilisi samme, mis põhinevad tehisintellekti kasutuselevõtu raamistikul. Põhjalikumate teadmiste ja rakendatavate juhiste saamiseks laadige juhend alla.

Tehisintellekt võib olla läbimurde saavutamise võti – kuid ainult siis, kui kasutate seda turvaliselt. Alustame.

Tehisintellekti kasutuselevõtul peavad organisatsioonide juhid silmitsi seisma kolme võtmeprobleemiga.
  • 80% juhtidest peab andmeleket oluliseks murekohaks. 1 Varjatud tehisintellektipõhised tööriistad, mida kasutatakse ilma IT-osakonna heakskiiduta, võivad paljastada tundlikku teavet ning suurendada turbemurrete riski.
  • 88% organisatsioonidest tunneb muret pahatahtlike tegutsejate võimaluse pärast manipuleerida tehisintellekti süsteemidega. 2 Ründed, nagu näiteks juhiste süstimine, kasutavad ära tehisintellektipõhiste süsteemide haavatavusi. See asjaolu toob esile ennetava kaitse vajalikkuse.
  • 52% juhtidest tunnistab, et nad ei ole kindlad, kuidas tehisintellektiga seotud määrustes orienteeruda. 3 Kooskõlas püsimine selliste raamistikega nagu ELi tehisintellektimäärus on oluline usalduse kujundamiseks ja innovatsiooni hoogsuse säilitamiseks.

Agentse käitumisega tehisintellekt pakub märkimisväärset potentsiaali, kuid selle iseseisvus toob kaasa ainulaadsed turbeohud, mis nõuavad ennetavat riskijuhtimist. Alljärgnevalt on välja toodud peamised riskid ja neile kohandatud maandamisstrateegiad.

Hallutsinatsioonid ja soovimatud tulemused

Agentse käitumisega tehisintellektisüsteemid võivad anda ebatäpseid, aegunud või olukorraga mitte seotud tulemusi, mis võivad põhjustada tegevushäireid või kehvi otsuseid.

Nende riskide vähendamiseks tuleks rakendada põhjalikke järelevalveprotsesse, mille abil kontrollitakse tehisintellekti genereeritud tulemuste täpsust ja asjakohasust. Koolitusandmete regulaarne uuendamine aitab hoida süsteemi ajakohasena, ning keerulisemate juhtumite puhul tuleks tagada selge laiendustee, mis võimaldab inimsekkumist. Inimjärelevalve jääb oluliseks, et säilitada usaldusväärsus ja usaldus tehisintellektipõhiste tegevuste suhtes.

Liigne sõltuvus tehisintellekti tehtavatest otsustest

Pime usaldus agentse käitumisega tehisintellekti vastu võib muuta organisatsioonid haavatavaks, kui töötajad tegutsevad valideerimata ja ekslike tulemuste põhjal.

Ettevõtted peaksid kehtestama reeglid, mis nõuavad inimpoolset ülevaatust kõigi kriitilise tähtsusega tehisintellekti mõjul tehtavate otsuste puhul. Töötajate koolitamine tehisintellekti piirangute osas arendab teadlikku ettevaatlikkust ja vähendab vigade tekkimise tõenäosust. Tehisintellektipõhiste ülevaadete ja inimeste otsustusprotsesside kombineerimine kihilise otsustusprotsessi kaudu tugevdab üldist jätkusuutlikkust ja ennetab üleliigset sõltuvust.

Uued ründevektorid

Agentse käitumisega tehisintellekti iseseisvus ja kohanemisvõime loovad võimalusi ründajatele, kes võivad ära kasutada süsteemide haavatavusi, põhjustades nii tegevusriske kui ka süsteemseid riske.

Tegevusriskid on juhtumid, mille puhul ründajad manipuleerivad tehisintellekti süsteemiga, et sooritada kahjulikke tegevusi, näiteks volitamata toiminguid või õngitsuskatseid. Nende riskide leevendamiseks peavad organisatsioonid rakendama tugevaid turbemeetmeid, sealhulgas reaalajas anomaaliatuvastust, krüptimist ja rangeid juurdepääsupiiranguid.
Süsteemsed riskid võivad ilmneda, kui turberikkega agendid põhjustavad häireid seotud süsteemides, tekitades ahelreaktsioonina tõrkeid. Selliste ohtude leevendamiseks on soovitatav rakendada veakindlaid mehhanisme, dubleerimispõhimõtteid ja regulaarseid auditeid, mis lähtuvad küberjulgeoleku raamistikest, näiteks NIST-i raamistikust.

Vastutus ja kohustus

Agentne tehisintellekt toimib sageli ilma otsese inimjärelevalveta ja see asjaolu tõstatab keerulisi küsimusi vastutuse ja süü määramise kohta võimalike tõrgete korral.

Organisatsioonid peaksid looma selged vastutuse raamistikud, mis määratlevad rollid ja vastutuse tehisintellektiga seotud tulemuste puhul. Tehisintellekti otsustusprotsessi läbipaistvad kirjeldused võimaldavad vigu tuvastada ja õiglaselt vastutust määrata. Koostöö õigusmeeskondadega tagab regulatsioonide järgimise, samas kui eetiliste standardite rakendamine tehisintellekti töö juhtimisel loob usaldust ja vähendab mainega seotud riske.

Uute agentsete tehisintellekti lahenduste kasutuselevõtul tuleb organisatsioonidel rajada tugev alus täisusaldamatuse põhimõtetel — „ära kunagi usalda, kontrolli alati“. Selline lähenemine tagab, et iga toiming on autenditud, volitatud ja pidevalt jälgitav. Kuigi täisusaldamatuse strateegia rakendamine võtab aega, võimaldab etapiviisiline lähenemine teha järjepidevaid edusamme ja suurendab kindlustunnet tehisintellekti turvalisel kasutuselevõtul.

Microsofti tehisintellekti kasutuselevõtu raamistik koosneb kolmest põhietapist: Tehisintellekti haldamine, juhtimine ja turvamine.

Nende valdkondade käsitlemine aitab organisatsioonidel luua vastutustundliku tehisintellekti kasutuse aluse ja vähendada kriitilisi riske.

Edu saavutamiseks tuleks pöörata rohkem tähelepanu inimestega seotud aspektidele – koolitada töötajaid, et nad oskaksid ära tunda tehisintellektiga seotud riske ja kasutaksid ainult heakskiidetud tööriistu. IT-, turbe- ja äriüksuste vaheline koostöö aitab tagada ühtse lähenemise. Suurendage läbipaistvust, jagades avatult teavet oma tehisintellekti turvalisusega seotud algatuste kohta, et suurendada usaldust ja näidata suunamudijana eeskuju.

Rakendades sobivat strateegiat, mis põhineb täisusaldamatuse põhimõtetel, saate riske maandada, innovatsiooni edendada ja enesekindlalt toime tulla tehisintellekti arengust tulenevate muutustega.

  1. [1]
    First Annual Generative AI Study: Business Rewards vs. Security Risks ,” (Esimene iga-aastane generatiivse tehisintellekti uuring: „Ärilised eelised vs. turberiskid“) lk 6, iSMG, 2024
  2. [3]
    First Annual Generative AI Study: Business Rewards vs. Security Risks“ („Esimene iga-aastane generatiivse tehisintellekti uuring: ärilised eelised vs. turberiskid“) Forrester, leht 3, november 2024

Lisateavet turvalisuse kohta

Küberohtudes orienteerumine ja kaitse tugevdamine tehisintellekti ajastul

Tehisintellekti areng toob küberturbe jaoks kaasa nii uued ohud kui ka uued võimalused. Siit saate teada, kuidas küberohustajad kasutavad tehisaru keerukamate rünnete jaoks; seejärel vaadake üle head tavad, mis aitavad teil end kaitsta nii traditsiooniliste kui ka tehisintellekti toega küberohtude eest.

Tehisintellektiga varustatud infoturbejuht (CISO): parem strateegia ohuanalüüsipõhiste ülevaadete toel

Kolm peamist eelist, mida infoturbe juhid genereeriva tehisintellekti kasutuselevõtust saavad: paremad ohuanalüüsi ülevaated, kiirendatud ohukõrvaldus ja toetatud strateegilised otsused. Tutvuge kolme näidisstsenaariumiga, et mõista, miks 85% infoturbe juhtidest tehisintellekti turbe jaoks ülioluliseks peavad.

Microsofti digikaitsearuanne 2024

Microsofti digikaitsearuande 2024. aasta väljaanne uurib riiklikult mahitatud küberohurühmituste ja küberkurjategijate tekitatud küberohtude arengut, pakub uusi ülevaateid ja juhiseid vastupanuvõime täiustamiseks ja kaitse tugevdamiseks ning uurib genereeriva tehisintellekti kasvavat mõju küberturbele

Jälgige Microsofti turbeteenust