This is the Trace Id: e3df745abb482adf8f69e7cf597d5507

Microsoft ceļvedis mākslīgā intelekta lieluzņēmuma aizsardzības nodrošināšanā: Darba sākšana

Sieviete izmanto skārienekrānu.

Darba sākšana ar mākslīgā intelekta lietojumprogrammām

Mākslīgais intelekts (AI) transformē uzņēmējdarbības operācijas, atklājot brīvu vietu inovācijām un vienlaikus iepazīstinot ar jauniem riskiem. No ēnu mākslīgā intelekta (patērētāju līmeņa rīki, kas pieņemti bez uzraudzības) līdz uzvedņu injekcijas uzbrukumiem – un attiecīgu regulu izstrādei, piemēram, ES mākslīgā intelekta akts – organizācijām jārisina šie izaicinājumi, lai droši izmantotu mākslīgā intelekta iespējas.

Šajā ceļvedī ir aplūkoti ar mākslīgo intelektu saistītie riski: datu noplūde, jauni apdraudējumi, atbilstības nodrošināšanas izaicinājumi, kā arī unikālie aģentu mākslīgā intelekta riski. Šeit sniegtas arī norādes un ieteikumi praktiski veicamām darbībām, pamatojoties uz mākslīgā intelekta apgūšanas struktūru. Lai gūtu dziļākus ieskatus un informāciju par praktisku rīcību lejupielādējiet ceļvedi.

Mākslīgais intelekts ir rīks, kas maina spēles noteikumus, taču tam ir jābūt drošam. Sāksim darbu!

Organizācijām ieviešot mākslīgā intelekta rīkus, vadītājiem jāpievērš pastiprināta uzmanība galvenajiem izaicinājumiem:
  • 80 % vadītāju norāda, ka vislielākās bažas rada datu noplūdes iespējamība. 1 Ēnu mākslīgā intelekta rīki, kas tiek izmantoti bez IT apstiprinājuma, var atklāt sensitīvu informāciju, palielinot datu drošības pārkāpumu riskus.
  • 88 % organizāciju uztrauc ļaunprātīgas mākslīgā intelekta sistēmu manipulācijas iespējas. 2 Uzbrukumi, piemēram, uzvedņu injekcijas, izmanto mākslīgā intelekta sistēmu ievainojamību, izceļot nepieciešamību ieviest proaktīvus aizsardzības pasākumus.
  • 52 % vadītāju atzīst neskaidrību mākslīgo intelektu regulējošo noteikumu nozarē. 3 Atbilstības nodrošināšana tādiem regulējumiem kā, piemēram, ES mākslīgā intelekta akts ir būtiska, lai veicinātu uzticamību un saglabātu inovāciju dinamiku.

Aģentu mākslīgais intelekts piedāvā transformējošu potenciālu, taču tā autonomija rada unikālus drošības izaicinājumus, kuriem nepieciešama proaktīva risku pārvaldība. Tālāk aprakstīti galvenie riski un stratēģijas, kas pielāgotas to risināšanai:

Halucinācijas un neparedzēti rezultāti

Aģentu mākslīgā intelekta sistēmas var sniegt neprecīzus, novecojušus vai nesaskaņotus rezultātus, kas var radīt darbības traucējumus vai veicināt sliktu lēmumu pieņemšanu.

Lai mazinātu šos riskus, organizācijām jāīsteno stingri uzraudzības procesi, lai pārliecinātos par mākslīgā intelekta radīto rezultātu precizitāti un atbilstību. Regulāra apmācības datu atjaunināšana nodrošina atbilstību aktuālajai informācijai, savukārt sarežģītu gadījumu eskalācijas ceļi iespējo cilvēka iejaukšanos procesā, kad tas nepieciešams. Cilvēku uzraudzība joprojām ir būtisks faktors, kas palīdz uzturēt mākslīgā intelekta vadīto operāciju uzticamību un uzticību tām.

Pārmērīga paļaušanās uz mākslīgā intelekta lēmumiem

Akla uzticēšanās aģentu mākslīgā intelekta sistēmām var radīt ievainojamības situācijās, kad lietotāji rīkojas, pamatojoties un kļūdainiem rezultātiem, nepārbaudot tos.

Organizācijām ir jāizstrādā politikas, kas paredz nepieciešamību pēc cilvēka veiktas pārskatīšanas, pieņemot augsta riska mākslīgā intelekta ietekmētus lēmumus. Darbinieku apmācība par mākslīgā intelekta ierobežojumiem veicina apzinātu skepsi, samazinot kļūdu pieļaušanas iespējamību. Apvienojot mākslīgā intelekta ieskatus ar cilvēka spriedumu, īstenojot vairākslāņu lēmumu pieņemšanas procesus, tiek stiprināta vispārējā noturība un novērsta pārmērīga atkarība.

Jauni uzbrukumu vektori

Aģentu mākslīgā intelekta autonomija un pielāgojamība rada uzbrucējiem iespējas izmantot ievainojamības, radot gan operatīvus, gan sistēmiskus riskus.

Operatīvie riski ietver manipulācijas ar mākslīgā intelekta sistēmām, lai veiktu kaitīgas darbības, piemēram, neautorizētas darbības vai pikšķerēšanas mēģinājumus. Organizācijas var mazināt šos riskus, ieviešot jaudīgus drošības pasākumus, tostarp reāllaika anomāliju noteikšanu, šifrēšanu un stingru piekļuves kontroli.
Sistēmiskie riski rodas, kad kompromitēti aģenti traucē savstarpēji savienotu sistēmu darbību, izraisot kaskadētas kļūmes. Drošības mehānismi, redundances protokoli un regulāri auditi – saskaņojot tos ar kiberdrošības standartiem, piemēram, NIST – palīdz mazināt šos draudus un stiprināt aizsardzību pret pretinieku uzbrukumiem.

Atbildība un saistības

Aģentu mākslīgais intelekts nereti darbojas bez tiešas cilvēka uzraudzības, raisot sarežģītus jautājumus par atbildību un saistībām, kad runa ir par kļūdām un neveiksmēm.

Organizācijām jādefinē skaidri atbildības protokoli, kas nosaka ar mākslīgā intelekta darbības rezultātiem saistītās lomas un pienākumus. Caurspīdīga mākslīgā intelekta lēmumu pieņemšanas procesu dokumentācija sniedz atbalstu kļūdu identificēšanā un atbildības noteikšanā. Sadarbība ar juridiskajām komandām nodrošina atbilstību regulu prasībām, savukārt ētisko mākslīgā intelekta pārvaldības standartu pieņemšana veido uzticību un samazina reputācijas riskus.

Ieviešot jaunas mākslīgā intelekta inovācijas, piemēram, aģentus, organizācijām ir jāizveido stabila struktūra kuras pamatā ir nulles uzticēšanās principi – “nekad neuzticies, vienmēr pārbaudi”. Šāda pieeja palīdz nodrošināt ikvienas mijiedarbības autentificēšanu, autorizēšanu un nepārtrauktu uzraudzību. Lai arī nulles uzticamības sasniegšanai nepieciešams laiks, pakāpeniskas stratēģijas ieviešana ļauj nodrošināt stabilu progresu un veido pārliecību par drošu mākslīgā intelekta integrēšanu.

Microsoft mākslīgā intelekta apgūšanas struktūra koncentrējas uz trīs galvenajām fāzēm: mākslīgā intelekta uzraudzība, mākslīgā intelekta pārvaldība un mākslīgā intelekta drošības nodrošināšana.

Pievēršoties šīm jomām, organizācijas var izveidot pamatus atbildīgai mākslīgā intelekta izmantošanai, vienlaikus mazinot kritiskos riskus.

Lai gūtu panākumus, piešķiriet prioritāti cilvēkiem, apmācot darbiniekus atpazīt mākslīgā intelekta riskus un droši izmantot apstiprinātus rīkus. Sekmējiet sadarbību starp IT, drošības un uzņēmējdarbības komandām, lai nodrošinātu vienotu pieeju. Veiciniet caurspīdīgumu, atklāti stāstot par savām mākslīgā intelekta drošības iniciatīvām, lai veicinātu uzticību un demonstrētu līderību.

Izvēloties pareizu stratēģiju, kuras pamatā ir nulles uzticamības principi, jūs varat mazināt riskus, atklāt inovācijas un pārliecinoši orientēties mainīgajā mākslīgā intelekta ainavā.

Plašāka informācija par drošību

Orientēšanās kiberapdraudējumos un aizsardzības stiprināšana mākslīgā intelekta laikmetā

Sasniegumi mākslīgā intelekta (AI) jomā rada gan jaunus kiberdrošības apdraudējumus, gan attīstības iespējas. Atklājiet, kā draudu izpildītāji izmanto AI, lai veiktu sarežģītākus uzbrukumus, un pēc tam pārskatiet paraugprakses, kas palīdz aizsargāties pret tradicionālajiem un AI kiberapdraudējumiem.

Mākslīgā intelekta CISO: labākas stratēģijas nodrošināšana, izmantojot ieskatus draudu informācijā

Galvenos informācijas drošības speciālistus (CISO), kuri drošības nolūkā ievieš ģeneratīvo mākslīgo intelektu, sagaida trīs būtiski ieguvumi: uzlaboti ieskati draudu informācijā, paātrināta reaģēšana uz apdraudējumiem un palīdzība stratēģisku lēmumu pieņemšanā. Mācieties no trīs scenāriju piemēriem un atklājiet, kāpēc 85 % CISO uzskata mākslīgo intelektu par būtisku rīku drošībai.

2024. gada Microsoft digitālās aizsardzības pārskats

2024. gada Microsoft digitālās aizsardzības pārskatā ir aplūkoti arvien pieaugošie kiberapdraudējumi, ko rada valstu apdraudējumu grupas un kibernoziedznieki, sniegti jauni ieskati un norādes noturības uzlabošanai un aizsardzības stiprināšanai, kā arī aplūkota ģeneratīvā mākslīgā intelekta arvien lielākā ietekme uz kiberdrošību

Sekot Microsoft drošībai