This is the Trace Id: 2677125f12b69be9c9847eea3e0829cb

Microsoftov vodič za osiguranje poduzeća pogonjenog umjetnom inteligencijom: Početak rada

Žena upotrebljava dodirni zaslon.

Početak rada s aplikacijama umjetne inteligencije

Umjetna inteligencija (AI) transformira poslovne operacije te otključava inovacije i istovremeno uvodi nove rizike. Od umjetne inteligencije u sjeni (alati potrošačke razine koji se prihvaćaju bez nadzora) do napada ubacivanjem upita, i promjenjivih propisa poput Zakona EU-u a o umjetnoj inteligenciji, tvrtke ili ustanove moraju riješiti ove izazove kako bi sigurno koristile umjetnu inteligenciju.

Ovaj vodič pokriva rizike povezane s umjetnom inteligencijom: curenje podataka, nove prijetnje i izazove usklađenosti, zajedno s jedinstvenim rizicima agentske umjetne inteligencije. Također pruža smjernice i praktične korake koje treba poduzeti na temelju Okvira za prihvaćanje umjetne inteligencije. Za dublje uvide i akcijske korake preuzmite vodič.

Umjetna inteligencija mijenja igru – ali samo ako je možete osigurati. Počnimo s radom.

Dok tvrtke ili ustanove prihvaćaju umjetnu inteligenciju, voditelji se moraju suočiti s tri ključna izazova:
  • 80 % voditelja navodi curenje podataka kao glavni razlog za zabrinutost. 1 Alati umjetne inteligencije u sjeni, koji se koriste bez odobrenja IT-ja, mogu izložiti povjerljive informacije, čime se povećava rizik od kršenja sigurnosti.
  • 88 % tvrtki ili ustanova brine o lošim akterima koji manipuliraju sustavima umjetne inteligencije. 2 Napadi poput ubacivanja upita iskorištavaju ranjivosti u sustavima umjetne inteligencije, što naglašava potrebu za proaktivnom obranom.
  • 52 % voditelja priznaje nesigurnost u snalaženju s propisima o umjetnoj inteligenciji. 3 Ostati usklađen s okvirima poput Zakona EU-a o umjetnoj inteligenciji ključno je za poticanje povjerenja i održavanje inovacijskog zamaha.

Agentska umjetna inteligencija nudi transformativni potencijal, ali njezina autonomija donosi jedinstvene sigurnosne izazove koji zahtijevaju proaktivno upravljanje rizicima. U nastavku su ključni rizici i strategije prilagođene za njihovo rješavanje:

Halucinacije i neželjeni rezultati

Sustavi agentske umjetne inteligencije mogu proizvoditi netočne, zastarjele ili neusklađene rezultate, što dovodi do operativnih poremećaja ili lošeg donošenja odluka.

Kako bi se umanjili ti rizici, tvrtke ili ustanove trebaju implementirati rigorozne procese nadzora za pregled točnosti i relevantnosti rezultata generiranih umjetnom inteligencijom. Redovito ažuriranje podataka za obuku osigurava usklađenost s trenutačnim informacijama, dok putevi eskalacije za složene slučajeve omogućuju ljudsku intervenciju kada je to potrebno. Ljudski nadzor ostaje ključan za održavanje pouzdanosti i povjerenja u operacije vođene umjetnom inteligencijom.

Prekomjerno oslanjanje na odluke umjetne inteligencije

Slijepo povjerenje u sustave agentske umjetne inteligencije može dovesti do ranjivosti kada korisnici djeluju na temelju neispravnih rezultata bez validacije.

Tvrtke ili ustanove trebaju uspostaviti pravilnike koji zahtijevaju ljudsku provjeru za važne odluke s visokim ulozima na koje utječe umjetna inteligencija. Obučavanje zaposlenika o ograničenjima umjetne inteligencije potiče informirani skepticizam, čime se smanjuje vjerojatnost pogrešaka. Kombiniranje uvida umjetne inteligencije s ljudskom prosudbom kroz složene procese donošenja odluka jača ukupnu otpornost i sprječava pretjeranu ovisnost.

Novi vektori napada

Autonomija i prilagodljivost agentske umjetne inteligencije stvaraju prilike za napadače da iskoriste ranjivosti, što donosi operativne i sistemske rizike.

Operativni rizici uključuju manipulaciju sustavima umjetne inteligencije radi izvođenja štetnih radnji, poput neovlaštenih zadataka ili pokušaja krađe identiteta. Tvrtke ili ustanove mogu ublažiti te rizike implementacijom robusnih sigurnosnih mjera, uključujući otkrivanje anomalija u stvarnom vremenu, šifriranje i stroge kontrole pristupa.
Sistematski rizici nastaju kada kompromitirani agenti ometaju međusobno povezane sustave, što uzrokuje kaskadne kvarove. Mehanizmi zaštite od kvarova, protokoli redundancije i redovite revizije, usklađeni s okvirima računalne sigurnosti poput NIST-a, pomažu u smanjenju tih prijetnji i jačanju obrane od neprijateljskih napada.

Odgovornost i obveza

Agentska umjetna inteligencija često djeluje bez izravnog ljudskog nadzora, zbog čega se postavljaju složena pitanja o odgovornosti za pogreške ili propuste.

Tvrtke ili ustanove trebaju definirati jasne okvire odgovornosti koji određuju uloge i odgovornosti za ishode povezane s umjetnom inteligencijom. Transparentno dokumentiranje procesa donošenja odluka umjetnom inteligencijom podržava identifikaciju pogrešaka i dodjeljivanje odgovornosti. Suradnja s pravnim timovima osigurava usklađenost s propisima, dok usvajanje etičkih standarda za upravljanje umjetnom inteligencijom gradi povjerenje i smanjuje reputacijske rizike.

S novim inovacijama umjetne inteligencije poput agenata, tvrtke ili ustanove moraju uspostaviti čvrstu osnovu temeljenu na načelima modela „svi su nepouzdani” – „nikad ne vjeruj, uvijek provjeri“. Ovaj pristup pomaže da se osigura da je svaka interakcija autentificirana, autorizirana i kontinuirano nadzirana. Iako postizanje modela „svi su nepouzdani” iziskuje vrijeme, prihvaćanje fazne strategije omogućuje stalan napredak i gradi povjerenje u sigurnu integraciju umjetne inteligencije.

Microsoftov okvir za prihvaćanje umjetne inteligencije usmjeren je na tri ključne faze: Kontroliranje umjetne inteligencije, upravljanje umjetnom inteligencijom i sigurna umjetna inteligencija.

Baveći se tim područjima, tvrtke ili ustanove mogu postaviti temelje za odgovornu upotrebu umjetne inteligencije te istovremeno ublažiti glavne rizike.

Za uspjeh, prioritet treba dati ljudima obučavanjem zaposlenika da prepoznaju rizike povezane s umjetnom inteligencijom i koriste odobrene alate na siguran način. Potaknite suradnju između timova informacijske tehnologije, timova za sigurnost i poslovnih timova kako biste osigurali jedinstven pristup. Promičite transparentnost otvorenim komuniciranjem svojih inicijativa za sigurnost umjetne inteligencije kako biste izgradili povjerenje i pokazali vodstvo.

S pravom strategijom, utemeljenom na principima modela „svi su nepouzdani”, možete umanjiti rizike, otključati inovacije i samouvjereno se kretati kroz promjenjivi krajolik umjetne inteligencije.

Više iz odjeljka Sigurnost

Upravljanje računalnim prijetnjama i jačanje zaštite u eri umjetne inteligencije

Napredak u umjetnoj inteligenciji (AI) predstavlja nove prijetnje i prilike za računalnu sigurnost. Saznajte kako zlonamjerni akteri koriste AI za provođenje sofisticiranijih napada, zatim pregledajte najbolje prakse koje pomažu u zaštiti od tradicionalnih računalnih prijetnji i onih omogućenim AI-jem.

CISO pogonjen umjetnom inteligencijom: Omogućavanje bolje strategije uz uvide u obavještavanje o sigurnosnim prijetnjama

Tri ključne prednosti očekuju CISO-e koji prihvate generativnu umjetnu inteligenciju za sigurnost: poboljšani uvidi u obavještavanje o sigurnosnim prijetnjama, ubrzani odgovori na prijetnje i potpomognuto strateško donošenje odluka. Učite iz tri primjera scenarija i otkrijte zašto 85 % CISO-a smatra da je umjetna inteligencija ključna za sigurnost.

Microsoftovo izvješće o digitalnoj zaštiti za 2024.

U izdanju Microsoftova izvješća o digitalnoj zaštiti za 2024. godinu analiziraju se sve opasnije računalne prijetnje od strane državnih zlonamjernih skupina i računalnih zločinaca, pružaju se novi uvidi i smjernice za poboljšanje otpornosti i jačanje zaštite te ujedno istražuje sve veći utjecaj generativne umjetne inteligencije na računalnu sigurnost

Pratite Microsoft Security