This is the Trace Id: b156ad974e9e17623c7cebef7440ed61

Microsoft vodič za obezbeđivanje preduzeća koja koriste veštačku inteligenciju: Započnite

Žena koja koristi ekran osetljiv na dodir.

Prvi koraci u radu sa AI aplikacijama

Veštačka inteligencija (AI) transformiše poslovne operacije, omogućavajući inovacije dok istovremeno uvodi nove rizike. Od AI-ja iz senke (usvajanja potrošačkih alatki bez nadzora) do napada unosom odziva – i regulativa koje se razvijaju, poput EU Akta o veštačkoj inteligenciji – organizacije moraju da adresiraju ove izazove da bi bezbedno koristile veštačku inteligenciju.

Ovaj vodič pokriva rizike vezane za veštačku inteligenciju: curenje podataka, nove pretnje i izazove usaglašenosti, kao i jedinstvene rizike agentskog AI-ja. Takođe nudi uputstva i praktične korake na osnovu Radnog okvira za usvajanje veštačke inteligencije. Za dublje uvide i korake koje možete preduzeti, preuzmite vodič.

Veštačka inteligencija potpuno menja pravila igre – ali samo ako možete da je obezbedite. Krenimo.

Kako organizacije sve više prihvataju veštačku inteligenciju, rukovodioci moraju da adresiraju tri ključna izazova:
  • 80% rukovodilaca tvrde da im je curenje podataka među glavnim brigama. 1 AI alatke iz senke – kada se koriste bez odobrenja informatičkog odeljenja – mogu da otkriju osetljive informacije, povećavajući rizičnost proboja.
  • 88% organizacija brine o zlonamernim akterima koji manipulišu AI sistemima. 2 Napadi poput unosa odziva zloupotrebljavaju osetljivosti sistema veštačke inteligencije, naglašavajući potrebu za proaktivnom odbranom.
  • 52% rukovodilaca priznaje nesigurnost u navigaciji regulativama o veštačkoj inteligenciji. 3 Održavanje usaglašenosti sa pravnim okvirima poput EU Akta o veštačkoj inteligenciji nužno je za negovanje poverenja i ostajanje inovativnim.

Agentski AI nudi potencijal za transformaciju, ali njegova autonomija uvodi jedinstvene bezbednosne rizike koji zahtevaju proaktivno upravljanje rizikom. Dole su navedeni ključni rizici i strategije osmišljene kako bi se oni adresirali:

Halucinacije i neželjen izlazni materijal

Agentski AI sistemi mogu da proizvedu neprecizne, zastarele ili neusaglašene izlaze, što dovodi do operativnih prekida ili loših odluka.

Kako bi umanjile ove rizike, organizacije treba da uvedu rigorozne procese nadgledanja kako bi kontrolisale AI-generisani materijal radi tačnosti i relevantnosti. Redovno ažuriranje podataka za obuku obezbeđuje poravnanje sa trenutnim informacijama, dok putanje eskalacije za kompleksne slučajeve omogućavaju ljudsku intervenciju onda kada je ona neophodna. Ljudski nadzor ostaje neophodan radi održanja pouzdanosti i poverenja u operacije koje koriste veštačku inteligenciju.

Preterano oslanjanje na odluke veštačke inteligencije

Slepo verovanje u agentske AI sisteme može da dovede do ranjivosti onda kada korisnici koriste faličan izlazni materijal bez provere valjanosti.

Organizacije treba da uspostave smernice koje zahtevaju ljudski pregled za odluke od visokog značaja na koje utiče AI. Obuka zaposlenih o ograničenjima veštačke inteligencije neguje informisani skepticizam, što smanjuje mogućnost grešaka. Kombinovanje uvida veštačke inteligencije sa ljudskom presudom kroz slojevite procese donošenja odluka ojačava opštu izdržljivost i sprečava preteranu zavisnost.

Novi vektori napada

Autonomija i prilagodljivost agentskog AI-ja stvara mogućnosti za napadače da iskoriste ranjivosti, što uvodi operativne i sistemske rizike.

Operativni rizici uključuju manipulaciju AI sistema tako da čine štetne radnje, kao što su nedozvoljeni zadaci ili pokušaji phishing-a. Organizacije mogu da umanje ove rizike tako što će uvesti snažne mere bezbednosti, uključujući otkrivanje anomalija u realnom vremenu, enkripciju i strogu kontrolu pristupa.
Sistemski rizici nastaju kada ugroženi agenti ometaju međupovezane sisteme, što izaziva kaskadu grešaka. Mehanizmi bezbedni od grešaka, protokoli za redundanciju i redovna ispitavanja – usklađeni sa okvirima za kibernetičku bezbednost kao što je NIST – pomažu u umanjenju ovih pretnji i jačanju odbrana protiv neprijateljskih napada.

Odgovornost i nadležnost

Agentski AI često operiše bez direktnog ljudskog nadzora, što izaziva složena pitanja o odgovornosti i nadležnosti za greške i neuspehe.

Organizacije treba da definišu jasne okvire odgovornosti koji konkretizuju uloge i odgovornosti za ishode vezane za veštačku inteligenciju. Transparentna dokumentacija procesa pravljenja odluka pomoću veštačke inteligencije podržava identifikaciju grešaka i dodelu nadležnosti. Saradnja sa pravnim timovima osigurava usaglašenost sa regulativama, dok usvajanje etičkih standarda za AI upravljanje ojačava poverenje i smanjuje rizike po reputaciju.

Uz nove AI inovacije poput agenata, organizacije moraju da uspostave snažnu osnovu zasnovanu na principima Nulte pouzdanosti – „nikad ne poveruj, uvek proveri.“ Ovaj pristup pomaže pri garantovanju da je svaka interakcija proverena, dozvoljena i kontinuirano nadgledana. Iako je potrebno vreme da bi se dostigla Nulta pouzdanost, usvajanje postupne strategije omogućava konstantan napredak i jača osećaj sigurnosti u bezbednu integraciju veštačke inteligencije.

Radni okvir za usvajanje veštačke inteligencije korporacije Microsoft fokusira se na tri ključne faze: Ovladavanje AI-jem, Upravljanje AI-jem i Obezbeđivanje AI-ja.

Adresirajući ove oblasti, organizacije mogu da uspostave temelj za odgovorno korišćenje veštačke inteligencije dok umanjuju ključne rizike.

Da biste uspeli, prioritizujte ljude tako što ćete obučiti zaposlene da prepoznaju rizike veštačke inteligencije i bezbedno koriste odobrene alatke. Pospešite saradnju između timova za IT, bezbednost i poslovanje, kako biste osigurali jedinstven pristup. Promovišite transparentnost tako što ćete otvoreno komunicirati o svojim inicijativama za AI bezbednost, kako biste izgradili poverenje i demonstrirali liderstvo.

Uz ispravnu strategiju zasnovanu na principima nulte pouzdanosti, možete da umanjite rizike, otključate inovacije i sigurno se krećete kroz promenljivo okruženje veštačke inteligencije.

Više informacija iz oblasti o bezbednosti

Upravljanje kibernetičkim pretnjama i jačanje odbrane u doba veštačke inteligencije

Napredak u oblasti veštačke inteligencije (AI) predstavlja nove pretnje – i prilike – za kibernetičku bezbednost. Otkrijte kako zlonamerni akteri koriste AI za sofisticiranije napade, a zatim pogledajte najbolje prakse koje štite od tradicionalnih kibernetičkih pretnji, kao i od onih koje su omogućene veštačkom inteligencijom.

Direktor za bezbednost informacija (CISO) koji koristi veštačku inteligenciju: Omogućite bolju strategiju pomoću uvida u informacije o pretnjama

Tri ključne pogodnosti očekuju (CISO) direktore za bezbednost informacija koji otvoreno prihvate generativni AI za bezbednost: pojačani uvidi u informacije o pretnjama, ubrzani odgovori na pretnje i pomoć pri strateškom donošenju odluka. Naučite iz tri primerna scenarija i otkrijte zašto 85% CISO direktora smatraju da je veštačka inteligencija od ključne važnosti za bezbednost.

Microsoft izveštaj o digitalnoj bezbednosti za 2024. godinu

Izdanje Microsoft izveštaja o digitalnoj bezbednosti za 2024. godinu proučava evoluciju kibernetičkih pretnji od strane državnih zlonamernih grupa i aktera kao kibernetičkih kriminalaca, pruža nove uvide i smernice za poboljšanje otpornosti i jačanje odbrana i ujedno istražuje sve veći uticaj generativne veštačke inteligencije na kibernetičku bezbednost

Pratite Microsoft bezbednost