Cyber Signals – 6. izdaja:
Microsoftove stranke vsak dan ščiti več kot 2,5 milijarde zaznavanj v oblaku, ki temeljijo na umetni inteligenci.
Microsoftove stranke vsak dan ščiti več kot 2,5 milijarde zaznavanj v oblaku, ki temeljijo na umetni inteligenci.
Svet kibernetske varnosti se v današnjem času močno spreminja. V samem ospredju teh sprememb je umetna inteligenca (UI), ki pa je hkrati grožnja in priložnost. Medtem ko umetna inteligenca organizacijam omogoča preprečevanje kibernetskih napadov s strojno hitrostjo ter spodbuja inovacije in učinkovitost pri odkrivanju groženj, lovu ter odzivanju na dogodke, pa lahko napadalci umetno inteligenco uporabijo kot del svojih izkoriščanj. Še nikoli ni bilo tako pomembno, da zagotovimo varno ustvarjanje uvajanje in uporabo umetne inteligence.
Pri Microsoftu raziskujemo možnosti umetne inteligence za izboljšanje naših varnostnih ukrepov, odkrivanje novih in naprednih zaščit ter ustvarjanje boljše programske opreme. Z umetno inteligenco se lahko prilagodimo razvijajočim se grožnjam, takoj zaznamo anomalije, se hitro odzovemo in nevtraliziramo tveganja ter prilagodimo obrambo potrebam organizacije.
Z umetno inteligenco lahko premagamo še enega od največjih izzivov v panogi. Zaradi globalnega manjka zaposlenih na področju kibernetske varnosti, ki po svetu zahteva približno 4 milijone strokovnjakov za kibernetsko varnost, lahko UI postane ključno orodje za zapolnitev manjka talentov in izboljšanje storilnosti strokovnjakov za varnost.
V eni od študij je razvidno, kako lahko varnostni analitiki izkoristijo zmogljivosti rešitve Security Copilot, ne glede na raven njihovega strokovnega znanja – pri vseh opravilih so bili udeleženci za 44 odstotkov natančnejši in 26 odstotkov hitrejši.
Pri zagotavljanju varnosti v prihodnosti moramo poskrbeti za usklajenost med pripravo na UI in izkoriščanjem njenih prednosti, saj lahko UI poveča človeški potencial in zagotovi rešitve za nekatere največje izzive.
Za zagotovitev varnejše prihodnosti z umetno inteligenco bo potreben temeljni napredek na področju inženiringa programske opreme. Razumeti bomo morali grožnje, ki jih povzroča umetna inteligenca, kot osnovno komponento vsake varnostne strategije. Skupaj moramo vzpostaviti tesno sodelovanje in partnerstva med javnimi in zasebnimi sektorji za boj proti akterjem groženj.
V okviru teh prizadevanj in lastne pobude Secure Future Initiative sta OpenAI in Microsoft danes objavila nove, podrobne podatke obveščanja glede poskusov akterjev groženj, da bi preskusili in raziskali uporabnost velikih jezikovnih modelov (LLM) na področju tehnik napadov.
Upamo, da bodo te informacije uporabne v različnih panogah, saj si vsi prizadevamo za varnejšo prihodnost. Kajti na koncu smo vsi strokovnjaki za varnost.
Oglejte si digitalni pregled oddaje Cyber Signals, kjer se Vasu Jakkal, podpredsednica Microsoftove varnosti za podjetja, pogovarja s priznanimi strokovnjaki za obveščanje o kibernetskih grožnjah v dobi umetne inteligence, načinih, kako Microsoft uporablja umetno inteligenco za izboljšanje varnosti, in ukrepih, s katerimi lahko organizacije okrepijo obrambo.
Okolje kibernetskih groženj postaja čedalje bolj zapleteno, saj so napadalci bolj motivirani, uporabljajo dovršene tehnike in imajo na voljo več sredstev. Tako akterji groženj kot tudi strokovnjaki za varnost uporabljajo umetno inteligenco, vključno z modeli LLM, za izboljšanje storilnosti in izkoriščanje zmogljivosti dostopnih platform, ki bi lahko ustrezale njihovim ciljem in tehnikam napadov.
Zaradi hitro razvijajočega se okolja groženj danes objavljamo Microsoftova načela, ki so vodilo naših ukrepov za ublažitev tveganja akterjev groženj, vključno z naprednimi dolgotrajnimi grožnjami (APT), naprednimi dolgotrajnimi manipulatorji (APM) ter kibernetskimi kriminalnimi združbami, ki uporabljajo platforme UI in vmesnike API. Ta načela vključujejo prepoznavanje zlonamerne uporabe umetne inteligence s strani akterjev groženj in ustrezno ukrepanje, obveščanje drugih ponudnikov storitev umetne inteligence, sodelovanje z drugimi zainteresiranimi skupinami in preglednost.
Čeprav se motivi in spretnosti akterjev groženj razlikujejo, njihovi postopki izvajanja napadov zajemajo podobna opravila. Ta vključuje izvidništvo, kot je raziskovanje panog, lokacij in odnosov morebitnih žrtev, kodiranje, vključno z izboljšanjem programskih skript in razvojem zlonamerne programske opreme, ter pomoč pri učenju in uporabi človeških in strojnih jezikov.
V sodelovanju z OpenAI posredujemo podatke obveščanja o grožnjah, kjer so navedeni zaznani državi pridruženi napadalci – spremljani kot Forest Blizzard, Emerald Sleet, Crimson Sandstorm, Charcoal Tajfun in Salmon Tajfun – ki uporabljajo model LLM za razširitev kibernetskih postopkov.
Cilj Microsoftovega raziskovalnega partnerstva z OpenAI je zagotoviti varno in odgovorno uporabo tehnologij umetne inteligence, kot je ChatGPT, ter spoštovati najvišje standarde etične uporabe za zaščito skupnosti pred morebitnimi zlorabami.
Akter Emerald Sleet je uporabljal model LLM za raziskovanje možganskih trustov in strokovnjakov za Severno Korejo ter ustvarjal vsebine za morebitne napade s ciljanim lažnim predstavljanjem. Emerald Sleet je uporabljal modele LLM tudi za razumevanje javno znanih ranljivosti, odpravljanje tehničnih težav in pomoč pri uporabi različnih spletnih tehnologij.
Druga skupina, ki jo podpira Kitajska, Salmon Typhoon, je leta 2023 ocenjevala učinkovitost uporabe modelov LLM za pridobivanje informacij o morebitno občutljivih temah, pomembnih posameznikih, regionalni geopolitiki, vplivu ZDA in notranjih zadevah. Ta poskusna uporaba modelov LLM odraža tako razširitev kompleta orodij za zbiranje podatkov obveščanja kot tudi eksperimentalno fazo pri ocenjevanju zmogljivosti novih tehnologij.
Sprejeli smo ukrepe za onemogočanje sredstev in računov, povezanih s temi akterji groženj, ter ustvarili varovala in varnostne mehanizme za zaščito naših modelov.
Druga zaskrbljujoča težava so goljufije, ki uporabljajo umetno inteligenco. Primer tega je sinteza glasu, kjer lahko na podlagi trisekundnega glasovnega vzorca naučimo model, da zveni kot kdor koli. Za pridobitev zadostnega vzorca lahko uporabite celo nekaj tako osnovnega, kot je pozdrav v glasovni pošti.
Velik del naše medsebojne komunikacije in poslovanja temelji na preverjanju identitete, kot je prepoznavanje glasu, obraza, e-poštnega naslova ali sloga pisanja osebe.
Ključnega pomena je, da razumemo, kako zlonamerni akterji uporabljajo umetno inteligenco za oslabitev dolgotrajnih sistemov za preverjanje identitete, da se lahko spopademo z zapletenimi primeri goljufij in drugimi novimi grožnjami socialnega inženiringa, ki prikrivajo identitete.
Z umetno inteligenco lahko podjetja onemogočijo poskuse goljufije. Čeprav je Microsoft prekinil sodelovanje s podjetjem v Braziliji, so naši sistemi umetne inteligence zaznali, da je podjetje poskušalo znova vzpostaviti povezavo in vstopiti v naš ekosistem.
Skupina je nenehno poskušala prikriti svoje podatke in lastniške korene ter izvesti ponovni vstop, vendar so naša zaznavanja z UI na podlagi skoraj ducata signalov tveganja označila goljufivo podjetje z zastavico in ga povezala s predhodno prepoznanim sumljivim vedenjem ter tako preprečila njegove poskuse.
Microsoft se zavzema za odgovorno umetno inteligenco, ki jo upravlja človek in zagotavlja zasebnost ter varnost, kjer imajo ljudje glavno vlogo nadzornika, ocenjevalca pritožb ter tolmača pravilnikov in predpisov.
Microsoft zazna ogromne količine zlonamernega prometa – več kot 65 bilijonov signalov kibernetske varnosti na dan. Z umetno inteligenco lahko lažje analiziramo te informacije in zagotovimo najpomembnejše vpoglede za zaustavitev groženj. To inteligenco signalov uporabljamo tudi za izkoriščanje zmogljivosti generativne UI za namene zagotavljanja napredne zaščite pred grožnjami, varnosti podatkov in varnosti identitete, s čimer pomagamo strokovnjakom za varnost ujeti tisto, kar drugi spregledajo.
Microsoft uporablja več metod za lastno zaščito in zaščito strank pred kibernetskimi grožnjami, vključno z odkrivanjem groženj na podlagi umetne inteligence za zaznavanje sprememb v načinih uporabe virov ali prometa v omrežju; analizo vedenja za zaznavanje tveganih vpisov in neobičajnega vedenja; modeli strojnega učenja (ML) za zaznavanje tveganih vpisov in zlonamerne programske opreme; modeli Ničelnega zaupanja, kjer mora imeti vsaka zahteva za dostop v celoti preverjeno pristnost ter biti odobrena in šifrirana; ter preverjanjem ustreznosti stanja naprave, preden naprava lahko vzpostavi povezavo s poslovnim omrežjem.
Ker akterji groženj vedo, da Microsoft za svojo zaščito uporablja strogo večkratno preverjanje pristnosti (MFA) – za vse naše zaposlene je nastavljeno večkratno preverjanje pristnosti ali zaščita brez gesla – so se napadalci začeli posluževati socialnega inženiringa za namene ogrožanja naših zaposlenih.
Najpogostejše tarče so področja, ki vključujejo posredovanje pomembnih vsebin, kot so brezplačne preskusne različice ali promocijske cene storitev oziroma izdelkov. Na teh področjih kraja posameznih naročnin ni donosna za napadalce, zato poskušajo optimizirati in prilagoditi te napade, ne da bi jih odkrili.
Seveda za Microsoft in naše stranke gradimo modele umetne inteligence za zaznavanje teh napadov. Zaznavamo lažne študentske in šolske račune, lažna podjetja ali organizacije, ki so spremenili svoje firmografske podatke ali prikrili svojo pravo identiteto, da bi se izognili ukrepom, zaobšli nadzor ali pa prikrili pretekla kazniva dejanja, kot so obsodbe zaradi korupcije, poskusi kraje itd.
Z uporabo storitev GitHub Copilot, Microsoft Security Copilot in drugih funkcij klepeta v storitvi Copilot, ki so integrirane v našo notranjo inženirsko in operativno infrastrukturo, lahko preprečite dogodke, ki bi lahko vplivali na delovanje.
Microsoft je za namene obravnavanja e-poštnih groženj izboljšal zmogljivosti pridobivanja sestave in signalov e-poštnih sporočil za ugotavljanje njihove morebitne zlonamernosti. Ker je umetna inteligenca na voljo akterjem groženj smo lahko priča porastu e-poštnih sporočil, napisanih brez kakršnih koli očitnih jezikovnih in slovničnih napak, ki pogosto nakazujejo na poskuse lažnega predstavljanja, zaradi česar te še toliko težje odkrijemo.
V boju proti socialnemu inženiringu, ki je edini vzvod, ki 100-odstotno temelji na človeških napakah, je potrebno stalno izobraževanje zaposlenih in akcije za ozaveščanje javnosti. Zgodovina nas je naučila, da učinkovite akcije za ozaveščanje javnosti pripomorejo k spremembi vedenja.
Microsoft predvideva, da bo umetna inteligenca povzročila razvoj taktik socialnega inženiringa in še bolj dovršenih napadov, vključno s sintetičnimi vsebinami in kloniranjem glasu, zlasti če bodo napadalci pridobili dostop do tehnologij umetne inteligence, ki delujejo brez odgovornih praks in vgrajenih varnostnih kontrolnikov.
Preprečevanje je ključno v boju proti vsem kibernetskim grožnjam, ne glede na to, ali so te tradicionalne oziroma temeljijo na umetni inteligenci.
Več informacij o umetni inteligenci vam bo predstavila Homa Hayatafar, glavna vodja podatkov in uporabne znanosti, vodja analitike zaznavanja.
Tradicionalna orodja ne sledijo več grožnjam, ki jih predstavljajo kibernetski kriminalci. Vse večja hitrost, obseg in dovršenost nedavnih kibernetskih napadov zahtevajo nov pristop k varnosti. Zaradi manjka zaposlenih na področju kibernetske varnosti ter pogostejših in resnejših kibernetskih groženj je premostitev te vrzeli v strokovnem znanju nujna.
Korist UI se lahko prevesi na stran strokovnjakov za varnost. Nedavna študija rešitve Microsoft Security Copilot (trenutno v fazi testiranja predogledne različice za stranke) je pokazala večjo hitrost in natančnost varnostnih analitikov, ne glede na njihovo raven strokovnega znanja, pri izvajanju običajnih opravil, kot so prepoznavanje skript, ki jih uporabljajo napadalci, ustvarjanje poročil o dogodkih in določanje ustreznih korakov za popravljanje.1
Spremljajte Microsoftovo varnost