This is the Trace Id: 4ca0e2b6f3647c8c119154eca8acc387
Преминаване към основното съдържание
Security Insider

Ръководство на Microsoft за защита на предприятие с подкрепа на ИИ: Първи стъпки

Жена използва сензорен екран.

Първи стъпки с приложения с ИИ

Изкуственият интелект (ИИ) трансформира бизнес операциите, отключвайки иновации, докато въвежда нови рискове. От „сенчест“ ИИ (инструменти на потребителско ниво, прилагани без надзор) до атаките с инжектиране на подкани и развиващите се регулации като законодателния акт на ЕС за AI – организациите трябва да се справят с тези предизвикателства, за да използват ИИ защитено.

Това ръководство обхваща рисковете, свързани с ИИ: изтичане на данни, нововъзникващи заплахи и предизвикателства за съответствие, заедно с уникалните рискове на агентния ИИ. То също така предоставя насоки и практически стъпки за предприемане на действия на базата на Рамката за приемане на ИИ. За по-дълбоки прозрения и действия изтеглете ръководството.

ИИ променя играта – но само ако можете да го защитите. Да започваме.

Докато организациите приемат ИИ, ръководителите трябва да се справят с три основни предизвикателства:
  • 80% от лидерите посочват изтичането на данни като основна причина за притеснения. 1 „Сенчести“ инструменти с ИИ – използвани без одобрение от „Информационни технологии“ – могат да изложат чувствителна информация, увеличавайки рисковете от дупка в сигурността.
  • 88% от организациите се притесняват за злонамерени извършители, представляващи заплаха, които манипулират системи с ИИ. 2 Атаките като инжектиране на подкани експлоатират уязвимости в системите с ИИ, подчертавайки необходимостта от проактивна защита.
  • 52% от лидерите признават несигурност относно навигирането в регулациите за ИИ. 3 Поддържането на съответствие с рамки като законодателния акт на ЕС за ИИ е от съществено значение за изграждане на доверие и поддържане на темпото за въвеждане на иновации.

Агентният ИИ предлага трансформационен потенциал, но неговата автономия въвежда уникални предизвикателства за защитата, които изискват проактивно управление на рисковете. По-долу са ключовите рискове и стратегии, съобразени с тях:

Халюцинации и непреднамерени резултати

Агентните ИИ системи могат да произвеждат неточни, остарели или несъответстващи резултати, което води до оперативни смущения или лошо вземане на решения.

За да се намалят тези рискове, организациите трябва да внедрят строги процеси за мониторинг, за да преглеждат резултатите, генерирани от ИИ, за точност и съответствие. Редовното обновяване на данните за обучение осигурява съответствие с актуалната информация, докато пътищата за ескалация за сложни случаи активират човешка намеса, когато е необходимо. Човешкият надзор остава съществен за поддържане на надеждност и доверие в операциите, управлявани от ИИ.

Прекомерна зависимост от решения с ИИ

Сляпото доверие в агентните системи с ИИ може да доведе до уязвимости, когато потребителите действат на базата на неправилни резултати, без да ги проверяват.

Организациите трябва да установят правила, изискващи човешки преглед за важни решения, повлияни от ИИ. Обучението на служителите относно ограниченията на ИИ насърчава информирания скептицизъм, намалявайки вероятността от грешки. Комбинирането на прозренията за ИИ с човешко съдействие чрез многослойни процеси на вземане на решения укрепва общата устойчивост и предотвратява прекомерната зависимост.

Нови вектори на атака

Автономията и адаптивността на агентния ЕЕ създават възможности извършителите на кибератаки да експлоатират уязвимости, въвеждайки както оперативни, така и системни рискове.

Оперативните рискове включват манипулиране на системи с ИИ да извършват вредни действия, например неразрешени задачи или опити за фишинг. Организациите могат да смекчат тези рискове, като внедрят надеждни мерки за защита, включително откриване на аномалии в реално време, шифроване и строги контроли на достъпа.
Системни рискове възникват, когато компрометирани агенти нарушават взаимосвързани системи, причинявайки каскадни откази. Безотказни механизми, протоколи за резервиране, както и редовни одити, съобразени с рамки за киберсигурност като NIST, помагат за минимизиране на тези заплахи и укрепване на защитите срещу атаки от противници.

Отговорност и задължения

Агентният ИИ често работи без директен човешки надзор, което повдига сложни въпроси относно отговорността и задълженията в случай на грешки или откази.

Организациите трябва да определят ясни рамки за отговорност, които да специфицират роли и отговорности за резултатите, свързани с ИИ. Прозрачната документация на процесите на вземане на решения с ИИ подпомага идентифицирането на грешки и възлагането на отговорността. Сътрудничеството с правните екипи осигурява съответствие с регулациите, докато приемането на етични стандарти за управление на ИИ изгражда доверие и намалява рисковете за репутацията.

С новите иновации в ИИ, например агентите, организациите трябва да установят солидна основа, основана на принципите на Zero Trust – „никога не се доверявайте, винаги проверявайте“. Този подход помага да се осигури, че всяко взаимодействие е удостоверено, упълномощено и непрекъснато наблюдавано. Докато постигането на Zero Trust отнема време, приемането на поетапна стратегия дава възможност за стабилен напредък и изгражда увереност в защитената интеграция на ИИ.

Рамката за приемане на ИИ на Microsoft се фокусира върху три основни фази: Регулиране на ИИ, управление на ИИ и защитаване на ИИ.

Като насочат вниманието си към тези области, организациите могат да положат основите за отговорна употреба на ИИ, докато смекчават критичните рискове.

За да успеете, насочете се приоритетно към хората, като обучите служителите да разпознават рисковете от ИИ и да използват одобрени инструменти защитено. Насърчавайте сътрудничеството между екипите за информационни технологии, защитата и бизнеса, за да осигурите единен подход. Насърчавайте прозрачността, като открито комуникирате вашите инициативи за защита на ИИ, за да изградите доверие и да демонстрирате лидерство.

С правилната стратегия, основана на принципите на Zero Trust, можете да смекчите рисковете, да отключите иновации и уверено да навигирате в развиващия се пейзаж на ИИ.

Повече от „Защита“

Навигиране в киберзаплахите и укрепване на защитите в ерата на ИИ

Напредъкът в областта на изкуствения интелект (ИИ) предоставя както нови заплахи, така и възможности за киберсигурността. Открийте как извършителите, представляващи заплаха, използват ИИ, за да извършват по-сложни атаки, след което прегледайте най-добрите практики, които помагат за защита срещу традиционни киберзаплахи и киберзаплахи, активирани с помощта на ИИ.

CISO с подкрепа на ИИ: Активиране на по-добра стратегия с помощта на прозрения за разузнаване за заплахи

CISO, които възприемат генеративния ИИ за защита, очакват три ключови ползи: подобрени прозрения за разузнаване на заплахите, ускорени отговори на заплахите и подпомагане на вземането на стратегически решения. Запознайте се с три примерни сценария и разберете защо 85% от CISO смятат, че ИИ е от решаващо значение за защитата.

Отчет за дигитална защита на Microsoft за 2024 г.

Изданието на отчета за дигитална защита на Microsoft за 2024 г. разглежда развиващите се киберзаплахи от групи за заплахи, насочвани от държава, както и от киберпрестъпници, предоставя нови прозрения и указания за подобряване на издръжливостта и укрепване на защитите, и изследва нарастващото въздействие на генеративния ИИ върху киберсигурността

Следвайте Microsoft Security