This is the Trace Id: 9a30188e7d674800a99ccb1827001f87
Przejdź do głównej zawartości

Przewodnik firmy Microsoft po zabezpieczaniu przedsiębiorstwa obsługiwanego przez sztuczną inteligencję: Wprowadzenie

Kobieta używająca ekranu dotykowego.

Wprowadzenie do aplikacji sztucznej inteligencji

Sztuczna inteligencja (AI) przekształca działania operacyjne firm, odblokowuje innowacje, a zarazem wprowadza nowe zagrożenia. Aby bezpiecznie korzystać ze sztucznej inteligencji, organizacje muszą sprostać szeregowi wyzwań, od niezatwierdzonych zasobów AI (narzędzi klasy konsumenckiej wdrożonych bez nadzoru) po ataki polegające na wstrzyknięciu poleceń — i pojawiające się przepisy, takie jak Rozporządzenie UE o Sztucznej Inteligencji.

W tym przewodniku omówiono czynniki ryzyka skojarzone ze sztuczną inteligencją: wyciek danych, pojawiające się zagrożenia oraz wyzwania związane z zapewnieniem zgodności z przepisami wraz z unikatowymi ryzykami agentycznej sztucznej inteligencji. Zawiera on także wskazówki i praktyczne kroki do podjęcia na podstawie struktury wdrażania sztucznej inteligencji. Aby uzyskać bardziej szczegółowe informacje i praktyczne kroki, pobierz przewodnik.

Sztuczna inteligencja to przełomowe rozwiązanie — ale tylko pod warunkiem, że możesz ją zabezpieczyć. Zaczynajmy.

Gdy organizacje wdrażają sztuczną inteligencję, liderzy muszą sprostać trzem najważniejszym wyzwaniom:
  • 80% liderów wskazuje wyciek danych jako największą obawę. 1 Narzędzia niezatwierdzonej sztucznej inteligencji — używane bez zatwierdzenia działu IT — mogą ujawnić poufne informacje, co zwiększa ryzyko naruszenia zabezpieczeń.
  • 88% organizacji obawia się, że osoby o złych intencjach będą manipulować systemami sztucznej inteligencji. 2 Ataki, takie jak wstrzyknięcia poleceń, wykorzystują luki w zabezpieczeniach systemów sztucznej inteligencji, co uwydatnia potrzebę proaktywnych środków obrony.
  • 52% liderów przyznaje się do niepewności w zakresie poruszania się po przepisach dotyczących sztucznej inteligencji. 3 Zapewnienie zgodności ze strukturami, takimi jak Rozporządzenie UE o Sztucznej Inteligencji, jest niezbędne do budowania zaufania i utrzymywania tempa wprowadzania innowacji.

Agentyczna sztuczna inteligencja ma potencjał w zakresie transformacji, ale jej autonomiczność stwarza unikatowe zagrożenia dla bezpieczeństwa wymagające proaktywnego zarządzania ryzykiem. Poniżej wymieniono najważniejsze czynniki ryzyka i strategie opracowane w celu ich minimalizowania:

Halucynacje i niezamierzone wyniki

Systemy agentycznej sztucznej inteligencji mogą wytwarzać niedokładne, przestarzałe lub niedopasowane dane wyjściowe, co prowadzi do zakłóceń operacyjnych lub podejmowania niewłaściwych decyzji.

Aby złagodzić te czynniki ryzyka, organizacje powinny zaimplementować rygorystyczne procesy monitorowania do przeglądania wyników wygenerowanych przez AI pod kątem dokładności i istotności. Regularne aktualizowanie danych szkoleniowych zapewnia dopasowanie do bieżących informacji, a ścieżki eskalacji w skomplikowanych przypadkach umożliwiają ludzką interwencję w razie potrzeby. Nadzorowanie przez człowieka pozostaje niezbędne do utrzymywania niezawodności i zaufania w działaniach operacyjnych opartych na sztucznej inteligencji.

Nadmierne poleganie na decyzjach sztucznej inteligencji

Bezgraniczne zaufanie do systemów agentycznej sztucznej inteligencji może doprowadzić do powstania luk w zabezpieczeniach, gdy użytkownicy będą podejmować działania na podstawie wadliwych danych wyjściowych bez sprawdzania ich poprawności.

Organizacje powinny ustanowić zasady wymagające weryfikacji ręcznej w przypadku decyzji o dużym znaczeniu, na które wpływa sztuczna inteligencja. Przeszkolenie pracowników z ograniczeń sztucznej inteligencji propaguje świadomy sceptycyzm, ograniczając prawdopodobieństwo wystąpienia błędów. Połączenie analiz sztucznej inteligencji z oceną przez człowieka w ramach warstwowego procesu podejmowania decyzji wzmacnia ogólną odporność i zapobiega nadmiernemu poleganiu na nich.

Nowe wektory ataku

Autonomia i możliwość dostosowywania agentycznej sztucznej inteligencji stwarza dla atakujących szanse na wykorzystanie luk w zabezpieczeniach, powodując powstawanie zarówno operacyjnych, jak i systemowych czynników ryzyka.

Ryzyka operacyjne obejmują manipulowanie systemami sztucznej inteligencji w celu wykonywania szkodliwych działań, takich jak nieautoryzowane zadania lub próby wyłudzania informacji. Organizacje mogą złagodzić te ryzyka, wdrażając niezawodne środki bezpieczeństwa, w tym wykrywanie anomalii w czasie rzeczywistym, szyfrowanie i rygorystyczne mechanizmy kontroli dostępu.
Ryzyka systemowe powstają, gdy agenci z naruszonymi zabezpieczeniami zakłócają działanie połączonych ze sobą systemów, powodując kaskadowe niepowodzenia. Mechanizmy zabezpieczające, protokoły nadmiarowości i regularne audyty — dopasowane do struktur cyberbezpieczeństwa, takich jak NIST — ułatwiają minimalizowanie tych zagrożeń i wzmacnianie obrony przed atakami.

Wiarygodność i odpowiedzialność

Agentyczna sztuczna inteligencja często działa bez bezpośredniego nadzoru człowieka, co wzbudza złożone wątpliwości dotyczące wiarygodności i odpowiedzialności za błędy lub niepowodzenia.

Organizacje powinny zdefiniować jasne schematy wiarygodności, w których są wyszczególnione role i odpowiedzialności za wyniki związane ze sztuczną inteligencją. Przejrzysta dokumentacja procesów podejmowania decyzji z użyciem sztucznej inteligencji ułatwia identyfikowanie błędów i przypisywanie odpowiedzialności. Współpraca z zespołami działów prawnych zapewnia zgodność z przepisami, natomiast wdrażanie standardów etycznych w zakresie ładu w sztucznej inteligencji buduje zaufanie i zmniejsza ryzyko dla reputacji.

Wraz z nowymi innowacjami sztucznej inteligencji, takimi jak agenci, organizacje muszą ustanowić solidne fundamenty oparte na zasadach Zero Trust — „nigdy nie ufaj, zawsze weryfikuj”. To podejście pomaga zapewnić, że każda interakcja jest uwierzytelniona, autoryzowana i stale monitorowana. Wprowadzenie modelu Zero Trust wymaga czasu, jednak wdrożenie strategii etapowej umożliwia systematyczne postępy i buduje zaufanie w bezpieczne integrowanie sztucznej inteligencji.

Struktura wdrażania sztucznej inteligencji firmy Microsoft skupia się na trzech kluczowych etapach: wprowadzanie ładu dotyczącego sztucznej inteligencji, zarządzanie sztuczną inteligencją i zabezpieczanie sztucznej inteligencji.

Podejmując działania w tych obszarach, organizacje mogą położyć fundamenty pod odpowiedzialne korzystanie ze sztucznej inteligencji, jednocześnie łagodząc krytyczne ryzyka.

Aby odnieść sukces, nadaj priorytet ludziom, szkoląc pracowników z rozpoznawania ryzyk związanych ze sztuczną inteligencją i bezpiecznego stosowania zatwierdzonych narzędzi. Sprzyjaj współpracy między zespołami IT, zabezpieczeń i biznesowymi, aby zapewnić ujednolicone podejście. Propaguj jawność, otwarcie informując o inicjatywach dotyczących zabezpieczeń sztucznej inteligencji, aby budować zaufanie i przejawiać przywództwo.

Dzięki odpowiedniej strategii opartej na zasadach Zero Trust możesz złagodzić ryzyko, odblokować innowacyjność i pewnie nawigować po stale zmieniającym się krajobrazie sztucznej inteligencji.

Więcej od działu bezpieczeństwa

Poruszanie się po świecie cyberzagrożeń i wzmacnianie ochrony w erze sztucznej inteligencji

Postępy w dziedzinie sztucznej inteligencji (AI) stwarzają nowe zagrożenia i otwierają nowe możliwości związane z cyberbezpieczeństwem. Dowiedz się, jak źródła zagrożeń wykorzystują sztuczną inteligencję do prowadzenia bardziej wyrafinowanych ataków. Następnie przejrzyj najlepsze rozwiązania pomagające chronić się przed cyberzagrożeniami — tradycyjnymi i wykorzystującymi sztuczną inteligencję.

Sztuczna inteligencja jako pomoc dla dyrektorów ds. bezpieczeństwa informacji: lepsza strategia dzięki szczegółowym wynikom analizy zagrożeń

Dyrektorów ds. bezpieczeństwa informacji, którzy postawią na generatywną AI w obszarze zapewniania bezpieczeństwa, czekają trzy główne korzyści: ulepszone szczegółowe informacje dotyczące analizy zagrożeń, szybsze reagowanie na zagrożenia oraz wspomaganie podejmowania strategicznych decyzji. Zobacz trzy przykładowe scenariusze i sprawdź, dlaczego 85% dyrektorów ds. bezpieczeństwa informacji uważa, że AI jest niezbędna do zapewnienia bezpieczeństwa.

Raport firmy Microsoft na temat ochrony zasobów cyfrowych za 2024 r.

Edycja Raportu firmy Microsoft na temat ochrony zasobów cyfrowych z 2024 roku zawiera omówienie zmieniających się zagrożeń ze strony państwowych grup hakerskich i cyberprzestępców, przedstawia nowe szczegółowe informacje i wskazówki w zakresie zwiększania odporności i wzmacniania ochrony, a także omawia kwestię rosnącego wpływu generatywnej AI na cyberbezpieczeństwo

Obserwuj rozwiązania zabezpieczające firmy Microsoft