This is the Trace Id: d65ed73045c742df5d0bbbfec1a939f2
跳到主要內容
Microsoft 安全性

什麼是 AI 安全性?

了解 AI 安全性的基本知識,以及如何保護 AI 系統防範潛在威脅和弱點。

AI 安全性的概觀


AI 安全性是針對 AI 系統的網路安全性分支。它是指保護 AI 系統免受威脅和弱點的一組流程、最佳做法和技術解決方案。 

關鍵重點

  • AI 安全性可保護 AI 資料、維護系統完整性,並確保 AI 服務的可用性。
  • AI 系統的常見威脅包括資料汙染、模型逆向攻擊和對抗性攻擊。
  • AI 安全性的最佳作法包括加密資料、強健測試、強存取控制和持續監視。
  • 新式 AI 安全性工具、解決方案和架構可協助保護 AI 系統防範不斷演變的威脅。 

什麼是 AI 安全性?

AI 以前所未有的步調為全世界帶來難以置信的創新。不幸的是,網路犯罪人士亦像世界其他地方一樣快速地採用 AI 技術,這帶來了新的安全性弱點、威脅及挑戰。

AI 安全性 (或人工智慧安全性) 是指專為保護 AI 系統免受這些威脅所設計之措施和做法。就像傳統的 IT 系統需要防範駭客、病毒和未經授權的存取一樣,AI 系統也需要自己的安全性措施,以確保它們能維持運作、可靠且受到保護。

AI 安全性很重要,原因如下:
 
  • 保護敏感性資料。AI 系統會處理大量的敏感性資料,包括財務、醫療、個人及財務資訊。 
  • 維護系統完整性。AI 系統中未察覺的弱點可能會導致模型遭到入侵,進而產生不正確或有害的結果。
  • 保護 AI 服務的可用性。就像任何其他服務一樣,AI 系統必須維持其可用性和運作,尤其是當更多人們和組織對它們變得依賴時。安全性漏洞通常會導致停機,並中斷基本服務。 
  • 問責性。若要在全球範圍採用 AI,人們和組織必須信任 AI 系統是安全且可靠的。

AI 安全性的重要概念

  • 機密性:確保只有獲得授權的個人或系統才能使用敏感性資料。 
  • 完整性:維護 AI 系統的正確性和一致性。
  • 供應情況:確保 AI 系統維持運作且易於存取。 

  • 問責性:追蹤 AI 系統所執行之動作的能力。
 

AI 安全性與適用於網路安全性的 AI

區分兩個相關但不同的概念至關重要:AI 安全性和適用於網路安全性的 AI適用於網路安全性的 AI。

AI 安全性著重於保護 AI 系統本身。AI 的安全性涵蓋了旨在保護 AI 模型、資料和演算法防範威脅的策略、工具和做法。這包括確保 AI 系統如預期方式執行,且攻擊者無法利用弱點來操縱輸出或竊取敏感性資訊。

另一方面,適用於網路安全性的 AI 是指使用 AI 工具和模型來改善組織偵測、回應及減少所有技術系統威脅的能力。它可協助組織分析大量的事件資料,並識別出顯示潛在威脅的模式。適用於網路安全性的 AI 可以跨多個來源分析和關聯事件和網路威脅資料。

總格來說,AI 安全性是保護 AI 系統,而適用於網路安全性的 AI 則是指使用 AI 系統來增強組織的整體安全性態勢。
對 AI 的威脅

常見的 AI 安全性威脅

隨著 AI 系統越來越廣泛地被公司和個人所採用,它們也日益成爲吸引網路攻擊的目標。

有幾個關鍵威脅會對 AI 系統的安全性造成風險: 

資料汙染

當攻擊者將惡意或誤導的資料插入 AI 系統的訓練集時,即會發生資料汙染。由於 AI 模型的好壞取決於其訓練資料,因此,這些資料的破壞可能會導致不正確或有害的輸出。 

模型逆向攻擊

在模型逆向攻擊中,攻擊者會使用 AI 模型的預測來逆向工程訓練模型的敏感性資訊。這可能會導致機密資料 (例如個人資訊) 的暴露,而這些資料並不應該被公開存取。這些攻擊會造成重大風險,尤其是在處理敏感性資訊的 AI 模型時。

對抗性攻擊

對抗性攻擊涉建立誘騙 AI 模型進行不正確預測或分類的欺騙性輸入。在這些攻擊中,看似無惡意的輸入 (例如變更的影像或音訊剪輯) 會導致 AI 模型發生無法預測的行為。在真實世界的範例中,研究人員示範對影像的細微變更如何欺騙臉部識別系統,導致其無法正確辨識人員。

隱私權考量 

AI 系統通常仰賴大型資料集,許多資料集包含個人或敏感性資訊。確保用於 AI 訓練的資料的個人隱私是 AI 安全性的重要層面。不當處理、儲存或以違反使用者同意的方式使用資料時,可能會發生隱私權外洩。

 倉促部署 

公司經常面臨快速創新的高度壓力,這可能會導致測試不足、倉促部署,以及安全審查不足。開發速度的加快有時會使得重大弱點遭到忽略,一旦 AI 系統開始運作,就會導致安全性風險。

供應鏈弱點 

AI 供應鏈是一個複雜的生態系統,存在可能會危害 AI 系統完整性和安全性的潛在弱點。第三方連結庫或模型的弱點有時會讓 AI 系統遭到暴露。 

AI 設定錯誤

在開發及部署 AI 應用程式時,設定錯誤可能會讓組織暴露在直接風險中 (例如無法為 AI 資源實作身分識別治理),以及間接風險 (例如網路上暴露的虛擬機器中的弱點),這可能會允許攻擊者取得 AI 資源的存取權。 

 提示注入 

 在提示注入攻擊中,駭客會將惡意輸入偽裝成合法的提示,造成 AI 系統的非預期動作。攻擊者會製作欺騙性提示,誘騙 AI 模型產生包含機密資訊的輸出。 

保護 AI 系統的一些最佳做法

確保 AI 系統的安全性需要全方位的方法來解決技術和營運方面的挑戰。以下是保護 AI 系統的一些最佳做法:

資料安全性

為了確保用來訓練 AI 模型的資料完整性和機密性,組織應該實作健全的 資料安全性 措施,包括: 

  • 加密敏感性資料以協助防止未經授權存取 AI 訓練資料集。
  • 驗證資料來源:確保用於訓練的資料來自受信任且可驗證的來源,這一點非常重要,以減少資料汙染的風險。
  • 定期消毒資料以移除任何惡意或不想要的元素,可協助降低 AI 安全性風險。

模型安全性

保護 AI 模型不受攻擊與保護資料一樣重要。確保模型安全性的重要技術包括:

  • 定期測試 AI 模型以識別對抗性攻擊的潛在弱點,這對於維護安全性非常重要。
  • 使用差異隱私權協助防止攻擊者從 AI 模型逆向工程敏感性資訊。
  • 實作對抗性訓練,這會以模擬攻擊的演算法來訓練 AI 模型,以協助它們更快速地識別真正的攻擊。 

存取控制

實施強 存取控制 機制,可確保只有獲得授權的人員可與 AI 系統互動或修改系統。組織應該: 

  • 使用角色型存取控制,根據使用者角色來限制 AI 系統的存取。
  • 實作多重要素驗證,以為存取 AI 模型和資料提供額外的安全性。
  • 監視並記錄所有存取嘗試,以確保快速偵測並減少未經授權的存取。

定期稽核和監視

持續監視和稽核 AI 系統對於偵測和回應潛在的安全性威脅至關重要。組織應該: 

  • 定期稽核 AI 系統,以識別系統效能中的弱點或異常。 
  • 使用自動化監視工具來即時偵測異常行為或存取模式。 
  • 定期更新 AI 模型,以修補弱點並改善對新興威脅的復原能力。 

使用正確的工具增強 AI 安全性

有幾個工具和技術可協助增強 AI 系統的安全性。其中包括安全性架構、加密技術和專門的 AI 安全性工具。

安全性架構

NIST AI 風險管理架構等架構可為組織提供指導方針,以管理和降低與 AI 相關聯的風險。這些架構提供保護 AI 系統、識別潛在風險,以及確保 AI 模型可靠性的最佳作法。

加密技術 

使用加密技術可協助保護資料和 AI 模型。組織可以加密敏感性資料以降低資料外洩的風險,並確保即使攻擊者取得資料的存取權,仍然無法使用資料。

AI 安全性工具

已開發各種工具和平台來保護 AI 應用程式的安全。這些工具可協助組織偵測弱點、監視 AI 系統的潛在攻擊,並強制執行安全性通訊協定。 

AI 安全性解決方案

隨著 AI 安全性挑戰持續演進,組織必須持續主動調整其安全性策略,以適應不斷演變的威脅環境,以確保 AI 系統的安全性和可靠性。重要策略包括採用全方位安全性架構、投資加密技術和存取控制,以及掌握新興威脅和新解決方案的資訊。

新式 AI 安全性解決方案 可保護並管理 AI,大幅增強組織對於這些新威脅的保護。透過整合這些功能強大的 AI 安全性解決方案,組織可以更充分地保護其敏感性資料、維護法規合規性,以及協助確保 AI 環境的復原能力,以防範未來的威脅。

常見問題集

  • AI 安全性可協助抵禦的一些主要安全性風險包括資料外洩、模型操控、攻擊者攻擊,以及濫用 AI 進行網路釣魚等惡意目的。
  • 保護 AI 涉及使用加密、定期測試、監視和人為監督來保護 AI 資料、模型和系統不受網路攻擊。
  • AI 安全性著重於保護 AI 系統本身。它涵蓋了旨在保護 AI 模型、資料和演算法防範威脅的策略、工具和做法。適用於網路安全性的 AI 是指使用 AI 工具和模型來改善組織偵測、回應及減少所有技術系統威脅的能力。

關注 Microsoft 安全性