This is the Trace Id: a8d37a4fe20421658665a2a5b63745d1
تخطي إلى المحتوى الرئيسي
Security Insider

دليل Microsoft لتأمين المؤسسات التي تعمل بالذكاء الاصطناعي: بدء الاستخدام

صورة لامرأة تستخدم شاشة لمس.

بدء استخدام تطبيقات الذكاء الاصطناعي

يعمل الذكاء الاصطناعي على تحويل العمليات التجارية وإطلاق العنان للابتكار مع تقديم مخاطر جديدة. من الذكاء الاصطناعي الظلي (أدوات مخصصة للمستهلك يتم اعتمادها دون إشراف) إلى هجمات إدخال المطالبات - واللوائح المتطورة مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي- يجب على المنظمات معالجة هذه التحديات لاستخدام الذكاء الاصطناعي بشكل آمن.

يغطي هذا الدليل المخاطر المرتبطة بالذكاء الاصطناعي: تسرب البيانات، والتهديدات الناشئة، وتحديات التوافق بالإضافة إلى المخاطر الفريدة للذكاء الاصطناعي العامل. كما يقدم إرشادات وخطوات عملية يجب اتخاذها بناءً على إطار عمل استخدام الذكاء الاصطناعي. للحصول على نتائج تحليلات أعمق وخطوات عملية عليك تنزيل الدليل.

الذكاء الاصطناعي هو عامل تغيير كبير، ولكن فقط إذا تمكنت من تأمينه. لنبدأ.

مع تبني المنظمات للذكاء الاصطناعي، يتعين على القادة معالجة ثلاثة تحديات رئيسية:
  • 80% من القادة يعتبرون تسرب البيانات أحد أهم المخاوف. 1 يمكن لأدوات الذكاء الاصطناعي الظلية - المستخدمة دون موافقة تكنولوجيا المعلومات - الكشف عن معلومات حساسة، ما يؤدي إلى زيادة مخاطر الاختراق.
  • 88% من المؤسسات تشعر بالقلق بشأن تلاعب الجهات السيئة بأنظمة الذكاء الاصطناعي. 2 تستغل الهجمات مثل إدخال المطالبات نقاط الضعف في أنظمة الذكاء الاصطناعي، ما يسلط الضوء على الحاجة إلى دفاعات استباقية.
  • 52% من القادة يعترفون بعدم اليقين بشأن التعامل مع لوائح الذكاء الاصطناعي. 3 إن الالتزام بأطر عمل مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي أمر ضروري لتعزيز الثقة والحفاظ على زخم الابتكار.

يقدم الذكاء الاصطناعي العامل إمكانات تحويلية، إلا أن استقلاليته تفرض تحديات أمنية فريدة تتطلب إدارة مخاطر استباقية. وفيما يلي المخاطر الرئيسية والاستراتيجيات المصممة لمعالجتها:

الهلوسة والمخرجات غير المقصودة

يمكن أن تنتج أنظمة الذكاء الاصطناعي العاملة مخرجات غير دقيقة أو قديمة أو غير متوافقة، ما يؤدي إلى حدوث اضطرابات تشغيلية أو اتخاذ قرارات سيئة.

ولتخفيف هذه المخاطر، ينبغي على المؤسسات تنفيذ عمليات مراقبة صارمة لمراجعة المخرجات التي تولدها الذكاء الاصطناعي للتأكد من دقتها وملاءمتها. يضمن تحديث بيانات التدريب بانتظام التوافق مع المعلومات الحالية، في حين تتيح مسارات التصعيد للحالات المعقدة التدخل البشري عند الحاجة. تظل الرقابة البشرية ضرورية للحفاظ على الموثوقية والثقة في العمليات التي تعتمد على الذكاء الاصطناعي.

الاعتماد المفرط على قرارات الذكاء الاصطناعي

يمكن أن تؤدي الثقة العمياء في أنظمة الذكاء الاصطناعي العامل إلى نقاط ضعف عندما يتصرف المستخدمون بناءً على مخرجات معيبة دون التحقق من صحتها.

ينبغي على المؤسسات وضع نُهج تتطلب المراجعة البشرية للقرارات ذات المخاطر العالية المتأثرة بالذكاء الاصطناعي. يؤدي تدريب الموظفين على حدود الذكاء الاصطناعي إلى تعزيز الشك المستنير، ما يقلل من احتمالية حدوث الأخطاء. إن الجمع بين نتائج تحليلات الذكاء الاصطناعي والحكم البشري من خلال عمليات صنع القرار المتعددة الطبقات يعزز المرونة الشاملة ويمنع الاعتماد المفرط.

ناقلات هجوم جديدة

إن استقلالية الذكاء الاصطناعي العامل وقدرته على التكيف تصنع فرصاً للمهاجمين لاستغلال نقاط الضعف، ما يؤدي إلى إدخال مخاطر تشغيلية ونظامية.

تتضمن المخاطر التشغيلية التلاعب بأنظمة الذكاء الاصطناعي لأداء أعمال ضارة، مثل المهام غير المصرح بها أو محاولات التصيد الاحتيالي. يمكن للمؤسسات التخفيف من هذه المخاطر من خلال تنفيذ تدابير أمنية قوية، بما في ذلك اكتشاف الحالات غير المألوفة في الوقت الفعلي، والتشفير، وضوابط الوصول الصارمة.

تنشأ المخاطر النظامية عندما تتسبب العوامل المخترقة في تعطيل الأنظمة المترابطة، ما يتسبب في حدوث أعطال متتالية. وتساعد آليات الأمان، وبروتوكولات التكرار، وعمليات التدقيق المنتظمة - المتوافقة مع أطر الأمان عبر الإنترنت مثل المعهد الوطني للمعايير والتكنولوجيا- في تقليل هذه المخاطر وتعزيز الدفاعات ضد الهجمات المعادية.

المساءلة والمسؤولية

غالباً ما يعمل الذكاء الاصطناعي العامل دون إشراف بشري مباشر، ما يثير أسئلة معقدة عن المساءلة والمسؤولية عن الأخطاء أو الإخفاقات.

ينبغي على المؤسسات تحديد أطر واضحة للمساءلة تحدد الأدوار والمسؤوليات المتعلقة بالنتائج المتعلقة بالذكاء الاصطناعي. إن التوثيق الشفاف لعمليات صنع القرار في مجال الذكاء الاصطناعي يدعم تحديد الأخطاء وتحديد المسؤولية. ويضمن التعاون مع الفرق القانونية الامتثال للوائح، في حين أن استخدام المعايير الأخلاقية لإدارة الذكاء الاصطناعي يبني الثقة ويقلل من المخاطر المتعلقة بالسمعة.

مع ابتكارات الذكاء الاصطناعي الجديدة مثل العوامل، يجب على المؤسسات إنشاء أساس قوي يعتمد على مبادئ الثقة المعدومة - "لا تثق أبداً، تحقق دائماً". يساعد هذا النهج على ضمان مصادقة كل تفاعل وتفويضه ومراقبته بشكل مستمر. رغم أن تحقيق الثقة المعدومة يستغرق وقتاً، فإن اعتماد استراتيجية تدريجية يسمح بالتقدم الثابت ويبني الثقة في دمج الذكاء الاصطناعي بشكل آمن.

يركز إطار عمل استخدام الذكاء الاصطناعي الخاص بشركة Microsoft على ثلاث مراحل رئيسية: يمكنك التحكم بالذكاء الاصطناعي وإدارته والتحكم فيه.

ومن خلال معالجة هذه المجالات، تستطيع المؤسسات إرساء الأساس لاستخدام الذكاء الاصطناعي المسؤول مع التخفيف من المخاطر الحرجة.

لتحقيق النجاح، يجب إعطاء الأولوية للأشخاص من خلال تدريب الموظفين على التعرف على مخاطر الذكاء الاصطناعي واستخدام الأدوات المدعومة بشكل آمن. يمكن تعزيز التعاون بين فرق تكنولوجيا المعلومات والأمان والأعمال لضمان اتباع نهج موحد. يمكن تعزيز الشفافية من خلال التواصل بشكل مفتوح بشأن مبادراتك الأمنية المتعلقة بالذكاء الاصطناعي لبناء الثقة وإظهار القيادة.

باستخدام الاستراتيجية الصحيحة، المبنية على مبادئ الثقة المعدومة، يمكنك التخفيف من المخاطر، وإطلاق العنان للابتكار، والتنقل بثقة في مشهد الذكاء الاصطناعي المتطور.

مزيد من الأمان

التعامل بفعالية مع المخاطر على الشبكات وتقوية الدفاعات في عصر الذكاء الاصطناعي

يمثل التقدم في الذكاء الاصطناعي (AI) تهديدات وفرصاً جديدة للأمان عبر الإنترنت. اكتشف كيف تستخدم الجهات الفاعلة في مجال التهديد الذكاء الاصطناعي لتنفيذ هجمات أكثر تعقيداً، ثم قم بمراجعة أفضل الممارسات التي تساعد في الحماية من التهديدات الإلكترونية التقليدية والمدعومة بالذكاء الاصطناعي.

رئيس أمان المعلومات المدعم بالذكاء الاصطناعي: تمكين استراتيجية أفضل مع نتائج تحليلات التحليل الذكي للمخاطر

هناك ثلاث فوائد رئيسية تنتظر رؤساء أمان المعلومات الذين يعتمدون استخدام الذكاء الاصطناعي التوليدي للأمان: نتائج تحليلات للمخاطر محسنة واستجابات للمخاطر مسرّعة وعملية اتخاذ قرارات استراتيجية مدعمة. تعلّم من ثلاثة سيناريوهات نموذجية، واكتشف لماذا يعتبر 85% من رؤساء أمان المعلومات الذكاء الاصطناعي عامل حرج للأمان.

تقرير الدفاع الرقمي من Microsoft لعام 2024

يفحص إصدار 2024 من تقرير الدفاع الرقمي من Microsoft المخاطر على الشبكات المتطورة من الممثلين المجرمين الإلكترونيين ومجموعات المخاطر للجهات الفاعلة الحكومية ويوفر نتائج تحليلات جديدة وإرشادات لتحسين المرونة وتقوية الدفاعات ويستكشف التأثير المتزايد للذكاء الاصطناعي التوليدي على الأمان عبر الإنترنت

متابعة الأمان من Microsoft