This is the Trace Id: 0ba7f3b7e49814bb591b6e703a5116d4

Panduan Microsoft untuk Mengamankan Perusahaan yang Didukung AI: Mulai

Seorang perempuan menggunakan layar sentuh.

Mulai gunakan aplikasi AI

Kecerdasan buatan (AI) mentransformasi operasi bisnis, menghadirkan inovasi sekaligus mendatangkan risiko baru. Mulai dari AI bayangan (alat konsumen yang diadopsi tanpa pengawasan) hingga serangan injeksi prompt—dan regulasi yang terus berkembang seperti Undang-Undang Kecerdasan Buatan (AI) Uni Eropa—organisasi harus mengatasi tantangan tersebut untuk dapat menggunakan AI dengan aman.

Panduan ini membahas risiko terkait AI: kebocoran data, ancaman yang timbul, dan tantangan kepatuhan serta risiko unik pada AI agentik. Panduan ini juga memberikan arahan serta langkah-langkah praktis yang harus diambil berdasarkan Kerangka Kerja Adopsi AI. Untuk wawasan yang lebih mendalam serta langkah-langkah yang dapat diambil, unduh panduan.

AI memberikan pengaruh positif besar—tetapi hanya jika Anda bisa mengamankannya. Mari kita mulai.

Saat organisasi mengadopsi AI, para pemimpin harus mengatasi tiga tantangan utama:
  • 80% pemimpin menyebutkan kebocoran data sebagai kekhawatiran terbesar. 1 Alat AI bayangan—yang digunakan tanpa persetujuan TI—dapat mengekspos informasi sensitif, sehingga meningkatkan risiko pelanggaran.
  • 88% organisasi mengkhawatirkan pelaku kejahatan yang memanipulasi sistem AI. 2 Serangan seperti injeksi prompt akan mengeksploitasi kerentanan di dalam sistem AI, hal ini menegaskan perlunya pertahanan yang proaktif.
  • 52% pemimpin mengakui adanya ketidakpastian dalam menavigasi regulasi AI. 3 Terus mematuhi kerangka kerja seperti Undang-Undang Kecerdasan Buatan (AI) Uni Eropa merupakan hal yang sangat penting untuk memupuk kepercayaan dan mempertahankan momentum inovasi.

AI agentik menawarkan potensi transformatif, tetapi otonomi AI memberikan tantangan keamanan yang unik dan memerlukan manajemen risiko yang proaktif. Berikut adalah risiko utama dan strategi yang dirancang khusus untuk mengatasinya:

Halusinasi dan hasil keluaran yang tidak diinginkan

Sistem AI agentik dapat menghasilkan keluaran yang tidak akurat, usang, atau tidak selaras, sehingga menyebabkan gangguan operasional atau pengambilan keputusan yang buruk.

Untuk memitigasi risiko ini, organisasi sebaiknya menerapkan proses pemantauan yang ketat untuk meninjau keluaran yang dihasilkan oleh AI dalam rangka memperoleh akurasi dan relevansi. Memperbarui data pelatihan secara teratur akan memastikan keselarasan data dengan informasi terkini, sementara jalur eskalasi untuk kasus kompleks memberikan ruang bagi intervensi manusia saat diperlukan. Pengawasan manusia tetap menjadi hal yang sangat penting untuk menjaga keandalan dan kepercayaan dalam operasi berbasis AI.

Ketergantungan yang berlebihan pada keputusan AI

Kepercayaan tanpa alasan pada sistem AI agentik dapat menimbulkan kerentanan saat pengguna bertindak berdasarkan hasil yang cacat tanpa validasi.

Organisasi sebaiknya menetapkan kebijakan yang mewajibkan peninjauan oleh manusia untuk keputusan penting yang dipengaruhi AI. Melatih karyawan tentang keterbatasan AI akan menumbuhkan skeptisisme yang berwawasan, sehingga mengurangi kemungkinan terjadinya kesalahan. Mengombinasikan wawasan AI dan penilaian manusia dalam proses pengambilan keputusan berlapis akan memperkuat ketahanan secara keseluruhan serta mencegah ketergantungan berlebih.

Vektor serangan baru

Otonomi dan adaptabilitas AI agentik menciptakan peluang bagi penyerang untuk mengeksploitasi kerentanan, mendatangkan risiko operasional dan sistemik.

Risiko operasional termasuk manipulasi sistem AI untuk melakukan tindakan berbahaya, seperti tugas yang tidak sah atau upaya pengelabuan. Organisasi dapat memitigasi risiko ini dengan menerapkan langkah keamanan yang tangguh, termasuk deteksi anomali real time, enkripsi, dan kontrol akses yang ketat.
Risiko sistemik muncul ketika agen yang disusupi mendisrupsi sistem yang saling terhubung dan menyebabkan kegagalan berantai. Mekanisme konsep gagal-aman, protokol redundansi, dan audit rutin—yang selaras dengan kerangka kerja keamanan cyber seperti NIST—akan membantu meminimalkan ancaman tersebut serta mendukung pertahanan saat menghadapi serangan dari pihak lawan.

Akuntabilitas dan tanggung jawab

AI agentik sering kali beroperasi tanpa pengawasan langsung oleh manusia, menimbulkan pertanyaan rumit tentang akuntabilitas dan tanggung jawab atas kesalahan atau kegagalan.

Organisasi harus mendefinisikan kerangka akuntabilitas yang jelas, yang secara spesifik mendefinisikan peran dan tanggung jawab untuk hasil-hasil terkait AI. Dokumentasi yang transparan mengenai proses pengambilan keputusan oleh AI akan mendukung identifikasi kesalahan dan penetapan tanggung jawab. Kolaborasi dengan tim hukum memastikan kepatuhan terhadap regulasi, sementara adopsi standar etika untuk tata kelola AI akan membangun kepercayaan dan mengurangi risiko terkait reputasi.

Dengan inovasi AI baru seperti agen, organisasi harus membangun fondasi yang kuat berdasarkan prinsip Zero Trust— "jangan pernah percaya, selalu lakukan verifikasi.” Pendekatan ini membantu memastikan bahwa setiap interaksi telah terautentikasi, terotorisasi, dan terus dipantau. Meskipun mencapai Zero Trust memerlukan waktu, mengadopsi strategi bertahap menciptakan kemajuan yang stabil dan membangun keyakinan dalam mengintegrasi AI secara aman.

Kerangka kerja adopsi AI Microsoft berfokus pada tiga tahap utama: Atur AI, Kelola AI, dan Amankan AI.

Dengan menangani area ini, organisasi dapat meletakkan dasar untuk penggunaan AI yang bertanggung jawab sekaligus memitigasi risiko penting.

Agar berhasil melakukannya, prioritaskan orang-orang dengan melatih karyawan untuk mengenali risiko AI dan menggunakan alat yang disetujui dengan aman. Tumbuhkan kolaborasi antara tim TI, keamanan, dan bisnis untuk memastikan pendekatan yang terpadu. Promosikan transparansi dengan mengomunikasikan inisiatif keamanan AI Anda secara terbuka untuk membangun kepercayaan dan menunjukkan kepemimpinan.

Dengan strategi yang tepat berlandaskan prinsip Zero Trust, Anda dapat memitigasi risiko, meraih inovasi, serta menavigasi lanskap AI yang terus berkembang dengan percaya diri.

Berita lainnya dari Keamanan

Menavigasi ancaman cyber dan memperkuat pertahanan di era AI

Kemajuan dalam kecerdasan buatan (AI) menghadirkan ancaman—dan peluang—baru bagi keamanan cyber. Temukan bagaimana pelaku ancaman menggunakan AI untuk melakukan serangan yang lebih canggih, lalu tinjau praktik terbaik yang membantu melindungi dari ancaman cyber tradisional dan ancaman cyber yang didukung AI.

CISO yang didukung AI: Menghadirkan strategi yang lebih baik dengan wawasan inteligensi ancaman

Tiga manfaat utama menanti CISO yang mengadopsi AI generatif untuk keamanan: wawasan tertingkatkan tentang inteligensi ancaman, respons ancaman yang dipercepat, dan pengambilan keputusan strategis dengan bantuan. Pelajari dari tiga contoh skenario dan temukan alasan mengapa 85% CISO menganggap AI sebagai hal yang penting untuk keamanan.

Laporan Pertahanan Digital Microsoft 2024

Laporan Pertahanan Digital Microsoft edisi tahun 2024 mengkaji perkembangan ancaman cyber dari kelompok ancaman negara-bangsa dan pelaku kejahatan cyber, memberikan wawasan sekaligus panduan baru untuk meningkatkan ketahanan dan memperkuat pertahanan, serta mengeksplorasi semakin besarnya dampak AI generatif terhadap keamanan cyber

Ikuti Microsoft Security