Microsoft telah menambahkan Security Copilot, chatbot bahasa alami yang dapat menulis dan menganalisis kode, ke dalam suite produknya yang didukung oleh model AI generatif GPT-4 dari OpenAI. Security Copilot, yang diumumkan pada hari Rabu, kini tersedia dalam versi pratinjau untuk pelanggan tertentu. Microsoft akan merilis informasi lebih lanjut melalui pembaruan email tentang kapan Security Copilot mungkin menjadi tersedia secara umum.
Security Copilot adalah kumpulan data kecerdasan buatan bahasa alami yang akan muncul sebagai bilah prompt. Alat keamanan ini dapat:
- Menjawab pertanyaan percakapan seperti “Apa saja insiden di perusahaan saya?”
- Menulis ringkasan.
- Memberikan informasi tentang URL atau potongan kode.
- Menunjukkan sumber dari mana AI mengambil informasinya.
AI ini dibangun di atas model bahasa besar OpenAI, ditambah model keamanan khusus dari Microsoft. Model propietary tersebut mengambil dari intelijen ancaman global yang sudah mapan dan sedang berlangsung. Perusahaan yang sudah familiar dengan infrastruktur Azure Hyperscale akan menemukan fitur keamanan dan privasi yang sama terpasang pada Security Copilot.
Microsoft memposisikan Security Copilot sebagai cara bagi departemen TI untuk menangani kekurangan staf dan kesenjangan keterampilan. Bidang keamanan siber “sangat membutuhkan lebih banyak profesional,” kata International Information System Security Certification Consortium (ISC)². Kesenjangan global antara pekerjaan dan pekerja keamanan siber adalah 3,4 juta, menurut Studi Ketenagakerjaan 2022 konsorsium tersebut.
Karena kesenjangan keterampilan, organisasi mungkin mencari cara untuk membantu karyawan yang lebih baru atau kurang terbiasa dengan tugas-tugas tertentu. Security Copilot mengotomatisasi beberapa tugas tersebut sehingga personel keamanan dapat mengetik prompt seperti “cari keberadaan kompromi” untuk membuat pencarian ancaman lebih mudah. Pengguna dapat menyimpan prompt dan berbagi buku prompt dengan anggota tim lain; buku prompt ini mencatat apa yang mereka tanyakan pada AI dan bagaimana AI menjawab.
Security Copilot dapat merangkum sebuah acara, insiden, atau ancaman dan membuat laporan yang dapat dibagikan. Ini juga dapat melakukan reverse-engineer pada skrip jahat, menjelaskan apa yang dilakukan skrip tersebut.
Copilot terintegrasi dengan beberapa penawaran keamanan Microsoft yang sudah ada. Microsoft Sentinel (alat manajemen informasi dan keamanan), Defender (deteksi dan respons yang diperpanjang), dan Intune (manajemen ujung dan mitigasi ancaman) semuanya dapat berkomunikasi dengan dan memberi informasi ke Security Copilot.
Microsoft menjamin pengguna bahwa data dan prompt yang diberikan aman di dalam setiap organisasi. Perusahaan teknologi ini juga membuat jejak audit transparan di dalam AI sehingga pengembang dapat melihat pertanyaan apa yang diajukan dan bagaimana Copilot menjawabnya. Data Security Copilot tidak pernah dikembalikan ke danau data besar Microsoft untuk melatih model AI lain, mengurangi kemungkinan informasi rahasia dari satu perusahaan menjadi jawaban untuk pertanyaan di perusahaan lain.
Meskipun AI bahasa alami dapat mengisi celah untuk personel yang terlalu sibuk atau kurang terlatih, manajer dan kepala departemen harus memiliki kerangka kerja untuk menjaga mata manusia pada pekerjaan sebelum kode dijalankan – AI masih dapat mengembalikan hasil yang salah atau menyesatkan, setelah semua. (Microsoft memiliki opsi untuk melaporkan ketika Security Copilot membuat kesalahan.)
Beberapa perusahaan lain yang fokus pada keamanan telah mencoba menambahkan produk talkative OpenAI. ARMO, yang membuat platform keamanan Kubescape untuk Kubernetes, menambahkan ChatGPT ke fitur kontrol kustomnya pada bulan Februari. Orca Security menambahkan GPT-3 OpenAI, pada saat itu model terbaru, ke platform keamanan awan mereka pada Januari untuk membuat instruksi kepada pelanggan tentang cara memperbaiki masalah. Skyhawk Security juga menambahkan model AI yang sedang tren ke produk deteksi dan respons ancaman awan mereka.
Namun, keamanan siber yang dijalankan oleh AI masih menjadi perdebatan. Soo Choi-Andrews, co-founder dan chief executive officer dari perusahaan keamanan Mondoo, menyoroti beberapa kekhawatiran yang harus dipertimbangkan oleh pengambil keputusan keamanan siber sebelum menugaskan tim mereka untuk menggunakan AI.
“Tim keamanan harus mendekati alat AI dengan ketat seperti yang mereka lakukan saat mengevaluasi produk baru lainnya,” kata Choi-Andrews dalam wawancara melalui email. “Penting untuk memahami keterbatasan AI, karena sebagian besar alat masih didasarkan pada algoritma probabilitas yang mungkin tidak selalu menghasilkan hasil yang akurat… Ketika mempertimbangkan implementasi AI, CISO harus bertanya pada diri sendiri apakah teknologi tersebut membantu bisnis membuka pendapatan lebih cepat sambil juga melindungi aset dan memenuhi kewajiban kepatuhan.”
“Adapun seberapa banyak AI yang harus digunakan, lanskapnya berkembang dengan cepat, dan tidak ada jawaban yang cocok untuk semua orang,” tambah Choi-Andrews.
Pada tanggal 20 Maret 2023, OpenAI mengalami pelanggaran data. “Kami menonaktifkan ChatGPT minggu ini karena bug di perpustakaan open-source yang memungkinkan beberapa pengguna melihat judul dari riwayat obrolan pengguna aktif lainnya,” tulis OpenAI dalam sebuah posting blog pada 24 Maret 2023. Perpustakaan open-source Redis client, redis-py, telah diperbaiki.
Hingga saat ini, lebih dari 1.700 orang termasuk Elon Musk dan Steve Wozniak menandatangani petisi untuk perusahaan AI seperti OpenAI untuk “segera menghentikan selama setidaknya 6 bulan pelatihan sistem AI yang lebih kuat dari GPT-4” untuk “bersama-sama mengembangkan dan menerapkan seperangkat protokol keamanan bersama.” Petisi tersebut dimulai oleh Future of Life Institute, sebuah organisasi nirlaba yang didedikasikan untuk menggunakan AI untuk kebaikan dan mengurangi potensi “risiko berskala besar” seperti “AI yang termiliterisasi.”
Sementara itu, Microsoft terus mengembangkan produk keamanan sibernya dengan menambahkan AI ke dalam suite produknya. Namun, keamanan siber yang dijalankan oleh AI masih menjadi perdebatan dan perusahaan harus mempertimbangkan keterbatasan dan risiko sebelum mengimplementasikan teknologi ini.