Tiga Kategori Risiko AI yang Harus Diatasi Pemimpin Keamanan

Tiga Kategori Risiko AI yang Harus Diatasi Pemimpin Keamanan
Tiga Kategori Risiko AI yang Harus Diatasi Pemimpin Keamanan

(Source: Freepik)

Adopsi kecerdasan buatan (AI) di berbagai organisasi sering kali dimulai dengan antusiasme tinggi terhadap model inovatif yang menjanjikan peningkatan produktivitas dan efisiensi. Namun, di balik pesona awal ini, tersembunyi risiko signifikan yang kerap terabaikan. David Moulton, host podcast Threat Vector, berbincang dengan Noelle Russell, pendiri dan Chief AI Officer di AI Leadership Institute. Russell menggunakan metafora anak harimau untuk menggambarkan implementasi AI. Antusiasme awal yang terfokus pada anak harimau yang menggemaskan sering kali membuat organisasi lupa mempertimbangkan bahwa ia akan tumbuh menjadi predator dewasa yang dapat menimbulkan bahaya besar jika tidak dikelola dengan tepat.

Russell menjelaskan bahwa risiko AI umumnya terbagi menjadi tiga kategori utama yang harus ditangani oleh para pemimpin keamanan yaitu akurasi, keadilan, dan keamanan. 

Akurasi mengacu pada pentingnya presisi dalam jawaban sistem AI; tanpa pemantauan model drift yang tepat, model yang awalnya akurat dapat menyimpang. Keadilan berkaitan dengan potensi sistem AI untuk secara tidak sengaja merugikan kelompok demografi tertentu jika dilatih dengan data yang bias, seperti yang terjadi pada layanan keuangan. Keamanan merujuk pada peningkatan permukaan serangan yang signifikan dengan setiap implementasi AI, yang dapat secara eksponensial meningkatkan paparan ancaman di seluruh organisasi jika tidak ada kontrol keamanan yang tepat. Mengatasi ketiga risiko ini menantang karena memerlukan tingkat dan keahlian domain yang berbeda, menuntut kolaborasi antar disiplin ilmu sejak awal inisiatif AI.

“Pengelolaan data pada dasarnya adalah pengelolaan AI. Keduanya adalah hal yang sama. Ini merupakan evolusi dari proses yang sama. Organisasi harus memperluas cakupan tim pengelolaan data yang sudah ada untuk mencakup sistem AI,” kata Noelle Russell, pendiri dan Chief AI Officer di AI Leadership Institute. Hal ini menekankan pentingnya mengintegrasikan keamanan ke dalam DNA sistem AI, bukan sekadar menempelkannya di akhir proses pengembangan, seperti air dalam gelombang, bukan seperti kismis dalam roti.

Untuk organisasi yang ingin meningkatkan skala AI secara bertanggung jawab, mengintegrasikan tata kelola AI dengan program keamanan siber yang sudah ada sangatlah penting. Russell menganjurkan pendekatan praktis, yaitu dengan memanfaatkan apa yang sudah berfungsi di organisasi. Ia menegaskan bahwa tata kelola data pada dasarnya adalah tata kelola AI, sebuah evolusi dari proses yang sama. Organisasi harus memperluas ruang lingkup tim tata kelola data yang sudah ada untuk mencakup sistem AI. Untuk mendapatkan sumber daya, Russell menyarankan alokasi sebagian keuntungan masa depan dari proyek AI misalnya, 25% dari setiap dolar baru untuk investasi keamanan siber. Strategi ini membuat eksekutif lebih reseptif karena keuntungan masa depan yang diinvestasikan, bukan anggaran saat ini.

Selain kontrol teknis dan kerangka tata kelola, Russell juga mengidentifikasi elemen budaya krusial untuk keamanan AI yaitu rasa ingin tahu. Profesional keamanan harus menumbuhkan lingkungan di mana orang terus-menerus mempertanyakan sistem AI dengan skeptisisme yang tepat. Pertanyaan-pertanyaan kunci yang harus diajukan meliputi: dari mana data ini berasal, bagaimana pengelolaannya, bagaimana sistem mencapai kesimpulan ini, apakah informasi ini dapat dipercaya, dan siapa lagi yang harus terlibat dalam peninjauan ini.

Budaya ingin tahu ini meluas ke praktik red teaming, yang dalam konteks AI mengambil dimensi baru. Russell menggambarkan tantangan hancurkan bot Anda di mana karyawan dari berbagai departemen mencoba untuk membangun dan kemudian menghancurkan sistem AI untuk mengidentifikasi kerentanan dan bias.

Leave a Reply

Your email address will not be published. Required fields are marked *