Google Rilis Perlindungan Pengguna dari AI
Yunike Purnama - Jumat, 09 Juni 2023 13:59CALIFORNIA - Penggunaan kecerdasan buatan/ Artificial Intelegence (AI) generatif mewajibkan masyarakat harus lebih peduli dengan keamanan. Berangkat dari hal tersebit, Google merilis Secure AI Framework (SAIF).
SAIF sendiri merupakan sebuah skema berupa peta jalan keamanan menghindari jenis bahaya AI eksistensial yang selalu dibicarakan Elon Musk.
Lebih rinci mengenai SAIF, ada 6 elemen yang dituangkan Google untuk merealisasikan skema keamanan pengguna dari AI.
- Harga Minyak Mentah Indonesia Turun jadi US$70,12 per Barel
- Charlie Puth Rencana Konser di Jakarta 8 Oktober 2023
- Tipe iPhone dan iPad yang Dapat iOS 17 Serta iPadOS 17
Elemen 1 dan 2 adalah tentang memperluas kerangka kerja keamanan organisasi yang ada untuk memasukkan ancaman AI sejak awal.
Kemudian Elemen 3 adalah tentang mengintegrasikan AI ke dalam pertahanan Anda melawan ancaman AI, yang agak mengganggu mengingat perlombaan senjata nuklir, apakah itu disengaja atau tidak.
Adapun Elemen 4 adalah tentang manfaat keamanan keseragaman dalam "kerangka kerja kontrol" terkait AI Anda.
Selanjutnya, Elemen 5 dan 6 adalah tentang terus-menerus memeriksa, mengevaluasi, dan menguji aplikasi AI Anda untuk memastikan mereka dapat bertahan dari serangan, dan tidak membuat Anda menghadapi risiko yang tidak perlu.
- KAI Ganti Kursi Kereta Api Ekonomi untuk 12 Gerbong, Target Selesai 2023
- Cek Harga Emas Antam di Pegadaian Sabtu, 3 Juni 2023
- BTN dan Polda Bongkar Kejahatan Karyawan Bermodus Bunga Deposito Tinggi
Ide Keamanan Siber Dasar untuk AI
Berdasarkan skema kemanan yang telah dirancang oleh Google, tampaknya saat ini Perusahaan hanya ingin membawa ide keamanan siber dasar untuk diterapkan di sekitar AI.
Seperti yang dikatakan kepala keamanan info Google Cloud Phil Venables sebelumnya bahwa saat orang mencari pendekatan yang lebih canggih, orang harus benar-benar ingat bahwa Anda juga harus memiliki dasar yang benar.
Sebagaimana diketahui, sejak kemunculan kecerdasan buatan, ada beberapa masalah keamanan baru dan unik yang muncul di sini-dan-sekarang dengan aplikasi AI generatif seperti ChatGPT.
Sebagai contoh, peneliti keamanan telah mengidentifikasi satu potensi risiko injeksi cepat yang merupakan hal aneh dari eksploitasi AI. Injeksi cepat memungkinkan adanya perintah jahat diarahkan ke plugin AI chatbot yang tidak curiga menunggu di beberapa blok teks.
Saat AI memindai injeksi prompt, itu mengubah sifat perintah yang diberikan kepada AI. Ini seperti menyembunyikan mantra pengontrol pikiran yang menyeramkan dalam teks di teleprompter.
Selain injeksi cepat, ada ancaman lain yang menghantui pengguna AI. Di antara lain Mencuri model, yakni cara yang mungkin untuk mengelabui model terjemahan agar melepaskan rahasianya.
Kemudian ada Peracunan data di mana aktor jahat menyabotase proses pelatihan dengan data yang salah secara sengaja.
Ancaman lain juga dilakukan dengan membuat perintah yang dapat mengekstrak teks verbatim yang berpotensi rahasia atau sensitif yang awalnya digunakan untuk melatih model. (*)