illustrasi
illustrasi
Cyberthreat.id – Pusat Keamanan Siber Nasional (NCSC), baru saja merilis panduan baru yang dirancang untuk membantu pengembang dan pihak lain memperbaiki kerentanan dalam sistem pembelajaran mesin (ML).
Dikutip dari Info Security Magazine, NCSC GCHQ menyusun peraturan ini untuk meningkatkan keamanan pembelajaran mesin bagi organisasi mana pun yang ingin mengurangi kemungkinan adversarial machine learning (AML).
Seperti diketahui, serangan AML mengeksploitasi karakteristik unik sistem ML atau AI untuk mencapai berbagai tujuan. AML telah menjadi perhatian yang lebih mendesak karena teknologi menemukan jalannya ke berbagai sistem yang semakin kritis, mendukung perawatan kesehatan, keuangan, keamanan nasional, dan banyak lagi.
“Pada dasarnya, keamanan perangkat lunak bergantung pada pemahaman bagaimana komponen atau sistem bekerja. Ini memungkinkan pemilik sistem untuk menguji dan menilai kerentanan, yang kemudian dapat dikurangi atau diterima,” jelas pemimpin penelitian ilmu data NCSC, Kate S.
ML digunakan secara tepat karena memungkinkan sistem untuk belajar sendiri bagaimana memperoleh informasi dari data, dengan pengawasan minimal dari pengembang manusia. Karena logika internal model bergantung pada data, perilakunya bisa sulit untuk ditafsirkan, dan seringkali menantang (atau bahkan tidak mungkin) untuk sepenuhnya memahami mengapa ia melakukan apa yang dilakukannya.
“Inilah sebabnya mengapa komponen ML secara historis tidak memiliki tingkat pengawasan yang sama seperti sistem biasa, dan mengapa kerentanan dapat terlewatkan,” tambah dia.
Menurut Kate S, prinsip-prinsip baru akan membantu setiap entitas yang terlibat dalam pengembangan, penerapan, atau penonaktifan sistem yang mengandung ML. Mereka bertujuan untuk mengatasi beberapa kelemahan utama dalam sistem ML, termask ketergantungan pada data.
“Ini termasuk memanipulasi data pelatihan dapat mengakibatkan perilaku yang tidak diinginkan, yang kemudian dapat dieksploitasi oleh musuh,” kata dia.
Selain itu, pengembang mungkin tidak dapat sepenuhnya memahami atau menjelaskan logika model, yang dapat mengganggu kemampuan mereka untuk mengurangi risiko. Tantangan untuk memverifikasi bahwa model akan berperilaku seperti yang diharapkan di bawah seluruh rentang input yang mungkin menjadi subjeknya, mengingat mungkin ada miliaran dari ini
Model dan data pelatihan dapat direkonstruksi oleh aktor ancaman untuk membantu mereka membuat serangan. Sehingga banyak sistem ML menggunakan pembelajaran berkelanjutan untuk meningkatkan kinerja dari waktu ke waktu, tetapi ini berarti keamanan harus dinilai ulang setiap kali versi model baru diproduksi. Ini bisa beberapa kali per hari.
“Di NCSC, kami menyadari manfaat besar yang dapat diberikan oleh ilmu data dan ML yang baik kepada masyarakat, tidak terkecuali dalam keamanan siber itu sendiri,” tutup Kate S. “Kami ingin memastikan manfaat itu terwujud, aman dan terjamin.”
Share: