IND | ENG
Pemerintah Inggris Merilis Panduan Baru Untuk Penggunaan AI

illustrasi

Pemerintah Inggris Merilis Panduan Baru Untuk Penggunaan AI
Niken Razaq Diposting : Sabtu, 03 September 2022 - 10:33 WIB

Cyberthreat.id – Pusat Keamanan Siber Nasional (NCSC), baru saja merilis panduan baru yang dirancang untuk membantu pengembang dan pihak lain memperbaiki kerentanan dalam sistem pembelajaran mesin (ML).

Dikutip dari Info Security Magazine, NCSC GCHQ menyusun peraturan ini untuk meningkatkan keamanan pembelajaran mesin bagi organisasi mana pun yang ingin mengurangi kemungkinan adversarial machine learning (AML).

Seperti diketahui, serangan AML mengeksploitasi karakteristik unik sistem ML atau AI untuk mencapai berbagai tujuan. AML telah menjadi perhatian yang lebih mendesak karena teknologi menemukan jalannya ke berbagai sistem yang semakin kritis, mendukung perawatan kesehatan, keuangan, keamanan nasional, dan banyak lagi.

“Pada dasarnya, keamanan perangkat lunak bergantung pada pemahaman bagaimana komponen atau sistem bekerja. Ini memungkinkan pemilik sistem untuk menguji dan menilai kerentanan, yang kemudian dapat dikurangi atau diterima,” jelas pemimpin penelitian ilmu data NCSC, Kate S.

ML digunakan secara tepat karena memungkinkan sistem untuk belajar sendiri bagaimana memperoleh informasi dari data, dengan pengawasan minimal dari pengembang manusia. Karena logika internal model bergantung pada data, perilakunya bisa sulit untuk ditafsirkan, dan seringkali menantang (atau bahkan tidak mungkin) untuk sepenuhnya memahami mengapa ia melakukan apa yang dilakukannya.

“Inilah sebabnya mengapa komponen ML secara historis tidak memiliki tingkat pengawasan yang sama seperti sistem biasa, dan mengapa kerentanan dapat terlewatkan,” tambah dia.

Menurut Kate S, prinsip-prinsip baru akan membantu setiap entitas yang terlibat dalam pengembangan, penerapan, atau penonaktifan sistem yang mengandung ML. Mereka bertujuan untuk mengatasi beberapa kelemahan utama dalam sistem ML, termask ketergantungan pada data.

“Ini termasuk memanipulasi data pelatihan dapat mengakibatkan perilaku yang tidak diinginkan, yang kemudian dapat dieksploitasi oleh musuh,” kata dia.

Selain itu, pengembang mungkin tidak dapat sepenuhnya memahami atau menjelaskan logika model, yang dapat mengganggu kemampuan mereka untuk mengurangi risiko. Tantangan untuk memverifikasi bahwa model akan berperilaku seperti yang diharapkan di bawah seluruh rentang input yang mungkin menjadi subjeknya, mengingat mungkin ada miliaran dari ini

Model dan data pelatihan dapat direkonstruksi oleh aktor ancaman untuk membantu mereka membuat serangan. Sehingga banyak sistem ML menggunakan pembelajaran berkelanjutan untuk meningkatkan kinerja dari waktu ke waktu, tetapi ini berarti keamanan harus dinilai ulang setiap kali versi model baru diproduksi. Ini bisa beberapa kali per hari.

“Di NCSC, kami menyadari manfaat besar yang dapat diberikan oleh ilmu data dan ML yang baik kepada masyarakat, tidak terkecuali dalam keamanan siber itu sendiri,” tutup Kate S. “Kami ingin memastikan manfaat itu terwujud, aman dan terjamin.”

#NCSC   #Inggris   #KeamananSiber   #ArtificialIntellegence

Share:




BACA JUGA
National Cybersecurity Connect 2023 Kembali Digelar
Duckduckgo Luncurkan Fitur Pencari Berbasis AI DuckAssist
Apple iOS 16.3 Hadir Dengan Dukungan Hardware Security Keys
Cara Menggunakan Otentikasi Dua Faktor Untuk Situs Web Pada iPhone
Cara Mengaktifkan Smart Lock Di Ponsel Android