AI untuk cybersecurity adalah hal baru yang panas dalam Perjudian Sbobet

AI untuk cybersecurity adalah hal baru yang panas dalam Perjudian Sbobet

Ketika saya berjalan di sekitar lantai pameran di konferensi cyber cybersecurity besar-besaran minggu ini di Las Vegas, saya dikejutkan oleh sejumlah perusahaan yang membanggakan tentang bagaimana mereka menggunakan pembelajaran mesin dan kecerdasan buatan untuk membantu membuat dunia menjadi tempat yang lebih aman.

Tetapi beberapa ahli khawatir vendor tidak cukup memperhatikan risiko yang terkait dengan sangat bergantung pada teknologi ini. “Apa yang terjadi sedikit memprihatinkan, dan dalam beberapa kasus bahkan berbahaya,” peringatan Raffael Marty dari firma keamanan Forcepoint.

Bahaya data

Tapi Marty dan beberapa orang lain yang berbicara di Black Hat mengatakan banyak perusahaan sekarang meluncurkan produk berbasis mesin-pembelajaran karena mereka merasa mereka harus untuk mendapatkan audiensi dengan pelanggan yang telah membeli ke siklus sensasi AI. Dan ada bahaya bahwa mereka akan mengabaikan cara-cara di mana algoritme pembelajaran mesin dapat menciptakan rasa aman yang salah.

Banyak produk yang diluncurkan melibatkan “pembelajaran yang diawasi”, yang mengharuskan perusahaan memilih dan memberi label kumpulan data yang dilatih oleh algoritme — misalnya, dengan memberi tag kode yaitu perangkat lunak perusak dan kode yang bersih.

Marty mengatakan bahwa salah satu risikonya adalah bahwa dengan terburu-buru untuk membawa produk mereka ke pasar, perusahaan menggunakan informasi pelatihan yang belum sepenuhnya digosok dari titik data yang tidak wajar. Itu bisa menyebabkan algoritma kehilangan beberapa serangan. Yang lain adalah bahwa peretas yang mendapatkan akses ke sistem perusahaan keamanan dapat merusak data dengan mengalihkan label sehingga beberapa contoh malware ditandai sebagai kode bersih.

Orang jahat bahkan tidak perlu mengutak-atik data; sebagai gantinya, mereka dapat mengetahui fitur kode yang digunakan model untuk menandai malware dan kemudian menghapusnya dari kode jahat mereka sendiri sehingga algoritme tidak menangkapnya.

Satu melawan banyak

Dalam sesi di konferensi, Holly Stewart dan Jugal Parikh dari Microsoft menandai risiko ketergantungan berlebihan pada satu algoritma master untuk menggerakkan sistem keamanan. Bahayanya adalah jika algoritme tersebut disusupi, tidak ada sinyal lain yang akan menandai masalah dengannya.

Untuk membantu mencegah hal ini, layanan perlindungan ancaman Microsoft Windows Defender menggunakan beragam algoritme dengan kumpulan data pelatihan dan fitur yang berbeda. Jadi jika salah satu algoritme diretas, hasil dari yang lain — dengan asumsi integritasnya belum terganggu — akan menyoroti anomali dalam model pertama.

Di luar masalah ini. Forcepoint’s Marty mencatat bahwa dengan beberapa algoritma yang sangat kompleks dapat sangat sulit untuk mengetahui mengapa mereka benar-benar mengeluarkan jawaban tertentu. Masalah “dapat dijelaskan” ini dapat menyulitkan untuk menilai apa yang mendorong anomali apa pun yang muncul (lihat “Rahasia gelap di jantung AI”).

Semua ini tidak berarti bahwa pembelajaran AI dan mesin tidak harus memiliki peran penting dalam pertahanan defensif. Pesan dari Marty dan yang lain adalah bahwa ini sangat penting bagi perusahaan keamanan — dan pelanggan mereka — untuk memantau dan meminimalkan risiko yang terkait dengan model algoritmik.

Leave a Reply

Your email address will not be published. Required fields are marked *