Tim peneliti dari Georgia Tech, dipimpin oleh mahasiswa PhD David Oygenblik, menemukan kerentanan baru yang mereka beri nama VillainNet. Kerentanan ini memengaruhi jaringan super kecerdasan buatan yang sering dipakai sistem mengemudi otonom untuk memilih subjaringan sesuai kondisi jalan.
Jaringan super bekerja dengan menukar subjaringan kecil untuk tugas seperti hujan, lalu lintas, atau pergantian jalur. Para peneliti menemukan pintu belakang tersembunyi yang tetap tidak aktif sampai subjaringan tertentu terpilih; ketika aktif, VillainNet bisa mengambil alih kendaraan dan memaksa mobil menabrak.
Dalam eksperimen, serangan yang diaktifkan hampir selalu berhasil, dengan tingkat keberhasilan 99%. Para peneliti juga melaporkan bahwa deteksi membutuhkan 66x lebih banyak daya komputasi dan waktu, sehingga pintu belakang sulit ditemukan.
Kata-kata sulit
- kerentanan — kondisi yang memungkinkan sistem diserang atau rusak
- jaringan super — model kecerdasan buatan yang memiliki banyak subjaringan
- subjaringan — bagian lebih kecil dari sebuah jaringan AI
- pintu belakang — kode tersembunyi untuk akses tidak sah
- mengambil alih — mengontrol sesuatu secara paksa atau total
- deteksi — proses menemukan masalah atau serangan
- daya komputasi — kapasitas pemrosesan data oleh komputer
Tips: arahkan kursor, fokus, atau ketuk kata yang disorot di dalam teks untuk melihat definisi singkat sambil membaca atau mendengarkan.
Pertanyaan diskusi
- Apakah kamu khawatir jika mobil otonom bisa diretas seperti ini? Jelaskan singkat alasanmu.
- Apa langkah sederhana yang menurutmu bisa dilakukan produsen mobil untuk mengurangi risiko pintu belakang pada jaringan super?
- Menurutmu mengapa peneliti perlu melaporkan kerentanan seperti VillainNet?
Artikel terkait
Ilmuwan Afrika Selatan Pantau Kualitas Udara Waktu Nyata dengan Metode Fisika Partikel
Ilmuwan di Afrika Selatan mengadaptasi metode fisika partikel untuk sistem AI_r yang memantau kualitas udara waktu nyata menggunakan sensor murah, IoT, dan kecerdasan buatan. Proyek memasang 500 sensor di Sedibeng tahun depan dan mendapat dukungan internasional.
Model Bahasa Mengubah Penilaian Berdasarkan Identitas Pengarang
Peneliti University of Zurich menemukan bahwa large language models mengubah penilaian teks ketika diberi tahu siapa pengarangnya. Tanpa sumber, model sering sepakat, tetapi menyebut pengarang memicu bias, termasuk bias anti-Cina.