Biasanya, perusahaan menggunakan teknologi machine learning atau pembelajaran mesin. Misalnya untuk menganalisis keinginan pengguna, ketidaksukaan, ataupun menganalisa perubahan wajah orang.
Nah, jika biasanya machine learning biasanya dikaitkan dengan pembelajaan, lalu muncul pertanyaan dari beberapa peneliti. Bisakah machine learning melupakan pembalajaran yang sudah diberikan?
Sebagai informasi, kini ada bidang ilmu komputer yang muncul dan dikenal sebagai machine unlearn. Ia mencari cara untuk menginduksi amnesia selektif dalam perangkat lunak kecerdasan buatan atau Artificial Intelegence. Apa maksudnya?
Tujuannya adalah untuk menghapus semua jejak orang atau titik data
tertentu dari sistem pembelajaran mesin tanpa mempengaruhi kinerjanya.
Jika
dipraktikkan, konsep tersebut dapat memberi orang lebih banyak kontrol
atas data mereka dan nilai yang diperoleh darinya.
Meskipun pengguna sudah dapat meminta beberapa perusahaan untuk menghapus data pribadi, mereka umumnya tidak mengetahui algoritma mana yang telah menyesuaikan atau melatih informasi mereka.
Penghentian machine learning dapat
memungkinkan seseorang untuk menghilangkan data mereka dan kemampuan
perusahaan untuk mendapatkan keuntungan darinya.
Gagasan tentang amnesia buatan ini memerlukan beberapa ide baru dalam ilmu komputer. Perusahaan pencipta machine learning menghabiskan jutaan dolar untuk melatih algoritma machine learning. Misalnya untuk mengenali wajah atau menilai postingan sosial.
Alasannya, algoritma sering kali dapat menyelesaikan masalah lebih cepat daripada pemrogram manusia saja. Namun begitu dilatih, sistem machine learning tidak mudah diubah atau bahkan dipahami.
Cara tradisional untuk menghilangkan dampak dari titik data yang diberikan adalah dengan membangun kembali sistem dari awal, dan ini sama saja dengan membuat lagi machine learning yang berbeda dan tentunya berpotensi mahal.
Baca juga:
- Kecerdasan Buatan Bantu Prediksi Kondisi Pasien Virus Pandemi
- Artificial Intelegence Machine Learning untuk Analisis Penyakit Hewan Ternak
- Teknologi AI Temukan Kawah Baru di Planet Mars
Di sisi lain, regulator data di seluruh dunia telah lama memiliki kekuatan untuk memaksa perusahaan menghapus informasi yang diperoleh secara ilegal.
Warga beberapa negara, seperti Uni Eropa dan California, bahkan memiliki hak untuk meminta perusahaan menghapus data mereka jika mereka menginginkannya.
Baru-baru ini, regulator AS dan Eropa mengatakan bahwa terkadang pemilik sistem AI perlu melangkah lebih jauh: menghapus sistem yang telah dilatih tentang data sensitif.
Tahun lalu, regulator data Inggris memperingatkan perusahaan bahwa beberapa perangkat lunak pembelajaran mesin dapat dikenakan hak GDPR seperti penghapusan data karena sistem AI dapat berisi data pribadi.
Peneliti keamanan telah menunjukkan bahwa algoritma terkadang dapat dipaksa untuk mengungkapkan data sensitif yang digunakan dalam pembuatannya. Intinya adalah privasi yang perlu lebih dijaga melalui amnesia machine learning.
Para peneliti telah menunjukkan bahwa mereka dapat membuat algoritma machine learning dilupakan dalam kondisi tertentu, tetapi teknologinya belum siap untuk untuk saat ini.
Salah satu pendekatan menjanjikan yang diusulkan pada tahun 2019 oleh para peneliti dari Universitas Toronto dan Wisconsin-Madison yang membagi data sumber menjadi beberapa bagian untuk proyek machine learning yang baru.
Masing-masing kemudian diproses secara terpisah sebelum hasilnya digabungkan menjadi model pembelajaran mesin akhir.
Jika suatu titik data akan dilupakan kemudian, hanya sebagian kecil dari data masukan asli yang harus diproses lagi. Pendekatan ini telah terbukti bekerja dengan data dari pembelian online dan koleksi lebih dari satu juta foto.
Namun pendekatan ini dikatakan lemah karena sistem ternyata sistem yang tidak belajar akan rusak jika permintaan penghapusan yang diajukan terajukan dalam urutan tertentu, baik secara acak atau oleh aktor jahat seperti hacker.
Kembali lagi ke alasan kenapa machine unlearning ini dibuat, Reuben Binns, seorang profesor di Universitas Oxford yang mempelajari perlindungan data, mengatakan bahwa dalam beberapa tahun terakhir telah tumbuh rasa di AS dan Eropa bahwa individu harus memiliki suara dalam nasib dan hasil data mereka.
Dia menduga bahwa machine unlearning ini hanya merupakan demonstrasi
ketajaman teknis daripada perubahan besar dalam privasi. Bahkan saat
mesin belajar untuk melupakan, pengguna harus berhati-hati tentang
dengan siapa mereka berbagi data terutama hal-hal yang sensitif.
Dibutuhkan rekayasa virtuoso sebelum perusahaan teknologi benar-benar dapat menerapkan pembelajaran mesin atau machine unlearning ini yang tentunya akan memberikan orang lebih banyak kontrol atas nasib algoritmik data mereka.
Meski begitu, teknologi mungkin tidak banyak mengubah risiko privasi di era AI sekarang ini. Intinya, kita lah sebagai pengguna yang harus benar-benar menjaga data pribadi kita. Setuju guys?