memo-x

Berita, komentar, dan fitur terbaru dari The Memo X

Sekarang setelah mesin dapat belajar, dapatkah mereka lolos dari pembelajaran?

Andrey Onofrenko | Gambar Getty

Perusahaan dari semua jenis menggunakan pembelajaran mesin Untuk menganalisis keinginan, ketidaksukaan, atau wajah orang. Beberapa peneliti sekarang mengajukan pertanyaan yang berbeda: Bagaimana kita bisa membuat mesin lupa?

Area yang muncul dalam ilmu komputer disebut mesin amnesia Mencari cara untuk menginduksi amnesia selektif dalam Kecerdasan buatan perangkat lunak. Tujuannya adalah untuk menghapus setiap jejak orang atau titik data tertentu dari sistem pembelajaran mesin, tanpa memengaruhi kinerjanya.

Jika konsep tersebut dibuat praktis, itu dapat memberi orang lebih banyak kontrol atas data mereka dan nilai yang diperoleh darinya. Meskipun pengguna benar-benar dapat meminta beberapa perusahaan untuk menghapus data pribadi, mereka umumnya tidak tahu algoritma apa yang membantu menyesuaikan atau melatih informasi mereka. De-learning dapat memungkinkan seseorang untuk mengambil data mereka dan kemampuan perusahaan untuk memanfaatkannya.

Terbukti dengan sendirinya karena siapa pun telah menyimpulkan apa yang mereka bagikan secara online, gagasan amnesia buatan memerlukan beberapa gagasan baru dalam ilmu komputer. Perusahaan menghabiskan jutaan dolar untuk melatih algoritme pembelajaran mesin untuk mengenali wajah atau memberi peringkat pada postingan sosial, karena algoritme sering kali dapat memecahkan masalah lebih cepat daripada pemrogram manusia saja. Tetapi setelah dilatih, sistem pembelajaran mesin tidak dapat diubah dengan mudah, atau bahkan mengerti. Cara tradisional untuk menghilangkan dampak titik data tertentu adalah dengan membangun kembali sistem dari awal, sebuah proses yang bisa memakan biaya. “Penelitian ini bertujuan untuk menemukan jalan tengah,” kata Aaron Roth, seorang profesor di University of Pennsylvania yang telah berupaya menghapus pembelajaran mesin. “Dapatkah kami menghapus dampak penuh dari data seseorang saat mereka meminta penghapusan, tetapi menghindari biaya penuh pelatihan ulang sejak awal?”

READ  Penerbitan ulang Koleksi Kartu Pokemon Charizard Base untuk merayakan Hari Jadi ke-25

Pekerjaan untuk menghapus pembelajaran mesin sebagian didorong oleh minat yang berkembang pada cara-cara di mana AI dapat mengikis privasi. Regulator data di seluruh dunia telah lama memiliki kekuatan untuk memaksa perusahaan menghapus informasi terlarang. Warga dari beberapa daerah, seperti Saya Dan CaliforniaSebaliknya, ia berhak menuntut agar perusahaan menghapus datanya jika telah mengubah posisinya terkait apa yang diungkapkannya. Baru-baru ini, regulator AS dan Eropa mengatakan bahwa pemilik sistem AI terkadang harus mengambil langkah maju: menghapus sistem yang telah dilatih tentang data sensitif.

Tahun lalu, regulator data Inggris Perusahaan peringatan Bahwa beberapa perangkat lunak pembelajaran mesin dapat dikenakan hak GDPR seperti penghapusan data, karena sistem AI dapat berisi data pribadi. Peneliti keamanan telah menunjukkan Algoritma terkadang dapat dipaksa untuk membocorkan data sensitif yang digunakan untuk membuatnya. Awal tahun ini, Komisi Perdagangan Federal AS Pengaktifan paksa pengenalan wajah Paravision Untuk menghapus satu set gambar wajah yang diperoleh secara salah dan algoritma pembelajaran mesin yang dilatih pada mereka. Komisioner Komisi Perdagangan Federal Rohit Chopra memuji taktik penegakan baru sebagai cara untuk memaksa perusahaan untuk melanggar database untuk “merebut buah dari penipuan.”

Bidang kecil penelitian yang melupakan mesin bergulat dengan beberapa pertanyaan praktis dan matematis yang diajukan oleh perubahan organisasi ini. Para peneliti telah menunjukkan bahwa mereka dapat membuat algoritma pembelajaran mesin lupa dalam kondisi tertentu, tetapi teknologinya belum siap di prime time. “Seperti biasa di bidang pemuda, ada kesenjangan antara apa yang dicita-citakan oleh daerah ini dan apa yang kita tahu bagaimana melakukannya sekarang,” kata Roth.

Satu pendekatan yang menjanjikan telah disarankan di 2019 Oleh para peneliti dari University of Toronto dan University of Wisconsin-Madison, ini melibatkan pemisahan data sumber untuk proyek pembelajaran mesin baru menjadi beberapa bagian. Masing-masing kemudian diproses secara individual, sebelum hasilnya digabungkan menjadi model pembelajaran mesin akhir. Jika suatu titik data perlu dilupakan kemudian, hanya sebagian kecil dari data masukan asli yang harus diproses ulang. Pendekatan telah terbukti berhasil pada data pengadaan online dan a Koleksi lebih dari satu juta foto.

READ  Pengembangan di jalur terakhir

Ruth dan kolaborator dari Penn, Harvard, dan Stanford baru saja Dia menunjukkan kelemahan dalam pendekatan ini, menunjukkan bahwa sistem de-learning akan macet jika permintaan penghapusan yang dibuat datang dalam urutan tertentu, baik secara kebetulan atau dari aktor jahat. Mereka juga menunjukkan bagaimana masalah dapat dikurangi.

Gautam Kamath, seorang profesor di University of Waterloo yang juga bekerja pada de-learning, mengatakan masalah yang ditemukan dan diperbaiki oleh proyek adalah contoh dari banyak pertanyaan terbuka yang tersisa tentang bagaimana membuat mesin belajar tidak lebih dari sekadar rasa ingin tahu di lab . Itu adalah kelompok penelitiannya sendiri eksplorasi Sejauh mana akurasi sistem dikurangi dengan menghapus pembelajaran untuk beberapa titik data berturut-turut.

Kamath juga tertarik untuk menemukan cara perusahaan dapat membuktikan – atau regulator dapat memverifikasi – bahwa sistem telah benar-benar melupakan apa yang seharusnya tidak dipelajari. “Sepertinya agak mengada-ada, tapi mungkin mereka pada akhirnya akan memiliki auditor untuk hal semacam itu,” katanya.

Alasan peraturan untuk menyelidiki kemungkinan de-learning pembelajaran mesin cenderung tumbuh, karena FTC dan lainnya melihat lebih dekat kekuatan algoritme. Robin Benz, seorang profesor di Universitas Oxford yang mempelajari perlindungan data, mengatakan gagasan bahwa individu harus memiliki suara dalam nasib dan buah dari data mereka telah berkembang dalam beberapa tahun terakhir baik di AS dan Eropa.

Dibutuhkan kerja teknis yang kreatif sebelum perusahaan teknologi benar-benar dapat menerapkan de-learning sebagai cara untuk memberi orang lebih banyak kendali atas nasib komputasi data mereka. Sampai saat itu, teknologi mungkin tidak banyak berubah dalam hal risiko privasi untuk usia kecerdasan buatan.

privasi diferensial, yang merupakan teknik cerdas untuk menetapkan batas matematis tentang apa yang dapat dibocorkan sistem dari seseorang, dan memberikan perbandingan yang berguna. Teknologi ini dikalahkan oleh Apple, Google, dan Microsoft, tetapi relatif jarang digunakan, dan risiko privasi masih banyak.

READ  Isolasi Google Maps oleh pejalan kaki Irlandia

Meskipun bisa sangat berguna, Baines mengatakan, “dalam kasus lain, ini lebih merupakan sesuatu yang dilakukan perusahaan untuk menunjukkan bahwa mereka berinovasi.” Dia menduga bahwa penghentian pembelajaran mesin mungkin sama, yang merupakan lebih banyak bukti ketajaman teknis daripada perubahan besar dalam perlindungan data. Bahkan jika mesin belajar untuk melupakan, pengguna harus ingat untuk berhati-hati dengan siapa mereka berbagi data.

Cerita ini awalnya muncul wired.com.