Membangun Kecerdasan Buatan yang Bertanggung Jawab: Senjata Terbaru Melawan Bahaya AI

Written By blog_cnt

November 19, 2023


Belajar untuk Melupakan — Senjata dalam Arsenal Melawan AI yang Berbahaya

November 2, 2023 | Sumber: Universitas Warwick

Dalam tengah berlangsungnya KTT AI, para peneliti berupaya menyoroti masalah nyata yang terkait dengan teknologi ini — bagaimana mengajari AI untuk melupakan.

Masyarakat kini dihebohkan dengan kecanggihan AI modern dan potensi luar biasanya; kita terus diingatkan akan manfaatnya yang potensial, meresap ke hampir semua aspek kehidupan kita — tetapi juga akan bahayanya.

Dalam bidang penelitian yang baru muncul, para ilmuwan menyoroti senjata penting dalam arsena kita untuk mengurangi risiko AI — ‘machine unlearning’. Mereka membantu menemukan cara baru membuat model AI yang dikenal sebagai Deep Neural Networks (DNNs) melupakan data yang membahayakan masyarakat.

Masalahnya adalah melatih ulang program AI untuk ‘melupakan’ data adalah tugas yang sangat mahal dan melelahkan. DNN modern seperti yang berbasis pada ‘Large Language Models’ (seperti ChatGPT, Bard, dll.) memerlukan sumber daya besar untuk dilatih — dan membutuhkan waktu berminggu-minggu atau berbulan-bulan untuk melakukannya. Mereka juga memerlukan puluhan Gigawatt-jam energi untuk setiap program pelatihan, beberapa penelitian memperkirakan sebanyak energi yang diperlukan untuk memberdayakan ribuan rumah tangga selama satu tahun.

Machine Unlearning adalah bidang penelitian yang berkembang pesat yang dapat menghapus data bermasalah dari DNN dengan cepat, murah, dan menggunakan lebih sedikit sumber daya. Tujuannya adalah melakukannya sambil tetap memastikan akurasi tinggi. Para ahli Ilmu Komputer di Universitas Warwick, bekerja sama dengan Google DeepMind, berada di garis terdepan penelitian ini.

Profesor Peter Triantafillou, Departemen Ilmu Komputer, Universitas Warwick, baru-baru ini menjadi co-author dalam publikasi ‘Towards Unbounded Machine Unlearning’. Dia mengatakan: “DNN adalah struktur yang sangat kompleks, terdiri dari triliunan parameter. Seringkali, kita kurang memahami secara menyeluruh bagaimana dan mengapa mereka mencapai tujuan mereka. Mengingat kompleksitas mereka, dan kompleksitas serta ukuran dataset yang mereka latih, DNN dapat membahayakan masyarakat.

“DNN mungkin membahayakan, misalnya, dengan dilatih pada data dengan bias — dengan demikian menyebarluaskan stereotip negatif. Data mungkin mencerminkan prasangka, stereotip, dan asumsi sosial yang salah — seperti prasangka bahwa dokter adalah laki-laki, perawat adalah perempuan — atau bahkan prasangka rasial.

“DNN juga mungkin mengandung data dengan ‘anotasi yang salah’ — misalnya, pelabelan yang salah pada item, seperti memberi label pada gambar sebagai deep fake atau tidak.

“Yang mengkhawatirkan, DNN mungkin dilatih pada data yang melanggar privasi individu. Ini merupakan tantangan besar bagi perusahaan mega-tech, dengan legislasi signifikan (misalnya, GDPR) yang bertujuan untuk melindungi hak untuk dilupakan — yaitu hak setiap individu untuk meminta bahwa data mereka dihapus dari setiap kumpulan data dan program AI.

“Penelitian terbaru kami menghasilkan algoritma ‘machine unlearning’ baru yang memastikan DNN dapat melupakan data yang meragukan, tanpa mengorbankan kinerja AI secara keseluruhan. Algoritma ini dapat diintegrasikan ke dalam DNN, menyebabkannya khusus melupakan data yang kita perlukan, tanpa harus melatih ulang dari awal lagi. Ini adalah satu-satunya pekerjaan yang membedakan kebutuhan, persyaratan, dan metrik keberhasilan di antara tiga jenis data yang perlu dilupakan: bias, anotasi yang salah, dan masalah privasi.

“Machine unlearning adalah bidang penelitian yang menarik dan dapat menjadi alat penting untuk mengurangi risiko AI.”


Sumber:

University of Warwick. “Learning to forget — a weapon in the arsenal against harmful AI.” ScienceDaily. ScienceDaily, 2 November 2023. <www.sciencedaily.com/releases/2023/11/231102135120.htm>.

0 Comments

Submit a Comment

Your email address will not be published. Required fields are marked *