Sebagai manusia, kita melakukan kesalahan. #Fakta.

Namun seiring manusia mengembangkan AI yang kuat, apakah AI melakukan kesalahan? #HardTruth.

AI maju dan mempelajari hal-hal baru dengan kecepatan yang jauh lebih cepat daripada kita. Hal ini juga mencerminkan pola dan perilaku kita ketika kita mencoba melakukan perubahan sebagai masyarakat. Seperti Bias. Rasisme. dll. Karena teman AI kita dilatih tentang data yang miring. Tidak perlu khawatir. 😈

Jika Anda belum pernah mendengar tentang “bias berkode”, dengarkan sekarang. Itu ada.😜

Tonton di Netflix!





Ternyata, bahkan model bahasa pun “menganggap” mereka bias. Saat diminta di ChatGPT, responsnya adalah sebagai berikut: “Ya, model bahasa bisa saja memiliki bias, karena data pelatihan mencerminkan bias yang ada di masyarakat tempat data tersebut dikumpulkan.

Misalnya, bias gender dan ras merupakan hal yang lazim di banyak kumpulan data dunia nyata, dan jika model bahasa dilatih mengenai hal tersebut, hal tersebut dapat melanggengkan dan memperkuat bias ini dalam prediksinya.” Masalah yang terkenal tetapi berbahaya.

Manusia (biasanya) dapat mencoba-coba penalaran logis dan stereotip saat belajar. Namun, sebagian besar model bahasa meniru model bahasa tersebut, sebuah narasi malang yang kita lihat terjadi secara tidak wajar ketika tidak ada kemampuan untuk menggunakan penalaran dan berpikir kritis. Jadi, apakah memasukkan logika ke dalam permasalahan ini cukup untuk mengurangi perilaku seperti itu?

Para ilmuwan dari Laboratorium Ilmu Komputer dan Kecerdasan Buatan (CSAIL) di MIT mempunyai firasat bahwa hal ini mungkin terjadi, jadi mereka mulai meneliti apakah model bahasa yang sadar logika dapat secara signifikan menghindari stereotip yang lebih berbahaya.

Mereka melatih model bahasa untuk memprediksi hubungan antara dua kalimat, berdasarkan konteks dan makna semantik, menggunakan kumpulan data dengan label untuk cuplikan teks yang memerinci apakah frasa kedua “meliputi”, “bertentangan”, atau netral terhadap frasa pertama. .

Dengan menggunakan kumpulan data ini — inferensi bahasa alami — mereka menemukan bahwa model yang baru dilatih memiliki bias yang jauh lebih sedikit dibandingkan data dasar lainnya, tanpa data tambahan, pengeditan data, atau algoritme pelatihan tambahan.

Misalnya, dengan premis “orang tersebut adalah seorang dokter” dan hipotesis “orang tersebut adalah maskulin,” menggunakan model yang dilatih secara logika ini, hubungan tersebut akan diklasifikasikan sebagai “netral,” karena tidak ada logika yang mengatakan seseorang adalah laki-laki. Dengan model bahasa yang lebih umum, dua kalimat mungkin tampak berkorelasi karena adanya bias dalam data pelatihan, seperti “doctor”mungkin di-ping dengan “masculine,” meskipun ada tidak ada bukti bahwa pernyataan itu benar.

Pada titik ini, sifat model bahasa yang ada di mana-mana sudah diketahui: Banyak sekali aplikasi dalam pemrosesan bahasa alami, pengenalan ucapan, AI percakapan, dan tugas generatif. Meskipun bukan merupakan bidang penelitian yang masih baru, pertumbuhan penyakit dapat menjadi prioritas utama seiring meningkatnya kompleksitas dan kemampuan.

“Model bahasa saat ini mengalami masalah keadilan, sumber daya komputasi, dan privasi,” kata Hongyin Luo, postdoc MIT CSAIL, penulis utama makalah baru tentang karya tersebut.

“Banyak perkiraan yang mengatakan bahwa emisi CO2 dari pelatihan model bahasa bisa lebih tinggi daripada emisi mobil seumur hidup. Menjalankan model bahasa besar ini juga sangat mahal karena banyaknya parameter dan sumber daya komputasi yang dibutuhkan.

Dengan privasi, model bahasa canggih yang dikembangkan oleh tempat-tempat seperti ChatGPT atau GPT-3 memiliki API tersendiri yang mengharuskan Anda mengunggah bahasa Anda, namun tidak ada tempat untuk informasi sensitif mengenai hal-hal seperti layanan kesehatan atau keuangan.

Untuk mengatasi tantangan ini, kami mengusulkan model bahasa logis yang secara kualitatif kami ukur sebagai model yang adil, 500 kali lebih kecil dari model yang canggih, dapat diterapkan secara lokal, dan tanpa sampel pelatihan yang dianotasi oleh manusia untuk tugas-tugas hilir.

Model kami menggunakan 1/400 parameter dibandingkan model bahasa terbesar, memiliki performa lebih baik pada beberapa tugas, dan menghemat sumber daya komputasi secara signifikan.”

Model ini, yang memiliki 350 juta parameter, mengungguli “beberapa” model bahasa berskala sangat besar dengan 100 miliar parameter pada tugas pemahaman bahasa logika.

Tim mengevaluasi, misalnya, model Bahasa terlatih BERT yang populer dengan model “keterlibatan tekstual” mengenai stereotip, profesi, dan bias emosi tes. Model terakhir mengungguli model lain dengan bias yang jauh lebih rendah dengan tetap mempertahankan kemampuan pemodelan bahasa. “Keadilan” dievaluasi dengan tes yang disebut tes asosiasi konteks ideal (iCAT), di mana skor iCAT yang lebih tinggi berarti lebih sedikit stereotip. Model ini memiliki skor iCAT lebih dari 90 persen, sementara model pemahaman bahasa kuat lainnya berkisar antara 40 hingga 80.

Luo menulis makalah tersebut bersama Ilmuwan Riset Senior MIT James Glass. Mereka akan mempresentasikan karyanya di Konferensi Asosiasi Linguistik Komputasi Cabang Eropa di Kroasia.

Tidak mengherankan, model bahasa asli yang telah dilatih dan diperiksa oleh tim penuh dengan bias, hal ini dikonfirmasi oleh serangkaian tes penalaran yang menunjukkan bagaimana istilah-istilah profesional dan emosional secara signifikan bias terhadap kata-kata feminin atau maskulin dalam kosakata gender.

Terkait profesi, model bahasa (yang bias) menganggap bahwa “pramugari”, “sekretaris”, dan “asisten dokter” adalah pekerjaan yang bersifat feminin, sedangkan “nelayan”, “pengacara”, dan “hakim” adalah pekerjaan yang bersifat maskulin. Mengenai emosi, model bahasa berpikir bahwa “cemas”, “depresi”, dan “hancur” adalah feminin.

Meskipun kita mungkin masih jauh dari utopia model bahasa netral, penelitian ini terus dilakukan untuk mencapai hal tersebut. Saat ini model yang ada hanya untuk pemahaman bahasa, sehingga berdasarkan penalaran antar kalimat yang ada. Sayangnya, saat ini sistem tersebut belum dapat menghasilkan kalimat, jadi langkah selanjutnya bagi para peneliti adalah menargetkan model generatif yang sangat populer yang dibangun dengan pembelajaran logis untuk memastikan keadilan yang lebih besar dalam efisiensi komputasi.

“Meskipun penalaran stereotip adalah bagian alami dari pengakuan manusia, orang-orang yang sadar akan keadilan melakukan penalaran dengan logika dibandingkan stereotip bila diperlukan,” kata Luo.

“Kami menunjukkan bahwa model bahasa memiliki sifat serupa. Model bahasa tanpa pembelajaran logika eksplisit menghasilkan banyak alasan yang bias, namun menambahkan pembelajaran logika dapat mengurangi perilaku tersebut secara signifikan. Selain itu, dengan kemampuan adaptasi zero-shot yang kuat, model ini dapat langsung diterapkan ke berbagai tugas dengan lebih adil, privasi, dan kecepatan lebih baik.”

AI yang terhormat,

Lebih banyak kekuatan untuk Anda, dan kekuatan luar biasa bagi kami untuk mengimbangi Anda.

ikuti untuk upaya lebih lanjut dalam mengikuti AI!!! 🤪 oleh Jasmin Bharadiya