Agar dapat menggunakan AI secara efektif untuk meningkatkan kehidupan kita, kita harus memahami perbedaan ini

Ketika organisasi terus mengadopsi teknologi baru seperti Machine Learning, Generative AI, dan Deep Learning, salah satu masalah paling mendesak di bidang ini telah diangkat ke permukaan diskusi – yaitu bias dalam agen AI. Kami telah melihat banyak orang membicarakan bias AI dan tantangan yang terkait dengannya. Namun, diskusi kontemporer sering kali mengabaikan bahwa bias manusia dan bias dalam sistem kecerdasan buatan pada dasarnya berbeda. Meskipun kita menggunakan kata yang sama untuk kedua fenomena tersebut, kedua fenomena ini memiliki sifat yang sangat berbeda.

Hal ini menjadi sangat problematis dalam banyak diskusi seputar AI yang aman karena orang-orang sering kali memperlakukan hal ini dengan cara yang sama, dan dengan demikian merekayasa solusi yang aman bagi manusia, namun tidak aman bagi AI. Hal ini terjadi karena manusia terkenal buruk dengan “bias Konsensus Palsu”, di mana kita berasumsi bahwa orang lain juga sama seperti kita (dan akan berperilaku serupa). Jika diterapkan pada AI, hal ini dapat menimbulkan dampak buruk yang perlu kita atasi. Memahami perbedaan bias AI dan Manusia akan membantu dalam mencegah masalah ini. Artikel ini akan membahas hal tersebut, beserta beberapa masalah yang muncul karena membingungkannya berbagai jenis bias. Ini akan diakhiri dengan diskusi tentang mengapa alat perekrutan berbasis GPT adalah ide yang buruk (pastikan Anda membacanya meskipun Anda melewatkan yang lainnya, ini penting).

Bergabunglah dengan lebih dari 35 ribu pemimpin teknologi dan dapatkan wawasan tentang ide-ide paling penting dalam AI langsung ke kotak masuk Anda melalui buletin gratis saya - AI Made Simple

Bias Manusia-

Pertama-tama mari kita lihat bias dalam otak manusia dan cara kerjanya. Saat kita melihat bias pada manusia, ada beberapa hal yang menonjol-

  1. Arsitektur-Bias pada manusia muncul karena begitulah tubuh/otak kita dirancang. Bias manusia merupakan suatu ciri, bukan suatu bug- dan akan terus ada selama kita masih hidup (bias ini tidak hanya mencakup manusia, dan merupakan ciri dari sebagian besar kehidupan). Meskipun bias manusia sering kali dianggap sebagai hal kecil yang kotor, hal ini merupakan fenomena yang netral secara moral. Ini adalah bagian (penting) dari bagaimana kehidupan berevolusi.
  2. Alasan terjadinya bias-Bias ada karena membantu otak kita menghemat energi dan membuat keputusan lebih cepat. Hanya itu yang mereka lakukan (lihat Sistem 1 dan Sistem 2 dari buku fantastis- Berpikir Cepat dan Lambat). Tanpa bias, pikiran kita akan kewalahan karena menganggap semua informasi/stimulus sebagai sesuatu yang baru dan dengan demikian menghabiskan energi mental kita dengan cepat. Ada jenis bias tertentu yang mempunyai konsekuensi negatif - bias rasial, bias seksual, dll. Namun sebuah fenomena - bias tidaklah baik atau buruk.

Banyak diskusi mengenai bias manusia tampaknya mengabaikan nuansa ini. Bias kita secara keseluruhan pada dasarnya tidak bermasalah. Sebaliknya, mereka mempunyai peran yang sangat penting, terutama di dunia yang penuh dengan konten ‘baru’ seperti dunia kita.

Dalam hal memperbaiki bias pada manusia, ini adalah perjuangan yang sia-sia. Berdasarkan desain kami, kami akan selalu menjadi bias. Kita harus membedakan antara bias yang merugikan (ras, sosial, dll) dan bias yang tidak berbahaya (kecenderungan saya memilih es krim coklat hitam atau mint daripada vanilla). Dengan latar belakang tersebut, sekarang mari kita jelajahi bias dalam sistem berbasis Machine Learning.

Bias AI (khususnya Pembelajaran Mesin)-

Sekali lagi, fokusnya di sini adalah bagaimana bias menyusup ke dalam sistem berbasis Machine Learning. Meskipun ide-ide yang dibahas dapat terbawa ke dalam ‘AI’ yang lebih umum, bidang Kecerdasan Buatan (AI) sangatlah luas, sehingga membuat pernyataan menyeluruh yang bermakna jauh lebih sulit. Mari kita masuk ke poin utama bagian ini.

Untuk memulainya, pertama-tama mari kita definisikan bias dalam Machine Learning. Bergantung pada cara penggunaannya, ini bisa berupa salah satu dari 2 hal-

  1. Betapa salahnya seorang peramal. Ini adalah definisi yang kami lihat digunakan dalam diskusi mengenai tradeoff bias-varians, yang kami diskusikan dalam video ini.
  2. Apakah model tersebut mencerminkan prasangka manusia. Jika suatu model menurunkan kelayakan kredit seorang kandidat karena rasnya, hal tersebut dilakukan karena alasan historis yang valid, namun akan menimbulkan hasil yang tidak diinginkan. Ini mungkin tampak seperti contoh yang tidak masuk akal, tetapi hal ini memang terjadi (secara tidak langsung). Status Ras/Sosio-Ekonomi banyak dikodekan ke dalam berbagai atribut yang digunakan dalam berbagai model prediktif. Model kemudian memberikan sanksi yang tidak adil kepada orang-orang yang mungkin memiliki atribut yang sama – sehingga memperparah kesenjangan yang seharusnya dihindari oleh para pengambil keputusan otomatis.

Jenis bias yang terakhir mengarah pada kasus yang sangat menarik - terkadang kita memerlukan bias (jenis pertama) untuk melawan bias jenis kedua. Saat berhadapan dengan agen yang sensitif dan mengubah hidup- pemeriksa skor kredit, analisis layanan kesehatan, dan deteksi penyakit- bahkan mungkin bermanfaat untuk memasukkan kesalahan ke dalam model Anda sehingga model tersebut tidak mempelajari bias dalam data Anda terlalu dekat (2 terakhir kasus yang saya bicarakan dari pengalaman pribadi). Dengan kata lain, bias melawan bias. Dengan memanfaatkan teknik seperti Augmentasi Data, kita akan mendapatkan hasil yang lebih jauh dari distribusi data yang tercatat (sehingga memiliki lebih banyak ‘bias’) namun dengan sistem yang tidak terlalu bias.

Meningkatnya ketergantungan aplikasi pemrosesan bahasa alami pada model bahasa besar yang dilatih pada korpora skala web yang bias secara intrinsik telah memperkuat pentingnya metrik dan prosedur keadilan yang akurat untuk membangun model yang lebih kuat…Kami mengusulkan dua modifikasi pada menyaring pengetahuan dasar berdasarkan pembalikan peran kontrafaktual — memodifikasi probabilitas guru dan menambah rangkaian pelatihan.

- Amazon memiliki penelitian hebat dalam melawan bias dalam kumpulan data mereka dan menjadikan Alexa lebih adil. Saya memecahnya di sini

Ini adalah salah satu aspek bias yang membuatnya sangat sulit untuk ditangani - bias yang disebabkan oleh prediktor yang lemah (bias tersembunyi dalam model Anda) dapat dengan mudah disamakan dengan bias dari masalah sistemik (bias tersembunyi dalam data Anda). Masalah ini sering kali bertambah parah dalam tim Machine Learning karena banyak tim ML yang sangat berorientasi pada metrik dan sangat sedikit fokus pada konteks di mana pipeline mereka akan digunakan. Hal ini mengarah pada kasus di mana tim berorientasi pada pencapaian skor tinggi pada tolok ukur dibandingkan menciptakan solusi yang bermakna. Hasilnya adalah skor ML yang luar biasa, kinerja fantastis bagi orang-orang 'normal', dan peningkatan isolasi bagi masyarakat pinggiran. Hanya saja kali ini, masalah ini lebih tidak kentara dibandingkan dengan kebijakan isolasionis yang pada awalnya menciptakan ketimpangan.

Setelah diskusi panjang tentang Bias selesai, mari kita lihat beberapa sifat penting bias dalam sistem ML-

  1. Biayanya sebagian besar bersifat konstan-Tidak seperti bias manusia, bias dalam sistem ML tidak menghemat energi lagi. Data masih diproses melalui semua neuron, dll.
  2. Dari Asosiasi Statistik-Bias dalam Sistem AI berbasis Pembelajaran Mesin muncul karena prediktor mempelajari semacam pola statistik yang menunjukkan bias ini. Bias tipe 1 terjadi ketika polanya terlalu rumit untuk diprediksi. Bias tipe 2 terjadi ketika model mempelajari bias yang dikodekan dalam data. Hal ini tidak melekat pada Model AI itu sendiri.

Bacaan yang bagus tentang topik ini adalah artikel fantastis- Menghilangkan Bias dalam AI/ML (penulisnya, Michael, cukup tepat sasaran di keseluruhan artikel). Dari tulisan tersebut, ada 2 paragraf yang menurut saya sangat meyakinkan-

Saat mengidentifikasi bias dalam Machine Learning, langkah pertama adalah mengidentifikasi bias yang kita hadapi. Apakah kita melihat bias karena kelemahan model, atau kelemahan sistem yang sedang kita uji? Ini adalah langkah yang sangat penting dan sering diabaikan ketika membangun solusi AI saat ini. Tidak memahami berbagai bias dan perbedaannya akan mengarah pada pengembangan solusi yang sepertinya merupakan ide bagus sampai Anda benar-benar mulai memikirkan implikasi yang lebih dalam dari produk tersebut.

Ambil contoh GPT yang sangat populer untuk Profil LinkedIn, Penulisan Resume/Surat Sampul, perekrutan, dan solusi Evaluasi Karyawan yang beredar di pasaran. Saya telah melakukan percakapan dengan beberapa kelompok yang sedang membangun atau akan membeli solusi tersebut (percakapan ini adalah alasan utama saya menulis ini). Sistem ini berfungsi dengan baik dalam pengujian, namun memiliki kelemahan besar- GPT berkulit putih, Amerika, neurotipikal, dan kaya (kebanyakan). Menggunakan sistem ini untuk menilai dan menilai manusia sebenarnya adalah cara yang sangat memutarbalikkan untuk memaksa mereka mematuhi standar-standar ini. Mengontrol perkataan seseorang adalah langkah awal yang bagus untuk mengendalikan pikirannya. Alat perekrutan yang ‘cerdas’ ini bersifat kuno, kolonial (saya tidak menganggap enteng kata ini), dan sangat eksklusif. Ini tidak muncul di ML Benchmarks, karena sebagian besar pengujian 'Profesional' mengalami masalah yang sama. Terapkan ini ke tempat kerja yang beragam, dan Anda akan melihat hasil yang membawa malapetaka.

Akibat dari ini akan menjadi sindiran yang hebat-

  1. Alat-alat ini akan mengecualikan orang-orang yang tidak mampu menyesuaikan diri dengan baik, sehingga mengisi organisasi dengan orang-orang yang sebagian besar serupa.
  2. Pada akhirnya, orang-orang akan menyadari kurangnya keragaman di organisasi-organisasi ini, dan manajemen tingkat atas akan merespons melalui program perekrutan tingkat pemula.
  3. Orang-orang tingkat pemula akan kesulitan untuk menyesuaikan diri dengan lingkungan organisasi yang homogen - yang menyebabkan kinerja lebih buruk, pergantian karyawan yang lebih tinggi, dll.
  4. Organisasi-organisasi tersebut akan mempekerjakan sebagian besar ilmuwan data lapangan yang bersifat neurotipikal/bagian dari 'orang dalam' (seperti saya) untuk menganalisis data internal mereka - yang akan mengarah pada identifikasi 'area masalah' ini.
  5. Bias yang ada semakin menguat, sehingga membuat proses ini semakin eksklusif.

Hal terburuknya adalah karena kelompok-kelompok ‘divergen’ dipekerjakan di tingkat awal/bawah, sebagian besar tidak akan pernah mempunyai kesempatan untuk mencapai kepemimpinan di tingkat atas dimana mereka dapat mempengaruhi perubahan budaya.

Jika Anda tidak mengambil hal lain dari artikel ini, ingatlah ini - alat perekrutan ini terlalu tidak aman untuk digunakan. Sejak saya mulai menulis, saya berusaha menjaga pekerjaan saya tetap netral dan objektif. Ini adalah salah satu dari beberapa saat di mana saya tidak akan melakukan hal itu. AI Doomers benar mengenai risiko alat-alat ini di tingkat masyarakat, hanya saja tidak seperti yang diklaim sebagian besar orang. Alat AI ini tidak akan mengidentifikasi seseorang yang berkulit hitam/gay/trans/neurodivergent dan menolaknya. Mereka akan memaksa orang-orang dari kelompok luar untuk mengenakan topeng dan berperan selama mereka terlibat dengan organisasi-organisasi tersebut.

Saya akan mengakhirinya di sini. Seperti biasa, jika Anda tidak setuju atau merasa ada yang salah, beri tahu saya. Saya selalu menyambut baik diskusi, terutama mengenai isu-isu penting seperti ini. Tautan saya ada di akhir jika Anda ingin mengirim pesan kepada saya.

Itu saja untuk bagian ini. Saya menghargai waktu Anda. Seperti biasa, jika Anda tertarik untuk bekerja dengan saya atau melihat karya saya yang lain, tautan saya ada di akhir email/postingan ini. “Jika Anda menyukai tulisan saya, saya akan sangat menghargai kesaksian anonim. Anda bisa menaruhnya di sini.” Dan jika Anda menemukan nilai dalam artikel ini, saya akan menghargai Anda membaginya dengan lebih banyak orang. Rujukan dari mulut ke mulut seperti milik Andalah yang membantu saya berkembang.

Hemat waktu, tenaga, dan uang yang dapat Anda habiskan dengan melihat semua video, kursus, produk, dan 'pelatih' serta temukan semua kebutuhan Anda dengan mudah di satu tempat di 'Teknologi Menjadi Sederhana'! Tetap terdepan dalam bidang AI, rekayasa perangkat lunak, dan industri teknologi dengan wawasan, tips, dan sumber daya ahli. Diskon 20% untuk pelanggan baru dengan mengeklik tautan ini. Berlangganan sekarang dan sederhanakan perjalanan teknologi Anda!

Menggunakan diskon ini akan menurunkan harga-

800 INR (10 USD) → 640 INR (8 USD) per Bulan

8000 INR (100 USD) → 6400INR (80 USD) per tahun (533 INR /bulan)

Dapatkan diskon 20% selama 1 tahun

Hubungi saya

Gunakan tautan di bawah untuk melihat konten saya yang lain, mempelajari lebih lanjut tentang bimbingan belajar, menghubungi saya tentang proyek, atau sekadar menyapa.

Cuplikan Kecil tentang Teknologi, AI, dan Pembelajaran Mesin di sini

Buletin AI- https://artificialintelligencemadesimple.substack.com/

Buletin Teknologi favorit nenek saya- https://codinginterviewsmadesimple.substack.com/

Lihat artikel saya yang lain di Medium. : https://rb.gy/zn1aiu

YouTube saya: https://rb.gy/88iwdd

Hubungi saya di LinkedIn. Mari terhubung: https://rb.gy/m5ok2y

Instagram saya: https://rb.gy/gmvuy9

Twitter saya: https://twitter.com/Machine01776819