ในการใช้ AI อย่างมีประสิทธิภาพเพื่อเติมเต็มชีวิตของเรา เราต้องเข้าใจความแตกต่างนี้

ในขณะที่องค์กรต่างๆ ยังคงนำเทคโนโลยีเกิดใหม่มาใช้ เช่น การเรียนรู้ของเครื่อง, Generative AI และการเรียนรู้เชิงลึก ปัญหาเร่งด่วนที่สุดประการหนึ่งของสาขานี้ได้ถูกนำมาอภิปรายเป็นแถวหน้า ซึ่งก็คืออคติในตัวแทน AI เราได้เห็นผู้คนจำนวนมากพูดคุยเกี่ยวกับอคติของ AI และความท้าทายที่เกี่ยวข้อง อย่างไรก็ตาม การอภิปรายร่วมสมัยมักมองข้ามว่าอคติของมนุษย์และอคติในระบบปัญญาประดิษฐ์นั้นแตกต่างกันโดยพื้นฐาน แม้ว่าเราจะใช้คำเดียวกันสำหรับปรากฏการณ์ทั้งสอง แต่ 2 อย่างนี้ก็มีธรรมชาติที่แตกต่างกันมาก

สิ่งนี้กลายเป็นปัญหาอย่างมากในการถกเถียงกันมากมายเกี่ยวกับ AI ที่ปลอดภัย เนื่องจากผู้คนมักจะปฏิบัติต่อสิ่งเหล่านี้ในทำนองเดียวกัน และด้วยเหตุนี้จึงสร้างโซลูชันที่จะปลอดภัยต่อมนุษย์ แต่ไม่ปลอดภัยจาก AI สิ่งนี้เกิดขึ้นเพราะว่ามนุษย์มี "อคติผิดฉันทามติ" ที่ไม่ดีอย่างฉาวโฉ่ โดยที่เราถือว่าคนอื่นเป็นเหมือนเรา (และจะมีพฤติกรรมคล้ายกัน) เมื่อนำไปใช้กับ AI สิ่งนี้อาจมีผลกระทบร้ายแรงบางประการที่เราต้องแก้ไข การทำความเข้าใจความแตกต่างระหว่าง AI และอคติของมนุษย์จะเป็นประโยชน์ในการป้องกันปัญหานี้ บทความนี้จะกล่าวถึงเรื่องนั้นพร้อมกับปัญหาบางอย่างที่เกิดจากความสับสนของอคติประเภทต่างๆ มันจะจบลงด้วยการอภิปรายว่าเหตุใดเครื่องมือการจ้างงานที่ใช้ GPT จึงเป็นแนวคิดที่แย่มาก (อย่าลืมอ่านว่าแม้ว่าคุณจะข้ามสิ่งอื่นทั้งหมดไป แต่ก็เป็นเรื่องสำคัญ)

เข้าร่วมผู้นำเทคโนโลยีกว่า 35,000 คนและรับข้อมูลเชิงลึกเกี่ยวกับแนวคิดที่สำคัญที่สุดใน AI ส่งตรงถึงกล่องจดหมายของคุณผ่านจดหมายข่าวฟรีของฉัน - AI Made Simple

อคติของมนุษย์-

ก่อนอื่น เรามาดูอคติในสมองของมนุษย์และวิธีการทำงานของมันกันก่อน เมื่อเราพิจารณาอคติในมนุษย์ มีบางสิ่งที่โดดเด่น-

  1. สถาปัตยกรรม-อคติในมนุษย์เกิดขึ้นเพราะนั่นคือวิธีการออกแบบร่างกาย/สมองของเรา อคติของมนุษย์เป็นลักษณะอย่างหนึ่งไม่ใช่แมลง และจะยังคงดำรงอยู่ต่อไปตราบเท่าที่เรายังมีชีวิตอยู่ (อคตินี้ขยายไปไกลกว่าแค่มนุษย์ และเป็นลักษณะเด่นของชีวิตส่วนใหญ่) แม้ว่าอคติของมนุษย์มักถูกมองว่าเป็นสิ่งเล็กๆ น้อยๆ ที่สกปรก แต่ก็เป็นปรากฏการณ์ที่เป็นกลางทางศีลธรรม มันเป็นส่วน (สำคัญ) ของการวิวัฒนาการของชีวิต
  2. สาเหตุของอคติ-อคติมีอยู่เพราะมันช่วยให้สมองของเราประหยัดพลังงานและตัดสินใจได้เร็วขึ้น นั่นคือทั้งหมดที่พวกเขาทำ (ดูระบบ 1 และระบบ 2 จากหนังสือมหัศจรรย์เรื่อง Thinking Fast and Slow) หากไม่มีอคติ จิตใจของเราจะถูกครอบงำเมื่อมองข้อมูล/สิ่งเร้าทั้งหมดเป็นสิ่งใหม่ และทำให้พลังงานจิตของเราหมดเร็ว มีอคติบางประเภทที่มีผลกระทบด้านลบ เช่น อคติทางเชื้อชาติ อคติทางเพศ ฯลฯ แต่ปรากฏการณ์หนึ่งคือ อคตินั้นไม่ดีหรือไม่ดี

การอภิปรายมากมายเกี่ยวกับอคติของมนุษย์ดูเหมือนจะมองข้ามความแตกต่างนี้ อคติของเราโดยรวมไม่มีปัญหาแต่อย่างใด ในทางกลับกัน พวกมันมีบทบาทสำคัญ โดยเฉพาะอย่างยิ่งในโลกที่เต็มไปด้วยเนื้อหา 'นวนิยาย' เช่นเดียวกับเรา

เมื่อพูดถึงการแก้ไขอคติของมนุษย์ ถือเป็นการต่อสู้ที่พ่ายแพ้ ด้วยการออกแบบของเรา เรามักจะลำเอียงอยู่เสมอ เราต้องแยกความแตกต่างระหว่างอคติที่เป็นอันตราย (เชื้อชาติ สังคม ฯลฯ) และอคติที่ไม่เป็นพิษเป็นภัย (แนวโน้มของฉันที่จะกินไอศกรีมดาร์กช็อกโกแลตมิ้นต์มากกว่าวานิลลา) เมื่อพ้นจากภูมิหลังดังกล่าวแล้ว ตอนนี้เรามาสำรวจอคติในระบบที่ใช้ Machine Learning กันดีกว่า

AI (การเรียนรู้ของเครื่องโดยเฉพาะ) อคติ-

อีกครั้งหนึ่ง จุดสนใจในที่นี้จะอยู่ที่ว่าอคติคืบคลานเข้ามาในระบบที่ใช้ Machine Learning อย่างไร แม้ว่าแนวคิดที่กล่าวถึงจะส่งต่อไปยัง 'AI' ทั่วไป แต่ปัญญาประดิษฐ์เป็นสาขาที่กว้างมาก ดังนั้นการสร้างข้อความแบบครอบคลุมที่มีความหมายจึงยากกว่ามาก เพื่อไม่ให้เป็นเช่นนั้น เรามาดูประเด็นหลักของส่วนนี้กันดีกว่า

ขั้นแรก เรามานิยามอคติใน Machine Learning กันก่อน ขึ้นอยู่กับวิธีการใช้อาจเป็นได้ 2 อย่างคือ

  1. ทำนายผิดแค่ไหน.. นี่คือคำจำกัดความที่เราเห็นใช้ในการสนทนาเกี่ยวกับการแลกเปลี่ยนระหว่างความแปรปรวนและอคติ ซึ่งเราได้กล่าวถึงในวิดีโอนี้
  2. ไม่ว่าแบบจำลองจะเข้ารหัสอคติของมนุษย์หรือไม่ หากแบบจำลองลดความน่าเชื่อถือทางเครดิตของผู้สมัครเนื่องจากเชื้อชาติ โมเดลนั้นจะทำเช่นนั้นด้วยเหตุผลที่ถูกต้องในอดีต แต่จะนำไปสู่ผลลัพธ์ที่ไม่พึงประสงค์ นี่อาจดูเหมือนเป็นตัวอย่างที่ไร้สาระ แต่มันก็เกิดขึ้น (ทางอ้อม) สถานะทางเชื้อชาติ/สังคม-เศรษฐกิจถูกเข้ารหัสอย่างหนักเป็นคุณลักษณะต่างๆ ที่ใช้ในโมเดลการทำนายต่างๆ จากนั้นโมเดลจะลงโทษบุคคลที่อาจมีคุณลักษณะเหล่านี้ร่วมกันอย่างไม่ยุติธรรม ซึ่งทำให้เกิดความไม่เท่าเทียมที่ผู้มีอำนาจตัดสินใจโดยอัตโนมัติได้รับการโน้มน้าวให้หลีกเลี่ยง

อคติประเภทหลังนำไปสู่กรณีที่น่าสนใจมาก บางครั้งเราจำเป็นต้องมีอคติ (ประเภทแรก) เพื่อต่อสู้กับอคติประเภทที่สอง เมื่อต้องรับมือกับตัวแทนที่มีความละเอียดอ่อนและเปลี่ยนแปลงชีวิต เช่น เครื่องตรวจสอบคะแนนเครดิต การวิเคราะห์ด้านการดูแลสุขภาพ และการตรวจหาโรค การฉีดข้อผิดพลาดลงในแบบจำลองของคุณอาจเป็นประโยชน์ เพื่อที่จะได้ไม่เรียนรู้อคติในข้อมูลของคุณอย่างใกล้ชิดเกินไป (2 รายการสุดท้าย กรณีที่ฉันพูดจากประสบการณ์ส่วนตัว) อีกนัยหนึ่ง อคติต่อสู้กับอคติ ด้วยการใช้ประโยชน์จากเทคนิคต่างๆ เช่น การเพิ่มข้อมูล เราจึงห่างไกลจากการกระจายข้อมูลที่บันทึกไว้ (ซึ่งมี "อคติ" มากกว่า) แต่มีระบบที่มีอคติน้อยกว่า

แอปพลิเคชันประมวลผลภาษาธรรมชาติที่พึ่งพาโมเดลภาษาขนาดใหญ่ที่ได้รับการฝึกบน คลังขนาดเว็บที่มีอคติภายใน ได้ขยายความสำคัญของเมตริกและขั้นตอนความยุติธรรมที่แม่นยำสำหรับการสร้างแบบจำลองที่มีประสิทธิภาพมากขึ้น...เราขอเสนอการแก้ไขสองประการใน การกลั่นกรองความรู้พื้นฐานโดยอาศัยการกลับบทบาทที่ขัดแย้งกับข้อเท็จจริง — การปรับเปลี่ยนความน่าจะเป็นของครูและเพิ่มชุดการฝึกอบรม

- Amazon มีงานวิจัยที่ยอดเยี่ยมเกี่ยวกับการต่อสู้กับอคติในชุดข้อมูลและทำให้ Alexa มีความยุติธรรมมากขึ้น ฉันทำลายมันลงที่นี่

นี่เป็นหนึ่งในแง่มุมของอคติที่ทำให้จัดการได้ยาก เป็นเรื่องง่ายที่จะรวมอคติที่เกิดจากตัวทำนายที่อ่อนแอ (อคติที่ซ่อนอยู่ในแบบจำลองของคุณ) เข้ากับอคติจากปัญหาเชิงระบบ (อคติที่ซ่อนอยู่ในข้อมูลของคุณ) ปัญหานี้มักเกิดขึ้นในทีม Machine Learning เนื่องจากทีม ML จำนวนมากขับเคลื่อนด้วยการวัดผลอย่างมาก โดยแทบไม่เน้นไปที่บริบทที่จะใช้ไปป์ไลน์ของตน สิ่งนี้นำไปสู่กรณีที่ทีมมุ่งเน้นไปที่การได้คะแนนสูงในเกณฑ์มาตรฐานมากกว่าการสร้างโซลูชันที่มีความหมาย ผลลัพธ์ที่ได้คือคะแนน ML ที่ยอดเยี่ยม ประสิทธิภาพที่ยอดเยี่ยมสำหรับคนทั่วไป และเพิ่มความโดดเดี่ยวให้กับคนนอกสังคม เฉพาะครั้งนี้เท่านั้น ปัญหานี้ลึกซึ้งกว่านโยบายลัทธิแบ่งแยกดินแดนที่สร้างความเหลื่อมล้ำโดยเฉพาะตั้งแต่แรกมาก

ด้วยความเดียวดายอันยาวนานเกี่ยวกับอคติในที่สุดเรามาดูคุณสมบัติที่สำคัญบางประการของอคติในระบบ ML-

  1. ต้นทุนส่วนใหญ่จะคงที่-อคติในระบบ ML ไม่เหมือนกับอคติของมนุษย์ เนื่องจากไม่ได้ประหยัดพลังงานอีกต่อไป ข้อมูลยังคงถูกประมวลผลผ่านเซลล์ประสาททั้งหมด ฯลฯ
  2. จากสมาคมทางสถิติ-อคติในระบบ AI ที่ใช้การเรียนรู้ของเครื่องเกิดขึ้นเนื่องจากผู้ทำนายเรียนรู้รูปแบบทางสถิติบางประเภทที่แสดงอคตินี้ อคติประเภท 1 เกิดขึ้นเมื่อรูปแบบซับซ้อนเกินไปสำหรับตัวทำนายของเรา อคติประเภท 2 เกิดขึ้นเมื่อโมเดลเรียนรู้อคติที่เข้ารหัสในข้อมูล มันไม่มีอยู่ในโมเดล AI นั่นเอง

การอ่านหัวข้อนี้เป็นอย่างดีถือเป็นผลงานที่ยอดเยี่ยม - การขจัดอคติใน AI/ML (ผู้เขียน Michael ค่อนข้างตรงประเด็นในบทความทั้งหมด) จากการเขียนมี 2 ย่อหน้าที่ฉันพบว่าตรงประเด็นโดยเฉพาะ -

เมื่อพูดถึงการระบุอคติใน Machine Learning ขั้นตอนแรกคือการระบุอคติที่เรากำลังเผชิญอยู่ เรากำลังดูอคติเนื่องจากจุดอ่อนในแบบจำลอง หรือจุดอ่อนในระบบที่เรากำลังทดลองอยู่หรือไม่? นี่เป็นขั้นตอนที่สำคัญมากและเป็นขั้นตอนที่มักถูกมองข้ามในการสร้างโซลูชัน AI ในปัจจุบัน การไม่เข้าใจอคติและความแตกต่างที่แตกต่างกันจะนำไปสู่การพัฒนาโซลูชันที่ฟังดูเป็นความคิดที่ดี จนกว่าคุณจะเริ่มคิดถึงผลกระทบที่ลึกซึ้งยิ่งขึ้นของผลิตภัณฑ์เหล่านั้น

ใช้ GPT ที่ได้รับความนิยมอย่างมากสำหรับโปรไฟล์ LinkedIn การเขียนเรซูเม่/จดหมายสมัครงาน การจ้างงาน และการประเมินผลพนักงานที่มีอยู่ทั่วไปในตลาด ฉันได้พูดคุยกับกลุ่มสองสามกลุ่มที่กำลังสร้างหรือจะซื้อโซลูชันดังกล่าว (การสนทนาเหล่านี้เป็นเหตุผลสำคัญที่ฉันเขียนสิ่งนี้) ระบบเหล่านี้ทำงานได้ดีกับการทดสอบ แต่มีข้อบกพร่องใหญ่ GPT คือคนผิวขาว คนอเมริกัน เป็นโรคประสาท และคนมีฐานะ (ส่วนใหญ่) การใช้ระบบเหล่านี้เพื่อให้คะแนนและตัดสินมนุษย์จริงๆ ถือเป็นวิธีที่บิดเบือนอย่างมากในการบังคับให้พวกเขาปฏิบัติตามมาตรฐานเหล่านี้ การควบคุมคำพูดของใครบางคนเป็นก้าวแรกที่ดีในการควบคุมความคิดของพวกเขา เครื่องมือการจ้างงานที่ 'ชาญฉลาด' เหล่านี้มีความคร่ำครึ อยู่ในอาณานิคม (ฉันไม่ได้ใช้คำนี้แบบเบา ๆ ) และแยกออกจากกันมาก สิ่งนี้จะไม่แสดงในเกณฑ์มาตรฐาน ML เนื่องจากการทดสอบ 'มืออาชีพ' ส่วนใหญ่ประสบปัญหาเดียวกัน ใช้สิ่งนี้กับสถานที่ทำงานที่หลากหลาย แล้วคุณจะเห็นผลลัพธ์ที่เลวร้าย

ผลที่ตามมาของสิ่งนี้จะทำให้มีการเสียดสีอย่างมาก -

  1. เครื่องมือเหล่านี้จะแยกคนที่ไม่สามารถเข้ากับแบบพิมพ์ได้ดีพอ และทำให้องค์กรเต็มไปด้วยคนที่คล้ายคลึงกันเป็นส่วนใหญ่
  2. ในที่สุด ผู้คนจะสังเกตเห็นการขาดความหลากหลายในองค์กรเหล่านี้ และผู้บริหารระดับสูงจะตอบสนองผ่านโปรแกรมการจ้างงานระดับเริ่มต้นแบบโทเค็น
  3. คนระดับเริ่มต้นจะต้องดิ้นรนเพื่อให้เข้ากับสภาพแวดล้อมที่เป็นเนื้อเดียวกันขององค์กรนี้ ซึ่งนำไปสู่ประสิทธิภาพที่แย่ลง พนักงานที่สูงขึ้น การเลิกจ้าง เป็นต้น
  4. องค์กรต่างๆ จะจ้างนักวิทยาศาสตร์ข้อมูลภาคพื้นดิน "คนวงใน" (เช่นฉัน) ซึ่งส่วนใหญ่เป็นระบบประสาทหรือบางส่วนเพื่อวิเคราะห์ข้อมูลภายในของตน ซึ่งจะนำไปสู่การระบุ "พื้นที่ที่มีปัญหา" เหล่านี้
  5. อคติได้รับการเสริมแรง ทำให้กระบวนการนี้มีความพิเศษมากยิ่งขึ้น

ส่วนที่แย่ที่สุดเกี่ยวกับเรื่องนี้ก็คือ เนื่องจากกลุ่ม 'แตกต่าง' ได้รับการว่าจ้างในระดับเริ่มต้น/ระดับล่าง คนส่วนใหญ่จึงไม่มีโอกาสที่จะก้าวขึ้นสู่ระดับผู้นำระดับสูง ซึ่งอาจส่งผลต่อการเปลี่ยนแปลงทางวัฒนธรรมได้

หากคุณไม่ได้นำสิ่งใดไปจากงานชิ้นนี้ เพียงจำไว้ว่าเครื่องมือการจ้างงานเหล่านี้ไม่ปลอดภัยเกินกว่าจะใช้ได้ ตั้งแต่ฉันเริ่มเขียน ฉันพยายามทำให้งานของฉันเป็นกลางและเป็นกลางเป็นหลัก นี่เป็นหนึ่งในไม่กี่ครั้งที่ฉันจะไม่ทำอย่างนั้น AI Doomers มีความถูกต้องเกี่ยวกับความเสี่ยงระดับสังคมของเครื่องมือเหล่านี้ ไม่ใช่ในแบบที่คนส่วนใหญ่กล่าวอ้าง เครื่องมือ AI เหล่านี้จะไม่ระบุบุคคลที่เป็นคนผิวสี/เกย์/คนข้ามเพศ/ประสาทแตกต่าง และปฏิเสธพวกเขา พวกเขาจะบังคับคนจากกลุ่มภายนอกให้สวมหน้ากากและมีส่วนร่วมตราบใดที่พวกเขามีส่วนร่วมกับองค์กรเหล่านี้

ฉันจะจบเรื่องนี้ตรงนี้ และเช่นเคย หากคุณไม่เห็นด้วยหรือคิดว่าฉันเข้าใจอะไรผิด โปรดแจ้งให้เราทราบ ฉันยินดีรับฟังการอภิปรายเสมอ โดยเฉพาะประเด็นสำคัญเช่นนี้ ลิงก์ของฉันอยู่ที่ส่วนท้ายหากคุณต้องการส่งข้อความถึงฉัน

เท่านั้นแหละสำหรับชิ้นนี้ ฉันขอขอบคุณเวลาของคุณ และเช่นเคย หากคุณสนใจที่จะร่วมงานกับฉันหรือดูงานอื่นๆ ของฉัน ลิงก์ของฉันจะอยู่ที่ท้ายอีเมล/โพสต์นี้ ถ้าคุณชอบงานเขียนของฉัน ฉันจะขอบคุณมากสำหรับคำรับรองที่ไม่เปิดเผยตัวตน คุณสามารถวางมันได้ที่นี่ และหากคุณพบคุณค่าในบทความนี้ ฉันขอขอบคุณที่คุณแบ่งปันข้อมูลนี้กับผู้คนจำนวนมากขึ้น การแนะนำแบบปากต่อปากเช่นเดียวกับคุณที่ช่วยให้ฉันเติบโต

ประหยัดเวลา พลังงาน และเงินที่คุณจะเสียไปโดยดูวิดีโอ หลักสูตร ผลิตภัณฑ์ และ 'โค้ช' ทั้งหมดเหล่านั้น และค้นหาความต้องการทั้งหมดของคุณได้อย่างง่ายดายในที่เดียวที่ 'เทคโนโลยีทำง่าย'! ก้าวนำหน้าใน AI วิศวกรรมซอฟต์แวร์ และอุตสาหกรรมเทคโนโลยีด้วยข้อมูลเชิงลึก เคล็ดลับ และแหล่งข้อมูลจากผู้เชี่ยวชาญ ส่วนลด 20% สำหรับสมาชิกใหม่โดยคลิกลิงก์นี้ สมัครตอนนี้และทำให้การเดินทางด้านเทคโนโลยีของคุณง่ายขึ้น!

การใช้ส่วนลดนี้จะลดราคา-

800 INR (10 USD) → 640 INR (8 USD) ต่อเดือน

8000 INR (100 USD) → 6400INR (80 USD) ต่อปี (533 INR /เดือน)

รับส่วนลด 20% นาน 1 ปี

เอื้อมมือออกไปหาฉัน

ใช้ลิงก์ด้านล่างเพื่อดูเนื้อหาอื่นๆ ของฉัน เรียนรู้เพิ่มเติมเกี่ยวกับการสอน ติดต่อฉันเกี่ยวกับโปรเจ็กต์ หรือเพียงแค่ทักทาย

ตัวอย่างเล็กๆ น้อยๆ เกี่ยวกับเทคโนโลยี AI และการเรียนรู้ของเครื่องที่นี่

จดหมายข่าว AI- https://artificialintelligencemadesimple.substack.com/

จดหมายข่าวเทคโนโลยีที่คุณยายของฉันชื่นชอบ - https://codinginterviewsmadesimple.substack.com/

ตรวจสอบบทความอื่น ๆ ของฉันเกี่ยวกับสื่อ : https://rb.gy/zn1aiu

YouTube ของฉัน: https://rb.gy/88iwdd

ติดต่อฉันทาง LinkedIn มาเชื่อมต่อกัน: https://rb.gy/m5ok2y

อินสตาแกรมของฉัน: https://rb.gy/gmvuy9

Twitter ของฉัน: https://twitter.com/Machine01776819