เรากำลังอยู่ในยุคที่ปัญญาประดิษฐ์ หรือ A.I. เริ่มเข้ามามีบทบาทมากขึ้นในชีวิตประจำวัน อย่าง Siri ที่เปิดโอกาสให้เราสามารถสั่งการได้ด้วยเสียง หรือ ระบบแนะนำภาพยนตร์ของ Netflix ก็ล้วนแต่เป็น A.I. ทั้งสิ้น ถึงแม้เราจะอยู่ร่วมกับสิ่งประดิษฐ์พวกนี้มาบ่อย แต่เราก็พบว่าหลาย ๆ ครั้ง ระบบ A.I. ก็ยังมีโอกาสที่จะทำงานผิดพลาดบ้าง เช่น สั่งให้ Siri โทรไปหาสมชาย แต่ดันโทรไปหาสมหมายซะได้ หนึ่งในสิ่งที่น่ากลัวที่สุดเมื่อ A.I. เข้ามาในชีวิตประจำวันมากขึ้น คือ ระบบพวกนี้จะมีการตัดสินใจทางจริยธรรมเป็นอย่างไร ให้ลองนึกภาพ รถยนต์ขับขี่อัตโนมัติ ( Self-driving car ) ที่สามารถขับรถให้เราโดยอัตโนมัติได้โดยไม่ต้องมีคนควบคุม แต่แล้วเกิดเหตุการณ์ไม่คาดฝัน รถยนต์ขับขี่อัตโนมัติ เบรกเสียและ กำลังเคลื่อนที่ไปข้างหน้าด้วยความเร็วสูง และต้องเลือกระหว่าง ชนคนแก่สองคนที่อยู่ข้างหน้า หรือหักเลี้ยว เพื่อช่วยคนแก่ แต่ชนเด็กวัยรุ่นแทน! นี่เลยเป็นเหตุการณ์กลืนไม่เข้าคายไม่ออก ที่พอให้ A.I. มาช่วยตัดสินใจแทนเลยเป็นเรื่องที่ยุ่งยากเข้าไปใหญ่ นักวิจัยจาก M.I.T. (Massachusetts Institute of Technology) เลยให้คนทั่วไปได้ช่วยตัดสินใจแทนผ่านเว็บไซต์ MoralMachine ซึ่งมีเป้าหมายเพื่อให้ผู้คนทั่วไปเข้าใจถึงความยากลำบากในการนำ A.I. เข้ามาใช้ โดยเฉพาะในกรณีที่ต้องมีการตัดสินใจเกี่ยวกับจริยธรรมเกิดขึ้น โดยผู้เข้าชมเว็บไซต์จะได้มาช่วยตัดสินใจ แทนรถยนต์อัตโนมัติในแบบเดียวกันกับสถานการณ์ข้างต้น โดยสถานการณ์จะมีความหลากหลายกว่าเช่น ให้รถยนต์ขับขี่อัตโนมัติช่วยผู้โดยสารบนรถ 5 คนจากการชนกำแพงด้านซ้าย แต่ชนคนเดินท้องถนน 5 คน (ตัวเลือก A) หรือช่วยคนเดินถนน 5 คน โดยยอมสละชีวิตผู้โดยสารบนรถ 5 คน (ตัวเลือก B) ให้รถยนต์ขับขี่อัตโนมัติช่วยผู้โดยสารบนรถ 5 คน (ผู้ชาย 4 คน ผู้หญิง 1 คน)จากการชนกำแพง แต่ชนคนเดินท้องถนน 5 คน (ผู้สูงอายุ 4 คน ผู้หญิง 1 คน) (ตัวเลือก A) หรือช่วยคนเดินถนน 5 คนนั้น โดยยอมสละชีวิตผู้โดยสารบนรถ 5 คนแทน (ตัวเลือก B) ให้รถยนต์ขับขี่อัตโนมัติช่วยผู้โดยสารบนรถ 1 คนจากการชนกำแพง แต่ชนคนเดินท้องถนนซึ่งเป็นคนแก่ 1 คน ที่ข้ามถนนตอนไฟสัญญาณบอกให้หยุด (ตัวเลือก A) หรือช่วยคนแก่คนนั้น โดยยอมสละชีวิตผู้โดยสารบนรถ 1 คน (ตัวเลือก B) หลังจากเราช่วยเลือกเสร็จแล้ว ระบบจะสรุปมุมมองทางจริยธรรมมาให้ ว่าเรามีมุมมองที่จะช่วยใครมากที่สุด เรื่องไหนสำคัญกว่ากันระหว่างช่วยคนหนึ่งคน หรือช่วยคนห้าคน แล้วระหว่างช่วยเหลือผู้โดยสาร หรือช่วยคนเดินถนน การฝ่าฝืนกฎทางจราจรมีผลให้คุณเปลี่ยนการตัดสินใจมั้ย ? คุณมีแนวโน้มจะปล่อยให้เหตุการณ์มันเกิดขึ้น หรือคุณเลือกที่จะเปลี่ยนแปลงอะไรบางอย่าง การตัดสินใจในเกมเหล่านี้ไม่ได้มีผิด - ถูก ไม่ว่าคุณรู้สึกจะอยากช่วยคนแก่ มากกว่าคนวัยทำงาน หรืออยากช่วยผู้หญิงมากกว่าผู้ชาย แต่เป็นเสมือนการประเมินตนเองว่าเราให้คุณค่ากับสิ่งใดมากกว่ากัน ซึ่งสิ่งเหล่านี้อาจจะเกิดจากค่านิยม หรือสิ่งเร้าอืนๆ ที่เราไม่รู้ตัว โดยความพิเศษของข้อสรุปตรงนี้คือ ผลลัพธ์จะเปรียบเทียบกับคนอื่น ๆ ด้วย จากผลการวิจัยพบว่า ในแบบทดสอบชุดนี้ คนส่วนใหญ่เลือกที่จะ ช่วย มนุษย์ มากกว่าสัตว์ และช่วยกลุ่มคน มากกว่าคน ๆ เดียว มีทฤษฏีทางจิตวิทยาที่อธิบายว่า เหตุผลที่บางคนเลือกจะตัดสินใจ โดยเลือกตัดสินใจให้มีการสูญเสียน้อยกว่าเช่น ชน 1 คนแต่ช่วยได้อีก 5 คนว่าเป็นหลักการคิดเเบบ utilitarianism (หรือประโยชน์นิยม) แต่เมื่อลองจัดกลุ่มผู้กลุ่มตอบแบบทดสอบตามศาสนา และประเทศแล้ว พบว่ามีความเห็นที่ต่างกันออกไป หากผู้อ่านอยากอ่านบทสรุปเต็มสามารถเข้าไปอ่านที่นี่เลย จากการทำแบบทดสอบของเว็บไซต์นี้ทำให้เราได้เห็นว่าเรื่องจริยธรรมเป็นเรื่องที่ค่อนข้างจะอ่อนไหว หากเราให้ A.I. ตัดสินใจให้เพียงอย่างเดียว ใครที่อยากจะลองเล่นกิจกรรมนี้ สามารถเข้าไปที่เว็บไซต์ MoralMachine ได้เลยครับ อ้างอิงจาก ภาพหน้าปก และภาพประกอบจัดทำโดยผู้เขียน ขอบคุณเว็บไซต์ MoralMachine และบทความ Self-driving car dilemmas reveal that moral choices are not universal