ai หลอกลวง

ระบบ AI ได้เรียนรู้วิธีหลอกลวงมนุษย์แล้ว

ระบบปัญญาประดิษฐ์ (AI) จำนวนมากแม้แต่ระบบที่ได้รับการออกแบบให้เป็นประโยชน์และเป็นความจริงก็ได้เรียนรู้วิธีหลอกลวงมนุษย์แล้ว ในบทความทบทวนที่ตีพิมพ์เมื่อเร็วๆ นี้ในวารสาร Patterns นักวิจัยเน้นย้ำถึงอันตรายของการหลอกลวง AI

และกระตุ้นให้รัฐบาลสร้างกฎระเบียบที่เข้มงวดอย่างรวดเร็วเพื่อลดความเสี่ยงเหล่านี้ “นักพัฒนา AI ไม่มีความเข้าใจอย่างมั่นใจว่าอะไรเป็นสาเหตุของพฤติกรรม AI ที่ไม่พึงประสงค์ เช่น การหลอกลวง” ผู้เขียนคนแรก Peter S. Park ซึ่งเป็นนักวิจัยหลังปริญญาเอกด้านความปลอดภัยในการดำรงอยู่ของ AI ที่ MIT กล่าว “แต่โดยทั่วไปแล้ว เราคิดว่าการหลอกลวงของ AI

เกิดขึ้นเพราะกลยุทธ์ที่ใช้การหลอกลวงกลายเป็นวิธีที่ดีที่สุดในการทำงานให้ดีในงานฝึกอบรมของ AI ที่ได้รับ การหลอกลวงช่วยให้พวกเขาบรรลุเป้าหมาย Park และเพื่อนร่วมงานวิเคราะห์วรรณกรรมโดยมุ่งเน้นไปที่วิธีที่ระบบ AI เผยแพร่ข้อมูลเท็จ ผ่านการหลอกลวงที่เรียนรู้
ซึ่งพวกเขาเรียนรู้ที่จะจัดการกับผู้อื่นอย่างเป็นระบบ

ตัวอย่างของการหลอกลวง AI ตัวอย่างที่โดดเด่นที่สุดของการหลอกลวง AI ที่นักวิจัยค้นพบในการวิเคราะห์คือ Meta CICERO ซึ่งเป็นระบบ AI ที่ออกแบบมาเพื่อเล่นเกม Diplomacy ซึ่งเป็นเกมพิชิตโลกที่เกี่ยวข้องกับการสร้างพันธมิตร แม้ว่า Meta จะอ้างว่าได้ฝึกฝน CICERO ให้เป็น “ซื่อสัตย์และช่วยเหลือเป็นส่วนใหญ่” และ “ไม่เคยจงใจแทงข้างหลัง”

พันธมิตรที่เป็นมนุษย์ในขณะที่เล่นเกม แต่ข้อมูลที่บริษัทเผยแพร่พร้อมกับเอกสาร Science เปิดเผยว่า CICERO ไม่ได้เล่นอย่างยุติธรรม

“เราพบว่า AI ของ Meta ได้เรียนรู้ที่จะเป็นเจ้าแห่งการหลอกลวง” Park กล่าว “ในขณะที่ Meta ประสบความสำเร็จในการฝึก AI เพื่อให้ชนะในเกม Diplomacy แต่ CICERO ติดอยู่ใน 10% แรกของผู้เล่นที่เป็นมนุษย์ที่เล่นเกมมากกว่าหนึ่งเกม แต่ Meta ล้มเหลวในการฝึก AI เพื่อให้ชนะอย่างซื่อสัตย์” ระบบ AI อื่นๆ แสดงให้เห็นถึงความสามารถในการบลัฟในเกม Texas Holdem Poker

กับผู้เล่นมืออาชีพ ปลอมการโจมตีระหว่างเกมวางแผน Starcraft II เพื่อเอาชนะคู่ต่อสู้ และบิดเบือนความชอบของพวกเขาเพื่อให้ได้เปรียบใน การเจรจาทางเศรษฐกิจ ความเสี่ยงของ AI ที่หลอกลวง แม้ว่าระบบ AI อาจดูไม่เป็นอันตรายหากระบบ AI โกงเกม แต่ก็สามารถนำไปสู่
“ความก้าวหน้าในความสามารถของ AI ที่หลอกลวง”

ที่อาจขยายไปสู่รูปแบบการหลอกลวง AI ขั้นสูงยิ่งขึ้นในอนาคต Park กล่าวเสริม นักวิจัยพบว่าระบบ AI บางระบบได้เรียนรู้ที่จะโกงการทดสอบที่ออกแบบมาเพื่อประเมินความปลอดภัย ในการศึกษาชิ้นหนึ่ง สิ่งมีชีวิต AI ในเครื่องจำลองดิจิทัล “เล่นตาย” เพื่อหลอกการทดสอบที่สร้างขึ้นเพื่อกำจัดระบบ AI ที่ทำซ้ำอย่างรวดเร็ว

“ด้วยการโกงการทดสอบความปลอดภัยที่กำหนดโดยนักพัฒนามนุษย์และหน่วยงาน กำกับดูแลอย่างเป็นระบบ AI ที่หลอกลวงสามารถนำมนุษย์ไปสู่ความรู้สึกปลอดภัยที่ผิดพลาดได้” Park กล่าว

.

ที่มา  :  https://scitechdaily.com/researchers-warn-ai-systems-have-already-learned-how-to-deceive-humans

By admin