Skip to main content

AI ที่เป็นมิตรคืออะไร?

AI ที่เป็นมิตรเป็นคำที่ใช้โดยนักวิจัยปัญญาประดิษฐ์ (AI) เพื่ออ้างถึงระบบ AI ที่โดยทั่วไปดำเนินการที่เป็นประโยชน์ต่อมนุษยชาติมากกว่าเป็นกลางหรือเป็นอันตรายนี่ไม่ได้หมายถึงการเชื่อฟังคนตาบอด - ในทางตรงกันข้ามคำนี้ใช้เพื่ออธิบายระบบ AI ที่เป็นมิตรเพราะพวกเขาต้องการไม่ใช่เพราะกำลังที่กำหนดไว้ภายนอกนอกเหนือจากการอ้างถึงระบบที่เสร็จสมบูรณ์แล้ว AI ที่เป็นมิตรยังเป็นชื่อของวินัยทางทฤษฎีและวิศวกรรมที่จะใช้ในการสร้างระบบดังกล่าวได้สำเร็จ

คำว่า AI ที่เป็นมิตรที่เป็นมิตรกับ Eliezer Yudkowsky ของสถาบันเอกพจน์สำหรับปัญญาประดิษฐ์คือการสร้าง AI ที่เป็นมิตรมากพอที่จะปรับปรุงในซอร์สโค้ดของตัวเองโดยไม่ต้องแทรกแซงโปรแกรมเมอร์งานยาวหนังสือของเขาในหัวข้อการสร้าง AI ที่เป็นมิตรซึ่งตีพิมพ์ออนไลน์ในปี 2544 อาจเป็นการรักษาหัวข้อที่เข้มงวดเป็นครั้งแรกทุกที่Yudkowsky เรียกร้องข้อโต้แย้งจากจิตวิทยาวิวัฒนาการและวิทยาศาสตร์การรู้ความเข้าใจอื่น ๆ เพื่อสนับสนุนวิธีการของเขาในการแก้ไขปัญหาของ AI ที่เป็นมิตร

AI ที่เป็นมิตรถือเป็นความสำคัญว่าเป็นวินัยทางวิชาการเพราะความพยายามในอดีตที่จะตอบปัญหาของ Rogue AI โดยทั่วไปผูกพันกับการล่มสลายภายใต้การตีความทางเลือกเมื่อ AI ฉลาดกว่ามนุษย์หรือเพียงแค่เมื่อมันได้รับความสามารถในการทำซ้ำตัวเองมนุษย์ก็เป็นปัญหาใน AI เช่นกันเนื่องจากวิวัฒนาการสร้างสิ่งมีชีวิตที่มีแนวโน้มที่จะเห็นแก่ตัวนักคิดหลายคนคิดว่า AI ใด ๆ ที่เราสร้างจะมีแนวโน้มเหมือนกันไม่ว่าจะในทันทีหรือหลังจากกลายเป็นฉลาดพอ

วิวัฒนาการสร้างสิ่งมีชีวิตด้วยระบบเป้าหมายที่เน้นตัวเองเป็นศูนย์กลางเพราะไม่มีวิธีอื่นระบบเป้าหมายที่เห็นแก่ผู้อื่นใช้เวลาหลายล้านปีในการพัฒนาและทำเช่นนั้นภายใต้เงื่อนไขที่สมาชิกของชนเผ่าเดียวกันมีจำนวนมากที่จะได้รับโดยการช่วยเหลือซึ่งกันและกันและจำนวนมากที่จะสูญเสียโดยการละเลยที่จะทำเช่นนั้นแต่ถ้าเราออกแบบใจตั้งแต่เริ่มต้นเราสามารถสร้างมันได้โดยไม่ต้องมีระบบเป้าหมายที่เน้นตัวเองเป็นศูนย์กลางสิ่งนี้จะไม่ จำกัด AI - มันจะเป็นการสร้าง AI ที่ไม่เห็นแก่ตัวโดยธรรมชาติ

การสังเกตข้างต้นเป็นหนึ่งในหลาย ๆ ที่มีส่วนร่วมในสาขา AI ที่เป็นมิตรซึ่งเป็นเรื่องใหม่และยังต้องการงานมากนักวิจัย AI บางคนยืนยันว่าเราไม่สามารถกำหนดคุณสมบัติการออกแบบที่จำเป็นในการใช้ AI ที่เป็นมิตรจนกว่าเราจะมีระบบ AI ที่ฉลาดกว่าในการทดลองคนอื่น ๆ ยืนยันว่าวิธีการทางทฤษฎีอย่างหมดจดนั้นเป็นไปไม่ได้เท่านั้น แต่ยังมีความจำเป็นทางจริยธรรมก่อนที่จะเริ่มต้นความพยายามอย่างจริงจังที่ General Ai.