AI ที่เป็นมิตรคืออะไร

AI ที่ เป็น มิตร เป็นคำที่นักประดิษฐ์ประดิษฐ์ (AI) ใช้เพื่ออ้างถึงระบบ AI ที่โดยทั่วไปแล้วให้ดำเนินการที่เป็นประโยชน์ต่อมนุษยชาติมากกว่าเป็นกลางหรือเป็นอันตราย นี่ไม่ได้หมายถึงการเชื่อฟังคนตาบอด - ตรงกันข้ามคำนี้ใช้เพื่ออธิบายระบบ AI ที่เป็นมิตรเพราะพวกเขาต้องการที่จะเป็นไม่ใช่เพราะแรงที่กำหนดจากภายนอก นอกเหนือจากการอ้างถึงระบบที่เสร็จสมบูรณ์แล้ว AI ที่เป็นมิตรยังเป็นชื่อของวินัยเชิงทฤษฎีและวิศวกรรมที่จะใช้ในการสร้างระบบดังกล่าวได้สำเร็จ

คำว่า "Friendly AI" มีต้นกำเนิดมาจาก Eliezer Yudkowsky ของสถาบัน Singularity Institute สำหรับปัญญาประดิษฐ์ซึ่งมีเป้าหมายคือการสร้าง Friendly AI ที่ฉลาดพอที่จะพัฒนาบนซอร์สโค้ดของมันเองโดยไม่ต้องมีโปรแกรมแทรกแซง ผลงานที่มีความยาวหนังสือของเขาในหัวข้อ Creating Friendly AI ซึ่งตีพิมพ์ทางออนไลน์ในปี 2544 อาจเป็นหัวข้อแรกที่ได้รับการปฏิบัติอย่างจริงจังทุกที่ Yudkowsky ก่อให้เกิดข้อโต้แย้งจากจิตวิทยาวิวัฒนาการและวิทยาศาสตร์ความรู้อื่น ๆ เพื่อสนับสนุนแนวทางของเขาในการแก้ไขปัญหา AI ที่เป็นมิตร

AI ที่เป็นมิตรถือว่ามีความสำคัญในฐานะนักวิชาการเนื่องจากความพยายามในอดีตที่จะ "ตอบ" ปัญหาของการโกง AI มักจะเรียกใช้ข้อ จำกัด ทางการเขียนโปรแกรมที่เข้มงวดซึ่งถูกผูกไว้กับการล่มสลายภายใต้การตีความทางเลือกเมื่อ AI ฉลาดขึ้นกว่ามนุษย์ ความสามารถในการ reprogram ตัวเอง มานุษยวิทยาก็เป็นปัญหาเช่นกันใน AI เนื่องจากวิวัฒนาการสร้างสิ่งมีชีวิตที่มีแนวโน้มที่จะเห็นแก่ตัวนักคิดหลายคนคิดว่า AI ใด ๆ ที่เราสร้างจะมีแนวโน้มเดียวกันไม่ว่าจะทันทีหรือหลังจากฉลาดพอ

วิวัฒนาการสร้างสิ่งมีชีวิตด้วยระบบเป้าหมายที่เน้นตนเองเนื่องจากไม่มีวิธีอื่น ระบบเป้าหมายที่เห็นแก่ผู้อื่นใช้เวลาหลายล้านปีในการพัฒนาและทำเช่นนั้นภายใต้เงื่อนไขที่สมาชิกของเผ่าเดียวกันมีจำนวนมากที่จะได้รับจากการช่วยเหลือซึ่งกันและกันและมากเสียโดยไม่สนใจ แต่ถ้าเราต้องออกแบบจิตใจตั้งแต่เริ่มต้นเราสามารถสร้างมันขึ้นมาได้โดยไม่ต้องมีระบบเป้าหมายที่เน้นตนเอง นี่จะไม่ใช่ "การ จำกัด AI" - มันจะเป็นการสร้าง AI ที่ไม่เห็นแก่ตัวโดยธรรมชาติ

การสังเกตข้างต้นเป็นหนึ่งในหลาย ๆ สิ่งที่นำไปสู่การเป็นมิตรกับ AI ซึ่งเป็นสิ่งที่ใหม่มากและยังคงต้องการงานมาก นักวิจัย AI บางคนยืนยันว่าเราไม่สามารถกำหนดคุณสมบัติการออกแบบที่จำเป็นในการใช้งาน AI ที่เป็นมิตรจนกว่าเราจะมีระบบ AI ที่ชาญฉลาดกว่าที่จะทำการทดลอง บางคนแย้งว่าวิธีการทางทฤษฎีล้วนเป็นไปไม่ได้เท่านั้น แต่มีความจำเป็นทางจริยธรรมก่อนที่จะเริ่มต้นความพยายามอย่างจริงจังที่ AI ทั่วไป