ข้ามไปเนื้อหา

กฎของหุ่นยนต์

จากวิกิพีเดีย สารานุกรมเสรี

กฎของ หุ่นยนต์ เป็นชุดของกฎระเบียบ หรือหลักการ ซึ่งมีวัตถุประสงค์เพื่อเป็นบรรทัดฐานพฤติกรรมของ หุ่นยนต์ ที่ออกแบบมาเพื่อให้มีระดับ ความเป็นอิสระ ในปัจจุบัน เรายังไม่มีหุ่นยนต์ที่มีความซับซ้อนระดับนี้ แต่พวกมันได้รับการคาดหมายอย่างกว้างขวางใน นิยายวิทยาศาสตร์ ภาพยนตร์ และเป็นหัวข้อของ การวิจัยและพัฒนา ในสาขา หุ่นยนต์ และ ปัญญาประดิษฐ์

ชุดของกฎหุ่นยนต์ที่รู้จักกันดีที่สุดคือชุด ที่เขียน โดย ไอแซค อสิมอฟ ในทศวรรษที่ 1940 แต่นักกฎหมายชุดอื่น ๆ ได้ถูกเสนอโดยนักวิจัยในทศวรรษตั้งแต่นั้นมา

ไอแซค อสิมอฟ กับเรื่อง "กฎ 3 ข้อของหุ่นยนต์"[แก้]

ชุดของกฎที่รู้จักกันดีที่สุดคือ "กฎ 3 ข้อของหุ่นยนต์" ของ ไอแซค อซิมอฟ สิ่งเหล่านี้ถูกนำมาใช้ในเรื่องสั้นของเขาในปี 2485 เรื่อง "Runaround" แม้ว่าพวกเขาจะคาดเดาได้ในสองสามเรื่องก่อนหน้านี้ กฎหมายสามข้อคือ:

  1. หุ่นยนต์มิอาจกระทำการอันตรายต่อผู้ที่เป็นมนุษย์ หรือนิ่งเฉยปล่อยให้ผู้ที่เป็นมนุษย์ตกอยู่ในอันตรายได้
  2. หุ่นยนต์ต้องเชื่อฟังคำสั่งที่ได้รับจากผู้ที่เป็นมนุษย์ เว้นแต่คำสั่งนั้นๆ ขัดแย้งกับกฎข้อแรก
  3. หุ่นยนต์ต้องปกป้องสถานะความมีตัวตนของตนไว้ ตราบเท่าที่การกระทำนั้นมิได้ขัดแย้งต่อกฎข้อแรกหรือกฎข้อที่สอง[1]

ในตอนท้ายของหนังสือ สถาบันสถาปนาและโลก กฏข้อที่ศูนย์ก็ได้แต่งตั้งขึ้นมา

0. หุ่นยนต์มิอาจกระทำการอันตรายต่อมนุษยชาติ หรือนิ่งเฉยปล่อยให้มนุษยชาติตกอยู่ในอันตรายได้

หลักการหุ่นยนต์ของ EPSRC / AHRC[แก้]

ในปี 2011 สภาวิจัยวิศวกรรมและวิทยาศาสตร์กายภาพ (EPSRC) และ สภาวิจัยศิลปะและมนุษยศาสตร์ (AHRC) แห่ง บริเตนใหญ่ ได้ร่วมกันตีพิมพ์ชุดของหลักการ "จริยธรรมสำหรับนักออกแบบผู้สร้างและผู้ใช้หุ่นยนต์" ใน โลกแห่งความจริง และ "ข้อความระดับสูง" ตั้งใจจะถ่ายทอดตามการประชุมเชิงปฏิบัติการวิจัยเดือนกันยายน 2010:[2][3][4]

  1. หุ่นยนต์ไม่ควรถูกออกแบบมาเพื่อฆ่าหรือทำร้ายมนุษย์
  2. มนุษย์จะต้องเป็นตัวแทนในการรับผิดชอบ ไม่ใช่หุ่นยนต์ และหุ่นยนต์เป็นเครื่องมือที่ออกแบบมาเพื่อให้บรรลุเป้าหมายของมนุษย์
  3. หุ่นยนต์ควรได้รับการออกแบบในรูปแบบที่รับประกันความปลอดภัย
  4. หุ่นยนต์เป็นสิ่งประดิษฐ์ พวกเขาไม่ควรออกแบบมาเพื่อใช้ประโยชน์จากผู้ใช้ที่มีช่องโหว่โดยการตอบสนองต่ออารมณ์หรือการพึ่งพา มันควรจะมีทางที่เป็นไปได้ในการแยกหุ่นยนต์จากมนุษย์
  5. เป็นไปได้เสมอที่จะพบว่าใครเป็นผู้รับผิดชอบหุ่นยนต์ตามกฎหมาย

ข้อความที่ตั้งใจจะสื่อคือ:

  1. เราเชื่อว่าหุ่นยนต์มีศักยภาพที่จะสร้างผลกระทบเชิงบวกอย่างใหญ่หลวงต่อสังคม เราต้องการสนับสนุนการวิจัยหุ่นยนต์ที่มีมนุษย์ในการรับผิดชอบ
  2. การปฏิบัติที่ไม่ดีทำร้ายเราทุกคน
  3. การแก้ไขข้อกังวลสาธารณะที่ชัดเจน จะช่วยให้เราทุกคนก้าวหน้า
  4. เป็นสิ่งสำคัญที่จะต้องแสดงให้เห็นว่า เราในฐานะนักพัฒนาหุ่นยนต์ มุ่งมั่นที่จะปฏิบัติตามมาตรฐานที่ดีที่สุด เท่าที่จะเป็นไปได้
  5. เพื่อทำความเข้าใจบริบทและผลที่ตามมาของการวิจัยของเรา เราควรทำงานร่วมกับผู้เชี่ยวชาญจากสาขาวิชาอื่น ๆ ประกอบไปด้วย: สังคมศาสตร์ กฎหมาย ปรัชญา และศิลปะ
  6. เราควรพิจารณาจริยธรรมของความโปร่งใส: มีข้อจำกัดอะไรบ้างที่ควรเปิดเผย?
  7. เมื่อเราเห็นสิ่งที่ผิดพลาด เรามุ่งมั่นที่จะให้เวลาในการติดต่อกับนักข่าว

หลักการของ EPSRC ได้รับการยอมรับอย่างกว้างขวางว่าเป็นจุดเริ่มต้นที่ดี ในปี 2559 โทนี่ เพรสคอตต์ จัดประชุมเชิงปฏิบัติการเพื่อทบทวนหลักการเหล่านี้ เช่น เพื่อแยกความแตกต่างทางจริยธรรมจากหลักการทางกฎหมาย[5]

การพัฒนาทางฝ่ายตุลาการ และ ศาลยุติธรรม[แก้]

การประมวลคำศัพท์ที่ครอบคลุมสำหรับการประเมินทางกฎหมาย ของการพัฒนาเทคโนโลยีในอุตสาหกรรมหุ่นยนต์ได้เริ่มขึ้นแล้ว และส่วนใหญ่อยู่ในแถบประเทศแถบเอเชีย [6] ความคืบหน้านี้แสดงให้เห็นถึงการตีความกฎหมายร่วมสมัย (และจริยธรรม) ในสาขาหุ่นยนต์ การตีความที่ถือว่าเป็นการพิจารณากลุ่มทางกฎหมายแบบดั้งเดิม สิ่งเหล่านี้รวมถึงประเด็นความรับผิดทางกฎหมาย เป็นหลักในกฎหมายแพ่งและอาญา

กฎของ Satya Nadella[แก้]

ในเดือนมิถุนายน 2559 Satya Nadella ซีอีโอของ ไมโครซอฟท์ ในเวลานั้นได้สัมภาษณ์นิตยสาร Slate และร่างคร่าว ๆ เกี่ยวกับ ห้ากฎสำหรับผู้ที่มี และครอบครองปัญญาประดิษฐ์ (A.I.):[7][8]

  1. "A.I. ต้องได้รับการออกแบบมาเพื่อช่วยเหลือมนุษยชาติ" หมายถึงความเคารพต่อความเป็นอิสระของมนุษย์
  2. "A.I. ต้องมีความโปร่งใส" หมายถึงมนุษย์ควรรู้และสามารถเข้าใจวิธีการทำงานของมัน
  3. "A.I. จะต้องมีประสิทธิภาพสูงสุด โดยไม่ทำลายศักดิ์ศรีของผู้คน"
  4. "A.I. ต้องได้รับการออกแบบเพื่อความเป็นส่วนตัวที่ชาญฉลาด" ซึ่งหมายความว่าจะได้รับความไว้วางใจจากการปกป้องข้อมูลของพวกเขา
  5. "A.I. จะต้องมีความรับผิดชอบอัลกอริทึม เพื่อให้มนุษย์สามารถยกเลิกการกระทำ ที่เป็นอันตรายโดยที่ไม่ได้ตั้งใจ"
  6. "A.I. จะต้องป้องกันความลำเอียง" เพื่อที่พวกเขาจะต้องไม่เลือกปฏิบัติต่อผู้คน

กฎแห่งวิทยาการหุ่นยนต์ ของ มาร์ค ทิลเดน[แก้]

มาร์ค ทิลเดน เป็นนักฟิสิกส์หุ่นยนต์ที่เป็นผู้บุกเบิกในการพัฒนาหุ่นยนต์อย่างง่าย[9] หลักการ / กฎสามข้อสำหรับหุ่นยนต์คือ:[9][10][11]

  1. หุ่นยนต์ต้องปกป้องการดำรงอยู่ของมันอย่างเต็มกำลัง
  2. หุ่นยนต์ต้องเสาะแสวงหาและปกปักษ์รักษาแหล่งพลังงานของมัน
  3. หุ่นยนต์เสาะแสวงหาแหล่งพลังงานที่ดีกว่าเดิมอยู่เสมอ

ความโดดเด่นของกฎดังกล่าวอาจมองว่าเป็นกฎของสัตว์ป่า โดยสาระสำคัญที่ทิวเดนพยายามจะสื่อคือ "การสร้างเผ่าพันธุ์ใหม่จากซิลิกอน ซึ่ง ไม่ใช่พืช ไม่ใช่สัตว์ แต่เป็นอย่างอื่นนอกเหนือจากนั้น"[12]

ดูเพิ่ม[แก้]

อ้างอิง[แก้]

  1. Asimov, Isaac (1950). I, Robot.
  2. Stewart, Jon (2011-10-03). "Ready for the robot revolution?". BBC News. สืบค้นเมื่อ 2011-10-03.
  3. "Principles of robotics: Regulating Robots in the Real World". Engineering and Physical Sciences Research Council. สืบค้นเมื่อ 2011-10-03.
  4. Winfield, Alan. "Five roboethical principles – for humans". New Scientist. สืบค้นเมื่อ 2011-10-03.
  5. Müller, Vincent C. (2017). "Legal vs. ethical obligations – a comment on the EPSRC's principles for robotics". Connection Science. doi:10.1080/09540091.2016.1276516.
  6. bcc.co.uk: อายุหุ่นยนต์ทำให้เกิดภาวะที่กลืนไม่เข้าคายไม่ออก ลิงค์
  7. Nadella, Satya (2016-06-28). "The Partnership of the Future". Slate. ISSN 1091-2339. สืบค้นเมื่อ 2016-06-30.
  8. Vincent, James (2016-06-29). "Satya Nadella's rules for AI are more boring (and relevant) than Asimov's Three Laws". The Verge. Vox Media. สืบค้นเมื่อ 2016-06-30.
  9. 9.0 9.1 Hapgood, Fred (September 1994). "Chaotic Robotics". Wired. No. 2.09.
  10. Ashley Dunn. "Machine Intelligence, Part II: From Bumper Cars to Electronic Minds" The New York Times 5 June 1996. Retrieved 26 July 2009.
  11. makezine.com: คู่มือสำหรับผู้เริ่มต้นสู่ BEAM (บทความส่วนใหญ่เป็นเนื้อหาแบบสมัครสมาชิกเท่านั้น)
  12. Hapgood, Fred (September 1994). "Chaotic Robotics (continued)". Wired. No. 2.09.