อาวุธ การเคลื่อนไหวที่เพิ่มขึ้นของนักวิทยาศาสตร์ ผลักดันไม่ให้มีการใช้หุ่นยนต์สังหาร หากคุณเป็นแฟนของภาพยนตร์แฟรนไชส์เรื่องเทอร์มิเนเตอร์ คุณคงเคยเห็นภาพอันน่ากลัวของสมรภูมิดิสโทเปียอันน่ากลัว ซึ่งเครื่องจักรที่ติดตั้งปัญญาประดิษฐ์มีอำนาจที่จะฆ่ามนุษย์ได้อย่างเสรี ในขณะที่อาวุธอัตโนมัติเต็มรูปแบบซึ่งเป็นคำศัพท์ทางเทคนิค สำหรับหุ่นยนต์สังหารนั้นยังไม่เกิดขึ้นจริง แต่ความก้าวหน้าอย่างรวดเร็วของวิทยาการหุ่นยนต์
รวมถึงปัญญาประดิษฐ์ทำให้กองทัพต้องตื่นตระหนกในสักวันหนึ่งในไม่ช้า โดยมีรถถังและเครื่องบินที่สามารถโจมตีได้โดยไม่มีมนุษย์คอยควบคุม ตามรายงานของศูนย์ความมั่นคงอเมริกันใหม่ในปี 2560 กว่า 30 ประเทศมีหรือกำลังพัฒนาเครื่องบินโดรนติด อาวุธ สำนักข่าวรัสเซีย TASS ยังรายงานในปี 2560 เกี่ยวกับการพัฒนาโมดูลการรบอัตโนมัติของประเทศนั้น รถถังหุ่นยนต์ที่สามารถใช้ปัญญาประดิษฐ์เพื่อระบุเป้าหมายและตัดสินใจได้
ในขณะที่นโยบายของสหรัฐฯ ในปัจจุบันออกกฎห้ามใช้อาวุธอิสระเต็มรูปแบบ เพนตากอนกำลังพัฒนาหุ่นยนต์ทางอากาศ และภาคพื้นดินที่จะปฏิบัติการเป็นฝูงตั้งแต่ 250 ตัวขึ้นไปทำหน้าที่ตรวจตราและทำหน้าที่อื่นๆ เพื่อสนับสนุนกองกำลังมนุษย์ และอ้างอิงจากเซาท์ไชน่ามอร์นิ่งโพสต์จีนกำลังทำงาน เพื่อพัฒนาเรือดำน้ำที่ติดตั้งปัญญาประดิษฐ์ ซึ่งจะช่วยผู้บัญชาการในการตัดสินใจทางยุทธวิธี อนาคตกำลังใกล้เข้ามาอย่างรวดเร็ว
ความเร่งรีบอย่างรวดเร็วในการทำให้สงครามเป็นไปโดยอัตโนมัติ ทำให้นักวิทยาศาสตร์ตื่นตระหนก และทั่วโลกมีความเคลื่อนไหวมากขึ้น ที่จะหยุดการพัฒนาอาวุธอัตโนมัติก่อนที่เทคโนโลยีจะมีโอกาสแพร่หลาย นักวิจัยและนักวิทยาศาสตร์ด้านปัญญาประดิษฐ์และวิทยาการหุ่นยนต์เกือบ 4,000 คนในสาขาอื่นๆ เช่น อีลอน มัสก์ ผู้ก่อตั้งสเปซเอ็กซ์และเทสลา สตีฟ วอซเนียกผู้ร่วมก่อตั้ง Apple และสตีเฟน ฮอว์คิง นักดาราศาสตร์ฟิสิกส์ผู้ล่วงลับไปแล้ว
ซึ่งได้ลงนามในจดหมายเปิดผนึกถึงชาวโลก เพื่อเรียกร้องให้มีการสั่งห้ามการกระทำที่ไม่เหมาะสม อาวุธอิสระที่อยู่นอกเหนือการควบคุมของมนุษย์ องค์กรต่างๆ เช่น รณรงค์หยุดหุ่นยนต์นักฆ่าได้กลายเป็นแกนนำมากขึ้น เกี่ยวกับความจำเป็นในการจำกัดเทคโนโลยีดังกล่าว เราอยู่ห่างออกไปเพียงไม่กี่ปี โทบี วอลช์ศาสตราจารย์ด้านปัญญาประดิษฐ์ของ Scientia แห่งมหาวิทยาลัยนิวเซาท์เวลส์ของออสเตรเลียเตือนในอีเมล ต้นแบบมีอยู่ในทุกขอบเขตของการต่อสู้ในอากาศ
รวมถึงบนพื้นดิน ในทะเลและใต้ทะเล วอลช์เข้ามามีส่วนร่วมในความพยายามนี้เมื่อหลายปีก่อน เมื่อเห็นได้ชัดว่าการแข่งขันด้านอาวุธเพื่อพัฒนาอาวุธดังกล่าวกำลังเริ่มต้นขึ้น และเรามีโอกาสที่จะป้องกันอนาคต ดิสโทเปียนที่ฮอลลีวูดมักจะนำเสนอ เมื่อเร็วๆนี้ Walsh และนักวิจัย AI คนอื่นๆใช้ความโดดเด่นในด้านนี้เพื่อกดดัน หลังจาก KAIST สถาบันวิทยาศาสตร์และเทคโนโลยีขั้นสูงของเกาหลี ซึ่งเป็นมหาวิทยาลัยวิจัยของเกาหลีใต้
ซึ่งได้เปิดตัวศูนย์ใหม่ที่อุทิศให้กับการบรรจบกันของ AI และการป้องกันประเทศ พวกเขาได้ส่งจดหมายเปิดผนึกถึงประธาน KAIST Sung-Chul Shin โดยขู่ว่าจะคว่ำบาตรเว้นแต่เขาจะให้การรับประกันว่าศูนย์จะไม่พัฒนาอาวุธอัตโนมัติเต็มรูปแบบ ที่ขาดการควบคุมโดยมนุษย์ ต่อมา Sung ได้ออกแถลงการณ์ยืนยันว่ามหาวิทยาลัยจะไม่พัฒนาอาวุธดังกล่าว ตามรายงานของ Times Higher Education ความคิดริเริ่มของสหประชาชาติ
ขบวนการหุ่นยนต์ต่อต้านนักฆ่ายังจับตาดูการพัฒนาในเจนีวาอย่างใกล้ชิด ซึ่งตัวแทนจากนานาประเทศมารวมตัวกัน ในการประชุมสหประชาชาติเมื่อเดือนเมษายน 2561 ว่าจะทำอย่างไรกับอาวุธไร้คนขับ ริชาร์ด มอยส์ กรรมการผู้จัดการของ Article-36 ซึ่งเป็นองค์กรควบคุมอาวุธในสหราชอาณาจักรกล่าวในอีเมลว่า อาวุธอิสระอาจกัดกร่อนกรอบกฎหมายที่ควบคุมการทำสงคราม ซึ่งขึ้นอยู่กับมนุษย์ในการตัดสินใจว่าการใช้กำลังนั้นถูกกฎหมายหรือไม่
สถานการณ์ที่กำหนดหากเครื่องจักรได้รับใบอนุญาตอย่างกว้างขวางในการโจมตี การประเมินทางกฎหมายของมนุษย์เหล่านั้น จะไม่ขึ้นอยู่กับความเข้าใจที่แท้จริงของสถานการณ์บนพื้นดินอีกต่อไป มอยส์ผู้ได้รับรางวัลโนเบลสาขาสันติภาพประจำปี 2560 จากผลงานการลดอาวุธนิวเคลียร์ นี่เป็นการเปิดทางสำหรับความขัดแย้ง ที่ลดทอนความเป็นมนุษย์อย่างแท้จริง สหรัฐฯ น่าจะสนับสนุนการห้ามใช้หุ่นยนต์นักฆ่า ในปี 2555 ฝ่ายบริหารของโอบามาออกคำสั่ง
ซึ่งทำเนียบขาวของทรัมป์เลือกที่จะดำเนินการต่อ โดยกำหนดให้เทคโนโลยีอาวุธอิสระควรได้รับการออกแบบ เพื่อให้ผู้บังคับบัญชาและผู้ปฏิบัติงานใช้วิจารณญาณของมนุษย์ ในระดับที่เหมาะสมต่อการใช้กำลัง คำสั่งดังกล่าวยังกำหนดให้มีการป้องกันเพื่อป้องกันอาวุธอัตโนมัติทำงานผิดปกติ และเปิดการโจมตีด้วยตัวมันเอง ผู้อำนวยการสำนักงานโครงการวิจัยขั้นสูงกลาโหม DARPA สตีเว่น วอล์กเกอร์กล่าวในเดือนมีนาคมว่าเขาสงสัยว่าสหรัฐฯจะยอมให้เครื่องจักรตัดสินใจ
ซึ่งเกี่ยวกับการใช้กำลังสังหารหรือไม่ ตามรายงานของ The Hill จาเร็ด อดัมส์ โฆษกของ DARPA ในอีเมลกล่าวว่าการวิจัยของหน่วยงาน แทนที่จะมุ่งเน้นไปที่การตรวจสอบวิธีการเพื่อให้แน่ใจว่าเทคโนโลยี จะปรับปรุงความสามารถของผู้ปฏิบัติงานที่เป็นมนุษย์ในการตัดสินใจอย่างรวดเร็ว ในช่วงเวลาที่สำคัญมากกว่าที่จะกัดกร่อนความสามารถนั้น มีความกังวลว่าการพึ่งพาระบบอัตโนมัติของผู้ปฏิบัติงานที่เป็นมนุษย์ อาจลดการรับรู้สถานการณ์ของพวกเขา
เมื่อพวกเขาจำเป็นต้องเรียกใช้ ปัญหาที่อดัมส์กล่าวว่าแสดงให้เห็นโดยเหตุการณ์เครื่องบินแอร์ฟรานซ์ 447 ตกในปี 2552 ด้วยเหตุผลนี้การวิจัยของ DARPA ที่เกี่ยวข้องกับการปกครองตนเอง จึงพยายามค้นหาสมดุลที่เหมาะสมที่สุด ระหว่างโหมดการทำงานต่างๆ โดยเน้นที่การให้การสนับสนุนการตัดสินใจสูงสุดแก่นักสู้ในสงครามเขากล่าว ไม่มีฉันทามติระหว่างประเทศ แต่การบังคับใช้หุ่นยนต์นักฆ่านอกกฎหมายในระดับสากลอาจพิสูจน์ได้ยาก
บอนนี่ โดเชอร์ตี้นักวิจัยอาวุโสด้านอาวุธที่ฮิวแมนไรท์วอทช์ และรองผู้อำนวยการความขัดแย้งทางอาวุธ และการคุ้มครองพลเรือนที่คลินิกสิทธิมนุษยชนระหว่างประเทศของโรงเรียนกฎหมายฮาร์วาร์ด กล่าวในอีเมลว่าในขณะที่ประเทศส่วนใหญ่ในการประชุมของ UN มีความกังวลเกี่ยวกับอาวุธอิสระแต่ก็ไม่เป็นเอกฉันท์ การสนับสนุนคำสั่งห้ามระหว่างประเทศที่มีผลผูกพันตามกฎหมาย การห้ามใช้หุ่นยนต์นักฆ่าจะได้ผลหรือไม่
ตัวอย่างเช่นสนธิสัญญาระหว่างประเทศที่มีมาอย่างยาวนานซึ่งห้ามอาวุธเคมี ดูเหมือนจะไม่ได้หยุดการใช้อาวุธดังกล่าว ในสงครามกลางเมืองในซีเรีย อย่างไรก็ตาม โดเชอร์ตีแย้งว่าการห้ามใช้อาวุธเคมี ทุ่นระเบิดสังหารบุคคลและกลุ่มอาวุธยุทโธปกรณ์ยังคงช่วยชีวิตคนได้ กฎหมายดังกล่าวผูกมัดประเทศที่เข้าร่วม และด้วยการตีตราว่าอาวุธที่สร้างปัญหาสามารถมีอิทธิพลต่อประเทศ ที่ไม่ได้เข้าร่วมกฎหมายใดๆก็ตาม แม้กระทั่งกับอาชญากรรมที่ได้รับการยอมรับอย่างกว้างขวาง
เช่นการฆาตกรรมก็สามารถถูกละเมิดโดยผู้กระทำการอันธพาล แต่นั่นไม่ได้หมายความว่าเช่นนั้นไม่ควรนำกฎหมายมาใช้ กฎหมายยังคงมีผลกระทบอย่างมากต่อการประพฤติปฏิบัติ และสนธิสัญญาระหว่างประเทศฉบับใหม่ควรนำมาใช้ เพื่อยึดอาวุธอิสระโดยสมบูรณ์
บทความที่น่าสนใจ : ก้อนน้ำเหลือง อธิบายก้อนน้ำเหลืองมีอยู่ในอวัยวะต่างๆของระบบภูมิคุ้มกัน