หุ่นยนต์ต่อสู้: ห้ามไม่อนุญาต

สารบัญ:

หุ่นยนต์ต่อสู้: ห้ามไม่อนุญาต
หุ่นยนต์ต่อสู้: ห้ามไม่อนุญาต

วีดีโอ: หุ่นยนต์ต่อสู้: ห้ามไม่อนุญาต

วีดีโอ: หุ่นยนต์ต่อสู้: ห้ามไม่อนุญาต
วีดีโอ: หนังใหม่2021พากย์ไทยชนโรง หนังแอ็คชั่น - อร์ศึกสังเวียนหุ่นยนต์ 2024, อาจ
Anonim

ผู้เชี่ยวชาญได้พบกันที่เจนีวา แต่ไม่สามารถบรรลุข้อตกลงได้: สหรัฐอเมริกาและรัสเซียปิดกั้นการทำงานทั้งหมด บางทีนี่อาจเป็นครั้งเดียวที่ผู้มีอิทธิพลทำงานอย่างกลมกลืน

หุ่นยนต์ต่อสู้: ห้ามไม่อนุญาต
หุ่นยนต์ต่อสู้: ห้ามไม่อนุญาต

การประชุมผู้เชี่ยวชาญในรูปแบบของอนุสัญญาว่าด้วยอาวุธไร้มนุษยธรรมสิ้นสุดลงที่เจนีวาเพื่อตัดสินชะตากรรมของหุ่นยนต์ต่อสู้ที่เรียกว่า - อาวุธอิสระที่ใช้ปัญญาประดิษฐ์เพื่อเอาชนะเป้าหมาย อย่างไรก็ตามไม่สามารถบรรลุข้อตกลงได้ สหรัฐอเมริกา รัสเซีย เกาหลีใต้ อิสราเอล และออสเตรเลียเป็นหนึ่งในชนกลุ่มน้อยที่ประสบความสำเร็จในการปิดกั้นความรู้สึกต่อการสั่งห้ามหุ่นยนต์นักฆ่าอย่างสมบูรณ์

ดังนั้น แม้ว่าจะยังไม่มีอาวุธอิสระที่ใช้งานได้ในโลกนี้ แต่เทคโนโลยีก็ยังคงมีอยู่ พูดง่ายๆ ก็คือ มีมนุษยธรรม มันสามารถพัฒนาและวิจัยได้ ที่น่าสนใจคือ สหรัฐอเมริกาและรัสเซียตามข้อมูลของสถาบันวิจัยสันติภาพสตอกโฮล์ม (SIPRI) อยู่ในอันดับต้น ๆ ของผู้ส่งออกอาวุธรายใหญ่ที่สุด เกาหลีใต้ อิสราเอล และออสเตรเลียไม่ได้ตามหลังในการจัดอันดับนี้ พวกเขาเป็นหนึ่งในผู้เล่น 20 อันดับแรกในตลาด

และแม้ว่าจีน (ผู้ส่งออกอาวุธรายที่ห้าของโลกซึ่งเป็นสมาชิกถาวรของคณะมนตรีความมั่นคงแห่งสหประชาชาติสนับสนุนการห้ามใช้หุ่นยนต์ต่อสู้ แต่ก็ไม่สามารถปรับขนาดในทิศทางของตนได้ในระหว่างการประชุม วันนี้ 26 ประเทศสนับสนุนอย่างเปิดเผย ห้ามการใช้ปัญญาประดิษฐ์ในสงคราม คนอื่นอายห่างจากตำแหน่งที่ชัดเจน) ฝรั่งเศสและเยอรมนี (ผู้ส่งออกอาวุธที่สามและสี่) เสนอให้ลงนามในเอกสารที่จะรวมความเป็นอันดับหนึ่งของมนุษย์เหนือปัญญาประดิษฐ์ แต่มีแนวโน้มมากกว่า ในด้านของผู้ที่ต้องการพัฒนายานรบอิสระ

“เป็นเรื่องน่าผิดหวังอย่างยิ่งที่กลุ่มยักษ์ใหญ่ทางทหารกลุ่มเล็กๆ สามารถยับยั้งเจตจำนงของเสียงส่วนใหญ่ได้” แมรี่ เวอร์เฮม ผู้ประสานงานของ Campaign to Stop Killer Robots แสดงความคิดเห็นเกี่ยวกับผลการประชุมที่เจนีวา

อันที่จริง สถานการณ์ดูเหมือนเป็นการสมรู้ร่วมคิดของมหาเศรษฐีผูกขาดติดอาวุธ เนื่องจากปกติแล้ว สหรัฐฯ และรัสเซียมักจะไม่สามารถประนีประนอมกับประเด็นสำคัญบางประเภทได้ ใช้ซีเรียล: วอชิงตันและมอสโกร่วมกันปิดกั้นมติของกันและกันหลังจากใช้อาวุธเคมีในซีเรียในฤดูใบไม้ผลินี้ ก๊าซที่ทำให้หายใจไม่ออกและสารพิษอื่น ๆ เพื่อวัตถุประสงค์ทางทหาร ก่อนหน้านี้ถูกห้ามโดยอนุสัญญาว่าด้วยอาวุธไร้มนุษยธรรม

การประชุมครั้งต่อไปเกี่ยวกับชะตากรรมของหุ่นยนต์นักฆ่าจะมีขึ้นที่เจนีวาในเดือนพฤศจิกายน

ทำไมพวกเขาต้องการแบนอาวุธอิสระ

ผู้เสนอคำสั่งห้ามการทำสงครามหุ่นยนต์ยืนยันว่าสนามรบไม่ใช่ที่สำหรับปัญญาประดิษฐ์ ในความเห็นของพวกเขา เทคโนโลยีดังกล่าวเป็นภัยคุกคามอย่างใหญ่หลวง อย่างน้อยวันนี้ยังไม่ชัดเจนว่าเครื่องจะแยกแยะระหว่างนักสู้ (ผู้ที่เกี่ยวข้องโดยตรงกับการสู้รบ) กับผู้ที่ไม่ใช่ทหาร (เจ้าหน้าที่บริการกองทัพที่สามารถใช้อาวุธเพื่อป้องกันตัวเท่านั้น) และพลเรือนโดยทั่วไป มีความเป็นไปได้ที่งานจะฆ่าผู้บาดเจ็บและผู้ที่ยอมจำนนซึ่งถูกห้ามโดยกฎการทำสงครามในปัจจุบัน

อะไรขัดขวางไม่ให้งานขัดขวางทุกฝ่ายในความขัดแย้ง แม้แต่เจ้าของอาวุธดังกล่าว? องค์ประกอบปัญญาประดิษฐ์ถูกนำมาใช้ในอุปกรณ์ทางทหารขีปนาวุธเรียบร้อยแล้ว หุ่นยนต์ถูกดึงดูดให้ทำการสอดแนม แต่คำพูดสุดท้ายยังคงอยู่กับมนุษย์ อาวุธที่เป็นอิสระจะไม่ปฏิบัติตามคำสั่งของผู้บังคับบัญชา - นั่นคือเหตุผลที่พวกเขาเป็นอิสระ นั่นคือเหตุผลที่นายพลทหารจากประเทศต่าง ๆ สงสัยเกี่ยวกับการนำเครื่องจักรเข้าสู่ตำแหน่งบุคลากร

และอีกหนึ่งคำถามเปิดคือการก่อการร้ายระหว่างประเทศ เทคโนโลยีอาวุธอัตโนมัติอาจตกไปอยู่ในมือคนผิด และในที่สุดก็สามารถถูกแฮ็กได้ ปีที่แล้ว ประธานาธิบดีรัสเซีย วลาดิมีร์ ปูติน กล่าวว่าผู้ปกครองโลกจะเป็นผู้นำในการพัฒนาปัญญาประดิษฐ์ในกรณีของอาวุธอัตโนมัติ ผู้ที่ได้รับการเข้าถึงเทคโนโลยีดังกล่าวจะกลายเป็นผู้ปกครองโลก และสำหรับสิ่งนี้ อันที่จริง คุณเพียงต้องการคอมพิวเตอร์และดอดเจอร์ที่จะผ่านระบบรักษาความปลอดภัย อย่างไรก็ตาม Pentagon ถูกแฮ็กมากกว่าหนึ่งครั้ง ด้วยเหตุนี้จึงไม่มีใครสามารถรับประกันได้ว่าอาวุธที่เป็นอิสระจะยังคงขัดขืนไม่ได้

ยังไม่ชัดเจนว่าใครจะเป็นผู้รับผิดชอบทางกฎหมายหากมีการก่ออาชญากรรมสงครามอันเป็นผลมาจากการทำงานของระบบอาวุธอิสระ “วิศวกร โปรแกรมเมอร์ ผู้ผลิตหรือผู้บังคับบัญชาที่ใช้อาวุธ? หากไม่สามารถกำหนดความรับผิดชอบตามที่กฎหมายมนุษยธรรมระหว่างประเทศกำหนด การใช้งานระบบดังกล่าวจะได้รับการยอมรับว่าถูกกฎหมายหรือมีเหตุผลทางจริยธรรมหรือไม่” คณะกรรมการกาชาดระหว่างประเทศกล่าว

ที่น่าสนใจ นักวิทยาศาสตร์ยังสนับสนุนการห้ามใช้หุ่นยนต์ต่อสู้ ในเดือนกรกฎาคมของปีนี้ นักวิทยาศาสตร์มากกว่าสองพันคน โดยเฉพาะอย่างยิ่งผู้สร้าง Tesla และ SpaceX Elon Musk และผู้ร่วมก่อตั้ง DeepMind ได้ลงนามในเอกสารว่าพวกเขาจะไม่พัฒนาอาวุธทำลายล้างอัตโนมัติที่ร้ายแรง Google ก็ทำเช่นเดียวกัน ยักษ์ใหญ่ด้านเทคโนโลยีได้ละทิ้งงานในโครงการ Maven ของเพนตากอน และในปี 2560 นักวิทยาศาสตร์จำนวนหนึ่งได้เรียกร้องให้สหประชาชาติสั่งห้ามการสร้างหุ่นยนต์นักฆ่า

อย่างไรก็ตาม ปัญหาของปัญญาประดิษฐ์ในสงครามปรากฏในวาระการประชุมขององค์การสหประชาชาติ ณ สิ้นปี 2556 แต่ในทางปฏิบัติก็ไม่มีอะไรเปลี่ยนแปลงตั้งแต่นั้นมา เฉพาะปีนี้เท่านั้น การประชุมผู้เชี่ยวชาญได้เริ่มต้นขึ้นในรูปแบบของอนุสัญญาว่าด้วยอาวุธที่ไร้มนุษยธรรม นั่นคือต้องใช้เวลามากกว่าสี่ปีกว่าจะมาถึงเครื่องบินที่ใช้งานได้จริงไม่มากก็น้อย

ทำไมพวกเขาไม่ต้องการแบนอาวุธอิสระ auto

ไม่ว่าจะฟังดูซ้ำซากจำเจ การแข่งขันทางอาวุธเป็นเหตุผลหลักที่พวกเขาไม่ต้องการแบนหุ่นยนต์นักฆ่า ปูตินพูดถูก ใครก็ตามที่ได้รับอาวุธอัตโนมัติก่อนจะครองโลก เหตุผลนี้ถูกเปล่งออกมาอย่างเป็นทางการ

อาร์กิวเมนต์หลักของฝ่ายตรงข้ามของการแบนคือความเป็นไปไม่ได้ที่จะแยกปัญญาประดิษฐ์ของพลเรือนออกจากกองทัพ เราจะไม่ห้ามมีดทำครัวเพียงเพราะว่าผู้ก่อการร้ายสามารถใช้ได้ อันที่จริง แทบจะเป็นไปไม่ได้เลยที่จะแยกการพัฒนาปัญญาประดิษฐ์ของพลเรือนออกจากกองทัพ แต่ตอนนี้เรากำลังพูดถึงข้อห้ามของอาวุธนี้ซึ่งจะสามารถกำหนดและโจมตีเป้าหมายได้อย่างอิสระ นี่อาจเป็นโครงการ Maven ซึ่งกระทรวงกลาโหมสหรัฐฯ กำลังทำงานร่วมกับ Booz Allen Hamilton (Google ปฏิเสธสัญญา)

นักพัฒนา Maven ต้องการสอนโดรนให้วิเคราะห์ภาพ โดยเฉพาะจากดาวเทียมและอาจระบุเป้าหมายสำหรับการโจมตี เพนตากอนเริ่มทำงานในโครงการนี้ในเดือนเมษายน 2560 และหวังว่าจะได้อัลกอริธึมการทำงานชุดแรกภายในสิ้นปีนี้ แต่ด้วยการแบ่งแยกพนักงานของ Google การพัฒนาจึงล่าช้า ตามข้อมูลของ Gizmodo ในเดือนมิถุนายนของปีนี้ ระบบสามารถแยกแยะระหว่างวัตถุพื้นฐาน - รถยนต์ คน แต่กลับกลายเป็นว่าไม่มีนัยสำคัญอย่างสมบูรณ์ในสถานการณ์ที่ยากลำบาก หากการห้ามใช้อาวุธอิสระในระดับสหประชาชาติยังคงใช้ โครงการนี้จะต้องถูกยกเลิก ในขณะที่เพนตากอนอ้างว่าการพัฒนาของพวกเขาสามารถช่วยชีวิตคนได้ เพราะสามารถตั้งโปรแกรมให้ทำงานได้อย่างถูกต้องและเชื่อถือได้มากกว่าเมื่อเปรียบเทียบกับผู้คน

“คุณต้องเข้าใจว่าเรากำลังพูดถึงเทคโนโลยีซึ่งไม่มีตัวอย่างที่จะใช้งานได้ แนวคิดของระบบดังกล่าวยังเป็นเพียงผิวเผิน” กล่าวก่อนการประชุมที่เจนีวาที่กระทรวงการต่างประเทศรัสเซีย - ในความเห็นของเรา กฎหมายระหว่างประเทศ โดยเฉพาะด้านมนุษยธรรม สามารถนำไปใช้กับอาวุธอัตโนมัติได้ พวกเขาไม่ต้องการความทันสมัยหรือการปรับให้เข้ากับระบบที่ยังไม่มี”

และอีกอย่างที่จริงแต่ไม่พูดออกมา เหตุผลก็คือเงิน ปัจจุบัน ตลาดเทคโนโลยีปัญญาประดิษฐ์ทางการทหารมีมูลค่ามากกว่า 6 พันล้านดอลลาร์ แต่ภายในปี 2025 ตัวเลขดังกล่าวจะเพิ่มขึ้นสามเท่า - เป็นเกือบ 19 พันล้านชิ้น ตามที่นักวิเคราะห์ของบริษัท MarketsandMarkets สัญชาติอเมริกันกล่าวสำหรับผู้ส่งออกอาวุธรายใหญ่ที่สุด นี่เป็นแรงจูงใจที่ดีในการปิดกั้นข้อจำกัดใดๆ ในการพัฒนาหุ่นยนต์นักฆ่า

ความคืบหน้าไม่สามารถหยุดได้

ผู้สนับสนุนการห้ามใช้อาวุธอัตโนมัติสังเกตว่าเทคโนโลยีกำลังพัฒนาอย่างรวดเร็วและในที่สุดปัญญาประดิษฐ์จะกลายเป็นอาวุธ - เรื่องของเวลา มีตรรกะในคำพูดของพวกเขา ปัญญาประดิษฐ์เป็นส่วนสำคัญของการปฏิวัติทางวิทยาศาสตร์และเทคโนโลยีครั้งที่สี่ซึ่งยังคงดำเนินต่อไปในขณะนี้ โปรดทราบว่าความก้าวหน้าทางเทคนิคไม่ทางใดก็ทางหนึ่งที่เกี่ยวข้องกับการปฏิบัติการทางทหาร การปฏิวัติทางวิทยาศาสตร์และเทคโนโลยีครั้งที่สามดำเนินไปจนกระทั่งกลางทศวรรษที่ 50 ของศตวรรษที่ XX นั่นคือจุดสูงสุดของมันลดลงในช่วงสงครามโลกครั้งที่สอง

ในปี พ.ศ. 2492 เจนีวาได้รับรองอนุสัญญาว่าด้วยการคุ้มครองพลเรือนในช่วงสงคราม ในช่วงหลังสงคราม พวกเขายังเสริมอนุสัญญา IV Hague ปี 1907 ซึ่งกำหนดกฎเกณฑ์สำหรับการทำสงคราม นั่นคือความน่าสะพรึงกลัวของสงครามโลกครั้งที่สองกลายเป็นตัวเร่งปฏิกิริยาสำหรับกระบวนการนี้ ดังนั้น นักปกป้องสิทธิมนุษยชนจึงไม่ต้องการที่จะรอให้สงครามโลกครั้งที่สามปกป้องมนุษยชาติจากอาวุธที่เป็นอิสระ นั่นคือเหตุผลที่การตัดสินใจชะตากรรมของหุ่นยนต์นักฆ่าเป็นสิ่งจำเป็นในตอนนี้ พวกเขายืนยัน

ตามที่ผู้เชี่ยวชาญของ Human Rights Watch การใช้หุ่นยนต์ต่อสู้ขัดต่อปฏิญญา Martens ซึ่งเป็นคำนำของอนุสัญญากรุงเฮกปี 1899 ว่าด้วยกฎหมายและศุลกากรแห่งสงคราม กล่าวอีกนัยหนึ่ง หุ่นยนต์นักฆ่าละเมิดกฎหมายของมนุษยชาติและความต้องการของจิตสำนึกสาธารณะ (ตำแหน่งได้รับการยืนยันในอนุสัญญา IV Hague)

“เราต้องทำงานร่วมกันเพื่อกำหนดห้ามระบบอาวุธดังกล่าวก่อนที่จะแพร่กระจายไปทั่วโลก” บอนนี โดเฮอร์ตี้ นักวิจัยอาวุโสในแผนกอาวุธของฮิวแมนไรท์วอทช์กล่าว

คราวนี้การแบนหุ่นยนต์นักฆ่าไม่ได้ผล การประชุมในเดือนพฤศจิกายนก็จะไร้ผลเช่นกัน จริงอยู่ เกือบทุกประเทศเห็นด้วย - เทคโนโลยีไม่สามารถปล่อยให้ไหลไปตามแรงโน้มถ่วงได้ และหุ่นยนต์ต่อสู้ก็ต้องการรถเครนหยุด แต่ก็ยังไม่ชัดเจนว่ามนุษยชาติจะมีเวลาดึงมันออกมาเมื่อมีความจำเป็นหรือไม่