อาจดูไกลตัว แต่คนที่ทำงานด้านนี้โดยตรงได้เริ่มเกิดข้อกังขาว่า AI ในหุ่นยนต์สงครามจะยังอยู่ในความควบคุมของมนุษย์ได้ตลอดไปหรือไม่

เมื่อปี 2015 กลุ่มผู้เชี่ยวชาญ AI  ร่วมกับนักวิทยาศาสตร์อีกกว่า 1,000 ราย เข้าชื่อกันยื่นหนังสือถึง UN เตือนถึงอันตรายของ AI ที่ใช้ควบคุมอาวุธ เนื่องจากเริ่มมีความกังวลว่าในเวลาอันใกล้นี้มนุษย์อาจพบปัญหาครั้งใหญ่กับความอันตรายของ AI ในหุ่นยนต์สงครามเหล่านี้ในกรณีที่มันจะต้องเข้าสู่โหมดป้องกันตัว มันอาจทำตัวคล้ายสัตว์แล้วย้อนทำร้ายมนุษย์โดยไม่เลือกเป้าหมาย เหมือนกับพวกสัตว์ที่กำลังป้องกันตัวเอง แต่สัตว์ยังมี 2 ทางเลือก คือหนีเพราะความกลัวหรือสู้เพราะจนตรอก ซึ่งแน่นอน AI ย่อมไม่มีความกลัว รวมทั้งไม่มีความปราณี การป้องกันตัวของมันจึงมีทางเลือกเดียวคือเลือกที่จะทำร้ายสิ่งอื่น นั่นยังไม่รวมถึงการก่อการร้ายโดยการ Hack เข้าไปสั่งการ AI ให้ก่อการสังหารแบบไม่เลือกเป้าอีก

ล่าสุดปีนี้ (2017) ก็มีกลุ่มบุคคลและองค์กรผู้เชี่ยวชาญด้านเทคโนโลยี AI รวมทั้งสิ้น 116 ราย ได้เข้าชื่อกันยื่นร้องเรียนต่อ UN อีกครั้งให้พิจารณาวางกรอบป้องกันการพัฒนา AI สงครามไปในทิศทางที่จะต้องอยู่ในการควบคุมเสมอ ไม่ปล่อยให้มันตัดสินใจเอง ผู้ร่วมลงชื่อในหนังสือร้องเรียนดังกล่าว ได้รวมถึงคนดังเจ้าของบริษัท SpaceX อย่างนายอีลอน มัสก์ อยู่ได้ ซึ่งนายอีลอน มัสก์ เคยได้ปะทะคารมเรื่องการสร้าง AI กับนายซักเคอร์เบิร์กเจ้าของ Facebook มาแล้วเรื่องอนาคตของ AI ที่ทั้งคู่มองไปกันละทาง โดยทางฝั่งนายซักเคอร์เบิร์กได้ไลฟ์สดถึงเรื่องนี้ว่านาย อีลอน มัสก์ คิดมากเกินไป ชอบคิดไปในแนววันสิ้นโลก ตนคิกว่า AI ไม่มีทางทำร้ายมนุษย์ ส่วนทางนาย อีลอน มัสก์  ก็ตอบโต้ทาง Twitter ในแนวที่ว่า ความรู้ด้าน AI ของซักเคอร์เบิร์กนั้นจำกัดเกินไป ไม่ครอบคลุม AI ทุกชนิด

ไม่ใช่เฉพาะ อีลอน มัสก์ แต่คนอื่นๆอย่างเช่น ศาสตราจารย์ สตีเฟน ฮอว์คิง นักฟิสิกส์ชื่อดัง หรือนายบิล เกตส์ แห่งไมโครซอฟท์ หรือนายสตีฟ วอซเนียก ผู้ร่วมก่อตั้งแอฟเปิ้ล ก็กังวลไปในทางเดียวกันเรื่อง AI จะกลับมาสร้างปัญหากับมนุษย์ในอนาคต และแสดงความกังวลออกมาในบทความต่างๆหลายครั้ง

เรียบเรียงโดย @MrVop