หากอาวุธอัจฉริยะ AI สั่งฆ่ามนุษย์เองได้!

สุทธิชัย หยุ่น

นักวิเคราะห์ด้าน AI หรือ “ปัญญาประดิษฐ์” มองย้อนกลับไปในประวัติศาสตร์ว่าด้วยสงครามก็สรุปว่า

วันนี้เราอยู่ในยุคการปฏิวัติครั้งที่สามของภาวะสงคราม

ปฏิวัติครั้งแรกคือการประดิษฐ์ดินปืน

ยุคที่สองคืออาวุธนิวเคลียร์

จากนี้ไปจะเป็นอาวุธอัจฉริยะเทียม (Artificial Intelligence หรือ AI weapons)

หรือเรียกมันให้น่ากลัวกว่านั้นอีกคือ Autonomous Weapons (อาวุธอัตโนมัติ…อันเป็นอิสระจากการสั่งการของมนุษย์)

เปรียบได้กับ “รถที่ขับเคลื่อนด้วยตนเอง” หรือ Autonomous Vehicles

ผู้เชี่ยวชาญ AI อย่างไค-ฟู ลี (Kai Fu-Lee) ตั้งคำถามที่น่ากลัวว่า

จะเกิดอะไรขึ้นถ้าผู้ก่อการร้ายในโลกนี้เข้าถึงเทคโนโลยีแห่ง AI และไม่จำเป็นต้องใช้กลยุทธแบบ “ระเบิดฆ่าตัวตาย” แบบเดิมอีก

ภัยคุกคามต่อมนุษยชาติในยุคต่อไปอาจจะมาจากการใช้เทคโนโลยีปัญญาประดิษฐ์และวิทยาการหุ่นยนต์

จากดินปืนสู่อาวุธนิวเคลียร์ก็น่ากลัวมากอยู่แล้ว

แต่หากศึกษาสงครามในอดีตถึงปัจจุบันจะเห็นวิวัฒนาการจากทุ่นระเบิดสู่จรวดนำวิถี

นั่นเป็นเพียงจุดเริ่มต้นของสิ่งที่เรียกว่า “อาวุธระบบอัตโนมัติ” ที่ต่อมาพัฒนาเป็น AI อย่างเต็มรูปแบบที่เรากำลังประสบพบเห็นอยู่ในขณะนี้

 

คําถามจากแวดวงนักวิทยาศาสตร์และนักวิจับด้าน AI กำลังถกแถลงประเด็นที่ร้อนแรงที่สุดประเด็นหนึ่งว่า จะเกิดอะไรขึ้นหากการประหัตประหารมนุษย์ด้วยกันเอง หรือการค้นหาเป้าการเข่นฆ่า หรือการตัดสินใจเข้าปะทะ และทำลายล้างชีวิตมนุษย์อีกคนหนึ่งเกิดขึ้นโดยปราศจากการมีส่วนร่วมของมนุษย์?

มันเป็นไปได้หรือ? โลกเรามาถึงจุดนี้แล้วหรือ?

คำตอบคือใช่ เราเข้าใกล้จุดนั้นแล้วจริงๆ

มีตัวอย่างที่เด่นชัดคือตัวอย่างของ “อาวุธอิสระ” ที่ใช้อยู่ในปัจจุบันคือโดรน Harpy ของอิสราเอล

เป็นอาวุธที่ถูกตั้งโปรแกรมให้บินไปยังพื้นที่เจาะจงเพื่อล่าเป้าหมายเฉพาะ

เมื่อเจอเป้าหมายแล้ว เจ้า Harpy ก็สั่งยิงด้วยหัวรบระเบิดแรงสูงที่มีชื่อเล่นว่า “Fire and forget”

แปลว่า “ระเบิดทิ้ง…แล้วลืมมันไปเลย”

หรือตัวอย่างที่เร้าใจยิ่งกว่านั้นมีให้เห็นในภาพยนตร์สั้นแนวดิสโทเปียเรื่อง Slaughterbots

แปลว่า “บ็อทนักฆ่า”

เป็นเรื่องราวของโดรนขนาดเท่านกที่สามารถค้นหาเหยื่อรายใดรายหนึ่งที่เป็นมนุษย์

พอเจอเป้ามันก็ยิงไดนาไมต์ในระยะเผาขนเจาะกะโหลกของศัตรูรายนั้นต่อหน้าต่อตา

 

หนังเรื่องที่ Kai-Fu Lee นำมาอ้างถึงนั้นเล่าถึงโดรนที่บินได้เอง มีขนาดเล็กและบินโฉบเฉี่ยวอย่างคล่องแคล่วว่องไวเกินไปที่อีกฝ่ายหนึ่งจะถูกจับ หยุด หรือทำลายได้ง่าย

แต่เจ้า “slaughterbots” นี้เป็นเพียงนิยายฝันเฟื่องเท่านั้นมิใช่หรือ เราจะต้องไปกังวลกับมันทำไม?

ความจริงน่ากลัวกว่านั้นมาก

เพราะเมื่อปี 2018 มีโดรนลำหนึ่งที่ถูกส่งขึ้นโดยฝ่ายศัตรูทางการเมืองขึ้นบนฟ้าเพื่อภารกิจพิเศษที่เกือบสังหารประธานาธิบดีเวเนซุเอลา

และนั่นคือเหตุการณ์ที่เกิดเมื่อกว่า 4 ปีก่อน

วันนี้ การวิจัยและพัฒนา AI ก้าวล้ำนำหน้าไปอีกหลายขุม

สิ่งที่เคยคิดว่าเป็นเพียงจินตนาการในหนังแฟนตาซีกำลังจะกลายเป็นความจริงที่มนุษย์ต้องเริ่มตั้งคำถามกันอย่างจริงจัง

ทุกวันนี้ มือสมัครเล่นใช้งบประมาณต่ำกว่า 30,000 บาทก็สามารถสร้างโดรนประเภทที่ทำงานแบบอัตโนมัติได้แล้ว

การประกอบโครนสมัครเล่นก็ไม่ได้ยุ่งยากสลับซับซ้อนแต่อย่างไร

ชิ้นส่วนส่วนใหญ่ที่จำเป็นมีขายทางออนไลน์ และเทคโนโลยี open-source ที่ทุกคนเข้าถึงได้อย่างง่ายดายก็มีพร้อมให้ดาวน์โหลดไปใช้ได้

Kai Fu-Lee เรียกมันว่า “มือสังหารการเมือง 1,000 ดอลลาร์”

มันไม่ใช่เรื่องไกลตัวอีกต่อไป…มันคือภัยอันชัดแจ้งในวันนี้

ที่ฝรั่งเรียกว่า “clear and present danger”

 

ในอนาคตอันใกล้นี้ “หุ่นยนต์นักฆ่า” เหล่านี้จะฉลาดขึ้น แม่นยำขึ้น เร็วขึ้น และราคาถูกลง

อีกทั้งอาวุธอัตโรมัติเหล่านี้ก็ “ฉลาด” ขึ้นตลอดเวลา

เช่น มันสามารถเรียนรู้วิธีการสร้าง “กองทัพโดรน” ที่ทำงานเป็นทีมบนท้องฟ้า และปฏิบัติภารกิจที่สลับซับซ้อนกว่าที่มนุษย์ทำอยู่ในขณะนี้

ลองวาดภาพของฝูงโดรน 10,000 ลำ (ปฏิบัติการรุกแบบฝูงผึ้ง) ที่สามารถกวาดล้างเมืองครึ่งเมืองได้ต่อหน้าต่อตาเพราะมันติดอาวุธร้ายแรงได้อย่างเต็มพิกัด

ด้วยงบประมาณไม่กี่สิบล้านบาท! (ขณะที่เครื่องบินลำเดียวก็ปาเข้าไปเป็นพันล้านบาทแล้ว)

แต่มองในแง่บวก หากมนุษย์ใช้ให้เป็นประโยชน์ อาวุธอัตโนมัติเหล่านี้ก็ใช้ปฏิบัติการเพื่อช่วยชีวิตทหารได้…หากมาถึงจุดที่ทำสงครามกันด้วยหุ่นยนต์

หากใช้อย่างรับผิดชอบ กองทัพก็อาจจะใช้มันเพื่อกำหนดเป้าหมายเฉพาะในจุดของผู้ติดอาวุธ ไม่ทำลายเป้าหมายพลเรือน เด็กหรือฝ่ายเดียวกัน

สามารถจะหลีกเลี่ยงการยิงใส่พวกเดียวกันโดยไม่ตั้งใจที่เรียกว่า friendly fire

ทำนองเดียวกับที่ยานพาหนะอัตโนมัติ (AV) สามารถเบรกให้ผู้ขับขี่เมื่อก่อนจะเกิดการชนขึ้นได้

ขณะเดียวกันหากใช้อย่างมีสติ อาวุธอัตโนมัติสามารถใช้เพื่อสกัดกั้นการทำงานของมือสังหารและผู้กระทำความผิดได้

ทางออกคืออะไร?

 

ผู้ศึกษาเรื่อง AI อย่างรอบด้านสรุปตรงกันว่าท้ายที่สุดแล้วก็ต้องกลับมาสู่คำว่า “จรรยาบรรณ”

หรือกติกาของสังคมที่จะต้องไม่ให้วิวัฒนาการแห่งเทคโนโลยีเข้าครอบงำ “สัญชาตญาณดิบ” ของมนุษย์

อ้างคำพูดของ Ant?nio Guterres เลขาธิการสหประชาชาติว่า “การคาดหวังให้เครื่องจักรที่มีดุลยพินิจขณะที่มันมีอำนาจที่จะปลิดชีวิตมนุษย์เป็นสิ่งที่น่ารังเกียจทางศีลธรรม”

อันตรายที่เห็นชัดคือเมื่อมีอาวุธอัตโนมัติแล้ว ค่าใช้จ่ายในการปลิดชีวิตเพื่อนมนุษย์ก็ถูกลง

เพราะหากเปรียบเทียบกับการที่ “มือสังหารฆ่าตัวตาย” หรือ suicide bomber ต้องตัดสินใจยอมสละชีพตัวเองเพื่อทำลายอีกคนหนึ่งนั้นยังเป็นเรื่องที่ต้องคิดใคร่ครวญไม่น้อย

มันคือราคาทางใจที่ผู้ก่อเหตุต้องคิดก่อนจะตัดสินใจลงมือทำ

แต่การใช้อาวุธที่สั่งการโดย AI ไม่มีความเสี่ยงเรื่องชีวิตสำหรับผู้ก่อเหตุ จึงเป็นการตัดสินใจที่ง่ายกว่า…และอันตรายกว่า

 

คําถามต่อมาก็คือว่าหากการทำสงครามเริ่มใช้อาวุธ AI แล้ว ใครคือผู้ต้องรับผิดชอบต่อการประหัตประหารหากเกิดความผิดพลาดขึ้นมา

ถ้าเป็นมนุษย์ที่อยู่ในกระบวนการสั่งการและตัดสินใจของการทำสงคราม เรารู้ว่าใครจะต้องรับผิดชอบเพียงใด

แต่เมื่อการสังหารถูกกำหนดให้เป็นระบบอาวุธอัตโนมัติ เส้นแบ่งและขอบข่ายของความรับผิดชอบก็ขาดความชัดเจน

เหมือนเมื่อรถที่ขับเคลื่อนด้วยตัวเองเกิดไปวิ่งชนคนเดินถนนเป็นความรับผิดชอบของใคร

ดังนั้น หากกฎกติกาว่าด้วยการใช้อาวุธอัตโนมัติยังคลุมเครือเช่นนั้น ก็อาจไม่สามารถจับมือใครดมได้ว่าผู้ที่ต้องรับผิดชอบต่อการเสียชีวิตของฝ่ายตรงกันข้ามคือใครกันแน่

ก็เท่ากับเป็นการเปิดทางให้เกิดความอยุติธรรม หรือแม้การละเมิดกฎหมายมนุษยธรรมระหว่างประเทศได้เช่นกัน

และหากทุกคนเข้าถึงอาวุธอัตโนมัติเช่นนั้นได้ การเข่นฆ่าในทุกระดับรวมไปถึงสงครามใหญ่ก็ระเบิดขึ้นได้ทุกขณะ

สังคมโลกจะหมดความปลอดภัยทันที

 

ไม่แต่เท่านั้น ในเมื่ออาวุธอัตโนมัติสามารถกำหนดเป้าหมายบุคคล โดยใช้การจดจำใบหน้าหรือท่าทางการเคลื่อนไหวหรือใช้วิธีการติดตามสัญญาณโทรศัพท์หรือ IoT ก็จะยิ่งเพิ่มความเสี่ยงหนักขึ้นอีก

เพราะหากทำเช่นนั้นได้เจ้าอาวุธ AI เหล่านี้ก็ไม่ใช่แค่สังหารคนใดคนหนึ่งที่ถูกเล็งเป็นเป้าเท่านั้น แต่ยังรวมถึงการฆ่าล้างเผ่าพันธุ์เป็นสิบเป็นร้อยเป็นพันได้

ไม่พักต้องพูดถึงฉากทัศน์ “สิ้นโลก” เช่น AI สามารถกำหนดให้เกิดสงครามนิวเคลียร์ได้เพียงด้วยข้อมูลว่าด้วยอาวุธร้ายแรงของแต่ละฝ่ายล้วนๆ โดยไม่คำนึงถึงศีลธรรมจรรยาแห่งมนุษยชาติเลย

เพราะท้ายที่สุดต้องยอมรับว่าสิ่งที่น่ากลัวที่สุดคือ AI ถูกจำกัดด้วยการขาดสามัญสำนึก

และความสามารถเยี่ยงมนุษย์ที่สามารถใช้เหตุผลข้ามฝักข้ามฝ่ายได้

ไม่ว่าจะพยายามฝึกฝนระบบอาวุธอัตโนมัติให้มีสำนึกมโนธรรมและการ “เอาใจเขามาใส่ใจเรา” มากเพียงใด ก็ไม่มีทางที่จะสอนให้มันมี “จิตใจเยี่ยงมนุษย์” ได้

AI “ฉลาด” ขึ้นก็อาจจะทำอะไรได้มากขึ้นจนเกินกว่าที่มนุษย์จะจินตนาการได้

แต่มันไม่สามารถจะเข้าใจถึงผลกรรมอันเกิดจากการตัดสินใจของมันอันเกิดจากข้อมูลและตัวเลขล้วนๆ ที่ไม่เข้าใจคำว่า “ประนีประนอม” หรือ “แพ้เป็นพระชนะเป็นมาร”

เพราะมันถูกสอนให้ชนะอย่างเดียว…ไม่ว่าใครจะต้องเสียหายมากน้อยเพียงใด