‘ดีพเฟก’ ทางการเมือง ในปีแห่งการเลือกตั้ง | จิตต์สุภา ฉิน

จิตต์สุภา ฉินFacebook.com/JitsupaChin

สืบเนื่องจากบทความตอนที่แล้ว เราคุยกันถึงเรื่องความเก่งกาจของ AI ที่สามารถสร้างวิดีโอตามที่เราต้องการได้เพียงแค่เราพิมพ์คำสั่งง่ายๆ เข้าไป ถึงวิดีโอที่สร้างออกมาจะยังมีข้อบกพร่องอยู่หลายจุด แต่โดยรวมก็ต้องยอมรับว่า AI ทำได้ดีมาก และมันจะพัฒนาขึ้นอย่างรวดเร็วแน่นอน

นอกจากความเป็นไปได้ใหม่ๆ ที่จะตามมาจากการที่ AI สร้างภาพนิ่งและวิดีโอที่สมจริงขึ้นเรื่อยๆ แล้ว สิ่งที่จะตามมาพร้อมกันก็คือภัยอันตรายแบบใหม่ๆ ของปลอมที่ดูออกได้ยากขึ้น ป้องกันได้ยากขึ้น และสร้างความเสียหายได้รุนแรงขึ้นด้วย

ลองนึกถึงโลกที่เราเริ่มแยกไม่ออกอีกต่อไปแล้วว่าภาพไหนจริงหรือปลอม วิดีโอไหนเป็นบันทึกของเหตุการณ์ที่เกิดขึ้นจริง หรือวิดีโอไหนแสดงภาพสิ่งที่ไม่เคยเกิดขึ้นมาก่อนเลย มันจะวุ่นวายโกลาหลสักแค่ไหน

 

ล่าสุด James Cleverly รัฐมนตรีว่าการกระทรวงมหาดไทยของอังกฤษออกโรงเตือนว่าการเลือกตั้งใดๆ ที่จะเกิดขึ้นในปี 2024 นี้จะต้องประสบกับมหันตภัยคุกคามจาก AI Deepfakes (ดีพเฟค) หรือการใช้ปัญญาประดิษฐ์ปลอมแปลงภาพถ่ายและวิดีโออย่างหลีกเลี่ยงไม่ได้แน่นอน

Cleverly บอกว่าทุกวันนี้เราก็ได้เห็นแล้วว่ามีภาพและคลิปวิดีโอที่เป็นของปลอมแต่ดูเหมือนของจริงมากๆ ว่อนอยู่ทั่วอินเตอร์เน็ต ดังนั้น นี่ไม่ใช่ภัยที่กำลังจะเกิดขึ้น แต่เป็นสิ่งที่เกิดขึ้นแล้วจริงๆ

เนื่องจากภาพและคลิปปลอมเหล่านี้สามารถสร้างขึ้นได้โดยง่ายและแชร์ลงบนโซเชียลมีเดียได้ง่ายด้วย อังกฤษจึงต้องออกมาเตือนให้ประชาชนรับรู้ถึงภัยอันตรายนี้ก่อนการเลือกตั้ง โดยระบุว่าอาจจะมีการแทรกแซงโดยหน่วยงานจากประเทศอย่างอิหร่านหรือรัสเซียเพื่อบ่อนทำลายประชาธิปไตยของอังกฤษ

ไม่ใช่แค่อังกฤษประเทศเดียว แต่ปีนี้เป็น ‘ปีที่สุดแห่งการเลือกตั้ง’ อย่างแท้จริง เพราะในปี 2024 จะมีการเลือกตั้งเกิดขึ้นทั่วโลกอย่างน้อย 64 ประเทศ รวมถึงสหรัฐอเมริกา อินเดีย และอินโดนีเซียด้วย

TIME บอกว่าโดยรวมแล้วคิดเป็นเกือบครึ่งหนึ่งของจำนวนประชากรโลกทั้งหมดเลยทีเดียว

รัฐมนตรีมหาดไทยของอังกฤษบอกว่าจะปรึกษาหารือกับบริษัทเทคโนโลยีระดับโลกในซิลิคอน แวลลีย์ ทั้ง Google, Meta, Apple และอีกหลายๆ แห่งด้วยเพื่อหามาตรการรับมือภัยคุกคามนี้ร่วมกัน

 

CNN สัมภาษณ์ Donie O’Sullivan นักข่าวของตัวเองที่รายงานข่าวทั้งการเมืองและเทคโนโลยีและได้เกาะติดเรื่องนี้มานานหลายปีแล้ว เขาบอกว่าเมื่อสักสองสามปีก่อนดีพเฟกไม่ได้แพร่หลายสักเท่าไหร่ นอกจากหน่วยงานของบางประเทศแล้วก็ไม่ได้มีคนที่เข้าถึงเทคโนโลยีนี้ได้มากนัก

ความท้าทายที่เราต้องเจอในปี 2024 ก็คือตอนนี้ ‘ใครๆ’ ก็สามารถทำภาพและคลิปปลอมได้ออกมาใกล้เคียงของจริงแล้ว

ถึงแม้ว่าคนอื่นๆ จะกังวลเรื่องวิดีโอปลอมกันแต่สิ่งที่เขากังวลมากที่สุดกลับเป็นคลิปเสียงปลอม

เขายกตัวอย่างให้ฟังว่าเขาได้ลองใช้โปรแกรมเพื่อปลอมเสียงซึ่งเป็นโปรแกรมที่หาดาวน์โหลดออนไลน์ได้ทั่วไป จากนั้นก็ใช้โปรแกรมนี้สร้างเสียงปลอมของตัวเองขึ้น แล้วใช้เสียงปลอมโทร.หาคุณพ่อคุณแม่

คุณพ่อของเขาคุยกับเสียงปลอมนั้นได้เป็นวรรคเป็นเวรโดยเชื่อว่าเป็นลูกชายจริงๆ ในขณะที่คุณแม่สัมผัสได้ถึงความผิดปกติแต่ก็ชี้ชัดลงไปไม่ได้ว่าผิดปกติที่ตรงไหน

 

กลับมาที่เรื่องดีพเฟกกับการเลือกตั้ง O’Sullivan บอกว่าจากประวัติศาสตร์แคมเปญการเลือกตั้งทางการเมืองของสหรัฐอเมริกาที่ผ่านมาจะเห็นได้ว่าคลิปเสียงและเทปมีบทบาทสำคัญที่ปรากฏเด่นชัดในหลายแคมเปญ

สิ่งที่น่ากังวลก็คือเราจะเริ่มเห็นคลิปเสียงหรือคลิปวิดีโอปลอมผุดขึ้นมาตามอินเตอร์เน็ต อาจจะเป็นคลิปของผู้สมัครเลือกตั้งที่พูดอะไรบางอย่างซึ่งตัวจริงไม่เคยพูด

อันที่จริงในตอนนี้ก็มีวิธีที่สามารถในการตรวจสอบความจริงหรือปลอมได้ ผู้เชี่ยวชาญด้าน AI หรือผู้เชี่ยวชาญที่ทำงานทางด้านการสืบค้นหลักฐานทางดิจิทัลต่างมีเครื่องมือที่สามารถใช้เพื่อตรวจสอบได้

แต่ลองคิดดูนะคะว่าในยุคที่เราเสพข้อมูลข่าวสารเป็นปริมาณมากๆ แบบทุกวันนี้ เมื่อคลิปบางอย่างถูกปล่อยออกไปและมีคนจำนวนเป็นล้านๆ ได้เห็นแล้ว จะมีสักกี่คนที่ได้ติดตามผลต่อเนื่องว่าท้ายที่สุดคลิปนั้นเป็นคลิปปลอมที่ถูกสร้างขึ้น

จะมีสักกี่คนที่เชื่อฝังใจไปแล้วในสิ่งที่ได้เห็นและได้ยิน

หรือจะมีกี่คนที่แม้จะรู้แล้วว่าคลิปนั้นเป็นของปลอมแต่ก็ยังอดไม่ได้ที่จะเกิดความรู้สึกกังขาต่อบุคคลผู้นั้นติดค้างไว้ในใจอยู่ดี

 

O’Sullivan บอกว่าเราทุกคนมีคนในครอบครัวที่มีความเชื่อทางการเมืองไปในทางใดทางหนึ่ง และเรามักจะคิดว่าคนที่อยู่คนละฝั่งกับเรานั่นแหละที่ได้รับข้อมูลเท็จไป แต่ในกรณีของดีพเฟคนี้ ไม่ว่าจะมีความเชื่อทางการเมืองอยู่ในฝั่งไหนก็มีโอกาสที่จะได้รับข้อมูลผิดไปเท่าๆ กัน

อีกมุมหนึ่งที่น่าสนใจก็คือในกรณีที่มีคลิปเสียงหรือคลิปวิดีโอของใครสักคนที่ถูกเผยการกระทำออกมา แม้จะเป็นคลิปเหตุการณ์จริงแต่เจ้าตัวก็สามารถอ้างว่าเป็นสิ่งที่ถูกสร้างขึ้นด้วยเทคโนโลยีดีพเฟคก็จะเป็นการลดทอนความน่าเชื่อถือของหลักฐานไปได้ด้วยเหมือนกัน

แล้วจะทำอย่างไรให้เราไม่หลงเชื่อภาพ คลิปเสียง หรือคลิปวิดีโอที่ถูกสร้างขึ้นด้วย AI คำแนะนำที่ผู้เชี่ยวชาญให้ก็ยังคงกลับไปที่แนวคิดเดิมเสมอคืออย่าเชื่อทุกสิ่งที่เห็นหรือได้ยินในทันที แม้ว่าสิ่งๆ นั้นจะมาในรูปแบบภาพเคลื่อนไหวที่ดูสมจริงก็ตาม

O’Sullivan ทิ้งท้ายว่าการที่แม่ของเขาคุยกับเสียงปลอมที่เขาสร้างขึ้นแล้วรู้สึกว่ามีอะไรบางอย่างผิดปกติก็น่าจะเป็นความหวังให้ว่าเราอาจจะยังรับรู้ถึงความปลอมของเทคโนโลยีนี้ได้ในระดับหนึ่ง

ที่เหลือก็คือการฟังหูไว้หู เพิ่มพูนทักษะในการที่จะตรวจสอบความจริงเท็จของข้อมูล รู้ว่าแหล่งข้อมูลไหนเชื่อถือได้ รู้ว่าจะต้องตรวจสอบข้อมูลได้ที่ไหน

เราทุกคนกำลังก้าวเข้าสู่ยุคแห่งดีพเฟกทางการเมืองไปด้วยกัน… ไม่ว่าจะพร้อมหรือไม่ก็ตาม