ที่มา | มติชนสุดสัปดาห์ ฉบับวันที่ 1 - 7 มีนาคม 2567 |
---|---|
คอลัมน์ | Cool Tech |
ผู้เขียน | จิตต์สุภา ฉิน |
เผยแพร่ |
สืบเนื่องจากบทความตอนที่แล้ว เราคุยกันถึงเรื่องความเก่งกาจของ AI ที่สามารถสร้างวิดีโอตามที่เราต้องการได้เพียงแค่เราพิมพ์คำสั่งง่ายๆ เข้าไป ถึงวิดีโอที่สร้างออกมาจะยังมีข้อบกพร่องอยู่หลายจุด แต่โดยรวมก็ต้องยอมรับว่า AI ทำได้ดีมาก และมันจะพัฒนาขึ้นอย่างรวดเร็วแน่นอน
นอกจากความเป็นไปได้ใหม่ๆ ที่จะตามมาจากการที่ AI สร้างภาพนิ่งและวิดีโอที่สมจริงขึ้นเรื่อยๆ แล้ว สิ่งที่จะตามมาพร้อมกันก็คือภัยอันตรายแบบใหม่ๆ ของปลอมที่ดูออกได้ยากขึ้น ป้องกันได้ยากขึ้น และสร้างความเสียหายได้รุนแรงขึ้นด้วย
ลองนึกถึงโลกที่เราเริ่มแยกไม่ออกอีกต่อไปแล้วว่าภาพไหนจริงหรือปลอม วิดีโอไหนเป็นบันทึกของเหตุการณ์ที่เกิดขึ้นจริง หรือวิดีโอไหนแสดงภาพสิ่งที่ไม่เคยเกิดขึ้นมาก่อนเลย มันจะวุ่นวายโกลาหลสักแค่ไหน
ล่าสุด James Cleverly รัฐมนตรีว่าการกระทรวงมหาดไทยของอังกฤษออกโรงเตือนว่าการเลือกตั้งใดๆ ที่จะเกิดขึ้นในปี 2024 นี้จะต้องประสบกับมหันตภัยคุกคามจาก AI Deepfakes (ดีพเฟค) หรือการใช้ปัญญาประดิษฐ์ปลอมแปลงภาพถ่ายและวิดีโออย่างหลีกเลี่ยงไม่ได้แน่นอน
Cleverly บอกว่าทุกวันนี้เราก็ได้เห็นแล้วว่ามีภาพและคลิปวิดีโอที่เป็นของปลอมแต่ดูเหมือนของจริงมากๆ ว่อนอยู่ทั่วอินเตอร์เน็ต ดังนั้น นี่ไม่ใช่ภัยที่กำลังจะเกิดขึ้น แต่เป็นสิ่งที่เกิดขึ้นแล้วจริงๆ
เนื่องจากภาพและคลิปปลอมเหล่านี้สามารถสร้างขึ้นได้โดยง่ายและแชร์ลงบนโซเชียลมีเดียได้ง่ายด้วย อังกฤษจึงต้องออกมาเตือนให้ประชาชนรับรู้ถึงภัยอันตรายนี้ก่อนการเลือกตั้ง โดยระบุว่าอาจจะมีการแทรกแซงโดยหน่วยงานจากประเทศอย่างอิหร่านหรือรัสเซียเพื่อบ่อนทำลายประชาธิปไตยของอังกฤษ
ไม่ใช่แค่อังกฤษประเทศเดียว แต่ปีนี้เป็น ‘ปีที่สุดแห่งการเลือกตั้ง’ อย่างแท้จริง เพราะในปี 2024 จะมีการเลือกตั้งเกิดขึ้นทั่วโลกอย่างน้อย 64 ประเทศ รวมถึงสหรัฐอเมริกา อินเดีย และอินโดนีเซียด้วย
TIME บอกว่าโดยรวมแล้วคิดเป็นเกือบครึ่งหนึ่งของจำนวนประชากรโลกทั้งหมดเลยทีเดียว
รัฐมนตรีมหาดไทยของอังกฤษบอกว่าจะปรึกษาหารือกับบริษัทเทคโนโลยีระดับโลกในซิลิคอน แวลลีย์ ทั้ง Google, Meta, Apple และอีกหลายๆ แห่งด้วยเพื่อหามาตรการรับมือภัยคุกคามนี้ร่วมกัน
CNN สัมภาษณ์ Donie O’Sullivan นักข่าวของตัวเองที่รายงานข่าวทั้งการเมืองและเทคโนโลยีและได้เกาะติดเรื่องนี้มานานหลายปีแล้ว เขาบอกว่าเมื่อสักสองสามปีก่อนดีพเฟกไม่ได้แพร่หลายสักเท่าไหร่ นอกจากหน่วยงานของบางประเทศแล้วก็ไม่ได้มีคนที่เข้าถึงเทคโนโลยีนี้ได้มากนัก
ความท้าทายที่เราต้องเจอในปี 2024 ก็คือตอนนี้ ‘ใครๆ’ ก็สามารถทำภาพและคลิปปลอมได้ออกมาใกล้เคียงของจริงแล้ว
ถึงแม้ว่าคนอื่นๆ จะกังวลเรื่องวิดีโอปลอมกันแต่สิ่งที่เขากังวลมากที่สุดกลับเป็นคลิปเสียงปลอม
เขายกตัวอย่างให้ฟังว่าเขาได้ลองใช้โปรแกรมเพื่อปลอมเสียงซึ่งเป็นโปรแกรมที่หาดาวน์โหลดออนไลน์ได้ทั่วไป จากนั้นก็ใช้โปรแกรมนี้สร้างเสียงปลอมของตัวเองขึ้น แล้วใช้เสียงปลอมโทร.หาคุณพ่อคุณแม่
คุณพ่อของเขาคุยกับเสียงปลอมนั้นได้เป็นวรรคเป็นเวรโดยเชื่อว่าเป็นลูกชายจริงๆ ในขณะที่คุณแม่สัมผัสได้ถึงความผิดปกติแต่ก็ชี้ชัดลงไปไม่ได้ว่าผิดปกติที่ตรงไหน
กลับมาที่เรื่องดีพเฟกกับการเลือกตั้ง O’Sullivan บอกว่าจากประวัติศาสตร์แคมเปญการเลือกตั้งทางการเมืองของสหรัฐอเมริกาที่ผ่านมาจะเห็นได้ว่าคลิปเสียงและเทปมีบทบาทสำคัญที่ปรากฏเด่นชัดในหลายแคมเปญ
สิ่งที่น่ากังวลก็คือเราจะเริ่มเห็นคลิปเสียงหรือคลิปวิดีโอปลอมผุดขึ้นมาตามอินเตอร์เน็ต อาจจะเป็นคลิปของผู้สมัครเลือกตั้งที่พูดอะไรบางอย่างซึ่งตัวจริงไม่เคยพูด
อันที่จริงในตอนนี้ก็มีวิธีที่สามารถในการตรวจสอบความจริงหรือปลอมได้ ผู้เชี่ยวชาญด้าน AI หรือผู้เชี่ยวชาญที่ทำงานทางด้านการสืบค้นหลักฐานทางดิจิทัลต่างมีเครื่องมือที่สามารถใช้เพื่อตรวจสอบได้
แต่ลองคิดดูนะคะว่าในยุคที่เราเสพข้อมูลข่าวสารเป็นปริมาณมากๆ แบบทุกวันนี้ เมื่อคลิปบางอย่างถูกปล่อยออกไปและมีคนจำนวนเป็นล้านๆ ได้เห็นแล้ว จะมีสักกี่คนที่ได้ติดตามผลต่อเนื่องว่าท้ายที่สุดคลิปนั้นเป็นคลิปปลอมที่ถูกสร้างขึ้น
จะมีสักกี่คนที่เชื่อฝังใจไปแล้วในสิ่งที่ได้เห็นและได้ยิน
หรือจะมีกี่คนที่แม้จะรู้แล้วว่าคลิปนั้นเป็นของปลอมแต่ก็ยังอดไม่ได้ที่จะเกิดความรู้สึกกังขาต่อบุคคลผู้นั้นติดค้างไว้ในใจอยู่ดี
O’Sullivan บอกว่าเราทุกคนมีคนในครอบครัวที่มีความเชื่อทางการเมืองไปในทางใดทางหนึ่ง และเรามักจะคิดว่าคนที่อยู่คนละฝั่งกับเรานั่นแหละที่ได้รับข้อมูลเท็จไป แต่ในกรณีของดีพเฟคนี้ ไม่ว่าจะมีความเชื่อทางการเมืองอยู่ในฝั่งไหนก็มีโอกาสที่จะได้รับข้อมูลผิดไปเท่าๆ กัน
อีกมุมหนึ่งที่น่าสนใจก็คือในกรณีที่มีคลิปเสียงหรือคลิปวิดีโอของใครสักคนที่ถูกเผยการกระทำออกมา แม้จะเป็นคลิปเหตุการณ์จริงแต่เจ้าตัวก็สามารถอ้างว่าเป็นสิ่งที่ถูกสร้างขึ้นด้วยเทคโนโลยีดีพเฟคก็จะเป็นการลดทอนความน่าเชื่อถือของหลักฐานไปได้ด้วยเหมือนกัน
แล้วจะทำอย่างไรให้เราไม่หลงเชื่อภาพ คลิปเสียง หรือคลิปวิดีโอที่ถูกสร้างขึ้นด้วย AI คำแนะนำที่ผู้เชี่ยวชาญให้ก็ยังคงกลับไปที่แนวคิดเดิมเสมอคืออย่าเชื่อทุกสิ่งที่เห็นหรือได้ยินในทันที แม้ว่าสิ่งๆ นั้นจะมาในรูปแบบภาพเคลื่อนไหวที่ดูสมจริงก็ตาม
O’Sullivan ทิ้งท้ายว่าการที่แม่ของเขาคุยกับเสียงปลอมที่เขาสร้างขึ้นแล้วรู้สึกว่ามีอะไรบางอย่างผิดปกติก็น่าจะเป็นความหวังให้ว่าเราอาจจะยังรับรู้ถึงความปลอมของเทคโนโลยีนี้ได้ในระดับหนึ่ง
ที่เหลือก็คือการฟังหูไว้หู เพิ่มพูนทักษะในการที่จะตรวจสอบความจริงเท็จของข้อมูล รู้ว่าแหล่งข้อมูลไหนเชื่อถือได้ รู้ว่าจะต้องตรวจสอบข้อมูลได้ที่ไหน
เราทุกคนกำลังก้าวเข้าสู่ยุคแห่งดีพเฟกทางการเมืองไปด้วยกัน… ไม่ว่าจะพร้อมหรือไม่ก็ตาม
สะดวก ฉับไว คุ้มค่า สมัครสมาชิกนิตยสารมติชนสุดสัปดาห์ได้ที่นี่https://t.co/KYFMEpsHWj
— MatichonWeekly มติชนสุดสัปดาห์ (@matichonweekly) July 27, 2022