รายงานพิเศษ/โชคชัย บุณยะกลัมพ/รู้ทัน ‘ปลอมเสียง ปลอมแชต ปลอมคลิป’ Deepfake เรื่องปลอมที่เหมือนจริง

รายงานพิเศษ/โชคชัย บุณยะกลัมพ

https://www.facebook.com/ChokCyberAIEntertainment/

รู้ทัน ‘ปลอมเสียง ปลอมแชต ปลอมคลิป’

Deepfake เรื่องปลอมที่เหมือนจริง

 

Deepfake เกิดจากการผสมกันของคำว่า Deep Learning กับ “Fake”

คือเทคนิคในการสร้างปัญญาประดิษฐ์โดยใช้คอมพิวเตอร์สร้างการเรียนรู้ใบหน้าลักษณะท่าทางของบุคคลร่วมกับภาพและวิดีโอ ในการสร้างคลิปให้เกิดการเคลื่อนไหวพร้อมกับเสียงพูดให้ตรงกับปากที่ขยับ

หลายๆ คลิปที่ออกมามีคนดังหลายคนถูกนำมาตัดต่อเลียนแบบจนแยกไม่ออกว่าพูดจริงหรือทำขึ้นมา

การใช้เทคนิคด้านปัญญาประดิษฐ์มาใช้ในการสร้างด้วยเทคโนโลยีที่ก้าวหน้านี้ทำให้มีความแนบเนียนตรวจสอบได้ยาก

เช่น วิดีโอเลียนแบบท่าทางบุคคลสร้างความตื่นตระหนกให้กับชาวโลก กรณีของประธานาธิบดีบารัค โอบามา มาร์ก ซักเคอร์เบิร์ก ตัวปลอม ที่เคยโดนมาก่อน

ความน่ากลัวเริ่มมีมากขึ้นเรื่อยๆ การใช้ปลอมเสียง การโคลนเสียงพูด มารวมกับเทคนิค social engineering ก็จะทำให้เหยื่อหลงเชื่อ โดนหลอกโอนเงินได้ง่ายๆ

การหลอกลวงด้วยเครื่องมือ Deepfake สามารถเข้าถึงได้ง่ายและนำมาใช้งานมากขึ้น

สิ่งที่ต้องการในการทำ Deepfake ก็คือการอัดเสียงของเป้าหมาย เพื่อนำมาให้ AI เรียนรู้ ตามบริษัทใหญ่ๆ นั้นสามารถรวบรวมข้อมูลได้ง่ายมาก ไม่ว่าจะเป็นการประชุม, สัมภาษณ์หรือการกล่าวสุนทรพจน์ในที่สาธารณะ การแถลงข่าวงานต่างๆ

ตัวอย่างคลิปปลอมที่ถูกสร้างขึ้นโดยปัญญาประดิษฐ์ ซึ่งในคลิปคือ ประธานาธิบดีสหรัฐ นายโดนัลด์ ทรัมป์ ซึ่งถูกปลอมขึ้นทั้งท่าทางและเสียงที่ใช้ ดู https://www.instagram.com/p/ByPhCKuF22h/?utm_source=ig_web_copy_link

 

ทุกคนอาจเคยได้ชมคลิปหลากหลายคลิปโดยที่อาจไม่รู้เลยว่าคลิปดังกล่าวถูกสร้างขึ้นด้วยเทคนิคปัญญาประดิษฐ์ AI ที่เรียกว่า Deepfake (ดีปเฟก)

เทคโนโลยี ‘ปลอมเสียง ปลอมแชต ปลอมคลิป’ เปลี่ยนเรื่องปลอมๆ ให้สมจริง ถูกพูดถึงกันมากขึ้นในประเทศไทยครั้งแรกในช่วงปี 2560 จากการค้นหาใน Google และมีแนวโน้มที่เพิ่มสูงขึ้นทุกๆ ปี โดยเฉพาะอย่างยิ่งในปีที่แล้วที่มีการค้นหาคำนี้ในประเทศไทยสูงขึ้นมากกว่าปีที่ผ่านๆ มา

ในปัจจุบันเรามักจะคุ้นชินกับการใช้ในการบิดเบือนข้อมูลด้วยการเลียนแบบใบหน้าบุคคลที่มีชื่อเสียงหรือผู้ที่สังคมโซเชียลให้ความสนใจ

เช่น การดัดแปลงภาพของบารัค โอบามา โดนัลด์ ทรัมป์ มาร์ก ซักเคอร์เบิร์ก รวมถึงผู้นำประเทศต่างๆ ซึ่งบางครั้งอาจจะมีเป้าหมายในการสร้างความเสื่อมเสียหรือสร้างแถลงการณ์ที่เกิดขึ้นมาเพื่อให้เกิดการรับรู้ที่ผิดไปจากความจริง

หรือในบางครั้งก็อาจจะหวังผลทางการเมือง

และในอีกหลายกรณีก็เป็นการสร้างขึ้นมาเพื่อแสดงทักษะการพัฒนาทางเทคโนโลยีในการทำเพื่อความบันเทิงเท่านั้น

หรือแม้กระทั่งวงการอุตสาหกรรมผลิตหนังผู้ใหญ่หรือว่าหนังอนาจาร ในปี 2562 ร้อยละ 96 คลิปที่สร้างขึ้นถูกนำไปใช้ในการสร้างคลิปอนาจารโดยนำใบหน้าของบุคคลที่มีชื่อเสียงไปใส่ในคลิปเพื่อสร้างความเสื่อมเสียมีเป้าหมายเพื่อสร้างการเข้าใจผิดและเป็นการกลั่นแกล้งคุกคามในสื่อสังคมออนไลน์อีกรูปแบบหนึ่ง

 

สิ่งที่น่ากังวลที่สุดคือในปัจจุบันการสร้างคลิปไม่ยุ่งยากและต้นทุนไม่สูงเหมือนในอดีต ที่อาจจะต้องมีคอมพิวเตอร์ที่คุณภาพสูงทรงพลังมากๆ สักเครื่องหรือมีความรู้ในการใช้ซอฟต์แวร์ขั้นเทพ

ด้วยทุกวันนี้เราสามารถทำวิดีโอในเฟซแบบสำหรับตกแต่งใบหน้าได้ง่ายๆ ด้วยโทรศัพท์เครื่องเดียวที่เราใช้ใน Application ต่างๆ กัน

อาจจะไม่แนบเนียนมากนัก แต่ก็สามารถสร้างความเข้าใจผิดได้และนั่นเป็นสัญญาณว่าในอนาคตก็จะพบกับเนื้อหาที่มีการแก้ไขดัดแปลงแบบนี้ง่ายขึ้น ซึ่งเป็นที่มาเบื้องต้นของคำว่า Deepfake หรือการสร้างดัดแปลงข้อมูลด้วยเทคนิคปัญญาประดิษฐ์ เทคโนโลยีเหล่านี้สร้างข้อมูลเท็จมาหลอกลวงเราได้อย่างแนบเนียน

ยังมีอีกหลายแง่มุมเกี่ยวกับ Deepfake แต่หากเรามีทักษะในการตรวจสอบมากเพียงพอก็สามารถช่วยให้เราและคนรอบข้างไม่ตกเป็นเหยื่อได้

 

รูปแบบของวิดีโอที่ถูกดัดแปลงและส่งต่อเพื่อสร้างความเข้าใจผิดในโซเชียลเราจะป้องกันตัวเราเองได้อย่างไรอาจมีเคล็ดลับและวิธีง่ายๆ ในการตรวจสอบด้วยตนเองเบื้องต้นได้ว่าวิดีโอที่ท่านได้รับจริงหรือปลอมกันแน่

– พิจารณาความเป็นไปได้ของเนื้อหาข้อแรกเป็นการเริ่มต้นจากความรู้สึกของตัวเราเองก่อนเลยครับว่าคลิปที่ได้รับชมอยู่นั้นมีความเป็นไปได้มากแค่ไหน

เช่น คลิปปรากฏการณ์เหนือธรรมชาติ หรือเรื่องเหลือเชื่อ รู้สึกว่าเรื่องนั้นเป็นไปได้ยาก

– เหตุการณ์ส่วนมากที่ถูกเผยแพร่นั้นเป็นเหตุการณ์ที่เกิดภายนอกอาคาร ดังนั้น แสงแดดและเงาสามารถเป็นตัวช่วยเราได้โดยการสังเกตว่าในคลิปนั้นเงาของวัตถุต่างๆ เป็นไปตามธรรมชาติหรือไม่ เช่น คลิปนี้ถูกส่งต่อแล้วบอกว่าเหยี่ยวบินมาเพื่อจะมาขโมยเด็กไป แต่เมื่อสังเกตจะพบว่าเงาของวัตถุในภาพต่างกัน ซึ่งแน่นอนว่ามีการดัดแปลง และหากเราเจอคลิปที่ไม่มีเงาของวัตถุอยู่เลย

– ค้นหาข้อมูลเพิ่มเติมเกี่ยวกับสิ่งที่ได้รับ เมื่อเราได้รับคลิปวิดีโอมาแล้วและสังเกตว่ามีความผิดปกติอย่างไรหรือไม่ อย่าเพิ่งเชื่อทันที ลองตรวจสอบข้อมูลที่เกี่ยวข้องกับเหตุการณ์ที่เกิดขึ้นเสียก่อน การค้นหาอาจนำเราไปพบกับต้นฉบับหรือข้อมูลที่มีผู้ตรวจสอบไว้แล้วและทำให้เรารู้อีกว่านั่นจริงหรือเท็จ

อย่างไรก็ตาม คลิปที่ถูกดัดแปลงตัดต่อนั้นก็อาจจะไม่ได้เข้าข่ายกับข้อสังเกตเบื้องต้นทั้งหมด เนื่องจากเทคโนโลยีความก้าวหน้าด้านคอมพิวเตอร์รวมทั้งทักษะของบุคคลที่เกี่ยวข้องกับการผลิตขึ้นวิดีโอนั้นก็มีความเชี่ยวชาญและชำนาญมากยิ่งขึ้นซึ่งอาจจะสามารถสร้างคลิปที่ดูเรียบเนียนและทำให้เราหลงเชื่อได้ง่าย

หากมีผู้รับชมคลิปปลอมเหล่านี้มากเท่าไหร่ อาจส่งผลกระทบต่อสังคม และตัวบุคคลที่ปรากฏอยู่ในคลิปมากเท่านั้น