‘แชตบ็อต AI’ กระจกส่องความปรารถนาในใจเรา

จิตต์สุภา ฉินFacebook.com/JitsupaChin

Cool Tech | จิตต์สุภา ฉิน

@Sue_Ching

Facebook.com/JitsupaChin

 

‘แชตบ็อต AI’

กระจกส่องความปรารถนาในใจเรา

 

ปีนี้นับเป็นปีที่ผู้ใช้งานทั่วไปได้สัมผัสและทดลองใช้เทคโนโลยีแชตบ็อต AI จากหลากหลายค่ายได้อย่างใกล้ชิดโดยมีตัวจุดกระแสหลักๆ คือ ChatGPT จาก OpenAI

หลังจาก ChatGPT กลายเป็นทอล์กออฟเดอะทาวน์ไม่นาน Microsoft ก็ประกาศว่าจะใส่แชตบ็อต AI เข้าไปในเสิร์ชเอนจิ้น Bing ของตัวเองและให้ผู้ใช้งานที่สนใจลงทะเบียนทดลองใช้ด้วยความหวังว่าเสิร์ชเอนจิ้นของตัวเองจะเรียกความนิยมบางส่วนกลับคืนมาจาก Google ได้บ้าง

Microsoft บอกว่า Bing ที่ขับเคลื่อนด้วย AI จะช่วยให้ผู้ใช้งานค้นหาข้อมูลที่เกี่ยวข้องได้แม่นยำขึ้นโดยใช้อัลกอริธึ่มที่จะเลือกคำให้ด้วยการเรียนรู้จากข้อความจำนวนมหาศาลบนอินเตอร์เน็ต ช่วยให้ผู้ใช้งานได้ข้อมูลที่เฉพาะเจาะจงได้มากกว่าเก่า และใช้ภาษาที่อ่านเข้าใจง่ายโดยจะให้เขียนด้วยสไตล์ไหนก็ได้ทั้งหมด

ทว่า ชะตากรรมของแชตบ็อต Bing ไม่ได้ออกมาสวยหรูเหมือนที่คาดฝัน เพราะหลังจากเปิดให้ทดลองใช้งานไม่นานก็มีข่าวออกมาว่า AI ของ Bing มีปัญหาที่น่ากังวลหลายอย่าง ทั้งการให้ข้อมูลที่ไม่ถูกต้อง

อย่างการยืนยันกระต่ายขาเดียวว่าวันที่ 12 กุมภาพันธ์ 2023 มาก่อนวันที่ 16 ธันวาคม 2022 หรือพรั่งพรูเรื่องเพ้อฝันไร้สาระ ไปบอกรักนักเขียนของ New York Times ที่เข้าไปทดลองใช้งานและชักชวนให้เขาหย่ากับภรรยา

และไปเรียกนักข่าวของ AP ว่าเป็นคนที่แย่และเลวที่สุดในประวัติศาสตร์

สร้างความตกใจให้กับหลายๆ คนที่ได้ทดลองใช้

 

แชตบ็อต AI อีกหนึ่งเจ้าที่เปิดตัวในเวลาไล่เลี่ยกันและมีชะตากรรมที่ไม่ทิ้งห่างกันก็คือ Bard ของ Google เพราะเปิดตัวได้ไม่นานทั้งนักวิทยาศาสตร์และสื่อมวลชนก็วิจารณ์กันขรมว่า Bard ให้ข้อมูลผิด

อย่างการบอกว่ากล้องโทรทรรศน์อวกาศเจมส์เว็บบ์ถ่ายภาพดาวเคราะห์นอกระบบสุริยจักรวาลได้เป็นภาพแรก

ความผิดพลาดนี้ทำให้หุ้นของ Alphabet บริษัทแม่ของ Google สูญเสียมูลค่าตลาดไปมากกว่า 1 พันล้านดอลลาร์ ภายในเวลารวดเร็ว

Microsoft ออกมายอมรับว่าการคุยแชตกับ Bing นานๆ จะทำให้โมเดลปัญญาประดิษฐ์เกิดความสับสนจนให้คำตอบในแบบที่ทางบริษัทไม่ได้ตั้งใจ ทางบริษัทจะแก้ปัญหาด้วยการกำหนดระยะเวลาและจำนวนครั้งที่ผู้ใช้งานสามารถคุยแชตกับแชตบ็อตได้ในแต่ละครั้ง

ส่วน Google ก็บอกว่าความผิดพลาดที่เกิดขึ้นยิ่งเป็นการตอกย้ำให้เห็นถึงความสำคัญของการทดลองใช้งานโดยจะขอเปิดรับฟีดแบ็กจากภายนอกเพื่อนำมารวมกับฟีดแบ็กจากภายในและปรับปรุงให้ Bard มีคุณภาพสูง ปลอดภัย และให้ข้อมูลที่สะท้อนความจริง

 

ถึง ChatGPT จะเปิดตัวมาท่ามกลางเสียงตอบรับที่ดีแต่ก็ไม่ได้หมายความว่าไม่มีปัญหาเรื่องข้อมูลผิดพลาดด้วยเหมือนกัน และต้องไม่ลืมว่าปัญญาประดิษฐ์ที่อยู่เบื้องหลัง Bing ที่คนก่นด่าก็คือ ChatGPT เองนี่แหละ

แชตบ็อตอย่าง ChatGPT หรือ Bard มีหลักการคือการลอกเลียนแบบการเรียนรู้ของสมองมนุษย์โดยจะเรียนจากข้อความปริมาณมหาศาลที่อยู่บนอินเตอร์เน็ต อย่างที่เราก็รู้กันดีว่าไม่ใช่ทุกอย่างที่อยู่บนอินเตอร์เน็ตจะถูกต้องเสมอไป ดังนั้น ถ้า AI เรียนรู้จากข้อมูลผิดๆ ก็ไม่ใช่เรื่องน่าแปลกใจที่มันจะทวนข้อมูลผิดๆ นั้นกลับมาให้เรา

บทความหนึ่งบน New York Times บอกว่าถ้าอยากเข้าใจว่าทำไมแชตบ็อต AI ที่เราใช้กันถึงได้ให้ข้อมูลผิด โกหก หรือแสดงพฤติกรรมแปลกๆ

ง่ายนิดเดียว แค่มองไปที่กระจกเท่านั้นแหละเราก็จะได้คำตอบ

เมื่อเราพิมพ์แชตคุยกับแชตบ็อต แชตบ็อตไม่ได้แค่หยิบสิ่งที่มันเรียนรู้จากอินเตอร์เน็ตมาต่อบทสนทนากับเราเท่านั้น แต่มันยังหยิบคำของเราเข้าไปผสมกับคำของมันด้วย

แปลว่ายิ่งเราคุยกับแชตบ็อตนานแค่ไหน คำของเราก็จะส่งอิทธิพลต่อคำตอบของแชตบ็อตมากขึ้นเรื่อยๆ แม้ว่าเราอาจจะไม่รู้ตัวเลยก็ตาม

ศาสตราจารย์ Sejnowski จาก University of California ใน San Diego ให้สัมภาษณ์กับ The Straits Times ว่าถ้าเราอยากให้มันโกรธ มันก็จะโกรธ หรือถ้าเราไปต้อนให้มันทำตัวน่าขนลุก มันก็จะทำตัวน่าขนลุกแบบที่เราต้องการได้เลย

เขาเปรียบเปรยให้ฟังว่าพฤติกรรมของแชตบ็อต AI คล้ายๆ กับกระจกเงาแห่งแอริเซด หรือ Mirror of Erised จากนิยาย Harry Potter ที่เมื่อส่องกระจกเราจะมองเห็นความปรารถนาในหัวใจของตัวเอง โดยที่คำว่า Erised ก็มาจากคำว่า Desired หรือ ‘ปรารถนา’ ที่สะกดจากหลังมาหน้านั่นเอง

 

การแชตกับแชตบ็อตคล้ายกับการส่องกระจกเงาแห่งความปรารถนาที่สะท้อนให้เห็นถึงตัวตนของคนที่ยืนอยู่หน้ากระจก คนและแชตบ็อตสลับกับสะท้อนตัวตนของกันและกันไปมา อย่างพฤติกรรมแปลกๆ ที่ผู้ทดลองใช้งานได้เจอในระหว่างการแชตกับแชตบ็อตก็อาจจะเกิดจากบทสนทนายืดยาวที่มนุษย์เราต้อนให้ระบบเดินไปตามทิศทางนั้นๆ ก็ได้

สิ่งสำคัญที่จะต้องทำความเข้าใจก็คือระบบเหล่านี้เรียนรู้จากข้อมูลที่ใหญ่มหึมาในแบบที่สมองนิ่มๆ ของมนุษย์เราจะไม่มีวันจินตนาการได้เลยว่าเยอะขนาดไหน เราไม่สามารถชำแหละ AI ออกมาทำความเข้าใจได้ว่าทำไมมันถึงเลือกประมวลผลและโต้ตอบกลับมาในแบบที่มันทำ ซึ่งบริษัทอย่าง Microsoft และ OpenAI ก็เข้าใจข้อจำกัดนี้ดี และได้ตัดสินใจว่าวิธีเดียวที่จะรู้ได้ว่าแชตบ็อตจะทำอะไรบ้างก็คือต้องปล่อยมันออกไปสู่โลกกว้างแล้วคอยดึงมันกลับมาบ้างเวลาที่มันเริ่มออกนอกลู่นอกทาง นี่เป็นเหตุผลที่สาธารณชนคนทั่วไปได้เริ่มทดลองใช้แชตบ็อต AI กันอย่างแพร่หลายนี่แหละค่ะ

ให้ทดลองใช้ไป พอเจออะไรที่ผิด ที่เลวร้าย ก็แก้กันไปเรื่อยๆ จนมันผิดน้อยลง เลวร้ายน้อยลง

ด้วยความหวังว่ามันจะเป็นเครื่องมือที่เป็นประโยชน์ให้เราในสัดส่วนที่น้อยกว่าการให้โทษ คุ้มค่าที่จะใช้งานแม้ว่ามันจะสะท้อนด้านมืดหรือข้อบกพร่องของมนุษย์อย่างเราให้เราได้เห็นเด่นชัดขึ้นก็ตาม