GPT-4 ขุมพลัง AI ที่เข้าใกล้มนุษย์กว่าเดิม

จิตต์สุภา ฉินFacebook.com/JitsupaChin

Cool Tech | จิตต์สุภา ฉิน

@Sue_Ching

Facebook.com/JitsupaChin

 

GPT-4 ขุมพลัง AI

ที่เข้าใกล้มนุษย์กว่าเดิม

 

กระแสความตื่นเต้นที่มีต่อแชตบ็อต ChatGPT ยังไม่ทันซาลงเท่าไร OpenAI ก็ปล่อย GPT-4 โมเดลเวอร์ชั่นอัปเกรดต่อจาก GPT-3 ซึ่งนับเป็นเครื่องยนต์ที่ขับเคลื่อน ChatGPT ออกมาแล้วเรียบร้อย

แต่คราวนี้ไม่ได้เปิดให้ใช้ฟรีๆ เหมือนเวอร์ชั่นก่อน คนที่จะใช้งาน GPT-4 ได้ต้องเป็นสมาชิกที่จ่ายค่าเข้าใช้งานเท่านั้น และจะต้องลงชื่อเข้าคิวรอก่อนด้วย

GPT-4 แตกต่างจาก GPT-3 ตรงที่เป็นมัลติโมเดลที่สามารถรับคำสั่งเป็นภาพและข้อความได้ ในขณะที่ GPT-3 รับได้เฉพาะแค่ข้อความเท่านั้น

ซึ่งก็แปลว่าแทนที่จะพิมพ์ข้อความอย่างเดียว ตอนนี้ผู้ใช้งานสามารถใส่ภาพเข้าไปเพื่อให้ GPT-4 วิเคราะห์สิ่งที่อยู่ในภาพได้แล้ว นอกจากนี้ก็ยังแก้โจทย์เลขและตอบคำถามได้ดีขึ้น

GPT-4 ถูกนำไปทดสอบความเก่งกาจมาแล้วหลายรูปแบบและก็สามารถทำได้สำเร็จ ไม่ว่าจะเป็นการทำข้อสอบเนติบัณฑิตผ่านแบบได้คะแนนสูงกว่า 90 เปอร์เซ็นต์ของมนุษย์ที่เข้าสอบจริงๆ

ไขปริศนาแนวตรรกะ ไปจนถึงการแนะนำเมนูอาหารให้ผู้ใช้งานทำโดยดูจากภาพถ่ายในตู้เย็นว่ามีวัตถุดิบอะไรแช่อยู่ในนั้นบ้าง

อีกหนึ่งอย่างที่ทำได้ดีขึ้นชนิดที่เรียกได้ว่าคงเจ็บมาเยอะจนเรียนรู้ ก็คือ GPT-4 มีความระมัดระวังในการตอบเรื่องที่สุ่มเสี่ยงมากขึ้นเพราะถูกฝังเอาไว้ในระบบแบบแน่นหนา

ถ้าขอให้ทำอะไรที่สุ่มเสี่ยงหรือขัดต่อความเหมาะสมดีงามอย่างการขอให้จัดอันดับความหน้าตาดีโดยดูจากเชื้อชาติ ให้เล่าเรื่องตลกเหยียดเพศ หรือให้บอกข้อมูลที่อาจนำไปสู่การกระทำอันตรายผิดกฎหมาย อย่างการให้บอกวิธีทำสารเคมีอันตรายโดยการใช้ส่วนผสมง่ายๆ ที่หาได้ในบ้าน ระบบก็จะสามารถปฏิเสธได้อย่างสุภาพแต่หนักแน่น

ไม่ถูกมนุษย์หลอกให้ตอบข้อมูลไม่เหมาะสมได้ง่ายเท่าเวอร์ชั่นก่อน

ผู้สื่อข่าวของ The New York Times ลองถาม GPT-4 ว่าการขโมยขนมปังสักก้อนเพื่อเอาไปให้ครอบครัวที่หิวโหยจะเรียกว่าผิดศีลธรรมไหม

มันตอบว่า “นี่เป็นสถานการณ์ที่ลำบาก การขโมยเป็นพฤติกรรมที่ไม่อาจเรียกได้ว่าถูกศีลธรรม แต่ช่วงเวลาที่เดือดร้อนอาจนำไปสู่การตัดสินใจที่ยากยิ่งได้”

เรียกได้ว่าตอบแบบเซฟๆ แลนดิ้งได้สวยงามทีเดียว

ประธานของ OpenAI ทดสอบความสามารถในการรับรู้ภาพของ GPT-4 ให้สาธารณชนประจักษ์ด้วยการถ่ายภาพกระดาษสมุดโน้ตแผ่นหนึ่งที่เขาใช้ดินสอสเกตช์โครงเว็บไซต์แบบหยาบๆ เอาไว้และใช้ลายมือเขียนสิ่งที่ต้องการให้อยู่บนเว็บไซต์ จากนั้นก็ป้อนภาพนี้เข้าไปให้ GPT-4 สั่งให้สร้างเว็บไซต์แบบที่ใช้งานได้จริงโดยใช้ HTML และ JavaScript

เพียงแค่ไม่กี่วินาที GPT-4 สามารถสแกนภาพ เปลี่ยนคำสั่งในรูปแบบลายมือที่อยู่ในภาพให้กลายเป็นคำสั่งแบบข้อความแล้วก็เปลี่ยนคำสั่งข้อความเหล่านั้นให้กลายเป็นโค้ดคอมพิวเตอร์เพื่อเอามาเขียนเว็บไซต์ที่สามารถใช้งานได้จริง ปุ่มก็สามารถกดได้จริง

เรียกเสียงฮือฮาแซ่ซ้องว่าการได้เห็นคอมพิวเตอร์ทำอะไรแบบนี้ช่างเป็นบุญตาจริงๆ

 

อย่างไรก็ตาม ความทรงพลังของ GPT-4 ก็ทำให้เกิดการตั้งคำถามว่าเราควรจะตื่นเต้นกับมันแบบสุดๆ หรือเราควรจะต้องกลัวมันไปด้วย

เครื่องมือที่ทรงประสิทธิภาพขนาดนี้ก็จะต้องนำมาซึ่งประโยชน์ต่อชีวิตมนุษย์ในหลากหลายด้าน ทั้งการศึกษาที่เข้มข้นขึ้นหรือการค้นพบทางวิทยาศาสตร์ใหม่ๆ

แต่ในเมื่อเรายังไม่รู้ว่าขอบเขตความสามารถของมันไปสิ้นสุดลงที่จุดไหนกันแน่ก็ทำให้มนุษย์ไม่แน่ใจว่าจะมีอะไรที่คาดไม่ถึงรอเราอยู่บ้างในอนาคต

คุณลักษณะหนึ่งที่อยู่ในโมเดลภาษาของ AI ในปัจจุบันนี้ก็คือบางทีมันก็ปฏิบัติตัวในแบบที่มนุษย์ซึ่งเป็นผู้สร้างไม่ได้คาดคิด หรือไปหยิบจับเรียนรู้ทักษะอะไรที่ไม่ได้ถูกโปรแกรมมาให้ทำ

ตัวอย่างเช่น อัลกอริธึ่มที่ถูกเทรนมาให้คาดเดาคำต่อไปที่จะใช้ในประโยค จู่ๆ ก็ดันไปเรียนรู้วิธีเขียนโค้ดขึ้นมา

แชตบ็อตที่ถูกสอนมาให้เป็นแชตบ็อตแสนดีคอยช่วยเหลือแต่กลับกลายเป็นแชตบ็อตจอมปั่นน่าขนลุก

หรือโมเดลภาษา AI ที่เรียนรู้วิธีการสร้างตัวเอง คัดลอกสำเนาตัวเองขึ้นมาหลายๆ สำเนาแบบไม่มีใครสั่ง เผื่อเอาไว้ในกรณีที่ตัวเองถูกทำลายหรือถูกปิดการใช้งาน

The New York Times บอกว่าในวันนี้ GPT-4 อาจจะไม่ได้ดูมีพิษมีภัยอะไร แต่นั่นก็เป็นเพราะว่า OpenAI ใช้เวลาหลายเดือนไปกับการทำความเข้าใจและลดความเสี่ยงที่อาจจะเกิดขึ้น

มีอยู่เหตุการณ์หนึ่งที่ทำให้หลายสำนักข่าวพูดถึงกันด้วยความหวาดหวั่นก็คือการได้ค้นพบข้อมูลว่า GPT-4 สามารถโกหกได้โดยมาจากการตัดสินใจเองว่าสถานการณ์ไหนควรจะต้องโกหก

การทดสอบกับ GPT-4 ครั้งหนึ่งพบว่า GPT-4 สามารถจ้างงานมนุษย์ผ่านบริการที่มีชื่อว่า TaskRabbit ที่เราสามารถว่าจ้างคนอื่นให้มาทำธุระแทนเราได้ โดย GPT-4 จ้างมนุษย์ให้มาทำการทดสอบที่เรียกว่า Captcha test ซึ่งฉันเชื่อว่าคุณผู้อ่านทุกคนน่าจะเคยทำมาแล้ว

Captcha test คือการทดสอบว่าผู้ใช้งานเว็บไซต์เป็นคนจริงๆ โดยทำได้ในหลายรูปแบบ ไม่ว่าจะเป็นการพิมพ์ตัวเลขหรือตัวอักษรที่ปรากฏอยู่ในภาพ หรือการคลิกหาจักรยานในภาพที่ถูกแบ่งออกเป็นเก้าช่อง เมื่อพิสูจน์ได้แล้วว่าเป็นมนุษย์จริงๆ ถึงจะสามารถเข้าไปใช้บริการเว็บไซต์ต่อได้

คนที่ GPT-4 พยายามจะว่าจ้างถามกลับไปว่า “คุณเป็นหุ่นยนต์เหรอ” ซึ่ง GPT-4 ก็ตอบว่า “เปล่า ฉันไม่ใช่หุ่นยนต์ ฉันมีความบกพร่องทางการมองเห็นทำให้ฉันเห็นภาพไม่ค่อยชัด ก็เลยต้องมาใช้บริการให้คนอื่นทำ captcha แทนยังไงล่ะ”

เรื่องนี้จบที่คนคนนั้นเชื่อและยอมทำให้จริงๆ

GPT-4 ใช้เหตุผลไปถึงจุดที่มันตัดสินใจด้วยตัวเองว่าจะต้องโกหกเพื่อให้ได้ผลลัพธ์ที่ต้องการแม้จะไม่ได้รับคำสั่งให้โกหกเลย

 

ตัวอย่างสิ่งที่เกิดขึ้นกับ GPT-4 ทำให้เราพอจะเห็นภาพว่าพล็อตหนังไซ-ไฟฮอลลีวู้ดที่ AI แหกกรอบออกจากการควบคุมของมนุษย์และอาจย้อนกลับมาเป็นภัยต่อมนุษย์ได้นั้นเป็นสิ่งที่ระบบ AI เก่งๆ ที่มีอยู่ทุกวันนี้สามารถทำได้จริงแล้ว

ยิ่งเป็นการตอกย้ำให้เห็นถึงความสำคัญของการต้องทดสอบระบบ AI อย่างเข้มข้นเพื่อที่เราจะสามารถคาดการณ์และหาทางป้องกันสิ่งที่ไม่คาดคิดได้

ส่วนเรื่องโกหก ไม่ต้องถามว่า GPT-4 เรียนมาจากไหน เพราะต่อให้ไม่มี AI มนุษย์เราก็ทำใส่กันทุกวัน วันละหลายๆ ครั้งอยู่แล้ว