ที่มา | มติชนสุดสัปดาห์ ฉบับวันที่ 21 - 27 กุมภาพันธ์ 2568 |
---|---|
คอลัมน์ | Biology Beyond Nature |
ผู้เขียน | ภาคภูมิ ทรัพย์สุนทร |
เผยแพร่ |
Biology Beyond Nature | ภาคภูมิ ทรัพย์สุนทร
เอไอปะทะไบโอเทค – ภาค 1/3
(ซีรีส์ประวัติศาสตร์อุตสาหกรรมไบโอเทค)
ตุลาคมปี 2024 John J. Hopfield ได้รางวัลโนเบลสาขาฟิสิกส์จากผลงานด้าน โครงข่ายประสาทเทียม (Artificial Neural Networks) ซึ่งเปรียบเสมือนมันสมองของปัญญาประดิษฐ์ (AI) ยุคใหม่
ชื่อของ Hopfield บนพาดหัวข่าวชวนผมนึกย้อนเวลากลับไปเกือบยี่สิบปีสมัยผมเป็นนักศึกษาปริญญาตรีด้านชีววิทยาผู้แทบจะไม่รู้อะไรเลยเกี่ยวกับคอมพิวเตอร์นอกจากพิมพ์งาน ทำสไลด์ และใช้อินเตอร์เน็ตนิดหน่อย
Hopfield เคยดำรงตำแหน่งศาสตราจารย์ที่สถาบันเทคโนโลยีแคลิฟอร์เนีย (Caltech) ช่วงต้นทศวรรษที่ 1980s ถึงปลายทศวรรษที่ 1990s ร่วมสมัยกับ Carver Mead ผู้บุกเบิกวงการเซมิคอนดักเตอร์ และ Richard Feynman นักฟิสิกส์กลศาสตร์ควอนตัมผู้โด่งดัง
Erik Winfree หนึ่งในลูกศิษย์ปริญญาเอกของ Hopfield กลายมาเป็นอาจารย์ต่อที่ Caltech ทำวิจัยผสมผสานระหว่างศาสตร์ชีวโมเลกุลโดยเฉพาะดีเอ็นเอกับทฤษฎีการคำนวณประมวลผลข้อมูลแบบในคอมพิวเตอร์ ทีมของเขาที่ภาควิชา Computation and Neural Systems (CNS) ศึกษาความสัมพันธ์ที่น่าทึ่งระหว่างชีววิทยาและการคำนวณ-การประมวลผลในระบบชีววิทยาสามารถเป็นแรงบันดาลใจให้กับการคำนวณ
และในขณะเดียวกัน วิทยาการคอมพิวเตอร์ก็สามารถช่วยให้เราเข้าใจชีววิทยาได้ลึกซึ้งยิ่งขึ้น

Cr ณฤภรณ์ โสดา
ผมเริ่มเข้าปริญญาตรีที่ Caltech ตอนปี 2004 ในด้วยทุนรัฐบาลไทยในสาขาชีววิทยาที่ผมถนัด ผมไม่เคยคิดเลยว่า ชีววิทยาและวิทยาการคอมพิวเตอร์จะกลายเป็นสิ่งที่แยกจากกันไม่ได้ แต่ด้วยจับพลัดจับผลูเข้าไปนั่งเรียนคอร์สวิทยาการคอมพิวเตอร์เบื้องต้นแล้วติดใจ บวกกับไปได้งานซัมเมอร์ที่กลุ่มวิจัยของ Erik Winfree กลายมาเป็นอาจารย์ที่ปรึกษาคนแรกในชีวิตก็เปลี่ยนวิธีคิดของผมไปโดยสิ้นเชิง
การได้คลุกคลีใช้เวลาอยู่กับกลุ่มวิจัยของ Winfree ทำให้ผมเริ่มมอง ยีนเป็นชุดคำสั่ง มองปฏิกิริยาเคมีในร่างกายเป็นวงจรอิเล็กทรอนิกส์ และมองวิวัฒนาการเป็นอัลกอริธึ่มที่ปรับแต่งตัวเองเพื่อความอยู่รอด
ความเข้าใจใหม่นี้ทำให้ผมตื่นเต้นอย่างมาก-ชีวิตคือระบบที่ประมวลผลข้อมูล และคอมพิวเตอร์อาจเป็นเครื่องมือสำคัญในการช่วยเราถอดรหัสกฎของธรรมชาติ
บทความหลายตอนต่อจากนี้จะว่าด้วยประวัติศาสตร์คู่ขนานที่ส่งเสริมกันและกันของชีววิทยา เทคโนโลยีชีวภาพ ทฤษฎีการคำนวณ วิทยาการคอมพิวเตอร์ และปัญญาประดิษฐ์ตลอดหลายทศวรรษที่ผ่านมา
เราจะได้เห็นหลายตัวอย่างงานวิจัยสุดล้ำของนักวิจัยที่เหมือนจะอยู่คนละจักรวาลได้มาบรรจบกันและผลิดอกออกผลเป็นนวัตกรรมเปลี่ยนโลกที่เราเห็นในปัจจุบัน

Cr ณฤภรณ์ โสดา
ศตวรรษที่ 20 เป็นช่วงหัวเลี้ยวหัวต่อสำคัญของทั้ง ชีววิทยาและคอมพิวเตอร์
กลไกทางพันธุกรรมที่เคยเป็นปริศนามาช้านานค่อยๆ ถูกไขกระจ่าง เริ่มจากการถอดองค์ประกอบทางเคมีของยีนช่วงทศวรรษที่ 1920s-1940s ตามมาด้วยการค้นพบโครงสร้างระดับโมเลกุลของดีเอ็นเอ กลไกการถ่ายทอดและแสดงออกทางพันธุกรรมช่วงทศวรรษที่ 1950s-1960s ต่อด้วยการคิดค้นเทคนิคการอ่านรหัสและตัดต่อดีเอ็นเอช่วงทศวรรษที่ 1970s-1980s ซึ่งนำมาสู่การกำเนิดของอุตสาหกรรมไบโอเทคอย่างที่เราอ่านกันไปหลายตอนก่อน
ความก้าวหน้าเหล่านี้ทำให้ชีววิทยาเข้ามาเชื่อมต่อกับ “ศาสตร์แห่งข้อมูล (information science)” เพราะแทบทุกสิ่งที่เราอยากรู้ อยากเข้าใจ และอยากควบคุมในทางชีววิทยา ต้องเข้าไปข้องเกี่ยวกับข้อมูลลำดับเบสบนดีเอ็นเอกับอาร์เอ็นเอ และลำดับอะมิโน (บนโปรตีน) ที่เปรียบเสมือนภาษาสากลของทุกสิ่งมีชีวิต
บนเส้นเวลาที่คู่ขนานกัน “คอมพิวเตอร์” พัฒนาจากเพียงเครื่องจักรที่ใช้คิดเลขเป็นอุปกรณ์ประมวลผลข้อมูลสารพัดประโยชน์ ตั้งแต่ราวทศวรรษที่ 1930s-1940s โดยมีช่วงเวลาแห่งก้าวกระโดดทางวิทยาการคาบเกี่ยวกับสงครามโลกครั้งที่สองและการเริ่มต้นของสงครามเย็น สถาปัตยกรรมคอมพิวเตอร์สมัยใหม่ที่แยกซอฟต์แวร์จากฮาร์ดแวร์ ทฤษฎีข้อมูล ทรานซิสเตอร์ ฯลฯ เริ่มต้นขึ้นในช่วงเวลานี้
พัฒนาการของเทคโนโลยีอิเล็กทรอนิกส์ช่วง 1950s-1960s ทำให้คอมพิวเตอร์ขนาดใหญ่เทอะทะที่ประมวลผลด้วยท่อสุญญากาศ (vacuum tubes) ถูกแทนที่ด้วยคอมพิวเตอร์แบบใช้ทรานซิสเตอร์ซึ่งเล็กกว่า ไวกว่า ทรงประสิทธิภาพกว่า
ช่วงทศวรรษเดียวกันนี้ยังให้กำเนิดภาษาเขียนโปรแกรม (programming languages) ที่ช่วยให้มนุษย์สื่อสารทำงานกับคอมพิวเตอร์ได้สะดวกรวดเร็วกว่าเก่ามาก ไม่นานหลังจากนั้นคอมพิวเตอร์ส่วนบุคคลเริ่มออกสู่ตลาดในทศวรรษที่ 1970s-1980s
“คอมพิวเตอร์คือจักรยานของความคิด (the bicycle for the mind)” Steve Jobs เคยกล่าวไว้เมื่อต้นทศวรรษ 1980s เปรียบเปรยว่ามันคือเครื่องมือที่ช่วยติดอาวุธเสริมศักยภาพการทำงานของสมองเราให้ไปไกลกว่าข้อจำกัดตามธรรมชาติของมัน
แต่คอมพิวเตอร์ก็อาจจะไม่ได้เป็นเพียงอีกหนึ่ง “เครื่องมือ” ทั่วไปที่เราใช้แต่เป็นอะไรบางอย่างที่เฉลียวฉลาดทรงปัญญาได้อย่างมนุษย์หรืออาจจะเหนือกว่ามนุษย์ สามารถเรียนรู้ ตัดสินใจ พัฒนาปรับตัวไปเรื่อยๆ จากประสบการณ์ไม่ต้องรอมนุษย์เราคอยสั่งมาป้อนโปรแกรมทุกครั้งที่เราอยากอัพเกรดให้มันเก่งขึ้น

Cr ณฤภรณ์ โสดา
Alan Turing บิดาแห่งวิทยาการคอมพิวเตอร์ตีพิมพ์บทความวิจัยเรื่อง “On Computable Number” ในปี 1936 เสนอแนวคิดเกี่ยวกับเครื่องจักรที่เปรียบเสมือนผู้ช่วยสามารถทำการคำนวณแก้โจทย์ใดๆ ได้ครอบจักรวาล (ภายหลังนักวิทยากรคอมพิวเตอร์เรียกสิ่งนี้ว่า Turing Machine) ตราบที่ใดที่เรามีคำสั่งขั้นตอนการแก้โจทย์ให้มันเป็นขั้นเป็นตอนชัดเจน แนวคิดนี้นำมาสู่คอมพิวเตอร์สมัยใหม่ที่เป็นมากกว่าเครื่องคิดเลข คอมพิวเตอร์ที่แม้ตัวเครื่องจะมีโครงสร้าง (ฮาร์ดแวร์) คงที่ แต่เราสามารถมาเพิ่มศักยภาพของมันได้เรื่อยๆ ด้วยการเติมชุดคำสั่งที่เราต้องการ (ซอฟต์แวร์) ลงไป
Turing ยังได้ออกแนวคิดเกี่ยวกับการประเมินภูมิปัญญาของเครื่องจักร โดยเขาเสนอว่าแทนที่จะมัวเถียงกันเรื่องนามธรรมอย่าง “เครื่องจักรคืออะไร?” และ “ภูมิปัญญาคืออะไร?”
เราน่าใช้บททดสอบที่จับต้องได้อย่างให้เครื่องจักรสำแดงพฤติกรรมที่เหมือนกับมนุษย์ อย่างเช่น การสนทนาถามตอบกับเราเป็นเรื่องเป็นราวเสียจนเราบอกความต่างไม่ได้ว่าสิ่งที่เราคุยอยู่ด้วยอีกฝั่งนั้นเป็นเครื่องจักรหรือมนุษย์ แนวคิดนี้ถูกตีพิมพ์ในบทความเรื่อง “Computing Machinery and Intelligence” ตอนปี 1950 (ภายหลังรู้จักกันในชื่อ Turing Test)
ขณะที่ภูมิปัญญาของเครื่องจักรแบบที่ Turing เสนอนั้นได้จากการสอนป้อนคำสั่งเป็นขั้นเป็นตอนชัดเจนจากเรา อีกแนวคิดหนึ่งที่เกิดขึ้นในเวลาไล่เลี่ยกันคือภูมิปัญญาของเครื่องจักรที่ได้จากการเรียนรู้ผ่านประสบการณ์เหมือนผู้ช่วยที่ลองผิดลองถูกเห็นตัวอย่างเยอะๆ จนทำงานเป็นเองไม่ต้องรอเราสอน
แนวคิดแบบนี้ได้รับแรงบันดาลใจมากจากการศึกษาสมองมนุษย์ซึ่งมีองค์ประกอบย่อยคือหน่วยประมวลผลที่เรียบง่ายอย่างเซลล์ประสาท
Warren McCulloch และ Walter Pitts เสนอแบบจำลองคณิตศาสตร์ของการประมวลผลด้วยโครงข่ายเซลล์ประสาทเทียม (Artificial Neural Network, ANN) งานวิจัยเรื่อง “A Logical Calculus of the Ideas Immanent in Nervous Activity” ของ McCulloch-Pitts ที่ตีพิมพ์ในปี 1943 พบว่าในทางทฤษฎีแล้ว ANN ก็น่าจะสามารถแก้โจทย์คำนวณใดๆ ก็ได้ครอบจักรวาลเช่นเดียวกับ Turing Machine
หลายปีหลังจากนั้น Frank Rosenblatt เอาแนวคิด ANN ไปทดสอบบนซอฟต์แวร์ของ IBM และต่อมาได้สร้างระบบฮาร์ดแวร์ที่เรียนรู้และประมวลผลผ่านสวิตช์ไฟฟ้าจำนวนมากที่ทำงานเหมือนเซลล์ประสาท Rosenblatt เรียกสิ่งนี้ว่า Perceptron เครื่องรุ่นทดลองที่ชื่อว่า Mark I Perceptron สามารถจำแนกภาพอย่างง่ายขนาด 400 x 400 pixel ด้วยเซลล์ประสาทจำลองหลายร้อยตัว Rosenblatt ตีพิมพ์ผลงานนี้ในบทความเรื่อง “The perceptron : A probabilistic model for information storage and organization in the brain”
ปี 1956 การประชุมที่วิชาการที่ Dartmouth College มีโต้โผหลักในการจัดงานเป็นนักวิทยาการคอมพิวเตอร์แนวหน้าแห่งยุคอย่าง Marvin Minsky จาก MIT และ John McCarthy จาก Stanford มาถกประเด็นสำคัญว่าทุกแง่มุมของการกระบวนเรียนรู้และทุกลักษณะของภูมิปัญญาสามารถจะถูกอธิบายได้อย่างละเอียดลออพอที่เราจะสร้างเครื่องจักรที่เลียนแบบมันได้
การประชุมนี้มีการเปิดตัว “Logic Theorist” ผลงานของ Allen Newell และ Herbert Simon ซอฟต์แวร์ตัวแรกของโลกที่สามารถคิดเป็นเหตุผลแบบอัตโนมัติเพื่อพิสูจน์ทฤษฎีบททางคณิตศาสตร์
ที่งานประชุมนั้นเองโดย McCarthy ริเริ่มใช้คำว่าปัญญาประดิษฐ์ (Artificial Intelligence) ถือว่าเป็นการเริ่มต้นอย่างเป็นทางการของศาสตร์แขนงใหม่นี้กลางทศวรรษที่ 1950s ทศวรรษเดียวกับที่ศาสตร์ชีววิทยาโมเลกุลถือกำเนิดขึ้นหลังจากการค้นพบโครงสร้างดีเอ็นเอและกลไกการถ่ายทอด/แสดงออกทางพันธุกรรม (Central Dogma) ผลงานของ Francis Crick และ James Watson
สะดวก ฉับไว คุ้มค่า สมัครสมาชิกนิตยสารมติชนสุดสัปดาห์ได้ที่นี่https://t.co/KYFMEpsHWj
— MatichonWeekly มติชนสุดสัปดาห์ (@matichonweekly) July 27, 2022