เมื่อวันที่ 4 ก.พ. ผู้สื่อข่าวรายงานว่า ศาสตราจารย์ ดร.สุชัชวีร์ สุวรรณสวัสดิ์ หรือ “ดร.เอ้” นายกสภามหาวิทยาลัย CMKL โพสต์ข้อความผ่านเฟซบุ๊ก “เอ้ สุชัชวีร์” ระบุข้อความว่า “DeepSeek AI กระบี่อยู่ที่ใจ” ทำไม AI จีนถึงเก่งได้ แล้วไทยจะอยู่อย่างไร “ความมหัศจรรย์” และ “ความน่าสงสัย” ของ “แฟลตฟอร์ม AI” สะท้านโลก “DeepSeek” จากแดนมังกร คืออะไร ผมมีคำตอบ พยายามอธิบายเรื่อง “ยากมาก” แบบง่ายๆ ครับ
การพัฒนา AI ระดับสูง จำเป็นต้องใช้ปัจจัย 3 ด้าน และทำไม “DeepSeek” ถึง “มหัศจรรย์” ปนความ “น่าสงสัย”

- “พลังการคำนวน” จาก “ฮาร์ดแวร์” เครื่องซูเปอร์คอมพิวเตอร์ AI ซึ่ง “Nvidia” คือ ผู้นำในการผลิต “GPU” หรือ หน่วยประมวลผลข้อมูล ยิ่งมี GPU เยอะ ก็ยิ่งมี “ประสิทธิภาพ” หรือ “ความเร็ว” ในการคำนวณมากยิ่งขึ้นตาม
มักใช้หน่วย “ความเร็ว PetaFLOPS (PFLOPS)” ซึ่งเป็นหน่วยวัดประสิทธิภาพของการคำนวณ โดย 1 PFLOPS = 1,000 ล้านล้าน (10¹⁵) เลขทศนิยมต่อวินาที
ปัจจุบัน “อีลอน มัสก์” กำลังจะติดตั้งซูเปอร์คอมพิวเตอร์ AI ของบริษัท xAI ที่รัฐเทนเนสซี โดยซื้อ GPU รุ่นล่าสุด “ทันสมัยสุด” B200 จาก Nvidia ของ “เจนเซ่น หวง” ถึง 200,000 ชุด มากที่สุดในโลก โดยมีความเร็วในการคำนวน หลายแสน PetaFLOPS คือ “โคตรเร็ว”
แต่ “DeepSeek” ใช้ “ฮาร์ดแวร์” GPU รุ่นเก่า H800 ของ Nvidia เพียง 2,000 ชุด แถมยัง “ถูกลดสเปก” เพราะโดนกีดกันจากรัฐบาลสหรัฐ ความเร็วน้อยกว่าเครื่องของ “อีลอน มัสก์” เป็นร้อยหรืออาจถึงพันเท่า
นี่จึงเป็น “ความมหัศจจรย์เรื่องแรก” ที่ “ค่าย AI จีน” ใช้ทรัพยากรน้อยกว่านับร้อยเท่า เมื่อเปรียบเทียบกับ “ค่าย AI อเมริกัน” - “โมเดล” หรือ “ซอฟต์แวร์” ที่ใช้เป็นชุดคำสั่งการคำนวณ AI มีความสำคัญมาก เพราะยิ่งมีอัลกอรึทึมที่มี “ตัวแปร” เยอะก็ครอบคลุมการคำนวนข้อมูลที่ “ละเอียด” ได้มากกว่า
โมเดลที่นิยมสำหรับการคำนวน Generative AI ที่เราใช้กันอยู่หรือที่เรียกกันว่า LLM (Large Language Model) หรือ GPT (Generative Pre-trained Transformer) คือ โมเดลปัญญาประดิษฐ์ขนาดใหญ่มาก ที่ได้รับการฝึกฝนบนข้อมูลข้อความจำนวนมหาศาล เพื่อตอบสนองข้อความ ได้อย่างซับซ้อนและเป็นธรรมชาติ
“DeepSeek” เป็น LLM ที่มีตัวแปรมากถึง “685,000 ล้าน!” ตัวแปร ซึ่งมากกว่าตัวแปรของ LLM Opensource ตัวอื่น แต่ที่แตกต่างคือ DeepSeek เป็นโมเดลรุ่นแรกที่ฝึกด้วย 8-bit floating point (FP8) ที่ช่วยลดปริมาณการใช้ GPU แต่ยังสามารถมีตัวแปรจำนวนมาก ในขณะที่โมเดลก่อนหน้านี้ใช้ FP16 ซึ่งทำให้ต้องใช้ GPU ที่มีหน่วยความจำสูงกว่า DeepSeek กว่า 2 เท่า
นี่คือ “ความมหัศจรรย์เรื่องที่สอง” ที่ทำให้ “DeepSeek” มีประสิทธิภาพสูงในต้นทุนที่ต่ำกว่าค่ายอื่น - “ข้อมูลขนาดมหึมา” หรือ Big Data ให้อัลกอรึทึม AI ได้ “เรียนรู้” เพื่อสร้างความฉลาดล้ำเมื่อถูกใช้งาน ซึ่งการได้มาของข้อมูลขนาดมหึมานี้ เป็นความ “น่าสงสัย” ในตัว “DeepSeek” และ แพลตฟอร์ม AI แทบทุกสำนัก เพราะแหล่งข้อมูลมีทั้งจากข้อมูลสาธารณะ ข้อมูลเฉพาะ ข้อมูลบุคคคล ข้อมูลธุรกิจ ข้อมูลมีลิขสิทธิ์ และข้อมูลที่ AI สร้างเอง ซึ่งมีผลต่อประสิทธิภาพการคำนวณทั้งสิ้น
นี่คือ “ความมหัศจรรย์เรื่องที่สาม” ว่า “DeepSeek” ได้ข้อมูลขนาดมหึมานี้ ในเวลาสั้นๆ จากแหล่งใด
ดังนั้น “การไขความลับ” แห่งความสำเร็จของ “DeepSeek” จึงยังคงเป็นปริศนา และยังมีเรื่อง “งบประมาณ” ที่ใช้ซึ่งน้อยมากจนเหลือเชื่อ
กระนั้นต้อง “ยอมรับ” ชื่นชมในความสามารถและความมุ่งมั่นของ “คนจีน” ที่ไม่ยอมแพ้ต่อข้อจำกัด #จะทำก็ทำได้ แล้ว “คนไทย” เราจะสิโรราบต่อ “ชะตา” เชียวหรือ ทิ้งท้ายไว้ให้คิดนะครับ
ศาสตราจารย์ ดร.สุชัชวีร์ สุวรรณสวัสดิ์ นายกสภามหาวิทยาลัย CMKL มหาวิทยาลัย AI แห่งแรกของไทย #deepseek #ai #cmkl #เอ้สุชัชวีร์”
ขอบคุณข้อมูล – ภาพ เพจ “เอ้ สุชัชวีร์”