Meta เปิดตัว Llama 4 กลุ่มโมเดล AI รุ่นใหม่ล่าสุด
Meta เปิดตัว Llama 4 โมเดล AI รุ่นใหม่ 3 รุ่น ได้แก่ Scout, Maverick และ Behemoth มาพร้อมสถาปัตยกรรม MoE ประสิทธิภาพสูง รองรับงานหลากหลาย ทั้งการแชท เขียนโค้ด และประมวลผลเอกสารขนาดใหญ่

Key takeaway
- Meta ได้เปิดตัวโมเดล AI ตระกูล Llama 4 รุ่นใหม่ 4 รุ่น ได้แก่ Scout, Maverick และ Behemoth โดยได้รับการเทรนด้วยข้อมูลที่หลากหลายทั้งข้อความ รูปภาพ และวิดีโอ เพื่อเพิ่มความสามารถในการเข้าใจด้านภาพ
- โมเดล Llama 4 เป็นกลุ่มแรกที่ใช้สถาปัตยกรรม mixture of experts (MoE) ซึ่งช่วยเพิ่มประสิทธิภาพการประมวลผลโดยแบ่งงานให้กับ "ผู้เชี่ยวชาญ" ที่เชี่ยวชาญเฉพาะด้าน โดย Maverick มีประสิทธิภาพสูงในด้านการแชทและงานทั่วไป ขณะที่ Scout เด่นในการวิเคราะห์เอกสารและโค้ดขนาดใหญ่
- Meta ได้ปรับปรุงให้ Llama 4 สามารถตอบคำถามในประเด็นที่มีข้อถกเถียงได้มากขึ้น และมีความสมดุลในการตัดสินใจว่าจะตอบคำถามหรือไม่ แต่มีข้อจำกัดด้านการใช้งานในสหภาพยุโรปและต้องขอใบอนุญาตพิเศษสำหรับบริษัทที่มีผู้ใช้มากกว่า 700 ล้านคน
Meta ได้เปิดตัวโมเดล AI ชุดใหม่ในตระกูล Llama ที่มีชื่อว่า Llama 4 ประกอบด้วยโมเดลใหม่ 4 รุ่น ได้แก่ Llama 4 Scout, Llama 4 Maverick และ Llama 4 Behemoth โดยทั้งหมดได้รับการเทรนด้วย "ข้อมูลข้อความที่ไม่มีการติดป้าย รูปภาพ และวิดีโอจำนวนมาก" เพื่อให้มี "ความเข้าใจด้านภาพที่กว้างขวาง"
ความสำเร็จของโมเดลแบบเปิดจากห้องแล็บ AI จีนอย่าง DeepSeek ซึ่งมีประสิทธิภาพเทียบเท่าหรือดีกว่าโมเดล Llama รุ่นก่อนหน้าของ Meta ผลักดันให้การพัฒนา Llama เร่งความเร็วขึ้น โดย Meta ได้จัดตั้งทีมเฉพาะกิจเพื่อศึกษาวิธีที่ DeepSeek ลดต้นทุนในการรันและใช้งานโมเดลอย่าง R1 และ V3
ปัจจุบัน Scout และ Maverick มีให้ใช้งานแบบเปิดบน Llama.com และจากพาร์ทเนอร์ของ Meta รวมถึงแพลตฟอร์มพัฒนา AI อย่าง Hugging Face ในขณะที่ Behemoth ยังอยู่ระหว่างการเทรน Meta ระบุว่า Meta AI ผู้ช่วยอัจฉริยะที่ขับเคลื่อนด้วย AI ในแอปต่างๆ ทั้ง WhatsApp, Messenger และ Instagram ได้รับการอัปเดตให้ใช้ Llama 4 แล้วใน 40 ประเทศ โดยฟีเจอร์ multimodal ยังจำกัดเฉพาะในสหรัฐฯ เป็นภาษาอังกฤษเท่านั้น
อย่างไรก็ตาม นักพัฒนาบางรายอาจประสบปัญหากับใบอนุญาตของ Llama 4 ผู้ใช้และบริษัทที่ "มีภูมิลำเนา" หรือ "สถานที่ประกอบธุรกิจหลัก" ในสหภาพยุโรปถูกห้ามไม่ให้ใช้หรือเผยแพร่โมเดลเหล่านี้ ซึ่งน่าจะเป็นผลมาจากข้อกำหนดด้านการกำกับดูแลตามกฎหมาย AI และความเป็นส่วนตัวของข้อมูลในภูมิภาค นอกจากนี้ เช่นเดียวกับการเปิดตัว Llama รุ่นก่อนหน้า บริษัทที่มีผู้ใช้งานรายเดือนมากกว่า 700 ล้านคนต้องขอใบอนุญาตพิเศษจาก Meta ซึ่ง Meta สามารถอนุมัติหรือปฏิเสธได้ตามดุลยพินิจของตน
Meta ระบุว่า Llama 4 เป็นกลุ่มโมเดลชุดแรกที่ใช้สถาปัตยกรรม mixture of experts (MoE) ซึ่งเพิ่มประสิทธิภาพด้านการคำนวณทั้งในการเทรนและการตอบคำถาม สถาปัตยกรรม MoE แบ่งงานประมวลผลข้อมูลออกเป็นงานย่อยๆ แล้วมอบหมายให้กับโมเดล "ผู้เชี่ยวชาญ" ที่เล็กกว่าและเชี่ยวชาญเฉพาะทาง
ตัวอย่างเช่น Maverick มีพารามิเตอร์ทั้งหมด 400 พันล้าน แต่มีเพียง 17 พันล้านพารามิเตอร์ที่ใช้งานอยู่ใน 128 "ผู้เชี่ยวชาญ" (พารามิเตอร์สัมพันธ์กับทักษะการแก้ปัญหาของโมเดล) ส่วน Scout มี 17 พันล้านพารามิเตอร์ที่ใช้งาน, 16 ผู้เชี่ยวชาญ และ 109 พันล้านพารามิเตอร์ทั้งหมด
จากการทดสอบภายในของ Meta พบว่า Maverick ซึ่งเหมาะที่สุดสำหรับการใช้งานแบบ "ผู้ช่วยทั่วไปและการแชท" เช่น การเขียนเชิงสร้างสรรค์ เหนือกว่าโมเดลอย่าง GPT-4o ของ OpenAI และ Gemini 2.0 ของ Google ในเบนช์มาร์กด้านการเขียนโค้ด, การให้เหตุผล, หลายภาษา, บริบทยาว และรูปภาพบางอย่าง อย่างไรก็ตาม Maverick ยังไม่เทียบเท่ากับโมเดลที่มีความสามารถสูงกว่าที่เพิ่งออกมาล่าสุด เช่น Gemini 2.5 Pro ของ Google, Claude 3.7 Sonnet ของ Anthropic และ GPT-4.5 ของ OpenAI
จุดเด่นของ Scout อยู่ที่งานเช่นการสรุปเอกสารและการวิเคราะห์โค้ดขนาดใหญ่ โดยมี context window ขนาดใหญ่มาก: 10 ล้าน token ("Token" คือส่วนของข้อความดิบ เช่น คำว่า "fantastic" แบ่งเป็น "fan," "tas" และ "tic") ซึ่งหมายความว่า Scout สามารถรับรูปภาพและข้อความนับล้านคำ ทำให้สามารถประมวลผลและทำงานกับเอกสารที่ยาวมากได้
ในแง่ของฮาร์ดแวร์ Scout สามารถทำงานบน GPU Nvidia H100 เพียงตัวเดียว ในขณะที่ Maverick ต้องการระบบ Nvidia H100 DGX หรือเทียบเท่า ส่วน Behemoth ที่ยังไม่เปิดตัวจะต้องการฮาร์ดแวร์ที่แรงกว่า บริษัทระบุว่า Behemoth มี 288 พันล้านพารามิเตอร์ที่ใช้งาน, 16 ผู้เชี่ยวชาญ และเกือบ 2 ล้านล้านพารามิเตอร์ทั้งหมด การทดสอบภายในของ Meta พบว่า Behemoth มีประสิทธิภาพเหนือกว่า GPT-4.5, Claude 3.7 Sonnet และ Gemini 2.0 Pro (แต่ไม่เหนือกว่า 2.5 Pro) ในการประเมินหลายอย่างที่วัดทักษะ STEM เช่น การแก้โจทย์คณิตศาสตร์
ที่น่าสังเกตคือ ไม่มีโมเดล Llama 4 ตัวใดที่เป็นโมเดล "reasoning" อย่างเต็มรูปแบบเหมือนกับ o1 และ o3-mini ของ OpenAI โมเดล reasoning จะตรวจสอบข้อเท็จจริงคำตอบของตัวเองและตอบคำถามได้น่าเชื่อถือมากขึ้น แต่ก็ใช้เวลานานกว่าโมเดลแบบดั้งเดิม "non-reasoning" ในการให้คำตอบ
ประเด็นที่น่าสนใจคือ Meta กล่าวว่าได้ปรับโมเดล Llama 4 ทั้งหมดให้ปฏิเสธการตอบคำถาม "ที่มีข้อโต้แย้ง" น้อยลง บริษัทระบุว่า Llama 4 สามารถตอบสนองต่อหัวข้อทางการเมืองและสังคม "ที่มีการถกเถียง" ซึ่งโมเดล Llama รุ่นก่อนหน้าจะไม่ตอบ นอกจากนี้ บริษัทยังกล่าวว่า Llama 4 มี "ความสมดุลมากขึ้นอย่างมาก" ในการเลือกว่าจะตอบหรือไม่ตอบคำถาม
โดยสรุป Meta กล่าวว่า "โมเดล Llama 4 เหล่านี้เป็นจุดเริ่มต้นของยุคใหม่สำหรับระบบนิเวศ Llama นี่เป็นเพียงจุดเริ่มต้นสำหรับคอลเลกชัน Llama 4"
Why it matters
💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจด้านเทคโนโลยี AI เนื่องจากเป็นการเปิดตัวโมเดล AI รุ่นใหม่ล่าสุดจาก Meta ที่มาพร้อมความสามารถที่เหนือกว่ารุ่นก่อน โดยเฉพาะการใช้สถาปัตยกรรม MoE ที่เพิ่มประสิทธิภาพการประมวลผล นอกจากนี้ยังมีการเปรียบเทียบประสิทธิภาพกับคู่แข่งสำคัญอย่าง OpenAI และ Google ทำให้ผู้อ่านเข้าใจภาพรวมของการแข่งขันในตลาด AI ปัจจุบัน
ข้อมูลอ้างอิงจาก https://techcrunch.com/2025/04/05/meta-releases-llama-4-a-new-crop-of-flagship-ai-models/