Meta เปิดตัว Llama 3.2 แบบ Open Source
Meta เปิดตัว Llama 3.2 AI รุ่นใหม่ที่ทำงานบนมือถือได้ มีทั้งหมด 4 รุ่น สามารถวิเคราะห์ภาพและข้อความ เปิดโอกาสให้ผู้ใช้มี AI ส่วนตัวบนอุปกรณ์ โดยไม่ต้องส่งข้อมูลไปยังเซิร์ฟเวอร์
Key takeaway
- Meta เปิดตัว Llama 3.2 ซึ่งเป็น AI รุ่นใหม่ที่สามารถประมวลผลทั้งข้อความและรูปภาพได้ โดยมีทั้งหมด 4 รุ่น ตั้งแต่โมเดลขนาดเล็ก 1B parameters ไปจนถึงโมเดลขนาดใหญ่ 90B parameters
- Llama 3.2 บางเวอร์ชันสามารถทำงานบนสมาร์ทโฟนได้โดยไม่สูญเสียประสิทธิภาพ เปิดโอกาสให้ผู้ใช้มี AI ส่วนตัวบนอุปกรณ์ของตนเองโดยไม่ต้องส่งข้อมูลไปยังเซิร์ฟเวอร์ภายนอก
- Meta ใช้เทคนิคขั้นสูงอย่าง structured pruning และ knowledge distillation ในการพัฒนา Llama 3.2 ทำให้ได้โมเดลขนาดกะทัดรัดที่มีประสิทธิภาพสูง และยังร่วมมือกับบริษัทชั้นนำด้านฮาร์ดแวร์เพื่อให้ทำงานได้อย่างมีประสิทธิภาพบนชิปมือถือ
เมื่อวันพุธที่ผ่านมา Meta ได้เปิดตัว Llama 3.2 ซึ่งเป็นการอัพเกรดครั้งสำคัญของ large language model ระดับแนวหน้าของบริษัท โดยไม่เพียงแต่สามารถโต้ตอบด้วยข้อความได้เท่านั้น แต่ยังมีความสามารถในการประมวลผลภาพอีกด้วย
สิ่งที่น่าสนใจเป็นพิเศษคือ บางเวอร์ชันของ Llama 3.2 สามารถทำงานบนสมาร์ทโฟนได้โดยไม่สูญเสียประสิทธิภาพ ซึ่งหมายความว่าผู้ใช้อาจสามารถมี AI แบบส่วนตัวสำหรับการโต้ตอบ แอปพลิเคชัน และการปรับแต่งต่างๆ บนอุปกรณ์ของตนเองได้ โดยไม่จำเป็นต้องส่งข้อมูลไปยังเซิร์ฟเวอร์ของบุคคลที่สาม
Llama 3.2 ที่เปิดตัวในงาน Meta Connect มีทั้งหมด 4 รุ่น โดยแต่ละรุ่นมีความสามารถแตกต่างกัน รุ่นที่ทรงพลังที่สุดคือโมเดลขนาด 11B และ 90B parameters ซึ่งสามารถประมวลผลทั้งข้อความและรูปภาพได้
โมเดลเหล่านี้สามารถจัดการงานที่ซับซ้อนได้ เช่น การวิเคราะห์แผนภูมิ การเขียนคำบรรยายภาพ และแม้แต่การระบุวัตถุในภาพตามคำอธิบายที่เป็นภาษาธรรมชาติ
นอกจากนี้ Meta ยังได้แนะนำโมเดลขนาดเล็กอีกสองรุ่น คือโมเดลขนาด 1B และ 3B parameters ซึ่งออกแบบมาเพื่อประสิทธิภาพ ความเร็ว และงานที่จำกัดแต่ทำซ้ำๆ โดยไม่ต้องการการคำนวณมากนัก
โมเดลขนาดเล็กเหล่านี้เป็น multilingual text maestros ที่มีความสามารถในการ "tool-calling" ซึ่งหมายความว่าสามารถทำงานร่วมกับเครื่องมือการเขียนโปรแกรมได้ดียิ่งขึ้น แม้จะมีขนาดเล็ก แต่ก็มี context window ขนาด 128K tokens ซึ่งเทียบเท่ากับ GPT-4 และโมเดลทรงพลังอื่นๆ ทำให้เหมาะสำหรับงานสรุปความ การทำตามคำสั่ง และการเขียนใหม่บนอุปกรณ์
ทีมวิศวกรของ Meta ได้ใช้เทคนิคทางดิจิทัลที่ซับซ้อนเพื่อพัฒนา Llama 3.2 โดยเริ่มจากการใช้ structured pruning เพื่อตัดข้อมูลที่ไม่จำเป็นออกจากโมเดลขนาดใหญ่ จากนั้นใช้ knowledge distillation เพื่อถ่ายทอดความรู้จากโมเดลขนาดใหญ่ไปยังโมเดลขนาดเล็กเพื่อเพิ่มประสิทธิภาพ
ผลลัพธ์ที่ได้คือชุดของโมเดลขนาดกะทัดรัดที่มีประสิทธิภาพเหนือกว่าคู่แข่งในระดับเดียวกัน โดยเอาชนะโมเดลอื่นๆ รวมถึง Google's Gemma 2 2.6B และ Microsoft's Phi-2 2.7B ในหลาย benchmarks
Meta ยังได้ร่วมมือกับบริษัทชั้นนำด้านฮาร์ดแวร์อย่าง Qualcomm, MediaTek และ Arm เพื่อให้แน่ใจว่า Llama 3.2 จะทำงานร่วมกับชิปมือถือได้อย่างมีประสิทธิภาพ นอกจากนี้ ผู้ให้บริการ cloud ชั้นนำอย่าง AWS, Google Cloud, Microsoft Azure และอื่นๆ ก็กำลังเสนอการเข้าถึงโมเดลใหม่นี้บนแพลตฟอร์มของตนเองด้วย
ความสามารถด้านการมองเห็นของ Llama 3.2 มาจากการปรับแต่งสถาปัตยกรรมอย่างชาญฉลาด โดยวิศวกรของ Meta ได้เพิ่ม adapter weights ลงบน language model ที่มีอยู่ เพื่อเชื่อมโยงระหว่าง pre-trained image encoders และ text-processing core ทำให้โมเดลสามารถประมวลผลทั้งข้อความและภาพได้อย่างมีประสิทธิภาพ
Llama 3.2 เปิดตัวในรูปแบบ Open Source ซึ่งสามารถดาวน์โหลดได้จาก Llama.com และ Hugging Face รวมถึงผ่านระบบนิเวศของพันธมิตรที่กว้างขวางของ Meta ผู้ที่สนใจสามารถทดลองใช้งานบน cloud ผ่าน Google Colab Notebook หรือใช้ Groq สำหรับการโต้ตอบแบบข้อความ
จากการทดสอบ Llama 3.2 พบว่ามีความสามารถโดดเด่นในการวิเคราะห์ภาพและระบุองค์ประกอบเชิงอัตวิสัย รวมถึงการอ่านข้อความในภาพขนาดใหญ่ได้อย่างแม่นยำ อย่างไรก็ตาม ยังมีข้อจำกัดบางประการในการประมวลผลภาพคุณภาพต่ำและการเขียนโค้ดที่ซับซ้อน
โดยสรุป Llama 3.2 ถือเป็นการพัฒนาครั้งสำคัญในวงการ AI แบบเปิดเผยซอร์สโค้ด โดยเฉพาะอย่างยิ่งความสามารถในการทำงานบนอุปกรณ์ส่วนตัว ซึ่งเปิดโอกาสให้เกิดการใช้งาน AI แบบส่วนตัวและในเครื่องได้อย่างกว้างขวางมากขึ้นในอนาคต
Why it matters
ข้อมูลอ้างอิงจาก https://decrypt.co/283308/meta-unveils-open-source-llama-ai-fits-in-your-pocket