Meta เผชิญกระแสวิพากษ์วิจารณ์เกี่ยวกับ 'เวอร์ชันทดลอง' ของ Maverick AI ที่ใช้ในการจัดอันดับเบนช์มาร์ก

Meta ถูกวิพากษ์วิจารณ์กรณีใช้เวอร์ชันพิเศษของ Maverick AI ในการทดสอบ LM Arena ต่างจากเวอร์ชันที่เผยแพร่ทั่วไป สร้างความสงสัยในความโปร่งใสและมาตรฐานการทดสอบ AI

Meta เผชิญกระแสวิพากษ์วิจารณ์เกี่ยวกับ 'เวอร์ชันทดลอง' ของ Maverick AI ที่ใช้ในการจัดอันดับเบนช์มาร์ก

Key takeaway

  • Meta ถูกวิพากษ์วิจารณ์เรื่องความโปร่งใส เนื่องจากใช้ "เวอร์ชันทดลอง" ของ Maverick AI ในการทดสอบเบนช์มาร์ก LM Arena ซึ่งแตกต่างจากเวอร์ชันที่เปิดให้นักพัฒนาทั่วไปใช้งาน
  • นักวิจัย AI พบความแตกต่างที่ชัดเจนระหว่างเวอร์ชันที่ใช้ทดสอบกับเวอร์ชันสาธารณะ โดยเวอร์ชันทดสอบมีการตอบสนองที่ยาวกว่า ละเอียดกว่า และใช้อิโมจิมากกว่า ซึ่งอาจทำให้ได้เปรียบในการจัดอันดับ
  • เหตุการณ์นี้นำไปสู่การตั้งคำถามเกี่ยวกับมาตรฐานการทดสอบ AI และความจำเป็นในการมีเบนช์มาร์กที่โปร่งใสและเป็นธรรม เพื่อสะท้อนประสิทธิภาพที่แท้จริงในการใช้งานจริง

โมเดล AI ตัวล่าสุดของ Meta อย่าง Maverick กำลังสร้างความฮือฮาหลังจากได้รับการจัดอันดับเป็นอันดับสองบน LM Arena ซึ่งเป็นแพลตฟอร์มที่ผู้ประเมินมนุษย์ทำการประเมินและจัดอันดับคุณภาพการตอบสนองของโมเดล AI

อย่างไรก็ตาม ความขัดแย้งเกิดขึ้นเมื่อนักวิจัย AI พบว่าเวอร์ชันของ Maverick ที่ใช้ในการทดสอบเบนช์มาร์กไม่ใช่เวอร์ชันเดียวกับที่เปิดให้นักพัฒนาใช้งานทั่วไป

การจัดอันดับของ Maverick AI สร้างความสงสัย

ผลงานอันโดดเด่นของ Maverick บน LM Arena ในเบื้องต้นดูเหมือนจะยืนยันคำกล่าวอ้างของ Meta ว่ากำลังผลักดันขอบเขตของ AI สนทนาที่ล้ำสมัยที่สุด แต่การตรวจสอบเพิ่มเติมพบว่าโมเดลที่นำไปทดสอบไม่ใช่รุ่นที่เผยแพร่ทั่วไป ตามรายงานของ TechCrunch

Meta เน้นย้ำในประกาศอย่างเป็นทางการว่าเวอร์ชันที่นำไปใช้บน LM Arena เป็น "เวอร์ชันการแชทแบบทดลอง" ซึ่งเป็นประเด็นที่ไม่ได้ระบุอย่างชัดเจนในผลคะแนนเบนช์มาร์ก

บนเว็บไซต์ Llama ของ Meta ตารางเปรียบเทียบยืนยันว่าการทดสอบ LM Arena ใช้ "Llama 4 Maverick ที่ปรับให้เหมาะกับการสนทนา" รุ่นนี้มีการปรับแต่งพิเศษเพื่อปรับปรุงการโต้ตอบ ซึ่งอาจให้ข้อได้เปรียบที่ไม่เป็นธรรมเหนือรุ่น "vanilla" ที่ไม่ได้รับการปรับแต่งของผู้พัฒนา AI รายอื่น

โดยทั่วไป LM Arena แม้จะไม่สมบูรณ์แบบ แต่ทำหน้าที่เป็นพื้นที่กลางในการเปรียบเทียบโมเดลภาษาขนาดใหญ่ตามเกณฑ์การประเมินของมนุษย์ บริษัท AI ส่วนใหญ่ได้เปิดตัวเวอร์ชันที่ไม่มีการแก้ไขของโมเดลที่เผยแพร่สู่สาธารณะ หรือเปิดเผยอย่างชัดเจนเมื่อมีการเปลี่ยนแปลง

ในทางตรงกันข้าม วิธีการของ Meta ถูกวิจารณ์ว่าขาดความโปร่งใส การไม่เปิดเผยว่าใช้โมเดลที่ได้รับการปรับแต่งพิเศษในการทดสอบ ในขณะที่ให้นักพัฒนาทั่วไปใช้โมเดลที่ปรับแต่งน้อยกว่า ทำให้เกิดความคาดหวังที่ไม่ตรงกับความเป็นจริง และสร้างความสับสนเกี่ยวกับความสามารถที่แท้จริงของ Maverick ในสถานการณ์ใช้งานจริง

นักวิจัย AI ชี้ให้เห็นความแตกต่าง

ผู้เชี่ยวชาญหลายรายบน X รายงานว่าเวอร์ชัน LM Arena ของ Maverick ทำงานแตกต่างอย่างมีนัยสำคัญจากเวอร์ชันที่เปิดให้ดาวน์โหลด บางคนชี้ให้เห็นการใช้อิโมจิที่มากเกินไป ในขณะที่คนอื่นสังเกตเห็นคำตอบที่ยาวและขัดเกลามากกว่าในรุ่นที่เผยแพร่ทั่วไป

ความแตกต่างนี้นำไปสู่คำถามสำคัญในการทดสอบเบนช์มาร์ก AI: บริษัทควรมีสิทธิ์ปรับแต่งโมเดลเฉพาะสำหรับการทดสอบเบนช์มาร์กและไม่เปิดเผยเวอร์ชันเหล่านั้นต่อสาธารณะหรือไม่?

Meta และ Chatbot Arena ยังคงเงียบ

ในขณะที่กระแสวิพากษ์วิจารณ์เพิ่มขึ้น หลายฝ่ายเรียกร้องความโปร่งใสจากทั้ง Meta และ Chatbot Arena ซึ่งเป็นองค์กรที่ดูแล LM Arena ณ เวลาที่เขียนบทความนี้ ทั้งสองฝ่ายยังไม่ได้ออกมาตอบสนองต่อประเด็นนี้

นี่เป็นประเด็นสำคัญในการวิจัย AI: ความจำเป็นในการมีเบนช์มาร์กที่เป็นมาตรฐานและโปร่งใส ซึ่งวัดประสิทธิภาพในโลกแห่งความเป็นจริง แทนที่จะเป็นผลลัพธ์ที่ได้รับการคัดเลือกมาโดยเฉพาะ ในยุคที่ AI เริ่มส่งผลกระทบต่อทุกด้านตั้งแต่การสนับสนุนลูกค้าไปจนถึงการสร้างเนื้อหา การนำเสนอข้อมูลอย่างตรงไปตรงมาจึงมีความสำคัญมากกว่าที่เคย

Why it matters

💡 ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่ติดตามวงการ AI เนื่องจากเผยให้เห็นประเด็นความโปร่งใสในการทดสอบและการประเมินผลโมเดล AI ของบริษัทยักษ์ใหญ่อย่าง Meta กรณีของ Maverick AI นี้สะท้อนให้เห็นถึงความท้าทายในการสร้างมาตรฐานการทดสอบที่เป็นธรรมและน่าเชื่อถือในอุตสาหกรรม AI ซึ่งส่งผลโดยตรงต่อการพัฒนาและการนำ AI ไปใช้งานจริง ผู้อ่านจะได้เข้าใจถึงความสำคัญของการตรวจสอบข้อมูลและการประเมินผลที่โปร่งใสในยุคที่ AI กำลังมีบทบาทสำคัญในชีวิตประจำวันมากขึ้น

ข้อมูลอ้างอิงจาก https://www.techtimes.com/articles/309909/20250407/meta-faces-backlash-over-experimental-maverick-ai-version-used-benchmark-rankings-why.htm

Read more

ซีอีโอ Shopify ประกาศ: พนักงานต้องพิสูจน์ว่า AI ทำงานไม่ได้ดีกว่าก่อนจะจ้างคนใหม่

news

ซีอีโอ Shopify ประกาศ: พนักงานต้องพิสูจน์ว่า AI ทำงานไม่ได้ดีกว่าก่อนจะจ้างคนใหม่

ซีอีโอ Shopify ประกาศนโยบายใหม่ให้ผู้จัดการต้องพิสูจน์ว่า AI ไม่สามารถทำงานได้ดีกว่ามนุษย์ก่อนจ้างพนักงานใหม่ พร้อมผลักดันการใช้ AI เป็นทักษะพื้นฐานสำหรับพนักงานทุกคน

By
ไมโครซอฟท์ชะลอแผนขยายศูนย์ Data Center ทั่วโลก

news

ไมโครซอฟท์ชะลอแผนขยายศูนย์ Data Center ทั่วโลก

ไมโครซอฟท์ประกาศชะลอการขยายศูนย์ Data Center ในหลายประเทศ ทั้งที่เพิ่งประกาศลงทุน 8 หมื่นล้านดอลลาร์ในปี 2025 โดยเปลี่ยนแผนเป็นการติดตั้งอุปกรณ์ในสถานที่ที่มีอยู่แทน

By
Google Gemini 2.5 Pro อาจเป็นโมเดล AI ที่สำคัญที่สุดในปีนี้

news

Google Gemini 2.5 Pro อาจเป็นโมเดล AI ที่สำคัญที่สุดในปีนี้

Google เปิดตัว Gemini 2.5 Pro โมเดล AI รุ่นใหม่ที่ทำคะแนนสูงสุดในการทดสอบหลายด้าน ทั้งการเขียนโค้ด คณิตศาสตร์ และการให้เหตุผล รองรับการประมวลผลข้อมูลได้ถึง 1 ล้าน token พร้อมฐานความรู้ล่าสุดถึงต้นปี 2025

By
Midjourney เปิดตัว V7 โมเดล AI สร้างภาพรุ่นใหม่ครั้งแรกในรอบเกือบหนึ่งปี

news

Midjourney เปิดตัว V7 โมเดล AI สร้างภาพรุ่นใหม่ครั้งแรกในรอบเกือบหนึ่งปี

Midjourney เปิดตัวโมเดล AI สร้างภาพรุ่น V7 ครั้งแรกในรอบเกือบปี มาพร้อมฟีเจอร์ใหม่ personalization profile ที่ปรับแต่งตามรสนิยมผู้ใช้ และ Draft Mode ที่สร้างภาพได้เร็วขึ้น 10 เท่า พร้อมคุณภาพภาพที่ดีขึ้น

By