Nvidia และ Mistral AI ร่วมกันเปิดตัว Language Model ตัวใหม่ สำหรับใช้ในองค์กรโดยเฉพาะ

Nvidia และ Mistral AI ร่วมกันเปิดตัว Mistral-NeMo โมเดลภาษา AI ขนาด 12 พันล้านพารามิเตอร์ที่ทรงพลังสำหรับการใช้งานในองค์กรโดยเฉพาะ

Nvidia และ Mistral AI ร่วมกันเปิดตัว Language Model ตัวใหม่ สำหรับใช้ในองค์กรโดยเฉพาะ

Key takeaways

  • Nvidia และ Mistral AI ร่วมกันเปิดตัว Language Model ใหม่ชื่อ Mistral-NeMo ที่มี 12 พันล้านพารามิเตอร์ และ token context window ขนาด 128,000 ตัว เพื่อนำความสามารถ AI ระดับสูงมาสู่เดสก์ท็อปธุรกิจโดยตรง
  • โมเดลนี้มีขนาดกะทัดรัดแต่ทรงพลัง สามารถรันบนฮาร์ดแวร์ขององค์กรได้ ตอบโจทย์ความกังวลเรื่องความเป็นส่วนตัวของข้อมูล ความต้องการ latency ต่ำ และความคุ้มค่า
  • Context window ที่กว้างของ Mistral-NeMo มีประโยชน์มากสำหรับธุรกิจที่ต้องจัดการกับเอกสารยาว การวิเคราะห์ซับซ้อน หรือโค้ดที่ซับซ้อน ช่วยให้ได้ output ที่สอดคล้องและคงเส้นคงวามากขึ้น
  • การเปิดตัวนี้ถือเป็นก้าวสำคัญในการทำให้ AI เข้าถึงได้ง่ายขึ้นกว่าเดิมหลายเท่า

Nvidia และ Mistral AI สตาร์ทอัพจากฝรั่งเศส ร่วมกันประกาศเปิดตัว Language Model ตัวใหม่ในวันนี้ ซึ่งออกแบบมาเพื่อนำขีดความสามารถของ AI ที่ทรงพลังมาสู่เดสก์ท็อปธุรกิจโดยตรง โมเดลที่มีชื่อว่า Mistral-NeMo นี้ มีพารามิเตอร์ถึง 12 พันล้านตัว และมี token context window กว้างถึง 128,000 ตัว ทำให้เป็นเครื่องมือที่น่าเกรงขามสำหรับธุรกิจที่ต้องการใช้ AI โซลูชัน โดยไม่จำเป็นต้องพึ่งพา cloud resources มากนัก

Bryan Catanzaro รองประธานฝ่ายวิจัย Applied Deep Learning ของ Nvidia ได้เน้นย้ำถึงการเข้าถึงได้ง่ายและประสิทธิภาพของโมเดลนี้ในการให้สัมภาษณ์ล่าสุดกับ VentureBeat "เรากำลังเปิดตัวโมเดลที่เราร่วมกัน train กับ Mistral มันเป็นโมเดลขนาด 12 พันล้านพารามิเตอร์ และเราเปิดตัวภายใต้ Apache 2.0 license" เขากล่าว "เรารู้สึกตื่นเต้นมากกับความแม่นยำของโมเดลนี้ในหลากหลาย tasks"

ความร่วมมือระหว่าง Nvidia ยักษ์ใหญ่ด้านการผลิต GPU และฮาร์ดแวร์ AI กับ Mistral AI ดาวรุ่งในวงการ AI ของยุโรป ถือเป็นการเปลี่ยนแปลงครั้งสำคัญในแนวทางของอุตสาหกรรม AI สำหรับโซลูชันองค์กร โดยมุ่งเน้นไปที่โมเดลที่กะทัดรัดแต่ทรงพลังมากขึ้น ความร่วมมือนี้มีเป้าหมายเพื่อทำให้การเข้าถึงขีดความสามารถของ AI ขั้นสูงนั้นเข้าถึงได้ง่ายมากขึ้น

Catanzaro ได้อธิบายถึงข้อดีของโมเดลขนาดเล็กเพิ่มเติมว่า "โมเดลที่เล็กลงนั้นเข้าถึงได้ง่ายกว่ามาก พวกมันรันง่ายกว่า และโมเดลธุรกิจก็สามารถแตกต่างออกไปได้ เพราะผู้คนสามารถรันพวกมันบนระบบของตัวเองที่บ้านได้ ในความเป็นจริงแล้ว โมเดลนี้สามารถรันบน RTX GPU ที่หลายคนมีอยู่แล้วได้เลย"

พัฒนาการนี้มาในช่วงเวลาสำคัญของอุตสาหกรรม AI ขณะที่ความสนใจส่วนใหญ่มุ่งไปที่โมเดลขนาดใหญ่อย่าง GPT-4 ของ OpenAI ที่มีพารามิเตอร์หลายแสนล้านตัว ก็มีความสนใจเพิ่มขึ้นในโมเดลที่มีประสิทธิภาพมากขึ้นซึ่งสามารถรันแบบ บนฮาร์ดแวร์ขององค์กรได้ การเปลี่ยนแปลงนี้ถูกขับเคลื่อนด้วยความกังวลเรื่องความเป็นส่วนตัวของข้อมูล ความต้องการ latency ที่ต่ำลง และความต้องการโซลูชัน AI ที่คุ้มค่ามากขึ้น

Token context window ขนาด 128,000 ตัวของ Mistral-NeMo ถือเป็นคุณสมบัติเด่น ช่วยให้โมเดลสามารถประมวลผลและเข้าใจข้อความขนาดใหญ่ได้มากกว่าคู่แข่งหลายราย "เราคิดว่าความสามารถด้าน long context นั้นสำคัญสำหรับหลายแอปพลิเคชัน" Catanzaro กล่าว "ถ้าพวกเขาสามารถหลีกเลี่ยงการ fine-tuning ได้ มันจะทำให้ deploy ง่ายขึ้นมาก"

ทำไมบริบท (Context) จึงสำคัญอย่างมากในการใช้ AI

ตารางเปรียบเทียบประสิทธิภาพ Language Models ระหว่าง Mistral NeMo 12B, Gemma 2 9B และ Llama 3 8B ในด้านต่าง ๆ เช่น HellaSwag, Winogrande, NaturalQ, TriviaQA, MMLU, OpenBookQA, CommonSense QA และ TruthfulQA

context window ที่กว้างขึ้นนี้อาจมีประโยชน์อย่างมากสำหรับธุรกิจที่ต้องจัดการกับเอกสารที่ยาว การวิเคราะห์ที่ซับซ้อน หรืองานเขียนโค้ดที่ซับซ้อน มันอาจช่วยกำจัดความจำเป็นในการ refresh context บ่อยๆ นำไปสู่ output ที่สอดคล้องและคงเส้นคงวามากขึ้น

ประสิทธิภาพและความสามารถในการ deploy แบบ local ของโมเดลนี้อาจดึงดูดธุรกิจที่ทำงานในสภาพแวดล้อมที่มีการเชื่อมต่ออินเทอร์เน็ตจำกัด หรือที่มีข้อกำหนดด้านความเป็นส่วนตัวของข้อมูลอย่างเข้มงวด อย่างไรก็ตาม Catanzaro ได้ชี้แจงถึงกรณีการใช้งานที่ตั้งใจของโมเดลนี้ว่า "ผมคิดว่ามันเหมาะสำหรับแล็ปท็อปและพีซีมากกว่าสมาร์ทโฟน"

การวางตำแหน่งนี้บ่งชี้ว่า แม้ Mistral-NeMo จะนำ AI เข้าใกล้ผู้ใช้ธุรกิจแต่ละรายมากขึ้น แต่ก็ยังไม่ถึงขั้นที่จะใช้งานบนมือถือได้

นักวิเคราะห์ในอุตสาหกรรมเสนอว่า การเปิดตัวครั้งนี้อาจส่งผลกระทบอย่างมากต่อตลาดซอฟต์แวร์ AI การเปิดตัว Mistral-NeMo นับเป็นการเปลี่ยนแปลงที่อาจเกิดขึ้นในการใช้ AI ขององค์กร ด้วยการนำเสนอโมเดลที่สามารถรันได้อย่างมีประสิทธิภาพบนฮาร์ดแวร์ local Nvidia และ Mistral AI กำลังจัดการกับข้อกังวลที่ขัดขวางการนำ AI ไปใช้อย่างแพร่หลายในหลายธุรกิจ เช่น ความเป็นส่วนตัวของข้อมูล latency และต้นทุนสูงที่เกี่ยวข้องกับโซลูชันบน cloud

การเคลื่อนไหวนี้อาจทำให้สนามแข่งขันเท่าเทียมกันมากขึ้น ช่วยให้ธุรกิจขนาดเล็กที่มีทรัพยากรจำกัดสามารถใช้ประโยชน์จากความสามารถของ AI ที่ก่อนหน้านี้เข้าถึงได้เฉพาะบริษัทใหญ่ที่มีงบ IT มหาศาลเท่านั้น อย่างไรก็ตาม ผลกระทบที่แท้จริงของพัฒนาการนี้จะขึ้นอยู่กับประสิทธิภาพของโมเดลในแอปพลิเคชันจริง และระบบนิเวศของเครื่องมือและการสนับสนุนที่พัฒนาขึ้นรอบๆ มัน

โมเดลนี้พร้อมใช้งานทันทีในรูปแบบ NVIDIA NIM inference microservice โดยมีแผนจะปล่อยเวอร์ชันที่ดาวน์โหลดได้ในอนาคตอันใกล้ การเปิดตัวภายใต้ Apache 2.0 license อนุญาตให้ใช้งานเชิงพาณิชย์ได้ ซึ่งอาจเร่งการนำไปใช้ในสภาพแวดล้อมขององค์กร

การแข่งขันเพื่อให้ทุกคนสามารถเข้าถึง AI ได้

กราฟเปรียบเทียบความแม่นยำระหว่าง Mistral NeMo และ Llama 3 ในภาษาต่าง ๆ โดย Mistral NeMo แสดงผลดีกว่าในหลายภาษา ทั้งในการทดสอบ HellaSwag, Arc Challenge และ MMLU

ในขณะที่ธุรกิจในหลากหลายอุตสาหกรรมยังคงต่อสู้กับการผสานรวม AI เข้ากับการดำเนินงานของพวกเขา โมเดลอย่าง Mistral-NeMo ก็เป็นตัวแทนของเทรนด์ที่กำลังเติบโตสู่โซลูชัน AI ที่มีประสิทธิภาพและใช้งานได้มากขึ้น ยังต้องรอดูกันต่อไปว่าสิ่งนี้จะท้าทายการครองตลาดของโมเดลขนาดใหญ่บน cloud หรือไม่ แต่มันเปิดโอกาสใหม่ๆ สำหรับการผสานรวม AI ในสภาพแวดล้อมขององค์กรอย่างแน่นอน

Catanzaro ปิดท้ายการสัมภาษณ์ด้วยแถลงการณ์ที่ว่า “เรามั่นใจว่า AI model ตัวนี้ถือเป็นก้าวสำคัญในการทำให้ AI เข้าถึงได้ง่ายและมีประโยชน์ต่อธุรกิจทุกขนาดมากขึ้น" เขากล่าว "มันไม่ใช่แค่เรื่องของประสิทธิภาพของ model เท่านั้น แต่ยังเกี่ยวกับการนำพลังนั้นไปใส่ไว้ในมือของคนที่สามารถใช้มันเพื่อขับเคลื่อนนวัตกรรมและประสิทธิภาพในการดำเนินงานประจำวันได้โดยตรงอีกด้วย"

ในขณะที่ landscape ของ AI ยังคงพัฒนาอย่างต่อเนื่อง การเปิดตัว Mistral-NeMo ถือเป็นหมุดหมายสำคัญในการเดินทางสู่เครื่องมือ AI ที่เข้าถึงได้ง่าย มีประสิทธิภาพ และทรงพลังมากขึ้นสำหรับธุรกิจ ยังคงต้องรอดูว่าสิ่งนี้จะส่งผลกระทบต่อระบบนิเวศ AI ในวงกว้างอย่างไร แต่สิ่งหนึ่งที่ชัดเจนคือ: การแข่งขันเพื่อนำความสามารถของ AI ไปใกล้ชิดกับผู้ใช้ปลายทางกำลังเข้มข้นขึ้น และ Nvidia กับ Mistral AI เพิ่งทำการเคลื่อนไหวอย่างกล้าหาญไปในทิศทางนั้น

💡
ข่าวนี้น่าสนใจสำหรับผู้ที่ติดตามวงการ AI เพราะเป็นการร่วมมือกันระหว่าง Nvidia ยักษ์ใหญ่ด้านฮาร์ดแวร์ AI กับ Mistral AI สตาร์ทอัพจากฝรั่งเศส ในการพัฒนา AI โมเดลสำหรับใช้งานในองค์กรโดยเฉพาะ โมเดล Mistral-NeMo นี้มีขนาดกะทัดรัดแต่มีประสิทธิภาพสูง สามารถรันบนฮาร์ดแวร์ขององค์กรได้โดยตรง ช่วยแก้ปัญหาเรื่องความเป็นส่วนตัวของข้อมูล ความหน่วง และค่าใช้จ่ายของโซลูชันบน cloud นับเป็นการเปิดโอกาสให้ธุรกิจขนาดเล็กสามารถเข้าถึงศักยภาพของ AI ได้มากขึ้น

ข้อมูลจาก

https://venturebeat.com/ai/nvidia-and-mistrals-new-model-mistral-nemo-brings-enterprise-grade-ai-to-desktop-computers/

Read more

Meta เปิดเผยว่าได้ใช้ข้อมูลจากโซเชียลมีเดีย เช่น Facebook และ Instagram ในการฝึกฝน AI มานานกว่า 17 ปี

News

Meta เผยใช้ข้อมูลโซเชียลฝึก AI มา 17 ปี

Meta เปิดเผยว่าได้ใช้ข้อมูลจากโพสต์สาธารณะบน Facebook และ Instagram มาฝึกระบบ AI ของบริษัทตั้งแต่ปี 2550 สร้างความกังวลด้านความเป็นส่วนตัวของผู้ใช้ โดยเฉพาะเมื่อไม่มีตัวเลือกปฏิเสธการเก็บข้อมูลในหลายประเทศ

By