Microsoft เคลื่อนไหวครั้งใหม่ เร่งเดินหน้าพัฒนาปัญญาประดิษฐ์ขนาดเล็ก

ในการแข่งขันพัฒนาระบบ Generative AI อุตสาหกรรมเทคโนโลยีมักยึดหลัก "ยิ่งใหญ่ยิ่งดี" โดยไม่คำนึงถึงต้นทุน แต่ล่าสุด บริษัทเทคโนโลยีต่างๆ เริ่มหันมาใช้เทคโนโลยีปัญญาประดิษฐ์ขนาดเล็ก ซึ่งแม้จะไม่แรงเท่าตัวขนาดใหญ่ แต่ต้นทุนถูกกว่ามาก ซึ่งอาจเป็นสิ่งที่ลูกค้าหลายรายยอมแลก

Microsoft เคลื่อนไหวครั้งใหม่ เร่งเดินหน้าพัฒนาปัญญาประดิษฐ์ขนาดเล็ก

ในการแข่งขันพัฒนาระบบ Generative AI อุตสาหกรรมเทคโนโลยีมักยึดหลัก "ยิ่งใหญ่ยิ่งดี" โดยไม่คำนึงถึงต้นทุน แต่ล่าสุด บริษัทเทคโนโลยีต่างๆ เริ่มหันมาใช้เทคโนโลยีปัญญาประดิษฐ์ขนาดเล็ก ซึ่งแม้จะไม่แรงเท่าตัวขนาดใหญ่ แต่ต้นทุนถูกกว่ามาก ซึ่งอาจเป็นสิ่งที่ลูกค้าหลายรายยอมแลก

ไม่นานมานี้ ไมโครซอฟท์ได้เปิดตัว 3 แบบจำลองปัญญาประดิษฐ์ขนาดเล็กในชื่อ "Phi-3" โดยระบบเล็กที่สุดยังคงมีประสิทธิภาพใกล้เคียง GPT-3.5 ซึ่งเป็นระบบขนาดใหญ่ที่ใช้ขับเคลื่อนแชทบอท ChatGPT ของ OpenAI แบบจำลองเล็กที่สุดของ Phi-3 สามารถรันได้บนสมาร์ทโฟน จึงใช้งานได้แม้ไม่มีอินเทอร์เน็ต และสามารถทำงานบนชิปประมวลผลคอมพิวเตอร์ทั่วไป ซึ่งมีราคาถูกกว่าชิปสำหรับระบบปัญญาประดิษฐ์ขนาดใหญ่ การเคลื่อนไหวดังกล่าวของไมโครซอฟท์สะท้อนแนวโน้มการนำปัญญาประดิษฐ์ขนาดเล็กมาใช้งานจริงมากขึ้น เนื่องจากต้นทุนไม่สูงมากนักแต่ยังคงประสิทธิภาพได้ในระดับหนึ่ง

เนื่องจากแบบจำลองขนาดเล็กต้องใช้ทรัพยากรประมวลผลน้อยกว่า ทำให้บริษัทเทคโนโลยีสามารถคิดค่าบริการให้ลูกค้าในราคาที่ถูกลง ซึ่งหวังว่าจะทำให้มีลูกค้ามากขึ้นที่สามารถนำปัญญาประดิษฐ์ไปใช้งานในสถานการณ์ต่างๆ แม้ไมโครซอฟท์จะระบุว่าใช้แบบจำลองใหม่จะถูกกว่า GPT-4 อย่าง "เห็นได้ชัด" แต่ก็ยังไม่ได้เปิดเผยตัวเลขที่แน่ชัด เพราะระบบปัญญาประดิษฐ์ขนาดเล็กจะมีประสิทธิภาพต่ำกว่า อาจให้ผลลัพธ์ที่ไม่แม่นยำหรือไม่สละสลวยเท่า แต่ไมโครซอฟท์และบริษัทอื่นๆ เดิมพันว่า ลูกค้าจะยอมแลกกับประสิทธิภาพบางส่วน หากนั่นหมายถึงพวกเขาจะมีงบประมาณเพียงพอสำหรับปัญญาประดิษฐ์

Eric Boyd ผู้บริหารของไมโครซอฟท์กล่าวว่า ลูกค้าหลายรายต้องการนำปัญญาประดิษฐ์ไปใช้ แต่ระบบขนาดใหญ่ "ราคาค่อนข้างแพง" ขณะที่แบบจำลองขนาดเล็กมีต้นทุนต่ำกว่าในการนำไปใช้งาน Boyd ระบุว่า บางกลุ่มลูกค้าอย่างแพทย์หรือผู้เตรียมการภาษี อาจจ่ายเงินสำหรับระบบปัญญาประดิษฐ์แม่นยำขนาดใหญ่ได้ เนื่องจากเวลาของพวกเขามีค่ามาก แต่หลายงานอาจไม่จำเป็นต้องแม่นยำระดับนั้น เช่น การโฆษณาออนไลน์ที่ต้องการใช้ปัญญาประดิษฐ์ในการเจาะกลุ่มเป้าหมายได้ดีขึ้น แต่ต้องการต้นทุนต่ำเพื่อใช้งานได้สม่ำเสมอ

"ผมอยากให้หมอวินิจฉัยได้ถูกต้อง แต่ในบางสถานการณ์ที่ต้องสรุปรีวิวออนไลน์ หากคลาดเคลื่อนไปบ้างก็ไม่ใช่เรื่องใหญ่" Boyd กล่าว

ปัจจุบันแชทบอทต่างๆ ขับเคลื่อนด้วยแบบจำลองภาษาขนาดใหญ่ (Large Language Models หรือ LLMs) ซึ่งเป็นระบบทางคณิตศาสตร์ที่ใช้เวลาหลายสัปดาห์ในการวิเคราะห์ข้อมูลตัวอักษรจำนวนมหาศาลจากอินเทอร์เน็ต เพื่อจับรูปแบบและสร้างข้อความได้ด้วยตนเอง แต่ LLMs จำเป็นต้องเก็บข้อมูลจำนวนมาก ทำให้ต้องใช้กำลังประมวลผลสูงในการนำข้อมูลมาใช้สำหรับแต่ละการสนทนา ซึ่งมีต้นทุนค่อนข้างสูง

ดังนั้นในขณะที่บริษัทเทคโนโลยียักษ์ใหญ่และสตาร์ทอัพอย่าง OpenAI และ Anthropic มุ่งพัฒนาระบบปัญญาประดิษฐ์ขนาดใหญ่ให้มีประสิทธิภาพมากขึ้น แต่พวกเขาก็แข่งขันกันพัฒนาแบบจำลองขนาดเล็กที่มีราคาถูกกว่าด้วย โดยในช่วงปีที่ผ่านมา Meta และ Google ได้เปิดตัวแบบจำลองขนาดเล็กออกมาแล้ว นอกจากนี้ Meta และ Google ยังได้ "เปิดรหัส" แบบจำลองเหล่านี้ ซึ่งหมายความว่าทุกคนสามารถนำไปใช้และดัดแปลงได้โดยไม่เสียค่าใช้จ่าย วิธีนี้เป็นแนวทางที่บริษัทต่างๆ ใช้ขอความช่วยเหลือจากบุคคลภายนอกในการพัฒนาซอฟต์แวร์ และส่งเสริมให้อุตสาหกรรมใช้เทคโนโลยีของตน โดยไมโครซอฟท์ก็ได้เปิดรหัสให้แบบจำลอง Phi-3 ใหม่ด้วย . โดยสรุปแล้ว บริษัทเทคโนโลยีต่างๆ กำลังหาทางลดต้นทุนของระบบปัญญาประดิษฐ์โดยการพัฒนาแบบจำลองขนาดเล็กลง ซึ่งแม้ประสิทธิภาพจะด้อยกว่า แต่ก็ช่วยให้องค์กรขนาดกลางและเล็กสามารถนำเทคโนโลยีนี้มาใช้งานได้ในราคาที่จ่ายได้

หลังจาก OpenAI เปิดตัว ChatGPT ซึ่ง Sam Altman ประธานบริษัทระบุว่ามีต้นทุนต่อการสนทนาเพียง "เศษส่วนสตางค์" ถือเป็นค่าใช้จ่ายมหาศาลเมื่อเทียบกับบริการเว็บยอดนิยมอย่าง วิกิพีเดีย นักวิจัยกล่าวว่า แบบจำลองขนาดเล็กล่าสุดของพวกเขาสามารถให้ประสิทธิภาพใกล้เคียงกับแชทบอทชั้นนำอย่าง ChatGPT และ Google Gemini โดยระบบเหล่านี้ยังคงสามารถวิเคราะห์ข้อมูลจำนวนมาก แต่จะเก็บรูปแบบที่ระบุได้ในขนาดที่เล็กลง ทำให้ใช้ทรัพยากรประมวลผลน้อยลง การสร้างแบบจำลองเหล่านี้เป็นการแลกระหว่างประสิทธิภาพและขนาด

Sébastien Bubeck นักวิจัยและรองประธาน Microsoft กล่าวว่า บริษัทสร้างแบบจำลองขนาดเล็กโดยการคัดกรองข้อมูลที่ป้อนเข้าไป เพื่อให้แน่ใจว่าแบบจำลองจะได้เรียนรู้จากข้อความคุณภาพสูง ส่วนหนึ่งของข้อความนั้นถูกสร้างขึ้นโดยปัญญาประดิษฐ์เอง ซึ่งรู้จักกันในนาม "Synthetic Data (ข้อมูลสังเคราะห์)" จากนั้นมนุษย์จะทำงานแยกข้อความที่ดีที่สุดออกมา การพัฒนาแบบจำลองเหล่านี้เป็นการแลกระหว่างประสิทธิภาพกับขนาด ซึ่งจะช่วยลดต้นทุนค่าใช้จ่ายลงได้อย่างมาก แม้จะมีประสิทธิภาพด้อยกว่าระบบขนาดใหญ่บางส่วนก็ตาม

ตอนนี้ไมโครซอฟท์ได้สร้างแบบจำลองขนาดเล็กสามแบบ ได้แก่ Phi-3-mini, Phi-3-small และ Phi-3-medium ซึ่ง Phi-3-mini เป็นแบบจำลองที่เล็กและถูกที่สุด แต่มีประสิทธิภาพต่ำที่สุด และ Phi-3-medium เป็นแบบจำลองที่มีประสิทธิภาพสูงสุด แต่ก็มีขนาดใหญ่และราคาแพงที่สุด ยังไม่เปิดตัว

อีกทั้งการทำให้ระบบมีขนาดเล็กพอที่จะใช้งานบนสมาร์ทโฟนหรือคอมพิวเตอร์ส่วนบุคคลได้โดยตรง "จะทำให้ทำงานได้เร็วขึ้นมาก และลดต้นทุนได้หลายเท่า" ตาม Gil Luria นักวิเคราะห์จากธนาคารลงทุน D.A. Davidson กล่าว

สรุปแล้ว ไมโครซอฟท์ได้เสนอทางเลือกระหว่างแบบจำลองปัญญาประดิษฐ์ที่มีประสิทธิภาพสูงแต่ต้นทุนแพง กับแบบจำลองที่ประสิทธิภาพต่ำกว่าแต่ต้นทุนถูกกว่ามาก เพื่อตอบโจทย์ความต้องการที่แตกต่างกันของลูกค้าและการออกแบบเพื่อลดขนาดระบบลง เป็นหนึ่งในกุญแจสำคัญที่จะทำให้เทคโนโลยีปัญญาประดิษฐ์สามารถแพร่หลายและถูกนำไปใช้งานจริงได้มากขึ้น

ข้อมูลอ้างอิงจาก Microsoft Makes a New Push Into Smaller A.I. Systems

Read more

หุ่นยนต์ AI อนาคตที่ Google X มองเห็น

News

หุ่นยนต์ AI อนาคตที่ Google X มองเห็น

Key takeaway * Google X เป็นห้องปฏิบัติการนวัตกรรมที่มุ่งเน้นการแก้ปัญหาระดับโลกด้วยเทคโนโลยีล้ำสมัย โดยมีแนวคิด "Moonshot" ที่ต้องส่งผลกระทบต่อคนนับร้อยล้าน มีเทคโนโลยีที่เปิดแนวทางใหม่ และมีโซลูชันทางธุรกิจที่แหวกแนว * ผู้เขียนเข้

By
Meta เปิดเผยว่าได้ใช้ข้อมูลจากโซเชียลมีเดีย เช่น Facebook และ Instagram ในการฝึกฝน AI มานานกว่า 17 ปี

News

Meta เผยใช้ข้อมูลโซเชียลฝึก AI มา 17 ปี

Meta เปิดเผยว่าได้ใช้ข้อมูลจากโพสต์สาธารณะบน Facebook และ Instagram มาฝึกระบบ AI ของบริษัทตั้งแต่ปี 2550 สร้างความกังวลด้านความเป็นส่วนตัวของผู้ใช้ โดยเฉพาะเมื่อไม่มีตัวเลือกปฏิเสธการเก็บข้อมูลในหลายประเทศ

By