Microsoft เคลื่อนไหวครั้งใหม่ เร่งเดินหน้าพัฒนาปัญญาประดิษฐ์ขนาดเล็ก
ในการแข่งขันพัฒนาระบบ Generative AI อุตสาหกรรมเทคโนโลยีมักยึดหลัก "ยิ่งใหญ่ยิ่งดี" โดยไม่คำนึงถึงต้นทุน แต่ล่าสุด บริษัทเทคโนโลยีต่างๆ เริ่มหันมาใช้เทคโนโลยีปัญญาประดิษฐ์ขนาดเล็ก ซึ่งแม้จะไม่แรงเท่าตัวขนาดใหญ่ แต่ต้นทุนถูกกว่ามาก ซึ่งอาจเป็นสิ่งที่ลูกค้าหลายรายยอมแลก
ในการแข่งขันพัฒนาระบบ Generative AI อุตสาหกรรมเทคโนโลยีมักยึดหลัก "ยิ่งใหญ่ยิ่งดี" โดยไม่คำนึงถึงต้นทุน แต่ล่าสุด บริษัทเทคโนโลยีต่างๆ เริ่มหันมาใช้เทคโนโลยีปัญญาประดิษฐ์ขนาดเล็ก ซึ่งแม้จะไม่แรงเท่าตัวขนาดใหญ่ แต่ต้นทุนถูกกว่ามาก ซึ่งอาจเป็นสิ่งที่ลูกค้าหลายรายยอมแลก
ไม่นานมานี้ ไมโครซอฟท์ได้เปิดตัว 3 แบบจำลองปัญญาประดิษฐ์ขนาดเล็กในชื่อ "Phi-3" โดยระบบเล็กที่สุดยังคงมีประสิทธิภาพใกล้เคียง GPT-3.5 ซึ่งเป็นระบบขนาดใหญ่ที่ใช้ขับเคลื่อนแชทบอท ChatGPT ของ OpenAI แบบจำลองเล็กที่สุดของ Phi-3 สามารถรันได้บนสมาร์ทโฟน จึงใช้งานได้แม้ไม่มีอินเทอร์เน็ต และสามารถทำงานบนชิปประมวลผลคอมพิวเตอร์ทั่วไป ซึ่งมีราคาถูกกว่าชิปสำหรับระบบปัญญาประดิษฐ์ขนาดใหญ่ การเคลื่อนไหวดังกล่าวของไมโครซอฟท์สะท้อนแนวโน้มการนำปัญญาประดิษฐ์ขนาดเล็กมาใช้งานจริงมากขึ้น เนื่องจากต้นทุนไม่สูงมากนักแต่ยังคงประสิทธิภาพได้ในระดับหนึ่ง
เนื่องจากแบบจำลองขนาดเล็กต้องใช้ทรัพยากรประมวลผลน้อยกว่า ทำให้บริษัทเทคโนโลยีสามารถคิดค่าบริการให้ลูกค้าในราคาที่ถูกลง ซึ่งหวังว่าจะทำให้มีลูกค้ามากขึ้นที่สามารถนำปัญญาประดิษฐ์ไปใช้งานในสถานการณ์ต่างๆ แม้ไมโครซอฟท์จะระบุว่าใช้แบบจำลองใหม่จะถูกกว่า GPT-4 อย่าง "เห็นได้ชัด" แต่ก็ยังไม่ได้เปิดเผยตัวเลขที่แน่ชัด เพราะระบบปัญญาประดิษฐ์ขนาดเล็กจะมีประสิทธิภาพต่ำกว่า อาจให้ผลลัพธ์ที่ไม่แม่นยำหรือไม่สละสลวยเท่า แต่ไมโครซอฟท์และบริษัทอื่นๆ เดิมพันว่า ลูกค้าจะยอมแลกกับประสิทธิภาพบางส่วน หากนั่นหมายถึงพวกเขาจะมีงบประมาณเพียงพอสำหรับปัญญาประดิษฐ์
Eric Boyd ผู้บริหารของไมโครซอฟท์กล่าวว่า ลูกค้าหลายรายต้องการนำปัญญาประดิษฐ์ไปใช้ แต่ระบบขนาดใหญ่ "ราคาค่อนข้างแพง" ขณะที่แบบจำลองขนาดเล็กมีต้นทุนต่ำกว่าในการนำไปใช้งาน Boyd ระบุว่า บางกลุ่มลูกค้าอย่างแพทย์หรือผู้เตรียมการภาษี อาจจ่ายเงินสำหรับระบบปัญญาประดิษฐ์แม่นยำขนาดใหญ่ได้ เนื่องจากเวลาของพวกเขามีค่ามาก แต่หลายงานอาจไม่จำเป็นต้องแม่นยำระดับนั้น เช่น การโฆษณาออนไลน์ที่ต้องการใช้ปัญญาประดิษฐ์ในการเจาะกลุ่มเป้าหมายได้ดีขึ้น แต่ต้องการต้นทุนต่ำเพื่อใช้งานได้สม่ำเสมอ
"ผมอยากให้หมอวินิจฉัยได้ถูกต้อง แต่ในบางสถานการณ์ที่ต้องสรุปรีวิวออนไลน์ หากคลาดเคลื่อนไปบ้างก็ไม่ใช่เรื่องใหญ่" Boyd กล่าว
ปัจจุบันแชทบอทต่างๆ ขับเคลื่อนด้วยแบบจำลองภาษาขนาดใหญ่ (Large Language Models หรือ LLMs) ซึ่งเป็นระบบทางคณิตศาสตร์ที่ใช้เวลาหลายสัปดาห์ในการวิเคราะห์ข้อมูลตัวอักษรจำนวนมหาศาลจากอินเทอร์เน็ต เพื่อจับรูปแบบและสร้างข้อความได้ด้วยตนเอง แต่ LLMs จำเป็นต้องเก็บข้อมูลจำนวนมาก ทำให้ต้องใช้กำลังประมวลผลสูงในการนำข้อมูลมาใช้สำหรับแต่ละการสนทนา ซึ่งมีต้นทุนค่อนข้างสูง
ดังนั้นในขณะที่บริษัทเทคโนโลยียักษ์ใหญ่และสตาร์ทอัพอย่าง OpenAI และ Anthropic มุ่งพัฒนาระบบปัญญาประดิษฐ์ขนาดใหญ่ให้มีประสิทธิภาพมากขึ้น แต่พวกเขาก็แข่งขันกันพัฒนาแบบจำลองขนาดเล็กที่มีราคาถูกกว่าด้วย โดยในช่วงปีที่ผ่านมา Meta และ Google ได้เปิดตัวแบบจำลองขนาดเล็กออกมาแล้ว นอกจากนี้ Meta และ Google ยังได้ "เปิดรหัส" แบบจำลองเหล่านี้ ซึ่งหมายความว่าทุกคนสามารถนำไปใช้และดัดแปลงได้โดยไม่เสียค่าใช้จ่าย วิธีนี้เป็นแนวทางที่บริษัทต่างๆ ใช้ขอความช่วยเหลือจากบุคคลภายนอกในการพัฒนาซอฟต์แวร์ และส่งเสริมให้อุตสาหกรรมใช้เทคโนโลยีของตน โดยไมโครซอฟท์ก็ได้เปิดรหัสให้แบบจำลอง Phi-3 ใหม่ด้วย . โดยสรุปแล้ว บริษัทเทคโนโลยีต่างๆ กำลังหาทางลดต้นทุนของระบบปัญญาประดิษฐ์โดยการพัฒนาแบบจำลองขนาดเล็กลง ซึ่งแม้ประสิทธิภาพจะด้อยกว่า แต่ก็ช่วยให้องค์กรขนาดกลางและเล็กสามารถนำเทคโนโลยีนี้มาใช้งานได้ในราคาที่จ่ายได้
หลังจาก OpenAI เปิดตัว ChatGPT ซึ่ง Sam Altman ประธานบริษัทระบุว่ามีต้นทุนต่อการสนทนาเพียง "เศษส่วนสตางค์" ถือเป็นค่าใช้จ่ายมหาศาลเมื่อเทียบกับบริการเว็บยอดนิยมอย่าง วิกิพีเดีย นักวิจัยกล่าวว่า แบบจำลองขนาดเล็กล่าสุดของพวกเขาสามารถให้ประสิทธิภาพใกล้เคียงกับแชทบอทชั้นนำอย่าง ChatGPT และ Google Gemini โดยระบบเหล่านี้ยังคงสามารถวิเคราะห์ข้อมูลจำนวนมาก แต่จะเก็บรูปแบบที่ระบุได้ในขนาดที่เล็กลง ทำให้ใช้ทรัพยากรประมวลผลน้อยลง การสร้างแบบจำลองเหล่านี้เป็นการแลกระหว่างประสิทธิภาพและขนาด
Sébastien Bubeck นักวิจัยและรองประธาน Microsoft กล่าวว่า บริษัทสร้างแบบจำลองขนาดเล็กโดยการคัดกรองข้อมูลที่ป้อนเข้าไป เพื่อให้แน่ใจว่าแบบจำลองจะได้เรียนรู้จากข้อความคุณภาพสูง ส่วนหนึ่งของข้อความนั้นถูกสร้างขึ้นโดยปัญญาประดิษฐ์เอง ซึ่งรู้จักกันในนาม "Synthetic Data (ข้อมูลสังเคราะห์)" จากนั้นมนุษย์จะทำงานแยกข้อความที่ดีที่สุดออกมา การพัฒนาแบบจำลองเหล่านี้เป็นการแลกระหว่างประสิทธิภาพกับขนาด ซึ่งจะช่วยลดต้นทุนค่าใช้จ่ายลงได้อย่างมาก แม้จะมีประสิทธิภาพด้อยกว่าระบบขนาดใหญ่บางส่วนก็ตาม
ตอนนี้ไมโครซอฟท์ได้สร้างแบบจำลองขนาดเล็กสามแบบ ได้แก่ Phi-3-mini, Phi-3-small และ Phi-3-medium ซึ่ง Phi-3-mini เป็นแบบจำลองที่เล็กและถูกที่สุด แต่มีประสิทธิภาพต่ำที่สุด และ Phi-3-medium เป็นแบบจำลองที่มีประสิทธิภาพสูงสุด แต่ก็มีขนาดใหญ่และราคาแพงที่สุด ยังไม่เปิดตัว
อีกทั้งการทำให้ระบบมีขนาดเล็กพอที่จะใช้งานบนสมาร์ทโฟนหรือคอมพิวเตอร์ส่วนบุคคลได้โดยตรง "จะทำให้ทำงานได้เร็วขึ้นมาก และลดต้นทุนได้หลายเท่า" ตาม Gil Luria นักวิเคราะห์จากธนาคารลงทุน D.A. Davidson กล่าว
สรุปแล้ว ไมโครซอฟท์ได้เสนอทางเลือกระหว่างแบบจำลองปัญญาประดิษฐ์ที่มีประสิทธิภาพสูงแต่ต้นทุนแพง กับแบบจำลองที่ประสิทธิภาพต่ำกว่าแต่ต้นทุนถูกกว่ามาก เพื่อตอบโจทย์ความต้องการที่แตกต่างกันของลูกค้าและการออกแบบเพื่อลดขนาดระบบลง เป็นหนึ่งในกุญแจสำคัญที่จะทำให้เทคโนโลยีปัญญาประดิษฐ์สามารถแพร่หลายและถูกนำไปใช้งานจริงได้มากขึ้น
ข้อมูลอ้างอิงจาก Microsoft Makes a New Push Into Smaller A.I. Systems