Microsoft ต้องการจดสิทธิบัตรการแก้ไขปัญหา AI Hallucinations
ไมโครซอฟท์ยื่นจดสิทธิบัตรเทคโนโลยี "RAS" เพื่อแก้ปัญหา AI hallucinations โดยระบบนี้จะค้นหาข้อมูลเพิ่มเติมและตรวจสอบความถูกต้องของคำตอบ AI อัตโนมัติ ช่วยเพิ่มความน่าเชื่อถือและประสิทธิภาพของ AI chatbots
Key takeaway
- ไมโครซอฟท์ยื่นจดสิทธิบัตรเทคโนโลยี "response-augmenting system" (RAS) เพื่อแก้ปัญหา AI hallucinations โดยระบบนี้จะช่วยให้ AI สามารถค้นหาข้อมูลเพิ่มเติมและตรวจสอบความมีประโยชน์ของคำตอบได้โดยอัตโนมัติ
- AI hallucinations เป็นปัญหาสำคัญของ generative AI ที่ทำให้ chatbots ขาดความน่าเชื่อถือ โดยบริษัทเทคโนโลยีชั้นนำอย่าง Google, X (Twitter), Apple และ OpenAI ต่างก็เคยประสบปัญหานี้
- แม้จะมีปัญหา AI hallucinations แต่บริษัทเทคโนโลยียักษ์ใหญ่ยังคงลงทุนใน data centers สำหรับ AI อย่างต่อเนื่อง และกำลังพิจารณาใช้พลังงานนิวเคลียร์เพื่อรองรับความต้องการพลังงานที่เพิ่มขึ้นในอนาคต
ไมโครซอฟท์ยื่นจดสิทธิบัตรเทคโนโลยีแก้ปัญหา AI hallucinations
บริษัทไมโครซอฟท์ได้ยื่นจดสิทธิบัตรสำหรับเทคโนโลยีใหม่ที่อาจช่วยลดหรือแก้ปัญหา AI hallucinations หรือการตอบสนองที่ผิดพลาดของปัญญาประดิษฐ์
สิทธิบัตรดังกล่าวมีชื่อว่า "Interacting with a Language Model using External Knowledge and Feedback" ถูกยื่นต่อสำนักงานสิทธิบัตรและเครื่องหมายการค้าสหรัฐ (USPTO) เมื่อปีที่แล้ว และได้เปิดเผยต่อสาธารณะเมื่อวันที่ 31 ตุลาคมที่ผ่านมา
เทคโนโลยีนี้นำเสนอระบบที่เรียกว่า "response-augmenting system" (RAS) ซึ่งช่วยให้โมเดล AI สามารถค้นหาข้อมูลเพิ่มเติมโดยอัตโนมัติตามคำถามของผู้ใช้ และตรวจสอบ "ความมีประโยชน์" ของคำตอบ นั่นหมายความว่า RAS จะสามารถตรวจสอบว่ามีข้อมูลจากแหล่งภายนอกออนไลน์หรือในฐานข้อมูลที่สามารถตอบคำถามของผู้ใช้ได้หรือไม่ และสามารถระบุได้ว่าคำตอบนั้นไม่มีประโยชน์หาก AI ไม่ได้รวมข้อมูลดังกล่าวไว้ในคำตอบ
นอกจากนี้ RAS ยังสามารถทำให้ chatbot แจ้งผู้ใช้ได้ว่าคำตอบอาจไม่สมบูรณ์หรือน่าสงสัย และเปิดโอกาสให้ผู้ใช้สามารถให้ความคิดเห็นได้ อย่างไรก็ตาม วิธีการแก้ปัญหาที่นำเสนอนี้ไม่จำเป็นต้องให้นักพัฒนาหรือบริษัทปรับแต่งโมเดล AI ที่มีอยู่แต่อย่างใด
ขณะนี้เว็บไซต์ USPTO ยังไม่ได้แสดงหมายเลขสิทธิบัตรสำหรับการยื่นขอครั้งนี้ ซึ่งบ่งชี้ว่าอาจยังอยู่ในระหว่างการพิจารณา ทางทีมข่าวได้ติดต่อไปยังไมโครซอฟท์เพื่อขอความคิดเห็นเพิ่มเติม รวมถึงสอบถามว่าสิทธิบัตรนี้เกี่ยวข้องกับเครื่องมือลด AI hallucinations ที่บริษัทได้ประกาศไว้ก่อนหน้านี้หรือไม่ นั่นคือ Azure AI Content Safety
เครื่องมือ Content Safety นี้ถูกออกแบบมาสำหรับธุรกิจที่ใช้ AI chatbots โดยนำเสนอระบบตรวจสอบด้วย AI ที่สามารถตรวจสอบความถูกต้องของคำตอบในส่วน backend และตัดสินว่าเป็นข้อมูลที่ "ไม่มีมูล" หรือ "มีมูล" ก่อนที่จะส่งคำตอบให้ผู้ใช้ แม้ว่าจะไม่สามารถรับประกันได้ว่าจะไม่มีการให้ข้อมูลที่ผิดพลาดเลย แต่ก็เพิ่มการตรวจสอบเพื่อดูว่ามีข้อมูลจริงที่สามารถสนับสนุนข้อกล่าวอ้างของ AI หรือไม่ และจะให้คำตอบที่มีแหล่งข้อมูลอ้างอิงเท่านั้น
AI hallucinations ถือเป็นปัญหาสำคัญที่สุดอย่างหนึ่งของ generative AI เนื่องจากอาจทำให้ AI chatbots ขาดความน่าเชื่อถือหรือในบางกรณีไร้ประโยชน์ ที่ผ่านมา Google's AI Overviews และ X's Grok AI ต่างก็เคยเกิดความผิดพลาดที่น่าตกใจ ตั้งแต่การแนะนำให้ผู้ใช้ทากาวบนพิซซ่าหรือกินหิน ไปจนถึงการเผยแพร่ข้อมูลที่ผิดเกี่ยวกับการเลือกตั้ง
Tim Cook ซีอีโอของ Apple ก็ยอมรับว่า Apple Intelligence ไม่ได้ปลอดภัยจาก hallucinations เช่นกัน และล่าสุด เครื่องมือถอดเสียง "Whisper" ของ OpenAI ก็พบว่าเกิด hallucinations บ่อยครั้ง ซึ่งสร้างความกังวลเกี่ยวกับการนำไปใช้งานในโรงพยาบาลในสหรัฐอเมริกา
อย่างไรก็ตาม ปัญหา AI hallucinations ไม่ได้ทำให้บริษัทเทคโนโลยียักษ์ใหญ่ชะลอการลงทุนใน data centers สำหรับ AI แต่อย่างใด บริษัทอย่าง Google, Microsoft และ Meta กำลังพิจารณาการใช้พลังงานนิวเคลียร์เป็นทางเลือกที่อาจแก้ปัญหาความต้องการพลังงานอันมหาศาลของ AI ได้ในอนาคต
Why it matters
💡 ผู้อ่านควรติดตามข่าวนี้เพราะเป็นความก้าวหน้าสำคัญในการแก้ปัญหา AI hallucinations ซึ่งเป็นอุปสรรคหลักของเทคโนโลยี AI ในปัจจุบัน การที่บริษัทยักษ์ใหญ่อย่างไมโครซอฟท์พัฒนาเทคโนโลยีนี้ แสดงให้เห็นถึงความพยายามในการสร้างความน่าเชื่อถือให้กับ AI ซึ่งจะส่งผลกระทบต่อการใช้งาน AI ในอนาคตอันใกล้ ทั้งในแง่ของความปลอดภัยและประสิทธิภาพ ข่าวนี้จึงมีความสำคัญต่อทั้งผู้ใช้งานทั่วไปและผู้เชี่ยวชาญในวงการเทคโนโลยี
ข้อมูลอ้างอิงจาก https://www.pcmag.com/news/microsoft-wants-to-patent-a-fix-for-ai-hallucinations