กรอบการใช้ AI ในสถาบันการเงินจาก FINOS
มูลนิธิ Fintech Open Source (FINOS) เปิดเผยร่างแรกของกรอบการนำ AI มาใช้สำหรับสถาบันการเงิน ระบุความเสี่ยงของ large language model และมาตรการกำกับดูแล เพื่อเป็นแนวทางในการนำไปใช้อย่างมีประสิทธิภาพ
Key takeaway
- FINOS ได้เปิดเผยร่างแรกของกรอบการนำ AI มาใช้สำหรับสถาบันการเงิน โดยระบุถึงความเสี่ยงของ LLM และมาตรการกำกับดูแล เพื่อเป็นแนวทางในการนำไปใช้อย่างมีประสิทธิภาพ
- กลุ่มทำงานได้จำกัดขอบเขตของร่างกรอบการทำงานเฉพาะการใช้งานภายในองค์กรของเครื่องมือ generative AI ที่สร้างไว้ล่วงหน้า โดยระบุขั้นตอนการควบคุม 16 ขั้นตอนเพื่อจำกัดภัยคุกคาม 14 ประการ
- FINOS คาดว่าจะมีโค้ดควบคุมแบบ open-source พร้อมสำหรับการทดสอบและโพสต์บน GitHub ในอีกไม่กี่เดือนข้างหน้า เพื่อสนับสนุนการนำ AI มาใช้ในภาคการเงินอย่างปลอดภัยและมีประสิทธิภาพ
มูลนิธิ Fintech Open Source หรือ FINOS ได้เปิดเผยร่างแรกของกรอบการนำ AI มาใช้สำหรับสถาบันการเงินเมื่อวันอังคารที่ผ่านมา เอกสารนี้ระบุถึงความเสี่ยงทั่วไปของ large language model (LLM) และมาตรการกำกับดูแลเพื่อเป็นแนวทางในการนำไปใช้ให้ประสบความสำเร็จ
Gabriele Columbro ผู้อำนวยการบริหารของ FINOS กล่าวว่า "อุปสรรคสำคัญในการนำ GenAI มาใช้ในภาคการเงินคือการขาดกรอบการปฏิบัติตามกฎระเบียบ เราจำเป็นต้องมีมาตรฐานร่วมกันในการตีความว่าความพร้อมด้าน AI หมายถึงอะไร"
FINOS ซึ่งเป็นองค์กรไม่แสวงหากำไรด้านธนาคารและเทคโนโลยีที่ร่วมมือกับ Linux Foundation ได้ต้อนรับ Nvidia, Moody's และ Protect AI เข้าร่วมเป็นสมาชิกใหม่เมื่อวันอังคาร นอกจากนี้ยังมีสมาชิกรายอื่นๆ เช่น Capital One, Citi, Goldman Sachs, JPMorgan Chase, Morgan Stanley, AWS, Microsoft และ Google Cloud
แม้ว่าอุตสาหกรรมการเงินที่ขับเคลื่อนด้วยข้อมูลจะกระตือรือร้นที่จะนำเทคโนโลยี LLM มาใช้ แต่ก็ยังมีความเสี่ยงที่อาจเกิดขึ้นจากความไม่แม่นยำของ AI ช่องโหว่ของข้อมูล และสภาพแวดล้อมด้านกฎระเบียบที่ยังไม่ชัดเจน
NIST ได้เผยแพร่ร่างกรอบการจัดการความเสี่ยงด้าน generative AI ในเดือนกรกฎาคม และ AI Act ของสหภาพยุโรปมีผลบังคับใช้ในเดือนสิงหาคม ในขณะที่รัฐต่างๆ เช่น California กำลังพยายามออกกฎระเบียบควบคุมเทคโนโลยีนี้ ผู้บริหารต้องเผชิญกับความไม่ชัดเจนเกี่ยวกับแนวปฏิบัติที่ดีที่สุดและความรับผิดทางกฎหมาย
FINOS มีเป้าหมายที่จะนำระดับการตรวจสอบเดียวกันมาใช้กับการนำ generative AI มาใช้เช่นเดียวกับที่ทำกับ cloud โดยองค์กรได้เปิดตัวโครงการที่นำโดย Citi เพื่อสร้างมาตรฐานการปฏิบัติตามกฎระเบียบ ความยืดหยุ่น และการควบคุมความปลอดภัยของ public cloud ในอุตสาหกรรมเมื่อปีที่แล้ว และได้จัดตั้งกลุ่มทำงานด้านความพร้อมของ AI ขึ้นในเดือนเมษายน
Madhu Coimbatore หัวหน้าฝ่ายแพลตฟอร์มการพัฒนา AI ของ Morgan Stanley กล่าวว่า "นี่เป็นจุดเริ่มต้นที่ดีสำหรับเราในฐานะอุตสาหกรรม ที่จะร่วมมือกันในการสร้างแนวทางที่เป็นระบบสำหรับการนำ AI มาใช้และการกำกับดูแล"
กลุ่มทำงานได้จำกัดขอบเขตของร่างกรอบการทำงานเฉพาะการใช้งานภายในองค์กรของเครื่องมือ generative AI ที่สร้างไว้ล่วงหน้า ซึ่งได้รับข้อมูลเพิ่มเติมผ่าน retrieval augmented generation (RAG) และเชื่อมโยงกับ SaaS endpoints ภายนอก เอกสารนี้ระบุขั้นตอนการควบคุม 16 ขั้นตอนเพื่อจำกัดภัยคุกคาม 14 ประการ รวมถึงการรั่วไหลของข้อมูล การเข้ารหัสข้อมูลที่ไม่มีประสิทธิภาพ และ model hallucinations
Columbro กล่าวว่ากลุ่มยังต้องทำงานเพื่อแก้ไขความสับสนเกี่ยวกับการนำวิธีการ open-source มาใช้กับเทคโนโลยี LLM โดยกล่าวว่า "ไม่มีใครรู้ว่า open-source AI หมายถึงอะไร" และความคลุมเครือนี้นำไปสู่ "การใช้คำว่า open-source อย่างหละหลวมในระดับหนึ่ง"
ในขณะที่งานด้าน AI ดำเนินต่อไป FINOS คาดว่าจะมีโค้ดควบคุมแบบ open-source พร้อมสำหรับการทดสอบและโพสต์บน GitHub ในอีกไม่กี่เดือนข้างหน้า