การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

การแข่งขันนวัตกรรม AI นำไปสู่ช่องโหว่ด้านความปลอดภัย

อะไรจะเป็นสิ่งที่ทำให้ Generative AI มีความปลอดภัย?

จากการศึกษาใหม่ที่เผยแพร่โดย IBM และ Amazon Web Services (AWS) ระบุว่าไม่มีวิธีแก้ปัญหา 'silver bullet' ง่ายๆ ในการรักษาความปลอดภัยของ Gen AI โดยเฉพาะในตอนนี้ รายงานนี้อ้างอิงจากการสำรวจโดย IBM Institute for Business Value ซึ่งสำรวจผู้บริหารชั้นนำในองค์กรของสหรัฐฯ แม้ว่า Gen AI จะเป็นโครงการสำคัญสำหรับหลายองค์กร แต่ผลสำรวจพบว่ามีความกระตือรือร้นในระดับสูงเกี่ยวกับความปลอดภัย 82% ของผู้นำระดับ C-suite ระบุว่า AI ที่ปลอดภัยและน่าเชื่อถือเป็นสิ่งจำเป็นสำหรับความสำเร็จทางธุรกิจ

การสร้าง AI ที่น่าเชื่อถือ: กลยุทธ์ของ Microsoft สำหรับ Generative AI

มีความแตกต่างในผลลัพธ์และความแตกต่างกับสิ่งที่เกิดขึ้นจริงในโลกแห่งความเป็นจริง รายงานพบว่าองค์กรต่างๆ กำลังรักษาความปลอดภัยเพียง 24% ของโครงการ Generative AI ในปัจจุบัน IBM ไม่ใช่บริษัทเดียวที่มีรายงานที่แสดงความกังวลเกี่ยวกับความปลอดภัย PwC เนื่องจากรายงานเมื่อเร็วๆ กว่า 77% ของ CEO กังวลเกี่ยวกับความเสี่ยงด้านความปลอดภัยไซเบอร์ของ AI

ไม่ใช่เรื่องบังเอิญที่ IBM กำลังทำงานร่วมกับ AWS ในแนวทางที่แตกต่างกันเพื่อช่วยปรับปรุงสถานการณ์ในอนาคต วันนี้ IBM ยังประกาศ IBM X-Force Red Testing Service สำหรับ AI เพื่อพัฒนาความปลอดภัยของ Generative AI ต่อไป

"ในทุกการสนทนากับลูกค้าที่ฉันมี ฉันเห็นว่าผู้นำกำลังถูกดึงไปในทิศทางที่แตกต่างกัน" Dimple Ahluwalia หุ้นส่วนอาวุโสระดับโลกด้านบริการความปลอดภัยไซเบอร์ของ IBM Consulting กล่าวกับ VentureBeat "พวกเขารู้สึกถึงแรงกดดันจากทั้งผู้มีส่วนได้ส่วนเสียภายในและภายนอก ในการสร้างนวัตกรรมด้วยการใช้ Gen AI แต่สำหรับบางคน นั่นหมายความว่าความปลอดภัยกลายเป็นความคิดที่ตามมาภายหลัง"

นวัตกรรมหรือความปลอดภัย? การใช้งาน Gen AI มักเลือกได้เพียงอย่างใดอย่างหนึ่ง

แม้ว่าการมีความปลอดภัยอาจดูเหมือนเป็นเรื่องที่สมเหตุสมผลสำหรับการใช้เทคโนโลยีประเภทใดก็ตาม แต่ในความเป็นจริงแล้ว กรณีนี้ไม่ได้เป็นเช่นนั้นเสมอไป

ตามรายงานพบว่า 69% ขององค์กรให้ความสำคัญกับนวัตกรรมมากกว่าความปลอดภัย Ahluwalia กล่าวว่าองค์กรยังไม่ได้ปลูกฝังความปลอดภัยอย่างครอบคลุมในทุกสายธุรกิจ รายงานยังชี้ให้เห็นอย่างชัดเจนว่าผู้นำธุรกิจเข้าใจถึงความสำคัญของความปลอดภัยและจัดการปัญหานั้นเพื่อช่วยให้การใช้งาน Gen AI ในการผลิตประสบความสำเร็จมากขึ้น "ผู้คนตื่นเต้นมากจนรีบดูว่าพวกเขาจะได้รับประโยชน์ด้านประสิทธิภาพหรือไม่ หรือจะมองหาวิธีที่จะแข่งขันได้มากขึ้นหรือไม่" เธอกล่าว

Ahluwalia กล่าวว่าสิ่งเดียวกันนี้เกิดขึ้นในช่วงแรกของ Cloud เมื่อการสนทนาทุกครั้งต้องมีการพูดคุยเกี่ยวกับการย้าย Workload ไปยัง Cloud โดยมักจะไม่มีการกำกับดูแลด้านความปลอดภัยที่เหมาะสม

"นั่นคือสิ่งที่กำลังเกิดขึ้นในตอนนี้กับ Gen AI ทุกคนรู้สึกว่าจำเป็นและกำลังรีบไปให้ถึงมัน แต่แผนการยังไม่ได้รับการคิดอย่างทะลุปรุโปร่ง และผลก็คือ ความปลอดภัยจะต้องเสียหายไปด้วย" Ahluwalia กล่าว

Guardrails และนโยบายคือกุญแจสำคัญในการรักษาความปลอดภัยของ Generative AI

คำถามคือ แล้วองค์กรต่างๆ จะพัฒนาได้อย่างไร?

มีรายงานแนะนำว่า เพื่อสร้างความเชื่อมั่นใน Gen AI องค์กรต้องเริ่มต้นด้วยการกำกับดูแล (governance) ซึ่งรวมถึงการกำหนดนโยบาย กระบวนการ และการควบคุมที่สอดคล้องกับวัตถุประสงค์ทางธุรกิจ โดย 81% กล่าวว่า Gen AI ต้องการรูปแบบการกำกับดูแลความปลอดภัย (security governance models) ใหม่

เมื่อกำหนดการกำกับดูแลแล้ว กลยุทธ์ต่อไปคือการรักษาความปลอดภัยตลอด AI pipeline โดยใช้เครื่องมือและการควบคุมที่มีอยู่ ซึ่งต้องอาศัยความร่วมมือระหว่างทีมด้านความปลอดภัย เทคโนโลยี และธุรกิจ นอกจากนี้ยังอาจได้ประโยชน์จากการใช้ความเชี่ยวชาญของพาร์ทเนอร์ด้านเทคโนโลยีในการวางกลยุทธ์ การฝึกอบรม การประเมินค่าใช้จ่าย และการปฏิบัติตามกฎระเบียบ

IBM X-Force Red's new Testing Service for AI

บริการทดสอบแรกของ IBM ที่ออกแบบมาเฉพาะสำหรับ AI บริการใหม่นี้ได้รวมทีมผู้เชี่ยวชาญข้ามสาขาจาก penetration testing, AI systems และ data science เข้าด้วยกัน บริการนี้ยังใช้ความเชี่ยวชาญจาก IBM Research ซึ่งพัฒนา Adversarial Robustness Toolbox (ART) แนวคิดของ 'Red Team' ในด้านความปลอดภัยโดยทั่วไปหมายถึงกลุ่มที่ใช้แนวทางเชิงรุกในการโจมตีทรัพยากรเพื่อเรียนรู้ว่ามีช่องโหว่อยู่ที่ใด

Chris Thompson หัวหน้า X-Force Red ของ IBM ทั่วโลก อธิบายกับ VentureBeat ว่าอุตสาหกรรมได้นำคำว่า "AI Red Teaming" มาใช้เมื่อไม่นานมานี้ไม่ว่าจะดีหรือไม่ก็ตาม โดยเน้นที่ความปลอดภัยและการทดสอบความปลอดภัยของโมเดลเป็นหลัก ในมุมมองของเขา จนถึงปัจจุบันยังไม่มีการมุ่งเน้นที่ความลับและการหลบหลีกแบบ red team แบบดั้งเดิม แต่เน้นไปที่การทำให้โมเดลทำในสิ่งที่ไม่ควรทำ เช่น ผลิตเนื้อหาที่เป็นอันตรายหรือเข้าถึง RAG datasets ที่ละเอียดอ่อน

"การโจมตีแอปพลิเคชัน gen AI เองนั้นคล้ายกับการโจมตีความปลอดภัยของแอปพลิเคชันแบบดั้งเดิม แต่มีความแตกต่างใหม่และพื้นผิวการโจมตีที่ขยายออกไป" Thompson กล่าว

ในปี 2024 นี้ เขาระบุว่า IBM เห็นการรวมกันมากขึ้นของสิ่งที่ถือว่าเป็น Red Teaming ที่แท้จริง แนวทางที่ IBM ใช้คือการมองหาเส้นทางการโจมตีที่กว้างขึ้นไปยัง Gen AI สี่ด้านของ AI Red Teaming ที่ IBM พัฒนาบริการรอบๆ ได้แก่: AI platforms, pipeline ที่ใช้ในการปรับและฝึกโมเดล (MLSecOps), สภาพแวดล้อมการผลิตที่รันแอปพลิเคชัน gen AI และแอปพลิเคชัน gen AI เอง

"สอดคล้องกับ red teaming แบบดั้งเดิม เรายังมุ่งเน้นไปที่โอกาสในการตรวจจับที่พลาดไปและลดเวลาที่ใช้ในการตรวจจับผู้โจมตีที่อาจประสบความสำเร็จในการกำหนดเป้าหมายโซลูชัน AI ใหม่เหล่านี้" Thompson กล่าว

ข้อมูลอ้างอิงจาก Gen AI innovation race is leading to security gaps, according to IBM and AWS

Read more

หุ่นยนต์ AI อนาคตที่ Google X มองเห็น

News

หุ่นยนต์ AI อนาคตที่ Google X มองเห็น

Key takeaway * Google X เป็นห้องปฏิบัติการนวัตกรรมที่มุ่งเน้นการแก้ปัญหาระดับโลกด้วยเทคโนโลยีล้ำสมัย โดยมีแนวคิด "Moonshot" ที่ต้องส่งผลกระทบต่อคนนับร้อยล้าน มีเทคโนโลยีที่เปิดแนวทางใหม่ และมีโซลูชันทางธุรกิจที่แหวกแนว * ผู้เขียนเข้

By
Meta เปิดเผยว่าได้ใช้ข้อมูลจากโซเชียลมีเดีย เช่น Facebook และ Instagram ในการฝึกฝน AI มานานกว่า 17 ปี

News

Meta เผยใช้ข้อมูลโซเชียลฝึก AI มา 17 ปี

Meta เปิดเผยว่าได้ใช้ข้อมูลจากโพสต์สาธารณะบน Facebook และ Instagram มาฝึกระบบ AI ของบริษัทตั้งแต่ปี 2550 สร้างความกังวลด้านความเป็นส่วนตัวของผู้ใช้ โดยเฉพาะเมื่อไม่มีตัวเลือกปฏิเสธการเก็บข้อมูลในหลายประเทศ

By