AI ปะทะ AI: OpenAI เปิดตัวเครื่องมือตรวจจับ Deepfake แนวทางใหม่ในการต่อสู้กับข้อมูลเท็จ
บริษัทสตาร์ทอัพชั้นนำด้าน AI ได้เข้าร่วมความพยายามของอุตสาหกรรมในการตรวจจับเนื้อหาที่สร้างขึ้นด้วย Artificial intelligence
ในขณะที่ผู้เชี่ยวชาญหลายท่านต่างเตือนว่า ภาพ เสียง และวิดีโอที่สร้างขึ้นโดย AI อาจส่งผลกระทบต่อการเลือกตั้งในฤดูใบไม้ร่วง OpenAI ได้ปล่อยเครื่องมือที่ออกแบบมาเพื่อตรวจจับเนื้อหาที่สร้างขึ้นโดย DALL-E ซึ่งเป็น Image generator ที่ได้รับความนิยมของบริษัทเอง อย่างไรก็ตาม AI startup ชั้นนำแห่งนี้ยอมรับว่า เครื่องมือนี้เป็นเพียงส่วนเล็กๆ ของสิ่งที่จำเป็นในการต่อสู้กับ deepfakes ในช่วงเดือนและปีต่อๆ ไป
เมื่อวันอังคารที่ผ่านมา OpenAI กล่าวว่าจะแบ่งปันตัวตรวจจับ Deepfake ตัวใหม่กับนักวิจัยด้านข้อมูลเท็จกลุ่มเล็กๆ เพื่อให้พวกเขาสามารถทดสอบเครื่องมือในสถานการณ์จริง และช่วยระบุวิธีที่จะปรับปรุงให้ดีขึ้น
"นี่เป็นการเริ่มต้นงานวิจัยใหม่" Sandhini Agarwal นักวิจัยของ OpenAI ที่มุ่งเน้นด้านความปลอดภัยและนโยบาย กล่าว "ซึ่งเป็นสิ่งที่จำเป็นอย่างยิ่ง"
OpenAI ได้ประกาศว่า Detector ตัวใหม่ของบริษัทสามารถระบุภาพที่สร้างโดย DALL-E 3 ซึ่งเป็น image generator เวอร์ชันล่าสุดได้ถูกต้องถึง 98.8% อย่างไรก็ตาม บริษัทระบุว่า tool นี้ไม่ได้ถูกออกแบบมาเพื่อตรวจจับภาพที่สร้างโดย Generator ยอดนิยมอื่นๆ เช่น Midjourney และ Stability AI
เนื่องจาก Deepfake detector ประเภทนี้ขับเคลื่อนด้วยความน่าจะเป็น จึงไม่สามารถทำงานได้อย่างสมบูรณ์แบบ ดังนั้น เช่นเดียวกับบริษัท องค์กรไม่แสวงหาผลกำไร และห้องปฏิบัติการวิจัยจำนวนมาก OpenAI จึงพยายามแก้ปัญหานี้ในวิธีอื่นๆ ด้วย
เช่นเดียวกับยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google และ Meta บริษัท OpenAI กำลังเข้าร่วมเป็นคณะกรรมการบริหารของ Coalition for Content Provenance and Authenticity หรือ C2PA ซึ่งเป็นความพยายามในการพัฒนา credentials สำหรับ digital content มาตรฐาน C2PA เป็นเสมือน "ฉลากโภชนาการ" สำหรับรูปภาพ วิดีโอ คลิปเสียง และไฟล์อื่นๆ ที่แสดงว่าเมื่อใดและอย่างไรที่ถูกสร้างหรือแก้ไข รวมถึงการใช้ AI ด้วย
OpenAI ยังกล่าวอีกว่ากำลังพัฒนาวิธีการ "Watermarking" เสียงที่สร้างโดย AI เพื่อให้สามารถระบุได้ง่ายในทันที บริษัทหวังว่าจะทำให้ Watermarks ลบออกไม่ได้ง่าย ๆ
ด้วยการนำโดยบริษัทอย่าง OpenAI, Google และ Meta อุตสาหกรรม AI กำลังเผชิญกับแรงกดดันที่เพิ่มขึ้นในการรับผิดชอบต่อเนื้อหาที่ผลิตภัณฑ์ของพวกเขาสร้างขึ้น ผู้เชี่ยวชาญกำลังเรียกร้องให้อุตสาหกรรมป้องกันไม่ให้ผู้ใช้สร้างเนื้อหาที่ทำให้เข้าใจผิดและเป็นอันตราย และเสนอวิธีการติดตามต้นกำเนิดและการกระจายของเนื้อหาเหล่านั้น
ในปีที่เต็มไปด้วยการเลือกตั้งครั้งสำคัญทั่วโลก เสียงเรียกร้องให้มีวิธีการติดตาม lineage ของเนื้อหาที่สร้างโดย AI กำลังทวีความรุนแรงมากขึ้น ในช่วงไม่กี่เดือนที่ผ่านมา การปลอมแปลงเสียงและภาพได้ส่งผลกระทบต่อการรณรงค์หาเสียงและการลงคะแนนเสียงในสถานที่ต่างๆ รวมถึงสโลวาเกีย ไต้หวัน และอินเดียแล้ว
Deepfake Detector ตัวใหม่ของ OpenAI อาจช่วยแก้ปัญหาได้ แต่ก็ไม่สามารถแก้ปัญหาได้ทั้งหมด ตามที่คุณ Agarwal กล่าวไว้ว่า ในการต่อสู้กับ Deepfakes นั้น "ไม่มีวิธีใดที่จะแก้ปัญหานั้นได้ง่ายและเห็นผลทันที"
ข้อมูลอ้างอิงจาก OpenAI Releases ‘Deepfake’ Detector to Disinformation Researchers