OpenAI ยอมรับความเสี่ยง AI สร้างอาวุธชีวภาพ

OpenAI ยอมรับว่าโมเดล AI ใหม่ "o1" มีความเสี่ยงในการสร้างอาวุธชีวภาพ บริษัทระบุว่าเทคโนโลยีได้พัฒนาขึ้นอย่างมีนัยสำคัญ และกำลังระมัดระวังเป็นพิเศษในการเปิดตัวสู่สาธารณะ ผู้เชี่ยวชาญเรียกร้องให้มีการออกกฎหมายควบคุม

OpenAI ยอมรับความเสี่ยง AI สร้างอาวุธชีวภาพ

Key takeaway

  • OpenAI ยอมรับว่าโมเดล AI รุ่นใหม่ "o1" มีความเสี่ยงระดับกลางในการถูกนำไปใช้สร้างอาวุธชีวภาพ ซึ่งเป็นระดับความเสี่ยงสูงสุดที่บริษัทเคยกำหนด
  • บริษัทกำลังใช้ความระมัดระวังเป็นพิเศษในการเปิดตัว o1 สู่สาธารณะ โดยได้ผ่านการทดสอบจากผู้เชี่ยวชาญหลายสาขา แม้จะมีความสามารถสูงขึ้น แต่ก็มีความปลอดภัยโดยรวมดีกว่ารุ่นก่อน
  • ความก้าวหน้าของ AI ที่เพิ่มขึ้นอย่างรวดเร็วนี้ ทำให้เกิดคำถามสำคัญเกี่ยวกับความปลอดภัยและจริยธรรม ซึ่งจำเป็นต้องได้รับการพิจารณาอย่างรอบคอบจากทั้งภาคอุตสาหกรรมและภาครัฐ

OpenAI บริษัทผู้พัฒนา ChatGPT ได้ออกมายอมรับว่าโมเดล AI รุ่นล่าสุดที่มีชื่อว่า "o1" อาจมีความเสี่ยงที่จะถูกนำไปใช้ในทางที่ผิดเพื่อสร้างอาวุธชีวภาพ

เมื่อสัปดาห์ที่ผ่านมา OpenAI ได้เปิดตัวโมเดล AI ใหม่ที่มีความสามารถในการให้เหตุผลและแก้ปัญหาที่เหนือกว่ารุ่นก่อนหน้า ในการประเมินความเสี่ยง บริษัทได้จัดอันดับให้โมเดลนี้มี "ความเสี่ยงระดับกลาง" สำหรับปัญหาที่เกี่ยวข้องกับอาวุธ CBRN (Chemical, Biological, Radiological, and Nuclear) ซึ่งถือเป็นระดับความเสี่ยงสูงสุดที่บริษัทเคยกำหนดให้กับโมเดลของตน

ตามรายงานของ Financial Times บริษัทระบุว่าสิ่งนี้แสดงให้เห็นว่าเทคโนโลยีได้ "พัฒนาขึ้นอย่างมีนัยสำคัญ" ในด้านความสามารถที่ผู้เชี่ยวชาญอาจนำไปใช้ในการสร้างอาวุธชีวภาพ

Mira Murati CTO ของ OpenAI กล่าวว่าบริษัทกำลัง "ระมัดระวังเป็นพิเศษ" ในการเปิดตัว o1 สู่สาธารณะ เนื่องจากความสามารถขั้นสูงของมัน โมเดลนี้ได้ผ่านการทดสอบจาก red teamers และผู้เชี่ยวชาญในสาขาวิทยาศาสตร์ต่างๆ ที่พยายามทดสอบขีดจำกัดของโมเดล อย่างไรก็ตาม Murati ยืนยันว่าโมเดลปัจจุบันมีประสิทธิภาพดีกว่าโมเดลรุ่นก่อนหน้าในแง่ของความปลอดภัยโดยรวม

ผู้เชี่ยวชาญหลายท่านได้แสดงความกังวลเกี่ยวกับความเสี่ยงที่เพิ่มขึ้นของการนำ AI ที่มีความสามารถสูงไปใช้ในทางที่ผิด Yoshua Bengio นักวิทยาศาสตร์ AI ชั้นนำ ได้เน้นย้ำถึงความจำเป็นเร่งด่วนในการออกกฎหมายควบคุม เช่น ร่างกฎหมาย SB 1047 ของแคลิฟอร์เนีย ที่จะกำหนดให้ผู้พัฒนาโมเดล AI ต้องลดความเสี่ยงในการนำโมเดลไปใช้พัฒนาอาวุธชีวภาพ

ในขณะเดียวกัน การศึกษาเมื่อต้นปีนี้ได้แสดงให้เห็นถึงข้อจำกัดในการใช้งาน GPT-4 สำหรับการพัฒนาอาวุธชีวภาพ ซึ่งเป็นการตอบสนองต่อความกังวลเกี่ยวกับการนำ AI ไปใช้ในทางที่ผิด นอกจากนี้ ยังมีรายงานก่อนหน้านี้ว่า OpenAI ได้ร่วมมือกับ Los Alamos National Laboratory เพื่อศึกษาศักยภาพและความเสี่ยงของ AI ในการวิจัยทางวิทยาศาสตร์

ความก้าวหน้าของเทคโนโลยี AI ที่เพิ่มขึ้นอย่างรวดเร็วนี้ ทำให้เกิดคำถามสำคัญเกี่ยวกับความปลอดภัยและจริยธรรมในการพัฒนาและใช้งาน AI ซึ่งจำเป็นต้องได้รับการพิจารณาอย่างรอบคอบจากทั้งภาคอุตสาหกรรมและภาครัฐ

Why it matters

💡
ข่าวนี้มีความสำคัญอย่างยิ่งสำหรับผู้ที่สนใจในวงการเทคโนโลยี AI เนื่องจากเผยให้เห็นถึงความก้าวหน้าอย่างรวดเร็วของ AI และความท้าทายด้านความปลอดภัยที่ตามมา การที่ OpenAI ยอมรับความเสี่ยงนี้แสดงให้เห็นถึงความโปร่งใสและความรับผิดชอบของบริษัท ซึ่งเป็นประเด็นสำคัญในการพัฒนา AI อย่างมีจริยธรรม นอกจากนี้ ยังชี้ให้เห็นถึงความจำเป็นในการมีกฎระเบียบและการกำกับดูแลที่เหมาะสมสำหรับเทคโนโลยี AI ที่มีศักยภาพสูง

ข้อมูลอ้างอิงจาก https://www.benzinga.com/news/24/09/40870931/chatgpt-creator-openai-says-its-latest-models-pose-bioweapons-creation-risk-ai-giant-particularly-ca

Read more

ภาพรีแบรนด์ Google Bard เป็น Gemini พร้อมโลโก้ Google และไอคอน AI เช่น แปลภาษาและเอกสาร สะท้อนก้าวใหม่ของ Google

news

Google Gemini คืออะไร? AI model และ chatbot ทำงานอย่างไรในปี 2024

Google เปลี่ยนชื่อ AI จาก Bard เป็น Gemini พร้อมอัพเกรดความสามารถเพื่อแข่งขันกับ ChatGPT และ Claude ในตลาด AI ที่กำลังเติบโต สะท้อนความมุ่งมั่นของ Google ในการพัฒนาเทคโนโลยี AI อย่างต่อเนื่อง

By
NVIDIA เปิดตัว AI ใหม่เพื่อพัฒนาหุ่นยนต์มนุษย์ ภาพแสดงหุ่นยนต์ที่ทำงานร่วมกับมนุษย์บนคอมพิวเตอร์ สื่อถึงเทคโนโลยีล้ำสมัย

news

NVIDIA เปิดตัว AI ใหม่ที่มุ่งเป้าไปที่การฝึกหุ่นยนต์ลักษณะมนุษย์

NVIDIA เปิดตัวระบบ AI ใหม่เพื่อพัฒนาหุ่นยนต์มนุษย์ให้มีประสิทธิภาพมากขึ้น นับเป็นความก้าวหน้าครั้งสำคัญในวงการหุ่นยนต์ แม้จะมีความกังวลเรื่องจริยธรรมและความเสี่ยง แต่ก็เป็นพัฒนาการที่น่าติดตาม

By
ภาพคู่รักกอดกันในห้องนั่งเล่น ฉากจากหนัง “Here” ที่ใช้ AI ปฏิวัติเทคโนโลยีการถ่ายทำ สื่อถึงนวัตกรรมในวงการภาพยนตร์

news

ภาพยนตร์ "Here" ใช้ AI ปรับอายุนักแสดงแบบ real-time

TriStar Pictures เปิดตัวภาพยนตร์ "Here" ใช้ AI ปรับอายุนักแสดงนำแบบเรียลไทม์ตลอด 60 ปี นับเป็นก้าวสำคัญของการใช้ AI ในวงการภาพยนตร์ แม้จะมีข้อถกเถียงเรื่องจริยธรรม แต่เทคโนโลยีนี้กำลังเปิดโอกาสใหม่ๆ ให้วงการ

By
หญิงอเมริกันนั่งทำงานอย่างเครียด มีธงชาติสหรัฐฯ และคำว่า "Task Automation" สื่อถึงปัญหางานล้นและความคาดหวังให้ AI มาช่วย

news

นักคิดเชิงสร้างสรรค์พึ่งพา Generative AI มากขึ้นเมื่อภาระงานเพิ่มสูงขึ้น

รายงานล่าสุดเผยคนทำงานในสหรัฐฯ เผชิญปัญหางานล้น ปริมาณงานเพิ่มขึ้น 31% ในปีที่ผ่านมา หลายคนหันมาใช้ AI ช่วยงาน คาดว่าจะประหยัดเวลาได้ 4 ชั่วโมงต่อสัปดาห์ แต่องค์กรส่วนใหญ่ยังไม่พร้อมรับมือกับการใช้ AI ของพนักงาน

By