นักวิจัยด้านความปลอดภัยลาออกจาก OpenAI หลังการยุบทีม 'AGI Readiness'

นักวิจัยนโยบายคนสำคัญของ OpenAI ลาออกหลังการยุบทีม AGI Readiness ท่ามกลางการเปลี่ยนแปลงโครงสร้างองค์กรและความกังวลด้านความปลอดภัย AI ส่งผลให้มีนักวิจัยชื่อดังทยอยลาออกหลายคน

นักวิจัยด้านความปลอดภัยลาออกจาก OpenAI หลังการยุบทีม 'AGI Readiness'

Key takeaway

  • การลาออกของ Rosie Campbell และ Miles Brundage นำไปสู่การยุบทีม AGI Readiness ซึ่งเป็นทีมสำคัญที่ดูแลด้านความพร้อมในการรับมือกับ AI ที่อาจมีความสามารถเทียบเท่าหรือเหนือกว่ามนุษย์
  • OpenAI มีการเปลี่ยนแปลงโครงสร้างองค์กรจากไม่แสวงผลกำไรเป็นบริษัทเพื่อการค้า ส่งผลให้เกิดคำถามจากอดีตพนักงานเกี่ยวกับการละทิ้งภารกิจเดิมที่มุ่งพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ
  • หลังเหตุการณ์ปลดและรับ Sam Altman กลับเข้ามาเป็น CEO มีนักวิจัยชื่อดังหลายคนทยอยลาออก รวมถึง Ilya Sutskever, Jan Leike และ John Schulman โดยแสดงความกังวลเกี่ยวกับทิศทางด้านความปลอดภัยของบริษัท

Rosie Campbell นักวิจัยด้านนโยบายของ OpenAI ได้ประกาศผ่าน Substack เมื่อวันเสาร์ที่ผ่านมาว่าได้สิ้นสุดการทำงานกับบริษัทแล้ว

การลาออกของ Campbell เกิดขึ้นหลังจาก Miles Brundage ที่ปรึกษาอาวุโสด้านนโยบายและหัวหน้าทีม AGI Readiness ลาออกไปในเดือนตุลาคม ส่งผลให้ทีมถูกยุบและกระจายบุคลากรไปตามแผนกต่างๆ

ทีม AGI Readiness มีภารกิจสำคัญในการให้คำปรึกษาด้านความพร้อมของโลกในการรับมือกับ AGI (Artificial General Intelligence) หรือ AI ที่อาจมีความสามารถเทียบเท่าหรือเหนือกว่ามนุษย์ในอนาคต

Campbell ระบุว่าต้องการอิสระในการจัดการประเด็นที่ส่งผลกระทบต่อทั้งอุตสาหกรรม และเชื่อว่าการทำงานนอกองค์กรจะมีประสิทธิภาพมากกว่า

ในรอบปีที่ผ่านมา OpenAI ได้ปรับเปลี่ยนโครงสร้างจากองค์กรไม่แสวงผลกำไรเป็นบริษัทเพื่อการค้า สร้างคำถามจากอดีตพนักงานถึงการละทิ้งภารกิจเดิมที่มุ่งพัฒนา AI เพื่อประโยชน์ของมนุษยชาติ

Sam Altman CEO ของบริษัทชี้แจงว่าการเปลี่ยนแปลงนี้จำเป็นต่อการระดมทุน พร้อมระบุว่าความรับผิดชอบด้านความปลอดภัย AI ไม่ควรตกอยู่ที่ OpenAI เพียงบริษัทเดียว แต่เป็นประเด็นที่สังคมต้องร่วมกันพิจารณา

หลังเหตุการณ์ปลด-รับกลับ Altman เมื่อปีที่แล้ว มีนักวิจัยชื่อดังทยอยลาออกหลายคน อาทิ Ilya Sutskever ผู้ร่วมก่อตั้ง, Jan Leike และ John Schulman โดยต่างแสดงความกังวลต่อทิศทางด้านความปลอดภัยของบริษัท

#OpenAI #AGI #AISafety #TechNews

Why it matters

💡 การลาออกของ Rosie Campbell นักวิจัยด้านนโยบายคนสำคัญของ OpenAI เป็นข่าวที่น่าจับตามอง เนื่องจากสะท้อนให้เห็นถึงความเปลี่ยนแปลงครั้งสำคัญในทิศทางของบริษัท AI ที่ทรงอิทธิพลที่สุดแห่งหนึ่งของโลก โดยเฉพาะประเด็นการยุบทีม AGI Readiness ที่มีหน้าที่ดูแลความปลอดภัยของ AI ขั้นสูง ซึ่งอาจส่งผลกระทบต่อการพัฒนา AI อย่างมีความรับผิดชอบในอนาคต ผู้อ่านจะได้เข้าใจถึงความท้าทายในการสร้างสมดุลระหว่างการเติบโตทางธุรกิจและความปลอดภัยของเทคโนโลยี AI

ข้อมูลอ้างอิงจาก https://www.businessinsider.com/openai-safety-researcher-rosie-cambell-quits-agi-readiness-miles-brundage-2024-12

Read more

ไมโครซอฟท์ชะลอแผนขยายศูนย์ Data Center ทั่วโลก

news

ไมโครซอฟท์ชะลอแผนขยายศูนย์ Data Center ทั่วโลก

ไมโครซอฟท์ประกาศชะลอการขยายศูนย์ Data Center ในหลายประเทศ ทั้งที่เพิ่งประกาศลงทุน 8 หมื่นล้านดอลลาร์ในปี 2025 โดยเปลี่ยนแผนเป็นการติดตั้งอุปกรณ์ในสถานที่ที่มีอยู่แทน

By
Google Gemini 2.5 Pro อาจเป็นโมเดล AI ที่สำคัญที่สุดในปีนี้

news

Google Gemini 2.5 Pro อาจเป็นโมเดล AI ที่สำคัญที่สุดในปีนี้

Google เปิดตัว Gemini 2.5 Pro โมเดล AI รุ่นใหม่ที่ทำคะแนนสูงสุดในการทดสอบหลายด้าน ทั้งการเขียนโค้ด คณิตศาสตร์ และการให้เหตุผล รองรับการประมวลผลข้อมูลได้ถึง 1 ล้าน token พร้อมฐานความรู้ล่าสุดถึงต้นปี 2025

By
Midjourney เปิดตัว V7 โมเดล AI สร้างภาพรุ่นใหม่ครั้งแรกในรอบเกือบหนึ่งปี

news

Midjourney เปิดตัว V7 โมเดล AI สร้างภาพรุ่นใหม่ครั้งแรกในรอบเกือบหนึ่งปี

Midjourney เปิดตัวโมเดล AI สร้างภาพรุ่น V7 ครั้งแรกในรอบเกือบปี มาพร้อมฟีเจอร์ใหม่ personalization profile ที่ปรับแต่งตามรสนิยมผู้ใช้ และ Draft Mode ที่สร้างภาพได้เร็วขึ้น 10 เท่า พร้อมคุณภาพภาพที่ดีขึ้น

By
Meta เปิดตัว Llama 4 กลุ่มโมเดล AI รุ่นใหม่ล่าสุด

news

Meta เปิดตัว Llama 4 กลุ่มโมเดล AI รุ่นใหม่ล่าสุด

Meta เปิดตัว Llama 4 โมเดล AI รุ่นใหม่ 3 รุ่น ได้แก่ Scout, Maverick และ Behemoth มาพร้อมสถาปัตยกรรม MoE ประสิทธิภาพสูง รองรับงานหลากหลาย ทั้งการแชท เขียนโค้ด และประมวลผลเอกสารขนาดใหญ่

By