OpenAI ถูกแฮกข้อมูลในปี 2023 หลังแฮกเกอร์เจาะเข้าฟอรัมภายในสำเร็จ
OpenAI พบการบุกรุกระบบ Forum ภายในที่ใช้สำหรับการสื่อสารที่เป็นความลับ
Key takeaway
- OpenAI ถูกแฮกข้อมูลในปี 2023 โดยแฮกเกอร์สามารถเข้าถึงฟอรัมภายในของบริษัทได้ แต่ไม่ได้เข้าถึงระบบที่ใช้ในการสร้าง AI โดยตรง
- พนักงานบางส่วนกังวลว่าเหตุการณ์นี้บ่งชี้ถึงช่องโหว่ด้านความปลอดภัยที่อาจถูกศัตรูต่างชาติแสวงหาประโยชน์ได้ ซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ
- ผู้เชี่ยวชาญเชื่อว่าเหตุการณ์นี้เป็นเพียงหนึ่งในหลายๆ เหตุการณ์ เนื่องจากแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐกำลังเล็งเป้าไปที่ผู้พัฒนา AI เพื่อขโมยทรัพย์สินทางปัญญาที่มีค่า
- การลดความเสี่ยงทั้งหมดจากการละเมิดความปลอดภัยในการพัฒนา AI นั้นทำได้ยาก และผู้เชี่ยวชาญบางคนเชื่อว่า AI อาจกลายเป็นภัยคุกคามร้ายแรงได้ในอนาคต
แหล่งข่าวที่ไม่ประสงค์ออกนามได้แจ้งกับ The New York Times ว่า Forum ออนไลน์ที่พนักงาน OpenAI ใช้สำหรับการสื่อสารภายในที่เป็นความลับถูกแฮกเมื่อปีที่แล้ว แฮกเกอร์ได้ข้อมูลเกี่ยวกับการออกแบบเทคโนโลยี AI ของบริษัทจากโพสต์ใน Forum แต่พวกเขาไม่ได้บุกรุกระบบที่ OpenAI เก็บและสร้าง AI จริงๆ
ผู้บริหาร OpenAI ได้ประกาศเหตุการณ์นี้ให้ทั้งบริษัททราบในการประชุม All-hands เมื่อเดือนเมษายน 2023 และแจ้งให้คณะกรรมการบริษัททราบด้วย อย่างไรก็ตาม เหตุการณ์นี้ไม่ได้เปิดเผยต่อสาธารณะเนื่องจากไม่มีข้อมูลของลูกค้าหรือพาร์ทเนอร์ถูกขโมยไป
ตามแหล่งข่าว ผู้บริหารไม่ได้แจ้งเจ้าหน้าที่บังคับใช้กฎหมาย เพราะพวกเขาไม่เชื่อว่าแฮกเกอร์มีความเชื่อมโยงกับรัฐบาลต่างประเทศ ดังนั้นเหตุการณ์นี้จึงไม่ได้เป็นภัยคุกคามต่อความมั่นคงของชาติ
โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "อย่างที่เราแชร์กับคณะกรรมการและพนักงานของเราเมื่อปีที่แล้ว เราระบุและแก้ไขปัญหาที่เป็นต้นเหตุแล้ว และยังคงลงทุนในด้านความปลอดภัยต่อไป"
พนักงาน OpenAI ตอบสนองต่อการแฮกครั้งนี้อย่างไร?
ข่าวข้อมูล Forum รั่วไหลเป็นสาเหตุให้พนักงาน OpenAI คนอื่นๆ กังวล ตามรายงานของ NYT พวกเขาคิดว่ามันบ่งชี้ถึงช่องโหว่ในบริษัทที่อาจถูกแฮกเกอร์ที่ได้รับการสนับสนุนจากรัฐแสวงหาประโยชน์ในอนาคต หากเทคโนโลยีล้ำสมัยของ OpenAI ตกอยู่ในมือที่ไม่ถูกต้อง มันอาจถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายซึ่งอาจเป็นอันตรายต่อความมั่นคงของชาติ
นอกจากนี้ การจัดการเหตุการณ์ของผู้บริหารทำให้พนักงานบางส่วนตั้งคำถามว่า OpenAI ทำเพียงพอหรือไม่ในการปกป้องเทคโนโลยีกรรมสิทธิ์ของตนจากศัตรูต่างชาติ Leopold Aschenbrenner อดีตผู้จัดการด้านเทคนิคของบริษัท กล่าวว่าเขาถูกไล่ออกหลังจากหยิบยกข้อกังวลเหล่านี้กับคณะกรรมการบริษัทในพอดแคสต์กับ Dwarkesh Patel
OpenAI ปฏิเสธเรื่องนี้ในแถลงการณ์ต่อ The New York Times และไม่เห็นด้วยกับ "การพรรณนาลักษณะด้านความปลอดภัยของเรา" โดย Aschenbrenner ด้วย
ข่าวความปลอดภัยเพิ่มเติมของ OpenAI รวมถึงเกี่ยวกับแอป ChatGPT ใน macOS
การบุกรุก Forum ไม่ใช่ข้อบ่งชี้เมื่อเร็วๆ นี้เพียงอย่างเดียวว่าความปลอดภัยไม่ใช่ลำดับความสำคัญสูงสุดที่ OpenAI เมื่อสัปดาห์ที่แล้ว Pedro José Pereira Vieito วิศวกรข้อมูลเปิดเผยว่าแอป ChatGPT macOS ใหม่เก็บข้อมูลแชทเป็น Plain Text ซึ่งหมายความว่าผู้ร้ายสามารถเข้าถึงข้อมูลนั้นได้ง่ายหากพวกเขาได้ครอบครอง Mac หลังจากทราบเรื่องช่องโหว่นี้จาก The Verge OpenAI ได้ปล่อยอัปเดตที่เข้ารหัสแชท
โฆษก OpenAI บอกกับ TechRepublic ทางอีเมลว่า: "เราทราบถึงปัญหานี้และได้ส่งแอปพลิเคชันเวอร์ชันใหม่ซึ่งเข้ารหัสการสนทนาเหล่านี้แล้ว เรามุ่งมั่นที่จะมอบประสบการณ์ผู้ใช้ที่เป็นประโยชน์ในขณะที่รักษามาตรฐานความปลอดภัยสูงของเราในขณะที่เทคโนโลยีของเราพัฒนาขึ้น"
ในเดือนพฤษภาคม 2024 OpenAI ได้ออกแถลงการณ์ว่าได้ขัดขวางปฏิบัติการอิทธิพลลับ 5 ครั้งที่มาจากรัสเซีย จีน อิหร่าน และอิสราเอล ซึ่งพยายามใช้โมเดลของบริษัทสำหรับ "กิจกรรมหลอกลวง" กิจกรรมที่ตรวจพบและบล็อกรวมถึงการสร้างความคิดเห็นและบทความ สร้างชื่อและประวัติสำหรับบัญชีโซเชียลมีเดีย และแปลข้อความ
ในเดือนเดียวกันนั้น บริษัทประกาศว่าได้จัดตั้งคณะกรรมการความปลอดภัยและการรักษาความปลอดภัยเพื่อพัฒนากระบวนการและการป้องกันที่จะใช้ในขณะที่พัฒนาโมเดลชั้นนำ
การแฮก OpenAI Forums บ่งชี้ถึงเหตุการณ์ด้านความปลอดภัยที่เกี่ยวข้องกับ AI มากขึ้นหรือไม่?
ดร. Ilia Kolochenko หุ้นส่วนและหัวหน้าฝ่ายปฏิบัติการความปลอดภัยทางไซเบอร์ที่ Platt Law LLP กล่าวว่าเขาเชื่อว่าเหตุการณ์ความปลอดภัย OpenAI Forums นี้น่าจะเป็นหนึ่งในหลายๆ เหตุการณ์ เขาบอกกับ TechRepublic ทางอีเมลว่า: "การแข่งขัน AI ระดับโลกกลายเป็นเรื่องของความมั่นคงของชาติสำหรับหลายประเทศ ดังนั้นกลุ่มอาชญากรไซเบอร์ที่ได้รับการสนับสนุนจากรัฐและนักรบรับจ้างจึงกำลังเล็งไปที่ผู้ขาย AI อย่างรุนแรง ตั้งแต่สตาร์ทอัพที่มีความสามารถไปจนถึงยักษ์ใหญ่ด้านเทคโนโลยีอย่าง Google หรือ OpenAI"
แฮกเกอร์เล็งไปที่ทรัพย์สินทางปัญญา AI ที่มีค่า เช่น Large Language Models, แหล่งข้อมูลการฝึกอบรม, งานวิจัยด้านเทคนิค และข้อมูลเชิงพาณิชย์ ดร. Kolochenko กล่าวเสริม พวกเขาอาจใส่ Backdoor เพื่อให้สามารถควบคุมหรือขัดขวางการดำเนินงานได้ คล้ายกับการโจมตีโครงสร้างพื้นฐานสำคัญของประเทศในประเทศตะวันตกเมื่อเร็วๆ นี้
เขาบอกกับ TechRepublic ว่า: "ผู้ใช้ในองค์กรทั้งหมดของผู้ขาย GenAI ควรระมัดระวังและรอบคอบเป็นพิเศษเมื่อพวกเขาแชร์หรือให้สิทธิ์เข้าถึงข้อมูลกรรมสิทธิ์ของตนสำหรับการฝึกอบรมหรือการปรับแต่ง LLM เนื่องจากข้อมูลของพวกเขา ตั้งแต่ข้อมูลที่ได้รับสิทธิพิเศษระหว่างทนายความและลูกความและความลับทางการค้าของบริษัทชั้นนำด้านอุตสาหกรรมหรือยา ไปจนถึงข้อมูลทางทหารที่เป็นความลับ ก็อยู่ในเป้าหมายของอาชญากรไซเบอร์ที่กระหายความรู้ด้าน AI ซึ่งพร้อมที่จะเพิ่มความรุนแรงในการโจมตีของพวกเขา
สามารถลดความเสี่ยงการละเมิดความปลอดภัยในการพัฒนา AI ได้หรือไม่?
การบรรเทาความเสี่ยงทั้งหมดของการละเมิดความปลอดภัยจากศัตรูต่างชาติเมื่อพัฒนาเทคโนโลยี AI ใหม่ คงจะไม่ใช่เรื่องที่ทำได้ง่าย ๆ
OpenAI ไม่สามารถเลือกปฏิบัติต่อพนักงานตามสัญชาติได้ และในทำนองเดียวกัน ก็ไม่ต้องการจำกัด talent pool ของตนเองโดยการจ้างงานเฉพาะในบางภูมิภาคเท่านั้น
นอกจากนี้ ยังเป็นเรื่องยากที่จะป้องกันไม่ให้ระบบ AI ถูกนำไปใช้เพื่อวัตถุประสงค์ที่ชั่วร้ายก่อนที่วัตถุประสงค์เหล่านั้นจะปรากฏขึ้น การศึกษาจาก Anthropic พบว่า LLMs มีประโยชน์เพียงเล็กน้อยสำหรับ bad actors ในการได้มาหรือออกแบบอาวุธชีวภาพมากกว่าการเข้าถึงอินเทอร์เน็ตมาตรฐาน อีกการศึกษาหนึ่งจาก OpenAI ก็ได้ข้อสรุปที่คล้ายกัน
ในทางกลับกัน ผู้เชี่ยวชาญบางคนเห็นด้วยว่า แม้ AI จะไม่ก่อให้เกิดภัยคุกคามในปัจจุบัน แต่อัลกอริทึม AI อาจกลายเป็นอันตรายได้เมื่อมีการพัฒนาให้ก้าวหน้ายิ่งขึ้น ในเดือนพฤศจิกายน 2023 ตัวแทนจาก 28 ประเทศได้ลงนามใน Bletchley Declaration ซึ่งเรียกร้องให้มีความร่วมมือระดับโลกเพื่อแก้ไขความท้าทายที่ AI ก่อให้เกิด "มีโอกาสที่จะเกิดอันตรายร้ายแรง ซึ่งอาจรุนแรงถึงระดับหายนะได้ ไม่ว่าจะโดยเจตนาหรือไม่ตั้งใจ อันเนื่องมาจากความสามารถที่สำคัญที่สุดของ AI models เหล่านี้" เนื้อหาระบุไว้
Why it matters
ข้อมูลจาก https://www.techrepublic.com/article/openai-hacked-internal-communications/