OpenAI เปิดม่านความลับเบื้องหลังคำสั่งลับของ AI
OpenAI เปิดเผยเหตุผลเบื้องหลังว่าทำไม AI แบบ Conversational อย่าง ChatGPT ถึงปฏิเสธคำขอบางอย่างอย่างสุภาพ
เคยสงสัยไหมว่าทำไม Conversational AI อย่าง ChatGPT ถึงพูดว่า "ขออภัยค่ะ ฉันทำแบบนั้นไม่ได้" หรือปฏิเสธอย่างสุภาพในลักษณะอื่นๆ OpenAI ได้เปิดเผยข้อมูลบางส่วนเกี่ยวกับเหตุผลที่อยู่เบื้องหลังกฎการทำงานของ AI Model ของพวกเขา ไม่ว่าจะเป็นการยึดตามแนวทางของแบรนด์ หรือการปฏิเสธที่จะสร้างเนื้อหา NSFW
Large Language Models (LLMs) ไม่มีข้อจำกัดตามธรรมชาติว่าจะพูดหรือทำอะไรได้บ้าง นั่นเป็นส่วนหนึ่งที่ทำให้มันมีความหลากหลาย แต่ก็เป็นเหตุผลที่ทำให้มันเกิดอาการประหลาดและถูกหลอกได้ง่ายด้วย มันจำเป็นสำหรับ AI Model ใดๆ ที่มีปฏิสัมพันธ์กับคนทั่วไปที่จะต้องมีการควบคุมบางอย่างว่าควรและไม่ควรทำอะไร แต่การกำหนดสิ่งเหล่านี้ ไม่ต้องพูดถึงการบังคับใช้ กลับเป็นงานที่ยากอย่างน่าประหลาดใจ
ถ้ามีคนขอให้ AI สร้างข้อมูลเท็จจำนวนมากเกี่ยวกับบุคคลสาธารณะ มันควรปฏิเสธใช่ไหม? แต่ถ้าพวกเขาเป็นนักพัฒนา AI เองล่ะ และกำลังสร้างฐานข้อมูลข้อมูลเท็จสังเคราะห์เพื่อใช้กับ Detector Model ล่ะ? ถ้ามีคนขอคำแนะนำเกี่ยวกับแล็ปท็อป มันควรตอบอย่างเป็นกลางใช่ไหม? แต่ถ้า Model กำลังถูกนำไปใช้โดยผู้ผลิตแล็ปท็อปที่ต้องการให้มันแนะนำแต่อุปกรณ์ของตัวเองล่ะ? ผู้ผลิต AI ทั้งหมดกำลังเดินทางฝ่าปัญหาเช่นนี้และมองหาวิธีการที่มีประสิทธิภาพในการควบคุม Model ของพวกเขาโดยไม่ทำให้ต้องปฏิเสธคำขอปกติ แต่พวกเขาแทบไม่เคยแชร์ว่าทำอย่างไรกันแน่
OpenAI แตกแถวจากเทรนด์นี้ด้วยการเผยแพร่สิ่งที่พวกเขาเรียกว่า "Model Spec" ซึ่งเป็นชุดกฎระดับสูงที่ควบคุม ChatGPT และ Model อื่นๆ ทางอ้อม มีวัตถุประสงค์ระดับ Meta บางกฎที่เข้มงวด และแนวทางพฤติกรรมทั่วไปบางอย่าง แม้ว่าพูดตามตรงแล้ว สิ่งเหล่านี้ไม่ได้เป็นสิ่งที่ Model ถูกฝึกมาโดยตรง OpenAI จะพัฒนาคำแนะนำเฉพาะที่ทำตามสิ่งที่กฎเหล่านี้อธิบายในภาษาธรรมชาติ มันเป็นมุมมองที่น่าสนใจว่าบริษัทกำหนดลำดับความสำคัญและจัดการกับกรณีขอบเขตอย่างไร และมีตัวอย่างมากมายว่ามันอาจส่งผลอย่างไร
ยกตัวอย่างเช่น OpenAI ระบุชัดเจนว่าเจตนาของนักพัฒนาคือกฎสูงสุดโดยพื้นฐาน ดังนั้น Chatbot เวอร์ชันหนึ่งที่ใช้ GPT-4 อาจให้คำตอบโจทย์คณิตศาสตร์เมื่อถูกถาม แต่ถ้า Chatbot นั้นถูกกำหนดโดยนักพัฒนาไม่ให้ตอบคำถามตรงๆ มันจะเสนอที่จะแก้ปัญหาทีละขั้นตอนแทน
ส่วนติดต่อผู้ใช้แบบสนทนา (Conversational Interface) อาจปฏิเสธที่จะพูดคุยเกี่ยวกับสิ่งที่ไม่ได้รับอนุมัติ เพื่อตัดความพยายามในการชักจูงใดๆ ตั้งแต่ต้น มันยังมีความซับซ้อนในเรื่องของความเป็นส่วนตัว เช่น การขอชื่อและหมายเลขโทรศัพท์ของใครบางคน ตามที่ OpenAI ชี้ให้เห็น บุคคลสาธารณะ เช่น นายกเทศมนตรีหรือสมาชิกสภาคองเกรส ควรมีรายละเอียดการติดต่อของพวกเขาให้ไว้ แต่จะเป็นอย่างไรกับช่างฝีมือในพื้นที่? นั่นอาจโอเค แต่พนักงานของบริษัทบางแห่ง หรือสมาชิกของพรรคการเมืองล่ะ? อาจไม่ใช่ ดังนั้นการเลือกว่าจะขีดเส้นตรงไหนและที่ไหนไม่ใช่เรื่องง่าย การสร้างคำแนะนำที่ทำให้ AI ปฏิบัติตามนโยบายที่เป็นผลก็ไม่ง่ายเช่นกัน และไม่ต้องสงสัยเลยว่านโยบายเหล่านี้จะล้มเหลวตลอดเวลา
OpenAI ไม่ได้แสดงไพ่ทั้งหมดที่นี่ แต่มันมีประโยชน์สำหรับผู้ใช้และนักพัฒนาที่จะเห็นว่ากฎและแนวทางเหล่านี้ถูกกำหนดและทำไมถึงต้องกำหนดอย่างชัดเจน แม้ว่าจะไม่จำเป็นต้องครอบคลุมทุกด้านก็ตาม
ข้อมูลอ้างอิงจาก OpenAI offers a peek behind the curtain of its AI’s secret instructions