OpenAI เปิดให้ใช้งาน ChatGPT โหมดเสียงขั้นสูงบนมือถือ
OpenAI เปิดตัว ChatGPT Advanced Voice Mode ให้ผู้ใช้สนทนากับ AI ด้วยเสียงได้อย่างเป็นธรรมชาติ ตอกย้ำความเป็นผู้นำในตลาด conversational AI
Key takeaways
- OpenAI เปิดตัว ChatGPT Advanced Voice Mode ให้ผู้ใช้ ChatGPT Plus กลุ่มเล็กๆ ได้ทดลองใช้งานก่อน โดยจะขยายให้ผู้ใช้ทั่วไปได้ใช้ในฤดูใบไม้ร่วงนี้ ช่วยให้สนทนากับ AI ผ่านเสียงได้อย่างเป็นธรรมชาติมากขึ้น
- การเปิดตัวล่าช้ากว่ากำหนดเดิม หลังมีข้อพิพาทกับนักแสดงฮอลลีวูดที่กล่าวหาว่า OpenAI พยายามเลียนแบบเสียงของเธอ ทำให้ต้องถอดเสียง AI ออกไปก่อน
- OpenAI เน้นย้ำความพยายามในการสร้างความปลอดภัยและคุณภาพของ Advanced Voice Mode ผ่านการทดสอบอย่างละเอียด เพื่อสร้างความมั่นใจให้ผู้ใช้และหน่วยงานกำกับดูแล
- การเพิ่ม Advanced Voice Mode ใน ChatGPT ถือเป็นการยกระดับ conversational AI ให้ดียิ่งขึ้น และตอกย้ำความเป็นผู้นำของ OpenAI ในตลาด AI ที่การแข่งขันกำลังดุเดือด
OpenAI ได้ประกาศการเปิดตัว Alpha ของ Advanced Voice Mode ใหม่สำหรับผู้ใช้ ChatGPT Plus กลุ่มเล็กๆ ซึ่งช่วยให้พวกเขาสามารถพูดคุยกับ AI chatbot ได้อย่างเป็นธรรมชาติมากขึ้นบนแอป ChatGPT อย่างเป็นทางการสำหรับ iOS และ Android
บน X บริษัทได้โพสต์จากบัญชีของตนว่าโหมดนี้จะพร้อมใช้งานสำหรับ "ผู้ใช้ ChatGPT Plus กลุ่มเล็กๆ" แม้ว่าบริษัทจะเสริมในโพสต์ติดตามว่า "เราจะเพิ่มผู้คนเข้ามาเรื่อยๆ และวางแผนให้ทุกคนใน [ChatGPT] Plus สามารถเข้าถึงได้ในฤดูใบไม้ร่วง"
ChatGPT Plus เป็นบริการสมัครสมาชิกรายบุคคลมูลค่า $20 ต่อเดือนที่ OpenAI เสนอให้เข้าถึง chatbot ที่ขับเคลื่อนด้วย Large Language Model (LLM) พร้อมกับระดับอื่นๆ เช่น Free, Team, Enterprise
ยังไม่ชัดเจนว่า OpenAI เลือกกลุ่มผู้ใช้เริ่มต้นให้เข้าถึง Advanced Voice Mode อย่างไร แต่บริษัทโพสต์ว่า "ผู้ใช้ใน alpha นี้จะได้รับอีเมลพร้อมคำแนะนำและข้อความในแอปมือถือ" สำหรับ ChatGPT ดังนั้นผู้ที่สนใจควรตรวจสอบที่นั่น
คุณสมบัตินี้ซึ่งแสดงในงาน Spring Update ของ OpenAI เมื่อเดือนพฤษภาคม 2024 - ซึ่งรู้สึกเหมือนนานมากในวงจรข่าวและกระแส AI ที่เคลื่อนไหวอย่างรวดเร็ว - ช่วยให้ผู้ใช้สามารถมีส่วนร่วมในการสนทนาแบบเรียลไทม์กับเสียง AI สี่เสียงบน ChatGPT และ chatbot จะพยายามสนทนากลับอย่างเป็นธรรมชาติ รับมือกับการขัดจังหวะ และตรวจจับ ตอบสนอง และสื่ออารมณ์ที่แตกต่างกันในคำพูดและน้ำเสียง
OpenAI แสดงกรณีการใช้งานที่เป็นไปได้หลายอย่างสำหรับ Advanced Voice Mode ที่เป็นธรรมชาติและเป็นกันเองมากขึ้น รวมถึง - เมื่อรวมกับความสามารถด้าน Vision ในการดูและตอบสนองต่อวิดีโอสด - ทำหน้าที่เป็นผู้ช่วยสอน ที่ปรึกษาด้านแฟชั่น และคู่มือสำหรับผู้พิการทางสายตา
มาช้าแต่มานะ
อย่างไรก็ตาม การเปิดตัวคุณลักษณะนี้ล่าช้ากว่าที่ OpenAI ประมาณการเดิมในปลายเดือนมิถุนายน หลังจากเกิดข้อขัดแย้งที่นักแสดงและคนดังฮอลลีวูด Scarlett Johansson (Black Widow ของ Marvel และเสียงของ AI ในเรื่อง Her) กล่าวหาว่า OpenAI พยายามทำงานกับเธอและเลียนแบบเสียงของเธอแม้หลังจากที่เธอปฏิเสธ
OpenAI ปฏิเสธว่าความคล้ายคลึงใดๆ ระหว่างเสียง AI "Sky" ของตนและเสียงของ Johansson ใน Her นั้นเป็นไปโดยเจตนา แต่ถอดเสียงออกจากไลบรารีและยังคงออฟไลน์จนถึงทุกวันนี้
บน X วันนี้ บัญชี ChatGPT App อย่างเป็นทางการยอมรับความล่าช้า โดยเขียนว่า "Advanced Voice Mode ที่รอคอยมานาน [กำลัง] เริ่มเปิดตัว!"
Mira Murati หัวหน้าเจ้าหน้าที่ฝ่ายเทคโนโลยีของ OpenAI แสดงความกระตือรือร้นเกี่ยวกับคุณสมบัติใหม่ในโพสต์บน X: "การสนทนาแบบเรียลไทม์ที่สมบูรณ์และเป็นธรรมชาติมากขึ้นทำให้เทคโนโลยีมีความยืดหยุ่นน้อยลง - เราพบว่ามันมีความร่วมมือและเป็นประโยชน์มากขึ้น และคิดว่าคุณก็จะเช่นกัน"
หลังจากข้อผูกมัดและเอกสารด้านความปลอดภัยใหม่จำนวนมาก การประกาศอย่างเป็นทางการของ OpenAI เน้นย้ำถึงความพยายามอย่างต่อเนื่องเพื่อให้แน่ใจถึงคุณภาพและความปลอดภัย
"ตั้งแต่ที่เราสาธิตโหมด Advanced Voice ครั้งแรก เราได้ทำงานเพื่อเสริมความปลอดภัยและคุณภาพของการสนทนาด้วยเสียงขณะที่เราเตรียมนำเทคโนโลยีแนวหน้านี้มาสู่ผู้คนนับล้าน" บริษัทกล่าวใน X โดยเสริมว่า: "เราทดสอบความสามารถด้านเสียงของ GPT-4o กับทีมสีแดงภายนอกมากกว่า 100 ทีมใน 45 ภาษา เพื่อปกป้องความเป็นส่วนตัวของผู้คน เราได้ฝึกฝนโมเดลให้พูดในเสียงที่ตั้งไว้ล่วงหน้าสี่เสียงเท่านั้น และเราสร้างระบบเพื่อบล็อกเอาต์พุตที่แตกต่างจากเสียงเหล่านั้น นอกจากนี้เรายังได้ใช้การ์ดเรลเพื่อบล็อกคำขอเนื้อหาที่รุนแรงหรือมีลิขสิทธิ์"
ข่าวนี้มาในขณะที่ความสามารถของ AI ในการใช้เป็นเครื่องมือสำหรับการฉ้อโกงหรือการแอบอ้างกำลังได้รับการตรวจสอบใหม่อีกครั้ง
แม้ว่า Voice Mode ของ OpenAI จะไม่อนุญาตให้มีเสียงที่สร้างโดย AI ใหม่หรือการโคลนเสียงในปัจจุบัน แต่โหมดนี้อาจถูกใช้เพื่อหลอกผู้อื่นที่ไม่รู้ว่าเป็น AI
ในทางกลับกัน Elon Musk อดีตผู้สนับสนุน OpenAI และผู้ร่วมก่อตั้งคู่แข่ง ถูกวิพากษ์วิจารณ์ในสัปดาห์นี้สำหรับการแชร์การโคลนเสียงของผู้สมัครชิงตำแหน่งประธานาธิบดีพรรคเดโมแครต Kamala Harris ในวิดีโอที่โจมตีเธอ
ในช่วงเดือนที่ผ่านมาหลังจากงาน Spring Update OpenAI ได้เผยแพร่เอกสารใหม่จำนวนมากเกี่ยวกับความปลอดภัยและเทคนิคการปรับแนว AI model (การปฏิบัติตามกฎและวัตถุประสงค์ของมนุษย์) การเผยแพร่ยังเกิดขึ้นหลังจากการยุบทีม superalignment และการวิพากษ์วิจารณ์จากพนักงานบางคนในอดีตและปัจจุบันว่าบริษัทเบี่ยงเบนความสนใจในเรื่องความปลอดภัยเพื่อเปิดตัวผลิตภัณฑ์ใหม่
เป็นที่ชัดเจนว่า การเปิดตัว Advanced Voice Mode อย่างช้าๆ ดูเหมือนได้รับการออกแบบมาเพื่อโต้แย้งข้อวิจารณ์เหล่านั้น และปลอบใจผู้ใช้และอาจเป็นหน่วยงานกำกับดูแลหรือนักกฎหมายว่า OpenAI ให้ความสำคัญกับความปลอดภัยอย่างจริงจังและให้ความสำคัญเท่ากับหรือมากกว่าผลกำไร
ข้อมูลอ้างอิงจาก OpenAI opens limited access to ChatGPT Advanced Voice Mode on mobile