OpenAIは先日、ChatGPTの高度な音声モードに関する最新の進捗報告を発表しました。春にアップデートで紹介されたこの高度な機能は、当初6月末に少数のChatGPT Plusユーザー向けにアルファテストを公開する予定でしたが、リリース基準を満たすにはもう1ヶ月必要となりました。
開発チームは、モデルによる検出能力と、特定のコンテンツを拒否する能力の向上に努めているとのことです。同時に、ユーザーエクスペリエンスの改善や、数百万ユーザー規模に拡大してもリアルタイムでの応答能力を維持できるインフラの整備も行っています。
段階的な展開戦略の一環として、OpenAIはまず少数のユーザーにアルファテストを公開し、フィードバックを集め、その結果に基づいて段階的に範囲を拡大する予定です。同社は、すべてのPlusユーザーが秋までにアクセスできるようになると予想していますが、具体的なスケジュールは、厳格な安全基準と信頼性基準を満たせるかどうかに依存します。
さらに、OpenAIは以前デモで紹介された新しいビデオおよび画面共有機能も別途開発しており、進捗状況については適宜報告すると約束しています。
ChatGPTの高度な音声モードは、感情や非言語的な手がかりを理解し、反応することができます。これは、AIとのリアルタイムで自然な会話という目標に一歩近づけるものです。OpenAIは、ユーザーにこれらの新しい体験を慎重かつ丁寧な方法で提供することを使命としています。
今回のリリース延期は、OpenAIが新機能のリリースにおいて、技術の成熟度と安全性を確保することに慎重な姿勢を示していることを反映しています。それにもかかわらず、ユーザーは近い将来、この革新的なAI音声インタラクション機能を体験できることを期待できます。