先日、ブルームバーグの報道によると、アップル社は高度な大規模言語モデル(LLM)技術を採用し、より自然な会話体験を実現する新しい音声アシスタントSiriを開発中とのことです。この取り組みは、近年、GoogleのGemini Liveなど、競合他社の製品が会話能力において高い自然さを示している状況を鑑み、その差を縮める狙いがあります。
情報筋によると、新しいSiriアシスタントは現在のSiriインターフェースを完全に置き換え、2026年春にリリースされる予定です。新アシスタントは既存のSiriと同じ機能を持ち、ユーザーの個人情報やアプリケーションにアクセスでき、その会話能力はOpenAIの高度な音声モデルに匹敵する可能性があります。
新バージョンのリリース前に、アップル社はiPhoneにおける高度なAI機能をサードパーティに依存する予定です。特筆すべきは、OpenAIのChatGPTが12ヶ月以内にアップルのスマートアシスタントに統合されることです。さらに、アップル社はGoogleやAnthropicなどの他のAIサービスプロバイダーとも協議しており、同様の協業を目指しているとのことです。
アップルのこの動きは、同社のAI分野における取り組みと戦略を反映しており、技術の発展に伴い、ユーザーの音声アシスタントへの期待も高まっています。アップルは、この新しいSiriアシスタントを通じて、ユーザーのインタラクション体験をよりスムーズでインテリジェントなものにすることを目指しています。将来、ユーザーはよりパーソナライズされ、インテリジェントなサービスを利用できるようになり、新しいSiriがユーザーに全く新しい使用体験をもたらすことが期待されます。
要点:
🌟 アップルは2026年春にリリース予定の全く新しいSiri音声アシスタントを開発中。
🤖 新Siriは、大規模言語モデル技術を採用し、より自然な会話体験を実現。
🔗 新バージョンのリリース前には、OpenAIのChatGPTを含むサードパーティのAI機能に依存。