Laut Bloomberg entwickelt Apple einen neuen Sprachassistenten Siri, der auf fortschrittlichen Large Language Models (LLMs) basieren soll, um ein natürlicheres Gesprächserlebnis zu ermöglichen. Apple möchte damit den Abstand zu Konkurrenten wie Google mit Gemini Live verringern, dessen Dialogfähigkeit bereits eine höhere Natürlichkeit aufweist.
Quellen zufolge soll der neue Siri-Assistent die aktuelle Siri-Oberfläche vollständig ersetzen und im Frühjahr 2026 erscheinen. Er wird die gleichen Funktionen wie der bestehende Siri bieten, auf persönliche Informationen und Anwendungen zugreifen können und eine Dialogfähigkeit ähnlich den fortschrittlichen Sprachmodellen von OpenAI besitzen.
Bis zur Veröffentlichung der neuen Version wird Apple auf Drittanbieter für erweiterte KI-Funktionen auf dem iPhone zurückgreifen. Besonders erwähnenswert ist die Integration von OpenAIs ChatGPT in Apples Sprachassistenten innerhalb der nächsten 12 Monate. Darüber hinaus führt Apple Gespräche mit anderen KI-Anbietern wie Google und Anthropic über ähnliche Kooperationen.
Apples Vorgehen spiegelt seine Bemühungen und strategische Ausrichtung im Bereich der künstlichen Intelligenz wider. Mit der Weiterentwicklung der Technologie steigen auch die Erwartungen der Nutzer an Sprachassistenten. Apple hofft, durch den neuen Siri-Assistenten die Benutzerinteraktion flüssiger und intelligenter zu gestalten. Zukünftig sollen Nutzer von personalisierteren und intelligenteren Diensten profitieren und eine völlig neue Benutzererfahrung mit dem neuen Siri erleben.
Wichtigste Punkte:
🌟 Apple entwickelt einen völlig neuen Siri Sprachassistenten, dessen Veröffentlichung für das Frühjahr 2026 geplant ist.
🤖 Der neue Siri wird auf Large Language Models basieren und ein natürlicheres Gesprächserlebnis ermöglichen.
🔗 Bis zur Veröffentlichung der neuen Version wird Apple auf KI-Funktionen von Drittanbietern zurückgreifen, darunter OpenAIs ChatGPT.