Google hat kürzlich ein bedeutendes Upgrade für sein Inferenzmodell Flash Thinking 2.0 angekündigt und gleichzeitig den Zugriff auf die Deep-Research-Funktion für alle Benutzer erweitert. Dieses Update bringt mehrere praktische Funktionen mit sich, die die Verarbeitungsleistung und die Benutzererfahrung des KI-Systems deutlich verbessern.
Laut der offiziellen Beschreibung verfügt die neueste Version von Flash Thinking 2.0 über eine neue Funktion zum Hochladen von Dateien und eine deutlich höhere Verarbeitungsgeschwindigkeit. Für Gemini Advanced-Benutzer kann das System jetzt bis zu 1 Million Token an Informationen in einem einzigen Kontextfenster verarbeiten. Das bedeutet, dass die KI größere Datensätze gleichzeitig analysieren und verstehen kann.
Gleichzeitig hat Google die Deep-Research-Funktion in Flash Thinking 2.0 optimiert. Das aktualisierte Tool kann Informationen von mehreren Websites und Dokumenten innerhalb weniger Minuten verarbeiten und dem Benutzer den Prozess der Schlussfolgerung durch schrittweise Inferenzketten zeigen. Google erklärt: „Durch die Kombination von Deep Research mit diesem neuen Modell erwarten wir eine kontinuierliche Verbesserung der Berichtsqualität.“
Die auffälligste Änderung dieses Updates betrifft die Zugänglichkeit – die Deep-Research-Funktion steht jetzt allen Benutzern zur Verfügung. Nicht zahlende Benutzer können sie monatlich einige Male kostenlos nutzen. Wie bei ähnlichen Tools anderer Unternehmen ist das System jedoch nicht fehlerfrei. Tests haben gezeigt, dass das System bei der Analyse und den Schlussfolgerungen eine gewisse Fehlerquote aufweist.
Dennoch markiert dieses Upgrade einen wichtigen Fortschritt von Google im Bereich der KI-Inferenz und bietet Benutzern ein leistungsfähigeres und benutzerfreundlicheres intelligentes Werkzeug.