Kürzlich stellte Musk in einem Livestream den brandneuen Chatbot Grok3 vor und enthüllte die erstaunlichen Kosten für das Training des Modells. Grok3 ist derzeit für Premium+-Abonnenten verfügbar und schneidet in mehreren Bewertungsbereichen hervorragend ab, sogar besser als Wettbewerber wie Gemini, DeepSeek und ChatGPT.
Musk erklärte im Livestream, dass für das Training von Grok3 insgesamt 200.000 Nvidia-GPUs verwendet wurden – eine erstaunliche Zahl. Zum Vergleich: Für das Training von Grok2 wurden nur etwa 20.000 GPUs eingesetzt. Die Steigerung der Rechenleistung von Grok3 ist somit ein echter Quantensprung. Um dieses enorme Trainingsvolumen zu ermöglichen, hat das Unternehmen xAI ein neues Supercomputing-Rechenzentrum namens „Colossus“ gebaut, das zu den weltweit leistungsstärksten Einrichtungen für KI-Training zählt.
Mit der Einführung von Grok3 können Benutzer die leistungsstarken Funktionen dieser Modellreihe über die neu eingerichtete Website Grok.com erleben. Musk sagte, dass Grok3 in Bezug auf Schlussfolgerungen, Verständnis und die Generierung von Inhalten deutlich verbessert wurde, was die Weiterentwicklung der künstlichen Intelligenz vorantreiben wird.
Darüber hinaus erwähnte Musk, dass xAI plant, seinen Supercomputer-GPU-Cluster von derzeit 100.000 auf 1.000.000 Einheiten zu erweitern, was seinen Ehrgeiz im Bereich der KI unterstreicht. Diese Maßnahmen werden zweifellos tiefgreifende Auswirkungen auf die zukünftige technologische Landschaft haben.
Zusammenfassend lässt sich sagen, dass die Veröffentlichung von Grok3 einen bedeutenden Fortschritt in der KI-Technologie darstellt, und Musks kontinuierliche Investitionen und Innovationen werden diesem Bereich neue Impulse verleihen.