Eine heftige Kontroverse entbrannte zwischen Yann LeCun, Mitgründer von Facebook AI Research, und den Mitgründern von xAI bezüglich der Schlussfolgerungsfähigkeit von GPT-4. LeCun kritisiert GPT-4 scharf und sieht gravierende Mängel in dessen Denkvermögen. Diese Einschätzung löste eine breite Diskussion aus.
Christian Szegedy, Mitgründer von xAI, schlug hingegen mögliche Wege vor, um die Schlussfolgerungsfähigkeit von GPT-4 zu verbessern. Einige Internetnutzer verglichen GPT-4 mit menschlichem Denken und stellten die Objektivität menschlicher Intelligenz in Frage.
Eine Studie von Subbarao Kambhampati von der Arizona State University (ASU) ergab, dass GPT-4 bei der Planung und Schlussfolgerung schlecht abschneidet und nur eine Erfolgsquote von 12% erreicht.