Kürzlich durchgeführte Studien haben gezeigt, dass große Sprachmodelle (LLMs) in logischen Schlussfolgerungsaufgaben anfällig für die Reihenfolge der präsentierten Informationen sind. Eine veränderte Reihenfolge kann zu Leistungseinbußen führen. Forscher von Google DeepMind und Stanford weisen darauf hin, dass eine natürliche, logische Anordnung der Prämissen die Leistung der Modelle verbessern kann.
Bei LLMs führt eine Änderung der Prämissenreihenfolge zu Leistungseinbußen. Dies erfordert weitere Forschung, um dieses Problem zu lösen. Die Reihenfolge der Prämissen hat einen erheblichen Einfluss auf die Leistung großer Sprachmodelle bei Schlussfolgerungsaufgaben und stellt weiterhin eine Herausforderung dar. Modelle wie Gemini und GPT-4 weisen in diesem Bereich erhebliche Schwächen auf, was zu einer deutlichen Leistungsminderung führt.