Die von Anthropic entwickelten Claude 3-Modelle übertreffen OpenAIs GPT-4. Das Team besteht aus ehemaligen OpenAI-Mitarbeitern und konzentriert sich auf die Erforschung von großen Sprachmodellen, mit dem Ziel, sichere, nützliche und unschädliche Modelle zu entwickeln. Durch die Verwendung von RLHF (Reinforcement Learning from Human Feedback) wird die Leistungsfähigkeit der großen Modelle verbessert, und das Konzept der „konstitutionellen KI“ wird zur Wertevermittlung eingesetzt.