Pesquisadores do Meta publicaram recentemente um novo estudo sobre a arquitetura Transformer, apresentando um novo mecanismo de atenção chamado System2Attention. Este mecanismo melhora a capacidade de raciocínio de modelos de linguagem ao ajustar sua atenção, resolvendo problemas de raciocínio insuficiente em tarefas complexas. Experimentos demonstraram que o System2Attention se destaca em diferentes tarefas, oferecendo uma solução inovadora para melhorar a capacidade de raciocínio de grandes modelos de linguagem.